來源:經濟日報 發布時間:2023-7-24 9:48
國家網信辦等7部門近日發布《生成式人工智能服務管理暫行辦法》,對生成式人工智能(AI)技術應用劃定清晰邊界,實行包容審慎和分類分級監管,確保科學監管和鼓勵發展并行。《暫行辦法》堅持發展和安全并重、促進創新和依法治理相結合,旨在推動生成式人工智能健康有序發展。這符合今年4月底中央政治局會議提出的要求——要重視通用人工智能發展,營造創新生態,重視防范風險。
時下,以ChatGPT為代表的生成式AI技術正引領全球新一輪科技發展潮流,被視為新一輪產業變革新風口。據有關機構預測,生成式AI將為全球經濟帶來每年2.6萬億至4.4萬億美元的增長。生成式AI技術應用逐步落地,在對全球經濟社會系統產生深刻影響的同時也引發關于其風險的擔憂。各國迫切需要在AI創新應用和有序監管兩方面做出妥善平衡。
作為技術本身,生成式AI兼具正、負外部性。運用得當能解放生產力和發展生產力,運用不當也可能產生適得其反的效果。鑒于生成式AI帶來的風險尚不可預知,各國高度關注可能由此引發的各類安全與權益保護問題。比如,微軟、谷歌等科技公司開始反思AI倫理道德問題,諸如隱私信息保護等問題也亟需解決。
事實表明,促進生成式AI創新應用需要以良性監管來引導其規范健康發展。對技術加以規范,不一定會阻礙創新。通過精心設計,能做到平衡兼顧,既能接納發展新事物,也能防范失控風險。各國目前已認識到監管AI的必要性和重要性,對推動生產式AI創新應用保持著相對謹慎態度。今年5月,七國集團(G7)領導人峰會呼吁制定AI國際技術標準,并認為這一科技前沿技術的監管治理未能跟上其發展步伐。美國發布了《人工智能權利法案藍圖》《人工智能風險管理框架》等政策文件以規范AI發展,還擬發布政策指導和技術立法為AI應用設置“護欄”。歐盟制定了《人工智能法案》,對AI技術風險水平進行分類,對大型語言模型提出規范要求。英國競爭監管機構正在審查人工智能對消費者、企業和經濟的影響。日本隱私監管機構警告OpenAI不得在未經公眾許可的情況下收集敏感數據。
《暫行辦法》的出臺,表明我國在平衡AI技術創新與安全發展方面開展了有益探索。這一監管規則的落地釋放出促進生成式AI技術發展的明確信號,將引導企業在劃定的范圍加速開展技術創新和推廣應用。一方面,監管先行將為AI技術發展提供更加明確的政策預期,消除相關制度障礙,確保在科學監管框架下鼓勵行業企業繼續投入開發模型,從而在全球AI的競賽中不掉隊;另一方面,通過科學監管引導生成式AI技術應用健康向善發展,有助于提高生成內容的準確性和可靠性,有效堵住技術應用中的風險漏洞,避免被錯用、誤用、濫用,為保護公民權益和信息安全提供法規依據支撐。
生成式AI技術應用加速落地,將驅動新動能發展壯大。生成式AI技術已成為培育經濟發展新動能的新賽道,能有效提升勞動生產率,也是國際間開展科技競爭的關鍵領域之一。當前,我國對生成式AI技術應用劃定發展“紅線”,將容錯和糾錯機制納入審慎監管框架,旨在促進新技術的快速發展應用,以期增強經濟發展的后勁。《暫行辦法》通過明確生成式AI開發者、供應商和使用者社會責任和法律責任,不僅有助于維護國家、商業及公眾的安全與利益,也為AI的蓬勃發展創造良好的激勵相容生態環境。總體上看,我國及時出臺這一溫和明確的監管框架,將整體促進AI在各行各業的推廣應用,加速生成式AI在各個層面的落地,鼓勵探索優化各層面多領域的應用場景,從而推動整個行業規范健康成長,為推動經濟高質量發展提供動力支撐。
(劉向東)