作者:徐君鋒(中國傳媒大學計算機與網絡空間安全學院副研究員)


(相關資料圖)

在ChatGPT為代表的生成式人工智能時代,面對突如其來的機遇和挑戰,除了享受它帶來的便利與效益,更重要的就是把握主動,將機遇真正轉化為自己所有,還要進一步思考新的監管思路,突破法律滯后性局限,實現以技術推動法治,以法治促進技術的良性循環。

一、生成式人工智能的機遇與挑戰

自ChatGPT面世以來,它以極高的人工智能水平為人們的生活水平提高以及社會的發展帶來了機遇和挑戰。機遇主要表現在其自身所創造的價值,現如今生成式人工智能的生產內容是一種全新的模式即“AI生產內容模式”(AI Generated Content,AIGC)。AIGC以其高效、高質量、低成本的優勢更新了當今的互聯網內容生產模式,并且針對元宇宙、3D技術等新興領域具有較大的發展潛力,成為了各國試圖搶占先進技術優勢的最佳武器。

與此同時,生成式人工智能作為人工智能領域的全新產品,在一定程度上又重新加劇了傳統人工智能所造成的社會問題,除此之外還引發了一系列連帶性的新挑戰亟待克服。

從科技創新的角度,生成式人工智能更新換代速度極快,從算法模型到深度合成技術再到如今的人工智能生成內容,每一次更新的背后都需要強大的技術支撐,而無論是現如今生成式人工智能的各種訓練算法,還是Transformer等訓練架構,基本固定掌握在幾個相關領域的核心企業之中。而要想在這場新一輪人工智能的浪潮中奮勇向前,就必須對科技創新進行重點關注。

從社會影響的角度,人工智能所帶來的失業問題與收入差距一直都是各國發展的攻堅點,針對失業問題,傳統的人工智能僅能替代一些交互性較弱、模型化較強的工作,但現如今以ChatGPT為代表的生成式人工智能已經展現出了強大的社交能力,并且能夠在依照指令(Prompt)的指示下檢索整合出更加符合要求的內容,因此有研究表示下一步能夠被替代的可能就是技能水平較高并且薪酬水平也較高的白領人群。

與此同時,生成式人工智能的出現已經使原有的人工智能法律體系受到了嚴重的沖擊,它不僅重新定義了法律主體和法律客體,重新定義了法律關系,還因此引發了一系列安全問題,主要包括數據安全與隱私安全。并且生成內容的歸屬與真實性也是需要關注的問題。

二、注重科技與法制并重的全局把控

(一)從研發到應用:分階段解析生成式人工智能的成長

以ChatGPT為代表的生成式人工智能技術的研發從最初利用自然語言處理系統進行交互的聊天機器人,到現階段有望在多個領域如醫療輔助、教育科研、無人駕駛以及生物識別等實現廣泛應用,其中關注的重點包括技術研發、政策支持以及應用規制等多方面的共同推進。

從技術研發的角度,從生成式人工智能的運行原理來看,它離不開算法、算力和數據的協調配合。在算法方面,以ChatGPT為代表的生成式人工主要采用“生成式預訓練轉換模型”(Generative Pre-trained Transformer),而這種模型則使用“利用人類反饋強化學習”(Reinforcement Learning from Human Feedback,RLHF)的訓練方式,通過人類與機器人交互回答逐漸生成答案。由此來看,如何提高人類反饋提高人工智能的生成水平實現迭代升級,是目前需要考慮的問題。就算法而言,ChatGPT所需算力需求巨大,這也決定了極高的資金要求,該問題涉及到企業如何協調自身電力儲備以及與公共資源之間的銜接。眾所周知,ChatGPT之所以能夠表現出如此強大的交互能力,主要取決于其大量的數據訓練,這種訓練無疑對數據數量具有較大的需求,而如何獲取和篩選數據則是該問題的重點。

除了技術本身的提升之外,政策支持和應用規制也是不可忽視的部分。目前我國針對生成式人工智能的政策和規制呈現出滯后性的特點,這種滯后性就決定了在面對技術的升級迭代時,無法良好全面的應對各種問題。目前我國也意識到了該問題,因此除了已有的《網絡音視頻信息服務管理規定》、《互聯網信息服務深度合成管理規定》等針對性政策規定之外,又于2023年4月出臺《生成式人工智能服務管理辦法(征求意見稿)》(簡稱《辦法》),用以解決現有問題并附帶一系列前瞻性規定。并且,除了相應的政策法規,我國又將對人工智能的規制聚焦到安全標準上,目前我國首個人工智能安全國家標準《信息安全技術 機器學習算法安全評估規范》即將出臺,與此并行編制的還有《信息安全技術 人工智能計算平臺安全框架》等標準。

(二)從經驗到實踐:拓寬度搭建國際網絡空間命運共同體

在面對如此強大的生成式人工智能新沖擊,結合我國情況進行法律監管構思的同時,配合國際組織方向,吸取面對同樣機遇和挑戰的別國經驗也成為了搭建國際網絡空間命運共同體的有效途徑之一。

聯合國教科文組織于2021年11月發布《人工智能倫理問題建議書》,旨在為和平使用人工智能系統、防范人工智能危害提供基礎。

歐盟堅持其對人權保護的傳統,隨著生成式人工智能的不斷迭代,2021年4月,歐盟委員會發布了立法提案《歐洲議會和理事會關于制定人工智能統一規則(人工智能法)和修訂某些歐盟立法的條例》(以下簡稱《歐盟人工智能法案》),主要思路在于由政府主要針對人工智能可能產生的風險急性預防和管理,例如要求生成式人工智能的開發商在其內容中披露“來自人工智能”的標識等。

美國參議院、聯邦政府、國防部、白宮等先后發布《算法問責法(草案)》《人工智能應用的監管指南》《人工智能道德原則》《人工智能權利法案》《國家網絡安全戰略》等文件,相較于歐盟也更加重視安全的因素,并且鼓勵“政府+企業”的合作監管模式,既鼓勵了相關領域的自律發展,又加強了監管體系。

除此之外,其他國家一部分更加強調創新,一部分仍舊更加側重于安全的考量,這實際上也為我國生成式人工智能的監管提供了思路,即平衡科技創新與法律監管兩者并重,能夠在更好的促進行業發展的同時,將倫理、安全、人權等因素進行保護,在同樣的思路上進行多邊合作探討,實現網絡空間命運共同體的搭建,并不斷擴展共識寬度。

三、提供護航生成式人工智能健康發展的中國方案

(一)科技創新能力的重視與提高

技術研發與政策支持并重才能夠繼續推進我國人工智能科技創新能力,進一步實現科技自立自強。

首先,應當從根本上搭建適合我國的技術框架,避免“卡脖子”的問題。在增加傳統技術科研項目的基礎之上,分類別從算法、算力以及數據的角度進行細化升級,將國內前沿學術理論與專利產品進一步落實,以解決目前學術界與實務界相對隔絕的現狀。

其次,完善相關配套制度以及輸送大量科研人才也是較為穩妥的解決方式??紤]建立專門的關于生成式人工智能研發與規制的機構,主要作用在于整合和調配現有資源,可以參考美國成立的國防部高級研究計劃局(Defense Advanced Research Projects Agency,DARPA)。鼓勵跨學科、跨領域對話,利用多學科人才全方位對生成式人工智能技術予以解讀,從技術、倫理、法律各個層面實現對生成式人工智能技術創新以及生成內容規制問題的處理,從而完善相關科研協同制度。

最后,面對生成式人工智能除了按照傳統的技術創新和政策扶持外還應當思考背后的產研聯動模式,建議構建大型科技企業與重點科研機構的產研協同創新模式,引領技術攻關。這種模式旨在發揮科研機構在關鍵核心技術上的研究優勢,同時發揮大型科技企業在產品化、工程化、場景化、商業化和數據化方面的優勢。以此為基礎,進一步提出“人才+機器”的配合訓練,用以應對生成式人工智能可能出現的現實問題。

(二)法律監管制度的更新與完善

就法律制度的監管而言,我國目前已經出臺了一系列的規定和標準用以解決生成式人工智能來襲所帶來的一系列風險和問題。從生成式人工智能本身來看,它打破了傳統的法律主體與法律客體的概念。例如ChatGPT既能夠作為一種“勞務關系”的法律主體,利用其模型技術完成對方交辦的各項任務;還能夠作為一種新的技術類型被當作買賣關系或租賃關系的客體進行交易和流通。這些可能導致法律關系或法律監管混亂的情形都有待進一步規制和監管。從問題的不同類型來看,現階段生成式人工智能可能存在的突出問題主要包括知識產權權屬問題、數據隱私安全問題以及生成內容合法性問題。

第一,針對生成內容知識產權歸屬問題。有學者認為“應用算法、規則和模板的結果,不能體現創作者獨特的個性”。但是隨著ChatGPT的不斷升級,其所代表的生成式人工智能的輸出能力得到進一步提升,故近期又有學者認為這使得“程序算法和獨立思考的界限進一步模糊”。我國最近出臺的《辦法》意見稿中也提到了相關問題的處理,如要求生成內容中“不含有侵犯知識產權的內容”,但此規定仍然較為籠統。針對該問題在不具備立法背景的情況下,可以以相關規章辦法為基礎,提出進一步的細化措施予以指導,還可以由最高法出臺相應指導性判例的方式表明立法導向。

第二,針對數據隱私安全問題。可以借鑒歐盟的分階段處理模式,即事前評估、事中監管和事后追責。我國已經出臺《數據安全法》、《個人信息保護法》以及相應的《市場準入負面清單(2022)》,應當充分以現有法規為基礎,全方位從服務準入、風險監管和責任追究的角度進行把控。

第三,針對生成內容合法性問題。鼓勵提高技術水平的同時注重研發自監測模型用于提前規制人工智能生成內容的合法性,并且注重多個法律部門聯動治理。具體舉措參考電信詐騙工作思路,將標識功能運用到該問題的處理上,在刑法、行政法等法律部門中補充協調相應內容。

標簽: