ICC訊 過去幾個月,ChatGPT為人工智能技術(shù)按下加速鍵。這個聊天程序證明了超大參數(shù)模型和通用型人工智能的可行性,谷歌、亞馬遜等巨頭紛紛推出自主研發(fā)的相關(guān)平臺,國內(nèi)也已有十?dāng)?shù)家企業(yè)在該領(lǐng)域有所布局。
它們被統(tǒng)稱為“生成式人工智能”。簡單來說,這種AI可以通過算法生成新內(nèi)容,包括圖像、文字、音樂,甚至視頻、代碼等。
這令人興奮也不乏擔(dān)憂。數(shù)據(jù)安全、個人隱私、信息造假、算法歧視……各國監(jiān)管部門對一系列潛在風(fēng)險反應(yīng)迅速,動作不斷。
3月底,意大利個人數(shù)據(jù)保護局宣布暫時禁止使用ChatGPT,歐盟多個國家跟進(jìn),醞釀具體監(jiān)管措施。美國商務(wù)部4月公開征求意見,討論新人工智能模型在發(fā)布前是否應(yīng)經(jīng)過認(rèn)證程序等內(nèi)容。我國國家網(wǎng)信辦也于近日發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》,針對準(zhǔn)入門檻、數(shù)據(jù)來源、標(biāo)注規(guī)則等作出明確規(guī)定。
風(fēng)險到哪里 監(jiān)管到哪里
“相比以往的AI技術(shù),生成式AI可以直接利用自然語言和計算機進(jìn)行交互,使用門檻低,生成內(nèi)容質(zhì)量高?!笔垒x律師事務(wù)所合伙人、律師王新銳對科技日報記者表示,“這讓其一旦被濫用或誤用,迷惑性比以往的人工智能技術(shù)更強,潛在損害也更大。并且它有可能成為一種影響各行業(yè)的底座型技術(shù)?!?
除了涉及數(shù)據(jù)安全、個人信息保護等傳統(tǒng)問題,中國互聯(lián)網(wǎng)協(xié)會研究中心副主任吳沈括強調(diào),生成式AI也給內(nèi)容治理、社會運行產(chǎn)生沖擊和影響,這給現(xiàn)有的治理體制機制的敏捷性、覆蓋性和穿透性帶來很大挑戰(zhàn)。
據(jù)王新銳介紹,目前,意大利、西班牙、德國、加拿大、英國等國家出于數(shù)據(jù)和隱私保護的考慮對ChatGPT及其開發(fā)者展開調(diào)查,此外,域外有可能將ChatGPT等生成式AI列入高風(fēng)險人工智能清單,希望通過立法防范其風(fēng)險。
吳沈括表示,前述主要國家對于生成式AI的監(jiān)管依然從經(jīng)典的數(shù)據(jù)治理、數(shù)據(jù)安全的角度切入,在他們看來,生成式AI的核心邏輯在于海量數(shù)據(jù)的匯集、加工、處理以及豐富的運算輸出,因此,采取數(shù)據(jù)治理的思路順理成章。
但回到我國,僅從數(shù)據(jù)治理出發(fā)還不夠,“我們的關(guān)切涉及內(nèi)容治理、消費者權(quán)益、透明度、公平性、知識產(chǎn)權(quán)保護等各個方面,基本覆蓋了目前與生成式AI相關(guān)的主要風(fēng)險類型,故而采取的是一種風(fēng)險預(yù)防、風(fēng)險干預(yù)的多層次綜合治理思路?!眳巧蚶ㄕf。
建構(gòu)多方參與的治理生態(tài)
技術(shù)大步向前,如何平衡技術(shù)創(chuàng)新和政策管理,考驗各方智慧。
“一方面,我們需要加強數(shù)據(jù)隱私和個人信息安全的保護,對生成式AI從訓(xùn)練到投入使用的全生命周期的個人信息的處理和數(shù)據(jù)保護作出規(guī)范。另一方面,從生成式AI可能帶來的風(fēng)險出發(fā),在現(xiàn)有法律框架上進(jìn)一步建立健全生成式AI產(chǎn)業(yè)各方主體治理框架和問責(zé)機制,落實生成式AI相關(guān)主體的權(quán)利義務(wù)?!蓖跣落J說,下一步需要進(jìn)一步細(xì)化落實平臺合規(guī)機制、加強科技倫理要求、確保算法安全并建立健全問責(zé)機制、促進(jìn)高質(zhì)量數(shù)據(jù)合法合規(guī)地流通共享。
吳沈括提出,治理規(guī)則的明確性和確定性需要不斷提升,努力打造實時、敏捷、全面的監(jiān)管機制,最大限度發(fā)揮監(jiān)管的引導(dǎo)作用及紅線保護的根本價值。
生成式AI爆火,涉及諸多利益訴求及關(guān)切。對此,王新銳建議,需要充分觀察產(chǎn)業(yè)界和監(jiān)管機構(gòu)、大眾媒體的互動,建立多方參與的治理機制。同時,加強公眾教育和參與,提高公眾對生成式AI的認(rèn)識和理解,共同推動生成式AI的健康發(fā)展。