生成式AI引發(fā)治理新思考

訊石光通訊網(wǎng) 2023/4/24 10:56:12

  ICC訊 過去幾個月,ChatGPT為人工智能技術(shù)按下加速鍵。這個聊天程序證明了超大參數(shù)模型和通用型人工智能的可行性,谷歌、亞馬遜等巨頭紛紛推出自主研發(fā)的相關(guān)平臺,國內(nèi)也已有十數(shù)家企業(yè)在該領(lǐng)域有所布局。

  它們被統(tǒng)稱為“生成式人工智能”。簡單來說,這種AI可以通過算法生成新內(nèi)容,包括圖像、文字、音樂,甚至視頻、代碼等。

  這令人興奮也不乏擔憂。數(shù)據(jù)安全、個人隱私、信息造假、算法歧視……各國監(jiān)管部門對一系列潛在風險反應迅速,動作不斷。

  3月底,意大利個人數(shù)據(jù)保護局宣布暫時禁止使用ChatGPT,歐盟多個國家跟進,醞釀具體監(jiān)管措施。美國商務部4月公開征求意見,討論新人工智能模型在發(fā)布前是否應經(jīng)過認證程序等內(nèi)容。我國國家網(wǎng)信辦也于近日發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》,針對準入門檻、數(shù)據(jù)來源、標注規(guī)則等作出明確規(guī)定。

  風險到哪里 監(jiān)管到哪里

  “相比以往的AI技術(shù),生成式AI可以直接利用自然語言和計算機進行交互,使用門檻低,生成內(nèi)容質(zhì)量高?!笔垒x律師事務所合伙人、律師王新銳對科技日報記者表示,“這讓其一旦被濫用或誤用,迷惑性比以往的人工智能技術(shù)更強,潛在損害也更大。并且它有可能成為一種影響各行業(yè)的底座型技術(shù)?!?

  除了涉及數(shù)據(jù)安全、個人信息保護等傳統(tǒng)問題,中國互聯(lián)網(wǎng)協(xié)會研究中心副主任吳沈括強調(diào),生成式AI也給內(nèi)容治理、社會運行產(chǎn)生沖擊和影響,這給現(xiàn)有的治理體制機制的敏捷性、覆蓋性和穿透性帶來很大挑戰(zhàn)。

  據(jù)王新銳介紹,目前,意大利、西班牙、德國、加拿大、英國等國家出于數(shù)據(jù)和隱私保護的考慮對ChatGPT及其開發(fā)者展開調(diào)查,此外,域外有可能將ChatGPT等生成式AI列入高風險人工智能清單,希望通過立法防范其風險。

  吳沈括表示,前述主要國家對于生成式AI的監(jiān)管依然從經(jīng)典的數(shù)據(jù)治理、數(shù)據(jù)安全的角度切入,在他們看來,生成式AI的核心邏輯在于海量數(shù)據(jù)的匯集、加工、處理以及豐富的運算輸出,因此,采取數(shù)據(jù)治理的思路順理成章。

  但回到我國,僅從數(shù)據(jù)治理出發(fā)還不夠,“我們的關(guān)切涉及內(nèi)容治理、消費者權(quán)益、透明度、公平性、知識產(chǎn)權(quán)保護等各個方面,基本覆蓋了目前與生成式AI相關(guān)的主要風險類型,故而采取的是一種風險預防、風險干預的多層次綜合治理思路?!眳巧蚶ㄕf。

  建構(gòu)多方參與的治理生態(tài)

  技術(shù)大步向前,如何平衡技術(shù)創(chuàng)新和政策管理,考驗各方智慧。

  “一方面,我們需要加強數(shù)據(jù)隱私和個人信息安全的保護,對生成式AI從訓練到投入使用的全生命周期的個人信息的處理和數(shù)據(jù)保護作出規(guī)范。另一方面,從生成式AI可能帶來的風險出發(fā),在現(xiàn)有法律框架上進一步建立健全生成式AI產(chǎn)業(yè)各方主體治理框架和問責機制,落實生成式AI相關(guān)主體的權(quán)利義務。”王新銳說,下一步需要進一步細化落實平臺合規(guī)機制、加強科技倫理要求、確保算法安全并建立健全問責機制、促進高質(zhì)量數(shù)據(jù)合法合規(guī)地流通共享。

  吳沈括提出,治理規(guī)則的明確性和確定性需要不斷提升,努力打造實時、敏捷、全面的監(jiān)管機制,最大限度發(fā)揮監(jiān)管的引導作用及紅線保護的根本價值。

  生成式AI爆火,涉及諸多利益訴求及關(guān)切。對此,王新銳建議,需要充分觀察產(chǎn)業(yè)界和監(jiān)管機構(gòu)、大眾媒體的互動,建立多方參與的治理機制。同時,加強公眾教育和參與,提高公眾對生成式AI的認識和理解,共同推動生成式AI的健康發(fā)展。

新聞來源:科技日報

相關(guān)文章