如何監(jiān)管生成式人工智能,?征求意見稿來了

  來源:人民網(wǎng)-強國論壇周晶 王雪純2023-04-18
打印本文
核心提示:生成式人工智能服務在帶來生產(chǎn)力巨大變革的同時,,也存在算法偏見,、信息泄露,、內(nèi)容造假等安全隱患,。近日,,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務管理辦法(征求意

生成式人工智能服務在帶來生產(chǎn)力巨大變革的同時,,也存在算法偏見,、信息泄露,、內(nèi)容造假等安全隱患,。近日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》),,對生成式人工智能服務進行了框架性規(guī)范,。

《征求意見稿》釋放了哪些信號?系好“安全帶”,,對生成式人工智能健康發(fā)展和規(guī)范應用有何作用,?人民網(wǎng)“強觀察”欄目記者就此采訪了中國科學技術(shù)大學網(wǎng)絡空間安全學院副院長張衛(wèi)明、北京大學信息化與信息管理研究中心主任黃文彬,。

既劃定界限也有發(fā)展空間

生成式人工智能,,是指基于算法、模型,、規(guī)則生成文本,、圖片、聲音,、視頻,、代碼等內(nèi)容的技術(shù)。近來大火的ChatGPT即屬于此類技術(shù),。

《征求意見稿》的公布,,距離2022年11月30日對話式AI模型ChatGPT的發(fā)布不足5個月時間,如此高效出臺,,釋放什么信號,?

在張衛(wèi)明看來,,這種高效監(jiān)管顯示出國家層面對生成式人工智能的支持與重視?!墩髑笠庖姼濉诽岢龆嗑S監(jiān)管意見,,強調(diào)保護,防止“濫用”,,有助于國內(nèi)生成式人工智能服務健康發(fā)展,。“《征求意見稿》明確提出,,‘國家支持人工智能算法,、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新、推廣應用,、國際合作’,,制定本辦法的目的是‘促進生成式人工智能健康發(fā)展和規(guī)范應用’”。

黃文彬表示,,《征求意見稿》發(fā)出了生成式人工智能需要在維護國家安全和社會穩(wěn)定,、保障公民和其他組織的合法權(quán)益的前提下研究發(fā)展與技術(shù)應用的信號?!斑@個管理辦法為保護個人,、國家甚至全球安全將起到重要作用。尤其是在生成式人工智能日益廣泛應用的當下,,人們需要足夠的專業(yè)知識才能判別智能產(chǎn)品輸出結(jié)果的真?zhèn)蝺?yōu)劣,,這些結(jié)果可能會影響個人的品德思想與行為規(guī)范。一旦出現(xiàn)問題,,可能會對整個社會或國家產(chǎn)生負面影響,,這種負面影響有可能超過服務提供者或用戶的可控范圍?!?

監(jiān)管措施迎頭趕上

雖然生成式人工智能技術(shù)正在或即將引發(fā)生產(chǎn)力變革,,但其產(chǎn)生的風險和挑戰(zhàn)不能忽視。

比如,,生成式人工智能技術(shù)會根據(jù)要求生成有說服力且有針對性的虛假信息,;它還可能回答如何自殺、如何制造化學武器等可能導致嚴重后果的問題,。諸如此類新現(xiàn)象,,都需要監(jiān)管的與時俱進。

記者梳理發(fā)現(xiàn),,不少國家重視生成式人工智能的監(jiān)管,。英國政府于3月發(fā)布了第一份人工智能白皮書,概述了人工智能治理的5項原則。當?shù)貢r間3月31日,,意大利個人數(shù)據(jù)保護局宣布,,從即日起禁止使用聊天機器人ChatGPT,限制其開發(fā)公司OpenAI處理意大利用戶信息,,并立案調(diào)查,。美國商務部近日就相關(guān)問責措施正式公開征求意見,包括新人工智能模型在發(fā)布前是否應經(jīng)過認證程序,。

黃文彬表示,,全球范圍內(nèi)加強生成式人工智能的監(jiān)管力度,意味著數(shù)據(jù)安全和隱私保護已經(jīng)成為生成式人工智能發(fā)展的重要前提,。我國選擇生成式人工智能作為規(guī)制對象并積極發(fā)布《征求意見稿》,,這在全世界范圍內(nèi)都是走在前列的,。

“人工智能技術(shù)存在著較大的不確定性和不可控性,,應該接受嚴格的安全評估,需要監(jiān)管來確保這些安全措施得以實施,?!睆埿l(wèi)明說,隨著更多應用落地,,一些潛在的風險將被認識和暴露,,《征求意見稿》只是第一步。

提前布局守住“安全底線”

防止生成式人工智能濫用,,在充分發(fā)揮政府監(jiān)管職能的同時,,也需科技企業(yè)提前布局,發(fā)揮技術(shù)能力守住“安全底線”,。

黃文彬表示,,生成式人工智能只是一個工具。技術(shù)本身沒有好壞之分,,但應用技術(shù)時需要重點考慮智能產(chǎn)品情境背景的適用性,、使用方式的合理性和應用目的的正確性。比如,,在用戶相對感覺心理孤獨空虛的情景下,,智能產(chǎn)品可以提供聊天陪伴,以舒緩用戶心理為目的,。然而,,假如該產(chǎn)品提供偏頗甚至具有負面傾向性的聊天內(nèi)容,可能會使用戶產(chǎn)生自殺,、暴力,、歧視等問題,對個人及社會產(chǎn)生較大的傷害。

《征求意見稿》也提出,,利用生成式人工智能生成的內(nèi)容應當真實準確,,采取措施防止生成虛假信息;尊重他人合法利益,,防止傷害他人身心健康,,損害肖像權(quán)、名譽權(quán)和個人隱私,,侵犯知識產(chǎn)權(quán),;禁止非法獲取、披露,、利用個人信息和隱私,、商業(yè)秘密等?!斑@些規(guī)定都是為了促進人工智能技術(shù)的健康發(fā)展和規(guī)范應用,。”張衛(wèi)明說,。

“比如虛假信息檢測技術(shù),,國外已經(jīng)布局,我們的安全技術(shù)專家,、安全技術(shù)企業(yè)也應盡快提出相應的技術(shù)方案,。”張衛(wèi)明認為,,再先進的科技都需要人來使用,、人來控制、人來確保安全,。實施更全面的人工監(jiān)管,,時刻關(guān)注技術(shù)的安全性,確保其不會被濫用,,才能充分發(fā)揮人工智能的潛力,。

(編輯:月兒)


如何監(jiān)管生成式人工智能?征求意見稿來了

 

免責聲明:

1、本網(wǎng)內(nèi)容凡注明"來源:315記者攝影家網(wǎng)"的所有文字,、圖片和音視頻資料,,版權(quán)均屬315記者攝影家網(wǎng)所有,轉(zhuǎn)載,、下載須通知本網(wǎng)授權(quán),,不得商用,在轉(zhuǎn)載時必須注明"稿件來源:315記者攝影家網(wǎng)",違者本網(wǎng)將依法追究責任,。
2,、本文系本網(wǎng)編輯轉(zhuǎn)載,轉(zhuǎn)載出于研究學習之目的,,為北京正念正心國學文化研究院藝術(shù)學研究,、宗教學研究、教育學研究,、文學研究,、新聞學與傳播學研究、考古學研究的研究員研究學習,,并不代表本網(wǎng)贊同其觀點和對其真實性負責,。
3、如涉及作品,、圖片等內(nèi)容,、版權(quán)和其它問題,請作者看到后一周內(nèi)來電或來函聯(lián)系刪除,。