(資料圖)
4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》?!墩髑笠庖姼濉肪蜕墒饺斯ぶ悄茉谘邪l(fā)、應(yīng)用等不同環(huán)節(jié)需遵循的社會倫理,對知識產(chǎn)權(quán)與個人隱私保障等法律義務(wù),以及服務(wù)平臺應(yīng)遵守的相關(guān)法規(guī)和應(yīng)盡責(zé)任,明確了標(biāo)準(zhǔn)和要求。所謂“生成式人工智能”,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù),近段時間引爆全球的ChatGPT,就屬于一種生成式人工智能服務(wù)。
任何一場技術(shù)革命總是伴隨著滯后的風(fēng)險規(guī)避措施。近來,“AI寫假新聞”“AI一鍵脫衣”等案例提醒我們,在擁抱人工智能的同時,必須構(gòu)建完善的管理制度和法律規(guī)范,讓AI及其開發(fā)者明白該做什么、不該做什么?!墩髑笠庖姼濉穼θ斯ぶ悄軕?yīng)用“立規(guī)矩”,并不是要限制它的發(fā)展,而是強(qiáng)調(diào)科技發(fā)展是安全的,且必須向著合乎人類利益的方向演進(jìn)。從這個意義上講,“讓我們享受一個漫長的AI夏天,而不是毫無準(zhǔn)備地陷入秋天”,并非一般的詩句,而是人類邁向科技未來需要反復(fù)唱頌的史詩。
其中,“安全”兩字對人工智能來說至關(guān)重要。之前,圖靈獎得主約書亞·本吉奧、計算機(jī)科學(xué)家斯圖爾特·羅素以及特斯拉創(chuàng)始人馬斯克等千余名業(yè)界人士則站出來指出,鑒于最近幾個月來人工智能領(lǐng)域已陷入一場幾近失控的競賽,巨型AI研究是時候按下暫停鍵,并且在這段時間里,所有AI實(shí)驗室和獨(dú)立學(xué)者都應(yīng)該合力開發(fā)一套共享安全協(xié)議,這些協(xié)議必須確保這些AI系統(tǒng)毋庸置疑的安全。
《征求意見稿》同樣也提出,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,采取措施防止生成虛假信息;防止傷害他人身心健康,損害肖像權(quán)、名譽(yù)權(quán)和個人隱私,侵犯知識產(chǎn)權(quán);禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密等。這些規(guī)定都是為促進(jìn)人工智能技術(shù)的健康發(fā)展和規(guī)范應(yīng)用,盡量使“技術(shù)向善”。
因為比起失控的技術(shù),更有可能失控的是用技術(shù)來為非作歹的“人”。比如,惡意使用者可能會利用ChatGPT來制造虛假信息、實(shí)施欺詐活動或進(jìn)行其他不道德行為。《征求意見稿》從預(yù)防性原則出發(fā)提出監(jiān)管并不是簡單叫停,而是通過科技風(fēng)險的認(rèn)知和研判,探尋我們可以接受的研究和創(chuàng)新。毫無疑問,科技將越來越深地走進(jìn)生命和智能等關(guān)乎人類存在的領(lǐng)域,人的價值、倫理等問題也因此必須被視為研究和創(chuàng)新的內(nèi)在環(huán)節(jié),必須在關(guān)注度和監(jiān)管措施上給予相應(yīng)的投入,“與時俱進(jìn)”的風(fēng)險規(guī)避,實(shí)施更全面的人工監(jiān)管,時刻關(guān)注AI技術(shù)的安全性,確保其不會被濫用,才能充分發(fā)揮人工智能的潛力,為人類社會帶來更多便利和進(jìn)步。
立好規(guī)矩、劃好紅線,使科技的力量在我們可以掌控的節(jié)奏下有序綻放,人工智能才能更好造福人類,而不是引發(fā)焦慮、成為威脅?!墩髑笠庖姼濉窂V納眾言,也希望社會相關(guān)各方積極參與其中,共同維護(hù)生成式AI的技術(shù)研發(fā)和產(chǎn)業(yè)發(fā)展。
(文章來源:上游新聞)
Copyright @ 2015-2022 亞洲晚報網(wǎng)版權(quán)所有 備案號: 豫ICP備20022870號-9 聯(lián)系郵箱:553 138 779@qq.com