如何監(jiān)管像ChatGPT和Bard這樣的生成式AI機(jī)器人?

極客網(wǎng)·極客觀察2月10日 研究表明,通用人工智能工具的廣泛應(yīng)用為監(jiān)管機(jī)構(gòu)帶來新的挑戰(zhàn),他們可能難以應(yīng)對(duì)。實(shí)際上,如何監(jiān)管OpenAI的聊天機(jī)器人ChatGPT這樣的生成式AI工具,已經(jīng)成為一個(gè)困擾世界各國(guó)政策制定者的問題。 

【專題:ChatGPT引爆生成式AI 人工智能產(chǎn)業(yè)如何生變?

image001.jpg

ChatGPT可以通過關(guān)鍵字生成任何類型的內(nèi)容,并接受輸入大量知識(shí)的訓(xùn)練。其解決方案將涉及評(píng)估風(fēng)險(xiǎn),尤其是其中的某些內(nèi)容,應(yīng)該受到嚴(yán)密的監(jiān)控。

在ChatGPT推出后的兩個(gè)月,這款AI聊天機(jī)器人就成為了歷史上用戶增長(zhǎng)最快的消費(fèi)產(chǎn)品,僅在今年1月的活躍用戶就超過1億人。這促使全球大型科技公司關(guān)注或加快AI系統(tǒng)的推出,并為對(duì)話式AI領(lǐng)域帶來了新的生機(jī)。 

微軟正在其瀏覽器、搜索引擎和更廣泛的產(chǎn)品系列中嵌入對(duì)話式AI;谷歌計(jì)劃在聊天機(jī)器人Bard以及Gmail和谷歌云中的其他集成方面做同樣的事情;百度等其他科技巨頭也在推出自己的聊天機(jī)器人;Jasper和Quora等初創(chuàng)企業(yè)也在將生成式AI和對(duì)話式AI帶入主流消費(fèi)者和企業(yè)市場(chǎng)……

生成式AI加速監(jiān)管需求

廣泛的錯(cuò)誤信息和難以發(fā)現(xiàn)的網(wǎng)絡(luò)釣魚電子郵件為AI的應(yīng)用帶來真正風(fēng)險(xiǎn),如果將其用于醫(yī)療信息,則會(huì)導(dǎo)致誤診和醫(yī)療事故。如果用于填充模型的不是多樣化的數(shù)據(jù),也有很高的偏差風(fēng)險(xiǎn)。

雖然微軟已經(jīng)有了一個(gè)更準(zhǔn)確的重新訓(xùn)練的模型,而且AI21公司等提供商正在努力驗(yàn)證生成的內(nèi)容與實(shí)時(shí)數(shù)據(jù)的對(duì)比,但生成AI“看起來真實(shí)但完全不準(zhǔn)確”的響應(yīng)的風(fēng)險(xiǎn)仍然很高。

歐盟內(nèi)部市場(chǎng)專員Thierry Breton近日表示,即將出臺(tái)的歐盟AI法案將包括針對(duì)ChatGPT和Bard等生成型AI系統(tǒng)的條款。

“正如ChatGPT所展示的那樣,AI解決方案可以為企業(yè)和公民提供巨大的機(jī)會(huì),但也可能帶來風(fēng)險(xiǎn)。這就是為什么我們需要一個(gè)堅(jiān)實(shí)的監(jiān)管框架,以確?;诟哔|(zhì)量數(shù)據(jù)的值得信賴的AI?!彼f。 

AI開發(fā)需要合乎道德 

分析軟件提供商SAS在一份名為《AI與負(fù)責(zé)任創(chuàng)新》報(bào)告中概述了AI帶來的一些風(fēng)險(xiǎn)。報(bào)告的作者Kirk Borne博士說:“AI已經(jīng)變得如此強(qiáng)大、如此普遍,以至于越來越難以分辨其生成內(nèi)容的真假和好壞。采用這項(xiàng)技術(shù)的速度明顯快于監(jiān)管的步伐?!?nbsp;

SAS英國(guó)和愛爾蘭地區(qū)數(shù)據(jù)科學(xué)主管Iain Brown博士表示,政府和行業(yè)都有責(zé)任確保AI被用于有益而非有害的方面。這包括使用道德框架來指導(dǎo)AI模型的開發(fā),并嚴(yán)格治理,以確保這些模型做出公平、透明和公平的決策。我們可以將AI模型與挑戰(zhàn)者模型進(jìn)行對(duì)比,并在新數(shù)據(jù)可用時(shí)對(duì)其進(jìn)行優(yōu)化。” 

其他專家認(rèn)為,軟件開發(fā)商將被要求降低軟件所代表的風(fēng)險(xiǎn),只有風(fēng)險(xiǎn)最高的活動(dòng)才會(huì)面臨更嚴(yán)格的監(jiān)管措施。 

美國(guó)瑞格律師事務(wù)所(Ropes&Gray)數(shù)據(jù)、隱私和網(wǎng)絡(luò)安全助理Edward Machin表示,像ChatGPT這樣看似一夜之間出現(xiàn)的技術(shù),其應(yīng)用速度將快于監(jiān)管法規(guī),這是不可避免的情況,尤其是在AI這樣已經(jīng)很難監(jiān)管的領(lǐng)域。

他表示:“盡管對(duì)這些技術(shù)的監(jiān)管政策將會(huì)出臺(tái),監(jiān)管方法和監(jiān)管時(shí)機(jī)仍有待觀察。AI系統(tǒng)的供應(yīng)商將會(huì)首當(dāng)其沖,但進(jìn)口商和分銷商(至少在歐盟)也將承擔(dān)潛在的義務(wù)。這可能會(huì)使一些開源軟件開發(fā)者陷入困境。開源開發(fā)者和其他下游各方的責(zé)任將如何處理,可能會(huì)對(duì)這些人進(jìn)行創(chuàng)新和研究的意愿產(chǎn)生寒蟬效應(yīng)。”

版權(quán)、隱私和GDPR法規(guī) 

此外Machin認(rèn)為,除了對(duì)AI的整體監(jiān)管之外,關(guān)于其生成內(nèi)容的版權(quán)和隱私也存在問題。例如,目前尚不清楚開發(fā)人員是否能夠輕松地(如果有的話)處理個(gè)人的刪除或更正請(qǐng)求,也不清楚他們?nèi)绾文軌蛞砸环N可能違反第三方網(wǎng)站服務(wù)條款的方式從他們的網(wǎng)站抓取大量數(shù)據(jù)。

在艾倫·圖靈研究所從事AI監(jiān)管工作的紐卡斯?fàn)柎髮W(xué)法律、創(chuàng)新和社會(huì)專業(yè)的教授 Lilian Edwards表示,其中一些模型將受到GDPR法規(guī)的監(jiān)管,這可能會(huì)導(dǎo)致發(fā)布刪除訓(xùn)練數(shù)據(jù)甚至算法本身的命令。如果網(wǎng)站所有者失去了AI搜索的流量,這也可能意味著從互聯(lián)網(wǎng)大規(guī)模抓取數(shù)據(jù)的終結(jié),目前這種抓取是谷歌等搜索引擎的發(fā)展動(dòng)力。 

他指出,最大的問題是這些AI模型的通用性質(zhì)。這使得它們難以根據(jù)歐盟AI法案進(jìn)行監(jiān)管,該法案是根據(jù)面臨的風(fēng)險(xiǎn)起草的,因?yàn)楹茈y判斷最終用戶將用這項(xiàng)技術(shù)做什么。歐盟委員會(huì)正試圖增加規(guī)則來管理這類技術(shù)。

加強(qiáng)算法透明度可能是一種解決方案。Edwards說:“大型科技公司將開始游說監(jiān)管機(jī)構(gòu),他們說,‘你們不能把這些義務(wù)強(qiáng)加給我們,因?yàn)槲覀儫o法想象未來的每一種風(fēng)險(xiǎn)或用途’。有一些處理這個(gè)問題的方法對(duì)大型科技公司或多或少有所幫助,包括讓底層算法更加透明。我們正處在困難時(shí)刻,需要獲得激勵(lì)措施朝著開放和透明的方向發(fā)展,以便更好地理解AI如何做出決策和生成內(nèi)容?!?nbsp;

她還說:“這和人們?cè)谑褂酶鼰o聊的技術(shù)時(shí)遇到的問題是一樣的,因?yàn)榧夹g(shù)是全球性的,而居心不良的人無處不在,因此進(jìn)行監(jiān)管非常困難。通用AI的行為很難匹配AI法規(guī)?!?nbsp;

AI咨詢服務(wù)商DragonFly首席技術(shù)官Adam Leon Smith表示:“全球監(jiān)管機(jī)構(gòu)越來越意識(shí)到,如果不考慮AI技術(shù)的實(shí)際使用情況,就很難監(jiān)管。準(zhǔn)確度和偏差要求只能在使用的背景下考慮,在大規(guī)模采用之前,也很難考慮到風(fēng)險(xiǎn)、權(quán)利和自由要求?!?/p>

“監(jiān)管機(jī)構(gòu)可以強(qiáng)制要求AI技術(shù)提供商提供透明度和日志記錄。然而,只有為特定目的而操作和部署大型語言模型(LLM)系統(tǒng)的用戶才能了解風(fēng)險(xiǎn),并通過人工監(jiān)管或持續(xù)監(jiān)控實(shí)施緩解措施?!彼a(bǔ)充道。

AI監(jiān)管迫在眉睫 

歐盟委員會(huì)內(nèi)部曾經(jīng)對(duì)于AI監(jiān)管進(jìn)行了大規(guī)模辯論,數(shù)據(jù)監(jiān)管機(jī)構(gòu)對(duì)此必須認(rèn)真應(yīng)對(duì)。最終,Leon Smith認(rèn)為,隨著監(jiān)管機(jī)構(gòu)越來越關(guān)注這一問題,AI提供商將開始列出“不得使用”該技術(shù)的目的,包括在用戶登錄之前發(fā)布法律免責(zé)聲明,將其置于基于風(fēng)險(xiǎn)的監(jiān)管行動(dòng)范圍之外。

Leon Smith稱,目前管理AI系統(tǒng)的最佳實(shí)踐幾乎沒有涉及大型語言模型,這是一個(gè)發(fā)展極其迅速的新興領(lǐng)域。而在這個(gè)領(lǐng)域有很多工作需要做,很多公司提供這些技術(shù)并沒有幫助定義它們。 

OpenAI首席技術(shù)官M(fèi)ira Muratti也稱,生成式AI工具需要受到監(jiān)管,“對(duì)于我們這樣的公司來說,以一種可控和負(fù)責(zé)任的方式讓公眾意識(shí)到這一點(diǎn)很重要?!?但她也表示,除了監(jiān)管AI供應(yīng)商之外,還需要對(duì)AI系統(tǒng)進(jìn)行更多的投入,包括來自監(jiān)管機(jī)構(gòu)和政府的投入。”

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-02-10
如何監(jiān)管像ChatGPT和Bard這樣的生成式AI機(jī)器人?
研究表明,通用人工智能工具的廣泛應(yīng)用為監(jiān)管機(jī)構(gòu)帶來新的挑戰(zhàn),他們可能難以應(yīng)對(duì)。實(shí)際上,如何監(jiān)管OpenAI的聊天機(jī)器人ChatGPT這樣的生成式AI工具,已經(jīng)成為一個(gè)困擾世界各國(guó)政策制定者的問題。

長(zhǎng)按掃碼 閱讀全文