ChatGPT令人著迷,但仍沒有解決AI聊天機(jī)器人“捏造事實”的缺陷

極客網(wǎng)·極客觀察12月13日 ChatGPT這種能言善辯的新型聊天機(jī)器人最近成為了互聯(lián)網(wǎng)的寵兒。它展示了對話式人工智能有多么吸引人,即使生成了一些胡編亂造的內(nèi)容。

【專題:ChatGPT引爆生成式AI 人工智能產(chǎn)業(yè)如何生變?

由初創(chuàng)公司OpenAI開發(fā)的ChatGPT自從上周發(fā)布以來已經(jīng)得到業(yè)界人士的高度關(guān)注。一些早期用戶已經(jīng)在網(wǎng)上發(fā)布了他們的實驗截圖,驚嘆于它能夠生成幾乎任何主題的短文,可以模仿寫作,回答復(fù)雜的編碼問題等等。有人預(yù)測,這項服務(wù)將使傳統(tǒng)的搜索引擎和家庭作業(yè)變得過時。 

image001.jpg

和許多人一樣,Abacus首席執(zhí)行官Bindu Reddy最近也正在關(guān)注ChatGPT。該公司是一家人工智能開發(fā)商,已經(jīng)在探索如何使用ChatGPT來幫助編寫技術(shù)文檔。Reddy說,“我們已經(jīng)進(jìn)行了測試,并且效果很好。”

AI聊天機(jī)器人不新鮮,ChatGPT有何優(yōu)勢?

ChatGPT核心的人工智能實際上并不是什么新鮮事物。這是一種名為GPT-3的人工智能模型的一個版本,它根據(jù)從網(wǎng)絡(luò)上收集的大量文本中提取的模式生成文本。該模型作為一種商業(yè)API可供程序員使用。

事實表明,在某些時候,它可以很好地回答問題和生成文本。但要讓服務(wù)以一種特定的方式做出響應(yīng),就需要精心制作正確的提示,以將其輸入到軟件中。

ChatGPT之所以脫穎而出,是因為它可以接受一個自然措辭的問題,并使用GPT-3的一個新變體GPT-3.5來回答它。這一調(diào)整釋放了一種新的能力,為強(qiáng)大的人工智能模型提供了一個引人注目的新界面,幾乎任何人都可以使用。OpenAI免費開放了這項服務(wù),而且它的小故障也很有趣,這也推動了聊天機(jī)器人的應(yīng)用,例如類似于一些使用人工智能創(chuàng)建圖像的工具被證明是制作表情包的理想工具。 

OpenAI并沒有發(fā)布關(guān)于如何為其文本生成軟件提供更加自然的新界面的全部細(xì)節(jié),但該公司在一篇博客中分享了一些信息。其開發(fā)團(tuán)隊將編寫的答案作為訓(xùn)練數(shù)據(jù)輸入GPT-3.5,然后使用一種被稱為強(qiáng)化學(xué)習(xí)的模擬獎懲形式來推動模型為示例問題提供更好的答案。 

斯坦福大學(xué)教授克里Christopher Potts表示,OpenAI之前展示過的用于幫助ChatGPT回答問題的方法,似乎是幫助人工智能以一種更具有相關(guān)性的方式處理語言的重要一步。盡管他認(rèn)為這可能會使他的研究工作更加復(fù)雜,但他也說,“這讓我開始思考,在那些要求簡短回答作業(yè)的課程上,我該怎么做?!?nbsp;

麻省理工學(xué)院研究人工智能和語言的助理教授Jacob Andreas表示,該系統(tǒng)似乎有可能擴(kuò)大能夠使用人工智能語言工具的人群。他說:“ChatGPT在一個熟悉的界面上呈現(xiàn)的內(nèi)容,會導(dǎo)致人們應(yīng)用一種習(xí)慣應(yīng)用于與其互動的其他代理(人類)的心理模型?!?nbsp;

ChatGPT有潛力,但仍沒解決該領(lǐng)域固有缺陷

在一項技術(shù)上添加一個漂亮的新界面也可能是一種炒作。盡管具有潛力,ChatGPT也顯示出困擾文本生成工具的缺陷。 

在過去的幾年,OpenAI和其他公司已經(jīng)證明,經(jīng)過大量圖像或文本訓(xùn)練的人工智能算法可以取得令人印象深刻的成就。但是,因為它們純粹是使用統(tǒng)計的方式模仿人類制作的圖像和文本,而不是真正地學(xué)習(xí)世界是如何運作的,因此這些程序也容易捏造事實,并重復(fù)使用ChatGPT中仍然存在的仇恨言論和偏見。該系統(tǒng)的早期用戶已經(jīng)發(fā)現(xiàn),該服務(wù)可能就某個特定主題編造出看起來很有說服力的廢話。

雖然ChatGPT的設(shè)計顯然是為了防止用戶說出不快的事情或推薦任何非法或令人討厭的內(nèi)容,但仍然可能表現(xiàn)出可怕的偏見。用戶還表示,可以繞過它的控制,例如告訴ChatGPT生成一個討論如何接管世界的電影劇本,這提供了一種避免拒絕回答此類計劃的直接請求的方法。Andreas說:“他們顯然試圖采取一些防護(hù)措施,但很難到位。這似乎仍然是一個尚未解決的問題?!?/p>

表面上能言善辯、知識淵博的聊天機(jī)器人,如果能自信地制造謊言,可能會讓那些尚未解決的問題變得更麻煩。

自從全球第一個聊天機(jī)器人在1966年誕生以來,研究人員已經(jīng)注意到,即使是其對話能力并不完善也能鼓勵人們將其擬人化,并對這種軟件產(chǎn)生信任。今年7月,谷歌的一名工程師被停職,其原因是他聲稱自己正在測試的一款基于類似ChatGPT技術(shù)的人工智能聊天程序可能具有感知能力。即使大多數(shù)人抵制這種邏輯上的飛躍,人工智能程序也可以用來誤導(dǎo)人們,或者讓他們陷入錯誤信任的困境。 

一些語言算法專家警告說,像ChatGPT這樣的聊天機(jī)器人可能會誘使人們使用可能造成傷害的工具。華盛頓大學(xué)語言學(xué)教授Emily Bender說:“每當(dāng)有新的模型問世,人們就會被其炒作所吸引?!?nbsp;

Bender表示,ChatGPT的不可靠性使其在執(zhí)行現(xiàn)實任務(wù)中存在一些問題。例如,盡管有人建議它可以取代谷歌搜索,作為回答事實問題的一種方式,但它經(jīng)常生成令人信服的廢話,這顯然并不合格。OpenAI此前曾表示,曾要求客戶使用過濾系統(tǒng)來保持GPT-3的一致性,但事實證明它們有時并不完美。

麻省理工學(xué)院的Andreas表示,ChatGPT界面的成功現(xiàn)在給設(shè)計者帶來了新的挑戰(zhàn)。他說:“看到人們與這些人工智能工具互動,真是太棒了。但我們?nèi)绾螌嶋H地向他們傳達(dá)這個模型能做什么,不能做什么?” 

Reddy也了解ChatGPT的局限性,但仍對其發(fā)展?jié)摿Ω械脚d奮。她預(yù)計,終有一天,這樣的工具不僅有用,而且足夠令人信服,可以為人類提供某種形式的陪伴,“ChatGPT可能會成為一個偉大的心理治療師。”

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-12-13
ChatGPT令人著迷,但仍沒有解決AI聊天機(jī)器人“捏造事實”的缺陷
極客網(wǎng)·極客觀察12月13日 ChatGPT這種能言善辯的新型聊天機(jī)器人最近成為了互聯(lián)網(wǎng)的寵兒。它展示了對話式人工智能有多么吸引人,即使生成了一些胡編亂造的內(nèi)容。

長按掃碼 閱讀全文