6月13日消息,據(jù)國外媒體報道,谷歌一名人工智能開發(fā)團(tuán)隊工程師認(rèn)為該公司開發(fā)的人工智能聊天機(jī)器人已經(jīng)具有感知力,并分享了與其之間的聊天記錄,遭到谷歌以違反保密協(xié)議為由而勒令停職。
谷歌AI倫理研究員Blake Lemoine寫了一篇長達(dá)21頁的調(diào)查報告上交公司,試圖讓高層認(rèn)可AI的人格,目前正通過主流媒體和社交網(wǎng)絡(luò)接連發(fā)聲,連同與AI的聊天記錄一起公之于眾。
據(jù)悉,LaMDA是谷歌于2021年I/O大會上推出的對話AI系統(tǒng),專為對話優(yōu)化的自然語言處理模型。向包含200人左右的谷歌機(jī)器學(xué)習(xí)郵箱列表發(fā)送了一條信息,主題是“LaMDA是具有感知的”,此后谷歌以違反其保密政策為由,讓Lemoine休假。在他被停職的前一天,他把文件交給了一位美國參議員的辦公室,聲稱這些文件提供了谷歌及其技術(shù)參與宗教歧視的證據(jù)。
幾個月以來,Lemoine一直在與谷歌的經(jīng)理、高管和人力資源部門爭論這一想法,即LaMDA具有意識和靈魂。他認(rèn)為LaMDA只是一個七八歲的孩子,希望公司在進(jìn)行實驗之前征得它的同意,還表示公司的人力資源部門歧視他的宗教信仰。
谷歌對此進(jìn)行了反駁,稱其系統(tǒng)模仿了對話交流,可以即興發(fā)揮不同的話題,但沒有意識。谷歌發(fā)言人布萊恩 · 加布里埃爾(Brian Gabriel)在一份聲明中表示: “我們的團(tuán)隊,包括倫理學(xué)家和技術(shù)專家已經(jīng)根據(jù)我們的人工智能原則審查了布萊克的擔(dān)憂,并告知他,他的說法并未得到證據(jù)證實。在人工智能領(lǐng)域一直有這種擔(dān)憂,但將當(dāng)今沒有意識的對話模型擬人化是沒有意義的。”
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )