2016年AI十大失敗案例有哪些?

雷鋒網按:眼看 2016 年還有幾天就要落下帷幕,在過去的一年里,人工智能如雨后春筍般成長起來,甚至有人稱之為“人工智能元年”。自動駕駛、語音識別、風靡全球的游戲 Pokémon Go …… 機器似乎已經無處不在,無所不能了。

同時,在這一年,人工智能也闖了不少禍,我們需要對這些錯誤給予更多的關注,以免在未來重蹈覆轍。雷鋒網了解到,近日路易斯維爾大學網絡安全實驗室(Cybersecurity Lab) 的主任 Roman Yampolskiy 發(fā)表了一篇論文,名為《Artificial Intelligence Safety and Cybersecurity : a Timeline of AI Failures》 ,其中列出了人工智能在過去的一年里表現不太好的例子。Yampolskiy 表示,這些失敗都可以歸因于 AI 系統(tǒng)在學習階段以及表現階段中犯的錯誤。

以下是依據 Yampolskiy 的論文以及諸多人工智能專家的意見,國外媒體 TechRepublic 整理而成的名單,排名不分先后。由雷鋒網編譯:

1.Pokémon Go 讓游戲玩家集中在白人社區(qū)

7 月份,風靡全球的 Pokémon Go 游戲發(fā)布之后,多個用戶注意到極少的 Pokémon 位于黑人社區(qū)。 Mint 的首席數據官 Anu Tewary 表示,原因是因為這些算法的發(fā)明者并沒有提供多樣的訓練集,而且并沒有花費時間在黑人社區(qū)上。

2.特斯拉半自動駕駛系統(tǒng)的車禍

今年,特斯拉的事故在全世界范圍內層出不窮。5 月份,在佛羅里達的一條高速公路上,一輛開啟了 Autopilot 模式的特斯拉發(fā)生了車禍,駕駛員致死。這是特斯拉全球首例死亡事件。之后,特斯拉對 Autopilot 軟件進行了重大更新,其 CEO 馬斯克在接受采訪時表示這種更新可以防止事故再次發(fā)生。此外,在中國等其他國家和地區(qū)也出現了多次特斯拉事故。不過,其中一些事故并不能說是 AI 直接導致的。

3.微軟聊天機器人Tay 散布種族主義、性別歧視和攻擊同性戀言論

今年春天,微軟在 Twitter 上發(fā)布了一個人工智能驅動的聊天機器人 Tay,希望它能和網絡上的年輕人相處愉快。起初,Tay 是為了模仿十幾歲的美國青少年女孩而設計的,但在推出后不久卻被人帶壞了,變成了一個“熱愛希特勒、諷刺女權主義”的壞蛋。最終微軟不得不將 Tay “殺死”,并宣布將會對相關的算法進行調整。

4.谷歌的AI 阿爾法狗 AlphaGo 輸了與人類圍棋大師李世石的一局

今年 3 月 13 日,谷歌阿爾法圍棋與李世石的人機大戰(zhàn)五番棋第四局在韓國首爾四季酒店戰(zhàn)罷,圍棋大師李世石中盤擊敗阿爾法,扳回一局。雖然最后人工智能還是以 1 比 3 的比分獲得了勝利,但是輸了的一局顯示目前的 AI 系統(tǒng)仍然不是很完善。

“或許李世石發(fā)現了蒙特卡洛樹搜索(MCTS)的弱點。” 新南威爾斯大學的人工智能教授 Toby Walsh 說道。不過,雖然這被看做是人工智能的失敗,但是 Yampolskiy 認為這種失敗是在可接受范圍內的。

5.視頻游戲中,非玩家角色創(chuàng)造出了制作者意料之外的武器

今年 6 月份,一個配備了 AI 的視頻游戲“Elite: Dangerous” 出現了一些游戲制造者計劃之外的狀況:AI 竟然造出了游戲設定之外的超級武器。一家游戲網站對此評論:“人類玩家或許會被 AI 創(chuàng)造的奇怪武器打敗。”值得一提的是,隨后游戲開發(fā)者就將這些武器撤銷了。

6. 人工智能審美也有種族歧視

在首屆“國際人工智能選美大賽”上,基于“能準確評估人類審美與健康標準的算法”的機器人專家組對面部進行評判。但由于未對人工智能提供多樣的訓練集,比賽的獲勝者都是白人。就像 Yampolskiy 說的,“美人在模式識別器中”。

7.用 AI 預測犯罪,涉及種族歧視

Northpointe 公司開發(fā)出了一個用來預測被指控的罪犯二次犯罪幾率的人工智能系統(tǒng)。這個被稱為“少數派報告”的算法被指責帶有種族偏見傾向。因為在測試中,黑人罪犯被標注的概率遠遠高于其他人種。此外,另一家媒體 ProPublica 同時指出 Northpointe 的算法“即使除去種族歧視的問題,在大多數情況下正確率也并不高。”

8.機器人導致一個兒童受了傷

Knightscope 平臺曾打造出了一個號稱是“打擊犯罪的機器人”。今年七月份,這個機器人在硅谷的一家商場里弄傷了一個 16 歲的少年。洛杉磯時報援引該公司的話稱這是個“意外的事故”。

9. 中國用面部識別技術來預測罪犯,這被認為是有偏見的

中國上海交大的兩名研究人員發(fā)表了一篇名為“Automated Inference on Criminality using Face Images”的論文。據國外媒體 Mirror 報道,研究人員對一半是罪犯的 1856 張面部圖片進行分析,并且用一些可識別的面部特征來預測罪犯,比如唇曲率 ( lip curvature ) 、眼內角距 ( eye inner corner distance),甚至還有口鼻角度 ( nose-mouth angle ) 等等。對于該項研究,許多業(yè)界人士質疑測試結果,并提出涉及了道德問題。

10. 保險公司利用 Facebook 大數據預測事故發(fā)生率

最后的這個案例來自英格蘭最大的汽車保險商 Admiral Insurance ,該公司今年計劃使用 Facebook 用戶的推文數據來測試社交網站和優(yōu)秀司機之間的關聯。

這是對人工智能的濫用。Walsh 認為“ Facebook 在限制數據方面做得很出色”。由于Facebook 限制該公司獲取數據,這項被稱作“first car quote”的項目并沒有開啟。

從上述案例中,雷鋒網(公眾號:雷鋒網)的讀者可以看出,AI 系統(tǒng)是很容易變得偏激的。因此人類更需要在多樣化數據集上對機器學習算法進行訓練,避免 AI 產生偏見。同時,隨著 AI 的不斷發(fā)展,保證相關研究的科學檢測,確保數據多樣性,建立相關道德標準也變得越來越重要。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2016-12-30
2016年AI十大失敗案例有哪些?
雷鋒網按:眼看 2016 年還有幾天就要落下帷幕,在過去的一年里,人工智能如雨后春筍般成長起來,甚至有人稱之為“人工智能元年”。自動駕駛、語音識別、風靡全球的游

長按掃碼 閱讀全文