極客網(wǎng)·極客觀察2月16日 經(jīng)過科技人員幾十年的不懈努力,現(xiàn)實(shí)世界中的人工智能現(xiàn)在終于達(dá)到了一個(gè)臨界點(diǎn)。ChatGPT和DALL-E這樣的AI模型的驚人表現(xiàn),讓很多人感受到越來越聰明的AI系統(tǒng)正在趕超人類。
【專題:ChatGPT引爆生成式AI 人工智能產(chǎn)業(yè)如何生變?】
生成式AI的功能如此多樣和獨(dú)特,以至于人們很難相信它們來自機(jī)器。但是一旦奇跡感消退,生成式AI的明星效應(yīng)也會(huì)消失。AI在一些應(yīng)用中也顯示了其場(chǎng)景感知或常識(shí)的局限性, 如今也有很多人正在關(guān)注或擔(dān)心生成式AI的缺點(diǎn)或缺陷。
以下是人們所擔(dān)心的生成式AI的10個(gè)缺點(diǎn)或缺陷。
1.抄襲內(nèi)容
當(dāng)研究人員創(chuàng)建DALL-E和ChatGPT等生成式AI模型時(shí),這些實(shí)際上只是從訓(xùn)練集中的數(shù)百萬(wàn)個(gè)示例中創(chuàng)建的新模式。其結(jié)果是從各種數(shù)據(jù)來源提取的剪切粘貼合成的,而人類這種行為被稱為“抄襲”。
當(dāng)然,人類也是通過模仿來學(xué)習(xí)的,但在某些情況下,這種抄襲并不可取,甚至違法。而生成式AI生成的內(nèi)容由大量文本組成,或多或少抄襲了一些內(nèi)容。然而,有時(shí)其中涉及到足夠多的混合或合成,即使是大學(xué)教授也可能難以檢測(cè)到真實(shí)來源。無(wú)論怎樣,其生成的內(nèi)容缺少的是獨(dú)特性。盡管它們看上去功能強(qiáng)大,但并不能生產(chǎn)出真正的創(chuàng)新產(chǎn)品。
2.版權(quán)問題
雖然抄襲是學(xué)校盡力避免的問題,但版權(quán)法適用于市場(chǎng)。當(dāng)某人竊取他人的知識(shí)產(chǎn)權(quán)或工作成果時(shí),那么可能會(huì)被人起訴,或者會(huì)被處以數(shù)百萬(wàn)美元的罰款。但是AI系統(tǒng)呢?同樣的規(guī)則適用于它們嗎?
版權(quán)是一個(gè)復(fù)雜的主題,生成式AI的法律地位將需要數(shù)年時(shí)間才能確定。但需要記住的是,當(dāng)AI開始取代人類的一些工作的時(shí)間,那么就會(huì)有人根據(jù)版權(quán)法規(guī)提起訴訟。
3. 無(wú)償獲取人類的勞動(dòng)
生成式AI引發(fā)的法律問題不僅僅是抄襲和侵犯版權(quán),一些律師已經(jīng)AI引發(fā)的道德發(fā)起訴訟。例如,一家制作繪圖程序的公司是否收集有關(guān)用戶繪圖行為的數(shù)據(jù),然后將這些數(shù)據(jù)用于AI培訓(xùn)目的?人類是否應(yīng)該為這種創(chuàng)造性勞動(dòng)的使用獲得補(bǔ)償?AI的成功很大程度上源于對(duì)數(shù)據(jù)的訪問。那么,生成數(shù)據(jù)的人類想要從中獲利會(huì)發(fā)生什么呢?那么什么是公平的?什么是合法的?
4.利用信息而不創(chuàng)造知識(shí)
AI擅長(zhǎng)模仿人類需要數(shù)年才能發(fā)展出來的那種智能。當(dāng)一位人類學(xué)者介紹一位不知名的17世紀(jì)藝術(shù)家,或者一名藝術(shù)家用一種幾乎被人遺忘的文藝復(fù)興時(shí)期的音調(diào)創(chuàng)作出新的音樂時(shí),人們對(duì)他們具有高深的知識(shí)和技能感到欽佩,因?yàn)檫@需要多年的學(xué)習(xí)和練習(xí)。當(dāng)AI只經(jīng)過幾個(gè)月的訓(xùn)練就能做同樣的事情時(shí),其結(jié)果可能會(huì)非常精確和正確,但總是感覺缺少了什么。
訓(xùn)練有素的AI系統(tǒng)機(jī)器通過獲取大量信息了解某一事物,甚至可以破譯瑪雅象形文字。AI似乎在模仿人類創(chuàng)造力中有趣和不可預(yù)測(cè)的一面,但它們并不能真正做到這一點(diǎn)。與此同時(shí),不可預(yù)測(cè)性是創(chuàng)造性創(chuàng)新的驅(qū)動(dòng)力。像時(shí)尚行業(yè)不僅沉迷于變化,而且被變化所定義。事實(shí)上,AI和人類都有各自擅長(zhǎng)的領(lǐng)域。
5.智能增長(zhǎng)受限
說到智能,AI本質(zhì)上是機(jī)械的和基于規(guī)則的。一旦AI系統(tǒng)通過一組數(shù)據(jù)進(jìn)行訓(xùn)練,就會(huì)創(chuàng)建了一個(gè)模型,而這個(gè)模型并沒有真正改變。一些工程師和數(shù)據(jù)科學(xué)家設(shè)想,隨著時(shí)間的推移,逐步重新訓(xùn)練AI模型,這樣AI就能學(xué)會(huì)適應(yīng)。
但是,在大多數(shù)情況下,這個(gè)想法是創(chuàng)建一組復(fù)雜的神經(jīng)元,以固定的形式編碼特定的知識(shí)。這可能適用于某些行業(yè)。AI的危險(xiǎn)在于,其智能增長(zhǎng)將永遠(yuǎn)被其訓(xùn)練數(shù)據(jù)的局限性所困。當(dāng)人類變得依賴生成式AI,以至于無(wú)法再為訓(xùn)練模型提供新的材料時(shí),將會(huì)發(fā)生什么?
6.隱私和安全性有待提高
AI的訓(xùn)練需要大量數(shù)據(jù),人類并不總是那么確定神經(jīng)網(wǎng)絡(luò)的結(jié)果是什么。如果AI從訓(xùn)練數(shù)據(jù)中泄露個(gè)人信息怎么辦?更糟糕的是,控制AI要困難得多,因?yàn)樗鼈兊脑O(shè)計(jì)非常靈活。關(guān)系數(shù)據(jù)庫(kù)可以限制對(duì)具有個(gè)人信息的特定表的訪問。然而,AI可以通過數(shù)十種不同的方式進(jìn)行查詢。
網(wǎng)絡(luò)攻擊者將很快學(xué)會(huì)如何以正確的方式提出正確的問題,以獲取他們想要的敏感數(shù)據(jù)。假設(shè)網(wǎng)絡(luò)攻擊者鎖定了某一特定設(shè)施的緯度和經(jīng)度,可能會(huì)詢問AI系統(tǒng)那個(gè)地點(diǎn)的確切時(shí)間,而盡職的AI系統(tǒng)可能會(huì)回答這個(gè)問題。因此,如何訓(xùn)練AI保護(hù)隱私數(shù)據(jù)也是一件困難的事情。
7.產(chǎn)生偏見
即使是早期的大型機(jī)程序員也理解計(jì)算機(jī)問題的核心,他們創(chuàng)造了“垃圾輸入,垃圾輸出”(GIGO)這一概念。AI的許多問題來自于糟糕的訓(xùn)練數(shù)據(jù)。如果數(shù)據(jù)集不準(zhǔn)確或有偏見,就會(huì)反映在其輸出結(jié)果中。
生成式AI的核心硬件由邏輯驅(qū)動(dòng),但建造和訓(xùn)練機(jī)器的人類卻不是。偏見和錯(cuò)誤已經(jīng)被證明可以進(jìn)入AI模型。也許有人使用了有偏見的數(shù)據(jù)來創(chuàng)建模型,也許他們只是覆蓋了防止AI回答特定的熱點(diǎn)問題,也許他們輸入了一些固定的答案,而這些將讓AI系統(tǒng)產(chǎn)生偏見。
8. AI也會(huì)犯錯(cuò)
人們很容易原諒AI模型犯的錯(cuò)誤,因?yàn)樗鼈冊(cè)诤芏嗥渌虑樯隙甲龅煤芎?,只是許多錯(cuò)誤很難預(yù)測(cè),因?yàn)锳I的思維方式與人類不同。例如,許多使用文本轉(zhuǎn)圖像功能的用戶發(fā)現(xiàn),AI在相當(dāng)簡(jiǎn)單的事情上都會(huì)犯錯(cuò),例如計(jì)數(shù)。
人類從小學(xué)就開始學(xué)習(xí)基本的算術(shù),然后用各種各樣的方式使用這項(xiàng)技能。例如讓一名10歲的孩子畫一只章魚,他通常會(huì)確定它有8條腿。當(dāng)涉及到數(shù)學(xué)的抽象和場(chǎng)景應(yīng)用時(shí),當(dāng)前版本的AI模型往往會(huì)陷入困境。如果模型構(gòu)建者對(duì)這個(gè)錯(cuò)誤給予一定的關(guān)注,這種情況很容易改變,但還會(huì)有其他錯(cuò)誤。機(jī)器智能不同于人類智能,這意味著機(jī)器犯的錯(cuò)誤也會(huì)有所不同。
9.欺騙人類
有時(shí),人類往往會(huì)在沒有意識(shí)到錯(cuò)誤的情況下被AI系統(tǒng)所欺騙。例如,如果AI告訴人類,英國(guó)國(guó)王亨利八世殺死了他妻子,他們通常會(huì)相信,因?yàn)樗麄円部赡懿涣私膺@段歷史。人們往往假設(shè)AI提供的答案是真實(shí)和正確的。
對(duì)于生成式AI的用戶來說,最棘手的問題是知道AI系統(tǒng)何時(shí)出錯(cuò)。人們認(rèn)為,機(jī)器不會(huì)像人類那樣撒謊,這讓它們變得更加危險(xiǎn)。AI系統(tǒng)可以寫出一些完全準(zhǔn)確的數(shù)據(jù),然后轉(zhuǎn)向猜測(cè),甚至變成謊言,而人類通常不知道發(fā)生了什么。二手車經(jīng)銷商或撲克玩家往往知道他們什么時(shí)候在撒謊,而且大多數(shù)人都會(huì)說出在哪里撒謊,但AI不能做到這一點(diǎn)。
10.無(wú)限的復(fù)制性
數(shù)字內(nèi)容具有無(wú)限的復(fù)制性,這讓許多圍繞稀缺性建立的AI模型不堪重負(fù)。生成式AI將進(jìn)一步打破這些模式。生成式AI將會(huì)讓一些作家和藝術(shù)家失業(yè),它還顛覆了人們遵循的許多經(jīng)濟(jì)規(guī)則。
當(dāng)廣告和內(nèi)容可以不斷地重新組合和更新時(shí),廣告支持的內(nèi)容還會(huì)有效嗎?互聯(lián)網(wǎng)的免費(fèi)部分是否會(huì)陷入“機(jī)器人點(diǎn)擊網(wǎng)頁(yè)廣告”的世界,而所有這些都是由生成式AI生成的并且無(wú)限復(fù)制的?
無(wú)限豐富性可能會(huì)破壞數(shù)字經(jīng)濟(jì)。例如,如果不可替代的代幣可以被復(fù)制,人們還會(huì)繼續(xù)為它們付費(fèi)嗎?如果藝術(shù)創(chuàng)作如此簡(jiǎn)單,它還會(huì)受到尊重嗎?它還會(huì)是獨(dú)特的嗎?當(dāng)一切都被視為理所當(dāng)然時(shí),一切都會(huì)失去價(jià)值嗎?
不要試圖自己回答這些問題,可以向生成式AI尋求一個(gè)有趣而奇怪的答案。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長(zhǎng)
- 美媒:一些中國(guó)大模型已經(jīng)追平甚至超越美國(guó)產(chǎn)品
- 透過這場(chǎng)開發(fā)者圈的“年度盛典”,窺見華為開發(fā)者生態(tài)構(gòu)建之道
- 谷歌Willow量子芯片有進(jìn)步 但離實(shí)用還很遙遠(yuǎn)
- LLM很難變成AGI?科學(xué)家:創(chuàng)造AGI理論上可行
- PON在園區(qū)網(wǎng)絡(luò)的“先天不足”,無(wú)源以太全光來拯救!
- 英特爾CEO黯然退場(chǎng)背后:芯片制造陷泥潭,AI起大早趕晚集
- 開源5年樹立新里程 openEuler以智能 致世界
- 華為推出Mate 70手機(jī)引發(fā)高度關(guān)注 看外媒是如何評(píng)價(jià)的?
- 5G-A終端規(guī)模鋪開響應(yīng)“以舊換新”,湖北移動(dòng)“機(jī)網(wǎng)套”協(xié)同刺激內(nèi)需
- 六載華為開發(fā)者大賽,“賽”出云上開發(fā)新生態(tài)
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。