深度思考:現(xiàn)在的AI模型真的在進(jìn)行推理嗎?

極客網(wǎng)·極客觀察2月27日 最近,OpenAI、DeepSeek、谷歌、Anthropic都推出新模型,它們都宣稱模型已經(jīng)具備真正的推理能力,也就是人類解決問(wèn)題時(shí)運(yùn)用的思維方式,但問(wèn)題在于:AI大模型所說(shuō)的推理真的和人一樣嗎? 

AIthink.jpg

現(xiàn)在的模型可以將復(fù)雜問(wèn)題分解成小問(wèn)題,然后逐步解決小問(wèn)題再給出回應(yīng),業(yè)界將這個(gè)過(guò)程稱為“思維鏈推理”。這些模型有時(shí)表現(xiàn)讓人驚嘆,可以解決邏輯謎題和數(shù)學(xué)難題,能夠快速寫出完美代碼,但有時(shí)面對(duì)極為簡(jiǎn)單的問(wèn)題卻顯得蠢笨。 

于是乎,反對(duì)者認(rèn)為所謂的“思維鏈推理”根本不算推理,而支持者卻認(rèn)為是推理,雖然不如人類靈活,但它正在朝著真正的推理前進(jìn)。 

反對(duì)者:只是用啟發(fā)式原則猜測(cè)答案 

科學(xué)家一直在研究人腦是如何運(yùn)行的,目前大家一致認(rèn)為大腦存在多種不同的推理類型。 

推理有演繹推理,即從一個(gè)一般性的陳述出發(fā),得出一個(gè)具體的結(jié)論。還有歸納推理,利用具體的觀察結(jié)果來(lái)做出更廣泛的概括。除此還有類比推理、因果推理、常識(shí)推理。 

與人腦推理相比,目前的AI推理還很狹隘。 

圣塔菲研究所(SFI,Santa Fe Institute,SFI)教授梅蘭妮·米切爾(Melanie Mitchell)曾在一篇論文中寫道:“從有限的數(shù)學(xué)和經(jīng)驗(yàn)中找到一條規(guī)則或者一套模型,將它應(yīng)用于新的未曾見(jiàn)過(guò)的情境中,在現(xiàn)實(shí)世界,我們非常看重這樣的推理。即使是非常小的孩子,也能從幾個(gè)例子中學(xué)習(xí)并發(fā)現(xiàn)抽象規(guī)則?!?nbsp;

孩子能做到,現(xiàn)在的AI能嗎?許多人持懷疑態(tài)度。 

愛(ài)丁堡大學(xué)技術(shù)哲學(xué)家肖恩·瓦洛爾(Shannon Vallor)在談到OpenAI o1時(shí)表示:“AI所做的只是一種元擬態(tài)行為(meta-mimicry)?!?nbsp;

什么意思?就是說(shuō)以前的ChatGPT舊模型會(huì)模仿其訓(xùn)練數(shù)據(jù)中人類所寫的陳述內(nèi)容,新的o1可以模仿人類得出陳述內(nèi)容的過(guò)程,雖然o1輸出的結(jié)果會(huì)讓人覺(jué)得它在推理,但這不是真正意義上的推理。

舉個(gè)例子,問(wèn)ChatGPT一個(gè)問(wèn)題:“1個(gè)人帶1匹狼、1只羊、1捆草過(guò)河。如果人在場(chǎng),狼不敢吃羊、羊不敢吃草,可是小河邊的船每次只能讓人帶一種東西過(guò)河。那么,如何用最少的渡河次數(shù)把所有東西都帶到河對(duì)岸呢?” 

雖然o1相比舊版有所改進(jìn),但架構(gòu)并未有太大變動(dòng),它在回答問(wèn)題時(shí)出現(xiàn)失誤。瓦洛爾認(rèn)為:“在回答問(wèn)題失敗時(shí),我們會(huì)看到一個(gè)事實(shí),即模型并沒(méi)有進(jìn)行真正的推理?!?nbsp;

隨后推出的o3讓米切爾感到驚訝,但她更讓他吃驚的是o3在解決問(wèn)題時(shí)消耗的算力如此巨大。由于OpenAI內(nèi)部運(yùn)作并不透明,人們無(wú)從知曉大模型用這些算力做了什么。如果OpenAI不能做到公開(kāi)透明,便無(wú)法確定模型真的將大問(wèn)題分解成若干步驟,然后給出一個(gè)更完美的整體答案。 

去年紐約大學(xué)在一篇名為《Let’s Think Dot by Dot》的論文中質(zhì)疑過(guò)AI推理,研究人員發(fā)現(xiàn),把思維鏈(Chain-of-Thought,CoT)推理中的具體步驟,替換成毫無(wú)意義的“...”(點(diǎn)號(hào)),產(chǎn)生的推理結(jié)果也大差不差。 

米切爾認(rèn)為:“AI更像是一個(gè)啟發(fā)式原則構(gòu)成的集合,不是推理模型?!眴l(fā)式原則能幫你猜出問(wèn)題的正確答案,但它并非真正通過(guò)思考獲得答案。 

又例如,研究人員曾開(kāi)發(fā)一個(gè)視覺(jué)模型,用來(lái)分析皮膚癌。初看時(shí),模型似乎能判斷皮膚上的斑點(diǎn)是否為惡性病變,但事實(shí)證明,在訓(xùn)練數(shù)據(jù)中惡性斑點(diǎn)照片旁邊往往有了標(biāo)尺信息,模型只是因?yàn)闃?biāo)尺信息的存在將斑點(diǎn)判定為惡性病變,這是一種啟發(fā)式思考。 

由此可以懷疑,看起來(lái)AI似乎在用“推理”解決問(wèn)題,但實(shí)際上只是在利用“記憶信息”進(jìn)行啟發(fā)式探索。 

支持者:不是純粹推理但也不是背誦  

Redwood Research致力于降低人工智能風(fēng)險(xiǎn),該公司首席科學(xué)家瑞安·格林布拉特(Ryan Greenblatt)認(rèn)為,當(dāng)前的AI明顯是在進(jìn)行某種形式的推理。 

格林布拉特說(shuō):“機(jī)器的處理方式不像人類那樣具有普遍性,它們更多依賴記憶和知識(shí),而非人類那樣依靠推理和判斷,但機(jī)器仍在進(jìn)行處理。” 

既然AI模型可以解答超出樣本范圍的難題,而且表現(xiàn)出色,就可以說(shuō)它們是在進(jìn)行某種推理。 

“過(guò)河問(wèn)題”是一個(gè)很經(jīng)典的問(wèn)題,在訓(xùn)練數(shù)據(jù)中,AI應(yīng)該已經(jīng)學(xué)習(xí)過(guò)很多次。但當(dāng)用戶提出問(wèn)題時(shí),AI并沒(méi)有給出正確答案,它可能知道答案,只是進(jìn)行了復(fù)雜的不必要的“思考”,人有時(shí)也會(huì)犯這種錯(cuò)誤。

格林布拉特舉例說(shuō),如果你花一個(gè)月時(shí)間學(xué)習(xí)色彩理論,從互補(bǔ)色到不同色調(diào)的心理影響,再到文藝復(fù)興時(shí)期某些顏料的歷史意義。學(xué)完之后參加測(cè)試,試題問(wèn):“這幅風(fēng)景畫中為什么要把天空畫成藍(lán)色?”你可能會(huì)被誤導(dǎo),寫出極為復(fù)雜但沒(méi)有必要的答案,比如你可能會(huì)說(shuō)藍(lán)色代表神圣的天空,說(shuō)畫是清晨完成的,象征著新生……實(shí)際上答案很簡(jiǎn)單:因?yàn)樘炜站褪撬{(lán)色的。

Open Philanthropy分析師阿杰亞·科特拉(Ajeya Cotra)認(rèn)為,有些活動(dòng)被人類稱為推理,在這一范疇內(nèi),AI將會(huì)表現(xiàn)得越來(lái)越好。人類說(shuō)AI只是在進(jìn)行“元擬態(tài)”活動(dòng),重點(diǎn)不在于“元擬態(tài)”,而在于“只是”。人類的意思可能是它不會(huì)對(duì)世界產(chǎn)生重大影響,我們離超級(jí)人工智能還有很遠(yuǎn),這種斷定值得懷疑。 

再比如,在一堂大學(xué)物理課上,面對(duì)問(wèn)題時(shí)學(xué)生的表現(xiàn)參差不齊。有人作弊,直接給出答案。有人是天才,無(wú)需思考公式的內(nèi)容,憑借深刻的理解與直覺(jué)給出答案。大多學(xué)生憑借記憶記住公式,努力思考用哪個(gè)公式解答問(wèn)題。 

科特拉認(rèn)為,現(xiàn)在的AI和大多學(xué)生一樣,它會(huì)將記憶內(nèi)容與一些推理內(nèi)容結(jié)合起來(lái)。AI可能不太聰明,但它很勤奮,能記住無(wú)數(shù)方程式。它將強(qiáng)大的記憶與少量理解結(jié)合,找出針對(duì)某個(gè)問(wèn)題的方程式組合,然后給出答案。 

乍一看,AI和天才學(xué)生一樣極為聰明,但細(xì)細(xì)分析就會(huì)發(fā)現(xiàn)答案中的漏洞,盡管如此,并不意味著AI沒(méi)有推理。

換句話說(shuō),這些模型既不是純粹地進(jìn)行推理,也不是純粹地進(jìn)行背誦。 

科特拉說(shuō):“我認(rèn)為這是處于兩者之間的一種狀態(tài)。人們對(duì)此感到困惑,因?yàn)樗麄兿胍獙⑵錃w入某一類別,要么說(shuō)是單純的記憶,要么說(shuō)是真正意義上的深入推理。但實(shí)際上,推理的深度是有一定范圍的。”

結(jié)語(yǔ):鋸齒狀智能 

研究人員用“鋸齒狀智能”這一術(shù)語(yǔ)能描述今天的AI,就是說(shuō)它既能出色解決一些數(shù)學(xué)問(wèn)題,碰到簡(jiǎn)單問(wèn)題時(shí)又會(huì)變得愚蠢。 

人類總是喜歡將AI的智能與人類智能類比,或者我們應(yīng)該換個(gè)角度看待,將人工智能視為“與眾不同”的智能,不要糾結(jié)于“比人類更聰明”或者“比人類更愚笨”。 

人工智能正在進(jìn)化,某一天也許變得無(wú)比強(qiáng)大,能夠囊括人類所有的智能,甚至還有余力,這種變革值得期待。(小刀)

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2025-02-27
深度思考:現(xiàn)在的AI模型真的在進(jìn)行推理嗎?
AI大模型所說(shuō)的推理真的和人一樣嗎?

長(zhǎng)按掃碼 閱讀全文