財聯社5月12日訊(編輯 周子意)人工智能聊天機器人的背后需要海量高質量數據作為支撐。傳統(tǒng)上,人工智能系統(tǒng)依賴于從各種網絡來源(如文章、書籍和在線評論)中提取的大量數據來理解用戶的查詢并生成響應。
長期以來,如何獲取更多的高質量數據成為人工智能公司的一大挑戰(zhàn)。由于數據在互聯網上的可用性是有限的,這促使人工智能公司正尋求一種替代解決方案——合成數據(Synthetic data)。
合成數據,即人工智能系統(tǒng)生成的人工數據。科技公司通過利用自己的人工智能模型,生成合成數據(這也被認為是虛假數據),然后將這些數據用以訓練其系統(tǒng)的未來迭代。
談及合成數據是如何生成的,其過程包括為人工智能模型設置特定參數和提示以創(chuàng)建內容,這種方法可以更精確地控制用于訓練人工智能系統(tǒng)的數據。
例如,微軟的研究人員向人工智能模型列出了四歲孩子能夠理解的3000個詞匯,然后,他們要求該模型使用詞匯表中的一個名詞、一個動詞和一個形容詞來創(chuàng)造一個兒童故事。通過幾天時間內數百萬次的重復提示,模型最終產生了數百萬個短篇故事。
雖然計算中的合成數據并不是一個新概念,但生成式人工智能的興起促進了大規(guī)模創(chuàng)建更高質量的合成數據。
人工智能初創(chuàng)公司Anthropic首席執(zhí)行官Dario Amodei將這種方法稱為“無限數據生成引擎”,旨在避免與傳統(tǒng)數據采集方法相關的一些版權、隱私等問題。
現有用例與分歧觀點
目前,Meta、谷歌和微軟等主要人工智能公司已經開始使用合成數據開發(fā)高級模型,包括聊天機器人和語言處理器。
例如,Anthropic使用合成數據為其聊天機器人Claude提供動力;谷歌DeepMind則使用這種方法來訓練能夠解決復雜幾何問題的模型;與此同時,微軟已經公開了使用合成數據開發(fā)的小型語言模型。
有支持者認為,如果適當實施,合成數據可以產生準確可靠的模型。
然而,一些人工智能專家對與合成數據相關的風險表示擔憂。著名大學的研究人員觀察到了“模型崩潰”的例子,即在合成數據上訓練的人工智能模型出現了不可逆轉的缺陷,并產生了荒謬的輸出。此外,有人擔心合成數據可能會加劇數據集的偏差和錯誤。
劍橋大學博士Zakhar Shumaylov在一封電子郵件中寫道,”如果處理得當,合成數據會很有用。然而,對于如何才能處理得當,目前還沒有明確的答案;有些偏見對于人類來說可能很難察覺?!?/p>
此外,圍繞對合成數據的依賴存在一場哲學辯論,人們對人工智能的本質提出了質疑——如若使用機器合成的數據,那么人工智能是否還是模仿人類智能的機器?
斯坦福大學教授Percy Liang強調了將真正的人類智能融入數據生成過程的重要性,并強調了大規(guī)模創(chuàng)建合成數據的復雜性。他認為,“合成數據不是真實的數據,就像你做夢登上了珠穆朗瑪峰并不是真正登頂了一樣?!?/p>
目前對于生成合成數據的最佳做法尚未達成共識,這突出表明需要在這一領域進一步研究和發(fā)展。隨著該領域的不斷發(fā)展,人工智能研究人員和領域專家之間的合作對于充分利用人工智能開發(fā)合成數據的潛力至關重要。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )