零一萬物:新增API開放平臺 加速大模型應用落地

2023被稱為大模型元年,2024則是大模型的應用元年,如何用大模型構建一個智能對話助手,如何將大模型整合進工作流,如何用大模型構建超長上下文知識庫?這些問題都亟待模型公司回答。

3月14日,大模型公司零一萬物發(fā)布Yi大模型API開放平臺,提供三款模型,可用于識別圖片中存在的表格、文字,并進行深層次的問答,也可基于超長上下文模型構建知識庫問答,用于客服、培訓等特定知識的問答場景,分別是:

1)Yi-34B-Chat-0205:支持通用聊天、問答、對話、寫作、翻譯等功能。

2)Yi-34B-Chat-200K:200K上下文,多文檔閱讀理解、超長知識庫構建小能手。

3)Yi-VL-Plus: 多模態(tài)模型,支持文本、視覺多模態(tài)輸入,中文圖表體驗超過GPT-4V。

零一萬物是我國大模型獨角獸之一,成立于2023年3月,李開復博士為創(chuàng)始人兼CEO。2023年11月6日,零一萬物發(fā)布了首款開源中英雙語大模型“Yi”。

1、支持30萬漢字輸入,快速構建知識庫

大模型正在加速進入長文本時代。本次零一萬物發(fā)布的Yi-34B-Chat-200K模型,支持處理約30萬個中英文字符,適合用于多篇文檔內容理解、海量數(shù)據(jù)分析挖掘和跨領域知識融合。

比如,Yi-34B-Chat-200K對經典文學作品《呼嘯山莊》進行復雜角色和角色關系的歸納總結。該小說篇幅龐大(中文字數(shù)約30萬字),且人物關系錯綜復雜,Yi-34B-Chat-200K仍能精準地梳理和總結出人物之間的關系,理解并分析復雜的文本結構。

2、中文圖表體驗超過GPT-4V

本次開放的多模態(tài)模型Yi-VL-Plus,可支持文本、視覺多模態(tài)輸入,面向實際應用場景大幅增強:

1)增強Charts、Table、Inforgraphics、Screenshot識別能力,支持復雜圖表理解、信息提取、問答以及推理。中文圖表體驗超過GPT4V。

2)在Yi-VL基礎上進一步提高了圖片分辨率,模型支持1024*1024分辨率輸入,顯著提高生產力場景中的文字、數(shù)字OCR的準確性。

3)保持了LLM通用語言、知識、推理、指令跟隨等能力。

比如,在中文圖表識別功能評測中,Yi-VL-Plus模型能準確識別圖表對應數(shù)據(jù),而GPT-4V則識別錯3處數(shù)據(jù)。

Yi-VL-Plus模型在一些中文圖表理解場景,比GPT-4V準確率更高

長文本+多模態(tài),能夠理解并分析復雜論文與專業(yè)學科知識。

以上功能,不僅可以幫助消費者快速構建智能對話助手,還可以基于超長上下文模型構建知識庫問答,用于客服、培訓等特定知識的問答場景,金融分析師可以用它快速閱讀報告并預測市場趨勢、律師可以用它精準解讀法律條文、科研人員可以用它高效提取論文要點、文學愛好者可以用它快速掌握作品精髓等,應用場景廣泛。

同時,Yi大模型API與 OpenAI API完全兼容,只需修改少量代碼,可以平滑遷移。

零一萬物透露,近期將為開發(fā)者提供更多更強模型和AI開發(fā)框,包括:

1)推出一系列的模型API,覆蓋更大的參數(shù)量、更強的多模態(tài),更專業(yè)的代碼/數(shù)學推理模型等。

2)突破更長的上下文,目標100萬tokens;支持更快的推理速度,顯著降低推理成本。

3)基于超長上下文能力,構建向量數(shù)據(jù)庫、RAG、Agent架構在內的全新開發(fā)者AI框架。旨在提供更加豐富和靈活的開發(fā)工具,以適應多樣化的應用場景。

極客網企業(yè)會員

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2024-03-14
零一萬物:新增API開放平臺 加速大模型應用落地
如何用大模型構建一個智能對話助手,如何將大模型整合進工作流,如何用大模型構建超長上下文知識庫?

長按掃碼 閱讀全文