研究發(fā)現(xiàn):Llama代碼生成模型能力直追GPT-4

8月28日消息,研究團隊在Phind 內部數據集上對 CodeLlama-34B 和 CodeLlama-34B-Python 進行微調之后發(fā)現(xiàn),這兩款模型微調之后在 HumanEval 測試中的通過率均已超過GPT-4在3月份的成績。

本次發(fā)布的Code Llama是在Llama 2的基礎上,通過特定的代碼數據集進一步訓練而來,支持C++、Java、Python、PHP、Typescript(Javascript)、C#和Bash等眾多流行語言,依然是開源可商用。

Code Llama對編程專家和初學者都非常有用,無論是用專業(yè)的編程語言還是用自然語言(如普通話)來描述編程需求,Code Llama都能理解,并很好地生成相應的代碼或與代碼相關的解釋。這極大降低了開發(fā)門檻和效率。

Code Llama是Meta公司開源可商用大模型Llama 2的編程版本,據悉,Code Llama分為7B、13B和34B三個不同參數版本,可滿足不同的服務和延遲要求。每個版本的模型都使用了500B tokens與代碼相關的數據進行訓練。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2023-08-28
研究發(fā)現(xiàn):Llama代碼生成模型能力直追GPT-4
已超過GPT-4在3月份的成績。

長按掃碼 閱讀全文