
AI 大戰升級!Meta 推出先進大型語言模型 下一個 ChatGPT 不遠了?

開源的 AI“研究工具”。
當地時間 2 月 24 日,Meta 宣佈將推出針對研究社區的 “Meta 人工智能大型語言模型” 系統(Large Language Model Meta AI),簡稱 “LLaMA”。
同 ChatGPT、New Bing 不同,LLaMA 並不是一個任何人都可以與之對話的產品,也並未接入任何 Meta 應用。更為確切地説,該產品將是一個開源的 “研究工具”。
公司 CEO 扎克伯格在社交媒體上表示,LLaMA 旨在幫助研究人員推進研究工作,LLM(大型語言模型)在文本生成、問題回答、書面材料總結,以及自動證明數學定理、預測蛋白質結構等更復雜的方面也有很大的發展前景。

1、開源的 “研究工具”
Meta 表示,LLaMA 可以在非商業許可下提供給政府、社區和學術界的研究人員和實體工作者,正在接受研究人員的申請。
此外,LLaMA 將提供底層代碼供用户使用,因此用户可以自行調整模型,並將其用於與研究相關的用例。與之截然不同的是,谷歌旗下的 DeepMind 和 OpenAI 並不公開訓練代碼。
該公司還表示,LLaMA 作為一個基礎模型被設計成多功能的,可以應用於許多不同的用例,而不是為特定任務設計的微調模型。
2、比 GPT3.5 性能更強
根據 Meta 官網介紹,LLaMA 包含 4 個基礎模型,參數分別為 70 億、130 億、330 億和 650 億。其中,LLaMA 65B 和 LLaMA 33B 在 1.4 萬億個 tokens 上訓練,而最小的模型 LLaMA 7B 也經過了 1 萬億個 tokens 的訓練。

Meta 表示,在大多數基準測試中,參數小的多的 LLaMA-13B 的性能優於 GPT3.5 的前身 GPT3-175B,而 LLaMA-65B 更可與業內最佳的 Chinchilla-70B 和 PaLM-540B 競爭。值得一提的是,近期大火的 ChatGPT 便是由 GPT3.5 提供支持。

Meta 還提及,LLaMA-13B 對算力的要求 “低得多”,可以在單個數據中心級 GPU(Nvidia Tesla V100)上運行。
扎克伯格寫道:
“Meta 致力於這種開放的研究模式,我們將向 AI 研究社區提供我們的新模型。”
值得一提的是,去年 5 月,Meta 也曾推出過大型語言模型 OPT-175B。該項目同樣也是針對研究人員的,這構成了其聊天機器人 blenterbot 新迭代的基礎。後來,該公司還推出了一款名為 “卡拉狄加”(Galactica) 的模型,但因經常分享偏見和不準確的信息而遭到下架。
據媒體報道,扎克伯格已將人工智能作為公司內部的首要任務,其本人也經常在財報電話會議和採訪中談論它對改進 Meta 產品的重要性。媒體分析稱,雖然現在 LLaMA 沒有在 Meta 產品中使用,但未來不排除使用的可能。
