Meta 推出 Llama 3.1 開源模型 性能超越 GPT-4o

Meta 發布新版 Llama 3.1 開源模型,最大規模達 4050 億參數,性能超越 GPT-4o 與 Claude 3.5 Sonnet。

今年4月宣布推出開源大型自然語言模型Llama 3之後,Meta稍早再宣布推出新版Llama 3.1,最大規模可對應4050億組參數,同樣以開源形式對外提供使用。

而Llama 3.1是以超過16000組NVIDIA H100加速器,以及超過15兆個詞元 (token)資料集進行訓練,但未說明資料集具體來源。隨著此次釋出Llama 3.1,Meta同時也將Llama 3的700億及80億組參數版本進行升級。

同時,Llama 3.1同樣以開源形式對外提供使用,將可用於AWS、Google Cloud、Azure、NVIDIA NIM、Snowflake、Databricks、Kaggle、IBM WatsonX等服務平台運作,同時將會透過Hugging Face平台對外提供使用。

依照Meta說明,Llama 3.1在諸多測試項目超越OpenAI的GPT-4o,以及Anthropic的Claude 3.5 Sonnet,而在AWS雲端服務執行Llama 3.1的成本僅需GPT-4o的一半左右。

Meta執行長Mark Zuckberg更解釋為什麼會以開源形式對外提供其Llama人工智慧模型,原因在於希望藉由比照Linux作業系統開源形式作法,藉此吸引更多人使用此人工智慧模型創造各類應用服務,進而讓Llama人工智慧模型可以持續精進,並且成為諸多業界使用技術。

Meta此次也宣布其人工智慧助理服務Meta AI將增加至支援22種語言,此次主要新增阿根廷語、智利通用西班牙語、哥倫比亞西班牙語、墨西哥語、秘魯西班牙語,以及喀麥隆皮欽語,同時也將在美國與加拿大市場進駐Quest系列虛擬視覺頭戴裝置,另外也推出名為Imagine me的個人資料照片自動生成圖像功能,讓使用者能創造更具特色的個人代表圖像。

<img alt="Llama 3.1, Meta推出參數規模高達4050億組的人工智慧模型Llama 3.1,同樣以開源形式對外提供使用
更讓Meta AI助理服務支援語言增加至22種,更增加名為Imagine me的個人資料照片自動生成圖像功能, mashdigi-科技、新品、趣聞、趨勢” height=”871″ src=”https://best-goods.com.tw/wp-content/uploads/2024/07/76549bba75160141.jpg?resize=1000%2C871&ssl=1″ title=”Meta推出參數規模高達4050億組的人工智慧模型Llama 3.1,同樣以開源形式對外提供使用” width=”1000″>

© 版权声明
THE END
喜歡就支持一下吧
点赞10 分享
評論 抢沙发
头像
歡迎您留下寶貴的見解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容