蘋果 ReALM 人工智慧模型,僅需 8 億組參數即可理解前後文關係,有助於 Siri 數位助理服務更精準掌握使用者需求,並加快服務反應速度。
蘋果研究人員提出名為ReALM的人工智慧模型,標榜僅需8億組參數即可對應理解前後文關係,藉此讓Siri數位助理服務更容易了解使用者實際需求,並且加快服務反應效率。
在此之前,蘋果執行長Tim Cook已經透露將在今年擴大人工智慧技術應用發展,因此不少人猜測iOS 18作業系統更新將會加入更多人工智慧技術,同時也可能讓Siri數位助理服務變得更「聰明」。
而在Google等業者接連提出大型自然語言模型,甚至可在裝置端執行各類人工智慧推論及自動生成功能,蘋果近期也提出許多自有大型語言模型與人工智慧技術論文,預期將應用在接下來即將推出作業系統或軟硬體產品。
此次由蘋果研究人員提出的ReALM人工智慧模型,將能藉由8億組參數規模理解前後文關係,並且加快反應效率。另外,由於使用參數相對較少,因此適合應用在諸如手機般的終端裝置,並且可在運作時不影響裝置效能。
另外,ReALM人工智慧模型也能用於理解圖像中的文字內容,諸如電話號碼或食譜資訊,因此形式上將能與OpenAI的GPT-4模型抗衡,藉此在當前人工智慧技術競爭與Google、微軟、OpenAI、亞馬遜等業者抗衡。
目前暫時無法確認蘋果是否會將ReALM人工智慧模型實際用於旗下產品,但蘋果先前已經多次暗示將在今年推出產品導入更多人工智慧技術,藉此提升產品使用體驗,因此預期今年WWDC 2024期間將會有更進一步說明。
© 版权声明
文章版權歸作者所有,未經允許請勿轉載。
THE END
暂无评论内容