雖然目前提到AI伺服器,多半是由GPU與加速器作為主要AI運算的關鍵硬體,不過AMD與Intel仍在伺服器CPU加入AI加速設計,使CPU也能一定程度執行AI推論運算;Intel引述MLPerf最新一輪的測試數據,對比4年前的第3代Xeon Scalable,第6代Xeon Scalable的AI效能提升幅度達17倍,而較第5代Xeon Scalable也有著1.9倍的幾何平均效能提升。
▲Intel強調Xeon處理器持續增強其AMX技術,滿足新一代客戶同時執行企業工作負載與AI工作負載的需求
Intel強調AI系統仍仰賴CPU作為關鍵元件,Intel於Xeon整合優異的AI推論解決方案,包括古典機器學習(ML)與向量搜尋嵌入(vector search embedding);Intel於MLPerf Inference V4.1測試基準上繳第5代與第6代Xeon Scalable的測試數據,包括ResNet50、RetinaNet、3DUNet、BERT、DLRM v2和GPT-J模型等六項測試,第6代Xeon Scalable以平均1.9倍的AI推論效能提升領先第5代Xeon Scalable,並強調是唯一持續遞交CPU測試成果的伺服器處理器供應商。
對比4年前Intel首度於MLPerf遞交成績的數據,Intel強調其Xeon CPU的AI性能獲得顯著提升,以BERT模型的自然語言處理項目與ResNet50電腦視覺模型對比,第6代Xeon Scalable較第3代Xeon Scalable的性能分別提升17倍與15倍。Intel將會持續在CPU藍圖增強AI領域投資,諸如新的資料類型與效率提升,並持續創新Intel AMX技術。
暂无评论内容