LLM共15篇
Red Hat 收購 Neural Magic 強化 AI 解決方案能力-職人選物

Red Hat 收購 Neural Magic 強化 AI 解決方案能力

Red Hat 宣布收購自動生成式人工智慧軟體與演算法公司 Neural Magic,提升其在混合雲環境中部署高效能 AI 工作負載的能力,為企業提供更靈活的 AI 解決方案。 Red Hat近期宣布收購自動生成式人...
Mash Yang的头像-職人選物Mash Yang20天前
0369
Red Hat 收購 Neural Magic 強化 AI 解決方案能力-職人選物

Red Hat 收購 Neural Magic 強化 AI 解決方案能力

Red Hat 宣布收購自動生成式人工智慧軟體與演算法公司 Neural Magic,提升其在混合雲環境中部署高效能 AI 工作負載的能力,為企業提供更靈活的 AI 解決方案。 Red Hat近期宣布收購自動生成式人...
Mash Yang的头像-職人選物Mash Yang21天前
0446
NVIDIA推出適用於視訊搜尋與周要的NVIDIA AI Blueprint,協助產業開發者分析視訊與影像內容-職人選物

NVIDIA推出適用於視訊搜尋與周要的NVIDIA AI Blueprint,協助產業開發者分析視訊與影像內容

NVIDIA於智慧城市世界大會開展前夕宣布基於NVIDIA Metropolis視覺AI應用工具的NVIDIA AI blueprint(AI藍圖),NVIDIA AI Blueprint適用於視訊搜尋與摘要,可協助幾乎所有產業的開發者建立可分析...
Chevelle.fu的头像-職人選物Chevelle.fu4个月前
0437
NVIDIA推出Mistral-NeMo-Minitron 8B語言模型,僅有80億參數規模但精度不遜120億版本-職人選物

NVIDIA推出Mistral-NeMo-Minitron 8B語言模型,僅有80億參數規模但精度不遜120億版本

現在在邊際裝置執行大型語言模型的困難是參數規模,理論上相同技術但參數越大具備更優異的精確度與性能,不過考慮到邊際裝置的運算性能、記憶體等條件,又需要在規模與性能取捨;NVIDIA繼2024年...
Chevelle.fu的头像-職人選物Chevelle.fu8个月前
0336
高通公布Snapdragon 7s Gen 3平台,將能執行大型語言模型的AI下放至平價手機-職人選物

高通公布Snapdragon 7s Gen 3平台,將能執行大型語言模型的AI下放至平價手機

雖然AI功能已經廣泛使用在智慧手機,不過當前提到AI手機,則莫過於需要支援生成式AI功能,只是目前真正可執行生成式AI的智慧手機多為高階機種以上,但高通正開始使主流機型也能享受生成式AI,使...
Chevelle.fu的头像-職人選物Chevelle.fu8个月前
0249
Google強調以人才培育、強化社群、協助產業創新協助台灣發展AI,深耕台灣深化教育-職人選物

Google強調以人才培育、強化社群、協助產業創新協助台灣發展AI,深耕台灣深化教育

Google在2024年3月中旬藉媒體春酒邀請包括Google台灣總經理林雅芳、Google台灣董事總經理馬大康及 Google Cloud台灣總經理柯淑芬等台灣Google高層,與媒體分享Google在全球與台灣的布局,其中強...
Chevelle.fu的头像-職人選物Chevelle.fu1年前
0629
聯發科創新基地開源釋出中英雙語Breeze-7B大型語言模型,支援雙語且繁中推論僅需Meta或Mistral一半時間-職人選物

聯發科創新基地開源釋出中英雙語Breeze-7B大型語言模型,支援雙語且繁中推論僅需Meta或Mistral一半時間

聯發科創新基地繼2023年初釋出全球第一款繁體中文文本的大型語言模型(LLM)後,在2024年3月宣布開源支援中、英雙語的MediaTek Research Breeze-7B大型語言模型,基於開源界熱門的Mistral模型,相...
Chevelle.fu的头像-職人選物Chevelle.fu1年前
0576
美光宣布9x13mm封裝UFS 4.0行動儲存解決方案已送樣,採232層3D NAND、容量達1TB-職人選物

美光宣布9x13mm封裝UFS 4.0行動儲存解決方案已送樣,採232層3D NAND、容量達1TB

美光Micron於MWC宣布其業界最小尺寸UFS 4.0行動儲存解決方案已送樣,基於232層3SD NAND與先進封裝,在9x13mm大小的UFS封裝晶片可提供1TB容量,同時循環讀寫性能也獲得翻倍的提升,尤其對於生成...
Chevelle.fu的头像-職人選物Chevelle.fu1年前
06312
美光8層堆疊24GB HBM3e記憶體正式量產,NVIDIA H200 Tensor Core GPU率先採用-職人選物

美光8層堆疊24GB HBM3e記憶體正式量產,NVIDIA H200 Tensor Core GPU率先採用

美光Micron宣布兼具高效能、大容量且更節能的HBM3e記憶體已正式量產,同時NVIDIA H200 Tensor Core GPU為首款宣布採用美光8層堆疊的24GB HBM3e解決方案的產品,並於2024年第二季出貨。同時美光...
Chevelle.fu的头像-職人選物Chevelle.fu1年前
05713
高通專文介紹NPU之於裝置端執行生成式AI的意義,並強調透過異構運算能最大限度提升效能、能源效率-職人選物

高通專文介紹NPU之於裝置端執行生成式AI的意義,並強調透過異構運算能最大限度提升效能、能源效率

雖然行動裝置結合AI技術已經不是新聞,然而隨著生成式AI引領新一代AI技術,使AI不再只是作為單純的辨識與增強,而是能夠與使用者深度互動的技術,裝置端AI技術也邁入全新的局面,同時處理器產業...
Chevelle.fu的头像-職人選物Chevelle.fu1年前
05510