Google 與 NVIDIA 在 Google NEXT 24 活動上宣布合作,將透過雙方資源協助新創企業加速發展自動生成式人工智慧應用服務。
在此次Google NEXT 24活動中,Google除了宣布將從5月開始導入以NVIDIA代號「Hopper」的H100加速元件,藉此打造名為A3 Mega的運算設備,另外也計畫引進NVIDIA近期揭曉代號「Blackwell」的新一代加速運算元件,預計在2025年初導入GB200 NVL72運算系統,雙方更宣布協助更多新創業者,使其加速建立自動生成式人工智慧應用服務。
在此之前,NVIDIA在今年GTC 2024期間宣布推出NVIDIA NIM微服務,讓開發者、企業可在數分鐘內完成佈署自動生成式人工智慧。
而在此次與Google合作中,雙方將透過NVIDIA Inception計畫與Google for Startups Cloud計畫,讓新創業者能藉由雲端平台取得更多人工智慧技術資源,藉此打造多元自動生成式人工智慧應用服務。
其中,NVIDIA Inception是一項已經協助超過18000家新創公司的全球計劃,其合格會員將能夠加速使用Google Cloud基礎設施,並且可累積獲得Google Cloud雲端積分,專注於人工智慧技術發展的新創企業最高可獲得價值350000美元的雲端積分,藉此能用於NVIDIA DGX Cloud雲端服務。
參與Google for Startups Cloud計畫成員可同時加入NVIDIA Inception計畫,並且獲得技術專業知識、NVIDIA深度學習機構課程學分、NVIDIA硬體與軟體技術資源。同時,Google for Startups Cloud計畫的合格成員更可參與NVIDIA Inception Capital Connect,讓新創企業能接觸到對該領域感興趣的創投公司,進而獲得後續投資機會。
由於新創企業通常面臨成本限制,尤其投入需要更大開銷的人工智慧技術應用發展時,若能藉由Google、NVIDIA計畫協助,將能加快佈局各類人工智慧技術應用成長。
除了協助新創企業更快投入人工智慧技術發展,並且協助強化雲端協同運算、人工智慧基礎架構配置,NVIDIA目前也與Google合作將其開放模型Gemma佈署於NVIDIA人工智慧平台,並且利用NVIDIA TensorRT-LLM大型自然語言模型開源庫,加速Gemma在NVIDIA GPU上運行時的效能。
至於NVIDIA NIM微服務則是建構在Google Kubernetes Engine (GKE)容器平台,讓開發者、企業能更快建構、佈署人工智慧應用服務。
暂无评论内容