Google 宣布 Gemma 正式在 Google Cloud 上開放使用
Google 今日宣布推出 Gemma,這是一系列先進的輕巧開放模型,採用與建立 Gemini 模型相同的研究與技術打造而成。我們也很高興地宣布 ,Google Cloud 客戶現在可以在 Vertex AI 開始運用 Gemma 模型自訂與建構,並於 Google Kubernetes Engine (GKE) 中執行。Gemma 的發表與我們更新的平台功能,展現了我們承諾讓運用 Google Cloud 的開發人員可以更開放、更易於使用 AI 的決心。
Gemma 現已在 Google Cloud 推出
Gemma 模型採用與 Gemini 模型相同的技術和基礎架構元件且功能性十足。這使得 Gemma 模型與同級開放式模型相比,有著領先的效能。我們目前推出兩種規模:Gemma 2B 和 Gemma 7B。每個規模都發布了預先訓練和指令調整版本,以利研究與開發。
Gemma 支援 Google Cloud 開發者現今愛用的工具,包括 Colab 和 Kaggle Notebooks,以及 JAX、PyTorch、 Keras 3.0 和 Hugging Face Transformers 等框架。Gemma 模型可以在筆記型電腦、工作站或是在 Google Cloud 上執行。藉著這些全新的開放模型,開發人員現今可在 Vertex AI 建構與客製化並於 GKE 執行。為了發揮出我們領先業界的效能,Google 與 NVIDIA 攜手合作,優化 Gemma 在 NVIDIA GPUs 上的效能。
在 Vertex AI 釋放 Gemma 的強大功能
Gemma 加入 Vertex AI Model Garden 裡的 130 多個模型,包括最近宣布的各種 Gemini 模型:Gemini 1.0 Pro、1.0 Ultra 和 1.5 Pro 模型。
透過在 Vertex AI 上使用 Gemma 模型,開發人員可以利用端對端機器學習平台,讓模型調整、管理和監控變得簡單直覺。借助 Vertex AI,建構人員可以減輕營運負擔,將重心放在打造最能貼合自身需求的客製化版本 Gemma。例如,使用 Vertex AI 上的 Gemma 模型,開發人員可以從事下列工作:
- 針對文字生成、內容摘要和問答等輕量級任務,構建生成式 AI 應用程式。
- 使用自訂的輕量級模型進行探索和實驗,以支援研發作業。
- 支援需要低延遲的即時生成式 AI 應用場景,例如串流文字。
開發人員透過 Vertex AI 可以很輕易將自己調整的模型轉化為可供擴充的端點,從而為各種規模的 AI 應用程式提供支援。
使用 GKE 上的 Gemma ,將原型擴展到生產規模
GKE 提供了建構自訂應用程式需要的工具,從簡單的專案原型設計到企業規模產品皆適用。開發人員現在也可以直接在 GKE 部署 Gemma,創造自己的生成式 AI 應用程式,用來建構原型或測試模型功能。
- 在熟悉的工具鏈中,將自訂的微調模型佈署在可攜式容器中,並同時執行應用程式
- 自訂模型服務和基礎架構配置,無需佈建或維護節點
- 快速整合 AI 基礎架構並加以擴充,滿足最嚴苛的訓練和推論設定
GKE 提供高效的資源管理、一致性的營運環境和自動資源調度功能。此外,經由輕鬆編排 Google Cloud AI 加速器,包含 GPU 和 TPU, 來強化作業環境,在建構生成式 AI 模型時更能加快訓練和推論速度。
立即開始在 Google Cloud 體驗 Gemma
您現在可以在 Google Cloud 的 Vertex AI 和 GKE 上開始使用 Gemma 模型。更多 Gemma 相關資訊,歡迎前往 ai.google.dev/gemma 參閱快速入門指南。
本文作者:Cloud AI 副總裁暨總經理 Burak Gokturk
臉書留言