Gemma简介
Gemma是由Google DeepMind和Google其他团队合作开发的一系列轻量级且先进的开放模型。这些模型采用了与创建Gemini模型相同的研究和技术,旨在支持开发者和研究人员负责任地构建AI。Gemma的名称反映了拉丁文中的"gemma",意为"宝石",这反映了其在技术上的先进性和对未来人工智能发展方向的启发。
Gemma模型分为2B(20亿参数)和7B(70亿)两种尺寸版本,每种规模都有预训练和指令处理能力。谷歌声称,在18个语言理解、推理、数学等关键基准测试中,有11个测试分数超越了Meta Llama-2等更大参数的开源模型。此外,Gemma支持主流AI框架,并可在笔记本电脑、台式机、物联网、移动设备和云端等环境上运行。
Google指出开发者可以使用Vertex AI上的Gemma模型,针对文字生成、撰写内容摘要和问答等轻量级工作,建构生成式AI应用程式;运用自订的轻量级模型进行探索及实验,以支援研究与开发工作;支援需要低延迟的实时生成式AI应用情景,例如串流文字。开发人员亦可以直接在GKE上部署Gemma,以建立专属的生成式AI应用程式来建构原型或测试模型功能。
谷歌通过发布Gemma,展现了其在大模型竞争策略上的转变,即从单纯的开源转向更加开放和灵活的策略。这一策略的转变不仅体现在技术层面,也反映在谷歌对开发者支持的加强上,如提供模型权重、工具等,以促进开发者创新。
Gemma作为一种轻量级、先进的开放模型,不仅在技术上具有领先优势,而且在开源策略上也展现出了谷歌对未来人工智能发展方向的深刻理解和积极贡献。
Gemma官网地址:https://ai.google.dev/gemma
Kaggle地址:https://www.kaggle.com/models/google/gemma/code/
huggingface地址:https://huggingface.co/models?search=google/gemma
技术报告:https://goo.gle/GemmaReport
开发指南:https://ai.google.dev/gemma/docs?utm_source=agd&utm_medium=referral&utm_campaign=quickstart-docu
技术博客:https://blog.google/technology/developers/gemma-open-models/
Gemma 在全球范围内可用。以下是需要了解的关键细节:
- 发布两种尺寸的模型重量:Gemma 2B 和 Gemma 7B。每种尺寸都带有预先训练和指令调整的变体。
- 新的负责任的生成式 AI 工具包为使用 Gemma 创建更安全的 AI 应用程序提供了指导和基本工具。
- 通过原生 Keras 3.0 在所有主要框架(JAX、PyTorch 和 TensorFlow)中提供用于推理和监督微调 (SFT) 的工具链。
- 即用型 Colab 和 Kaggle 笔记本电脑,以及与 Hugging Face、MaxText、NVIDIA NeMo 和 TensorRT-LLM 等流行工具的集成,使Gemma 入门变得容易。
- 经过预训练和指令优化的 Gemma 模型可以在您的笔记本电脑、工作站或 Google Cloud 上运行,并轻松部署在 Vertex AI 和 Google Kubernetes Engine (GKE) 上。
- 跨多个 AI 硬件平台进行优化,确保行业领先的性能,包括 NVIDIA GPU 和 Google Cloud TPU。
使用条款允许所有组织(无论规模大小)进行负责任的商业使用和分发。