
Gemma
DevelopmentGemma是由谷歌DeepMind和谷歌的其他团队开发的一系列轻量级、先进的开放AI模型,基于与Gemini模型相同的技术,旨在帮助开发者和研究人员构建负责任的AI应用。Gemma模型系列包括两种权重规模的模型:Gemma 2B 和 Gemma 7B,提供预训练和指令微调版本,支持多种框架,如JAX、PyTorch和TensorFlow,以在不同设备上高效运行。
About
概述
Gemma 是 Google DeepMind 推出的开放模型系列,基于与 Gemini 同源的核心技术构建,面向开发者与研究人员,用于创建可本地部署、可微调、可商用的 AI 应用。Gemma 主打“轻量级 + 高性能”,可在工作站、笔记本,甚至手机等设备上运行,适合 AI 开发、推理部署、模型研究与边缘侧应用。
目前官网展示的 Gemma 家族已不仅限于早期的 2B、7B 模型,还扩展到 Gemma 3、Gemma 3n 等方向,并包含面向翻译、函数调用、嵌入、医疗等任务的衍生模型。
主要功能
- 开放模型权重:提供开放权重,便于研究、微调和部署,适合构建自有 AI 能力。
- 轻量级推理:模型针对多种硬件环境优化,可在本地设备与云端灵活运行。
- 多版本模型可选:提供预训练版与指令微调版,满足基础建模和对话式应用需求。
- 多框架支持:兼容 JAX、PyTorch、TensorFlow,也可结合 Keras 工具链进行开发。
- 支持监督微调:适合进行领域适配、LoRA 微调和任务定制。
- 多模态与多语言扩展:Gemma 新一代模型已强调多模态理解与更强的多语言能力。
- 安全与责任设计:Google 提供数据过滤、安全评估及负责任生成式 AI 工具支持。
- 社区与生态资源丰富:可通过官网、Hugging Face、Kaggle、GitHub、Colab 等渠道获取模型与示例。
产品定价
Gemma 本身作为开放模型系列,可通过官方页面、Hugging Face、Kaggle 等渠道获取模型资源。
但其实际使用成本取决于具体场景:
- 本地使用:下载模型后可自行部署,主要成本来自本地硬件资源。
- 云端运行:如在 Google Cloud 或其他云平台推理、训练,会产生算力费用。
- 生态工具:部分配套平台可能提供免费额度或试用资源,具体以官方页面为准。
常见问题
Gemma 适合做什么?
适合用于聊天助手、文本生成、代码辅助、研究实验、垂直领域微调,以及本地/边缘设备 AI 部署。
Gemma 是开源吗?
Gemma 通常被称为“开放模型(Open Models)”,提供可下载权重,但具体使用、分发和商用仍需遵循官方许可协议。
Gemma 支持哪些开发框架?
官方资料显示支持 JAX、PyTorch、TensorFlow,并提供相关实现与示例。
在哪里可以获取 Gemma?
可从以下官方入口访问:
- 官网:https://ai.google.dev/gemma?hl=zh-cn
- Hugging Face:https://huggingface.co/models?search=google/gemma
- Kaggle:https://www.kaggle.com/models/google/gemma/code
- GitHub(PyTorch 实现):https://github.com/google/gemma_pytorch
Related Tools
View allLiner.ai 是一款无需编程即可构建和部署机器学习模型的工具,适合没有机器学习背景的用户快速完成训练数据到可集成模型的转换。
Pico 是一个基于 GPT-4 的文本生成应用工具,用户可通过自然语言描述需求,快速创建简单的 Web 应用,适合不具备编程能力但有产品想法的人使用。
Imagica是一款无代码AI应用开发平台,支持用户在不编写代码的情况下构建AI应用,并结合实时数据与多模态能力完成交互式产品设计。
WidgetsAI 是一款面向 AI 应用构建的无代码小部件平台,支持创建、嵌入和白标化 AI 组件,适合希望快速集成 AI 功能而不进行编程的团队或个人。
ComfyUI 是一款面向 Stable Diffusion 的模块化图形界面工具,采用节点式工作流设计,便于用户更细致地控制图像生成过程。
Lightning AI是一个用于构建和部署模型及全栈AI应用的开发框架,提供训练、服务和超参数优化等能力,帮助开发者减少基础设施配置工作。