谷歌公司近期发布了其新一代开源大语言模型Gemma 2,这一消息在多个新闻渠道中得到了报道。Gemma 2模型包含两种参数大小,分别是90亿参数(9B)和270亿参数(27B)。与第一代Gemma模型相比,Gemma 2在性能和推理效率上都有显著提升,同时在安全性方面也进行了改进。
性能提升 Gemma 2-27B模型在性能上能够与规模是其两倍的主流模型相媲美,而9B模型在15B以下参数的模型中表现最佳。此外,27B模型只需要一片NVIDIA H100 Tensor Core GPU或TPU主机就能实现高性能,这大大降低了部署成本。 开源与可访问性 Gemma 2模型遵循谷歌的商业友好许可,允许开发人员和研究人员分享和商业化他们的创新。这与原始Gemma模型的开放性和可访问性保持一致。 集成与合作 谷歌与Hugging Face合作,确保Gemma 2在Hugging Face生态系统中的最佳集成,用户可以在Hub上找到相关的开源模型。 未来计划 谷歌还计划在未来几个月发布参数为26亿的Gemma 2模型,这将更适合智能手机的人工智能应用场景。 总结 Gemma 2的发布为全球开发者和研究人员提供了一个高性价比的选择,其在性能、效率和安全性方面的提升,以及对开源社区的友好性,都显示了谷歌在推动人工智能技术发展方面的决心和努力。随着未来更小参数模型的发布,Gemma 2有望在更广泛的应用场景中发挥作用。 ![]() |