首页 > 自考资讯 > 自考知识

google language change,google languages

头条共创 2024-07-05

IT之家6 月28 日消息,谷歌昨天发布新闻稿,宣布其Gemma 2 语言模型,共有90 亿个参数(9B)和270 亿个参数(27B)两种尺寸,将向全球的研究人员发布。开发商。

63cdf0f175b24dd5a052c345ad1558bf~noop.image?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1720742772&x-signature=N0MdF8OdLv6Kq0kXp9zGqdXl0v0%3D

与第一代相比,Gemma 2 大语言模型提供了改进的推理性能和效率,以及安全性方面的显着进步。

谷歌在新闻稿中表示,Gemma 2-27B型号的性能可与两倍大小的主流型号相媲美,并且只需要NVIDIA H100传感器核心GPU或TPU主机即可实现这一性能,并称将显着降低部署成本。减少。

Gemma 2-9B 模型的性能优于Llama 3 8B 和其他类似尺寸的开源模型。谷歌还计划在未来几个月发布具有26亿参数的Gemma 2模型,该模型更适合智能手机上的人工智能应用场景。

谷歌表示,它重新设计了Gemma 2 的整体架构,以实现卓越的性能和推理效率。 IT之家列出了Gemma 2的主要特点如下:

性能优异:

27B 版本在其尺寸级别中提供最佳性能,甚至比其尺寸两倍的型号更具竞争力。 9B版本的性能也是同类中最好的,优于Llama 3 8B和其他同尺寸的开放型号。

06af628cbacd44e297ecb27eba119378~noop.image?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1720742772&x-signature=cMURzzshF9M5S5MUydqfzjEV9Hc%3D

效率和成本:

27B Gemma 2 模型可以在单个Google Cloud TPU 主机、NVIDIA A100 80GB Tensor Core GPU 或NVIDIA H100 Tensor Core GPU 上高效运行全精度推理,在保持高性能的同时降低成本。这使得人工智能部署更容易、成本更低。

跨硬件快速推理

Gemma 2 经过优化,可以在各种硬件上以闪电般的速度运行,从功能强大的游戏笔记本电脑和高端台式机到基于云的设置。

在Google AI Studio 中完全精确地尝试Gemma 2,或者使用Gemma.cpp 的量化版本在配备NVIDIA RTX 或GeForce RTX 的家用PC 上使用Hugging Face Transformers 解锁CPU 的本机性能,您可以尝试一下。

版权声明:本文由今日头条转载,如有侵犯您的版权,请联系本站编辑删除。

猜你喜欢