首页 > 自考资讯 > 自考知识

ai芯片 gpu 区别,nvidia ai算力

头条共创 2024-06-27

IT之家6 月27 日报道,加州大学圣克鲁斯分校的研究人员开发出一种新方法,只需13W 的功率(相当于现代LED 灯泡的功率)即可运行具有10 亿个参数的大型语言。据报道确实如此。 )。 模型。相比之下,用于大型语言模型任务的数据中心级GPU 大约需要700W。

b9107c59dcce40008eb9a45299bf5b97~noop.image?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1720079141&x-signature=tijHvrIV0RpRSd89ah27U1cKfWo%3D

人工智能浪潮下,很多企业和机构的主要研究方向是应用和推理,而效率等指标却很少考虑。为了缓解这种情况,研究人员消除了矩阵乘法的密集技术,并提出了一种只有三个值的“三元”解决方案:减一、零和加一。

该团队还使用称为现场可编程门阵列(FPGA) 的高度定制电路创建定制硬件,使他们能够充分利用神经网络的所有节能功能。

当在定制硬件上运行时,它可以实现与Meta 的Llama 等顶级模型相同的性能,但神经网络的功能比传统配置低50 倍。

这种神经网络设计也可用于在人工智能行业常用的标准GPU 上运行,测试结果表明,与基于矩阵乘法的神经网络相比,它仅使用一小部分内存。 10.

IT主页附参考地址

版权声明:本文由今日头条转载,如有侵犯您的版权,请联系本站编辑删除。

猜你喜欢