根据一项研究,这种新技术有可能将能耗减少多达95%。这个被称为“线性复杂度乘法”(L-Mul)的算法基于整数加法,与通常用于AI相关任务的浮点乘法相比,所需能量要少得多,TechSpot报道。

目前,浮点数在AI计算中至关重要,因为它们可以处理极大或极小的数值,提供类似二进制的精度,从而实现复杂计算的准确性。然而,这种精度的代价是高能耗,令人担忧的是,一些AI模型需要大量电力。例如,运行ChatGPT每天消耗的电力足以供18,000个美国家庭使用,总计564 MWh。剑桥替代金融中心的分析师预测,到2027年,AI行业的年耗电量可能在85到134 TWh之间。

L-Mul算法通过用简单的整数加法替代复杂的浮点运算来解决这个问题。在测试中,AI模型保持了其准确性,张量运算的能耗减少了95%,标量运算减少了80%。

L-Mul不仅降低了能耗,还提高了性能。它优于当前的8位计算标准,以更少的位级操作提供更高的精度。在自然语言处理和计算机视觉等各种AI任务中,性能下降仅为0.07%,考虑到巨大的节能效果,这一微小的代价是可以接受的。

基于Transformer的模型,如GPT,将从L-Mul中受益最大,因为该算法可以轻松集成到这些系统中。在Llama和Mistral等流行AI模型上的测试甚至显示出某些任务的准确性有所提高。

然而,L-Mul的缺点是需要专用硬件,目前的AI加速器尚未针对这种方法进行优化。好消息是,开发这种硬件和API的工作已经在进行中。

一个潜在的障碍可能是来自主要芯片制造商如Nvidia的抵制,这可能会减缓这种新技术的采用。作为AI硬件生产的领导者,Nvidia可能不愿意放弃其在市场上的主导地位,以支持更节能的解决方案。