Notebookcheck Logo

20 年前的想法将人工智能的效率提高了 1000 倍

新型存储器可计算、适应性强、效率卓越。(图片来源:UMN)
新型存储器可计算、适应性强、效率卓越。(图片来源:UMN)
可以想象,节省的费用相当于一个大型工业化国家的消费量。效率的巨大飞跃得益于完全重新设计的数据处理系统。
AI Science

造成能源消耗的主要原因是数据传输。人工智能算法所处理的海量数据更是如此。

因此,省略这一步骤(这也被认为是内存和逻辑进程之间的瓶颈)会产生巨大影响。这正是 2003 年明尼苏达大学提出的一个想法发挥作用的地方。

这促成了从物理学到工程学和计算机科学等众多学科之间的合作。由此产生了许多电路,这些电路如今已被用于智能手表和存储元件中。

计算随机存取存储器(CRAM)也参与其中。这使得并行进程的实际计算和执行可以直接在主存储器中进行,并在其中的任何位置进行。

不仅仅是新架构

使用七台并行 CRAM 进行了测试。(图片来源:UMN)
使用七台并行 CRAM 进行了测试。(图片来源:UMN)

此外,这些并非传统电路,而是磁隧道触点,可以利用电子自旋而非电荷在 0 和 1 之间切换。

在以人工智能为基础的应用中,为了最终实现与传统方法相同的结果,耗电量仅为传统方法的千分之一。从目前和预测的全球神经网络耗电量可以看出,耗电量是多么巨大。根据国际能源机构的数据,2022 年的用电量为 460 太瓦时。最晚到 2026 年,预计将达到 1,000 太瓦时。

在 99.9% 的巨大节约潜力下,将有 999 太瓦时不再需要。这相当于拥有 1.26 亿人口的第四大经济体日本的年耗电量。

论文指出,这还不是最好的结果。进一步的测试可以将能耗降低 1700 或 2500 倍。这种效率的额外提高得益于对 CRAM 进行有针对性的调整,使其适用于各种算法,从而可以更快、更经济地进行计算。

Please share our article, every link counts!
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 08 > 20 年前的想法将人工智能的效率提高了 1000 倍
Mario Petzold, 2024-08- 9 (Update: 2024-08- 9)