效率逆天!谷歌正在用 AI 设计芯片:6 小时顶人类几个月
这项 AI 设计方法已用于设计下一代谷歌 TPU,有望为今后的每一代计算机芯片节省数千小时的人力。
2016 年,AlphaGO 以人工智能的身份,第一次实现了对人类的反超。
现在,人们甚至可以通过人工智能设计出复杂芯片,从而进一步训练和生成更为强大的人工智能。
本周三,谷歌在《自然》杂志发表的一篇论文表示,其开发 AI 已经可以比人类更快地设计芯片。
根据论文中的描述,同样一款 TPU(张量处理单元,专门用于加速机器学习的集成电路) 芯片,人类需要几个月时间才能将其设计出来,该 AI 仅需不到 6 小时的时间就能完成。
论文称,基于一种深度强化学习算法,该 AI 具备了泛化能力的芯片设计方法。
一般来说,计算芯片的使用面积仅有数十至数百平方毫米。而在这样微小有限的空间内,需要容纳数千个组件,包括内存、算数逻辑单元、以及将这些元件连接在一起的,长达数公里的纳米电路。
在芯片设计过程中,最具挑战之一的是 “芯片平面规划”。这涉及确定放置这些组件的最佳位置,就像建筑师设计建筑物的内部空间以容纳所有必需的固定装置和配件一样。
人类通常以整齐的线条布置组件,这意味着需要耗费更多时间。
而在谷歌的研究人员使用了 10,000 个芯片平面图来训练该 AI 后。它可以使用优于人类设计方案的,更为分散的方法来设计其芯片。
论文称这一新的芯片设计模式,可能对半导体行业产生 “重大且深远的影响”。
这项 AI 设计方法已用于设计下一代谷歌 TPU,有望为今后的每一代计算机芯片节省数千小时的人力。
该计划由目前领导 Google Research 的 ML for Systems 团队的两位负责人——Azalia Mirhoseini 和 Anna Goldie 领导。
1945 年,冯·诺伊曼发表了里程碑式的,奠定了现代经典二进制计算机结构体系的 “101 页” 报告。而这,距今仅仅 76 年。
不到百年的时间里,计算机的发展突飞猛进,由最早需要以吨为计量单位的庞然大物,逐步演化为拿在我们手上的智能手机。
没人能够肯定摩尔定律的极限在哪里。这既可以说是人工智能的胜利,也可以说是人类的胜利。