【新智元导读】中科院计算所等组织推出了国际首个彻底由AI规划的CPU芯片,不仅比现在GPT-4所能规划的电路规划大了4000倍,并且功用也到达了与Intel 486相当的水平。

中科院计算所的处理器芯片全国重点实验室及其合作单位,用AI技能规划出了国际上首个无人工干预、全主动生成的CPU芯片——启蒙1号。

这颗彻底由AI规划的32位RISC-V CPU,比较GPT-4现在所能规划的电路规划大4000倍,并可运转Linux操作系统,且功用堪比Intel 486。

而这项研讨,更是有望推翻传统的芯片规划流程!

世界首颗AI全自动设计CPU!中国团队重磅推出,性能堪比486,规模提升4000倍

论文地址:arxiv.org/pdf/2306.12…

国际首个AI全主动生成的CPU芯片

众所周知,CPU规划是一项十分应战且耗费人力和资源的作业。

这一般需求由工程师团队编写代码(如Verilog、Chisel或C/C++等),然后在电子规划主动化(EDA)东西(如逻辑综合或高层次综合东西)的辅助下生成电路逻辑。

除此之外,工程师团队针对人工编写的代码,还需重复使用测试用例对其进行迭代的功用验证和功用/功耗优化。

但是,该进程极其杂乱琐碎,一般需求上百人团队迭代数月或数年才干完结。以典型Intel CPU为例,逾越500位工程师花了两年时间才完结整个规划进程[1]。

为了减少人力和资源投入,研讨人员采用AI技能直接从测试用例的输入-输出(IO)主动生成CPU规划,无需工程师供给任何代码或自然语言描绘。

该办法在5小时内生成了逾越4,000,000个逻辑门的32位RISC-V CPU——启蒙1号(见图1),比现在GPT-4所能规划的电路规划大4000倍。

世界首颗AI全自动设计CPU!中国团队重磅推出,性能堪比486,规模提升4000倍

图1 启蒙1号芯片版图及实物图,其间CPU核部分彻底由算法主动生成,芯片于2021年12月采用65nm工艺流片,运转频率300MHz

该CPU于2021年12月流片,回片后成功运转了Linux操作系统和SPEC CPU 2000程序,其功用与Intel 486 CPU相当(见图2)。

启蒙1号是国际上首个无人工干预、全主动生成的CPU芯片。该办法甚至自主地发现了包含操控器和运算器等在内的冯诺依曼架构,为后续发现人类不知道的体系结构优化知识供给了参考。

世界首颗AI全自动设计CPU!中国团队重磅推出,性能堪比486,规模提升4000倍

图2启蒙1号芯片能够成功运转Linux操作系统及功用对比(CPU-AI为启蒙1号)

全主动CPU规划:规划流程及应战

与传统CPU规划流程中需求很多人工参与不同,研讨人员考虑使用「输入-输出(IO)」作为输入,由于IO能够从很多现成的测试用例中直接获取或主动生成。

因此,能够将CPU主动规划问题方式化为「满足输入-输出规范的电路逻辑生成问题」。

这也使得传统的CPU规划流程发生了巨大变化:只需测试用例即能够直接生成满足功用需求的电路逻辑,摒弃了传统规划流程中十分耗时的、依赖人工的逻辑规划与验证环节(见图3)。

世界首颗AI全自动设计CPU!中国团队重磅推出,性能堪比486,规模提升4000倍

图3 (a)传统的CPU规划流程包括耗时的逻辑规划与验证;(b)所提出的全主动CPU规划流程直接从IO生成保证功用正确的电路逻辑

但是,从IO生成满足规范的电路逻辑面临两大应战:

(1)规划应战:在没有任何专家给出的方式化或非方式化电路描绘时,规划空间巨细等同于全部或许存在的电路规划。对于以IO描绘的电路来说,一个典型RISC-V CPU的规划空间约为

世界首颗AI全自动设计CPU!中国团队重磅推出,性能堪比486,规模提升4000倍

;在如此巨大空间中找到功用正确的CPU超出了当前主动化规划办法的能力;

(2)精度应战:生成的方针电路逻辑必需要满足准确(例如功用验证准确率>99.99999999999%),否则任何微小过错都将造成巨大损失,这远远逾越了传统AI算法和使用对精度的要求。

符号主义的重生:根据BSD的电路主动规划办法

针对前面所说到的应战,不同于传统根据衔接主义的深度学习办法,研讨人员所提出的办法是根据对二元决议计划图(Binary Decision Diagram,BDD)进行扩展的二元猜想图(Binary Speculation Diagram, BSD)。

与传统的BDD构建依赖于方式化的描绘不同,BSD使用常数0/1对BDD中的子图进行功用猜想。

在规划流程中,首先使用仅有1个节点的BSD作为对不知道黑盒函数的初始估量,然后利用动态规划办法逐渐添加BSD中的节点个数,从而丰富电路细节(见图4)。该作业理论上证明了跟着BSD节点个数的添加,其电路准确率会逐渐提升。

世界首颗AI全自动设计CPU!中国团队重磅推出,性能堪比486,规模提升4000倍

图4 具体的电路生成流程:从1个节点的BSD出发,逐渐添加BSD中的节点个数以丰富电路细节

自主发现人类知识:包含冯诺依曼架构的CPU

此外,从IO主动生成的RISC-V CPU并不是杂乱无章的黑盒逻辑,而是包含了冯诺依曼架构的人类知识:由BSD表明的CPU规划包含了操控单元和运算单元(见图5)。

其间操控单元是由BSD的顶层生成,用于整个CPU的大局操控,而运算单元则完结算术和逻辑运算

一起上述单元能够进一步分解为更细粒度的子模块,如译码器和ALU等,直到其最底层由根本的逻辑门构成。

世界首颗AI全自动设计CPU!中国团队重磅推出,性能堪比486,规模提升4000倍

图5 自主发现冯诺依曼结构:启蒙1号中包含了操控单元和运算单元,一起能够进一步分解为更细粒度的子模块

对比与展望:不同人工智能途径的穿插探究

主动的电路逻辑规划长时间以来都是计算机科学的核心问题之一[2]。

近年来跟着人工智能技能的开展,也出现了一批根据行为主义和衔接主义(如深度强化学习和GPT-4大语言模型等)的主动逻辑规划作业(见表1)。

世界首颗AI全自动设计CPU!中国团队重磅推出,性能堪比486,规模提升4000倍

表1主动逻辑规划的代表作业对比情况

能够看出,相关作业首要聚集于生成单个模块或小规划CPU,其规划与实践CPU芯片还有多个数量级的差距。

中科院计算所团队及其合作单位(包括中科院软件所、中科大、寒武纪公司等)所提出的办法生成了逾越4,000,000个逻辑门的完整RISC-V CPU,比较现在GPT-4所能规划的电路规划大4000倍。

一起,该作业在符号主义的框架下从理论上保证了功用正确性,推翻了传统流程中的逻辑规划和功用验证环节。

未来,经过符号主义、行为主义及衔接主义等不同人工智能途径的穿插探究,主动生成的CPU有望在5年或10年内到达甚至逾越人类专家所规划的CPU,彻底推翻现有的芯片规划流程。

团队介绍

自2008年起,中科院计算所便开端长时间从事芯片规划和人工智能的穿插研讨。其间一项为人熟知的产出就是人工智能芯片寒武纪。

而在面向芯片规划的人工智能办法上,中科院计算所也已有十多年的堆集,并且从未中止探究如何用人工智能办法使得芯片规划彻底主动化。

依托中国科学院计算技能研讨所建立的处理器芯片全国重点实验室,是中国科学院同意正式启动建造的首批重点实验室之一,并被科技部遴选为首批 20个标杆全国重点实验室,2022年5月开端建造。

其间,实验室学术委员会主任为孙凝晖院士,实验室主任为陈云霁研讨员。

实验室近年来获得了处理器芯片范畴首个国家自然科学奖等6项国家级科技奖赏;在处理器芯片范畴国际顶级会议宣布论文的数量长时间列居中国榜首;在国际上成功开创了深度学习处理器等抢手研讨方向;孵化了总市值数千亿元的国产处理器产业头部企业。

参考资料:

[1] Bentley, B. Validating a modern microprocessor. In Proceedings of International Conference on Computer Aided Verification (CAV), 2–4 (2005).

[2] Church, A. Applications of recursive arithmetic to the problem of circuit synthesis. Summaries of the Summer Institute of Symbolic Logic 1, 3-50 (1957)

[3] Roy, R. et al. Prefixrl: Optimization of parallel prefix circuits using deep reinforcement learning. In Proceedings of Design Automation Conference, 853–858 (2021).

[4] Chen, P. et al. Circuit learning for logic regression on high dimensional Boolean space. In Proceedings of Design Automation Conference, 15 1–6 (2020)

[5] Rai, S. et al. Logic synthesis meets machine learning: Trading exactness for generalization. In Proceedings of Design, Automation & Test in Europe Conference & Exhibition, 1026–1031 (2021).

[6] Blocklove, J et al. Chip-Chat: Challenges and Opportunities in Conversational Hardware Design. In arxiv, arxiv.org/abs/2305.13… (2023)