百度,人工智能,芯片

百度首款AI芯片昆仑将明年量产

据三星官网消息显示,百度首款用于云计算和边缘计算的昆仑AI芯片已经完成研发,由三星代工明年初实现量产。

据三星官网消息显示,百度首款用于云计算和边缘计算的昆仑AI芯片已经完成研发,由三星代工明年初实现量产。
 
昆仑芯片将基于百度针对云、边缘和人工智能的XPU神经处理器架构构建,采用三星14纳米工艺和i-Cube TM封装解决方案。
 
三星的14nm工艺是其最广泛使用的制造节点之一,该工艺的晶体管密度为32.5 MTr/mm,主要用于英伟达的GeForce 10系列,以及许多高通和三星芯片。它有多种变体,包括14nm LPE(Low Power Early)和14nm LPP(Low Power Plus)。
 
目前三星已经为高通、苹果、Nvidia和许多其他厂商生产芯片,并且还将其14nm工艺许可给美国半导体公司GlobalFoundries。
 
三星电子代工行销副总裁Ryan Lee表示,「对于三星代工来说,百度昆仑是一个重要的里程碑,因为我们正在通过开发和批量生产AI芯片将业务领域从移动扩展到数据中心应用。三星将提供从设计支持到尖端制造技术(例如5LPE,4LPE以及2.5D封装)的全面工艺解决方案。」
 
<mark data-type=institutions data-id=5896450e-2901-4458-8dc6-36debf202d02>百度</mark>AI芯片再进一步!明年初量产,由<mark data-type=institutions data-id=8b75b61d-2d16-4d75-997b-d7091e9f899f>三星</mark>代工采用14nm工艺
 
在制造工艺布局上,全球各大半导体公司都在广泛布局。英特尔进入10nm工艺时代,并将推出7nm,台积电、三星也纷纷完成7nm工艺,并将推出5nm、3nm。
 
前段时间台积电表示,早期5nm测试芯片良率80%,明年或迎来大规模量产。台积电声称,5nm EUV工艺的整体改变在于:逻辑密度增加约1.84倍,能效增益15%,功耗降低30%。目前对256Mb的SRAM和一些逻辑芯片进行测试,平均产率为80%,产率峰值大于90%。
 
制造工艺一定程度上决定了处理器的集成度。由于在AI和HPC等各种应用中需要更高的性能,因此芯片集成技术变得越来越重要。
 
三星的I-Cube技术通过插入器连接逻辑芯片和高带宽存储器,可通过利用三星的差异化解决方案以最小的尺寸提供更高的密度/带宽。
 
与以前的技术相比,这些解决方案将电源/信号完整性提高了50%以上,从而最大限度地提高了产品性能,预计I-Cube技术将标志着异构计算市场的新纪元。三星还在开发更先进的封装技术,包括再分配层(RDL)插入器和4x,8x HBM集成封装。
 
百度昆仑AI芯片明年初量产
 
最开始,百度开始尝试为深度学习而设计的现场可编程门阵列(FPGA)芯片,后逐步演进成「昆仑」项目,昆仑的速度比百度的第一个FPGA芯片快30倍,并且能够达到每秒260 tera-operations(TOPS)和512 GB/秒的内存带宽,并以150瓦的功率提供每秒260 Tera操作(TOPS)。
 
此外,该芯片使用于自然语言处理的预训练模型Ernie的推理速度比传统GPU/FPGA加速模型快三倍。
 
利用昆仑的极限运算能力和能效,百度可以有效支持多种功能,包括大规模的AI工作负载,例如搜索排名、语音识别、图像处理、自然语言处理、自动驾驶和PaddlePaddle(飞桨)等深度学习平台。
 
去年7月,百度正式推出首款云端全功能AI芯片「昆仑」,其中包含训练芯片昆仑818-300,推理芯片昆仑818-100。昆仑可应用于云和边缘场景,例如数据中心、公共云和自动驾驶汽车。
 
早在2011年,百度就已经开始使用专门为深度学习而设计的现场可编程门阵列(FPGA)芯片。随着AI芯片的发布,百度也逐渐加入谷歌、英伟达、英特尔和其他许多制造专门用于人工智能处理器的科技公司的行列。
 
这是百度和三星的首次代工合作,百度选择三星代工可看出其在工艺和制造资源上的差异化打法,百度提供先进的AI平台来最大化AI性能,三星将把代工业务扩展到专为云计算和边缘计算设计的高性能计算(HPC)芯片领域。
关注自动驾驶之家微信公众号

扫描关注,获取干货

文章来源:小迷糊 / 文章作者:机器之心  →人工智能
声明:本文来源“机器之心”作者“小迷糊”,版权归作者所有,不代表自动驾驶之家官方立场。转载请注明出处、作者和文章链接,如果有侵权,请联系删除。
收藏