我国芯片领域获重大突破研制出首颗存算一体芯片
芯片的发展尤为重要,随着技术的突破,我国我国芯片领域获重大突破,近日清华大学研制出全球首颗全系统集成的、支持高效片上学习的忆阻器存算一体芯片,其有望促进人工智能、自动驾驶可穿戴设备等领域发展。想知道研制出首颗存算一体芯片具体详情,请看以下介绍。
我国芯片领域获重大突破
想象一下,一枚芯片上集成了记忆和计算的能力,在保护用户隐私同时,还具备了类似人脑的自主学习,能耗仅为先进工艺下专用集成电路系统的1/35,听起来是不是很神奇?
据清华大学公众号10月9日消息,近期,清华大学集成电路学院教授吴华强、副教授高滨基于存算一体计算范式,研制出全球首颗全系统集成的、支持高效片上学习(机器学习能在硬件端直接完成)的忆阻器存算一体芯片,在支持片上学习的忆阻器存算一体芯片领域取得重大突破,有望促进人工智能、自动驾驶可穿戴设备等领域的发展。该研究成果日前发表在《科学》上。
记忆电阻器,是继电阻、电容、电感之后的第四种电路基本元件。它可以在断电之后,仍能“记忆”电阻状态,被当做新型纳米电子突触器件。
面向传统存算分离架构制约算力提升的重大挑战,吴华强、高滨聚焦忆阻器存算一体技术研究,探索实现计算机系统新范式。忆阻器存算一体技术在底层器件、电路架构和计算范式上全面颠覆了冯·诺依曼传统计算架构,可实现算力和能效的跨越式提升,同时,该技术还可利用底层器件的学习特性,支持实时片上学习,赋能基于本地学习的边缘训练新场景。
课题组基于存算一体计算范式,创造性提出适配忆阻器存算一体实现高效片上学习的新型通用算法和架构,通过算法、架构、集成方式的全流程协同创新,研制出全球首颗全系统集成的、支持高效片上学习的忆阻器存算一体芯片。
忆阻器芯片的研发面临着技术挑战和工程挑战。
据了解,忆阻器芯片的研发涉及到材料科学、物理学、电子工程等多学科的前沿知识。在诸多技术难题中,首先要解决的是如何实现忆阻器件的大规模集成。通过大量实验和理论研究,团队提出了架构-电路-工艺协同优化方法,为存算一体系统的设计提供了指导。
有了大规模集成的工艺、关键的电路设计,如何克服底层多尺度非理想导致的误差,集合成一个高效的系统芯片?在团队老师和学生的共同努力下,研究提出STELLAR架构,完成算法优化及仿真实验,制备出全系统集成的高效存算一体学习芯片,实现速度和能效的大幅提升。
放眼未来,吴华强希望团队的方案、技术能够走出实验室,切切实实推动科研成果转化,致力服务国家所需、社会所需。
“存款特种兵”火了为了4%的利率跑遍全国
1元起拍乏人问津中小银行股权拍卖整体欠佳
券商板块节后首日跌出新低A股市场表现低迷
顺周期与成长股双轮驱动顺周期板块或将崛起
四季度A股有望迎来转机有四大积极因素支撑
银行对公涉房资产质量受关注
中国芯迎风头,北大AI芯片启明920突破,硬件加速达3.5倍
最近国产芯片的好消息越来越多,各大芯片厂商也迎来喜讯,国家也发布了2025年芯片自主率达70%以上的目标,不少集成电路的研发和生产厂家也迎来了风头,除了能获得国家扶持之外,部分集成电路厂家还可以享受10年免税的政策。
在如此形式的激励下,近期,我国在芯片领域的发展又迎来新的突破,由北京清华大学与西安交叉核心院共同完成研发的一款AI芯片“启明920”发布,这款芯片的诞生填补了我国在AI芯片领域的很多技术空白。
从启明920芯片的命名来看,启明取自于“启明星”,在我国启明星是希望的象征,引领方向的标志,是即将迎来黎明的意思。
也意味着我国在AI芯片研究领域也迎来了新的发展,根据启明920芯片曝光的参数来看,启明920已经软硬件协同的方式,可以实现对图案的优化处理,可为硬件加速提供3.5倍加速,同时优化了存储和计算方式来提高芯片工作效能,并且还针对DRAM进行了专项优化,充分发挥处理单元的闲置资源,提升芯片的使用性能 为什么说启明920芯片是一款非常有意义性的芯片,我们都知道芯片不光是指CPU处理器,其实芯片只是集成电路另一种称呼,根据领域类型的不同,芯片的功能也不同,架构设计和内部原理也不同。
我国在手机和电脑处理器芯片上面已经有所成就,虽然不能达到5nm工艺的性能,但是至少属于有芯可用。
随着AI智能时代的开启,全球对AI芯片的关注度越来越高,AI智能也被人类称之为第四代工业革命,随着AI智能领域的发展壮大,AI芯片对我们来说至关重要。
AI芯片也被称之为AI加速卡,是专门用来处理人工智能应用中大量计算任务的模块,被广泛应用在人脸识别支付、自动驾驶、安防安保工作、无人机等领域,通过AI数据分析,可以自动对人脸数据模型进行建立和识别,并且AI还能监控图像中的物体移动,对物体进行分析识别和动作预判,比如自动驾驶,而且AI还能通过仿生学习模拟人类的肢体动作并和人类互动等,为我们的生活和工作提供了极大的便利。
但想要实现这些功能就必须要用到AI芯片,没有AI芯片就意味着在AI人工智能领域的落后。
AI芯片和CPU的区别很简单,CPU主要是负责通用运算,是信息处理、程序运行的最终执行单元,而AI和GPU主要是针对图形处理而设计的加速芯片,典型CPU的架构中需要大量的空间去放置存储单元和控制单元,相比之下计算单元只占据了很小的一部分,算力无法满足深度神经网络(DNN)的计算需求;而GPU虽然可以实现对图形的运算,速度也快很多,但是老黄家的GPU价格太高,一块高端显卡经常卖到上万元。
而且GPU并不是专门针对AI算法开发的ASIC,所以说也并不是最理想的选择。
如果想要实现类似自动驾驶等功能,那么其图形运算速度必须要快,毕竟在高速驾驶中,路面情况复杂多变,这对图形处理芯片来说是一个非常大的考验,而且如果使用在小型中端上面,还需要具备低功耗的要求,所以GPU并不能作为AI智能芯片使用。
那么开发一种专门用在AI领域的智能芯片是非常必要的。
虽然有所成就,但是和国际先进AI芯片生产厂家相差还是很大,根据研究团队的说法,目前该芯片还只能应用在低速自动驾驶的 汽车 上,在相比特斯拉等厂家上面使用的智能芯片来说,还有很大空间提升。
当然,万事开头难,相信在未来的发展中,我们能不断突破成为世界领先。
在目前芯片发展如此坎坷的情形下,能取得如此成就确实不易,根据数据显示2019年我国的芯片自给率只有30%左右,想要在2025达到70%,我们真的能做到吗,通过什么方式能够弯道超车呢?上西瓜视频,搜索“猫眼儿观世界”,看西瓜视频创作人“猫眼儿观世界”的作品:不吹不黑,认清中国芯片产业现状,我们的困境与机遇在哪里,带你重新认识我国目前芯片行业的发展现状,一起理性分析我国芯片中的发展机遇,以及AI芯片能否成为我国新的发展目标。
看西瓜视频,了解芯片原理,涨知识,涨技能!
类脑芯片技术简介
在2022年的全球闪存峰会上,灵汐科技的何伟博士引领我们步入了一个全新的科技领域——类脑芯片技术。
面对海量非结构化数据的挑战,智能系统正寻求突破传统的摩尔定律限制,转向创新的架构设计,如特定领域架构(DSA)、AI加速器和神经形态计算,以实现高效处理和智能升级。
DSA定制处理器以优化计算密度、数据和算力,如同为智能系统量身打造的精密工具。
在AI领域,我们看到计算机科学加速器如Google的TPU和Intel的IPU,以及神经形态计算芯片如TrueNorth、Loihi和SpiNNaker,它们在计算密度、通信带宽和低精度计算方面不断进化,为深度学习赋予更强的处理能力。
计算密度的提升,如NVIDIA的GPU Tensor Core和TPU的脉动阵列,显著增强了并行处理能力。
封装技术的进步则优化了芯片间的通信带宽,为高效数据交换提供了关键支持。
深度学习正面临着模型规模的膨胀和算力需求的飙升,清华大学类脑计算研究中心通过融合深度学习与脉冲神经网络,如异构融合架构的研究,开辟了新的智能路径。
从Cuver Mead的神经形态芯片设想出发,类脑芯片技术经历了脑仿真、SNN计算应用的实践,到SNN与ANN融合的创新,如灵汐科技的领启KA200,这款全球首款商业量产的类脑芯片,集存算一体于一身,支持深度学习、脉冲神经网络及混合模式,展现出了卓越的性能。
HP300加速卡的诞生,进一步提升了整体计算能力,甚至超越了同等功耗的NVIDIA T4。
领启KA200以其异构融合架构,实现了高效的视觉目标检测和识别(10W功耗下每秒124帧),大规模的Microcircuit模型仿真在Figure 27中清晰可见。
Figure 28展示了类脑融合算法模型的创新,通过APS和DVS数据流的整合,兼顾了高精度与低功耗的双重优势。
灵汐科技携手全球伙伴,构建了一个开放的类脑生态系统,提供芯片IP、工具链、模型框架和应用场景解决方案,为产业智能化的转型注入强大动力(参见Figure 29)。