芯片巨头们正在偷偷研发这些新AI技术,难道不比拍照有意思吗

2022-07-01 18:18:17   编辑:小美
导读不知道大家有没有这样的感觉,芯片的性能要遇到瓶颈了。

不知道大家有没有这样的感觉,芯片的性能要遇到瓶颈了。

就光学芯片的工艺而言,从7nm到5nm再到3nm,越来越接近摩尔极限。

于是,很多厂商开始尝试用AI来为芯片性能提供灵感。从神经拟态到用AI设计芯片,各种技术路线都在尝试。

在这种情况下,哪些新的AI技术最有可能应用于下一代芯片?

就此,我们采访了高通工程技术副总裁侯继磊。

侯磊博士毕业于加州大学圣地亚哥分校,并为高通工作了19年。现任高通人工智能研究项目负责人,负责高通人工智能研究的技术创新规划。

在采访中,侯博士从基础、平台、应用三个研究方向分享了人工智能研究的一些开创性技术成果。

其中,基础研究侧重于前沿和基础的AI技术,如神经压缩和AI+量子计算的探索。

平台主要从平台能力和创新的角度,推动AI技术的发展,提高能效,进行端到端的学习,如量化技术和联邦学习;

研究内容包括移动视频人工智能技术和3D+人工智能技术等。,涵盖智能手机、XR、自动驾驶等行业应用领域的技术研究。

同时,侯博士还分享了很多“AI登陆狂”的秘密,将AI技术快速应用到芯片上。让我们看一看。

芯片制造商悄悄地开发了这些新的人工智能。

虽然高通最知名的人工智能技术是量化,但要了解最新技术,我们必须从高通人工智能研究的顶级论文中寻找。

从论文来看,高通相对专注的AI基础技术可能在以下四个方向:神经增强、弱监督学习、神经推理和量子AI。

我们来看看神经增强技术。目前,高通已将其用于无线通信。

平时处理无线通信信号主要有两种方式,一种是用传统滤波器算出一套公式,另一种是用AI直接训练预测结果。前者准确率低,后者训练数据太多。

高通选择将两者结合,在保留传统滤镜的基础上,让AI学会自己调整参数。

没错,就是教AI做辅导员,熟练应用和掌握那些看似晦涩难懂的公式,类似于应用卡尔曼滤波器的场景,让AI学会调整QR参数。

或者以麦克斯韦方程为例,高通选择保持y=x*H模型的线性,同时用AI学习H的分布:

如果类似的技术可以用在手机无线通信的基带,信号可能会进一步增强。

但是,神经增强只是高通神经推理研究的一部分。如果AI真的兼具逻辑思维和抽象能力,那离芯片性能的突破就不远了。

说到弱监督学习,这个方向一直是解决长尾问题的大趋势之一,也是AI技术落地的新场景。

就像“让AI自己学习”一样,该技术旨在避免数据标注错误导致的AI精度下降,降低标注成本等。,从而用少量的标记数据达到接近甚至超过监督学习的精度效果。

侯博士介绍了和去年做的一个演示,用弱标记法训练了一个相对精度较高的定位模型。

最令人惊讶的是,这种定位模型通过射频信号而不是视觉来学习定位,采用弱监督和自我监督的学习方法。

定位室内场景所需的信号数据标记很复杂。通过射频感知使用弱监督学习,可以有效节约成本,提高效率。

好了,现在老板只需要知道你在哪个办公室钓鱼,通过无线信号和同事聊天(手动狗头)。

我们来看看神经推理的技术。

其实这里的推理并不是指简单的模式识别,更像是教AI学习“逻辑推理”,和Yoshua Bengio之前提到的system2(逻辑分析系统)在概念上有些类似。

那么,神经推理和芯片是什么关系呢?可以应用在哪些方向?高通迈出了哪一步?

侯博士介绍,神经推理是一种结合了符号推理和神经网络优点的思想,使模型并行化和串行化。这个想法对于计算硬件也是有用的。目前,高通利用自回归语言模型取得了一些开创性的成果。

最后,我们来看看量子AI技术。

目前,高通主要从事两个方面的研究,一是加速构建基于AI的量子计算机,二是让AI在量子计算机上运行更快的新方法。

其中,加快基于AI的量子计算建设,主要研究方向为群等变卷积神经网络。

通过引入群等变卷积神经网络,研究人员提出了一种新的译码方法,它比传统的译码器具有更高的效率和更好的性能。

高通登上了ICML 2021的新研究,还提出了基于量子场论的光量子计算中运行神经网络的新思路。

如果未来真的可以用量子计算来运行AI,那么快速计算大模型不是梦。

所以问题是,高通正在进行的基础研究有可能落地吗?

在我们使用它之前多长时间?

技术的终极意义还是要看应用。

事实上,高通AI研究关注的是前沿技术,更关注这些技术实际上是如何落地的。

比如早些年,当AI领域还在关注图像处理的时候,高通就已经布局了视频AI技术,并产生了很多相应的第一成果。

包括在移动端将视频超分成4K 100+FPS,这是高通的首次实现。

那么在这个过程中,高通是如何实现AI论文在芯片应用上的落地的呢?

这还得回到高通AI研究的三大布局:

基础研究,涉及量子AI、强化学习、群等变量卷积神经网络,着眼于遥远的未来,通常更加基础。平台研究,包括软硬件协同设计、AI模型效率工具包、模型量化、压缩和神经架构搜索等。,以实现最佳的能效、性能和延迟。应用是指在一些具体的用例中使用AI的基础研究和平台研究的成果,包括视频识别和预测、指纹、图形的深度学习、视觉质量的提升等。

一方面,高通一直用平台研究技术推动应用研究。

以模型量化为例。

这是近年来高通AI研究的核心技术之一,目的是为AI模型“瘦身”。

在实际应用场景中,由于功率、计算能力、内存、散热能力有限,手机使用的AI模型与PC上的有很大不同。

在PC上,GPU往往有几百瓦的功率,可以用16位或32位浮点数(FP16,FP32)来计算AI模型。而手机SoC只有几瓦的功率,很难存储大体积的AI模型。

这时候就需要将FP32模型简化为8位整数(INT8)甚至4位整数(INT4),同时保证模型的精度不能损失太多。

以AI抠图模型为例。我们通常可以借助计算机处理器的计算能力实现非常精确的AI抠图,但相比之下,如果想用手机实现“几乎一样效果”的AI抠图,就不得不使用模型量化的方法。

值得一提的是,基于模型量化的快速部署,高通2020年的开源AI模型增强工具包(AIMET)。

这包括ICML和ICCV在同年和去年记录的技术方法。

量化的结果之一是更多应用方向的AI模型被“压缩”和优化,然后加速部署到芯片上。

比如视频语义分割,首次在移动终端上实现了FHD分辨率的实时街景;在视频压缩方面,首次在移动终端上实现了实时高清解码...

从这些行业首次落地的结果中,我们可以直观地感受到,高通AI研究正在考虑前沿学术与应用需求的结合。

侯继磊博士在采访中表示,高通的AI技术从最初发现到形成开源或商业生态系统,只需要2-3年的时间。

另一方面,从应用和平台需求来看,push基础研究技术的进步反过来催生了更多的交叉领域。

比如联邦学习和图像预核优化是基础和平台研究交叉的领域;音视频压缩、无线领域AI、射频感知等。,都是基础研究和应用研究相结合的体现。

也就是说,高通在基础、平台、应用上的研究,完全包含了AI技术落地支撑边缘AI所需的算法模型、数据、软硬件、应用场景,走的是全栈AI研究的路线,并首次在移动终端上展示了概念验证。

因此,高通希望通过研究“可以应用和落地的AI”,快速推进技术落地的进程。

侯博士说,事实上,高通本身将在平台和应用上投入更多。此外,在基本的R&D过程中,产品团队将深度参与,以便技术人员更好地了解应用需求。从AI研究到落地往往非常复杂,更多的是现实世界的问题(比如长尾场景等。)需要考虑。

高通AI研究的目的不仅仅是技术上的创新,更是在实际场景应用上的创新。

目前高通之光是AI第一个实现落地的研究成果,还有这么多:

可以看出,除了开创性的技术,高通AI research还致力于在终端上成功运行这些成果。

比如前段时间发布的骁龙X70就是经过这样的过程出来的。作为全球首款采用AI处理器的5G调制解调器和射频系统系统,骁龙X70未来有望集成到骁龙8系旗舰平台。

你猜,下一代5G手机的信号、图像、音视频处理技术会更强吗?

你最期待哪些顶尖的AI技术应用到手机上?

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章