2024年人工智能芯片瞻望_人工智能_模子
市场需求:人工智能仍将连续火热
从市场需求侧来看,我们认为人工智能在2024年仍旧将连续火热,这也将连续推动干系的芯片行业保持良好的态势。然而,与2023年不同的是,我们认为在2024年,人工智能市场的需求会同时从云端逐步扩展到终端,这也将驱动相应的芯片市场发展。
首先,从云端需求来看,大措辞模型仍旧将是紧张的增长点。同时,图像天生类模型也会保持快速增长的势头。详细来说,大措辞模型仍旧是各大科技公司竞相研发的核心技能,包括OpenAI,微软,谷歌,华为,阿里巴巴,百度等中外科技公司都在大力研发下一代的大措辞模型,而包括中国移动等传统行业的公司也在入局大措辞模型领域,同时还有大量的初创公司在依赖风险投资的支持也在大力开拓大措辞模型。大措辞模型的百家争鸣时期才刚刚开始并且远远没有落下帷幕,在这样的群雄逐鹿的韶光节点,估量对付芯片的需求也会快速增长。大措辞模型的特点是须要海量的数据和演习芯片资源,而且同时由于格局尚未尘埃落定有大量的公司在研发新的模型,因此总体来说演习芯片的需求会非常大。
而随着云端人工智能交互进入多模态时期,谈天机器人已经不仅仅可以用笔墨回答,而且还可以完成看图说话以及图像乃至***天生等任务,因此我们认为,图像天生类的模型,以及图像和措辞结合的多模态模型也将会成为云端人工智能的一个主要增长点。
除了云端之外,我们认为终端(包括手机和智能车)也将会成为人工智能的新增长点。手机上的人工智能虽然早已不再新鲜,但是随着天生模型的成熟,我们可望看到这类模型落地手机端并赋能新的用户体验。手机端天生类模型又分为两种,一种是图像天生类模型,即以扩散模型(diffusion model)为代表的模型,这类模型可以实现高质量超分辨以及高质量修图,从而可望给用户的拍照和照片编辑带来革命性的变革。另一类运用是措辞模型——与运行在云真个大措辞模型(LLM)相对地,过去几个月我们看到了小措辞模型(SLM)的兴起。小措辞模型和大措辞模型一样,都是紧张用于措辞的理解和天生(或者说,与人对话);小措辞模型在参数量变少之后,可以更灵巧地运用在一些专用的场景中(而不是像大措辞模型一样试图覆盖所有场景)并且供应很高的准确性,同时还有可能运行在终端设备中。
从智能车领域,一方面随着端到端多任务大模型带来的革命性性能提升(例如BEVFormer带来的俯瞰场景识别性能提升,以及商汤在2023发布的UniAD带来的多任务性能大幅提升)会推动这类模型进一步落地并且推动芯片的需求,另一方面则是来自于措辞模型人机交互这类源自于云真个人工智能运用迁移到智能车场景。
因此,我们预测,2024年将会是人工智能持续火热的一年,与2023年不同的是除了云端人工智能保持热门之外,我们估量终端运用处景也会成为新的人工智能需求增长点。
云端市场格局剖析
云端人工智能芯片市场,我们估量Nvidia仍旧将保持领跑地位,但是AMD等竞争者估量也将得到更多市场份额。
首先,如前所述,云端市场目前紧张的需求在于大措辞模型和天生式图像的演习和推理。由于这些模型对付打算资源需求非常大,而且演习任务占的比例很大,因此给相应的芯片设了一个很高的门槛。这里的门槛包括了:
- 芯片算力:为了支持巨大的打算量,芯片须要有足够的打算单元,内存容量和带宽
- 分布式打算支持:对付大模型来说分布式打算是必须的
- 软件兼容性和生态:对付演习来说,对付模型进行反复快速迭代是一个很强的需求,因此必须有足够好的生态来支持不同的模型算符快速迭代
目前而言,Nvidia在这一个领域仍旧是领先,无论是其芯片和分布式打算性能,还是软件生态兼容性来说,都是首选。这也是为什么2023年Nvidia的H100成为了人工智能干系公司最宝贵的资源,在市场上供不应求。在2024 H2,Nvidia将会开始出货H200,相对付H100来说,H200拥有40%和内存带宽提升以及80%的内存容量提升,因此可望会被人工智能公司争相购买。
在2024年,我们估量AMD在云端人工智能领域也将更加站稳脚跟,并由此开始逐步走向更大的市场份额。2023下半年,AMD发布了最新的MI300X用于高性能打算的GPU模组,该芯片包含大芯片粒(12个处理器/IO芯片粒),并且比较于H200来说,拥有更高(1.6倍)的FP8算力,以及更大的内存容量和带宽(1.2倍)。从AMD公布的实测数据来看,MI300X的推理能力大约比H100强20%-40%,演习性能则和H100持平。我们认为,软件生态(包括编译器性能)将成为决定AMD在云端人工智能市场能否成功的决定性成分,而这一点估量在2024年将会有所改进:OpenAI将在最新发布的Triton框架中加入对付AMD MI300X的支持,而各大初创公司的人工智能加速软件框架也在加强对付AMD GPU的支持。随着芯片性能和软件生态的提升,以及各大科技公司对付Nvidia GPU一家独大地位的担忧态度,我们估量2024年对付AMD的GPU在人工智能市场将会是主要的一年,估量将会看到更多客户的运用。
从供应链角度,由于云端人工智能芯片对付HBM3等高带宽内存有着强力的需求,我们认为HBM内存以及高等封装(如CoWoS)的产能仍旧将会火热,这也将推动相应半导体企业扩大产能,以及积极研发下一代内存和高等封装技能。从这个角度看,人工智能运用仍旧将会是推动半导体新技能高速发展的核心动力。
终端市场格局剖析
除了云端市场外,我们估量人工智能对付终端市场也有更强的需求,这也将推动人工智能成为终端打算芯片中越来越主要的差异化元素。
在手机端,人工智能的利用频率将会进一步增强,这也会推动芯片加入更多相应的算力,并且将人工智能支持作为SoC的核心亮点。例如高通发布的Snapdragon 8 Gen 3就以“低于一秒的延迟实现图像天生任务”作为一个主要卖点,估计这样的人工智能能力将会深度集成得手机厂商的操作系统中。除了高通这样的第三方芯片公司之外,自研手机芯片的系统厂商估量也会连续加码人工智能;苹果虽然在这方面保持低调,但是估量在未来会以各种办法(加大NPU算力,或者是加大软件支持)的方法来开始赋能更多人工智能在iPhone上的新拍摄用户体验。vivo在自研ISP芯片领域已经有了数年积累,而目前天生式人工智能对付拍摄体验的提升恰好和ISP有很强的协同浸染,这也是2023年8月vivo发布的v3 ISP芯片强调了天生式人工智能作为一个核心亮点。未来,估量会看到越来越多这样的芯片强调人工智能对付用户体验上的赋能浸染。
在智能汽车领域,Nvidia虽然不如在云端强势,但是其Orin系列芯片仍旧是各大车厂考虑的标准芯片模组。我们认为,随着人工智能大模型对付智能驾驶的赋能浸染逐渐加强,无论是第三方芯片还是车厂自研的芯片都将会进一步强化对付人工智能算力的投入,同时也推动芯片性能的快速提升——最近,无论是蔚来发布新自研芯片的算力规格,还是特斯拉传出将利用TSMC 3nm作为下一代芯片的生产工艺,都在提示着我们2024年人工智能将在智能车芯片领域扮演越来越主要的角色。
哪些新技能值得关注?
除了以上谈论的芯片之外,有哪些新技能可望会为人工智能芯片领域带来新的变革?
首先,存内打算和近内存打算/处理技能可望会得到越来越多的关注。对付云端人工智能来说,内存访问开销一贯是一个性能瓶颈,而随着大模型的参数量越来越大,内存访问带来的开销也越来越大。存内打算和近内存打算/处理技能的紧张目的便是为了降落这样的开销,让一些打算和处理任务能够在内存中就完成。在这个领域,三星的PIM(process in memory)和PNM(process near memory)技能非常值得我们关注,而这些技能也可望会成为三星未来进一步提高自身存储器技能差异化竞争力的关键。
对付终端人工智能来说,智能汽车场景中由于对付延迟有着较强的需求,因此新技能有比较多的机会能产生影响。在云端,以GPU为代表的加速芯片都是紧张基于优化吞吐量的考虑,而不是延迟,因此在智能车领域必须有新的架构设计。对付车载运用来说,数据都因此数据流的形式(而不是批量的形式)进入处理器,因此人工智能芯片必须能高速低延迟处理这些数据流。另一方面,大模型正在进入智能车运用,因此如何在低延迟的情形下支持大模型推理,将会是智能车芯片中新技能须要重点打破的方向。
本文系作者个人观点,不代表本站立场,转载请注明出处!