编者按:

AI立法进行时④:AI大年夜模型引爆算力革命云计算竞速“新赛道”开启_模子_人工智能 智能写作

2022年,天生式AI发展为人工智能发展注入一针强心剂,ChatGPT的横空出世,被视为通用人工智能的出发点和强人工智能的拐点,引发新一轮人工智能革命。
人工智能发展彷佛找到了自己的主流叙事。

不过,技能创新的同时也带来了监管难题,我们面对的不是近在咫尺确当下,而是想象触达不到的未来。
对付颠覆性的人工智能技能,环球正在进行管理话语的竞赛,中国将会如何通过立法来贡献出具有中国特色的AI管理路径?如何既拥抱技能发展,又能有效规制风险?之前南财合规科技研究院推出AI左券论系列宣布以及《天生式人工智能发展与监管白皮书》,在此根本上,将连续推出AI立法进行时系列,以期为中国AI管理供应有益思路。

ChatGPT迅速火爆环球后,AI进入了“暴力美学”的大模型时期。
从出身之初到如今,AI大模型演习数据量、任务数据量和模型参数经历着爆发式增长。

在这背后,一起狂飙的还有对付算力的需求。
根据OpenAI的测算数据,2012年以来最大的AI演习运行所利用的算力呈指数增长,每3-4个月增长一倍。
2012至2018年,AI演习运行所利用的算力已增长超30万倍(比较之下摩尔定律仅增长7倍)。
另据OpenAI于2020年的数据,演习一次1746亿参数的GPT-3模型须要的算力约为3640PFlop/s-day(如果每秒打算一千万亿次,须要打算3640天)。

算力是大模型发展的燃料,新一轮人工智能浪潮之下,作为新基建的算力迎来了新的发展机遇。
与此同时,在此轮发展中算力也面临着诸多问题:如何办理AI芯片问题?算力市场如何实现供需相匹配?云打算厂商又该如何回应AI带来的算力机遇与寻衅?

算力短缺的背后:芯片卡了脖子

海量算力,当古人工智能大模型发展过程中不可短缺的“燃料”。
模型越大,须要的算力相应增加。

以GPT-3模型为例,其演习须要3640PD的算力需求,总演习本钱为1200万美元。
在不考虑任何运算效率丢失的情形下,须要1个算力规模达到3640P或者7-8个单体算力500P旁边的智能打算中央完全运算1天,才能完成一次GPT-3模型的完全演习。

芯片作为人工智能算力的根本,吸引着来自各方关注。

以AI大战中“军火商”英伟达为例,受人工智能大模型需求推动,年初以来其股价累计涨幅超200%,截至8月9日市值超11045亿元。
而就在近期(8月8日),SIGGRAPH大会上英伟达发布新一代GH200GraceHopper超级芯片,专为人工智能大模型设计,用于扩展环球的数据中央。

人工智能对付高性能算力的需求推高了芯片的市场和价格,以OpenAI利用的A100和H100芯片为例,其价格逐渐攀升,乃至有价无市。
对付中国人工智能企业来说,因缺“芯”导致的算力问题更加繁芜。
2022年8月,美国芯片设计公司英伟达称被美国政府哀求限定向中国出口两款被用于加速人工智能任务的最新两代旗舰GPU打算芯片A100和H100。
“以A100为例,如今的芯片增加了地理位置识别,中国大陆无法利用。
”拓尔思副总裁林松涛说道。

常日,用于大模型的芯片分为两类,演习芯片和推理芯片,分别承担着演习和推理任务,例如模型演习和数据剖析。
而个中,真正烧钱的是演习芯片。
有业内人士见告,以一块40G的A100为例,相较正常售价,今年年初非官方渠道的芯片价格已经翻了好几倍,而一台做事器配置多个芯片;而做事器的数量,也要根据大模型的量级判断进行配置。

量子位智库发布的《AIGC算力全景与趋势报告》显示,在芯片方面,大模型演习需求暴涨,GPU供不应求。
报告指出,目前市场对付英伟达芯片的需求远大于供给。
经测算,一万枚英伟达A100芯片是做好AI大模型的算力门槛。
海内具备此量级的公司最多只有1家,而GPU芯片持有量超过一万枚的企业不超过5家。

算力变得更加稀缺和宝贵。
据理解,拓尔思所在企业依赖前期购置的芯片辅以其他方法办理大模型研发过程中的算力问题。
“目前来看,当前公司储备的算力知足了大模型发展须要。
但是随着未来业务量扩大,算力短缺仍是须要关注的问题。
”林松涛说道。

算力市场新寻衅:分散、供需错配待办理

那么,中国算力现状究竟如何?

工信部数据显示,截至去年底,我国算力总规模达到180EFLOPS(每秒18000京次浮点运算),存力总规模超过1000EB,国家枢纽节点间的网络单向时延降落到20毫秒以内,算力核心家当规模达到1.8万亿元。
从总量上来看,我国算力正迅猛发展。

或许是政策的持续支持所带来的影响。
从“东数西算”工程到“数字中国”顶层方案,无不关注算力根本举动步伐的培植。

须要把稳的是,当古人工智能快速发展,给算力市场培植带来了一系列寻衅。

北京金控集团董事长范文仲此前曾剖析,高质量算力资源不敷且较为分散,芯片受限逐渐逐步成为当前新的“卡脖子”问题。
而基于算力需求多样化、碎片化的特点,算力资源供需错配的情形时有发生。
此外,算力根本举动步伐属于重资产和成本密集型行业,其时间本钱和资金本钱远远超出了中小微企业的承受范围。

工信部信息通信科技委常委周建明则认为,与其说当前市场表现出算力短缺问题,不如说当前存在算力供需不匹配的问题。
“一样平常情形下,算力可分为通用算力和专用算力两类。
通用算力目前来看基本可以知足需求,并不存在算力短缺问题;专用算力方面,在大模型市场算力供给方面还有较大的市场空间。

事实上,在人工智能快速发展的这两年,我国各地已经表现出了对付算力问题的关怀。
北京、上海、深圳等地均出台干系方法,采纳加快算力根本举动步伐培植、统一调度平台培植等手段,以办理人工智能大模型“燃料”问题。

北京表示要加强与头部公有云厂商等市场主体互助,履行“算力伙伴操持”,加快推动北京人工智能公共算力平台等项目的培植,培植统一的多云算力调度平台等。
上海鼓励民间成本投资新型根本举动步伐,并出台推进算力统一调度的辅导见地。
深圳则提出强化智能算力群供给,有序聚拢来自政府、企业、科研机构、高校等智能算力资源。

打造统一的算力交易和调度平台成为办理当前算力资源不均的一个主要思路,但手段和定价等问题尚未明确。

周建明表示,对付算力统一调度的问题,可在政府的有效折衷下,逐步履行谁有技能能力实现,就可通过市场选择的办法由谁来统一调度统一运营更多的算力资源,以知足市场的需求。
当然在技能标准的制订过程中,在整体架构设计时,就应考虑将算网两大系统通过干系标准结合起来,以降落系统的整体时延,这样也有利于多厂商系统的算网领悟;同时,应将谁的算力资源可由谁来统一调度统一运营的能力写入干系技能标准中,这样也有利于加快加强我国算力技能创新及加快履行算网领悟的进程,更好地支撑我国数字经济的发展。

云企业迎战新机:大模型的云端“混战”

云打算是AI大模型算力之战的主沙场之一。

“ChatGPT在环球市场的成功,引发环球紧张科技企业在AI领域的武备竞赛,而云平台作为打算层面最为空想的承载者,有望持续受益环球AI家当的发展。
”中信证券在研报中表示。

招商证券则指出,作为一种信息时期的改造,云打算使得每一个信息时期的人都可以利用网络上的弘大打算资源与数据中央,获取无限的资源,且不受韶光和空间的限定。
在这种情形下,云打算家当的巨大算力支撑对付AI行业的发展至关主要。

与此同时,由AI大模型引爆的算力需求也为云厂商们带来了变革。

在林松涛看来,云打算为AI发展供应底层支撑的同时,自身也产生了变革。
AI系统软件紧张在于逻辑推理和演习能力,当前大模型的发展推动了AI工业化的进程,云打算行业的工业化随之快速发展。

在市场中,新的做事模式也随着AI大模型的发展而产生。
MaaS(Model as a Service),即模型即做事,正在被业界追捧,阿里、百度、腾讯等先后宣告加入此赛道。

今年6月,腾讯云宣告推出MaaS(Model-as-a-Service)大模型做事,依赖腾讯云TI平台建造行业大模型精选商店,基于腾讯HCC高性能打算集群和大模型能力,为客户供应一站式大模型做事。

在今年4月的2023年阿里云峰会上,阿里集团董事会主席兼CEO张勇表示,阿里云已形成模型即做事(MaaS)、平台即做事(PaaS)、根本举动步伐即做事(IaaS)三层架构,个中模型即做事包括根本大模型/通义大模型、企业专属大模型、魔搭社区、API做事等。

而阿里云CTO周靖人也认为,MaaS观点正在被广泛接管,模型会作为业务和开拓系统开拓的主要生产元素。

今年3月,百度创始人、董事长兼首席实行官李彦宏也表示,大模型时期将产生三大家当机会,个中之一即为新型云打算公司,其主流商业模式从IaaS变为MaaS(模型即做事)。

此外,值得把稳的是,只管云打算可以很好地承担巨大运算和存储需求,但其发展同样面临着诸多风险寻衅,个中数据安全是各界关注的重点。

云储存和传输的数据都随意马虎受到未经授权的访问、修改、盗窃和病毒传染的威胁。
同时,用户的隐私信息可能由于云做事供应商的缺点配置、数据透露等暴露给第三方。

林松涛在接管采访时表示,未来云打算做事可能更多以私有云支配的办法,私有云支配可以按照用户需求量身定制,数据完备节制在用户手中,也更加安全。
他还提到,目前落地的AI大模型是可以不依赖于云的,大模型演习完后能实现私有支配,不会产生数据交互。

统筹:王俊

:郑雪,李润泽子,演习生温泳珊

更多内容请***21财经APP