钢易通平台欢迎您! 请登录 免费注册
用户中心 钢易通首页 帮助中心 意见箱
平台产品
移动端 官方微信 服务热线:400-660-7558
发布需求
人工智能迎“iPhone时刻”!
2023-02-28 来源:科创板日报
摘要
小编引言:群雄逐鹿AI大模型 “小米华为们”准备好了吗?

2007年,乔布斯手中的一台初代iPhone,改变了整个手机行业。多年后,人工智能行业迎来了独属于自己的“iPhone时刻”——ChatGPT横空出世。这一聊天机器人引发了普罗大众对AI应用的热情的同时,也引燃了AI大模型的战火。

 

宛如当年争相入局手机的华为、三星、小米等多家厂商一般,在如今的AI领域,中国电信、阿里巴巴、百度、字节跳动、网易等公司也相继发声,或官宣入局,或透露最新进展。Meta也紧随而至,宣布最新推出Meta人工智能大型语言模型(Large Language Model Meta AI),简称LLaMA。

 

图|国内外部分公司AI预训练大模型梳理

 

北京市此前表态“支持头部企业打造对标ChatGPT的大模型”;上海市副市长李政也表示,将建设更具影响力的人工智能上海高地,加快多模态通用大模型研发攻关,积极培育智能内容生成、科学智能等新赛道,推动智能芯片核心技术攻关和应用适配。

 

可以预见的是,站在AI大模型的那座石门前,ChatGPT喊出了那一声“芝麻开门”。

 

▌大模型是什么?

 

大模型又称为预训练模型、基础模型,按照科技部部长王志刚的话来说,就是大数据、大算力、强算法。“(ChatGPT)确实在自然语言理解、自然语言处理等方面有进步的地方,同时,在算法、数据、算力上推进了有效结合”。

 

在这场席卷全球的“ChatGPT热潮”背后,中国国际经济交流中心副理事长、国际货币基金组织前副总裁朱民指出,人工智能发展的核心正向大模型转移,行业未来所有的工作重点、赶超重点、研究重点都会放到大模型上,而不是ChatGPT产品本身。大模型将是影响今天和未来、中国和世界的最根本科技。

 

以ChatGPT为首的AI应用已让人们见识了AI模型的潜力,除此之外,在去年的美国科罗拉多州博览会上,一幅名为《太空歌剧院》的绘画作品获得数字类别一等奖,但不少人对于奖项归属并不服气。争议主要来自作品的创作过程:作者Jason Allen通过AI绘图工具Midjourney生成原画、经过Photoshop润色后完成作品。

 

“机器的胜利其实是人类的胜利。当人类被自己创造的东西打败之后,我们很容易忘记这一点。”第一个败给计算机的国际象棋大师Garry Kasparov在2017年的一次演讲中如是说。

 

▌大模型有何优势?

 

那么对于人类而言,AI大模型能带来什么?

 

一方面,大模型在加速AI产业化进程的同时,也降低了AI应用的门槛。眼下,AI正从“可以用”走向“好用”,但仍处于商业化落地早期。而大模型可帮助提高模型通用性、降低训练研发成本,从而降低AI落地应用的门槛。

 

谷歌AI负责人Jeffrey Dean也在2022年发布的《深度学习黄金十年》一文中感慨,随着计算机软硬件改进,机器识别图像、辨别语音、理解语言取得极大进步,且进展越来越快。研发门槛大幅降低,不再是年薪上百万的计算机博士才有机会参与,一个程序员学几个星期就能上阵。

 

另一方面,大模型也带来更强大的智能能力。得益于大模型发展,AI技术从5年前的“能听、会看”,走到今天的“能思考、会创作”,未来更有望实现“会推理、能决策”的重大进步。

 

从技术原理来看,AI大模型本质上是深度学习的“加强版”,通过给模型不断“填喂”数据,从而提高自学习能力,进而具有更强的智能程度。

 

▌大模型需要什么?

 

与这些优势相伴而生的,则是AI大模型“高耸入云”的门槛——大模型需要巨量数据、巨量算法、巨量算力,要求的金钱、人力、时间投入同样巨大。微软甚至宣称,使用了价值10亿美元的超级计算机来训练自家的AI大模型。

 

行业的重金砸入,换来了AI模型训练算力的暴涨。OpenAI数据显示,自2012年以来,全球头部AI模型训练算力需求3、4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。而摩尔定律中,集成电路中的晶体管数量大约每两年翻一番。有券商分析师指出,深度学习正在逼近现有芯片的算力极限。

 

 

以ChatGPT为例,据分析人士估算,其制造商OpenAI的GPT-3模型训练成本高达1200万美元,单次训练成本高达460万美元。

 

另据海通证券测算数据显示,ChatGPT后续稳定运营时期,假设总访问量维持在2000万次左右,咨询量以8个问题计算,总咨询量在1.6亿次,则对GPU/CPU单日同时运转的耗用量分别为19444/4861个。对应现有价格及替换周期假设,预计运营阶段,ChatGPT年GPU/CPU成本分别在7000万美元及778万美元。

 

浙商证券补充称,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。支撑ChatGPT的算力基础设施至少需要上万颗英伟达GPUA100,高端芯片需求的快速增加会进一步拉高芯片均价。

 

无论如何,AI大模型之战的开场锣鼓已经擂响,各家巨头们手握重金换来的入场券,纷纷在牌桌前坐定。但躬身入局之后仍需要实力与运气的加持,谁能笑到最后,谁又会黯然离场,还有待时间验证。

 

 

关键词:AI模型,人工智能,ChatGPT

版权与免责声明
凡本网注明“来源:钢易通”的所有作品,均为钢易通合法拥有版权或有权使用的作品。刊用本网站稿件,需经书面授权。未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:钢易通”。违反上述声明者,本网将追究其相关法律责任。
本网转载并注明自其它来源(非钢易通)的作品,目的在于传递更多信息,并不代表本网赞同其观点或对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品第一来源,并自负版权等法律责任。 如涉及作品内容、版权等问题,请在作品发表之日起30日内与本网联系,并提供真实、有效的书面证明。我们将在核实后做出妥善处理。
上一篇
下一篇