今年,中国AI大模型产业发展看这些

2024年03月28日,12时25分47秒 OpenAI 阅读 6 views 次

现在的人工智能,已不是「可以用」,而是「非常好用」了。

上个星期,谷歌与李世石一次久违的对话,唤起了人们的回忆:

今年,中国AI大模型产业发展看这些

仔细想来,自 2016 年 AlphaGo 在围棋上打败人类起已过去八年。如今人工智能技术的发展却丝毫没有减速,正在给我们创造更大的震撼。

生成式 AI 技术从引领技术爆发的 GPT-4 开始,已经席卷了各个领域。不论是自动写文章,还是生成图片和视频,大模型等技术正随着 Copilot、AI 手机等产品逐步落地。在可见的未来,向我们招手的还有具身智能 —— 通过软硬件结合,机器人正在变得更聪明,即将代替我们的部分劳动。

今年,中国AI大模型产业发展看这些

最近,「新质生产力」理论正成为科技领域的热门话题。新质生产力是以新产业为主导的生产力,它相对传统生产力呈现出颠覆性创新驱动,具有产业链条新、发展质量高等特征,对新旧动能转换发挥着引领性作用。

而 AI 大模型技术的突破,正是驱动科技创新,构建未来产业的强大动力。人工智能带来的科技革命可能会像工业革命、信息革命一样,给每个人的生活带来巨大的改变。

3 月 26 日,博鳌亚洲论坛上,人民网正式发布了《2024 年中国 AI 大模型产业发展报告》,阐述了中国 AI 大模型的发展现状和典型案例,深入探讨国内 AI 大模型产业发展所面临的挑战,同时也对未来趋势进行了展望。

今年,中国AI大模型产业发展看这些

报告下载链接:http://download.people.com.cn/jiankang/nineteen17114578641.pdf

其中有关「下半场」竞争态势、端侧应用爆发等判断,尤为值得关注。

AI 大模型技术落地,将是大浪淘沙

人工智能在持续发展的过程中,已在很多地方实现了落地,包括但不限于语音识别人脸识别机器翻译目标检测图像生成、辅助驾驶等等方面。很大程度上,新技术已经在帮助千行百业提高生产力了。

随着生成式 AI 技术的发展,智能化升级的范围还将扩大,程度还会更高。作为拥有 AI 完整产业体系的国家,新一代 AI 方案正在中国深入各行各业。

不过,要实现真正的技术变革,我们还面临着一系列挑战。

第一个挑战是算力短缺。随着大模型规模呈现指数级增长,算法越来越依赖高性能 AI 芯片。有市场研究公司报告称,去年仅 Meta 和微软两家公司就从英伟达处分别购买了 15 万块 H100 GPU,各花去约 45 亿美元,但这还远远不够:基于 H100 的服务器的交付周期已经长达 52 周。

在国内,高性能 AI 芯片市场还因为进出口限制和技术瓶颈的双重影响,大模型产业发展正在受到算力层面的制约。

第二个挑战是大模型架构的局限性。如今的 AI 预训练大模型均采用自注意力机制的 Transformer 神经网络结构,它在自然语言处理等领域具有诸多优势,包括可实现完全并行计算、捕捉长距离依赖关系、模块化设计、处理不定长序列、结构扩展以及预训练效果好等等。

但随着人们的不断开发与扩展,transformer 固有的算力消耗资源大、内存占用多、泛化能力有局限性等问题也逐渐显现。

就连 Transformer 论文《Attention Is All You Need》的七位原作者在最近 GTC 大会的圆桌讨论上也表示,这个世界需要比 Transformer 更好的东西,才能将我们带到新的性能高原。

今年,中国AI大模型产业发展看这些

对数据的运用,是制约大模型落地的另一个重要因素。对于从头开始训练的大模型,语料数据的质量很大程度上会影响模型能力。大模型对数据供给的要求极高,比如 OpenAI 在训练 GPT-4 时,就在大约 13T token 的数据上进行了训练,其中包括基于文本和基于代码的数据,以及来自 ScaleAI 和内部的一些微调数据。

相对而言,国内的 AI 大模型数据面临着数据类型不全面、信息可信度不高等问题。整体来看,可用于大模型训练的中文数据库相比英文数据,体量严重不足。

最后,我们还在期待更多爆款应用。ChatGPT 自发布以来迅速成为史上增速最快消费级应用,提供支持的微软也将大模型技术引入到了 Office、Teams 甚至 Windows 操作系统中。而在国内科技公司的生态中,至今仍没有出现类似的爆款级应用,原因可能在于尚未找到商业化思路,技术、个性化程度仍未满足用户需求。

可以说,在生成式 AI「百模大战」后,算法创新优化、生态构建和应用落地等任务,为正在构建 AI 技术体系的公司提出了更高的要求。只有少数脱颖而出者,才会(来源:机器之心)



用户登录