AMD举办Mini AI工作站创新分享沙龙,深入探讨AI算力前沿趋势

2025年09月12日,10时17分38秒 科技新知 阅读 7 views 次

DoNews9月12日消息,9月9日,AMD Mini AI工作站创新分享沙龙在京召开,本次活动旨在深入探讨AI算力前沿趋势,分享AMD在Mini AI工作站领域的创新技术与应用案例。

在沙龙上,AMD大中华区市场营销副总裁纪朝晖首先分享了AMD在锐龙 AI Max+ 395处理器这一方面的新进展。

锐龙 AI MAX+ 395处理器首发于2025年CES,纪朝晖介绍,这款处理器拥有16个高性能核心,最高频率达5.1GHz,相当于把桌面级处理器的性能装进了笔记本里;GPU方面则是集成了Radeon 8060S GPU,拥有40个RDNA 3.5计算单元,最高支持96GB显存;此外,这款处理器还配备了50 TOPS算力的XDNA 2 NPU神经处理单元,专门优化AI推理任务。

AMD举办Mini AI工作站创新分享沙龙,深入探讨AI算力前沿趋势

据介绍,AMD锐龙 AI MAX处理器采用了一种名为高带宽统一内存的全新架构(Unified Memory Architecture,UMA)。这种架构打破了GPU显存瓶颈,可有效降低数据延迟。

锐龙 AI MAX+ 395支持最高128GB的统一内存,通过AMD的可变显存技术,能最高把其中的96GB分配给GPU专属使用。

纪朝晖表示,Radeon 8060S GPU加96GB显存的组合对于跑混合专家模型(Mixture of Experts, MoE)来说有着得天独厚的优势,根据AMD方面的测试,搭载了AMD锐龙AI MAX+ 395处理器的Mini AI工作站在iGPU满载运行情况下跑Meta Llama4-109B Scout多模态模型生成速度为14+ Tok/s;跑OpenAI GPT-oss-120B模型生成速度为40+ Tok/s;跑阿里Qwen3-235B模型生成速度为14+ Tok/s

为何96GB显存如此重要,根据OpenAI官网上公布的文档,如果是GPT-oss-120B开源大模型的话,显存占用达到了80GB,也就是说如果显存小于这个大小的话,这些开源大模型是没法在本地来运行的。

今年6月,OpenAI联合创始人、深度学习专家安德烈·卡帕西(Andrej Karpathy)在一次主题演讲上表示,软件开发已进入“Software 3.0”阶段。

卡帕西提出,传统的手写代码时代,即Software 1.0,以及训练神经网络权重的Software 2.0时代,正被“提示词即程序”的Software 3.0所取代。自然语言正成为直接控制计算机的新编程接口。

此外,卡帕西也提出,2025年是AI Agent的元十年,意思是AI Agent需要十年时间才能真正成熟。

在这个背景下,基于AMD锐龙 AI Max+ 395的Mini AI工作站可以说是生逢其时。在今年7月于深圳举行的AMD Mini AI工作站行业解决方案峰会上,已经出现了超过20款的AMD锐龙AI Max+ 395 Mini AI工作站的产品,这些产品以更低的价格提供高达96GB的显存,更低的总体拥有成本(Total Cost of Ownership,TCO),更小的体积提供给企业、中小企业、AI开发者一个可用的AI的端侧、边缘侧理想的推理平台。

AMD举办Mini AI工作站创新分享沙龙,深入探讨AI算力前沿趋势

纪朝晖表示,AMD不断推动让锐龙 AI Max+ 395 Mini AI工作站赋能AI开发者、AI教育、超级个体、数据分析、家庭和私人空间等不同场景和行业,依托AMD中国AI应用创新联盟上百个优秀独立软件开发商(Independent Software Vendor,ISV)伙伴的支持基础上,在硬件和软件上共同推动、赋能AI企业应用的“最后一公里”。

最后,纪朝晖也特别提到AMD中国的一个特别合作伙伴波澜AI(RlPPLE AI),他们在针对AMD锐龙AI Max+395 Mini AI工作站打造了开发者套件,让本地开发者能够迅速的上手。

当下波澜AI的官网已经上线,远程测试平台功能已开放,该网站将逐步完善,会包括有工具文档的整理、教程模板,和开发者互助协作社区等内容。

纪朝晖称,通过与波澜AI的合作,AMD方面希望把锐龙AI Max+395平台打造成为AI时代的树莓派,让AI Agent能够快速在中国落地,并成熟和发展起来。

AMD大中华区AI市场经理昝仲阳则分享了今年以来AI的三个发展趋势:第一个是自从DeepSeek出现带火了MoE架构之后,各家大模型企业都推出了自己的MoE架构模型,MoE架构本身参数量很大,因此运行需要很大的显存,但其激活的参数相对较小,因此只要有足够的GPU算力,其推理速度是可观的,这种情况就特别适合AMD锐龙AI MAX+ 395处理器,有足够大的显存,同时GPU能力又足够强,可以运行别人加载不了的MoE模型,跑得还非常快。

AMD举办Mini AI工作站创新分享沙龙,深入探讨AI算力前沿趋势

第二个发展趋势是,以往像YOLO这样的监督学习模型,需要企业为每个特定任务投入大量人力进行数据标注,成本较高。而像通义千问这些端侧的视觉语言模型(Vision Language Model, VLM)由于已在海量图文数据上完成了预训练,具备了强大的通用视觉理解能力,对于企业而言,省去了为开发特定模型而进行数据标注的巨额成本,实现了‘开箱即用’的效果 。

第三个发展趋势是今年出现了特别热的模型上下文协议(Model Context Protocol,MCP)和Agent,由于更长上下文的需求,对显存的要求也更高了。而AMD锐龙AI Max+ 395 Mini AI工作站作为一台售价在两万元以内的消费级机器,其最大96GB显存是完全够用的。

昝仲阳表示,Software 3.0时代真正改变了所有人的生活方式,用Vibe Coding的形式,再加上优秀的Mini AI工作站,以及个人的专业知识,就能做到以前做不到的事情。但他认为AI并不会替代程序员或者人类的工作,只会加强人类的专业知识,让生产效率加倍,让人类变得更强。

昝仲阳最后总结,在AI的趋势来了之后,大家普遍有两种焦虑,第一种是显存的焦虑,现在AMD锐龙AI Max+ 395处理器已经帮大家解决了这种焦虑;第二种就是Token焦虑,所有的上传下载,提示词Prompt,MCP都要算Token,要算钱的,而现在通过Mini AI工作站这种产品形态,就能以较小的占地空间,本地部署的方式来解决Token焦虑的问题,对于企业、个人和小团队来说都是非常有吸引力的。

沙龙活动的现场展出了来自Abee、惠普、极摩客、铭凡、天钡、首届玲珑、零刻、希未等厂商搭载锐龙AI Max+ 395 Mini AI工作站的产品。

AMD举办Mini AI工作站创新分享沙龙,深入探讨AI算力前沿趋势

AMD举办Mini AI工作站创新分享沙龙,深入探讨AI算力前沿趋势

这些产品形态各异,很多已经在京东等电商平台开售,现在主流的在京东大概1.3万到1.5万左右的价格。

凭借着高达96GB的显存设计,Radeon 8060S的集成GPU,以及x86 Windows的成熟生态,AMD锐龙AI MAX+395已经在炙手可热的AI大模型领域先夺一城。

而搭载AMD锐龙AI Max+ 395的Mini AI工作站,依托AMD中国AI应用创新联盟ISV伙伴的支持基础,在软硬件上共同推动和赋能AI企业应用的“最后一公里”。

(来源:DoNews)



用户登录