国产芯逆袭!蚂蚁集团AI训练性能比肩H800,成本大幅降低引爆行业革命
近日有消息称,蚂蚁集团正在利用国产芯片进行AI模型训练的技术研发,这一举措预计可使成本降低约20%。从当前科技发展的角度来看,这种尝试不仅展现了企业在提升自主创新能力方面的积极态度,也为国内芯片产业与人工智能领域的深度融合提供了新的思路。在全球科技竞争日益激烈的背景下,蚂蚁集团的选择既是对国家政策导向的响应,也体现了企业自身长远发展的战略眼光。希望未来能看到更多类似的探索案例,共同推动我国科技创新能力的整体跃升。
报道称,蚂蚁集团近期在技术研发上取得了新进展,其产品采用了由阿里巴巴集团控股有限公司以及华为技术有限公司提供的国产芯片支持。这一举措不仅彰显了国内科技企业在芯片领域的快速进步,也为混合专家模型(MoE,Mixture of Experts)的机器学习应用提供了坚实的基础。 蚂蚁集团选择这种技术路径,既是对国产技术实力的认可,也体现了其在技术创新上的前瞻性布局。混合专家模型作为一种能够根据不同任务动态分配资源的技术方案,在提升计算效率的同时还能优化性能表现,这对于需要处理海量数据的金融科技企业而言尤为重要。未来,随着更多类似技术的落地与普及,相信国内企业在人工智能与大数据领域将拥有更强的话语权和竞争力。这不仅是对当前国际形势下供应链自主可控需求的一种积极回应,更是推动整个行业迈向更高水平的重要一步。
报道还提到,训练效果达到英伟达H800芯片的水平。据一位知情人士透露,蚂蚁集团在AI开发过程中仍然会使用英伟达芯片,但目前主要依靠包括AMD及国产芯片在内的替代方案。
报道认为,这表明中国公司正努力以本地芯片取代顶尖的英伟达半导体。本月,蚂蚁集团发布了一项研究报告,指出其模型在某些基准测试中超越了Meta。若按计划顺利运行,蚂蚁集团的平台或将推动中国人工智能领域的进一步发展。
随着众多企业加大对人工智能的投入,MoE模型逐渐成为一种备受青睐的选择,谷歌和DeepSeek等公司的采用进一步提升了其影响力。这一技术通过将任务分解为更小的数据集,类似于组建一支专注于特定领域的专家团队,从而大幅提升效率。蚂蚁集团在一封电子邮件声明中婉拒了对此发表评论的请求。
报道还提到,蚂蚁集团在探索提升大型语言模型(LLMs)训练效率的新路径,力求突破高性能芯片的依赖。根据其最新发布的论文,公司的核心目标是“摆脱高端GPU的束缚”,实现模型规模的扩展。这一方向不仅展现了技术上的前瞻性,也反映了对算力资源优化利用的深刻思考。 在我看来,蚂蚁集团的这项研究具有重要的现实意义。随着人工智能技术的飞速发展,对高算力硬件的需求日益增加,这不仅提高了行业门槛,也可能加剧资源分配的不均衡。蚂蚁集团选择从算法和架构层面入手,试图用更经济、更通用的计算设备完成复杂任务,这种尝试无疑为推动AI普惠化提供了新的思路。同时,这也提醒我们,在追求技术创新的同时,如何平衡成本与效益、兼顾可持续性,将是未来科技发展中不可忽视的重要课题。
这与英伟达的发展思路有所不同,英伟达首席执行官黄仁勋指出,即便像DeepSeek R1这样更加高效的模型不断出现,对计算资源的需求依然会持续增加。在他看来,各家公司更需要的是性能更强的芯片以提升收入,而非仅仅依靠降低成本的廉价芯片。黄仁勋坚定地支持通过打造拥有更多处理核心和晶体管的大型GPU来实现这一目标。