首页 > 电脑硬件 > 电脑硬件
发布日期:2025-03-18 20:37:12

英伟达H20双重爆款,价格直逼天际!

创新科技巨头英伟达H20震撼发布,引领行业风向!

   什么?H20都变抢手货,涨价10万那种?!

英伟达H20双重爆款,价格直逼天际!

   近期市场上传出消息,原本并不被看好的英伟达H20系列突然成为关注焦点,咨询量暴增数十倍。目前,8卡H20机器的价格相比年前已上涨近十万元,单价达到约110万元。业内人士普遍认为,这一波行情可能不会轻易回落。 从当前的趋势来看,这或许反映出AI相关硬件需求正在快速升温。随着人工智能技术的普及和应用场景的拓展,高性能计算设备的需求也在持续增长。英伟达作为行业领头羊,在短时间内受到如此追捧,既体现了其产品的竞争力,也暴露了市场上对高端算力资源的饥渴。不过,这种短期内的价格波动是否能长期维持还有待观察,毕竟供需关系的变化往往难以预测。无论如何,这都提醒我们,未来在布局相关产业时需要更加注重技术和市场的匹配度。

英伟达H20双重爆款,价格直逼天际!

   要知道,H20作为中国特供版产品,在显存带宽等关键指标上确实存在明显限制,这导致其在实际性能表现上与H100相比差距较大,同时在性价比方面也显得逊色不少。这种差异不仅反映了不同市场策略下的产品定位,也凸显了技术资源分配上的现实考量。从行业发展的角度来看,这样的情况可能会促使国内厂商更加注重技术创新和自主可控能力的提升,以缩小与国际领先水平之间的差距。未来,随着技术的进步和市场的变化,相信会有更多符合本地需求且具备竞争力的产品涌现出来。

英伟达H20双重爆款,价格直逼天际!

   近期市场风向转变明显,据业内人士透露,某互联网巨头已悄然下单采购了10至20万卡的设备。这一动作似乎预示着整个行业在下半年对H20系列产品的热情显著提升,相关订单量呈现出大幅增长的趋势。 从当前的市场动态来看,这种集中性的大规模采购行为不仅反映了企业自身对于技术升级与算力需求的迫切性,也侧面凸显了整个行业对未来发展的信心。尤其是在人工智能、大数据等前沿技术快速迭代的背景下,高性能计算设备的需求激增显得尤为合理。同时,这也可能意味着行业内竞争将进一步加剧,各家企业需要通过不断提升自身的科技实力来抢占市场份额。 不过值得注意的是,在追求技术创新的同时,如何平衡成本控制与可持续发展同样是一个不容忽视的问题。希望各大企业在加速布局的同时,也能注重长远规划,确保行业的健康发展。

   背后原因,直观来看是DeepSeek热潮。更深入则是——

   AI推理需求爆了。

   尽管H20的性能仅为H100的十分之一,但它在推理任务上依然游刃有余。其显存充足,能够胜任大规模参数模型的运行,而且价格更为实惠。

   AI基础设施服务商PPIO派欧云的联合创始人兼CEO姚欣在接受量子位采访时提到,去年年末的时候,H20资源并没有如此紧俏,但进入春节之后,情况发生了显著变化,AI算力的需求与供给正在迅速分化。

   与之相对应,英伟达CEO黄仁勋在最新一季财报发布后指出,目前AI模型所需的算力已达到此前模型的100倍,而这一增长的核心驱动力正是AI推理的需求激增。随着人工智能技术的快速发展,无论是大型科技公司还是初创企业,都在争相部署更强大的计算资源来支持其AI应用。这不仅反映了市场对高效能计算硬件的迫切需求,也表明了AI推理在实际应用场景中的重要性日益提升。在我看来,这种算力需求的爆发式增长既是机遇也是挑战。它为芯片制造商带来了巨大的商业潜力,同时也对数据中心的能耗与运维提出了更高的要求。未来,如何平衡性能提升与可持续发展将成为行业关注的重点。

   见微知著,AI算力行业风向已经发生变化,新的机遇也已经在酝酿。

   DeepSeek重构算力逻辑,推理需求面临爆发

   先一句话总结,DeepSeek以算法创新重构AI算力逻辑,推动AI计算从“训练为主”向“推理为主”范式转变,AI推理需求因此迎来全面爆发。

   首先来看DeepSeek做了什么?

   今年开源的两款模型,在架构设计和算法优化方面实现了训练与推理效率的提升。

   第一,DeepSeek-V3使用了MoE(混合专家模型)架构,并在AIInfra层面推出了大规模跨节点专家并行技术(ExpertParallelism/EP)。

   EP使得batch size大大增加,从而提高GPU矩阵乘法的效率,提高吞吐。专家模型分散在不同的GPU上,每个GPU只需要计算很少的专家(因此更少的访存需求),从而降低延迟。

   同时,DeepSeek-V3版本的专家模型数量相比上一版增加了96个,总数达到256个。“多小专家”模型架构的设计能够进一步减少每次推理时被激活的参数量。

   第二,DeepSeek-R1-Zero迈出利用强化学习提升语言模型推理能力第一步。在没有任何监督数据的情况下,通过纯强化学习过程进行自我进化,从而获得推理能力。DeepSeek-R1采用FP8混合精度训练框架和动态学习率调度器等技术,将训练成本降低到560万美元,远低于OpenAI。同时还能将模型能力蒸馏到更小的密集模型中。

   这种低成本模式使得模型能够更广泛应用于AI推理场景。

   其次,为啥DeepSeek可以成为推动算力趋势转变的导火索?

   从大模型整体发展进程来看,预训练Scaling Law已经放缓,推理Scaling Law成为新方向。

   推理ScalingLaw的关键在于通过加大推理阶段的计算投入(例如延长推理时间、提升算力)来增强模型的表现。以o1为代表的推理模型,均借助多步骤的思维链以及强化学习技术,在推理过程中取得了显著的能力提升,这也使得推理所需的计算资源大幅上升。

   o1模型固然好用,但是却不开源。DeepSeek正是为此而来,它们为全行业提供了一个性能优秀的开源可替代方案,瞬间改变整体局面。

   凭借低成本、DeepSeek的高性能优势在社会范围内掀起了一股热潮。无论是普通用户还是各大中小型企业,都能免费使用该系列模型,并将其与自身的业务进行深度融合。

   尤其是ToB领域,优质开源模型解决了企业在数据维度的顾虑——没有人愿意将自己或用户的数据免费贡献给闭源模型做训练。同时DeepSeek暂时没有将模型商业化的考虑,更接近真正意义上的开源。这也点燃了企业拥抱AI的热情,更加速了AI落地进程,推理需求空前爆发。

   由此,量变引发质变,AI计算的需求以及底层逻辑发生变化。

   相较于预训练阶段,推理计算所需的硬件门槛与集群建设难度均相对较低。这一特点为更多企业和研究机构提供了参与深度学习实践的机会。在我看来,这不仅降低了技术应用的壁垒,也为推动人工智能技术普及化创造了有利条件。尤其对于资源有限的中小企业而言,这意味着他们能够以更低成本探索AI的实际应用场景,从而加速整个行业的创新发展步伐。同时,这也提醒我们在未来发展中应更加注重优化算法效率,进一步降低计算资源需求,让更多人享受到科技进步带来的红利。

   随着技术的不断进步,超大规模集群已不再是AI基础设施的唯一选择,取而代之的是更加灵活的小型集群乃至单机部署将成为未来的发展趋势。这种变化不仅体现了硬件与软件优化带来的可能性,也反映了用户需求的转变。小型化和单机化的AI系统能够更好地适应多样化的应用场景,同时降低运营成本,提高部署效率。这无疑为中小企业和个人开发者提供了更多机会,使得他们能够在更广泛的领域内探索人工智能的应用价值。 从长远来看,这种趋势将推动整个行业的创新与发展。一方面,它促使企业重新思考如何通过技术创新来提升资源利用率;另一方面,也为构建更加开放包容的技术生态奠定了基础。当然,在享受便利的同时,我们也需要关注由此可能引发的安全性和隐私保护等问题。只有妥善解决这些问题,才能让这一变革真正造福于社会大众。

   PPIO姚欣结合DeepSeek一系列动向以及行业现状给出分析,DeepSeek提出的跨节点专家并行系统,已经一定程度上体现出了分布式的思想,它把不常用的专家模型集中到一台机器上,常用的专家模型分配更多算力。由此形成调度上的平衡。

   这一转变无疑重新定义了算力行业的发展方向。过去,业界普遍寄希望于英伟达在硬件上进一步提升推理效率,而如今通过EP的创新方式,竟然能让H800展现出接近H100的性能表现。这种突破不仅让行业看到了新的可能性,也意味着企业在追求高性能计算时有了更多灵活的选择。 在我看来,这种技术上的进展对整个行业来说都是一件好事。它打破了传统意义上高端芯片性能的单一衡量标准,为企业提供了更具性价比的技术方案。同时,这也促使其他厂商加速技术创新步伐,形成良性竞争态势,最终受益的还是广大用户和技术开发者。未来,我们或许会看到更多类似的优化策略出现,推动算力行业迈入一个更加高效且多元化的时代。

   也解释了为何DeepSeek可以影响英伟达的股价。因为通过系统优化,底层硬件的护城河没有那么深了。

   由此看到,H20这类起初并未受到大型厂商青睐的推理计算卡逐渐走俏。甚至可以预见,英伟达自身的市场地位也可能面临挑战。

   姚欣判断,未来,英伟达一家独大的局面或将逐渐被打破,在推理时代到来之际,推理芯片市场将呈现多元化发展的趋势。例如,根据DeepSeek研究人员的测试数据显示,在推理任务中,昇腾910C的表现可达到H100的约60%。

   这种变化进一步对算力供给侧的布局与模式产生影响。具体而言,是AIInfra架构的调整与转型。

   即将到来的AI应用落地热潮已明确方向——提升效率与降低成本。

   AI Infra扛起推理时代成本优化重任

   随着人工智能技术的发展,我们正从预训练时代迈向推理时代,这一转变对云计算和AI基础设施提出了全新的需求。在新的阶段,模型不仅要具备强大的预训练能力,还需要在推理过程中展现出更高的效率和更低的成本。这不仅考验着云服务提供商的技术实力,也对硬件设备的性能提出了更高要求。 在我看来,这种变化既是挑战也是机遇。对于云服务提供商而言,如何优化资源调度、提升计算效率成为关键。同时,这也促使硬件厂商加快研发步伐,推出更适合大规模推理任务的专用芯片。而从行业应用角度来看,更高效的推理能力意味着更多创新应用场景的可能性,比如实时语音识别、个性化推荐系统等都将因此受益。 总之,推理时代的到来标志着AI技术正在向更加实用化方向迈进,未来我们将看到一个更加智能化、自动化的世界。但与此同时,我们也应关注由此带来的隐私保护等问题,在推动技术创新的同时确保其健康发展。

   预训练时代,云厂商提供的服务更倾向于一个裸金属的训练环境。因为是集中式集群,每一台机器几乎都是跑满的,云厂商能优化的空间有限。推理时代,每个企业更倾向于选择公有云服务部署模型。

   这意味着云服务提供商未来竞争的关键将集中在从芯片到模型的全栈优化上。

   不过为啥由AI Infra/云厂商来做?

   在技术底层与成本优化方面,AI基础设施/云服务提供商凭借自身生态位的优势,展现出独特的竞争力。

   从技术角度出发,并不是所有AI厂商都具备处理高并发、高流量、高弹性的互联网服务经验。

   近日,DeepSeek发布了一项关于成本利润率的理论值,声称可达到545%,此消息一出便在业内引发了广泛争议。

   PPIO姚欣表示:

   作为一个曾服务于4.5亿用户的平台创始人,我深知互联网用户的需求曲线从来不是一条平直的线,而是一条充满波动的曲线。通常情况下,一天内的用户请求会随着时间呈现自然的波峰与波谷。然而,如果在某个原本应该是波峰的时间段内,这条曲线突然变成了一条直线,那就意味着在这个特定的时间段里,用户的请求可能无法正常进入系统。这种情况不仅会让用户感到困惑和不满,也暴露出平台在技术架构或资源调度上的潜在问题。 在我看来,这种现象可能是由于突发的技术故障、服务器过载或是网络瓶颈导致的。无论原因是什么,这都提醒我们,对于一个拥有庞大用户群的服务平台而言,如何确保在高并发场景下依然能够稳定运行,是一个需要持续关注和优化的关键点。同时,这也反映了企业在面对流量峰值时的应对能力。只有通过不断改进技术方案、提升系统弹性以及加强应急响应机制,才能更好地保障用户体验,避免因短暂的技术失灵而造成用户的流失。

   春节期间,DeepSeek的服务出现了严重的问题,导致无法正常为用户提供支持,也影响了企业的正常使用。这种情况无疑给依赖该服务的个人和企业带来了不小的困扰。尤其是在这样一个重要的节日里,大家更需要稳定可靠的技术服务来保障各种需求。这起事件提醒我们,无论是技术公司还是其他行业,都需要把用户体验放在首位,确保在关键时刻能够提供稳定的服务。希望DeepSeek能尽快解决现有问题,并在未来加强系统的稳定性与可靠性,以避免类似情况再次发生。同时,这也反映了互联网服务行业竞争激烈,只有不断优化自身才能立于不败之地。

   换言之,春节期间,DeepSeek为了提升其服务和技术架构的弹性,迅速寻求与PPIO派欧云的合作。通过PPIO派欧云的分布式推理技术和强大的算力调度能力,DeepSeek成功实现了更高效的负载均衡,这不仅保障了客户的使用体验,也显著提升了服务的整体稳定性。这种合作模式展示了分布式技术在应对高需求场景中的巨大潜力,同时也为行业树立了一个良好的范例——即通过资源整合和技术协作,可以有效解决算力瓶颈带来的挑战。未来,期待更多类似的合作能够涌现,共同推动人工智能领域的发展。

   另外,在基础设施建设上,AI Infra厂商更有先天优势。

   近年来,云计算行业呈现出多元化的服务模式。一方面,以阿里云为代表的大型服务商选择自建IDC,通过大规模数据中心提供多样化的算力支持,满足企业对高性能计算的需求。另一方面,一些新兴平台如PPIO派欧云则另辟蹊径,专注于分布式网络的算力共享与调度,避免了传统IDC建设和硬件采购的高额投入,为市场提供了更加灵活的服务方案。 在我看来,这两种模式各具优势,反映了行业发展的不同路径。阿里云等巨头凭借深厚的技术积累和资源布局,在稳定性和安全性上占据领先地位,尤其适合对算力需求较高且预算充裕的企业用户。而像PPIO这样的分布式平台,则通过创新的资源共享机制降低了运营成本,同时为中小企业和个人开发者提供了性价比更高的选择。这种差异化竞争不仅丰富了市场供给,也为用户带来了更多元化的服务体验。 未来,随着技术进步和市场需求的变化,这两种模式或许会进一步融合,形成更高效的协同效应。无论如何,多样化的选择始终是推动行业发展的重要动力。

   二者比较,前者能提供的综合性服务更多,后者在性价比和资源调度上更有优势。

   PPIO的分布式架构成功突破了传统集中式架构的局限性,这不仅显著减轻了企业的运维负担,还极大提升了系统运行的效率。借助PPIO提供的AI推理平台,企业无需再耗费精力在后台服务的搭建与维护上,只需通过调用API服务即可满足需求,这种模式让企业在降低成本方面取得了显著成效,据相关数据显示,成本削减幅度可达40%。 这一创新无疑为企业带来了极大的便利,尤其是在技术门槛较高的AI领域,PPIO的解决方案简化了开发流程,使更多中小企业能够享受到前沿科技带来的红利。同时,这也反映了当前云计算和边缘计算结合发展的趋势,未来或许会有更多的应用场景基于类似的技术架构来实现。对于行业而言,这样的变革不仅是对传统模式的一次颠覆,更是推动整个IT行业向更高效、更经济方向迈进的重要一步。

   速度方面,得益于PPIO构建的全球分布式云服务网络,用户无论身在何处,都能快速连接到就近的算力节点,享受低于20毫秒的超低延迟体验。这种创新的服务模式不仅极大提升了数据传输效率,也为企业用户提供了更加灵活、可靠且经济的AI推理解决方案。在我看来,PPIO所打造的这一平台,不仅重新定义了云计算的服务标准,更为各行各业带来了前所未有的机遇。尤其在人工智能领域,这种高效稳定的算力支持,无疑会加速行业的技术迭代与应用落地,为企业在数字化转型过程中提供坚实的支撑。

   据了解,春节期间,PPIO在ToB方向的DeepSeek服务表现亮眼,整体可用性达到了99.9%,且没有TPM限制。这一成绩的背后,得益于其底层架构的高度弹性。目前,PPIO平台的日均tokens消耗量已突破1300亿,这一数字与“六小龙”的日均消耗量相当,展现了其强大的服务能力。 在我看来,PPIO能够在短时间内实现如此高的可用性和消耗量,不仅体现了技术实力,更反映了其对市场需求的敏锐洞察。尤其是在春节期间,用户需求激增的情况下,能够保持稳定的服务质量实属不易。这种弹性架构的优势不仅让PPIO在竞争激烈的市场中占据了一席之地,也为未来的业务扩展奠定了坚实的基础。未来,随着更多企业的数字化转型需求增加,像PPIO这样的技术平台无疑将成为不可或缺的重要力量。

   此外,PPIO通过引入KVCache稀疏化压缩算法、HydraSampling预测性采样技术以及端到端FP8推理三大核心算法,进一步解决了显存、算力及带宽对大模型推理性能的制约问题。因此,PPIO可以快速适配并优化各类开源大模型。例如,PPIO的算力云服务已成功为百川智能提供了高效的大规模AI推理支持。

   姚欣认为,“唯有当AIInfra公司能够构建出兼具高性价比与高性能的基础设施,使得众多AI应用的收益能够完全承担起所有的推理成本时,AI应用的广泛落地才有望实现,而用户也将因此步入AI应用的免费时代。”

   DeepSeek奋起直追之后,仍需全产业链上下协同努力,方能更快速地推动大规模应用场景的落地。

   如今,备受瞩目的玩家陆续登场,他们不仅承接了大量流量,还积极推动新浪潮的发展。AIInfra玩家们的表现,仅仅是其中的一部分。

   随着越来越多的产业伙伴不断涌入,一个更加庞大且充满潜力的需求与市场正在逐步形成。这一趋势不仅彰显了行业发展的强劲动力,也预示着未来将有更多机遇等待挖掘。从当前态势来看,这种多方参与的局面无疑为整个产业链注入了新的活力,同时也对各企业的创新能力提出了更高要求。如何在激烈的市场竞争中脱颖而出,成为摆在每一家企业面前的重要课题。我认为,在这样的背景下,加强合作、共享资源将是推动行业发展的重要途径之一。只有通过共同努力,才能更好地把握住眼前的机会,实现互利共赢的目标。

   趋势转变之后,又是一个新开始。

电脑硬件最新资讯
友情链接 百度权重≥3友情链接交换
数界探索  |  科技快讯中文网  |  经济脉动  |  科技先锋  |  财智慧  |  慧算财经  |  财经探秘  |  财经日报  |  今日财经  |  财经风向标
Copyright © 2025 智慧科技官网 网暻网络
备案号:陇ICP备16003923号-4 版权所有