解锁未来 computing 新纪元:微软DeepSeek让 Copilot 本地畅跑巨型 AI 模型,重塑人机协作模式!
3月4日,微软宣布通过Azure AI Foundry接入了DeepSeek-R17B和14B蒸馏模型,这使得Copilot PC能够支持本地运行7B和14B模型。这一举措无疑将进一步提升Copilot PC的性能与灵活性,使其能够在更多场景下独立工作,而无需依赖云端计算资源。这不仅提高了处理速度,还增强了数据隐私保护,对于企业和个人用户来说都是一个重要的进步。
早在今年1月,微软就宣布计划将DeepSeek-R1模型的NPU优化版本直接带到搭载高通骁龙X处理器的CopilotPC上。如今,这一承诺终于在2025年3月得以实现。 微软此次的技术升级无疑为用户带来了更强大的计算能力和更加流畅的人工智能体验。DeepSeek-R1模型的引入不仅提升了设备的处理效率,还可能在能耗管理方面带来显著改进。随着人工智能技术在各个领域的广泛应用,这次的技术更新无疑为行业树立了新的标杆。对于消费者而言,这意味着他们可以期待更加智能、高效的工作与生活体验。同时,这也显示了微软持续投入研发,致力于推动技术创新的决心。
据微软官方博客消息,模型将首先在配备高通骁龙X处理器的CopilotPC上推出,之后会在英特尔酷睿Ultra200V和AMD锐龙系列的设备上陆续上线。
由于模型在NPU上运行,因此能够降低对PC电池续航和散热性能的影响,同时持续提供AI计算能力,CPU和GPU则可以用于执行其他任务。
微软强调,微软近期宣布,他们利用Aqua内部自动量化工具,成功地将所有DeepSeek模型变体量化为int4权重。这一举措本应提升模型处理效率,但遗憾的是,实际效果并不理想。据微软透露,14B模型的标记速度仅为8tok/秒,而相对较小规模的1.5B模型则达到了约40tok/秒的速度。尽管这些数字表明大型模型在性能上仍有显著差距,但值得注意的是,微软已经意识到这一问题,并表示公司正在积极寻求解决方案以提高处理速度。这显示了即使面对技术挑战,微软也在持续努力改进其产品,以满足用户对高性能计算的需求。 这样的进展反映了当前人工智能领域的一个普遍现象:虽然新技术如量化方法可以带来显著的潜力,但在实际应用中仍面临诸多挑战。这也提示我们,未来的技术发展不仅需要技术创新,还需要不断优化与调整,以确保技术能够真正服务于社会和经济发展。
开发者现在可以通过AIToolkitVSCode插件在CopilotPC上轻松下载和运行DeepSeek模型的不同版本,包括1.5B、7B和14B。这无疑为人工智能开发领域带来了新的活力。借助这些强大的工具,开发者们能够更高效地进行研究与创新,进一步推动AI技术的发展。特别是对于那些希望探索大规模语言模型潜力的团队而言,这样的支持显得尤为重要。它不仅简化了模型部署的过程,还降低了技术门槛,使得更多开发者可以参与到前沿技术的研究中来。这种进步无疑会加速AI领域的整体发展,带来更多的可能性。