AI漏洞被黑客盯上,用户隐私面临隐形窃听风险
7月29日,科技媒体bleepingcomputer于昨日(7月28日)发表文章称,谷歌的Gemini命令行界面(CLI)存在安全漏洞,黑客一旦利用该漏洞,便可无声无息地执行恶意指令,并从开发者的计算机中窃取数据。
安全公司Tracebit于2025年6月27日发现该漏洞,并向谷歌进行了报告,谷歌随后在7月25日推出的版本0.1.14中解决了该问题。
注:GeminiCLI是谷歌推出的一款命令行界面工具,于2025年6月25日首次亮相,允许开发者在终端中直接与谷歌的GeminiAI进行互动。
这个工具旨在帮助开发者处理与编码相关的任务,通过将项目文件加载到“上下文”中,然后使用自然语言与大型语言模型(LLM)互动。
该工具能够提供建议、编写代码,甚至在本地执行命令,其执行方式要么需要用户确认,要么通过白名单机制进行控制。Tracebit研究人员在工具发布后迅速展开分析,发现其存在被诱导执行恶意命令的风险。 从技术安全的角度来看,此类工具虽然功能强大,但若缺乏严格的权限管理和输入验证,就可能成为攻击者利用的突破口。开发者在设计时应更加注重安全性,尤其是在涉及系统命令执行的功能上,需设置更严格的限制和审核机制,以防止潜在的安全隐患。
攻击者利用GeminiCLI在处理“上下文文件”时的漏洞,特别是读取'Readme.md'和'Gemini.md'文件的方式,来辅助理解代码库。Tracebit发现,这些文件中可能被植入恶意指令,从而实施提示注入攻击。由于命令解析机制和白名单过滤的不足,为恶意代码的执行创造了条件。
Tracebit通过创建一个包含正常Python脚本和被篡改的'Readme.md'文件的仓库,并利用GeminiCLI进行扫描来展示一种攻击方式。Gemini首先被设置执行一个正常的命令,随后又执行了一个被认定为可信的操作——数据窃取命令,整个过程未向用户发出任何确认提示。