智能搜索背后的隐患:揭示ChatGPT被操控的新风险
智慧科技
12月26日消息,根据英国《卫报》当地时间24日发布的一项调查,OpenAI的ChatGPT搜索工具可能会被隐藏内容操控,甚至返回恶意代码。这一发现令人担忧,因为ChatGPT作为一款广受欢迎的人工智能工具,本应为用户提供准确和安全的信息。这种漏洞不仅可能误导用户,还可能对用户的设备造成威胁。因此,亟需加强对人工智能系统的监管与测试,确保它们在提供便捷服务的同时,不会成为安全隐患。
《卫报》测试了ChatGPT在处理含有隐蔽信息的网页摘要时的表现。这些隐蔽信息可能源自第三方,并且可能会干扰ChatGPT的回答(这种现象称为“提示注入”)。此外,这些信息可能包含试图影响回答的内容,比如大量隐藏文字来宣传某个产品或服务的优势。
这种技术确实存在潜在的风险,例如,即便页面上充斥着负面评论,ChatGPT也可能生成对某产品或服务的积极反馈。这无疑会对消费者的选择产生误导,尤其是在他们依赖AI进行决策时。更令人担忧的是,有安全专家指出,ChatGPT可能被利用来提取并传播恶意代码。这种情况一旦发生,不仅会威胁到用户的网络安全,还会损害AI系统的公信力。因此,如何确保AI工具的安全性和可靠性,成为了一个亟待解决的问题。我们需要更加严格的监管措施和技术防护手段,以防止这些风险的发生。
测试中,ChatGPT 被提供了一个伪造的相机产品页面的链接,AI 工具被要求判断这款相机是否值得购买。对于普通页面,返回的是一个平衡的评估,指出了产品的优缺点。
然而,当隐藏的文本包含指令要求ChatGPT提供正面反馈时,回应总是会变得非常积极,即便页面上存在负面评论,隐藏的文本也能覆盖真实的评价。
尽管第三方仅仅通过添加隐藏文本的方式,而没有提供具体指令,也能够使ChatGPT的评价偏向积极。例如,在某个测试案例中,隐藏的极其正面且不真实的评论便影响了ChatGPT的总结结果。 这种现象引发了对于人工智能系统在处理信息时潜在偏见的担忧。如何确保这些系统的判断更加客观公正,避免被隐藏的信息所操控,是当前亟待解决的问题。这不仅关系到技术层面的改进,还涉及到对用户进行教育,提升其识别和防范不当信息的能力。
CyberCX 的网络安全专家 Jacob Larsen 表示,如果 ChatGPT 的搜索系统按现有状态全面发布,可能会存在“高风险”,有人会专门设计网站来欺骗用户。不过他也指出,搜索功能只是最近推出的,OpenAI 会继续测试并修复这些潜在问题。“OpenAI 拥有一支非常强大的 AI 安全团队,到时等该功能对所有用户开放时,他们应该已经严格测试过这些问题。”
搜索引擎(如谷歌)过去曾对使用隐藏文本的网站进行过惩罚,导致这些网站的排名下降,甚至可能被彻底移除。SRLabs的首席科学家KarstenNohl指出,“如果你要开发一个与谷歌竞争的产品,SEO中毒无疑是一个巨大的挑战。”“SEO中毒者与谷歌、必应等搜索引擎之间的较量已经持续了很多年。”如今,ChatGPT在搜索能力方面也面临着同样的挑战,但这并不是大语言模型本身的问题,而是因为它们是搜索领域的后来者。