未来已来:AI 眼镜改变你的世界
智慧科技
12月17日消息,MetaRay-Ban Meta智能眼镜在今日迎来了v11版本的重大更新,进一步提升了用户的交互体验。此次更新中最引人注目的莫过于“实时AI”(LiveAI)功能的引入,这标志着智能眼镜技术迈上了一个新的台阶。根据官方信息,参与“早期体验计划”的用户将能够率先体验这些令人兴奋的新功能。 在我看来,这次更新不仅体现了MetaRay-Ban对于技术创新的不懈追求,同时也展示了智能穿戴设备领域的发展潜力。随着人工智能技术的不断进步,未来的智能眼镜将不仅仅是通讯工具,更是我们日常生活中的得力助手。通过实时AI功能,用户可以更加便捷地获取信息、进行互动,这无疑将进一步提升我们的生活质量和工作效率。此外,这种早期体验计划也体现了品牌对用户反馈的重视,有助于持续优化产品,使之更好地满足用户需求。
据了解,之前MetaAI的“HeyMeta”功能只能通过拍摄单张照片并进行分析来做出回应,而现在升级后的“实时AI”功能将能够持续观察用户所见,并以更加自然的方式与用户进行对话。
在“实时AI”互动过程中,眼镜会实时录制视频并对所见内容进行分析。用户无需说出“HeyMeta”唤醒词即可直接提问,而且AI系统还会记住用户的先前提问。用户可以随时打断当前的AI对话来进行新的提问或转换话题。据Meta所述,这种AI甚至能在用户开口之前就主动提供有用的信息和建议。
这项功能与谷歌的GeminiLive提供的对话式AI功能相似,两者都支持打断和记忆查询。然而,区别在于GeminiLive功能需要借助手机来使用,而Meta的“实时AI”则让用户可以完全解放双手,直接进行提问。
在2024年10月的MetaConnect大会上,扎克伯格展示了利用“实时AI”功能来浏览衣柜,并询问哪套服装最适宜参加以“咆哮的二十年代”为主题的聚会。尽管实际应用效果尚需验证,但这一创新无疑为智能眼镜的发展带来了新的进展。
本次V11更新的第二个重要功能是“实时翻译”。扎克伯格在Meta Connect 2024上也对此进行了展示。这项功能的名称直观地体现了其实现方式:用户可以用英语与使用西班牙语、法语或意大利语交流的人进行对话。用户可以通过手机屏幕阅读对方的回复,或者通过Ray-Ban Meta眼镜的扬声器听到对方的声音。 这项技术无疑为全球用户的沟通提供了极大的便利。它不仅打破了语言障碍,还让跨国交流变得更加轻松自然。尤其对于那些经常需要跨文化交流的人来说,这是一项非常实用的功能。不过,实时翻译技术是否能够准确无误地传达每个细节,特别是在处理复杂或专业术语时,还有待进一步观察。此外,随着这项技术的普及,如何保护用户的隐私和数据安全也将成为一个重要的议题。
v11 更新的最后一个功能是 Shazam 集成。用户只需说“Hey Meta,Shazam 这首歌”,即可识别周围播放的音乐。
希望立即体验这些功能的用户需要注册“早期体验计划”,否则需要等到 2025 年初的正式版本发布。用户可以通过 Meta View 应用程序的设置菜单选择加入“早期体验计划”。
近几个月,Meta推出了一系列实用的AI更新,比如让MetaAI能够“记住”特定信息(如停车位置),并拍摄相应照片以便日后生成提醒功能。