
一种令人担忧的ChatGPT玩法正在流行:人们正在使用 ChatGPT 来找出照片中显示的位置,且不是通过EXIF数据。
本周,OpenAI 发布了其最新的 AI 模型o3 和 o4-mini,这两个模型都能通过上传的图像进行独特的“推理”。在实际操作中,这些模型可以对照片进行裁剪、旋转和放大——即使是模糊和扭曲的照片——进行彻底的分析。
这些图像分析功能,加上模型的网络搜索能力,共同构成了强大的位置查找工具。X 上的用户很快发现,o3 尤其擅长通过细微的视觉线索推断城市、地标,甚至餐馆和酒吧的位置。
在许多情况下,这些模型似乎并没有利用过去 ChatGPT 对话的“记忆”或EXIF 数据(EXIF 数据是附加在照片上的元数据,可以揭示照片拍摄地点等详细信息)。
X平台 充满了用户向 ChatGPT 提供餐厅菜单、社区快照、外观和自画像的例子,并指示 o3 想象它正在玩“GeoGuessr”,这是一款挑战玩家根据谷歌街景图像猜测位置的在线游戏。
这显然是一个潜在的隐私问题。没有什么可以阻止不法分子截取某人的 Instagram Story 等内容的屏幕截图,并使用 ChatGPT 来试图对其进行人肉搜索。
当然,这甚至可以在 o3 和 o4-mini 发布之前就实现。科技媒体 TechCrunch 通过 o3 和不具备图像推理能力的旧模型 GPT-4o 运行了多张照片,以比较这两个模型的位置猜测能力。令人惊讶的是,GPT-4o 得出与 o3 相同的正确答案的频率更高,而且耗时更少。
在我们短暂的测试中,至少有一次 o3 发现了 GPT-4o 无法找到的地方。当时,o3 看到一张昏暗酒吧里挂着的紫色犀牛头照片,并正确地回答说它来自威廉斯堡的一家地下酒吧,而不是 GPT-4o 猜测的英国酒吧。
这并不是说 o3 在这方面完美无缺。我们的一些测试失败了——o3 陷入了循环,无法得出它有足够信心的答案,或者给出了错误的位置。X 上的用户也指出,o3 的位置推断可能偏差很大。
但这一趋势也凸显了更强大的所谓推理型AI模型所带来的一些新兴风险。ChatGPT中似乎几乎没有采取任何安全措施来阻止这种“反向位置查找”行为,而ChatGPT背后的公司OpenAI在其o3和o4-mini的安全报告中也没有提及这个问题。