AI图像增强的“真相”:模糊照片的“洞察”陷阱

今日,FBI在X平台发布了两张涉嫌枪击案嫌疑人的模糊照片。随后,大量用户利用AI工具(包括X平台的Grok和ChatGPT等)对照片进行“增强”,生成了高分辨率版本。
然而,AI图像增强的本质并非揭示隐藏细节,而是基于现有数据进行信息推断和填充。这种技术可能“创造”不存在的特征,例如将模糊图像中的人物面部特征、衣物细节等进行不准确的“优化”,甚至出现明显不符现实的渲染。
尽管这些“增强”图像旨在协助公众辨认嫌疑人,但其准确性存疑。过往案例显示,AI增强曾将低分辨率图像中的人物识别错误,或在图像中添加不存在的细节。因此,此类AI处理后的图像不应被视为案件侦破的可靠证据。
AI图像增强在特定情况下可辅助信息提取,但其推断性本质要求使用者对其生成内容的准确性保持高度审慎,尤其是在涉及法律和证据的场景中。
网友讨论