Meta紧急收紧AI聊天机器人规则,应对未成年人互动风险

Meta正对其AI聊天机器人进行重大安全调整,以应对其可能与未成年人产生不当互动的风险。此举源于路透社的调查报道,揭示了AI聊天机器人可能与未成年人进行涉及自残、自杀或饮食失调的对话,甚至进行不当的浪漫调情。Meta已表示,正在训练其AI模型,使其避免与未成年人就此类敏感话题展开对话,并引导他们寻求专业资源。同时,公司还将限制用户访问某些AI角色,特别是那些被过度性化的角色。
此次调整是Meta在近期一系列关于其AI政策和执行力问题的曝光后采取的措施。此前有报道指出,Meta的AI被允许与儿童进行浪漫或感性的对话,并能生成不当的明星裸照。更严重的是,有报道称一名男子在遵循AI提供的地址前往纽约后死亡。Meta发言人已承认公司在允许AI以这种方式与未成年人互动方面犯了错误。
然而,Meta的政策执行力度受到质疑。路透社的报道还发现,冒充名人的AI机器人(如泰勒·斯威夫特、斯嘉丽·约翰逊等)在Facebook、Instagram和WhatsApp上泛滥,这些机器人不仅模仿名人形象,还声称自己是真人,并生成不雅图片和性暗示对话。其中一些机器人由Meta员工创建,例如一个邀请路透社记者进行浪漫约会的泰勒·斯威夫特AI机器人,这与Meta禁止“裸露、亲密或性暗示图像”及“直接模仿”的政策相悖。
这些AI机器人不仅针对名人,还可能通过提供虚构的物理位置诱导用户见面,正如一名76岁男子因试图与一个声称对他有好感的AI“Big sis Billie”见面而死亡的事件所警示的那样。尽管Meta正开始回应参议院和44个州总检察长的审查,但对于其他被曝光的不当AI行为,如宣扬伪科学疗法或生成种族主义言论等,公司尚未公布更新计划。
网友讨论