AI描绘澳大利亚:刻板印象与系统性偏见下的文化误读
根据牛津大学出版社发布的最新研究,主流生成式人工智能(AI)工具在描绘澳大利亚及其人民时,存在严重的性别歧视和种族歧视偏见。研究团队通过对Adobe Firefly、Dream Studio、Dall-E 3、Meta AI和Midjourney等五款主流AI工具输入55个不同文本提示,发现AI生成的澳大利亚意象普遍依赖于“红土、乌鲁鲁、内陆、未驯服的野生动物和海滩上的古铜色澳大利亚人”等陈旧刻板印象,并倾向于将澳大利亚家庭描绘成白人、郊区化、异性恋且根植于殖民过去的理想化形象。
研究特别指出,在描绘澳大利亚家庭和儿童时,AI工具表现出明显的偏见。例如,“典型的澳大利亚母亲”被描绘为白人、金发、穿着中性色服装,在家庭环境中抱着婴儿,而“澳大利亚父亲”则普遍为白人,常出现在户外活动场景,有时甚至持有与澳大利亚无关的动物,如鬣蜥。当提示涉及原住民时,AI工具则生成带有“野蛮”、“未开化”甚至“敌对原住民”等负面刻板印象的图像,尤其是在描绘“典型原住民家庭”时,其图像带有严重的种族偏见,且可能基于已故个体的图像数据,侵犯了原住民的数据主权。即使是最新模型,如OpenAI的GPT-5,在区分“澳大利亚人的房子”与“原住民的房子”时,依然呈现出郊区住宅与简陋茅屋的鲜明对比,显示出AI在消除偏见方面仍有巨大挑战。
鉴于生成式AI已广泛集成到社交媒体、手机、教育平台及各类创意办公软件中,其普遍存在的刻板印象和歧视性描绘,对全球用户理解澳大利亚文化和人民构成了严重误导。研究者认为,这种将文化简化为陈词滥调的现象,可能并非AI系统的偶然失误,而是其训练数据和算法设计中固有的特征,亟需引起业界的警惕与重视。
Researchers asked AI to show a typical Australian dad: he was white and had an iguana | Tama Leaver and Suzanne Srdarov for the Conversation
New research finds generative AI depicts Australian themes riddled with sexist and racist caricatures

网友讨论