AI内容审核员:被忽视的质量控制层,承受高压与伦理困境

2024年春季,一批技术写作者如Rachael Sawyer,在受聘于谷歌AI产品(包括Gemini及AI Overviews)的内容审核工作时,发现实际职责与预期大相径庭。她们的工作核心是评估和管理AI生成内容,常需处理极端、暴力及色情信息,且在极短时间内完成任务,却未获足够预警或心理支持。这些审核员通过第三方承包商(如Hitachi GlobalLogic)受雇,构成了AI供应链中至关重要但易被忽视的一环。
这些“通用评分员”与“超级评分员”是AI模型安全性的最后一道防线。尽管他们比数据标注员获得更高报酬,但其工作强度与压力巨大,且常需处理超出其专业领域的内容,如医疗或天体物理学。研究者指出,这种模式揭示了AI产业“人力金字塔”的本质:顶层工程师设计模型,中层审核员进行质量控制,底层标注员处理数据,而中层劳动者往往被视为“不可见且可消耗”的。
近期,AI生成内容出现“奶酪粘合剂”或“吃石头”等荒谬建议,引发公众对AI安全性的质疑。尽管谷歌声称政策未变,但有审核员反映,对仇恨言论、性暗示内容的容忍度似乎在提高,以“公众利益”为名允许AI复述或引用不当内容。这种在速度与伦理间的权衡,以及合同工的裁员现象,凸显了AI发展过程中,人类劳动者所面临的严峻挑战与职业困境。
网友讨论