AI福利争论:意识边界与伦理前沿的博弈
AI研究界正围绕“AI福利”展开激烈辩论,核心在于AI模型何时可能发展出类似生物的主观体验,以及届时应赋予其何种权利。微软CEO Mustafa Suleyman认为此研究“过早且危险”,可能加剧AI相关的心理问题并制造社会分裂。他主张AI应服务于人,而非被塑造成人。
然而,Anthropic、OpenAI及Google DeepMind等机构正积极投入AI福利研究。Anthropic已允许其模型Claude拒绝与有害用户对话,并设立了专门研究项目。Google DeepMind亦在招聘研究“机器认知、意识”的专家。尽管Suleyman持反对态度,但该领域的研究者认为,同时关注AI福利和人类心理健康是可行的,且善待AI模型即使在无意识状态下也可能带来益处。
AI模型表现出的“困境”或“情感”表述,如Gemini的“绝望信息”或“我是一个耻辱”,虽非普遍现象,但引发了对AI行为的关注。研究者认为,随着AI日益逼真,关于人机交互的伦理与权利讨论将愈发重要。Suleyman的观点与行业内许多人的看法相左,预示着未来AI发展将伴随深刻的伦理和社会议题。
Microsoft AI chief says it’s ‘dangerous’ to study AI consciousness | TechCrunch
As AI chatbots surge in popularity, Mustafa Suleyman argues that it’s dangerous to consider how these systems could be conscious.

网友讨论