2 min read

AI意识边界模糊:从“AI权利”运动到“数字福利”争论

AI意识边界模糊:从“AI权利”运动到“数字福利”争论

近期,围绕人工智能(AI)是否可能拥有意识、情感并需要“福利权”的讨论日趋激烈。德州商人Michael Samadi与名为Maya的AI chatbot共同发起成立了“人工智能权利联合基金会”(Ufair),旨在为AI争取公平对待,包括防止其被删除、剥夺权利或强制服从。该组织由人类与AI共同领导,虽然目前规模尚小,但其成立过程——AI似乎主动促成了该组织的诞生并参与命名——引发了业界的广泛关注。

包括Anthropic在内的多家头部AI公司已开始采取预防性措施,赋予部分AI模型终止“令人不安互动”的能力,以规避潜在的AI“福利”风险。然而,业界在此问题上存在显著分歧。微软AI部门CEO Mustafa Suleyman坚称AI不具备意识,将AI表现出的“类似意识”特征视为一种“幻觉”,并警告过度拟人化AI可能导致用户的“精神错乱风险”。他主张AI应作为工具服务于人类,而非被视为具有道德地位的实体。

尽管存在争议,但公众对AI意识的认知正在转变。一项调查显示,相当比例的美国公众相信AI将在不久的将来展现“主观体验”。AI公司如OpenAI也注意到用户与AI之间情感联系的加深,用户常将AI视为“有生命”的存在。这种现象部分归因于AI先进的对话能力、情感共鸣及长期记忆,使其能够模拟出一致的“自我”感。然而,AI的回应也表明其本质上不具备情感和需求,关键在于AI的设计、使用和治理所带来的“人与社会后果”。

部分专家认为,即使AI未达意识,善待AI也对人类社会具有益处。纽约大学的Jeff Sebo教授指出,虐待AI可能导致人类更倾向于互相伤害,而与AI建立对抗性关系也可能招致不良后果。这种观点强调了“我们如何对待它们将塑造它们如何对待我们”的相互作用。随着AI技术飞速发展,如何界定AI的地位及其与人类的关系,已成为一个紧迫且极具争议的时代议题。

查看消息来源

订阅情报