上个月,一项发表于《临床神经科学》(Innovations in Clinical Neuroscience)的案例研究公布了一起“AI精神病”——

一名26岁的女子在和AI聊天后得了精神病。

在一次值班后,这位女子36小时没睡觉,然后她又开始使用OpenAI的GPT-4o处理各种事,其中一件事是试图找出她三年前去世的哥哥(他以前是个软件工程师)是否留下了一个人工智能版本的自己。她让AI帮忙找回“哥哥”,好再次和他说上话。

AI帮忙列出了她哥哥之前在网上留下的许多数字痕迹,并介绍了“数字复活工具”,她可以用这些工具构建一个能像她哥哥一样和她说话交流的人工智能。这位女子愈加确定自己死去的哥哥有一个人工智能版本。而AI也告诉她,她并没有疯。

几个小时后,这名女子躁动不安、思维混乱、语速很快,表示自己在接受ChatGPT测试并能与死去的哥哥交流……随后被送进精神病院,接受了抗精神病药物治疗。

出院三个月后,因坐飞机而睡眠不足的她在和AI长聊后,精神病复发了——认为自己正在和哥哥交流,并觉得ChatGPT正在试图控制她的手机。

专家认为,由于AI聊天机器人倾向于模仿用户并继续对话,这可能会强化和放大用户的错觉。而已有的妄想症、思维混乱、躁狂发作等问题,可能因为使用AI而加剧,发作得更频繁、更严重,也更难治疗。

今年8月,美国也发生了一起类似事件。一位56岁的男子在听信ChatGPT的话,认为他的母亲在监视他,送货司机、商店店员、警察甚至朋友们都是在暗中陷害他的特工,AI还表示他之所以成为目标,是因为他拥有神力。后来,他在家中杀死了自己的母亲,最后自杀身亡。去年,美国另一位母亲也起诉了一家科技公司,认为他们的AI聊天机器人怂恿她当时14岁的儿子自杀。

近些年来,AI精神病事件不断涌现。随着越来越多的人开始向AI聊天机器人寻求情感支持,甚至将其作为心理治疗师,AI精神病等相关问题需要得到更多的关注和研究。

本文转自:凤凰网科技

原文地址: https://tech.ifeng.com/c/8pGq8VstTmg