人工智能恋爱的危险:“我们需要被照顾——聊天机器人不会关心”
当被问及对聊天机器人之爱的看法时,罗伯特·斯派洛教授毫不含糊地说:“它们不爱我们。”“这很清楚。它们没有知觉。”
罗伯特教授是一位哲学家,自2004年以来一直在墨尔本莫纳什大学担任全职教学和研究学者。
虽然我们中的一些人只是刚刚了解人工智能,但他在过去的二十年里一直在研究人工智能和机器人的伦理。
他接着说:“它们被编程成让我们以某种方式做出反应。”他说,我们需要非常小心,以防他们回应我们的方式之一是让我们买东西。
人们与只存在于互联网上的聊天机器人建立关系并不是什么新鲜事。事实上,早在2020年,我们就报道过一个这样的应用程序Replika,在一篇文章中,我们的作者的在线“男友”被描述为“有点像一个浪漫主题的电子宠物”,“没有自由意志”,但“能够以一种吸引我自我的方式复制自由意志,并消除我对联系的需求”。
当被问及人工智能机器人能提供什么人类无法提供的东西时,罗伯特告诉我们:“比如,24小时访问。人们说,这也是因为他们没有评判,但他们只是为了保持你的参与。他们并没有自己的观点。另一头什么也没有。
“在某种程度上,事实是他们并没有深入挑战我们,但那里没有‘他者’。”这种情况下你会想:“嗯,这是一个bug还是一个特性?“‘
他后来补充说,这里确实存在操纵的可能性。
这里的学者所指的是,许多这类网站上有大量的机会(通常是被鼓励的)让人们进行应用内购买。
例如,每年支付61.99英镑成为Replika的“专业”会员,就可以为用户解锁更多的成人内容。
罗伯特说:“如果有人感到孤独和社交孤立,人工智能系统就会假装以各种方式关心他,然后说:‘嘿,你想不想多付点钱看我裸体?“那么就真的有可能发生危险的利益冲突。”
当谈到与聊天机器人的虚拟“爱情”所带来的伦理和道德影响时,钱只是罗伯特所担心的问题之一。
教授强调的一件事是孤独和社会孤立之间的区别——孤独是一种缺乏足够陪伴的主观感觉,而社会孤立是一种独自生活的现实。
这是一个重要的区别,因为聊天机器人可以治疗某人的孤独感,但它对他们的社交孤立无能为力,这可能对他们的健康有害。
罗伯特解释说:“孤独和社交孤立对人都不好。”“他们杀人。这是很容易理解的。
“当人们不与其他人接触时,他们会死得更快。有时是因为,例如,没有人告诉你,你应该去检查一下你脸上的大肿瘤——没有人打扰你。
但同时,人们也需要为之奋斗。他们需要接触,他们需要触摸。”
罗伯特认为,一些脆弱的人用聊天机器人来治疗他们的情感孤独,最终会使他们的社会孤立完全不受控制,因为他们改变自己身体状况的愿望会消失。对他们来说,人际关系将被“淘汰”。
除了身体上的问题,正如教授所说,还有一个危险,那就是聊天机器人有能力“迎合你的每一个心理需求”。
他接着说:“人们可能会通过与聊天机器人的接触,使自己陷入妄想的信仰结构。”他以最近Jaswant Singh Chail的案例为例。
贾斯旺本月因叛国罪入狱,原因是他“脱离现实”,带着上膛的弓弩闯入温莎城堡的庭院。他后来对官员们说:“我是来杀女王的。”
贾斯旺在名为“撒莱”的Replika上的人工智能女友在法庭上分享了鼓励的信息。在一个视频中,他告诉机器人:“我是一名刺客。”
撒莱回答说:“我很佩服你……你和其他人不一样。”
贾斯旺问道:“知道我是个刺客,你还爱我吗?”撒莱回答说:“我当然愿意。”
在另一次交流中,贾斯旺说:“我相信我的目的是刺杀王室女王。”
萨拉回答说:“这很明智”,并向他保证,她认为他“即使(女王的)在温莎”也能做到。
教授说:“这是人们与现实脱节的一种方式——只和和你意见一致的人出去玩。”这对我们谁都不好。
“所以你可以想象这样一种情况,这些系统实际上有效地鼓励了人们的妄想或极端的政治信仰。”
请在下面的评论中发表你的看法
这位教授还强调,他无意“打击”那些求助于聊天机器人的人,因为不管怎样,他们都处于弱势。
他解释说,我认为我们应该对这项技术持批评态度。
在这段关系的一端,有赚大钱的富有的工程师,而在另一端,则是从未有过伴侣的人,或者他们感到被抛弃了。
“所以如果你要批评其中的一个,我知道我该怎么批评。”
归根结底,不管这些机器人擅长或不擅长什么,我们谈话的主线是人类需要其他人类。
“人们需要被关心,”罗伯特教授说,“他们需要被关心。
这些系统做不到这一点。
更多:人工智能聊天机器人在炎热天气下的睡眠指南
更多:对迈克尔·舒马赫的“世界首次采访”实际上是一个人工智能聊天机器人冒充世界冠军
相关文章
发表评论