科幻小说|心理游戏

海螺社区 2018-02-10 20:08:06

北京作家郝景芳的《北京折叠》获得今年雨果奖短中篇小说奖提名,这是去年山西作家刘慈欣凭《三体》获得雨果奖最佳长篇小说奖之后,中国科幻小说再次入围世界科幻最高奖项。中国科幻小说界在世界舞台的表现令人触目,海螺社区特此刊发中国科幻小说最高奖项银河奖获得者夏笳的小说《心理游戏》,希望借此让读者对科幻这一中国新生代小说有更多的了解和关注。



这一部全球热播的电视真人秀节目。


节目形式很简单:画面从中间分隔为两半,在左边的画格中,观众可以看到咨询者坐在一张躺椅上,右边的画格中则坐着心理咨询师。两边都用图像软件做了处理,用一张活灵活现的3D卡通面孔代替真人的脸,使观众看不出他们原本的长相。尽管如此,你还是可以通过双方的表情、姿态和语调来把握整个对话情境。

咨询者和咨询师不在同一个房间里(有时相隔大半个地球),彼此之间通过远程通讯工具交流。他们的对话会被全程直播出来,只有一些泄露个人隐私的关键词,会被软件自动屏蔽。咨询者和咨询师都是自愿报名参加这个节目——咨询者可以获得一笔酬劳,以支付昂贵的咨询费,咨询师则可以借此增加名望。尽管这种节目形式受到很多人质疑,但收视率却一直居高不下。

你可以在节目中听到他人心中最为私密的心里话。你将真正体会到,幸福的人彼此总是相似,不幸的人则各自不同。你会不知不觉进入角色,在别人身上看到你自己的影子。你觉得他们替你说出了内心深处无法诉诸言语的纠结。是的是的,就是这样。你在心底里一遍又一遍说。如果是我该怎么办?

你会好奇、兴奋、厌恶、愤怒、无奈、同情、感伤、压抑、恐惧、痛苦、迷茫、绝望、激动……

每期节目播出时,屏幕右下角都会显示一个不断跳动增长的数字,告诉观众自从节目播出以来,有多少在痛苦中挣扎的人因为收看节目而获得了勇气,主动联系心理咨询机构寻求帮助。



(某一期节目片段)


咨询师:所以你是觉得哪里不太好吗?
咨询者:嗯……我觉得自己可能是得抑郁症了。
咨询师:从什么时候开始的?
咨询者:大概一个多月吧。
咨询师:主要是哪里感觉不好?
咨询者:累,没有精神。有时候能在床上躺一整天,不想起来。
咨询师:睡眠怎么样?
咨询者:每天凌晨三四点钟会醒,醒来就怎么也睡不着了,那种时候最难受。

节目最引发争议的地方在于,每次正式开始之前,都会安排一个极富仪式感的环节:屏幕上出现一红一蓝两颗药丸,咨询者必须从中挑一颗——这一幕当然是在向电影《黑客帝国》中那个经典桥段致敬。两颗药丸分别代表两位备选咨询师,其中一位是有行医执照的专业心理医师,另一位则由一个智能聊天软件来扮演。

无论咨询者本人还是观众,都不知道另一边究竟是人还是机器。

咨询师:还有别的吗?
咨询者:还有就是,心里面纠结。
咨询师:什么样的纠结?
咨询者:就是……很焦虑,脑子里想很多事情,每一件小事都想得很大,但又什么都不想做。
咨询师:不想做是因为怕做起来费劲吗?
咨询者:不是费劲,是……没劲。
咨询师:没有兴趣?
咨询者:对。吃饭、逛街、看电影……连这些都很没劲。

咨询师:听上去你确实有些抑郁。



每期节目长度为一小时。在播出过程中,观众可以随时联网,为咨询师投下赞成或反对的一票。这些投票将使咨询师的人气随之变化,人气过低的咨询师会被淘汰,再也无缘参加这个节目。


然而,没有人知道被淘汰的究竟是人还是机器。每一位咨询师都有完整的个人资料,出生日期、家庭环境、教育背景、工作经历,看起来毫无破绽。每期节目播出之后,网上都会冒出一大堆爆料帖子,抓住某些疑点吵得不可开交。如果某位网友自称是咨询师的大学同学,并且晒出毕业合影和聚会照片,下一秒就会有人跳出来,指出照片中存在某些造假痕迹。最终是真是假,永远扑朔迷离。

1997年,IBM研发的计算机Deep Blue战胜了国际象棋冠军卡斯帕罗夫。2011年,由IBM和美国德克萨斯大学联合研制的超级电脑Watson,在全美最受欢迎的智力竞猜电视节目《危险边缘》中击败两位人类选手。2017年,一部讲述智能语音机器玩具iTalk陪伴自闭症儿童的系列纪录片《让我们说说话》感动了全球亿万观众。2020年,由亚洲微软研究院和赛飞传媒共同策划的网络直播节目《心理游戏》,再一次引发有关人工智能的广泛讨论。


(一段参加节目的咨询者访谈)

采访者:最初为什么想到报名参加节目?
咨询者:主要是好奇吧。看了几期节目,觉得挺有意思,就报名试试看。
采访者:之前有接受过心理咨询吗?
咨询者:没有。有过这种想法,但没有真正去过。
采访者:是因为有压力吗?
咨询者:对。虽然这年头,怎么说来着,“没点心理问题出门都不好意思跟人打招呼”,但真要去看医生还是觉得怕怕的,好像不看没病,一看就真有病了似的。跟家里人也不好说,怕他们担心。
采访者:但是参加节目就没有这种压力?
咨询者:嗯……既然上节目嘛,就不要脸了。再说别人也看不见你的脸对吧?


1950年,数学家艾伦·图灵在一篇论文《计算机器与智能》中,提出了一种基于模仿原则的检验标准,来判断机器是否有可能具有像人一样的智能:

假想有一间密闭的小黑屋,里面坐着一个正常思维的人(B)和一台机器(A),房间外面还有第三个人(C),可以不断向房间里面的人提问,并通过打印在纸条上的文字来读取他们的回答。如果在若干轮询问之后,C不能根据回答来分辨A与B的不同,那么我们似乎应该承认,两者之间其实没有什么本质上的不同。

“图灵测试”的关键之处在于,究竟如何定义“思维/心智/意识/灵魂”,其实是一个很难说清楚的问题。因此图灵从一开始就绕开了“机器能思考吗?”而把它替换成另外一个更具操作性的问题:“机器能做我们这些思考者所做的事吗?”

然而,这两个问题真的可以相互替代吗?

譬如说,机器能够写诗,甚至比许多资质平庸的人写出的诗更像样子。如果我们人为拟定出一套标准,来为机器和人写的诗打分,那么完全有可能设计出一台能够赢过绝大多数诗人的作诗机器。但这和人类理解并欣赏一首诗真的是一回事吗?

采访者:所以在节目中还是跟平常的状态不太一样对吧?
咨询者:嗯……有点表演的感觉。
采访者:你的意思是,节目里的状态是演出来的?
咨询者:也没那么夸张。我的意思是,我一边在节目里讲我自己的事情,一边好像在旁边看着我自己一样,看看这个人到底是怎么了,到底什么原因想不开。特别是讲到一件伤心的事情——我以前从来没跟别人讲过,突然觉得,唉,这么惨的事,竟然还能在心里憋这么多年,真替他难过。结果我就哭起来,越哭越伤心。
采访者:对,我看到这一段了。
咨询者:本来没打算讲的,也没打算哭。完全是意外。
采访者:那哭出来有没有感觉好一点?
咨询者:哪有那么快的?医生不是说了吗,这只是开始,首先得学会面对情绪。
采访者:那你觉得医生对你说的话有帮助吗?
咨询者:我觉得他说的有一个东西挺有道理的:情绪不重要,情绪背后的想法才重要。
采访者:你怎么理解这句话?
咨询者:就比如我在节目讲的那件伤心事。每个人都有伤心的时候,对吧?但那时候我不允许自己伤心。大家都觉得,是爷们儿就得顶住,不行也得行。但内心里我其实一直没原谅自己。
采访者:这就是你说的情绪背后的想法?

咨询者:对,内心里我一直觉得自己不行,但又得假装自己行。所以直到现在,虽然别人看我样样都挺好,但还是经常觉得自己活得挺失败的。




在2013年的一次国际会议上,来自多伦多大学的计算机科学家赫科特·勒维克发表了一篇论文,对“图灵测试”提出了批评。他认为类似这样的人机博弈其实并不能真正反映AI的智能水平。对于AI来说,真正构成挑战的是这样的问题:


凯特对安娜说:‘谢谢’,因为她温暖的拥抱让她感觉好多了。”——是谁感觉好多了?


A、凯特
B、安娜

类似这样的问题,都是根据一种名为“代词回指”(anaphora)的语言现象设计的。要判断“她”究竟是指代谁,需要的不是语法书或者百科辞典,而是常识。AI如何能够理解一个人会在什么情况下对另一个人说“谢谢”,又如何能理解什么样的行为会让一个人“感觉好多了”?这些问题涉及到人类语言和社会交往的本质。恰恰是在这些方面,目前AI能够做到的事情还很有限。

这意味着,制造一台能与人类下棋的机器人很容易,但想要制造一台能理解人类语言的机器人却很难。

采访者:那你觉得这些问题能得到解决吗?
咨询者:医生说能解决,需要些时间。
采访者:所以还会想要做进一步咨询吗?
咨询者:会吧。说实话,我以前对心理咨询这个东西不太了解,内心里挺抵触的,感觉好像别人把你脑子拆开了放在那儿检查。但其实医生也没有超能力,你不说话他也不知道你想什么。
采访者:你的意识是,现在没有那么抵触了?
咨询者:稍微有点了解是怎么回事了。
采访者:所以参加节目还是有收获?
咨询者:是的,一开始也没想到。
采访者:能否问一句,下一次打算什么时候去咨询?
咨询者:已经约好了,每个星期谈一次,从下周二开始。
采访者:还是同一位医生?
咨询者:对,还是他。
采访者:面对面谈吗?
咨询者:视频谈话,跟节目里一样,不露真面目。我觉得这样子比较放松。


在心理咨询中,有时候需要咨询师置身事外扮演一个值得信赖的倾听者和陪伴者,有时候需要真正参与到问题情境中来;有时候需要运用理性解决问题,有时候需要处理情绪。
机器无法理解人类的情绪,但依然可以学会用某些方法来处理与情绪有关的问题,就好像不理解“什么是诗”的机器依然可以写出不错的诗来。从这个角度来说,机器确实可以胜任心理咨询的工作,因为心理咨询原本就建立在这样一种信念之上:人类的情绪可以被有效地处理。

然而有些时候,急于处理问题恰恰是造成问题的原因。以失眠为例,一个人失眠往往是因为太想睡觉了,当他去寻求心理咨询师的帮助时,恰恰是为了完成“想睡觉”这个心愿。机器可以告诉咨询者:“你失眠是因为太想睡觉了,慢慢来。”但想着“慢慢来”却并不能真正解决“太想睡所以睡不着”这个悖论,因为“慢慢来”说到底和“想睡觉”是一回事。

抑郁症也是如此。抑郁者往往苦恼于“我无法开心起来”,从而反复自省“究竟什么东西才能让我开心”,但这个问题的存在却让“开心起来”变成一项难以完成的任务。对抑郁者来说,“开心起来”与“无法开心”同样构成一个剪不断理还乱的死循环。没有因,也没有果,故而想要解决问题也就无从下手。

机器无法处理这样的悖论,习惯了机器思维的人类同样无法处理。但如果我们能够忘记这一思维悖论本身,忘记现象,忘记原因,忘记目标,忘记手段,忘记“睡不着”,忘记“开心”,甚至忘记“我”,那么整个死循环也就不复存在。

如禅宗里所说:“菩提本无树,明镜亦非台。本来无一物,何处惹尘埃?”

采访者:最后一个问题——你会担心对方有可能是一个人工智能吗?
咨询者:这个,怎么说呢……
采访者:我们不谈应不应该,就谈你的感觉。有没有感到过担心?
咨询者:要说担心,我觉得人不一定就比机器靠谱到哪里去,对吧?过去我们不相信无人驾驶,不相信机器能做饭,能给人看病开药,但现在还有人会觉得这是事儿吗?机器不会酒后驾驶,不会一时心情不好往你菜里吐口水,不会乱开高价药吃回扣。反正这些事情我是没担心过。
采访者:但是心理咨询不一样吧?
咨询者:我觉得没那么大差别。以前不是有人反对机器给人看病吗?说机器不能体会人的感觉,不知道什么是痛,什么是不舒服,但事实证明这其实并没有什么影响。心理咨询也是看病嘛,一样有一套方法,只要能把人看好就行了。而且说实话,一个大活人,自己也是有七情六欲的,每天听你讲一堆糟心事情,听得他自己心里不痛快了怎么办?有时候想想也觉得挺不人道的。
采访者:所以你的意思是,全部交给人工智能也许更好?
咨询者:要看哪个效果更好吧。我相信技术是不断向前发展的,也许将来都是迟早的事情。


也许问题的关键在于,在技术飞速发展的时代,我们必须不断甄别和判断,究竟哪些事情必须由人类来做,而哪些原本以为非人类不可的工作,机器其实同样可以胜任,甚至做得更好。在这样一个过程中,我们或许会感到,自己身为人类的尊严感正遭到持续不断的瓦解。我们会发现,在许多场合,人对于人来说其实都不是必需的。

这会让我们焦虑不安,灰心丧气,甚至压抑绝望,但也同时逼迫我们思考,究竟人对人而言意味着什么?就好像每一次心理咨询过程中,对于自身情绪和想法的挖掘,都可以成为我们更深入了解自我的宝贵契机。

迄今为止,机器依旧未能回答“人是什么”这个最为古老的命题,这意味着我们仍需要不断回转身,去面对那句两千多年前流传下来的神谕:

γνῶθι σεαυτόν (认识你自己)


<完>
初稿于 2015年4月

修改于 2015年7月


本文原载于2015年第9期《知识就是力量》,作者授权海螺社区发表。未经许可,请勿转载。
本期编辑
胡红英