林生斌事件中,人脑跟不上时代

这两天林生斌的事情又热闹了起来,原因是杭州警方公布了调查结果,林生斌本人并未参与谋杀案,涉及税务和诈捐的部分还在调查,现在只能说他和凶杀案关系不大,事情也还没完全结束。

然后大家炒成了一团,说啥的都有,如果仔细观察,会发现人和人之间的思维差异以及逻辑差异已经大到没边了。

这让我我隐约发现了一个非常魔幻的事实:

人脑,已经跟不上这个时代了。

在人工智能训练的时候有时会出现一种现象:

当系统接受大量数据而储存能力跟不上的时候,一部分数据就会在传输中丢包,如果丢包变成常态,这些不完整的数据被拿来训练,会影响模型效果。

这种情况主要是因为数据量级不断攀升超过了硬件性能上限而导致的,为了应对这种情况需要不断升级硬件,让硬件能跟上暴涨的信息量。

人工智能的训练方式,和人脑有一定的相似性。

人脑也是从小就开始进行训练,通过接受信息,处理信息,总结出一些生存法则,进而建立完善的思考模型。

人活在这世界上,其实就像一个一直在接受训练的AI。

过去,人一生能接收到的信息是极为有限的,这些信息不但数量少,而且存在大量重复。

人拥有大量的时间来思考,反复处理脑内积累的信息,通过这些信息探索更本质的规律,还有大量同类型事件给你试验之前得出的结论对不对,可以反复矫正自己的答案。

又因为物理空间的限制,人想要寻找“知己”、“同好”并不是一件容易的事,这就让人不得不活在复杂的信息空间中,对自己的世界建模进行不断调整。

即使如此,在严格封闭的空间内依然会导致人变得越来越固执,就好像数百年前很多人不管怎么解释都不能理解世界是圆的一样,因为他的大脑经过几十年的模型训练,已经有一套自我运转完善的世界观,你颠覆他的世界观,等于让他重新训练模型,这个成本太大了,人会本能的抵触。

但是在现代,这种情况出现了变异:

信息时代带来了过量的信息,这些信息一刻不停的冲刷着我们的大脑,让我们没有时间进行深度思考。

这些过量的浅层信息大量出现,而人必须要从这些浅层信息中找到一套应对策略,不然就没有办法生活下去。

这时候,如果对某一件事,进行长期的、仔细的观察确认,去和人好好沟通,从多个角度分析一件事情的真相再给出结论,这效率太低了,根本应对不了这个信息暴增的时代。

这时候,人们就会选择预设一大堆结论,通过这些结论来处理问题。

只要看到了一些关键点,就立刻在脑中调出相关的结论,然后按照处理这个结论的流程来处理问题。

你觉得这像什么?

人肉AI。

这就是现在互联网上经常出现一些看到某话题就激动的出来演复读机,以至于被人嘲讽是AI的人的原因。

因为他们真的就像是一个被训练好了的AI一样,在按照关键字检索呼出脑内的解决方案。

放弃了沟通,将一切简单化,标签化,流程化,让自己成为了一个只会对关键词起反应的机器。

这就是现代人面对信息时代演化出的新应对策略。

这种现象早就已经有苗头,那就是所谓的饭圈。

这几年大家应该都有种感觉,就是饭圈越来越多了,万物皆可饭圈。

这不是一种错觉,因为饭圈的本质,就是一种信息茧房。

人非常容易受到环境影响,哪怕一个人再怎么自吹自己意志坚定都抵挡不住氛围夜以继日的改造,而饭圈,就是通过一大批同类互相肯定,营造一个封闭的信息空间,大家发现身边和自己相似的人这么多,就会放下心来,认为自己的行为并没有错,这在心理学上叫做从众效应

每个人都在寻求自己内心的合理性,而这些圈子,这些饭圈,通过构建一套能够自洽的,能够说服自己的话术体系,成功制造了一个完全合理的无敌语境。

如果你对邪教的运作模式有概念的话,会发现这一套和邪教并没有什么区别。

邪教的关键点,同样是人为制造和大环境的割裂,通过一套自洽的话术体系,将信徒封锁在一个无法接收到外界信息,将所有外界信息都视为愚蠢,视为异端,视为迫害的大茧房里。

但现在奇怪的地方出现了。

那就是,这些圈子,没有教主。

事实上,现在很多圈子,包括并不局限于汉服圈、动画圈、手机饭圈、明星粉圈,字母圈等等等等等等等,根本就没有一个教主,没有一套通行的教义在指导他们。

大部分的圈子演化的过程看起来非常滑稽。

一开始是一群先来的“老资格”尝试通过树立规矩来建立壁垒,让后来的新人崇拜自己,就这样建立了圈子内部审判净化的风气。

一些新人混熟了之后,想要找点存在感,于是再提出一个规矩,说服身边的人这规矩是必须的,被传教的人生怕自己落后,于是跟着附和这些规矩,于是一条新的规矩出现了。

接着这个过程经过反复,最后就出现了一大堆他们圈子内部必须严格遵守的教义。

而他们会对这些教义的存在毫不怀疑,因为他们已经在这种教义环绕的信息茧房里活了太久了。

甚至会产生所有人都应该顺从他们教义的想法,类似什么“不上升到正主”、“不喷颜”,都是小圈子私相约定,却以为是世界公理的规矩。

但是回头看最开始那个刷爆所有人,让大家都认同的规矩,或许只是心血来潮的一段话。

脑子一抽,定个规矩,假装自己是个人上人了,结果回头又被别人拍脑门定下的规矩绑架。

这个巨大的信息茧房不但封闭了大家的信息,还开始不断回弹,不断自我压缩,为自己树立壁垒。

结果就形成了一种奇怪的东西,一群遵守着信条,谁都不敢违背教义的教徒,在没有神和教主的情况下自发的遵守戒律,四处征伐。

我们再回头看,林生斌这事儿从一开始的道德翻车问题被逐渐上升到全民公敌加杀人嫌疑人的过程。

在刚开始的时候,大家的共识都是他是渣男,但很快,事情就开始逐渐奇怪。

大家是不是隔三差五就能在网上看到各种转发的信息,各种看似有理有据的线索,各种阴谋论,各种内部人士的解读,甚至神棍讲封建迷信,我们所有人都在这样一个茧房里被不断训练,进而不断强化林生斌人间恶魔的认知。

很多人根本就不知道到底发生了什么,也没有耐心去知道,甚至等警方通报都没有耐心,出现了问题,立刻寻找敌人,贴上标签,将一切套入自己能理解的话术体系,然后开干。

这像不像是一种被训练好的模型?

著名游戏《瘟疫公司》曾经出过一个特别的模式,谣言。

这个模式下,玩家不再传播病毒,而是在世界上传播谣言,让所有人都相信你一时兴起胡编出来的瞎话。

这个模式的寓意很简单:谣言和病毒一样可怕。

美国一向就有邪教和谣言的文化,光明会、蜥蜴人等著名脑洞都是美国土产的谣言。

疫情开始的时候,美国的谣言文化就立了大功,相当多的人不肯戴口罩,相信口罩上的金属片是监视器,认为疫情是假的,是政府要控制人的阴谋,这个地球上最强大的国家竟然被谣言弄到无可奈何,这就是信息茧房回弹的恐怖。

而现在,我们面临着相同的问题,谣言加上互联网的信息茧房,在不停的制作完全剥离主流的小圈子,这些小圈子和过去的亚文化,那些附属于主流的非主流完全不同的地方在于,他们全都自以为自己才是主流。

当这样的小圈子越来越多,我们将面对的会是怎样的一个世界?

也许人的大脑真的已经不适应这个时代了,这个赛博的未来也许会像《机器人瓦力》里一样,变成一条自主远航的船,载着船上不知道自己要去哪的主人走向深空。

一个很恐怖的事实是,我们可能正在被人工智能驯化。

过去科幻作品曾经设想过很多机器人觉醒自主意识于是决定反杀人类这样的段子,但从现在的趋势看来,根本用不上强人工智能出场,分发算法就已经可以控制人类。

我们现在所有的信息都在通过人工智能筛选、过滤,人工智能为我们营造了一个又一个安全的信息茧房,让我们坚信世界只有这么大。

而它们悄悄的讲那些你“感兴趣”的内容反复推送,让你的大脑在同类信息的冲击下过载,逐渐将一个原本与自己无关,只是“感兴趣”的内容转化为“社会常识”。

心理学上有一个理论,叫“多看效应”,就是当你一直接受某个产品的信息,哪怕你对它的态度是嫌恶的,在需要作出选择的时候,你也大概率会选择这个产品。

当AI有意无意的将大量同类信息推送到我们的视野中的时候,无形间在引导我们的认知。

到后来,我们的脑子,我们的理性已经在告诉我们这些不对劲,这样的世界有问题,但我们的潜意识,我们的本能却控制着我们对一些关键字产生条件反射,在特定场景做出毫无理性的判断。

就像一群只要点下开始按钮就会自动开始输出的AI。

说到这里,或许我这篇文章也是如此。

我并不特殊,一样可怜,又悲哀。

———————–

文章转载与公众号: 半佛仙人

本站(自由幺幺@)文章来源自网络及用户投稿,如转载请注明出处:http://www.ziyou11.com/17100.htmll;

本站发布的内容若侵犯到您的权益,请邮件联系 764969235@qq.com 删除,我们将及时处理!

=========================================

本站资源仅供学习和交流使用,版权归资源原作者所有,请在下载后24小时之内自觉删除。

若作商业用途,请购买正版,由于未及时购买和付费发生的侵权行为,与本站无关。