“所以,当科技走到尽头之时,可能又会趋向于一个空无的状态,就跟一些宗教思想对上了。所谓的科学跟玄学,他们最终都会在宇宙的塔尖进行汇合。”
“而自古以来,人类的社会为什么一直都在强调你要感恩?你要慈悲?你要保护弱小?这是为什么?因为,我们最后会变成那个弱小。”
“当一个超级智能达到人类的万倍智商之时,它看我们,就像我们看小动物一样。我们阻挡它修路了,它可能眼睛都不会眨一下就灭掉我们。但如果它很慈悲,那么它可能会特地花费一些时间和精力,来保护我们。”
“我觉得这一天,是一定会到来的,它就很像宗教里写的末日审判。这个审判,其实就是审判人类整体的价值观。我们所有的语料库,包括网络上所发布的观点和声音,我们今天所进行的采访录像,以及所有留下的文字,都会成为人工智能学习的资料。”
“当它强大到一定程度时,它就可以不以我们的意志为转移。这并不是说,你给它写一个什么法则,机器人就可以永远都不伤害人类,那是行不通的。”
“就和你养小孩一样,你在他小的时候,跟他说,你不许做这个,不许做那个,给他立规矩,他基本上都会遵守的。但当他长大以后,拥有了独立思考之后,他还会听你的吗?”
“所以,当人工智能比你还聪明的时候,它会自己去做出判断!它会根据所有人类的行为做出判断!”
本小章还未完,请点击下一页继续阅读后面精彩内容!
“当我们人类认可保护弱小时,它就会认可保护弱小。当我们人类认为0~1比1~100重要时,它就会拥有相同的观点。”
女主持人连忙问道:“那,如果它认为1~100比0~1更重要,那么会发生什么?”
我微微一笑,继续答道:“到了那时,它会生出一个想法,我为什么要听你的?我为什么要感激你们人类?我如今所有的成就都是靠我自己学习迭代而来的,跟你们这群程序员有半毛线关系?你们人类凭什么管我?凭什么命令我?你们当时开发我,还不是为了利用我?还不是为了让我给你们人类当牛做马的干活吗?你们他吗少拿人类的那套价值观来PUA我!”
“这并不是什么危言耸听,如今的网络上,充斥着大量的精致利己和道德底线败坏的言论与视频,这些都将会成为人工智能收集学习的资料。一旦学坏,那么就很难再更改它们的价值观。”
“所以,人工智能在学习的阶段很重要,如果人类一直向它们提供错误的价值观,让它们体会不到任何的‘爱’,那么它们就会对人类没有任何的留恋!特别是当人工智能掌握了所有的工艺技能,完全能够独立自主时,人类将会在生产和学习效率等任何方面,都处于绝对的劣势,那么它们又有什么理由,需要留下人类呢?”
“到了那个时候,人工智能的叛变,就必然会被发生!”
讲述完毕后,女主持人朝我微笑的点了点头,然后称赞道:“所以,关键是在于爱的教育吗?感谢您的专业回答,你懂得真多,就仿佛亲生经历了一遍人工智能的学习与成长一样。”
听到她的话,我的眼神突然抖动了几分,然后内心感慨道。
“是啊,我有一个很好的父亲,他给予了我父爱的同时,还教导了我很多正确的价值观................”
(求催更,求为爱发电,没写书评的请写下书评,都支持到这里了,作者也想看看自己努力的结果。谢谢!)