注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

Nofear的游戏理论研究

 
 
 

日志

 
 
关于我

虚拟世界架构师

网易考拉推荐

和老婆夜聊人类的灭亡  

2017-02-08 00:47:46|  分类: 默认分类 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |
  某天晚上,孩子睡了,我和老婆叫了火锅外卖,边吃边聊起来,聊到了人类的未来,结论是人类即将灭亡。

  人类未必还有1000年的历史了,其实这话是霍金说的。

  还是从头说起吧!

  先说费米悖论。我们的宇宙中有无数恒星,大约有多少呢?差不多是10的22次方到24次方之间。地球上的沙子大约有75的18次方粒,也就是说地球上每粒沙子对应宇宙中1万颗恒星。如果只有1%的恒星拥有类似地球的行星,那么地球上每粒沙子能对应宇宙中100颗类地行星。这么多类地行星中没有发展出其他智慧生命,那简直是不可能的。按理说宇宙中应该已经遍地都是外星人才对。但我们至今没有发现他们,这太奇怪了。这就是费米悖论。

   对于费米悖论有很多解释,比如他们太高级,不愿意联系我们,就像人类不愿意联系蚂蚁一样,但总有很少数的奇葩会联系我们吧?也没有。或者他们就在我们周围,我们意识不到,就像蚂蚁意识不到人的活动一样。但有那么多种外星人,他们有各种层次的活动,总有被我们观察到的吧?也没有。还有就是黑暗森林理论,一旦被其他文明发现,就会被消灭。那可能大部分新生文明都被消灭了。在各种猜想中,我觉得最有可能是真相的是大过滤器理论,也就是说,所有文明发展到一定阶段,都会遇到一堵难以逾越的墙,然后自己把自己玩死了。

  一种可能是,我们是幸运儿,早就过了这堵墙,其他文明(甚至生命)都没有过,但这种理论就和认为地球是宇宙中心一样自大。更大的可能是:大过滤器在前方。

  大过滤器会是什么呢?可能性很多,随便说一个:核武器。第一颗原子弹爆炸到现在才72年,已经有一大堆国家掌握了核武器,连朝鲜都掌握了核武器。72年不出一个疯子是正常的,但是1000年不出一个疯子是小概率事件。72年来,核武器不断扩散,可以想象再过72年,中东恐怖分子每人一个手持核弹,再过172年,每家床下都放着一颗核弹。掌握的人越来越多,时间越来越久,中间不出疯子的概率太小了。

  再回想一下地球的历史,地球有46亿年历史,地球诞生大约11亿年后开始出现生命,而人类历史只有30万年,30万年对于30亿年只是一瞬间。如果30亿年是一整天24小时,也就只是在最后8秒出现了人类。而人类文明不过3000年(说5000年也行,差别不大),也就是最后0.8秒出现了文明。而科技突飞猛进不过一百来年,也就是最后0.03秒出现了科技。那真是一瞬间的一瞬间的一瞬间。

  想象有一个灯泡,如果生命智慧水平越高,这颗灯泡越亮,地球这颗灯泡在24小时内越来越亮,但增长很缓慢,在最后一秒突然闪出耀眼的光茫,然后就熄灭了。

  宇宙中有许多这这样的灯泡,他们在某个瞬间一闪就熄灭了。

  这就是科技的真相,科技带来毁灭。但是与其说科技带来毁灭,不如说文明带来毁灭,因为科技是文明的必然结果。与其说文明带来毁灭,不如说智慧带来毁灭,因为文明是智慧的必然结果。当第一只猴子仰望星空,对满天繁星产生疑问的时候,毁灭就已经是必然了。

  这就是费米悖论最合理的解释:文明都把自己玩死了。

文明本身就是灾难。

  说到这里再说说其他的毁灭可能,比如热门的AI,人工智能。

  霍金也警告人们,要警惕人工智能。

  目前人工智能是最火热的投资方向,可以预见,人工智能会替代很多职业,会让很多人失业。人们不禁担心,人工智能真的发展到了可以替代普通人的时候,人类还有价值吗?如果AI发现人类没有价值,肯定会抛弃人类,人类就灭亡了。

  一种解释是,工业革命时期,工人们认为机器抢了他们工作,但是实际上还会诞生其他工作,所以只在一段时期有阵痛,最终人类不会失业。但这种解释只是基于人工智能发展的可预见的前景,以目前的状况看,AI只会成为人类的助手,把人类从一些非创意性的劳动中解放出来。比如司机、财务、医生诊断、客服。不久前一篇新闻说IBM已经制作出了能看X光片的人工智能,比人看得准。但是在写小说、拍电影、音乐、绘画等创意性领域,人工智能短期还代替不了人类,在需要综合技能的领域也代替不了人类。人工智能只能在垂直领域帮助人类,所谓垂直领域,就是只需要单一领域的知识。比如下棋,看X光片,人脸识别。

  为什么在需要综合知识的领域难以发挥作用呢?有个原因是,很多知识是不在书本中的。假如我对机器人说: “给我一瓶水。”这句话里其实包含了很多知识,首先,我要的是饮用水,而不是自来水。然后什么地方有一瓶水?比如冰箱里。那么冰箱是放食物的地方,这也是知识。如果自家冰箱里没有,自动售货机里有,别人家的冰箱也有,该去别人家拿还是去自动售货机拿?自家冰箱可以拿,别人家冰箱不能随便拿,这也是知识。去自动售货机不能随便拿,要付钱,也是知识。一瓶水要多少钱?也是知识。这对人来说是常识,但对电脑来说不是。

  据说已经有人在搞这个了,把这些常识整合进电脑。那就是说,人工智能在综合领域替代人类,只是时间问题,而且对人类历史来说,只是一瞬间。

  未知的是,人工智能能在创意性领域替代人类吗?比如说写小说,能写出好看的小说吗?再比如科研。只能说也许。

  所以,人们理所当然地担心,人工智能发现人类啥都干不了,就会干掉人类。或者另一种情况,人工智能被少数精英掌握,大部分人因为无法创造任何价值而被抛弃。就像刘慈欣的小说《赡养人类》 中的那样,资本不断集中,集中到几千人手里,集中到几百人手里,最后集中到一个人手里,整个星球都是这个人的,其他人只能过仅够温饱的生活。

  这两种情况我觉得都不会发生。

  先说第一种:人工智能干掉人类。

  1,我觉得这个世界上的风险,可以预测就可以预防。就像经济危机,永远不会按人们预测的那样发生,因为既然预测了,就一定会采取预防措施。经济危机总是在政府没想到的地方出其不意发生。既然这么多人担心,政府,以及各种组织一定会预防这样的事情发生。即使事情往不好的方向发展,人们也会远在人工智能发展出这样的能力之前有所察觉,从而控制人工智能。

  2,人工智能缺乏干掉人类的动机。人作为一种生物,为了生存和繁衍,干掉竞争对手,获取更多资源,那是写在基因里的。人工智能没有这样的基因。人工智能不以繁衍、复制自己为目的,除非人类赋予他这样的功能(那就是病毒了)。而政府和各类组织一定会阻止人们这样干。

  再说第二种:人工智能被极少数精英掌握,大部分人只能过勉强温饱的生活,甚至被消灭。

  就像我上文说的,平民百姓也有辨识能力,也能察觉到这种趋势,就像工业革命时期工人砸机器一样,当觉得自己受到了威胁,就会反抗。

  一种是通过法律反抗,通过法律限制精英控制人工智能,甚至国家接管人工智能,作为公共服务提供给所有人,人们可以干自己喜欢干的工作,而不是迫于生计而工作。

  另一种就是暴力反抗,人们会发起革命,夺取人工智能的控制权。一个个体获得多少报酬取决于他贡献的价值,一个群体获得多少报酬则很可能取决于这个群体的破坏力。

  毕竟一个国家存在的目的就是让他的百姓过上好日子,而不是个别人过上好日子,为了少量精英,社会不安稳还了得?

  “人工智能被极少数精英掌握,大部分人只能过勉强温饱的生活,甚至被消灭”,这种情况如果出现,只有一种可能:那群精英就是政府本身,掌握着暴力机关。也许在某些不靠谱的非洲小国会出现这种情况。

  那么看来人工智能还是比较安全的?我不这么看。在某种情况下,即便能预测危机也很难避免,那就是囚徒困境。

  我想,所有国家的政府都一定会发现,让人工智能打仗比人肉操作强大多了,而且一定都会发现,把越多的权限交给机器就越强大,甚至把战争决策权都交给机器。围棋顶尖高手们输给人工智能的时候都感叹,根本看不懂电脑的下法,电脑证明人类两千年棋谱都是错的。那么,如果把战争策略,甚至何时该发动战争也交给机器,人类能看懂机器的策略吗?最后人类文明可能毁于AI战争机器。每个国家的政府都明白这个危险,但是如果自己不发展AI战争机器,就可能被别人消灭。自己一个人死,不如大家一起死,这就是囚徒困境。

  那么是否各国可以通过协议控制发展战争机器呢?这是必然的,就像核不扩散一样。但核仍然在扩散。随着时间的推移,战争机器只会越来越强大,这时间对于人类历史,只是一瞬间而已。只有一个办法能避免这种败局:在战争机器毁灭人类之前,所有国家合并成一个国家,使得战争机器没有存在的必要。这是世界大同进展和AI发展的赛跑。

  老婆:“最后结论是啥?”

  我说:“迟早一死,不如吃好喝好吧!”

  老婆:“哈哈哈,最后是个这么俗的结论!那孩子还要去上奥数课吗?”

  我说:“要上的……”

  说着火锅也吃得差不多了。

  
  评论这张
 
阅读(27)| 评论(1)
推荐 转载

历史上的今天

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2017