人工智能发展或存在瓶颈

  一个有着和人一样思考水平的机器,同时有着比人快无数倍的思考速度以及几乎无限的记忆空间,这台机器在知识理解上能达到什么样的境界?这样的机器几乎比人类所有科学家都厉害!

人工智能发展或存在瓶颈

  蒂姆·厄班的推理足以让每个读者惊出一身冷汗:“一个人工智能系统花了几十年时间达到了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个4岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。”

  也就是说,一个具备了人类水平认知能力和学习能力的机器,可以借助比人类强大得多的计算资源、网络资源甚至互联网知识库以及永不疲倦、不需要吃饭睡觉的特点,无休止地学习、迭代下去,并在令人吃惊的极短时间内,完成从强人工智能到超人工智能的跃迁!

  那么,超人工智能出现之后呢?比人类聪明好几万倍的机器将会做些什么?机器是不是可以轻易发明足以制服所有人类的超级武器?机器必将超越人类成为这个地球的主宰?机器将把人类变成它们的奴隶或工具,还是会将人类圈养在动物园里供机器“参观”?那个时候,机器真的还需要我们人类吗?

  逻辑上,我基本认可蒂姆·厄班有关强人工智能一旦出现,就可能迅速转变为超人工智能的判断。而且,一旦超人工智能出现,人类的命运是难以预料的,这就像美洲的原始土著根本无法预料科技先进的欧洲殖民者到底会对他们做些什么一样简单。

  但是,蒂姆·厄班的理论有一个非常关键的前提条件,就是上述有关强人工智能和超人工智能发展的讨论是建立在人类科技总是以加速度形式跃进的基础上的。那么,这个前提条件真的在所有情形下都成立吗?

  我觉得,一种更有可能出现的情况是:特定的科技如人工智能,在一段时间的加速发展后,会遇到某些难以逾越的技术瓶颈。

  有关计算机芯片性能的摩尔定律(价格不变时,集成电路上可容纳的元器件数目每隔18到24个月便会增加一倍,性能也将提升一倍)就是一个技术发展遭遇瓶颈的很好例子。计算机芯片的处理速度,曾在1975年到2012年的数十年间保持稳定的增长趋势,却在2013年前后显著放缓。2015年,连提出摩尔定律的高登·摩尔(Gordon Moore)本人都说:“我猜我可以看见摩尔定律会在大约10年内失效,但这并不是一件令人吃惊的事。”

  正如原本受摩尔定律左右的芯片性能发展已遭遇技术瓶颈那样,人工智能在从弱人工智能发展到强人工智能的道路上,未必就是一帆风顺的。从技术角度说,弱人工智能与强人工智能之间的鸿沟可能远比我们目前所能想象的要大得多。而且,最重要的是,由于基础科学(如物理学和生物学)尚缺乏对人类智慧和意识的精确描述,从弱人工智能发展到强人工智能,其间有很大概率存在难以在短期内解决的技术难题。

  如果蒂姆·厄班所预言的技术加速发展规律无法与人工智能的长期发展趋势相吻合,由这一规律推导出的,超人工智能在可见的近未来即将降临的结论也就难以成立了。

  当然,这只是我个人的判断。今天,学者们对超人工智能何时到来的问题众说纷纭。悲观者认为技术加速发展的趋势无法改变,超越人类智能的机器将在不远的将来得以实现,那时的人类将面临生死存亡的重大考验。而乐观主义者则更愿意相信,人工智能在未来相当长的一个历史时期都只是人类的工具,很难突破超人工智能的门槛。

澳博机器人微信公众号
扫一扫
分享到朋友圈
或者
手机上继续看