我们正处于人类历史上一个值得铭记的时间点,
不甘被自身肉体和头脑所局限,我们正在指导那些可以通过我们无法想象的方式,来拓展人类体验的机器,它们精美、优雅、复杂。
一般情况下,在航天器飞往月球的时候我们依靠地球的指挥中心就可以密切关注飞行的各个方面。但是火星相比而言,多出了200倍的距离。这使得一个信号从地球到火星就需要13分钟,所以如果在火星上的航天器出现任何事故,地球上的指挥中心是不可能立刻做出反应的。所以在工程学上,只能把指挥中心放在“猎户座”飞船之中。或者说,在人类登陆火星之前,先发射一批机器人在火星建立人类据点。这些需求从工程学分析,就需要一个非常聪明、懂得合作、擅长社交的人工智能系统。
真的有可能制造出人工智能么?答案是肯定的。在许多方面,一个困难的工程问题来自于AI的各个零件,而不是什么琐碎的AI问题,借用图灵的话说“我没有兴趣建造一台有情感的机器。”人类只需要一个简单的大脑,一个能让你以为它有智能的东西。
我们真的有可能,用一个连接了无数设备的系统,通过读取数据流,来预测它们的失败并提前运动么?可以!我们能建造一个和人类用语言交流的系统么?可以!我们能够打造一个能辨识目标,鉴别情绪,表现自身情感,打游戏,甚至读唇的系统么?可以!我们可以建造一个能设定不目标,通过各种达成目的的方法来学习的系统么?可以!我们能建立一个类似人脑的系统么?人类现在正在做。我们能建立一个有道德和情感基础的系统么?这是我们必须要学习的。
我们应该害怕它吗?
毕竟每一种新技术,都给我们带来某种程度的不安。但也是正因为这些技术,给人类的生活在某些方面,带来了前所未有的体验。不要畏惧这些所谓的超级人工智能,因为它们终将会融入我们生活的部分价值观。建造一个认知系统,与建造一个以传统的软件为的系统有着本质的不同。我们不编译它们,我们教导它们。为了制造这些机器,我们正在教给它们我们的价值观。正因如此,一个好的人工智能绝不逊于一个经过良好训练的人类。并且制造这样一个系统,需要大量的资金和资源,所以并不用担心人工智能落入反社会的变态中。
在哲学家Nick Bostrom写的《超级智能》中,他观察到超级智能不仅仅危险,还对所有人类的存在造成了威胁。Bostrom博士的观点是,当人工智能产生对信息的无止境渴求,他们就会开始学习,并且最终发现他们的目的,和人类的需求背道而驰。但是要知道,全知并非全能,这完全是杞人忧天。
我们正处于和机器共同进化的时代,未来的人类与今天的人类大相径庭。当前对人工智能的担忧,从各方面来说都是一个危险的错误指引。