赵勇:我感觉到历史上有一个类似的讨论,当科学家几十年前发明核弹的时候也在想这个东西给人类带来的是什么,这么厉害的武器在历史上起了非常大的作用至少帮我们结束了二次大战。这项技术强大的时候它是好还是坏,还是取决于人类怎么用它。此时此刻我们到底到了那个阶段?我们到了一个可以创造我们特别担心的一个人工智能来产生很大的破坏力吗?《起点的临近》预测2045年AI智能将会超过人的智能,到那个时候这个世界会产生很大的变化。你们对它的预测怎么看?
余凯:大家记得他曾经做过一些对于人工合成的技术,我是非常尊重他的,但是我们有一些不同的意见,我们讲到AI讲到人工智能的时候这个定义是不断变化的,我们可以做很快的算术。现在不是你2开一个平方,1.69,然后有很多点。如果你能记住的话你就聪明,不是这样的。现在是讲自驾车非常聪明的,但是实际上并非如此。我有两个证据,第一个我们只有两个往前看的眼睛。对于人工自动驾驶的车它们有各种方向的摄象头、有传感器,它们肯定开的比我们好,只是说能力比我们好,它们可以开的比我们快,但是并没有比我们聪明。另外一个证据是飞机,飞机里已经有自动驾驶,三十年前就有了。我觉得这个是对于飞行员来说比较方便的一个发明,而且可能也比驾车要难,但是没有人说自动驾驶技术比飞行员要聪明,所谓的AI今天都是一些产品跨的,没有一个真正的一般性的泛化的功能。什么叫做意识,就是我知道我做的事情,对于他人对我做事情思考的一个理解,还有我知道他人在想我在想他们在做什么事情,所以这个就是一个意识的问题,这个意识它必须是完整的,你可以给机器编程,但是意识是一套一揽子出来的,不是说给它一部分。没有任何的研究在做这方面前瞻性的研究,我觉得四五年要来还是太早,不可能这个点来。
赵勇:这个领域真正每天做AI工作的人没有那么乐观,制造有完全意识的机器人。我想问一下余凯博士,因为百度也在进行一项规程叫百度大脑。从一些媒体上看到你们接近于实现一个两三岁人智能AI的情况。我有一个女儿20个月,她两岁不到不止猜到我想做什么,也猜到我想让她做什么。我每天看她不断长大我很镇静我在这个领域的渺小。你们现在进展到什么程度?你真的这么有自信吗?
余凯:从科学家的角度来讲我需要更加谨慎一下,对于我的发言对于人工智能的表态我需要谨慎一点。我也想回到刚才的问题上,我们对于人工智能应该乐观还是悲观。我觉得有一些基本性的,有的是可以支撑我的乐观的。我觉得人工智能对于人类社会可以有大贡献的话有很大的好处,没有必要强调它带来一些风险和威胁。现在我觉得人工智能刚刚处于起步发展的阶段,还远远不够先进。我的一个百度科学家同事说:人工智能威胁的话好像担心火星上有太多的人。担心有一天火星上人满为患,这是一个太早不切实际的一个担心,现在的技术还是很早期的stage。
第二个根本性的原因是我跟洪小文是完全同意的,没有任何这样的证据、计算模式好像就能产生情感,我们不能对此进行动模。比如说好奇心,好奇心是人类可以说推动知识发展一个最根本的驱动。去探索未知世界,去建立新的体系。
赵勇:我们经常问,他们做AI的会不会毁了我们,对不起我们不知道该怎么回答了,我们还挺弱的,我们一点一点把这个世界改进。他们认为给他们五年时间如果有一个曼哈顿计划的话他就会造出这样的机器,Ben GOERTZEL你怎么看?
Ben GOERTZEL:有关证据的问题我是科学家我很同意,未来我们能做什么没有充分的证据。那时候公司都能做大型机,那时候预测没有人会买大型机,这么大的机器有什么用呀?不可能放到口袋里。但是十年以后所有人都有计算机。
赵勇:我们看到几位科学家进入吵架的状态。我觉得这不仅是技术的问题。好的,我们听一下搞商务的人听一下他们的意见,你觉得作为一个工具作为一个技术,你认为人会把工具变成可怕的东西吗?
Yossi:我们以色列也一个著名的科学家,他研究的领域是对人脑进行了一毫米一毫米的分析,然后做了模拟。一个立方毫米里头有三公里纤维长,还有很多在计算机里进行模拟,我们对这些行为进行模拟。他说我们远远没有达到这样的一个程度,现在远远没到那个时候,可能需要50年的时间让机器人主动给人献玫瑰花,这个需要很长的时间。首先你告诉他为什么是非常漂亮的,应该拿着线的。现在我们讲增强型的人工智能、植入型的人工智能,但是我觉得比如说计算机成为一个心理科学家提供一些咨询的服务,我觉得这个不太可能,或者是很远以后的事情。而且如果人工智能太强大的话会出现很多黑客的行为。技术威力越大,也有很大的收益,当然风险也是很大的。如果它落入坏人的手里头或者是有一些恶意想法的政府他可能会利用这样的人工智能。这样会带来很大的风险。
Ken:我觉得确实很难预测,因为不可能像摩尔定律说的芯片组上半导体的数量会翻一番,现行的推测不可能。但是如果真的实现突破,也不会达到人工智能的一个底线,在纳米技术以后人工智能会提高几百万倍,所以我觉得这项技术非常难。另一方面确实每一个新的技术带来一些新的道德问题,我觉得社会呀更加关注道德方面的影响,价值观非常追求,因为你知道道德观价值观比发展技术更长的时间。
赵勇:技术还没到那一天,但是我们要讨论它的道德问题。虽然我们技术很原始,但是它用在有可能对我们造成危害的领域,比如说军事领域甚至是恐怖主义,他们掌握这项技术会产生什么后果?我们发展这项技术的时候是不是应该建立一套道德行为的标准来引导科学或者是技术的工作?
洪小文:确实我们需要政策、道德、框架,比如说我们发明了刀割肉割菜,建飞机来使我们的旅行速度增快,人的行为是关键,但是总的来说我非常乐观,首先我们有几千年的历史,第二个人类和人类的道德将会获胜。比如说网络空间怎么样解决,我们有一套做法。我觉得有的时候不要想的太多,什么事情都放在人工智能。
Yossi:卢梭几百年前推出的理论他们写了一篇文章,讲到愚蠢的好处。除了聪明人以外我们也有很多笨的人,比如说爱因斯坦曾经说过,宇宙和人的愚蠢性这两个是无限的,而且对第一类有点怀疑,人的愚蠢是无限的,所以我们要记住他说的话。
责编:贾雯帆