通信科技/NEWS CENTER

一名AI研究者的恐惧:人工智能可能让我遗臭万年

发布时间:2017-12-30

  对AI研究者的恐惧:人工智能会让我发臭多年

  作为人工智能的研究者,我经常想到人类对于人工智能的恐惧,但是现在我很难想象,我发展出来的电脑怎么会成为未来的怪物,有时候就像奥本海默在建造世界上第一颗核弹头的过程中,我不知道自己是否也会成为世界的破坏。我想我会在历史上成名,但这是臭名昭着的重大事件。作为AI科学家,我担心什么?对科幻小说作家亚瑟·克拉克(Arthur Clarke)构思的电脑最终由电影导演斯坦利·库布里克(Stanley Kubrick)所作的电脑恐怕是未知的HAL 9000,就是一个很好的例子。在诸如泰坦尼克号,NASA航天飞机,切尔诺贝利核电站等许多复杂系统中,工程师们将许多不同的部件放在一起。设计师可能非常清楚每个元素是如何工作的,但是当这些元素连接在一起时,他们不知道会产生意想不到的后果。因此,不能完全理解的系统往往失控,并产生意想不到的后果。一艘船的沉没,两艘航天飞机的爆炸,欧亚大陆上的放射性污染,每次灾难中一系列轻微的失误造成的灾难。而在我看来,目前的人工智能也陷入了同样的境地。我们研究认知科学的发现,然后将其转化为程序算法,并将其添加到现有系统中。我们没有理解它而开始重新设计人工智能。比如IBM的沃森和谷歌的Alpha系统,我们将强大的计算机能力和人工神经系统结合在一起,帮助他们取得一系列惊人的成就。如果这些机器出问题了,可能的结果是沃森不能叫危险,或者阿尔法不能打败法师,但这些错误不是致命的。然而,随着AI设计变得越来越复杂,PC处理器变得更快,他们的技能也得到了提高。事故的风险越来越大,责任也越来越重。我们经常说没有人,那么我们创造一个肯定有缺陷的体系。害怕滥用目前我正在开发使用神经进化的人工智能,我并不十分担心潜在的意外后果。我创建虚拟环境,开发数字生物,让他们的大脑可以解决越来越复杂的任务。我们评估这些聪明的生物的表现,并且表现将被拿起来再生产和发展下一代。因此,经过几代人的进化,这些机械生物的认知能力逐渐提高。现在我们正在为这些生物设置一些非常简单的任务,比如他们可以做简单的导航任务,做出一些简单的决定,但很快我们将能够设计更多智能机器来执行更复杂的任务。最后,我们希望我们能够达到人的智力水平。在这个过程中,我们会发现问题并解决问题。每一代机器都能更好地处理前几代机器发生的问题。这有助于我们在未来真正进入世界的时候降低未来意外结果的可能性。另外,这种代代相传的改进方法,可以帮助我们发展人工智能的伦理学。最终,我们要发展人为的智慧,即诚信和利他主义的人类道德。我们可以为那些表现出善良,诚实和移情的机器建立一个虚拟的环境。这也可能是确保我们培养更多服从的仆人或值得信赖的合作伙伴的一种方式。同时还可以减少冷杀手机器人的机会。虽然这种神经进化的方法可能会减少无法控制的结果的可能性,但并不能防止滥用。但这是道德问题,而不是科学问题。作为一名科学家,我有义务说实话,无论我想说的结果如何,我都需要报告我在实验中发现的内容。我的观点不是要决定我想要什么,而是要显示结果。对社会力量的恐惧尽管我是一名科学家,但我还是孤身一人。在某种程度上,我必须把恐惧与希望重新联系起来。无论在政治上还是道义上,我都要认真思考我的工作对整个社会可能产生的影响。整个研究社区或整个社会对于人工智能应该做什么或者做什么都没有明确的定义。当然,这可能是因为我们还不知道它的能力。但是我们真正需要的是决定高级人工智能的预期结果。一个值得关注的重要问题是就业。机器人已经在做一些手工工作,比如焊接汽车零件。在不久的将来,他们也可能会做一些我们曾经认为只能做的认知工作。自主汽车机器人可以替代出租车司机;自动驾驶飞机机器人可以取代飞行员。将来当我们需要医疗的时候,我们不必排队等候可能很累的医生看我们。我们可以通过已经获得所有医学知识的系统,以及由不知疲倦的机器人立即执行的操作进行检查和诊断。法律咨询可能来自一个着名的法律数据库;投资建议可能来自市场预测系统。也许,所有的人类工作都将由机器完成。即使我自己的工作也可以做得更快,因为有很多机器不知疲倦地研究如何制造更智能的机器。在我们现在的社会里,自动化会让更多的人失去工作,拥有机器的人会越来越有利可图,而其他人越来越穷。这不是一个科学问题,而是一个迫切的政治和社会经济问题。最后一个噩梦场景的恐惧是最后一个恐惧:如果AI继续发展并最终超越人类的智慧,超智能系统是否会发现它不再需要人类?当一个超智能的生物可以做一些我们永远不能做的事我们怎样才能让人类定义我们自己的地方?我们可以阻止自己制造的机器人从地球上消失。其中一个至关重要的问题是:我们如何说服超级英雄留在我们身边?我想我会说我是个好人,我创造了你。我想唤起超智慧的同情心,这样就能让我保持沉默。而我是一个有生命力的人。多样性有其自身的价值,宇宙如此之大,以至于人类的存在根本就不重要。但我不能代表全人类代表全体人类统一观点,当我仔细检查自己。我们有一个致命的缺点:我们互相激怒,互相争斗,分配不平等的食物,知识和医疗援助,污染了地球,世界上有很多美丽的东西,但那些错误的,不好使人类的存在越来越不重要幸运的是,我们现在还不需要证明我们的存在,依靠人工智能的速度,我们还有时间,大概有50到250年的时间,作为一个物种,我们应该来共同提出一个很好的答案来解释为什么超级智能不应该摧毁我们,但这是很难做到的:我们说我们欢迎多样性,但实际上它不是,正如我们所说的,我们想拯救地球,但最后我们无法做到这一点,我们每个人,无论是个人还是社会,都需要为这个噩梦场景做好准备,并利用剩下的时间思考我们创造的超级智能如何证明我们人类的存在是有价值的,或者我们可以思考这样的事情不会发生,我们完全不用担心。但是除了对超级智能造成物理威胁之外,它们也可能在政治和经济上是危险的。如果我们找不到更好的财富分配方式,人工智能工作者就会促进资本主义,因为只有少数人才能拥有生产资料。

宝盈娱乐|官网

2017-12-30

更多内容,敬请关注:

宝盈娱乐|官网官网:/

宝盈娱乐|官网新浪官方微博:@宝盈娱乐|官网

宝盈娱乐|官网发布微信号: