为什么人工智能应该害怕人工智能

作为一名人工智能研究员,我常常想到许多人都害怕人工智能可能会带来什么

考虑到历史和娱乐业,我们可能会害怕控制论生活,迫使我们被锁住,这也许并不令人惊讶

,“Matrix” - 就像某种人类电池一样然而我很难从我用来开发人工智能的进化计算机模型中查找,想想我的屏幕上的无辜虚拟生物如何成为怪物的怪物未来可能我成为“世界的毁灭者”,奥本海默在率先建造第一颗核弹后感叹道

我想,我会成名,但也许批评者是对的也许我不应该回避问:作为人工智能专家,我对人工智能有什么担心

害怕无法预见的HAL 9000计算机,由科幻小说作家Arthur C Clarke设想并由电影导演Stanley Kubrick在“2001:太空漫游”中栩栩如生,是因为意外后果而失败的系统的一个很好的例子

许多复杂的系统 - RMS泰坦尼克号,美国宇航局的航天飞机,切尔诺贝利核电站 - 工程师将许多不同的组件组合在一起设计师可能已经很好地了解每个元素如何单独工作,但对于它们如何一起工作的结果不太了解在一个永远无法完全理解的系统中,并且可能以不可预测的方式失败在每次灾难中 - 沉没一艘船,炸毁两个航天飞机并在欧洲和亚洲传播放射性污染 - 一系列相对较小的故障结合起来造成灾难我能够看看我们如何陷入人工智能研究的陷阱我们看看认知科学的最新研究,将其转化为算法并将其添加到现有系统我们尝试在不了解智能或认知的情况下设计AI首先像IBM的Watson和Google的Alpha装备具有巨大计算能力的人工神经网络,并取得了令人瞩目的成就但是如果这些机器出错,它们将失去“危险!“或者不要击败围棋大师这些不是改变世界的后果;事实上,一个普通人可能会遇到的最糟糕的事情就是失去一些投注他们成功的钱但是随着人工智能设计变得更加复杂,计算机处理器变得更快,他们的技能也会提​​高,这将导致我们给予他们更多的责任,即使意外后果的风险上升我们也知道“犯错是人”,所以我们很可能无法建立一个真正安全的系统害怕滥用我不太关心人工智能类型的意外后果我是使用一种叫做神经进化的方法开发我创造虚拟环境并发展数字生物和他们的大脑来解决日益复杂的任务生物的表现得到评估;那些表现最佳的人被选中进行繁殖,使得下一代这些机器生物在很多代中发展出认知能力现在我们正在采取婴儿步骤来发展可以做简单导航任务,做出简单决定或者记住几个但很快我们将发展能够执行更复杂任务并具有更好的一般智能的机器最终我们希望创建人类级智能在此过程中,我们将通过演化过程找到并消除错误和问题每一代,机器在处理前几代中发生的错误方面变得更好,这增加了我们在模拟中发现意外后果的可能性,这些结果可以在它们进入现实世界之前消除

另一种可能性更远的方法是使用进化来影响人工智能系统的伦理学很可能是人类的道德和道德,比如信任善良和利他主义是我们进化的结果 - 也是其延续的因素我们可以建立我们的虚拟环境,为那些表现出善良,诚实和同情心的机器提供进化优势这可能是确保我们培养更多顺从的仆人或值得信赖的同伴和更少的无情杀手机器人虽然神经进化可能会减少意外后果的可能性,但它并不能防止误用但是这是一个道德问题,而不是科学问题 作为一名科学家,我必须遵守我对事实的义务,报告我在实验中发现的内容,我是否喜欢结果

我的重点不在于确定我是否喜欢或批准某些事情;重要的只是我可以揭开它害怕错误的社会优先事项作为一名科学家并不能免除我的人性,尽管我必须在某种程度上重新与我的希望和恐惧联系起来作为道德和政治存在,我必须考虑我的工作的潜在影响及其对社会的潜在影响作为研究人员和社会,我们还没有清楚地知道我们希望AI做什么或成为什么部分,当然,这是因为我们不喜欢还不知道它能做什么但是我们确实需要决定什么样的高级AI的结果是人们正在关注的一个重要领域就业机器人已经在做一些体力劳动,比如将汽车零件焊接在一起很快他们也可以做我们曾经认为的认知任务是独特的人类自动驾驶汽车可以取代出租车司机;自我飞行的飞机可以取代飞行员而不是在可能过度医生的急诊室里获得医疗援助,患者可以从专家系统接受检查和诊断,即时获取所有已收集的医学知识 - 并且不知疲倦地进行手术具有完美稳定“手”的机器人法律建议可能来自一个全知的法律数据库;投资建议可能来自市场预测系统也许有一天,所有人类工作都将通过机器完成即使我自己的工作可以更快完成,大量机器不知疲倦地研究如何制造更智能的机器在我们当前的社会中,自动化将人们从工作中榨干,使拥有机器的人更富裕,其他人都变得更穷这不是一个科学问题;这是一个政治和社会经济问题,我们作为一个社会必须解决我的研究不会改变这一点,尽管我的政治自我 - 与人类的其他人一起 - 可能能够创造出人工智能变得广泛有益而不是增加差异的环境在百分之一和我们其余的人之间恐惧噩梦场景最后一个恐惧,体现在HAL 9000,终结者和任何其他虚构的超级智能:如果人工智能不断改进直到它超越人类智能,那么超级智能系统(或者不止一个)发现它不再需要人类

面对可以做人类永远无法做的事情的超级智能,我们如何证明我们的存在

我们可以避免被我们帮助创造的机器从地球表面抹去吗

这种情况下的关键问题是:为什么超级智能会让我们四处奔走

我认为我是一个善良的人,甚至可能帮助实现超级智能本身我会吸引同情和同情,超级智能必须让我,一个富有同情心和同理心的人,活着我也会争辩说,多样性已经存在它本身就是一个价值,宇宙是如此荒谬,以至于人类在其中的存在可能根本不重要但是我不为全人类说话,我发现很难为我们所有人做出令人信服的论证

我一起敏锐地看着我们,有很多错误:我们彼此讨厌我们彼此发动战争我们不平等分配食物,知识或医疗援助污染地球世界上有许多美好的事物,但是所有的坏事都削弱了我们被允许存在的论据幸运的是,我们还不能证明我们存在的合理性我们有一些时间 - 大约50到250年之间,取决于AI的发展速度作为一个物种我们可以走到一起并提出一个很好的答案,为什么一个超级智能不应该只是把我们消灭但是那将是艰难的:说我们拥抱多样性并且实际上这样做是两回事 - 正如我们想要拯救地球并成功地这样做我们所有人,无论是个人还是作为一个社会,都需要为这场梦魇做好准备,利用我们离开的时间来证明为什么我们的创作应该让我们继续存在或者我们可以决定相信它永远不会发生,并且完全不用担心但无论超级智能可能带来的物理威胁如何,它们也构成政治和经济危险 如果我们找不到更好地分配财富的方法,我们就会为人工智能劳动者提供资金支持,只服务于极少数拥有所有生产资料的人员Arend Hintze,密歇根州综合生物学和计算机科学与工程助理教授大学本文最初发表于The Conversation阅读原文The Conversation's logo Photo:The Conversation

上一篇 :HTC U12 +将配备双前置摄像头
下一篇 如何通过在室内带来风和水来平静地生活