人工智能 - 我们可以把它放在盒子里吗?

作者:司徒蒈檬

我们知道如何处理可疑包裹 - 尽可能仔细!这些天,我们让机器人承担风险但是如果机器人存在风险呢?一些评论家认为我们应该将AI(人工智能)视为一种可疑的方案,因为它最终会在我们的脸上爆炸我们应该担心吗?当被问及是否会有像人一样智能的电脑时,美国数学家和科幻作家Vernor Vinge回答说:“是的,但只是简单地说”他的意思是,一旦计算机达到这个水平,就没有什么能阻止它们进一步发展很快Vinge将这种突然爆发的情报命名为“技术奇点”,并认为这不太可能是好消息,从人类的角度来看,Vinge是对的,如果是的话,我们该怎么做呢?与典型的可疑包裹不同,毕竟,人工智能的未来取决于我们,至少在某种程度上,我们现在可以做些什么来确保它不是炸弹(或者是一个好炸弹而不是一个坏炸弹,也许)?乐观主义者有时会对人工智能领域非常格格不入的事实感到安慰,过度繁荣和炒作与所谓的“人工智能冬季”混合在一起 - 资金和兴趣减少的时期,承诺的能力未能实现有些人指向这个作为证据,机器永远不可能达到人类的智力水平,更不用说超越它们了其他人指出,对于比空气更重的飞行也是如此。这项技术的历史也充斥着反对者(一些人)显然,他们拒绝相信莱特兄弟成功的报道。对于人类的情报,对于比空中飞行更重要的事情,反对者需要面对大自然管理伎俩的事实:分别思考大脑和鸟类一个好的反对意见争论需要一个理由认为人类技术永远不会达到人工智能的标准悲观主义要容易得多一方面,我们知道大自然设法把人类的智慧放在了sku中一些大小的盒子,这些头骨大小的盒子正在弄清楚大自然如何做到这一点这使得很难保持酒吧永远无法接触到人工智能 - 相反,我们似乎是提高我们对实现目标所需要的理解在技术方面,我们似乎在硬件和软件方面都朝着标准方向迈进。在硬件领域,摩尔定律预测了数量我们可以在芯片上安装的计算能力每两年翻一番,几乎没有减缓的迹象在软件领域,人们争论“强AI”(人工智能匹配或超过人类智能)的可能性,但是“狭窄AI”的大篷车“(限于特定任务的人工智能)稳步前进,计算机接管以前被认为是禁止人类智慧和直觉的任何领域我们现在拥有机器在国际象棋,琐事游戏,飞行,驾驶,金融交易,面部,语音和手写识别等领域,人们的表现超过了人们的表现 - 随着硬件的不断进步,狭窄的人工智能的这些发展使得更难以捍卫认为计算机永远不会达到人类大脑的水平陡峭上升的曲线和水平线似乎注定要相交!如果计算机像人类一样聪明,那会不会是一件坏事?狭义人工智能目前的成功列表可能表明悲观是没有根据的,这些应用程序毕竟不是很有用吗?可能会对大师的自负造成一点损害,金融市场也会出现一些小故障,但很难看出上面列表中有任何即将发生灾难的迹象。悲观主义者说,这是真的,但就我们的未来而言,狭窄我们屈服于计算机的领域并非都是平等的一些领域可能会产生比其他领域更大的影响(例如,机器人驾驶我们的汽车可能会在未来十年左右完全重新启动我们的经济)最大的担忧源于这种可能性计算机可能会接管对控制技术进步本身的速度和方向至关重要的领域 如果计算机达到并超过人类编写计算机程序的能力会发生什么?第一个考虑这种可能性的人是由剑桥大学训练的数学家IJ Good(他曾在第二次世界大战期间与布兰奇公园的阿兰图灵打破代码,后来又在曼彻斯特大学的早期计算机上工作)1965年Good观察到智能机器开发更智能的机器会导致“智能爆炸”,这将使人类的智能水平远远落后他称这种机器的创造是“我们的最后一项发明” - 这不太可能是“好”的新闻,悲观主义者补充道!在上面的场景中,计算机成为比人类更好的程序员的那一刻标志着技术进步的速度从人类思想和通信的速度转变为硅的速度的历史点这是Vernor Vinge的“技术奇点”版本 - 超越这一点,曲线是由新动力驱动的,未来变得根本无法预测,正如Vinge所想的那样,认为任何超越我们自身能力的智能都会像我们一样,在重要的方面 - 只是更加聪明,这将是令人欣慰的但在这里,悲观主义者也看到了坏消息:他们指出,我们人类所重视的所有事物(爱,幸福,甚至生存)对我们都很重要,因为我们有特定的进化历史 - 我们与高等动物共享的历史,但没有计算机程序,如人工智能默认情况下,我们似乎没有理由认为智能机器会分享我们的价值观好消息是,我们可能没有理由认为它们会充满敌意,因此:敌意也是一种动物情感坏消息是它们可能对我们漠不关心 - 它们可能像我们一样关心我们关心挡风玻璃上的虫子人们有时会抱怨公司是精神病患者,如果他们没有受到人类控制的充分控制那么悲观的前景就是人工智能可能类似,除了更聪明,更快更快到现在你看到的地方根据这种悲观的观点,这种情况正在发生。人们担心的是,通过创造与人类一样聪明的计算机(至少是对技术进步至关重要的领域),我们有可能对地球产生控制权,而这些智能对我们来说简直无动于衷,对我们认为有价值的东西 - 生活和可持续发展的环境这些事情如果这听起来很牵强,悲观主义者说,只要问大猩猩如何竞争资源具有最聪明物种的乌龟 - 它们灭绝的原因不是(总体而言)因为人类对它们有积极的敌意,但是因为我们以对其持续生存有害的方式控制环境很难说有多么紧迫问题是,即使悲观主义者是对的我们还不知道究竟是什么让人类的思想与当前一代的机器学习算法不同,所以我们不知道固定条与上升之间的差距大小曲线但是一些趋势指向本世纪中叶在全脑仿真:路线图中,牛津哲学家安德斯桑德伯格和尼克博斯特罗姆认为我们扫描和模仿人类大脑的能力可能足以复制人类在硅中的表现。当然 - 正如他们所说,做出预测很困难,特别是关于未来!但是在平凡的生活中,我们非常重视不确定性,当涉及到很多时候这就是为什么我们使用昂贵的机器人来调查可疑包裹(毕竟(即使我们知道它们中只有很小一部分会成为炸弹)人工智能的未来在这里描述的方式是“爆炸性的”,它可能是人类物种遇到的最后一颗炸弹。一种可疑的态度似乎更明智,那么,即使我们有充分的理由认为风险非常小那一刻,即使这种程度的保证似乎超出了我们的范围 - 我们对这些问题的了解还不够充分,以高度自信的方式估计风险(感觉乐观并不是有充分理由保持乐观,毕竟) 我们认为,良好的第一步是停止将智能机器视为科幻小说的内容,并开始将它们视为我们或我们的后代可能实际面对的现实的一部分,迟早我们将这样的未来在议程上我们可以开始一些认真研究如何确保向机器外包智能将是安全和有益的,从我们的角度来看也许最乐观的原因是,与普通的滴答包裹不同,AI的未来是世界各地的数百名开发人员和科学家仍在逐步组装未来尚未确定,现在我们可以采取一些措施使其更加安全但这只是我们采取乐观的理由通过调查问题并努力思考最安全的策略我们应该为我们的孙子们 - 更不用说我们的祖先了,他们这么长时间努力工作让我们走得这么远! - 做出努力进一步的信息:为了对这一主题进行彻底和深思熟虑的分析,我们推荐澳大利亚哲学家David Chalmers的The Singularity:Philosophical Analysis最近的公开讲座The Intelligence Stairway可作为播客或在YouTube上通过悉尼提供想法存在风险研究中心作者是联合创始人,与英国着名的天体物理学家马丁里斯勋爵一起,在剑桥大学建立一个存在风险研究中心(CSER)的新项目该中心将支持研究,以识别和减轻人类技术发展带来的灾难性风险,....

下一篇 : 彼得加汉