您当前的位置 :首页 > 科技 > 科技博览
投稿

人工智能专家在害怕什么

2017-08-18 14:53:38 来源:参考消息 作者:阿伦·欣策 点击图片浏览下一页

  [美国趣味科学网站7月14日文章]题:我们应该害怕智能机器人吗? 

   作为一名人工智能研究者,我经常发现人们在担心AI(即人工智能)将会给我们带来什么。这些想法不足为奇:我们担心有朝一日自已会被机器人控制,并且被监禁起来。
   但是,对我来说,我很难想象我屏幕上的无辜的虚拟生物如何会在未来变成怪物。或许我会像奥本海默在率先制造出首枚原子弹之后那样哀叹自已成为“世界的毁灭者”?
   作为一名AL专家,我对人工智能有哪些恐惧呢?
                         
                     
 
 
                             对于未知的恐俱
 
      电影导演斯坦利·库布里克执导的《2001太空漫游》里的“HAL9000”高智能电脑,就是一个因意外而失败的系统案例。就许多复杂的系统而言,如泰坦尼克号、美国的航天飞机和切尔诺贝利核电站,工程师将许多不同的部件组合起来。设计者可能了解每个元件如何独立工作,但是对于它们如何共同运作缺乏足够的认识。
   结果是, 出现了一个永远不可能被完全了解的系统,并且可能以很多不能预知的方式发生故障。在每一场灾难中——巨轮沉没,航天飞机爆炸以及在亚洲和欧洲扩散放射性污染物—— 一系列相对较小的故障合力酿成一场严重的灾难。
我可以看到我们如何在AL研究中落入了同一个陷阱。我们阅读认知科学的最新研究,然后将其转化成一种算法,并将其添加到一个现有的系统中。我们在不了解智能和任知的情况下试图设计AL。
    但是,随着AL的设计变得更复杂,计算机处理器的速度更快,它们的技能也将会提升。
这将令我们赋予其更多责任。我们知道“人非圣贤孰能无过”,所以我们很可能根本无法创 造出一个真正安全的系统。
                           
                         对于滥用的恐惧
   
     现在,我们正在一步步地进化这些机器,使之能够完成简单的导航任务、做出简易的决策或是记住几个二进制数字。但是,不久之后,我们希望能够创造出人类水平的智能。
   在这一过程中,我们将通过进化过程找到并消除错误和问题。一代接一代,这些机器对于出现在前几代身上的错误会处理得越来越好。这增加了我们在仿真模拟中发现意外结果的机会,从而能够在其进入现实世界之前消除这些隐患。
   另一种更进一步的可能性,就是利用进化来影响人工智能系统的道德标准。信誉和利他主义,这些人类伦理和道德可能正是我们进化的结果——也是延续的要素。     我们可以设置虚拟环境,赋予那些展示出善良、诚实和同理心的机器进化优势。这可能是一种确保我们能够研发出更多服从的仆人或是值得信赖的伙伴而非无情机器人杀手的方式。
   尽管神经进化可能会减少意外结果出现的可能性,但是并不能防止滥用。可是,那是一个道德问题,而非一个科学问题。
                   
                      对于社会不公的恐惧
   
     

 

人们正在关注的一个重要领域是就业。机器人已经在做诸如将汽车零件组装到一起的体力工作。 不久以后,它们或许也将能够完成我们曾经认为是专属于人类的认知任务。自驾车可能会取代出租车司机;无人驾驶飞机可能会取代飞行员。
    病人可以从一个能够即时访问迄今为止收集到的所有医学知识的专家系统里获得检查和诊断,并且由一个永不知疲倦的、拥有完美稳定性的“手”的机器人实施手术,而不必在急诊室里寻求可能已经过度疲劳的医生的救助。法律咨询可能来自于一个无所不知的法律数据库;投资建议可能来自于一个市场预测系统。
    或许有朝一日,所有的人类工作都将由机器完成。即使是我自已的工作也可能会得到更快完成——由大量机器孜孜不倦地研究如何制造更智能的机器人。
    在我们当前的社会,自动化推动人们失业,令拥有机器的人更富有,而其他人则更贫穷。这不是一个科学问题;这是一个社会必须解决的政治和社会经济学问题。我的研究不会改变这一点,尽管我的政治自我——和其他人类一起——或许能够令人类广泛受益,而不是徒增我们中那百分之一与其他人之间的差距。
    还有一个终极恐惧,那就是由“HAL9000”、“终结者”和其他虚构的超级智能生物所呈现的:如果AL不断发展,直至超越人类知慧,会不会有一个超级智能系统(或是多个)发现其不再需要人类?面对一个能够做人类永远做不到的事情的超级智能机器,我们将如何证明我们存在的价值?
    我觉得很难为我们所有人提出一个具有说服力的论点。当我犀利地把我们所有人当成一个整体看的时侯,我发现存在着很多错误:我们彼此仇恨,我们相互发动战争,我们没有平等地分配食物、知识和医疗救助,我们污染地球。世界上存在着很多的美好,但是所有的恶都削弱了我们被允许存在的论点。
     幸运的是,我们还有一点时间 ——在50年到250年之间,这取决于AL的发展速度。我们可以联合起来,探讨出一个关于超级智能为什么不应当消灭我们的好答案。但是,这将是非常艰难的:说我们拥抱多样性和真的这样做是两件截然不同的事 ——说我们想要拯救地球和成功地这样做也是如此。
    无论是个人还是社会,我们所有人都需要为那个噩梦般的场景做好准备,利用仅存的时间来证明为什么我们的创造物应该允许我们继续存在。或者,我们可以决定相信这永远不会 发生,大家都不必再担心。但是,无论超级智能可能对我们构成何种人身威胁,它们同时也会构成政治和经济威胁。如果我们找不到一种方式来更好地分配我们的财富,那么我们将会加剧资本主义,令人工智能劳动力仅服务于极少数占有着所有生产资料的人。
 
责任编辑: 孙丽
版权声明:
·凡注明来源为“今日报道网”的所有文字、图片、音视频、美术设计和程序等作品,版权均属今日报道网所有。未经本网书面授权,不得进行一切形式的下载、转载或建立镜像。
·凡注明为其它来源的信息,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
不良信息举报信箱 网上投稿
关于本站 | 广告服务 | 免责申明 | 招聘信息 | 联系我们
今日报道网 版权所有 Copyright(C)2005-2016 鲁ICP备16043527号-1

鲁公网安备 37010402000660号