今日  首页 - 往期报纸 - 帮助    
  文章搜索:
人机协作引发的矛盾与恐慌该如何化解——
机器智能 讲伦理 受规制 稳发展
作者:王小月
图片
图片
图片


    

■王小月 文/摄
  “十年前工厂机器都是在轨道上运行的,现在的机器人则可以自我判断运动轨迹。未来不仅是人与机器智能的协同,机器智能与机器智能之间,也会有更多创享空间。”在此前召开的2019世界机器人大会上,机器智能的展现,进一步给人带来了无限遐想。
  从工业革命开始,科技的进步从未停歇。从AlphaGo战胜围棋大师,到智能机器人走入寻常百姓家,机器人离我们的生活越来越近。
  然而,有关机器人的负面消息也正纷至沓来。
  一方面人类社会对机器人期待越来越高,一方面却又因机器智能的飞速发展而引发恐慌,产生的种种矛盾引人深思。未来,如何在“道德层级”上对机器人进行重新定位,以及如何从法律层面上进行规制,已成为非常现实的问题。
人机协作成未来趋势
  从汽车工业、3C行业到家庭服务,机器人的应用已逐渐渗透于各个领域。在制造、物流、零售行业,机械臂可以进行精密仪器的处理、抓取小件商品甚至是重物。
  机器人市场到底有多大?
  国际机器人 联 合 会(IFR)此前曾作出过预测,协作机器人目前占到工业机器人的3%,但是预期增长会非常快,在2027年可能会达到75亿美元市场总值,复合增长率达到35%。
  “当前,协作机器人仍然是一个重要的趋势,很多情况下正在变得越来越小、越来越灵活,和人协作也越来越安全,一定时间内,市场上会见到很多这样的产品。”美国机器人工业协会(RIA)主席JeffBurnstein在2019世界机器人大会新兴应用与实践论坛上表示,有很多公司或国家选择用机器智能替代人,从现在看,如此简单操作不可能释放出机器人的最大潜力。无论是医疗还是仓储,协作一定是人与机器智能或者与自动系统之间最大的特点。
  那么未来,人与机器智能还要不要协同?
  对于很多人来说,最早认识机器人都是在欧美科幻大片中,看起来无所不能的机器人拥有人的情感,可以为人类献身,但也会背叛人类。而今随着机器人的逐渐普及,它的安全性也成为当前不少人关注的重点。
  清华大学教授、清华大学人工智能研究院智能机器人研究中心主任孙富春在2019世界机器人大会人工智能与融合论坛上表示,机器人的安全性涉及到机器人被动犯错和主动犯错两方面。被动犯错可以通过传感器技术、安全算法解决;主动犯错牵涉到机器人是不是有自我意识。孙富春称,这个问题是目前讨论最多的话题,有说法认为将来机器要产生自己的意识,也要有自己的语言。对于人类而言,是有语言才产生了更高级的智能。但“意识”距离机器人还很远。
  “人是通过探知产生的意识,硅是不是能够通过自己的探知产生意识?科学还是要不断研究,现在我们在把碳智能和硅智能结合研究新型材料,未来会不会让机器人产生意识?这个问题还在研究的过程当中。”孙富春说。
防范机器人系统性风险
  如何确保机器智能领域安全,是摆在行业发展面前的重要问题。
  当前的人工智能尚处于弱人工智能阶段,但未来人工智能发挥的能量绝不止于此。
  中国科学技术大学计算机学院教授、机器人实验室主任陈小平对《中国消费者报》表示,随着机器人的大力发展,在道德法规上进行约束,是全世界都很关注的伦理研究领域。产品对用户有风险的话,国家都会确定技术标准。陈小平介绍,人工智能目前在制定标准,机器人行业作为人工智能的一部分,机器人行业标准是走在人工智能标准前面的。

  “弱人工智能条件下的机器人安全,和其他新技术的运用造成的风险本质上是一致的,例如核技术造成的泄露风险、化工技术造成的污染风险。当使用‘机器人’这个概念时,很容易让公众产生一种想象,是一个类似于人的主体在进行自主决策造成事故,但其实这种事故不过是源于自动化的反馈机制出现的偏差。”中国海洋大学法学院院长助理、教授、博士生导师,中国科学技术法学会人工智能法专委会委员李晟接受《中国消费者报》采访时表示。
  李晟举例说明,波音737MAX飞机由于自动调整飞机姿态的程序造成的空难,公众不容易和机器人联系起来,但其实质,正是我们需要关注的机器人安全性问题,就是程序对外界做出了错误反馈。

  “所谓确保安全,事实上不是法律可能完成的任务,因为完全没有新技术运用的社会也会有各种风险出现,人类本身制造的不安全也不会被法律所消除,法律的功能只是一定程度上的预防和事后的追责。”李晟强调。

  “对于机器人安全性问题,关键是对于系统性风险的预测和防范,也就是预测是否存在一种外在攻击会造成大量机器人整体上的故障引发严重后果,并且基于这种预测提前对于整体网络进行保护和限制。至于机器人个体造成的安全风险,应当正视其存在的可能性,作为获得新技术的收益成本。”
机器人是否具备法律人格
  2017年2月16日,欧洲议会投票表决通过《就机器人民事法律规则向欧盟委员会的立法建议[2015/2103(INL)]》,其中最引人注目之处,就是建议对最复杂的自主智能机器人,可以考虑赋予其法律地位,在法律上承认其为“电子人”(electronicperson)。不过,是否承认智能机器人具有法律人格,存在激烈争论。
  AlphaGo战胜人类最优秀的棋手、微软小冰能够“创作”诗歌,这些人工智能技术的新成果,使得不少人认为有的智能机器人可以比人类更聪明。是不是会下围棋、可以写诗,就具备了人类的理性能力?
  对此,李晟表示,机器人按照特定用途设计并使用,其积累的经验也是继续用于特定用途,而难以举一反三转换到其他领域。至于情感感知,更加没有形成基本的理论基础,因此很难预测什么情况下会出现在机器人身上。
  “对于未来的机器人发展,首先还是交给计算机科学和认知科学去解决基础理论问题,在法律层面不应该过多做科幻研究。”李晟认为,“法律对机器人的规制,应该更多建立在现有制度结构去解决弱人工智能的机器人制造的风险的分配与归责。如果真的机器人超过了人类,那么立法者也就变成了机器人,人类的研究并没有太多意义。”
  当自动驾驶达到L5、L6级别时,可以实现真正的“无人”,不需要人来进行任何辅助,那机器人司机也会面临道德困境。
  1967年,哲学家菲利帕·福特提出了著名的电车难题。
  一辆失控的有轨电车正在驶向一个轨道岔路口,如果这辆电车继续沿着现在的轨道运行,就会杀死五名工作人员,如果司机将这辆电车转向另一条分道,则会杀死一名工人。
  如果是机器人正在驾驶这辆电车,会如何选择?
自动驾驶如何回答“电车难题”
  巧合的是,当前机器人(机器智能)应用最为活跃的市场,正是自动驾驶领域。
  随着自动驾驶的不断发展,机器人要受到怎样的道德规制?
  “对于自动驾驶汽车而言,最大的风险是系统性的而不是个体性的。单一车辆发生事故,这在人类驾驶的情形下也是很常见的事情,自动驾驶在这方面并不会造成更高风险。但是如果自动驾驶汽车作为一个万物互联的系统,整体上出现故障,那可能是灾难性后果。”李晟表示,如果只是针对达到L5、L6级的个别汽车进行分析,那其实并不需要特别突出电车难题的复杂性。“道德哲学讨论的电车难题个案是一种思想实验,本身就意味着在社会中很难出现的罕见现象。”李晟认为,“法律制度不为特例而设计,技术上的算法设计也是如此。何况,法律上现在都从来没有对人类决策做出电车难题场景下的约束。”
  李晟谈到,自动驾驶的决策,应当是强调保护车辆本身安全的前提下,针对具体风险的情况进行事后判断。无论是对人类还是机器人,试图实现做出事无巨细的立法规制都是不可能的。
  陈小平表示,围绕安全性,辐射、漏电等方面的标准有很多,但更复杂的机器人会不会产生伤害,涉及到人命关天的大事是否可以交给机器去做是个问题,这些标准都在研究中。囿于技术限制,自动驾驶达不到100%安全,从研究者角度看,看起来是程序做,实际上是软件的设计者在做决策。这时候就要将涉及到的伦理问题研究清楚,再制定具体原则,继而做出决策。
  “高等级无人驾驶面临的是技术难点和伦理难点,不是单纯的产业和商业问题,技术和伦理的研究是以机器人为代表的高新技术的全新特点,伦理是绕不过去的核心问题,同时也要包含伦理的创新。”陈小平如是说。
  JeffBurnstein表示,人工智能在世界各地都是重大发展趋势,美国机器人工业协会也在推动这项工作,希望让人工智能符合伦理。当下众多组织应共同参与进来,确保人工智能不会伤害人类。但如果我们只是关注自己的担心就会错失一些机会。
  他举例说明,无人驾驶汽车的确会有事故,不可能做到100%完美,但回看全世界因为汽车事故造成的死亡事件,如果能够通过无人驾驶汽车把死亡率降低的话,是很好的事情。



  

更多>>    中国消费者报近期报纸查看
 
  本文所在版面
【第 8 版:新消费·风尚】
  本文所在版面导航
·机器智能 讲伦理 受规制 稳发展
©版权所有 中国消费者报社
©中国消费者报社 京ICP备09107225号