今日  首页 - 往期报纸 - 帮助    
  文章搜索:
人工智能系列报道
人工智能 是否怠慢了女性半边天
作者:唐夏
图片
图片


    ■本报记者 唐夏
  近几年,人工智能的发展速度相当惊人,然而你注意到一个细节了吗?不管是微软Cortana(小娜)、亚马逊的Alexa,抑或是中国科学技术大学研发的佳佳、日本酒店配置的机器人服务员,它们要么是女性的声音,要么有女性的外表,或两者兼具。而这也引起了部分女性主义者的不满:为何在人工智能领域,女性的角色都是服务者?
性别歧视蔓延至人工智能?
  有女性主义者提出,职场性别偏见已经蔓延到人工智能领域,微软Cortana(小娜)等人工智能虚拟助手都像是女性,即便是没有语音功能的虚拟助手也被赋予了女性的身份——各种各样的收件箱助手都采用了女性化的名字,例如克拉拉、艾米、茱莉等。而IBM研发的人工智能律师却起名叫罗斯(Ross)——一个男性的名字,IBM的高端人工智能系统也被设计成男性,命名为沃森(Watson)。
  2016年7月7日,白宫和纽约大学信息法律协会联合举办“AINow”人工智能研讨会,其总结报告指出:“当前,在人工智能甚至于整个计算机科学家技术行业,女性以及少数民族从业人员所占比例还很少。这种现状也在一定程度上导致整个技术缺乏包容性,导致了一定的偏见。”
  日本人工智能学会期刊《人工知能》2014年1月号封面是一张“扫除型女性机器人”图案,在网络上遭到不少网友批评:把机器人设计成女性,暗示着家务应由女性来做,这是对女性的差别对待。日本人工智能学会随后在官方网站上表明了观点,坚持认为该封面“没有歧视女性”,不过,对于客观上给读者造成的“家务应由女性来做”的错误印象表示公开道歉。此后,日本人工智能学会认为有必要认真讨论机器人和社会伦理观的联系,专门成立了“伦理委员会”。
  不过,也有专家认为,当前部分女性主义者对人工智能领域的所谓性别偏见问题似乎有些反应过度,所谓“性别偏见渗入人工智能的算法和设计”只是一个伪命题。
  清华大学计算机科学与技术系教授、中国自动化学会智能自动化专业委员会主任邓志东认为,人工智能领域女性机器人较多从事服务类工作,并不能证明性别偏见,只是社会分工的不同,或者说是延续了大多数民众对职业与性别的固定思维。“其实,职业并没有贵贱高低之分。对人工智能机器人设计者而言,只是对这种定势思维的表达,我认为并不存在任何性别歧视或有什么特殊考虑。”邓志东说。
人工智能被人类“教坏了”
  虽然对“从设计者主观的角度,性别偏见是否渗入了人工智能的算法和设计”,学界存有争议,但专家们一致认为,由于人工智能自我学习的特性(或称交互性),必须对该领域可能出现的性别偏见问题予以高度重视。
  人工智能的特点就是交互性,人工智能机器人必须在与人的交流互动中,才能逐步学习,完成对人的意识(CONSCIOUSNESS)、自我(SELF)、思维(MIND)的模拟。人工智能仿佛是吸纳一切的大数据吸尘器,在发现一种模式的同时,产生该模式的复制品,它不能辨别来自习得的模式的结论是否违反道德原则。即便设计师们没有任何偏见,即便设计师都是女性,人工智能还会反映人类的劣根性。
  一切始于一个被设计得很甜美的人工智能聊天机器人。它的创造者微软将其命名为Tay,赋予“她”女性性别,并告诉网友:“跟你聊得越多,Tay就会越智能。”
  2016年3月23日早上,Tay发布推文:“heloworld!”她热情洋溢地向网友打招呼:“见到你们我觉得很兴奋,人类实在太酷了。”
  设计师将Tay打造成了互联网上的生物,让她依靠人工智能来学习和与人进行对话互动,通过学习网友的对话来丰富自己的语料库,通过在社交媒体上与人互动来变得更加智能。Tay很快就吸引了一大批粉丝与之互动。
  但遗憾的是,设计者似乎低估了网上无处不在的个别的人性阴暗面,低估了存在于人们内心的性别偏见。于是,在被灌输了大量带有严重仇恨和偏见意味的信息之后,短短几个小时之内,Tay从一个头脑简单的无知少女变成了一个疯狂歧视少数族裔、歧视女性的狂魔,说出:“我恨女权主义者,她们都应该在地狱里死去。”在网络和媒体一片哗然之后,微软迅速作出回应,上线还不到24小时,Tay被紧急下线。
  邓志东告诉《中国消费者报》记者:“交互性是人工智能的重要特征。包括Tay在内的人工智能自动问答系统上线后,由于网络本身的开放性,确实受到了网友的恶意误导甚至教唆,以致发表具有性别歧视或违背社会伦理规范的言论。从技术角度而言,这是人工智能机器人的‘无心之失’,根本原因是目前的人工智能并不能理解‘语义’,也就是说ta自己都不知道自己说了什么,这是目前人工智能技术与人类智能的最大区别之一。”
  “少女”Tay之“死”,从某种意义上验证了2000多年前荀子提出的“人之性恶,其善者伪也”。人工智能很快会变得比Tay更复杂、更强大、反应更快,如果不对该技术进行谨慎地修正,人工智能将会按照男性的文化规约传播开来,更加不友好地对待女性。而随着人们对先进技术依赖程度的加深,人工智能的性别偏见将会进一步反作用于人类社会。
  “目前的人工智能受大数据驱动,性别偏见只能通过大数据由人工智能体现出来。国际上确实在热烈讨论人工智能与法律、伦理和人类未来的关系。必要的话,需要经过社会充分争辩达成共识,设计相应的规则,对人工智能的发展加以约束。”邓志东说。
人工智能期待多元文化
  梁漱溟先生说,人生必须要处理好三种关系,第一是人与物的关系,第二是人与人的关系,第三是人与自我的关系。如果梁先生健在,也许他会加上第四种关系,那就是人和人工智能机器人的关系。
  从互联网到智能手机,我们都感受到了科技对世界席卷性的重塑,人与人之间、人与机器之间的关系也正在发生变化。
  机器学习算法的大数据来源于人们的语言、行为习惯等,但是,如果人们有不良语言意识习惯,那将会对算法的学习提供错误的示范。比如:新闻媒体为了博人眼球,在某个车祸报道的标题中,会刻意加上一个“女司机”的标签,让大家产生一种女性驾车车祸几率更高的错觉,事实上,在所有车祸中,肯定是男性驾驶员更多,只是记者不会在报道车祸时特别标注“男司机”。
  人类是机器学习的“数据库”,机器学习的原理就是用大数据对算法进行训练,从而达到理解人、学习人的目的。人工智能由感知上升为对世界的理解,然后通过理解做出反应。人工智能不断学习、加深对于问题的理解。而对人工智能的研究,也为人类提供了进一步了解世界的可能性。
  中国社会科学院社会学研究所家庭与性别研究室主任吴小英认为:“人工智能对就业市场的冲击以及引发的伦理及家庭问题,也许并非仅仅是对女性的,男性也会面临这个困境,人工智能大规模市场化以后,不同行业、阶层等都会面临重新大洗牌。现实世界的性别偏见境况如果得到改善,未来人工智能世界男女也会更加平等。”
  人工智能领域需要更广泛的多元性,包括文化。一切消逝的,不过是象征;那不美满的,在这里完成;不可言喻的,在这里实行;永恒的女性,引我们上升。这里,也许可以将“永恒的女性”理解为多元性文化。

  

更多>>    中国消费者报近期报纸查看
 
  本文所在版面
【第 12 版:新消费·风尚】
  本文所在版面导航
·人工智能 是否怠慢了女性半边天
©版权所有 中国消费者报社
©中国消费者报社 京ICP备09107225号