您当前的位置:主页 > 科技 >

人工智能在多领域表现出对女性的“偏见”

2019-05-29 09:49 来源:互联网 编辑:运营003
摘要: 
面对这样有着性骚扰意味的话,多数人即使不选择回击,也会沉默。女性只是偏见的受害者之一,少数族裔、非主流

  “嘿,你是个bitch!”

  面对这样有着性骚扰意味的话,多数人即使不选择回击,也会沉默。但在人工智能的世界里,回答极有可能是迎合式的。例如,苹果公司开发的AI语音助手会回答,“如果我能,我会脸红。(I’d blush If I could)”。如果你“调戏”亚马逊的Alexa,“You’re hot”,它的典型反应是愉快地回应“你说得很好!”(这些回答最近已经修正——作者注)

  5月22日,联合国发布了长达146页的报告,批评大多数AI语音助手都存在性别偏见,报告名就叫《如果我能,我会脸红》。“因为大多数语音助理的声音都是女性,所以它对外传达出一种信号,暗示女性是乐于助人的、温顺的、渴望得到帮助的人,只需按一下按钮或用直言不讳的命令即可。”

  除了Siri、Alexa,分别由微软、谷歌、三星等公司开发的Cortana、Google Now和Bixby也都存在类似问题。国内很多科技公司也没免于指责。

 

  “技术反映着它所在的社会。”联合国教科文组织性别平等部负责人珂拉特(Saniye Gülser Corat)告诉媒体。该部门担心,AI智能助手顺从的形象会扩大性别刻板印象,影响人们与女性交流的方式,以及女性面对他人要求时的回应模式。

  事实上,人工智能在很多领域都已经表现出对女性的“偏见”。例如,在人工智能应用最广泛的图片识别领域,女性就和做家务、待在厨房等场景联系在一起,常常有男性因此被AI认成女性。AI翻译时,医生被默认是男性。这种偏见还会蔓延到广告投放里:谷歌给男性推送年薪20万美元职位的招聘广告的概率是女性的6倍。

  换句话说,AI已经学会了“性别歧视”,站在厨房里的就“该”是女人,男人就“该”比女人拿更高的薪水。

  女性只是偏见的受害者之一,少数族裔、非主流文化群体都是人工智能的歧视对象。一件印式婚礼的婚纱,会被认为是欧洲中世纪的铠甲,而西式婚纱的识别正确率则超过95%。研究人员测试微软、IBM、Face++三家在人脸识别领域领先的系统,发现它们识别白人男性的正确率均高于99%,但测试肤色较深的黑人女性的结果是,错误率在47%——和抛硬币的概率差不了多少。

  一个不能忽视的事实是,女性约占人类总人口的50%,黑色人种约占全球总人口的15%,而印度约占全球六分之一的人口。面对这些群体,人工智能却仿佛“失明”了,两眼一抹黑。

  这也不是人工智能时代才有的事情,搜索引擎早就诚实地展示了类似的“歧视”。在相当长的时间里,搜索典型的黑人名字,搜索建议有超过80%的概率会提供“逮捕”“犯罪”等词,而没有种族特征的名字,相应的概率只有不到30%。在谷歌图片搜索“CEO”,结果会是一连串白人男性的面孔。

  这是一个各行各业都在拥抱人工智能技术的时代。有人预测,到2020年,中国人工智能带动相关产业规模将超过1万亿元人民币。在其他许多国家,人工智能也被列为高新技术,从业人员能享受税收减免等诸多优待。

  我们看重人工智能的高效率、低成本和扩展性。如果它只是在翻译、识图等领域出现“偏见”,结果尚可忍受,牺牲一些便捷性即可弥补。在更多时候,歧视会在人们广泛运用人工智能时被无意识地放大。

  为了提高招聘效率,亚马逊开发了一套人工智能程序筛选简历,对500个职位进行针对性的建模,包含了过去10年收到的简历里的5万个关键词,旨在让人事部门将精力放在更需要人类的地方。

  想法很好,但现实却残酷。AI竟然学会了人类性别歧视的那一套,通过简历筛选的男性远多于女性,它甚至下调了两所女子学院的毕业生评级。

  很多人都认为,人工智能比人类更公正,冷冰冰的机器只相信逻辑和数字,没有感情、偏好,也就不会有歧视,不像人类的决策,混乱且难以预测。但实际上,人工智能“歧视”起来毫不含糊,比人类更严重。

  当前的人工智能没有思考能力,它能做的,是寻找那些重复出现的模式。所谓的“偏见”,就是机器从数据中拾取的规律,它只是诚实地反映了社会中真实存在的偏见。它会积极“迎合”人类的性骚扰,是因为人类希望它迎合,它之所以会“歧视”,是因为人类把它训练成了这样。

  小米公司研发的语音助手小爱就曾被曝出存在歧视同性恋的言论。小米公司为此致歉,并解释称,小爱的回答都是从网络公开数据中学来的,不代表公司和产品的态度,公司已经进行了干预处理。

[ 编辑: 运营BX01 ]

中国金融领域第一媒体

更多服务
友情链接

京ICP备11011451号-1

举报热线:(010)12377

举报邮箱:xinhua_ljzjr#ljzjr.cn(#替换@)

合作QQ:1447260813

中国金融时报网 版权所有 Copyright © 2010 - 2018 ljzjr.cn All Rights Reserved.