为避免性别偏见 谷歌AI新工具实行性别代词禁令

来自:TechWeb
时间:2018-11-27
阅读:

【TechWeb】11月27日消息,据国外媒体报道,Alphabet旗下谷歌在5月份为GmAIl引入了一个新功能“Smart Compose”,即当用户打字的时候,自动为用户补充完整的句子,比如,用户打出“我爱(I love)”,Gmail就会提示“你(you)”或是“它(it)”。

谷歌Google Hardware Store

为避免性别偏见 谷歌AI新工具实行性别代词禁令

谷歌将不会提示性别代词,“他”或“她”,这样风险太大,因为其预测输入“SmartCompose”技术不能准确预测别人的性别身份,可能会冒犯到用户。

Gmail产品经理保罗·兰伯特说,公司研究人员在今年1月份发现了这个问题,当他打出“我下周要和一位投资者见面,”谷歌的Smart Compose就自动提出一个可能的后续问题:“你想见吗?”,而不是“”。

虽然消费者已经习惯了智能手机上自动更正失言时的尴尬,但谷歌拒绝放弃这个改正的机会,特别当性别问题正在重塑政治和社会,以及评论家正在仔细观察人工智能潜在的偏见,这在以前是不曾有过的。

避免“Smart Compose”陷入性别歧视可能有利于谷歌的业务,这起码证明了谷歌比竞争对手更了解人工智能的细微差别,这也是谷歌构建亲和力的品牌和吸引顾客使用其AI驱动的云计算工具,以及广告服务和硬件所作努力的一部分。

兰伯特说,Gmail拥有15亿用户,当Smart Compose功能推出时,Gmail上来自全球11%的消息都是它帮助编辑的。

Smart Compose是AI开发者口中“自然语言生成(NLG)”的一个使用范例。电脑可通过研究模式,文学、电子邮件、网页上词语之间的关系来学习。

这个系统展示了数十亿人类句子,并且变得善于完成常见的短语,但局限是过于笼统。男性长期以来主导一些领域,如金融和科学,所以这项科技将从数据得出:一个投资者或者工程师是“他”或“他”。这项问题几乎存在于每个主要的科技公司。

兰伯特说,Smart Compose团队约有15名工程师和设计师,他们尝试几种解决方法,但是没有一个被证明是没有偏见的。所以,他们决定最好的解决方案就是最严格的一个:限制范围。兰伯特说,当Smart Compose想要预测输入内容时,性别代词禁令仅会影响不到1%的情况。

谷歌一位负责Gmail和其他服务的工程师称:“我们唯一可靠的技术就是保守。”

谷歌新政策

谷歌这次决定在性别问题上采取安全的做法,是因为该公司一些预测技术引起了引人注目的尴尬事件。

2015年,谷歌因为其图像识别功能将一对黑人夫妇识别为大猩猩而公开道歉。2016年,谷歌更改了搜索引擎自动填补功能,因为此前当用户搜索关于犹太的信息时,谷歌自动提示反犹太问题查询。

谷歌已经在其预测技术上禁止咒骂和种族歧视,还避免提到其业务竞争对手或者悲剧事件。

谷歌的新政策——性别代词禁令也影响到的谷歌智能应答的反应。该服务允许用户立即回复短信和电子邮件,使用诸如“听起来不错”等短语。

谷歌由AI道德团队开发的测试来发现新的偏见问题。在美国以外工作的员工当地寻找文化问题。SmartCompose将很快能够使用他四种工作语言:西班牙语、葡萄牙语、意大利语和法语。

谷歌工程师主管Raghavan称:“你需要很多人力监督,因为每种语言中,表述不妥当的网包含着不同的东西。”

返回顶部
顶部