欢迎访问雷泽体育中国历史网!

翻译软件居然有性别偏见倾向?!背后原来是大数据在“捣鬼”

时间:2021-09-08 01:25作者:雷泽体育

本文摘要:克日,谷歌公司宣称对旗下的“谷歌翻译”软件做了些许重要调整,以淘汰性别偏见的倾向。翻译软件也会发生性别偏见,这是怎么一说?原来,谷歌翻译以前会默认将一些中性词语翻译成具有“性别刻板印象”的用词。“例如,对于像'强'或'医生'这样的词语,它会偏向男性化的指代;而对于其他词语,如'护士'或'漂亮',其翻译出的词语则会偏向为女性化的诠释。 ”谷歌翻译产物司理James Kuczmarski在公司博客上写道。除谷歌翻译外,iPhone也被指出带有这样的“性别偏见”。

雷泽体育

克日,谷歌公司宣称对旗下的“谷歌翻译”软件做了些许重要调整,以淘汰性别偏见的倾向。翻译软件也会发生性别偏见,这是怎么一说?原来,谷歌翻译以前会默认将一些中性词语翻译成具有“性别刻板印象”的用词。“例如,对于像'强'或'医生'这样的词语,它会偏向男性化的指代;而对于其他词语,如'护士'或'漂亮',其翻译出的词语则会偏向为女性化的诠释。

”谷歌翻译产物司理James Kuczmarski在公司博客上写道。除谷歌翻译外,iPhone也被指出带有这样的“性别偏见”。Katrina Lake是美国一家小我私家时尚制定平台StitchFix的CEO,她在Twitter上表现,当她在iPhone键盘上输入CEO时,其会自转动出一个“男性”心情,这就即是将“CEO”一词默认为一定是男性。

而实际上,Lake是一名女性。泉源:Twitter类似谷歌翻译与iPhone键盘这样的应用法式和软件,已在越来越多地使用AI以自动执行任务,其背后使用的都是一种“词嵌入”数据支持模型,而翻译软件中时不时凸现的“性别”用法都是拜这种模型所“赐”。

举例说明,当翻译“工程师”这样的词汇时,该模型就会凭据大数据算法查找到倾向性更大的词对其举行指代,好比更偏向默认用“他”来诠释,而不是“她”。没想到,“根深蒂固”的“性别偏见”也居然泛起在这种前沿数据技术中。“当该模型在翻译时,它也在无意中复制了已存的性别偏见,” Kuczmarski表现道。而德国一名高级盘算语言学家Kate McCurdy强调,“词嵌入“模型自己没有任何错误,但需要人工指导和监视。

同时,她还发现,微软旗下的bing翻译系统也泛起了类似的“性别刻板印象”问题。“这些性别遐想的观点被投射到了事物上,”McCurdy说,碰巧在(如法语、西班牙语等语言)语法中的阳性词在翻译中被自动冠上“男性”特征,而这种模型正在“学习”如何将对性此外刻板印象投射到整个名词领域中,这是令人担忧的一个问题。

雷泽体育

不外,谷歌已表现,在对“谷歌翻译”软件的修改中,会将原先带有指向男性或女性的词汇替换成中性词语。而这些替换会主要体现在“英语转换成法语、意大利、葡萄牙语或西班牙语”的翻译中。

其同时表现,也将在iOS和Android应用法式中设置该修改。不但是谷歌搜索,包罗如Netflix和Spotify等流媒体也宣称正在解决因为AI大数据推演发生的“性别偏见”问题。

不外与以上公司“犯错实时就改”的解决方式差别,McCurdy对此的态度更进一步。“现在(企业)默认的就是,先把这些应用软件都公布出来,等有问题泛起了再去‘灭火’。但如果我们提前对此就有更深思熟虑的设置,我们也可以整合出一个更具评判性的思维(以预防泛起这样的问题)。

”她增补道,如果我们不希望人工智能做出有偏见的决议,而这种偏见我们也不想再“牢固”下去,那么我们需要尽早将这一问题“抹杀”在摇篮中。(编译 彭珵)(泉源:TechCrunch、福布斯)编辑:潘婕。


本文关键词:雷泽体育,翻译软件,居然,有,性别,偏见,倾向,背后,原来

本文来源:雷泽体育-www.flybeauty.cn