ITBear旗下自媒体矩阵:

苹果Siri带有歧视意味的名词解释到底从哪来?

   时间:2015-12-04 15:51:11 来源:凤凰科技编辑:星辉 发表评论无障碍通道

苹果CEO库克

北京时间12月4日消息,据科技网站Mashable报道,Siri摊上大事了,因为它在解释一个名词时带有明显的种族歧视倾向。这种情况到底是苹果故意而为还是出了什么别的问题呢?

众所周知,Siri的回答一直都挺逗的,但这家伙最近却因为一个词条的解释遭到了各界的批评。

黑人人权运动Black Lives Matter的参与者德雷·麦克森(DeRay Mckesson)在使用Siri时发现了一个严重的歧视问题,语音助手将单词“bitch”(母狗)定义为“黑人常用俚语”。下面笔者摘录了一些Twitter上的内容。

Siri搜索“Bitch”这个词显示的结果

“刚听到这个消息我还不信,试了一下我才发现还真是这样,苹果你够了。”

“我也遇到了这种情况,真恶心。”

首先,笔者想说的是这种问题不是Siri独有。苹果OS X内建的字典也有这种问题,此外,试试谷歌搜索你也会得到相同的解释,不过谷歌已经迅速对其进行了修改。笔者针对该问题询问了苹果和谷歌,不过两家公司都不予置评。

Siri到底吃错了什么药?

两家公司的名词解释词条都来自新牛津美语大辞典,但我们在牛津在线词典查询时,却发现它们对其加上了“无礼”的标签。而在Kindle版的新牛津美语大辞典上,这种歧视性的定义并没有出现。这到底是怎么回事呢?

由于这些词条来自牛津词典,所以两家公司都会调用其数据库API,而这些数据来自牛津大学出版社,这也就意味着其词条的更新速度和频率非常缓慢。

只要查询之前的网页快照,我们就能发现,这个侮辱性的词条之前确实存在,Siri背黑锅还真是因为数据升级缓慢?

这个问题也凸显了数据利用方面的问题。苹果和谷歌借助其他机构的数据来方便人们的搜索,虽然很便捷,但语音提问和传统的网页搜索是两码事,因此很容易出岔子。

对于赛事比分等结果,语音助手能很好的完成任务,但对于此类词条解释,苹果和谷歌还是要负起责任,加大检查力度。

当然,这也不是苹果第一次因为这类问题遭炮轰了。2013年,Siri就因为对“retard”(傻子)一词的错误定义而被骂的狗血喷头。今年早些时候俄罗斯版的Siri也因为对同性恋者的不尊重而广遭吐槽。不过最终苹果都对这些词条进行了修改。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  网站留言  |  RSS订阅  |  违规举报  |  开放转载  |  滚动资讯  |  English Version
关闭
ITBear微信账号

微信扫一扫
加微信拉群
电动汽车群
科技数码群