Facebook周三表示,该公司的评估员上个季度总共借助之前未披露的自动标记软件删除870万张儿童裸体照片。
这种机器学习工具是在去年推出的,专门用于识别同时包含裸体和儿童两项元素的照片,从而帮助Facebook处理不当内容。
Facebook全球安全主管安提戈涅·戴维斯(Antigone Davis)接受路透社采访时表示,这些算法帮助评估团队优先处理有问题的内容,提升了效率。
该公司还考虑将同样的技术应用到Instagram图片分享应用中。
由于面临监管者和立法者的压力,Facebook承诺加快删除极端主义和违法内容。由于机器学习算法每天都能过滤数十亿张图片,因此成为这项计划的核心所在。
但机器学习并不完美,新闻机构和广告主都曾抱怨Facebook的自动化系统错误地屏蔽了他们的内容。戴维斯表示,该公司的儿童安全系统的确可能犯错,但用户可以提出申诉。