新技术是一项试验计划的补充,该计划要求受过培训的代表审查违规图像。
“通过使用机器学习和人工智能,我们现在可以主动检测未经许可共享的近乎裸体图像或视频,”这位社交网络巨头在一篇博客文章中说。“这意味着我们可以在任何人报告之前找到这些内容。”
该公司补充说,Facebook社区运营团队的一名成员将审查新技术发现的内容,如果发现该图像是违规图像,则将其删除或禁用负责传播该图像的帐户。
“复仇色情”指的是在没有图片中描绘的人的同意的情况下在互联网上共享色情图片,以勒索或侮辱他们。这种做法对妇女产生了不成比例的影响,她们有时成为前伴侣的目标。
Facebook还将在其安全中心页面上推出一个名为“Not Not My Consent”的支持中心,供未经其同意共享亲密图像的人使用。
据路透社报道,总部位于加利福尼亚州门洛帕克的公司至少在八个国家与至少五家外包供应商合作进行内容审查。截至12月,它有大约15,000名员工,包括承包商和员工,正在进行内容审查。