Facebook将聘请3000名员工审查直播不良内容

FACEBOOK扎克伯格对外宣布,明年将会聘请3000名员工处理网站上的不良内容,还会加大力度删除涉及谋杀、自杀及其它暴力行为的视频。

从招聘可以看出,FACEBOOK已经意识到光靠自动软件还不够,公司必须聘请员工才能提高内容监管水平。去年,FACEBOOK推出了FACEBOOK LIVE,让用户可以提供广播直播服务,但是有人用LIVE播放暴力内容,使得服务受损。

扎克伯格表示,FACEBOOK现在已经有4500名员工评估帖子,看这些帖子是否违反服务条款,新招募的3000人将会让评估团队更加壮大。

上周,一名泰国人在FACEBOOK LIVE直播,他杀了自己的女儿。等了一天多时间FACEBOOK才将视频删除,浏览量已经达到37万次。另外,芝加歌、克利夫兰的一些视频也因为暴力让观看者感到震惊。

3000名员工将会在新职位上工作,他们会监控FACEBOOK的所有内容,不只是直播视频。至于员工安置在哪里,FACEBOOK没有明言。

FACEBOOK月用户达到19亿,它用AI技术寻找色情、暴力及其它可能存在攻击性的内容。3月份,FACEBOOK还说要用技术发现存在自杀倾向的人,向他们提供帮助。

尽管付出了很大的努力,FACEBOOK主要还是依靠用户举报不良内容。每周用户都会提交几百万份报告,和其它大型硅谷公司一样,FACEBOOK也用人力监督人员评估报告。

加州大学洛杉矶分校信息研究教授沙哈·罗伯茨(SARAH ROBERTS)表示:“与产业所说的相反,我不知道有什么计算机制可以代替人类,充分、准确、100%完成此项工作,现在技术还没有发展到这样的水平。”

罗伯茨还说,监督员一般按合同工作,工作地点设在印度、菲律宾等地方,他们的工作环境很不好,因为要长间快速决策,浏览那些会对心理造成创伤的内容。