全文共1261字,预计学习时长4分钟
图源:unsplash
在2020年美国总统大选前的几个月间,Facebook透露,它已经开发出了更好的方式,可以别平台上的不良用户。
一篇发表于2020年8月的研究论文详细介绍了Facebook正在测试的一个系统,该系统有着惊人的简洁性。它并非仅在账号的发帖记录和好友列表中择其一来确定其真实性,而是将两者同时作为账户真实性的判断依据。
Facebook拥有27亿用户,在这样的平台上,仅仅是将查找错误信息和虚假账号的方法的复杂度提高一两个百分点,就意味着要多标记数千或数百万条项目。针对该系统是否已投入使用的质询,Facebook尚未立刻做出回应。
该论文称,这一算法的工作原理是,通过创建一种基于账号或帖子交互的时间线,来预测某账号为虚假账号的可能性,或者某个帖子是仇恨发言的可能性。该算法将每个交互分解为若干部分,包括参与的人员、发生的交互类型以及发生的时间。然后,该算法尝试将时间线与过去的不良行为样例相匹配。
通过合并这些动态数据、发帖回应或评论的时间线,以及Facebook已掌握的静态数据(例如该帐号的好友或所在群组),研究人员可以更全面地了解该账号是否为虚假账号,或某条帖子是否为不实信息。
这份研究报告还显示,该公司现有的一些用于检测虚假行为的算法都是由人工花费大量精力所构建的。研究人员提出了一种针对虚假交互操作的算法,它共涉及1000多个不同的数据点,这些数据点都是由设计该算法的工程师逐个手工选取的。深度学习方法将在很大程度上帮助算法自己学习处理这些信号。
这项新技术仅能找到那些违反Facebook规则的帖子或账号,但如何执行这些规则以及何时采取行动,则主要取决于Facebook的人工监督员。
这些规则可能会令人困惑,尤其是在大选期间。
11月2日,Vice报道称,监督人员接到通知,要求删除那些具有特定措辞的内容,无需这些内容的意图如何。目前尚不清楚该算法是否对Facebook规定中的特定措辞敏感,比如过早地宣称某位候选人赢得了某个州(这是允许的措辞),或直接宣称某候选人赢得大选(这是不允许的措辞)。
Facebook也曾因频繁更新或变更其监督规则而广受指责。此外,目前尚不清楚此类场合出现时是否都需要训练一个新的算法。
与不实信息的斗争,Facebook还任重道远。
留言点赞关注
我们一起分享AI学习与发展的干货
如转载,请后台留言,遵守转载规范
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.