MIT新研究表明机器学习不能标记假新闻

2019-11-30 19:27:33编辑:admin

麻省理工学院的研究人员发表的两篇新论文表明,当前的机器学习模型仍然无法区分虚假新闻报道。不同的研究人员已经表明,计算机可以令人信服地生成虚构的新闻故事,而无需太多人的监督,一些专家希望基于相同机器学习的系统能够被训练来检测这样的新闻。然而,麻省理工学院博士生塔尔·舒斯特(tal schuster)的研究表明,尽管机器学习模型擅长检测机器生成的文本,但它们无法识别故事是真是假。

许多自动事实检查系统使用名为事实提取和验证(发热)的真实陈述数据库进行培训。

舒斯特和他的团队在一项研究中表明,即使他们知道肯定的陈述是正确的(“格雷格说他的车是蓝色的”),机器学习事实检查系统也无法处理否定的陈述(“格雷格从来没有说过他的车不是蓝色的”)

研究人员表示,问题在于数据库充满了人为偏见。发烧的创造者倾向于把他们的错误条目写成否定的陈述,把他们的真实陈述写成肯定的陈述——所以电脑已经学会把带有否定陈述的句子评为假的。

这意味着该系统解决了一个比检测虚假新闻更容易的问题。麻省理工学院教授雷吉娜·巴兹莱(Regina barzilay)说:“如果你为自己创造一个简单的目标,你就能实现它。然而,它仍然不能让你区分虚假新闻和真实新闻。”

这两项研究都由舒斯特领导,麻省理工学院合作伙伴完成。

最重要的是,第二项研究表明,机器学习系统可以很好地检测机器写的故事,但不能区分真实故事和虚假故事。

广西快3投注 广东十一选五开奖结果 江苏十一选五 甘肃11选5