MIT新研究表明机器学习不能标记假新闻

麻省理工学院研究人员发表的两篇新论文显示,当前的机器学习模型还不能完成区分虚假新闻报道的任务。在不同的研究人员表明计算机可以令人信服地生成虚构新闻故事而无需太多人为监督之后,一些专家希望可以训练基于相同机器学习的系统来检测此类新闻。但是麻省理工学院的博士生Tal Schuster的研究表明,尽管机器学习模型擅长检测机器生成的文本,但它们无法识别故事是真实还是虚假的。

MIT新研究表明机器学习不能标记假新闻

许多自动的事实检查系统都使用称为事实提取和验证(FEVER)的真实陈述数据库进行培训。

在一项研究中,Schuster和他的团队表明,即使他们知道肯定的陈述是正确的(“Greg说他的汽车是蓝色的”),机器学习事实检查系统也难以处理否定的陈述(“Greg从未说过他的车不是蓝色的”)

研究人员表示,问题在于数据库充满了人为的偏见。创建FEVER的人倾向于将其错误条目写为否定陈述,而将其真实陈述写为肯定陈述-因此计算机学会了将带有否定陈述的句子评为虚假。

这意味着系统正在解决一个比检测虚假新闻更容易的问题。麻省理工学院教授Regina Barzilay表示:“如果为自己创造一个简单的目标,就可以实现该目标。但是,它仍然无法使您将虚假新闻与真实新闻区分开。”

两项研究均由Schuster带领,并由MIT合作者团队完成。

相关推荐