Reddit热门话题:你是否也对NLP的现状感到失望?

选自Reddit

机器之心编译

参与:李泽南、黄小天、刘晓坤

众所周知,自然语言处理(NLP)与计算机视觉(CV)是人工智能的两大热门领域。近年来,随着深度学习等技术的发展,计算机视觉领域发展很快,越来越多的应用开始落地。与之相比,NLP 领域目前的进展如何?昨天,有人在 Reddit 上发出了疑问:是否我们和 NLP 的突破之间还有很长一段距离?这个问题引发了人们的热烈讨论。

问题

Reddit热门话题:你是否也对NLP的现状感到失望?

我现在对于自然语言处理(NLP)领域的进展稍感失望。

在 2014 年-2015 年期间,NLP 上有许多有趣的发展方向:外部存储器(external memory)、推理、无监督/半监督学习、聊天机器人、问答系统、为图像生成文字描述……然而在今天,其中的很多似乎没有多少进展,而人们研究的热点纷纷转向了 GAN 和强化学习。

你觉得是这样吗?谈论 NLP 领域的突破是否为时尚早?

Reddit热门话题:你是否也对NLP的现状感到失望?

回答与讨论

Jean-Porte:当前最优结果正稳步增长。一些结果令人印象深刻,比如在 SNLI 上表现超越人类的最佳方法,尽管我不认为这是人类的真实水平。无监督学习在 NLP 中获得成功(如下所示为两篇介绍无监督机器学习的 ICLR 论文),虽然机器学习会议(ICLR)中的 NLP 论文相当少。很多高效方法也已在开发之中(比如 fasttext)。我认为 2014-2015 期间有很多新的有趣且艰难的问题已解决,并取得了相当好的结果。这一领域在这些问题方面越发成熟,相比以往突破性不大,但肯定有进步。

  • https://arxiv.org/pdf/1711.00043.pdf

  • https://arxiv.org/pdf/1710.11041.pdf

hapliniste:我认为真正好的 NLP 要远比我们想的更艰难,也许等到我们实现了通用人工智能(AGI)才会到来(正如语言来自现实世界,不了解这个世界肯定行不通)。

adammathias:你是对的,NLP 非常难。不仅仅是任务难(当然这样也要看我们选择的任务),分析和表征结果更难。很多图像任务中间层的输出的可视化可以获得任何研究委员会、工程经理甚至是纽约时报读者的肯定,就像认可一些计算机艺术一样。

但是作为两个句子的平均的一个句子呢?或者生成自向量空间的一个点?并且这假设训练数据是英文。结果就是一切难上加难。进入门槛越高,即刻的奖励越低。因此很多研究者改变了研究领域,渐渐变的妥协。

作为一个具体实例,向世界顶级研究与工程组织的非常有才华、善意且做事高效的同僚解释为什么Блацк Форест或者тхроугх是不可接受的输出并且是彻底的失败,是一场艰苦异常的战斗。因此,五年之后,这依然存在。并且这是一个很简单的问题,更像是一个数据通道 bug,实际上非常好解决。

hapliniste:没错,我也认为语言处理是一个大难题。假如可以制造一个「hyppocampus」控制网络中的信息路由选择,就能拥有一个开发强大 NLP 的坚实基础,但目前看来还远远无法实现。

我目前对于如何实现「AGI」和 NLP 的观点如下:

  • 需要一种系统,其拥有两种基本结构:函数和表示(类型)。函数就是模型,表示是函数作用的对象(且只能使用一种表示),然后尽可能分解函数,并在其它函数中复用;

  • 需要一种系统,以找到函数的能给出基于输入的正确的输出的路由。它需要在初始表示(比如一张图像)之间找到最好或最短的路由并发送到所要求的表示上(比如文本描述)。所用的表示或类型必须强制网络只使用合理的路径;

  • 可以使用由「hyppocampus」生成的路径,并将其转换为文本描述。这样就能实现一种强大的 NLP 了。

不过也请别太较真,这些都还是未被证明过的观点。

请注意我谈到了「AGI」,但似乎很多人都把 AGI 当做一种进化过程的结果,并且是有生命的。但用我的方法不太可能会实现这种 AGI。它可能更像一个 app 商城,其中人类设计的模型以一种监督方式解决任务(这就是为什么我会称它为「AGI」,而不是 AGI)。

adammathias:至于 2017 年第 4 季度,我们甚至没有尝试。任何真实任务,比如 Nice truck attack、Pope's Baby Steps on Gays、Loving PR 或者省略语言中的一半语句 (今天的实例),没有额外语境的帮助无法完成。但是绝大多数基准不包含语境。即使我们有一些超级神经网络,并在训练和测试中输入这般的字符串,我们也无法期望该网络会工作。某种意义上在给定输入的情况下,今天的机器学习的性能已几近最优。

为了兑现承诺,Google Now 及其他类似应用确实使用了语境,并且 Manning 的斯坦福实验室已经关注首语重复法研究。制作语境数据集也面临挑战,它们必须足够大,但是迁移可能不太好。一旦有了这样的数据集,会涌现出更多有关自然语言的 AGI 研究。

automated_reckoning:这些是绝佳的实例!如此容易地在你心中转变意思非常有趣,这很好地证明了语境的重要性,以及自然语言是多么微妙。

adammathias:实例 The Pope's Baby Steps 来自 Chris Manning:The Future of AI – June 23, 2016 - https://vimeo.com/173057086。

关于神经图片标注:其实那个东西不是 NLP。

关于机器翻译:我们现在只看到谷歌、IBM 微软等公司展示的对话到对话 demo,而其中最引人关注的点是语音识别技术,这意味着它并不全是 NLP。现在湾区的公司有多少真正需要机器翻译的?NMT 真正的用户群是那些不会说英语,但却在工作和生活上需要用到英语的人群。

mljoe:我认为除了计算机视觉中存在的典型堆栈和池化方法以外,我们还需要其他一些东西。上述方法可以抓取物理世界结构的本质(引自 Henry W. Lin 等人的论文《Why does deep and cheap learning work so well?》)。但我认为在自然语言中它们不起作用。我认为 Geoffrey Hinton 的 Capsule 理念或许可以为 NLP 带来新的希望。

Syphon8:让我进一步来说说自然语言处理的本质吧,它和你如何看待一个人有关,这其实和通用人工智能是同一个问题。

或许这只是 Sapir–Whorf 假说的一次复现,但我认为它的可能性很大(Sapir–Whorf 假说:一个关于人类语言的假说,由语言学家兼人类学家 Edward Sapir 及其学生 Benjamin Whorf 所提出,是一个心理学及语言学假说。它认为,人类的思考模式受到其使用语言的影响,因而面对同一事物时可能会有不同的看法)。

任何可以像人类一样处理自然语言的机器都可以拥有相应的观点,同时可以完成其语言中所描述的任务。

同样,任何真正的人工智能都需要有某种程度的处理语言的能力,这样才能与其他智能体进行交互。

torvoraptor:看看最近的论文吧,已经出现无监督神经机器翻译了,我根本不认为 NLP 领域停滞了(《Word Translation Without Parallel Data》:https://arxiv.org/abs/1710.04087)

eMPiko:我不觉得这令人失望,更愿意当作一种警醒。总会有一些人一旦有什么有趣的新发现,就大肆宣扬在什么 20 年内获得通用人工智能。深度 NLP 已经取得很大进步,它使用的是相当通用的和可复用的架构,可以在每一种虚拟的 NLP 任务中达到当前最佳结果。我们在短短几年内就(在某些案例中)超越了过去几十年的研究成果。例如,所有在 2015 年之前使用统计机器翻译的研究进展现在实际上都变得无关紧要了,因为我们已经开始使用数据驱动的编码器—解码器(encoder-decoder)。

Phylliida:我很喜欢那篇论文。可惜的是据我所知,和常规的机器翻译不一样,它不能转移到聊天机器人上。

evc123:NLP 将继续保持颓势,直到情境语言学习(Situated Language Learning)得到应用:https://arxiv.org/abs/1610.03585。

disappointedwithnlp:我并不认为这是当前困境的解决办法。

由于不可能学到比智能体知道的更多的东西,任何从其它智能体学习的智能体都有所局限。任何学习人类的智能体在学习其它东西的时候都必须非常高效地使用样本(sample efficient)。因此,我们首先需要更好的无监督学习获得高效使用样本的能力。

你对 NLP 目前的发展有何看法?欢迎留言进行讨论。

相关推荐