AI 的下一个重大挑战:理解语言的细微差别
简评:人类语言非常博大精妙,同一句话在不同的语境下,就有不同的含义。连人类有时候都不能辨别其中细微的差别,机器能吗?这就是人工智能的下一个巨大挑战:理解语言的细微差别。本文原作者是 Salesforce 的首席科学家 Richard Socher。
语言是人类独有的能力,是我们智慧的体现。但是通过人工智能(我们为机器提供语言能力的NLP)为我们如何使用语言打开了一个新的可能性领域。
今天,Alexa 能够帮你调节智能灯的亮度,也可以告诉你世界另一端的天气状况。在 Google 最近的 Duplex 演示中,AI 还能够进行商务呼叫或者预定约会,曾经存在于科幻小说里的场景在今天变成了现实。但是,对于机器来说,如何进行更为直观、更有语境和更加自然的对话依然是个挑战。而 NLP技术,它和人工智能本身一样古老,我们仍然处在这个旅程的起步阶段。
语言是共享信息并与我们周围的人联系的机制,但是机器需要理解语言的复杂之处,以及我们作为人类,如何交流才能使用语言。在情感分析、问答系统和联合多任务学习方面的进步,是人工智能得以能够真正理解人类和我们沟通的方式。
情感分析
语言从本质上来说就很难,它不断进化,非常微妙。
通过情感分析,我们可以使用 AI 来理解关于特定陈述的某些事情,如品牌介绍、电影评论是积极的、消极的还是中立的。我们也可以弄清楚谈话者的态度和意图(是否生气了?快乐吗?感到惊讶吗?)。从客户服务到在线社区审核,再到算法交易,通过及时分析成千上万的推文或数百条产品评论,了解公众对一个品牌的看法,对企业来说,是非常有价值的。
情感分析已经存在了一段时间,但并不总是非常准确。然而,随着 NLP 技术的进步,情况正在发生改变。在 Salesforce,Einstein AI 服务就能够让品牌厂商从聊天中实时分析电子邮件、社交媒体和文本中的情绪,以便提供更好的客户体验。它还可以用来识别产品缺陷,通过社交媒体渠道监控公众对品牌的看法。
我们还需要能够理解上下文的能力。假设有人在推特上说:“某种香皂真的很适合婴儿呢。”这可以认为是对儿童香皂的积极认可,但也有可能是反话,暗示这种香皂对孩子来说是可怕的。
因此,语义需要结合上下文来看。教会 AI 来解析句子所有的可能含义,并理解某个人在特定语境中想要表达的真实含义,是 NLP 研究中的重大挑战之一。它既需要标记数据来改进模型训练,也需要能够学习上下文并同时在不同任务之间共享知识的新模型。
问答系统
现在,Siri 和 Google Assistant 等应用已经能够很好地回答常见问题了,并能够执行一些简单的命令。但在理想情况下,我们应该可以向计算机提出任意问题,并得到足够好的回答。
提供更好的答案的一个方法是确保计算机能够理解问题。
如果你问,「When will my plane arrive?」,plane 有飞机和木工工具的含义。所以你问的是航班呢,还是从 Amazon 订购的木工工具呢?
只有通过更深入地理解语义,以及更加智能地使用上下文数据,计算机才能越来越善于猜测我们表达的意思。有了 NLP,我们才能弄清楚如何学习这些上下文。
联合多任务学习
科研界擅长的是构建能够很好地完成单一任务的人工智能模型。但会话式和上下文相关的界面将需要一个能够不断学习的人工智能模型 —— 将新任务与旧任务集成,并在此过程中学习执行更为复杂的任务。人工智能在通常情况下都是如此,但在语言方面尤为如此,这是因为语言具有灵活性。
例如,问题:谁是我的客户。
这个问题提出了一个很简单的任务,即创建一个客户列表。但如果问题变成:谁是我们在环太平洋区域的特定产品的最佳客户。问题就增加了一层复杂性。比如,如何定义「最佳」;每个客户都住在哪里?让客户对某种产品感到兴趣都有哪些因素?通过向查询添加一个项目,问题的复杂性就会显著增加了。
Saleforce Research 最近创建了「自然语言十项全能 (Natural Language Decathlon)」,这是一个挑战,利用问答功能在单一模型中解决了 NLP 最棘手的 10 项任务:问答系统、机器翻译、摘要、自然语言推理、情感分析、语义角色标注、关系提取、目标导向对话、数据库查询生成和代词解析。
随着研究人员不断改进这样的模型,我们将看到人工智能界面在承担更复杂的任务时,会变得更加智能。
尽管在 NLP 领域中,我们仍然处于起步阶段。不过,随着 NLP 的进步,人工智能能够改变我们与机器交互的一切方式。
原文链接:AI’s Next Great Challenge: Understanding the Nuances of Language