本篇延续我们上篇文章《大模型对话系统的内功与外功》,以一个回顾和展望的视角出发,试图回答大模型对话系统的过去,现在和未来等一系列相关问题。我们知道对话系统是自然语言处理领域经久不衰的热门研究方向之一。在大模型,特别是ChatGPT和GPT4等,横空出世之后,几乎所有的自然语言处理任务都可以通过对话这一外在表现形式进行处理,在这个的一个时间点上,我们认为有必要对对话系统的演变和进化进行一个整体性的回顾,对话系统是如何从最早期的简单的基于规则的,领域单一,任务单一,语言单一的形式进化到现在这种基于大模型的,可以处理几乎所有领域,所有任务,语言丰富的系统?
Arxiv: https://arxiv.org/pdf/2311.16789.pdf
Github: https://github.com/ruleGreen/Survey-Evolution-DS
对话系统的进化,离不开底层语言模型的进化,每一次语言模型的更新,都代表一次计算架构和学习范式的迭代,给对话系统的发展与演变带来了深刻的影响。从 NLM(e.g., LSTM, GRU)到 PLM(e.g., BERT, GPT),再到如今几乎统治一切自然语言处理任务的LLM,每一次语言模型的进化都对对话系统的研究方向和研究重心产生了一定的影响。我们按照这几次重大的语言模型的突破(Seq2seq, PLM and LLM)将整个对话系统的演变分为四个不同的阶段:
对话系统最早可以追溯到传统的基于规则和模板的对话系统,比如Eliza就是MIT 于 1966 年提出的,早于 20 世纪 90 年代 SLM 的兴起,它允许人与机器之间进行简单的对话。 随后,一系列对话系统被构建出来,包括帮助客户简单返回加利福尼亚州单个城市的旅行社 —- GUS,和配置有角色的基于规则的聊天机器人,采用启发式模式匹配规则 解决有关年龄、爱好、兴趣等的询问 —- ALICE。 除了学术上的努力,越来越多的公司关注对话系统领域并开发了自己的产品。 例如,IBM 开发了WATSON,Apple 开发了Siri,微软开发了 XiaoIce。 这些早期的虚拟助手功能有限,遵循严格的流程,主要帮助用户完成单一且简单的任务,例如安排约会、设置提醒以及提供简单问题的基本答案。 在这个阶段,大多数对话系统都是面向任务的,这些对话系统的普遍性质主要是面向任务的,采用基于模块化的方法或基于SLM的机器学习方法。