人工智能|ReACT 推理提示

简介

使用大语言模型最困难的事情是让它们做你希望它们做的事情。在一篇知名的 ReACT 研究论文《SYNERGIZING REASONING AND ACTING IN LANGUAGE MODELS》中,作者提出了以下的观点:

在人类从事一项需要多个步骤的任务时,而步骤和步骤之间,或者说动作和动作之间,往往会有一个推理过程。

我们以开车为例,在开车之前,我们会检查汽车的邮箱或者电池情况,以便汽车后续不会因为没有油而导致无法使用。当然,这个“检查的动作”是我们下意识的心理状态。有时候并不会直接讲出来。而此篇论文的作者提出一个方法:

让 LLM 把心理状态说出来,然后再根据心理状态做相应的动作,来提高 LLM 答案的准确性。

在这句话中,我们可以发现两个关键词:

  1. 推理(Reasoning),如果给出推理过程,大模型给出的答案会更好。
  2. 行动(Acting), 在环境中采取行动,并观察结果,反复思考。(有点像调试代码的过程)

他们所做的基本上就是将思维方式从单纯的标准式的通过思维链的提示提升到现在能够有原因的追踪和行动。

实现原理

Reason + Action 结合之后:

  1. 通过推理增强大语言模型解决方案的输出能力。
  2. 执行完成之后将观察带回到语言模型中进行反馈,完善推理。
  3. 所以会获得多步骤的思维方式,不仅仅是一次。直到达成目标为止

应用场景

想象一下,如果大模型能够很好的完成ReAct,即推理+行动的过程。那么就代表大语言模型是无所不能的。当然目前的大模型还没有聪明到这个地步。但是仍然有一些非常好用的应用场景。比如现在很多企业的智能助理,医疗系统的智能助理等等,都是基于此设计原理。

实践应用

通过 LangChain 或者 ChatGPT 的官方 assistant 的 tools 都有利用到 ReaACT 的原理。在后续的课程中会有更深入的实战应用。比如打造企业专属人工智能助理。

相关资料

  • ReAct 框架

总结

  1. 理解 ReAct 框架的基本概念。
  2. 理解 ReAct 框架的应用场景。
  3. 在后续的学习过程中,会结合 LangChain 与 assistant 完成 ReAct 相关的实战练习。
全部评论

相关推荐

点赞 收藏 评论
分享
牛客网
牛客企业服务