从语言到行动:LLM自动化任务的未来
释放AI的力量,将命令转化为自主执行
什么是文本到行动?
自ChatGPT及类似平台的推出以来,大型语言模型(LLMs)通过简化用户通过自然语言查询信息的方式,已经在技术领域发生了巨大变革。LLMs在修改、扩展甚至生成全新的文本片段等任务中也证明是非常宝贵的。虽然模型也可以生成图像和其他媒体,但它们真正的力量在于将语言转化为有意义的行动。
随着LLM技术的成熟,出现了新的使用模式和多样化的集成,导致创新应用的出现,扩大了它们的能力。其中最有前景的领域之一是从简单的查询响应转变为文本到动作,LLMs不仅处理请求,还实时执行任务。
文本转动作 - LLM的能力将自然语言命令转换为直接动作 - 无论是生成代码,自动化工作流程,还是与API进行交互以自主执行任务。
当我们展望未来时,文本到行动系统的自然演化暗示着一个未来,即具有自主决策和任务执行能力的代理人 AI — 变得更具可行性。尽管今天的 LLMs 擅长解释和执行用户命令,但朝着更具自主性、上下文感知的代理人迈进,带来了重大挑战。
例如,虽然当前的模型擅长理解明确的指令,但是它们经常在多步推理或需要深刻理解外部系统的操作中遇到困难。确保在关键应用中的安全性和可靠性——在这些应用中,错误可能会产生重大后果——仍然是一个需要克服的重要障碍。
风景
尽管这些复杂性暗示着一个令人兴奋的未来,但当前的现状已经在LLM驱动的任务自动化方面取得了显著进展。跨行业的整合显示出真正的前景,LLMs从简单的信息检索过渡到更强大的任务执行。如今,各种工具可以解释自然语言命令并实时执行复杂的操作。这些创新可以分为三个主要领域:任务和工作流自动化、自主任务执行以及特定情境的自动化和助理。每个领域都突出了LLMs正在如何改变我们与技术互动的独特方式。
任务和工作流自动化
LLMs在自动化技术和非技术用户的任务和工作流程方面取得了重大进展。通过解释自然语言命令,这些工具可以简化重复过程,生成代码,并在各种平台上自动执行操作。
示例:Microsoft 365 Copilot
Microsoft 365 Copilot 将人工智能集成到广泛使用的生产工具中,如 Word、Excel 和 PowerPoint。通过解释简单的文本命令,它可以撰写电子邮件、生成报告,甚至在 Excel 中自动化数据分析。例如,用户可以输入“总结最新的销售数据并创建柱状图”,Copilot 将立即创建数据的视觉表示,并提供摘要,消除手动工作。微软 Copilot 的成功得益于其无缝集成到更广泛的微软生态系统中,利用 OneDrive 和 SharePoint 等平台提供实时协作和访问大量用户数据。这种深度集成使其在提供综合、熟悉和连接环境方面具有明显优势,使用户能够轻松优化其工作流程。
特定上下文的自动化和助手
具体情境自动化工具是针对特定领域中预定义或高度结构化的任务进行处理的,比如客户支持、项目管理或个人生产力。与跨多个应用程序提供帮助的广泛功能副驾驶员不同,这些系统狭窄地专注于特定的使用案例。通过使用自然语言在明确定义的范围内提供帮助,它们显着提高了其目标领域的效率和用户体验。
- 副驾驶员 - 广泛,跨职能,并在平台内执行多项任务。
- 特定于上下文的自动化 - 狭窄的、领域特定的,具有专门的用例。
示例: 对讲机的细致
Intercom的Fin是一款由人工智能驱动的客户支持助手,旨在处理复杂的客户查询。通过解释自然语言请求,Fin自动化回复重复的查询,解决工单并提供支持而无需人类干预。Intercom通过与公司数据源的深度集成来为Fin提供基础知识。它还通过解决案例中的反馈循环不断改善其支持能力,从需要人类干预的情况中学习。此外,Intercom围绕其LLM产品构建定制软件,增强Fin的功能以处理更复杂的工作流程和结构化流程,使其非常适应特定公司需求。
自主任务执行
自主代理目前被视为LLM驱动自动化的下一个飞跃,这些模型可以在最小人类干预的情况下执行复杂的多步任务。这些系统将高级目标分解为子任务,执行它们,并在工作中适应以实现其目标。
然而,像Auto-GPT这样的自主代理存在明显的缺点。它们偶尔会偏离随机想法链,追求与原始目标有偏离的周边想法。这可能使它们变得低效或不可靠。此外,由于不断生成和评估多个输出需要大量计算,因此它们可能是昂贵的操作。除此之外,这些代理仍然容易受到单一LLM响应的限制,包括幻觉-模型生成不正确或误导信息-在其推理或执行的每一步,这可能会在任务中累积。
示例:自动-GPT
Auto-GPT是一个开源自主代理,能够在不需要持续用户输入的情况下执行任务。例如,如果您给Auto-GPT一个广泛的任务,比如“研究小型企业的最佳营销策略并起草实施计划”,它可以自主浏览网页,收集信息,生成内容,根据反馈对计划进行迭代。Auto-GPT甚至可以处理与外部API或数据库的交互。
相比之下,企业级智能体经常在给予大型语言模型(LLMs)自主操作的自由和提供结构化框架来指导任务执行之间取得平衡。这种结构确保智能体可以更系统地遍历任务,降低任务被忽视或偏离的可能性。通过强加预定义步骤或检查点,企业智能体减轻了与不受控制的智能体行动相关的风险,同时仍允许LLMs灵活地自适应和独立解决问题。这种自由和结构的结合对于确保在复杂环境中可靠并持续执行任务至关重要。
底线
今天的LLM的一个中心限制是幻觉。这个问题有时可能部分是由于用户交互不佳(例如,模糊或不完整的说明),但更根本上,这是基础技术的限制。理想情况下,人工智能应该积极寻找完成任务所需的上下文,而不仅仅依赖用户提供。尽管一定程度上会发生自主来回交互,但这种交互并没有被今天的LLM原生支持。除了扩展令牌范围或使用复杂的嵌入和检索增强生成(RAG)模型之外,目前仍缺乏强大的上下文管理机制。
尽管这些方法(例如,标记扩展或RAG)可以帮助减轻幻觉,但它们并没有与LLM的架构紧密集成。它们仍然是外部解决方案,即使如此,幻觉仍然存在。这引发了一个更大的问题,即变形器架构是否适合作为LLM的最终框架。一些研究开始探索替代架构或变形器的增强,但这些替代方案仍处于早期开发阶段。
展望未来,随着关键限制如幻觉率和令牌成本的降低,以及令牌语境处理和与外部系统的集成改进,LLM 领域正在迅速扩展到新领域。对于那些能够在更具财务头脑或应用程序特定方式中复制企业LLM竞争对手策略的人来说,新的机会正在涌现于未被开发的领域。LLM 技术变得更加可靠和易于访问,创新的用例 - 尤其是在利基行业中 - 将会出现,因为更智能的集成、降低成本和更可靠的结果。
对我来说,LLM的未来仍然有些模糊不清,创新远远超出了我个人之前的预期,甚至就在几年前。一个潜力巨大的领域是自主代理的兴起,尽管由于类似幻觉的挑战而在今天被较少利用,但它们有望成为未来研究和应用的中心焦点。随着代理程序在推理任务、动态管理环境和自主执行复杂工作流程方面变得更有能力,它们在各个行业中的普及程度可能会增加。
然而,随着自主代理的能力日益增强并融入日常工作流程,企业必须面对超越技术的挑战。代理的崛起可能会引发有关人类劳动角色演变以及公司在人工智能承担更复杂决策角色时面临的道德责任的问题。监管审查将增加,企业必须准备好负责任地应对这一格局。
总的来说,虽然幻觉和上下文管理等问题仍然是重要挑战,但人工智能创新的轨迹表明,自主代理已准备好改变产业。重点应放在利用他们的潜力来自动化复杂任务,同时确保它们以有利于企业和社会的方式部署。当我们站在这一转型的关键时刻时,很明显,人工智能的未来将以深远而不可预测的方式重新定义我们与技术的互动。