
细粒度授权修复关键API安全风险 – Auth0
在使用大型语言模型(LLM)时,尽管措辞可能有所不同,但核心事实通常保持稳定。然而,在某些情况下,LLM的响应可能会出现偏差。这种偏差可能源于模型的弃用或迁移,例如最近OpenAI弃用了一些旧模型。在此情况下,提示内容保持不变,但底层模型已发生变化。
此外,在推理(inference)过程中,注入到提示中的数据也可能有所不同。这些因素共同导致了一种被称为瞬时漂移的现象。
瞬时漂移是指由于模型变化或提示数据不同,导致生成结果出现偏差。为了解决这一问题,市场上已经出现了一些开源的提示管理和测试工具,以及相关商业产品。这些工具旨在确保生成应用程序(Gen Apps)在LLM迁移或弃用之前得到充分测试。
理想情况下,模型应尽可能对底层模型变化保持稳定。实现这一目标的一种方法是利用大型语言模型的**上下文学习(ICL)**能力,通过动态调整提示内容来适应不同模型。
级联效应指在链式应用程序中,一个节点的异常或偏差会传递到下一个节点,并可能在传递过程中被放大。这会导致每个节点的输出逐渐偏离预期结果。
例如,在链式应用程序中,用户的输入可能是意外或未计划的,这会导致节点产生意外输出。如下图所示:
提示工程(Prompt Engineering)是链式应用程序的核心技术。它不仅是单一技能,而是由多个分支组成的学科。提示工程的措辞和设计技巧对生成结果的质量有显著影响。
随着LLM技术的发展,提示工程变得更加可编程。例如,通过检索增强生成(RAG)技术,可以在提示中动态注入模板和上下文信息。此外,提示工程还被整合到更复杂的结构中,如代理(Agents)、**数据管道(Pipelines)以及思维链推理(Chain-of-Thought Reasoning)**等。
这些技术结合使链式结构应用更灵活高效,为解决复杂问题提供了强大支持。
LLM偏移、提示偏移以及级联效应是生成式AI应用中必须关注的问题。通过以下方法可以有效缓解相关风险:
随着技术发展,链式结构与提示工程的结合将为生成式AI应用提供更多可能性和创新空间。
原文链接: https://blog.kore.ai/cobus-greyling/llm-drift-prompt-drift-cascading