所有文章 > 当前标签:大型语言模型'
LLM中的提示注入攻击:它们是什么以及如何防范 - Portkey
LLM中的提示注入攻击:它们是什么以及如何防范 - Portkey
2025/12/07
提示注入攻击是大型语言模型(LLM)中的关键安全漏洞,通过恶意指令操控模型输出,导致数据泄露和系统风险。本文详细解析直接、间接和存储提示注入类型,并探讨输入净化、输出验证等防御技术,帮助防范LLM安全威胁。
破解代码:自动化提示优化(第一部分)- Copy.ai
破解代码:自动化提示优化(第一部分)- Copy.ai
【AI驱动】 本文探讨自动化提示优化(APO)在AI领域的应用,分析模型路由技术和提示工程中的关键挑战,如不同LLM的可变性和隐藏优化技巧,并分享Copy.ai的实践案例。通过自动化提示优化,企业能提升AI系统效率和用户体验,推动未来统一提示层的发展。
2025/12/07
如何使用Ollama(完整Ollama速查表)- Apidog
如何使用Ollama(完整Ollama速查表)- Apidog
【AI驱动】 Ollama是一款简化本地运行大型语言模型(LLM)的工具,支持Llama 3、Mistral等模型,提供隐私保护、成本节约和离线运行优势。本指南涵盖安装、基本操作、高级定制和故障排除,帮助开发者和AI爱好者掌握本地AI模型部署。
2025/11/21
2025年Prompt Chaining:您需要了解的一切 – YourGPT
2025年Prompt Chaining:您需要了解的一切 – YourGPT
【AI驱动】 提示链接(Prompt Chaining)是一种将复杂AI任务分解为顺序步骤的技术,通过将任务分解为多个阶段,AI可以逐步完成每一步,从而提高精度、减少误差,并实现更好的输出控制。本文详细介绍了提示链接的工作原理、优势及其在内容创建、编码调试和客户服务等实际应用场景中的具体应用。
2025/11/17
提示链与思维链(COT)对比 | YourGPT
提示链与思维链(COT)对比 | YourGPT
【AI驱动】 本文对比了提示链接(Prompt Chaining)和思维链(Chain of Thought, CoT)提示两种优化大型语言模型(LLM)性能的技术,详细阐述其优势、应用场景及选择方法,帮助用户根据任务需求高效利用LLM进行内容生成和复杂推理。
2025/11/15
提示工程指南:LLM技术与管理技巧
提示工程指南:LLM技术与管理技巧
【AI驱动】 提示工程指南涵盖设计、优化生成式AI模型提示的核心技术,包括提示版本控制、效率优化和LLM超参数调整。详细解析零样本、少样本、思维链等提示技术,并介绍自动化工具DSPy和集中式提示库管理实践,帮助开发者提升LLM输出质量和应用效率。
2025/11/11
LLM优化技术:提示调优和提示。..-托洛卡
LLM优化技术:提示调优和提示。..-托洛卡
【AI驱动】 本文探讨了LLM优化技术中的提示调优和提示工程,作为微调的替代方案,通过设计硬提示和软提示来提升模型性能,适用于数据资源有限的企业,实现定制化、提高效率和降低数据依赖性。
2025/11/03
Mistral AI的OCR API:文档处理技术的进步
Mistral AI的OCR API:文档处理技术的进步
【AI驱动】 Mistral AI的OCR API结合大型语言模型提升文档处理技术,专注于解决扫描文档的OCR挑战,提供高效经济的解决方案,优化文本提取准确性和处理效率,适用于法律文件等复杂场景。
2025/11/01
Prompt RAG 全解析:无需向量嵌入的检索增强生成方法及应用指南
Prompt RAG 全解析:无需向量嵌入的检索增强生成方法及应用指南
【AI驱动】 Prompt RAG是一种创新的检索增强生成方法,无需向量嵌入即可优化大型语言模型的性能。它通过直接利用文档目录进行上下文检索和生成,简化了实现过程,减少了对复杂数据管理框架的依赖。这种方法特别适用于特定领域的优化,提供了一种无向量化的高效检索和生成路径。
2025/10/10
如何免费使用 DeepSeek AI:API 密钥、本地部署与 RAG 应用实战指南
如何免费使用 DeepSeek AI:API 密钥、本地部署与 RAG 应用实战指南
【免费API】 DeepSeek AI作为一组开源的大型语言模型,在推理、数学、编码等任务上表现卓越。本文详细介绍了如何免费使用DeepSeek AI及其API密钥,包括通过Anakin AI快速上手、在本地通过Ollama运行、在云平台上部署以及构建RAG应用程序的方法。
2025/10/09
DeepMind OPRO提示优化方法解析:提升LLM性能的新策略
DeepMind OPRO提示优化方法解析:提升LLM性能的新策略
【AI驱动】 DeepMind推出的OPRO优化方法是一种创新的提示技术,旨在通过迭代优化提示提升大型语言模型(LLM)的性能。该技术结合无梯度和梯度方法,通过生成多个解决方案探索最优解,显著提高了模型在特定任务上的表现。研究表明,OPRO优化的提示在GSM8K等数据集上比人类设计的提示性能提升高达50%。
2025/09/26
提示链 AI 完全指南:提升 ChatGPT 和大型语言模型输出质量的实用方法
提示链 AI 完全指南:提升 ChatGPT 和大型语言模型输出质量的实用方法
【AI驱动】 本文深入探讨了提示链接(Prompt Chain AI)技术,这是一种通过将复杂任务分解为更小、更集中的步骤来提升AI输出质量和准确性的方法。文章详细介绍了提示链接的工作原理、分步实施指南、实际应用场景以及相关工具和平台,如PromptHub和MindPal,旨在帮助读者掌握2025年自动化指南中的关键技术。
2025/09/26
2025 Google Gemini 1.5 Pro 提示工程指南
2025 Google Gemini 1.5 Pro 提示工程指南
【AI提示词模板】 本指南详细介绍了如何在Gemini 1.5 Pro中进行提示工程,包括定义、示例和最佳实践。通过精心设计提示,可以从模型中引出所需的响应,充分利用其功能。文章还探讨了如何将Gemini 1.5 Pro与Anakin AI集成,实现高度定制化和可扩展性。
2025/09/18
生成式AI中的LLM偏移与提示工程优化:链式结构与级联效应解析
生成式AI中的LLM偏移与提示工程优化:链式结构与级联效应解析
【AI驱动】 本文探讨了大型语言模型(LLM)使用中的偏移问题,包括LLM偏移、提示偏移与级联效应,分析了这些现象的原因及其对生成式AI应用的影响。文章提出了通过提示管理、上下文学习能力和提示工程优化来缓解这些问题的方法,并展望了链式结构与提示工程结合的未来发展。
2025/09/15
Cursor如何使用Speculative Decoding API构建Fast Apply
Cursor如何使用Speculative Decoding API构建Fast Apply
【AI驱动】 本文介绍了Cursor如何利用Fireworks的推测解码API实现每秒1000 token的处理速度,显著提升开发效率。通过定制训练的llama-70b-ft-spec模型,Cursor在代码生成和编辑任务中超越了GPT-4和GPT-4o的性能。推测解码技术通过并行化生成token,解决了传统大型语言模型的高延迟问题,为开发者提供了更高效的代码编辑工具。
2025/08/20
从零开始创建自己的llm:深入探索与实践指南
从零开始创建自己的llm:深入探索与实践指南
【日积月累】 从GPT-3到BERT,这些模型在文本生成、翻译、问答等任务中展现了强大的能力。然而,大多数开发者依赖于预训练模型,缺乏对LLM底层原理和实现细节的深入理解。本文旨在引导读者从零开始创建自己的LLM,涵盖从理论基础到实际操作的完整流程,帮助开发者深入掌握LLM的核心技术。
2025/01/16