所有文章 > 当前标签:LLM大语言模型

从头开始构建 GPT 风格的 LLM 分类器
2025/05/29
这篇文章介绍了如何将预训练的大型语言模型(LLM)转化为强大的文本分类器,重点讲解了分类微调的原理和实践。文章通过一个垃圾邮件分类器的案例,展示了如何对LLM进行微调,并探讨了与训练LLM分类器相关的七个常见问题,如是否需要训练所有层、是否禁用因果掩码等。文章还对比了指令微调和分类微调的不同应用场景,指出分类微调更适合特定类别数据的精确分类任务。

LLM之RAG实战| 高级RAG:通过使用LlamaIndex重新排序来提高检索效率
【日积月累】
基本RAG的检索是静态的,会检索到固定数字(k)个相关文档,而如果查询需要更多的上下文(例如摘要)或更少的上下文,该怎么办? 可以通过在以下两个阶段来实现动态检索: 预检索:检索器初步选择...
2025/03/03

LLM大语言模型+RAG实战+Langchain+ChatGLM-4+Transformer
【日积月累】
Langchain的定义 Langchain的组成 三个核心组件实现 整个核心组成部分 为什么要使用Langchain Langchain的底层原理 Langchain实战操作 LangSmith ...
2025/02/28