一文彻底搞懂深度学习(1)
一文彻底搞懂深度学习(1)
2024/12/31
归一化(Normalization) 在深度学习中,归一化是数据预处理中一个至关重要的步骤。归一化技术通过调整输入数据的尺度,使得数据具有相似的分布范围,提高模型的求解速度和泛化能力。 常用的归一化方法,包括批量归一化(Batc...
大模型开发 – 一文搞懂 LangChain(二):Model I/O
大模型开发 – 一文搞懂 LangChain(二):Model I/O
【AI驱动】 一、Model I/O的本质 Model I/O是什么?在LangChain中,模型输入/输出(Model I/O)是指与 LLM 进行交互的组件,它弥合了原始输入数据和结构化输出之间的鸿沟。 格式化(Format):负责格式...
2024/12/30
大模型开发 – 一文搞懂 LangChain(一):总体介绍
大模型开发 – 一文搞懂 LangChain(一):总体介绍
【AI驱动】 一、LangChain的本质 LangChain是什么?LangChain是一个用于开发由 LLM 支持的应用程序的框架。它使应用程序能够: 具有上下文感知能力:将语言模型连接到上下文源(提示说明、few shot examp...
2024/12/30
大模型开发 – 一文搞懂Fine-tuning(大模型微调)
大模型开发 – 一文搞懂Fine-tuning(大模型微调)
【AI驱动】 一、Fine-tuning的本质 Fine-tuning(微调):通过特定领域数据对预训练模型进行针对性优化,以提升其在特定任务上的性能。 一、微调的定义大模型微调是利用特定领域的数据集对已预训练的大模型进行进一步训练的过程。...
2024/12/30
大模型开发 – 一文搞懂人工智能基础(下):神经网络结构
大模型开发 – 一文搞懂人工智能基础(下):神经网络结构
【AI驱动】 一、什么是CNN? 卷积神经网络(CNN):通过卷积和池化操作有效地处理高维图像数据,降低计算复杂度,并提取关键特征进行识别和分类。 网络结构: 卷积层:用来提取图像的局部特征。 池化层:用来大幅降低参数量级,实现...
2024/12/30
大模型开发 – 一文搞懂人工智能基础(上):模型
大模型开发 – 一文搞懂人工智能基础(上):模型
【AI驱动】 一、什么是模型? 模型是一个函数:将现实问题转化为数学问题(Encoder编码器),通过求解数学问题来得到现实世界的解决方案(Decoder解码器)。 详细了解看这篇:《一文搞懂Encoder-Decoder(编码器-解码器)》...
2024/12/30
大模型开发 – 一文搞懂Transformer工作原理
大模型开发 – 一文搞懂Transformer工作原理
【AI驱动】 一、单头Attention工作原理 单头Attention(Single-Head Attention):单头注意力是一种注意力机制,它只求一次注意力。在这个过程中,对同样的查询(Q)、键(K)和值(V)求一次注意力,得到一个输出。这...
2024/12/30
大模型开发 – 一文搞懂Encoder-Decoder工作原理
大模型开发 – 一文搞懂Encoder-Decoder工作原理
【AI驱动】 不懂Encoder-Decoder,何以深入序列数据处理?本文将从Seq2Seq工作原理、Attention工作原理、Transformer工作原理三个方面,带您一文搞懂Encoder-Decoder工作原理。 一、Seq2S...
2024/12/30
大模型开发 – 一文搞懂Embedding工作原理
大模型开发 – 一文搞懂Embedding工作原理
【AI驱动】 一、Text Embedding工作原理 文本向量化(Text Embedding):将文本数据(词、句子、文档)表示成向量的方法。 词向量化将词转为二进制或高维实数向量,句子和文档向量化则将句子或文档转为数值向量,通过平均、神...
2024/12/30
TransGNN:Transformer 和 GNN 能互相帮助吗?
TransGNN:Transformer 和 GNN 能互相帮助吗?
【AI驱动】 1.模型背景 图神经网络(GNN)和Transformer模型各自以其独特的优势在处理复杂数据和捕捉序列依赖关系上取得了显著成果。 图神经网络 GNN,即图神经网络(Graph Neural Network),是一种基于图...
2024/12/30
一文彻底搞懂大模型 – Prompt Engineering、Function Calling、RAG、Fine-tuning
一文彻底搞懂大模型 – Prompt Engineering、Function Calling、RAG、Fine-tuning
【AI驱动】 在日新月异的生成式AI领域,几个核心的专业术语不仅频繁出现在讨论、博客和会议中,更是技术发展的关键驱动力。它们分别是:“Prompt Engineering(提示工程)”、“Function Calling(函数调用)”、“RAG(检索增强...
2024/12/30
全面!时间序列和时空数据大模型综述!
全面!时间序列和时空数据大模型综述!
【AI驱动】 1  前言 大型语言模型(LLM)和预训练基础模型(PFM)在自然语言处理(NLP)、计算机视觉(CV)等领域有广泛应用。时间序列和时空数据本质上都是时间数据,将这两个广泛且内在联系的数据类别的研究结合起来至关重要。尽管深度...
2024/12/30
扩散模型的解构研究
扩散模型的解构研究
【AI驱动】 1  介绍 本研究对去噪扩散模型(DDM)进行了解构,发现其关键组件是分词器,而其他组件并非必要。DDM的表现能力主要来自去噪过程而非扩散过程。研究还发现,通过消除类标签条件化项和KL正则化项,使用补丁式分词器可获得与卷积VAE相当的...
2024/12/30
深度学习、神经网络与卷积神经网络:研究及应用
深度学习、神经网络与卷积神经网络:研究及应用
【AI驱动】 在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线,通过深度学习解决若干问题的案例越来越多。一些传统的图像处理技术也可以通过深度学习来获得更优异的效果...
2024/12/30
时空图神经网络原理及Pytorch实现
时空图神经网络原理及Pytorch实现
【AI驱动】 在我们周围的各个领域,从分子结构到社交网络,再到城市设计结构,到处都有相互关联的图数据。图神经网络(GNN)作为一种强大的方法,正在用于建模和学习这类数据的空间和图结构。它已经被应用于蛋白质结构和其他分子应用,例如药物发现,以及模拟系统,如...
2024/12/30
Mamba、RNN及Transformer的模型架构!可视化对比!
Mamba、RNN及Transformer的模型架构!可视化对比!
【AI驱动】 Transformer体系结构已经成为大型语言模型(llm)成功的主要组成部分。为了进一步改进llm,人们正在研发可能优于Transformer体系结构的新体系结构。其中一种方法是Mamba(一种状态空间模型)。 Mamba:...
2024/12/30