所有文章 > 当前分类:AI驱动
大模型开发 - 一文搞懂人工智能基础(下):神经网络结构
大模型开发 - 一文搞懂人工智能基础(下):神经网络结构
2024/12/30
一、什么是CNN? 卷积神经网络(CNN):通过卷积和池化操作有效地处理高维图像数据,降低计算复杂度,并提取关键特征进行识别和分类。 网络结构: 卷积层:用来提取图像的局部特征。 池化层:用来大幅降低参数量级,实现...
大模型开发 – 一文搞懂人工智能基础(上):模型
大模型开发 – 一文搞懂人工智能基础(上):模型
【AI驱动】 一、什么是模型? 模型是一个函数:将现实问题转化为数学问题(Encoder编码器),通过求解数学问题来得到现实世界的解决方案(Decoder解码器)。 详细了解看这篇:《一文搞懂Encoder-Decoder(编码器-解码器)》...
2024/12/30
大模型开发 – 一文搞懂Transformer工作原理
大模型开发 – 一文搞懂Transformer工作原理
【AI驱动】 一、单头Attention工作原理 单头Attention(Single-Head Attention):单头注意力是一种注意力机制,它只求一次注意力。在这个过程中,对同样的查询(Q)、键(K)和值(V)求一次注意力,得到一个输出。这...
2024/12/30
大模型开发 – 一文搞懂Encoder-Decoder工作原理
大模型开发 – 一文搞懂Encoder-Decoder工作原理
【AI驱动】 不懂Encoder-Decoder,何以深入序列数据处理?本文将从Seq2Seq工作原理、Attention工作原理、Transformer工作原理三个方面,带您一文搞懂Encoder-Decoder工作原理。 一、Seq2S...
2024/12/30
大模型开发 – 一文搞懂Embedding工作原理
大模型开发 – 一文搞懂Embedding工作原理
【AI驱动】 一、Text Embedding工作原理 文本向量化(Text Embedding):将文本数据(词、句子、文档)表示成向量的方法。 词向量化将词转为二进制或高维实数向量,句子和文档向量化则将句子或文档转为数值向量,通过平均、神...
2024/12/30
TransGNN:Transformer 和 GNN 能互相帮助吗?
TransGNN:Transformer 和 GNN 能互相帮助吗?
【AI驱动】 1.模型背景 图神经网络(GNN)和Transformer模型各自以其独特的优势在处理复杂数据和捕捉序列依赖关系上取得了显著成果。 图神经网络 GNN,即图神经网络(Graph Neural Network),是一种基于图...
2024/12/30
一文彻底搞懂大模型 – Prompt Engineering、Function Calling、RAG、Fine-tuning
一文彻底搞懂大模型 – Prompt Engineering、Function Calling、RAG、Fine-tuning
【AI驱动】 在日新月异的生成式AI领域,几个核心的专业术语不仅频繁出现在讨论、博客和会议中,更是技术发展的关键驱动力。它们分别是:“Prompt Engineering(提示工程)”、“Function Calling(函数调用)”、“RAG(检索增强...
2024/12/30
全面!时间序列和时空数据大模型综述!
全面!时间序列和时空数据大模型综述!
【AI驱动】 1  前言 大型语言模型(LLM)和预训练基础模型(PFM)在自然语言处理(NLP)、计算机视觉(CV)等领域有广泛应用。时间序列和时空数据本质上都是时间数据,将这两个广泛且内在联系的数据类别的研究结合起来至关重要。尽管深度...
2024/12/30
扩散模型的解构研究
扩散模型的解构研究
【AI驱动】 1  介绍 本研究对去噪扩散模型(DDM)进行了解构,发现其关键组件是分词器,而其他组件并非必要。DDM的表现能力主要来自去噪过程而非扩散过程。研究还发现,通过消除类标签条件化项和KL正则化项,使用补丁式分词器可获得与卷积VAE相当的...
2024/12/30
深度学习、神经网络与卷积神经网络:研究及应用
深度学习、神经网络与卷积神经网络:研究及应用
【AI驱动】 在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线,通过深度学习解决若干问题的案例越来越多。一些传统的图像处理技术也可以通过深度学习来获得更优异的效果...
2024/12/30
时空图神经网络原理及Pytorch实现
时空图神经网络原理及Pytorch实现
【AI驱动】 在我们周围的各个领域,从分子结构到社交网络,再到城市设计结构,到处都有相互关联的图数据。图神经网络(GNN)作为一种强大的方法,正在用于建模和学习这类数据的空间和图结构。它已经被应用于蛋白质结构和其他分子应用,例如药物发现,以及模拟系统,如...
2024/12/30
Mamba、RNN及Transformer的模型架构!可视化对比!
Mamba、RNN及Transformer的模型架构!可视化对比!
【AI驱动】 Transformer体系结构已经成为大型语言模型(llm)成功的主要组成部分。为了进一步改进llm,人们正在研发可能优于Transformer体系结构的新体系结构。其中一种方法是Mamba(一种状态空间模型)。 Mamba:...
2024/12/30
全面!深度学习时间序列分类的综述!
全面!深度学习时间序列分类的综述!
【AI驱动】 1  介绍 时间序列分析中的时间序列分类(TSC)是关键任务之一,具有广泛的应用,如人体活动识别和系统监测等。近年来,深度学习在TSC领域逐渐受到关注,具有自动从原始时间序列数据中学习并抽取有意义特征的能力。 本文首先...
2024/12/30
Transformer+时间序列预测实战(Python)
Transformer+时间序列预测实战(Python)
【AI驱动】 概率预测 通常,经典方法针对数据集中的每个时间序列单独拟合。然而,当处理大量时间序列时,在所有可用时间序列上训练一个“全局”模型是有益的,这使模型能够从许多不同的来源学习潜在的表示。 深度学习非常适合训练 全局概率模型...
2024/12/30
实例解析神经网络的工作原理
实例解析神经网络的工作原理
【AI驱动】 在机器学习和相关领域,人工神经网络的计算模型灵感正是来自生物神经网络:每个神经元与其他神经元相连,当它兴奋时,就会像相邻的神经元发送化学物质,从而改变这些神经元内的电位;如果某神经元的电位超过了一个阈值,那么它就会被激活(兴奋),向其他神经...
2024/12/30
逻辑回归优化技巧总结(全)
逻辑回归优化技巧总结(全)
【AI驱动】 一、LR的特征生成 逻辑回归是简单的广义线性模型,模型的拟合能力很有限,无法学习到特征间交互的非线性信息:一个经典的示例是LR无法正确分类非线性的XOR数据,而通过引入非线性的特征(特征生成),可在更高维特征空间实现XOR线性可分,如...
2024/12/30
1 24 25 26 27 28 64