如何免费使用 DeepSeek AI:API 密钥、本地部署与 RAG 应用实战指南

作者:API传播员 · 2025-10-09 · 阅读时间:6分钟
DeepSeek AI作为一组开源的大型语言模型,在推理、数学、编码等任务上表现卓越。本文详细介绍了如何免费使用DeepSeek AI及其API密钥,包括通过Anakin AI快速上手、在本地通过Ollama运行、在云平台上部署以及构建RAG应用程序的方法。

一. 什么是 DeepSeek AI?

DeepSeek AI 是由中国人工智能公司 DeepSeek 开发的一组 大型语言模型(LLMs),凭借在 推理、数学、代码生成以及通用知识任务 上的卓越表现,迅速在全球 AI 社区引发关注。

DeepSeek 的独特之处在于其 开源与免费策略。公司将多个版本的模型开放给开发者和研究人员,使其能够在无需承担高昂商业 AI 服务费用的情况下,直接使用高性能模型。

1. DeepSeek 模型系列

  • DeepSeek-R1:首代推理模型,参数规模从 1.5B 到 671B。
  • DeepSeek-V3:专为通用交互优化的对话模型。
  • DeepSeek Coder:聚焦代码生成和智能编程助手。

这些模型在 基准测试 中表现优异,部分版本的性能甚至媲美 GPT-4、Claude 等闭源商业模型。


二. 使用 Anakin AI:最简单的 DeepSeek 访问方式

对于不想处理复杂硬件和安装配置的用户,Anakin AI 提供了最便捷的途径。通过其应用商店,用户可以一键启动并使用 DeepSeek 模型。

1. 使用步骤

  1. 访问 anakin.ai 并注册免费账号。
  2. 在应用商店搜索 “DeepSeek”。
  3. 选择感兴趣的模型(如 DeepSeek-R1DeepSeek-V3)。
  4. 点击“使用此应用程序”。
  5. 直接通过网页聊天界面与模型交互。

2. Anakin AI 的优势

  • 零配置:无需安装或服务器。
  • 界面友好:适合初学者与开发者。
  • 多模型支持:轻松切换不同版本的 DeepSeek。
  • 免费使用:限制合理,可付费解锁更多功能。
  • 支持自定义工作流:可进行批量处理与集成。

三. 在本地运行 DeepSeek:Ollama 方案

如果你注重 隐私、安全与性能,可以通过 Ollama 在本地运行 DeepSeek 模型。

1. 硬件要求

  • 小型模型(1.5B、7B、8B):16GB 内存,推荐 GPU ≥ 8GB 显存。
  • 中型模型(14B、32B):需要 GPU 显存 16-24GB。
  • 大型模型(70B):需 40GB 以上显存。
  • 超大模型(671B):企业级多 GPU 硬件。

2. 使用步骤

a. 安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh

b. 下载并运行模型

ollama run DeepSeek-R1:7b

c. 管理模型

ollama list
ollama rm DeepSeek-R1:7b
ollama show DeepSeek-R1

3. 图形化界面推荐


四. 在云平台上运行 DeepSeek

如果本地硬件不足,可以借助 ColabHugging Face 等云平台。

1. Google Colab(免费)

!pip install transformers torch accelerate
from transformers import AutoModelForCausalLM, AutoTokenizer

model_id = "DeepSeek-AI/DeepSeek-R1-7b"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)

inputs = tokenizer("写一首关于人工智能的诗", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

2. Hugging Face Spaces

  1. 注册 Hugging Face
  2. 新建 Space,选择 Gradio 框架。
  3. 直接部署 DeepSeek 模型交互界面。

五. 使用 DeepSeek 构建 RAG 应用程序

DeepSeek AI 非常适合用来构建 RAG(检索增强生成)系统,例如企业知识库问答。

1. LangChain + DeepSeek 集成

a. 安装依赖

pip install langchain langchain-community langchain-deepseek-official

b. 加载文档

from langchain.document_loaders import PyPDFLoader
loader = PyPDFLoader("your_document.pdf")
data = loader.load()

c. 创建向量存储

from langchain.vectorstores import FAISS
from langchain.embeddings import HuggingFaceEmbeddings

embeddings = HuggingFaceEmbeddings(model_name="all-miniLM-L6-v2")
vectorstore = FAISS.from_documents(data, embeddings)

d. 配置 LLM + RAG

from langchain.chat_models import ChatNvidia
from langchain.chains import RetrievalQA

llm = ChatNvidia(model="DeepSeek-AI/DeepSeek-R1", api_key="your_api_key")
qa_chain = RetrievalQA.from_chain_type(llm=llm, retriever=vectorstore.as_retriever())

print(qa_chain.invoke({"query": "文档中的关键点是什么?"}))

六. 结论:拥抱免费 AI 的未来

DeepSeek AI 通过 免费开源模型 + 灵活部署方式,为开发者和企业提供了前所未有的机会。

  • 新手用户可选择 Anakin AI 快速上手。
  • 开发者可在 本地运行 以获得隐私与高性能。
  • 资源有限者可利用 Colab / Hugging Face 云端运行。
  • 企业可借助 RAG 架构 将 DeepSeek 与业务数据结合。

无论你的需求是 学习研究、开发应用还是企业部署,DeepSeek 都为你打开了通往 AI 创新的大门。


📌 原文链接: http://anakin.ai/de/blog/how-to-use-deepseek-ai-for-free-es/