盘点9家免费且靠谱的AI大模型API,统一封装,任性调用!

作者:weixin01 · 2024-11-22 · 阅读时间:10分钟

现在做大模型,还有靠谱且免费的 API 接口吗?

靠谱的不免费,免费的不靠谱,鱼和熊掌不可兼得?

非也!

对于简单的指令而言,绝大部分免费 LLM 还是能打的,本文就给大家盘点:猴哥亲测好用的免费的 API 接口!同时,也可以结合 智能代码审查助手综合代码审查 提升开发过程中对代码质量的把控。

1. 免费 LLM API 汇总(持续更新中)

大模型 免费版本 免费限制 备注
讯飞星火大模型 spark-lite Tokens:总量不限;QPS:2 链接
百度千帆大模型 ERNIE-Speed-128K RPM=60,TPM=300000 链接
ERNIE-Speed-8K/ERNIE-Lite-8K/ERNIE-Tiny-8K RPM=300,TPM=300000
腾讯混元大模型 hunyuan-lite 限制并发数 5 链接
智谱 AI 大模型 glm-4-flash 限制并发数 5 自带联网搜索,支持微调,可结合 Grok提示词:代码重构助手 进行优化
书生浦语大模型 internlm2.5-latest RPM=10, TPM=5000 需申请使用
Llama Family Llama3-Chinese-8B-Instruct/Atom-13B-Chat 8-22 点:RPM=20;22-次日 8 点:RPM=50 链接
Groq gemma-7b-it/llama-3.1-70b等 RPM=30, RPD=14400 链接
Google Gemini gemini-1.5-flash/gemini-1.0-pro RPM=15, TPM=100万, RPD=1500 链接
gemini-1.5-pro RPM=2, TPM=3.2万, RPD=50
text-embedding-004 RPM=1500
硅基流动 Qwen2-7B-Instruct等 RPM=100,QPS=3 链接

  • RPM:每分钟处理的请求数量;
  • TPM:每分钟处理的Token数量;
  • RPD:每天处理的请求数量;
  • QPS:每秒内处理的请求数量;
  • 并发数:系统同时处理的请求数量。

接下来,我们一起梳理下各家的 API 调用示例代码,以及如何把它们接入 OneAPI,方便集成到兼容 OpenAI 格式的应用中! 同时结合 Git操作生成器GitHub问题智能创建助手,可以进一步提升团队协作效率。

关于如何使用 OneAPI,可以围观教程:OneAPI-接口管理和分发神器。

2. 讯飞星火大模型

调用示例代码见:拒绝Token焦虑,盘点可白嫖的6款LLM大语言模型API

当然,更简洁的方式是:接入 OneAPI!

添加一个新的渠道,类型选择 [讯飞星火](https://www.explinks.com/provider/uid2024041969341b11c440) 认知,模型处手动填入spark-lite

image

3. 百度千帆大模型

首先,到千帆平台上开通免费的模型:https://console.bce.baidu.com/qianfan/ais/console/onlineService

image 然后,到应用接入中创建应用,获取API Key、Secret Key

image 最后,调用示例代码:

import requests
import json

API_KEY = "xxx"
SECRET_KEY = "xxx"
def get_access_token():
url = "https://aip.baidubce.com/oauth/2.0/token"
params = {"grant_type": "client_credentials", "client_id": API_KEY, "client_secret": SECRET_KEY}
return str(requests.post(url, params=params).json().get("access_token"))

url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie_speed?access_token=" + get_access_token()
payload = json.dumps({"messages": [{"role": "user","content": "你好"}]})
headers = {'Content-Type': 'application/json'}
response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)

当然,更简洁的方式是:接入 OneAPI!

添加一个新的渠道,类型选择 [百度文心千帆](https://www.explinks.com/api/scd202405307073131b0f82),模型处只保留你开通的免费模型。同时,如果想快速上手示例代码和学习技巧,可结合 制定高效学习策略

image

4. 腾讯混元大模型

腾讯云的产品,接入地址:https://console.cloud.tencent.com/hunyuan/start

新用户首先要开通,然后点击创建密钥,到新页面,新建密钥。

首次记得保存!后续不支持查询!

image
混元大模型 的调用接口,鉴权非常麻烦,最好安装它的 SDK 进行使用。结合 撰写指南,可以让开发者快速理解使用方法。

当然,更简洁的方式是:接入 OneAPI!

添加一个新的渠道,类型选择 腾讯混元,模型处需要手动填入hunyuan-lite

image 在下面的密钥处填入你的:APPID|SecretId|SecretKey。

5. Google Gemini

Google Gemini 集成在 Google AI Studio中。

首先需要创建一个项目,然后获取 API 密钥

API 密钥获取地址:https://aistudio.google.com/app/apikey

image 在 API 价格文档中,可以看到各个模型的限速详情:https://ai.google.dev/pricing

image 调用示例代码:

import requests
import json

url = "https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-latest:generateContent"
api_key = "xxx"
headers = {"Content-Type": "application/json"}
data = {"contents": [{"parts": [{"text": "Explain how AI works"}]}]}
response = requests.post(f"{url}?key={api_key}", headers=headers, data=json.dumps(data))
print(response.json())

如果是国内 IP,是调不通的,会报下面的错误:

{'error': {'code': 400, 'message': 'User location is not supported for the API use.', 'status': 'FAILED_PRECONDITION'}}

因此,请自行备好梯子,或在代码中加上海外 IP 的代理!

当然,更简洁的方式是:接入 OneAPI!

添加一个新的渠道,类型选择 [Google Gemini](https://www.explinks.com/api/ai_gemini_brand),模型处只保留你开通的免费模型。

image

6. All in One

如果你还在因适配各种 LLM 接口而苦恼,强烈推荐使用 OneAPI 管理自己的各种 LLM API!同时可以借助 自动化入职流程设计远程员工入职流程 来管理团队新员工的接入流程,或者用 作业答案生成 作为教育场景的辅助工具。

image 关于如何使用 OneAPI,可以围观之前的教程:OneAPI-接口管理和分发神器

写在最后

本文盘点了几款免费又好用的 LLM API,并接入了 OneAPI 统一管理!

你要问目前这些免费的 API 中,哪个更能打?

答:Google 家的 gemini-pro-1.5 指令遵循最佳,没有之一!

文章转自微信公众号@猴哥的AI知识库


推荐阅读:免费 AI 提示词 + Sudowrite 平替:玄幻小说写作实战指南,直达起点中文网签约