![]() |
KimiGPT大模型API
专用API
【更新时间: 2024.06.03】
kimi 是企业品牌及智能助手的名字,kimi的大模型是叫 Moonshot 。Moonshot 的文本生成模型(指moonshot-v1)是训练用于理解自然语言和书面语言的,它可以根据输入生成文本输出。moons...
|
浏览次数
959
采购人数
43
试用次数
10
试用
收藏
×
完成
取消
×
书签名称
确定
|
- API详情
- 定价
- 使用指南
- 常见 FAQ
- 关于我们
- 相关推荐


什么是KimiGPT大模型API?
在使用moonshot-v1模型时,可以通过提供与kimi人工智能Api相关的prompt来指导模型生成特定类型的输出。例如,如果您需要模型帮助您生成一个与"kimi人工智能Api"相关的代码示例,您可以在prompt中明确指出。
kimi人工智能Api能够处理多种复杂的查询和任务,包括但不限于数据分析、自然语言处理和机器学习。为了充分利用"kimi人工智能Api"的功能,建议用户在prompt中详细描述他们的需求和期望的结果。
此外,当您想要模型提供关于kimi人工智能Api的更多信息或者使用建议时,确保在prompt中包含清晰的指令和相关的上下文信息。这样可以帮助模型更准确地理解您的意图,并生成符合您需求的输出。
什么是KimiGPT大模型API接口?
KimiGPT大模型API有哪些核心功能?
1.语言模型推理服务
语言模型推理服务是一个基于我们 (Moonshot AI) 开发和训练的预训练模型的 API 服务。在设计上,我们对外主要提供了一个 Chat Completions 接口,它可以用于生成文本,但是它本身是不支持访问网络、数据库等外部资源,也不支持执行任何代码。
2.Token
文本生成模型以 Token 为基本单位来处理文本。Token 代表常见的字符序列。例如,单个汉字"夔"可能会被分解为若干 Token 的组合,而像"中国"这样短且常见的短语则可能会使用单个 Token。大致来说,对于一段通常的中文文本,1 个 Token 大约相当于 1.5-2 个汉字。
需要注意的是,对于我们的文本模型,Input 和 Output 的总和长度不能超过模型的最大上下文长度。
3.速率限制
这些速率限制是如何工作的?
速率限制通过4种方式衡量:并发、RPM(每分钟请求数)、TPM(每分钟 Token 数)、TPD(每天 Token 数)。速率限制可能会在任何一种选项中达到,取决于哪个先发生。例如,你可能向 ChatCompletions 发送了 20 个请求,每个请求只有 100 个 Token ,那么你就达到了限制(如果你的 RPM 限制是 20),即使你在这些 20 个请求中没有发满 200k 个 Token (假设你的TPM限制是 200k)。
对网关,出于方便考虑,我们会基于请求中的 max_tokens 参数来计算速率限制。这意味着,如果你的请求中包含了 max_tokens 参数,我们会使用这个参数来计算速率限制。如果你的请求中没有包含 max_tokens 参数,我们会使用默认的 max_tokens 参数来计算速率限制。当你发出请求后,我们会基于你请求的 token 数量加上你 max_tokens 参数的数量来判断你是否达到了速率限制。而不考虑实际生成的 token 数量。
而在计费环节中,我们会基于你请求的 token 数量加上实际生成的 token 数量来计算费用。
4.模型列表
你可以使用我们的 List Models API 来获取当前可用的模型列表。
当前的,我们支持的模型有:
- moonshot-v1-8k: 它是一个长度为 8k 的模型,适用于生成短文本。
- moonshot-v1-32k: 它是一个长度为 32k 的模型,适用于生成长文本。
- moonshot-v1-128k: 它是一个长度为 128k 的模型,适用于生成超长文本。
以上模型的区别在于它们的最大上下文长度,这个长度包括了输入消息和生成的输出,在效果上并没有什么区别。这个主要是为了方便用户选择合适的模型。
KimiGPT大模型API的核心优势是什么?
在哪些场景会用到KimiGPT大模型API?

