Cube AI API 全面升级:定价优化、值搜索、自定义LLM与Slack集成实战指南

作者:API传播员 · 2025-09-12 · 阅读时间:5分钟
Cube的AI API通过引入值搜索功能、支持自定义LLM以及与Slack的集成,显著提升了数据查询的效率和用户体验。值搜索功能允许用户通过引用维度内的值来优化查询,而自定义LLM支持则提供了成本和安全性的灵活性。此外,Slack应用程序的集成使得用户能够直接在Slack中与Cube的语义层交互,进一步提升了数据访问的便捷性。

一. AI API的新定价策略

自从我们推出 AI API 以来,使用大型语言模型(LLM)的每个代币成本显著降低。最初的定价是每个CCU(并发用户)对应一个请求,但随着更高效模型的出现,例如 Claude 3.5 SonnetGPT-4o,现在每个CCU可以支持 5个请求,整体成本更低。

从2024年12月开始,AI API将面向所有付费的Cube Cloud客户开放,包括计划启动的客户。无需联系客户经理或额外申请,这项功能将默认启用。

部署时,只需在配置标志中切换相关设置即可完成启用:


二. Cube的AI API与值搜索功能

Cube AI API 是一款强大的工具,能够让用户快速、安全、透明地访问数据。但客户反馈中常见的问题是:用户习惯直接引用维度内的值,而不是明确指定 维度=某值,这常常导致请求失败。

为解决这一痛点,Cube推出了 值搜索(Value Search) 功能。通过值搜索,Cube Cloud客户可以选择特定维度进行索引,查询时即可引用维度值。随后,Cube的 RAG(检索增强生成) 系统会利用相关值回答问题,并返回包含维度名称和筛选值的结果。

以下是在Cube数据模型YAML中配置维度值搜索的示例:

dimensions:
  - name: category
    type: string
    search: true

更多细节请参考官方文档:值搜索文档


三. 自定义LLM支持

Cube Cloud客户现在可以选择 自定义LLMAI API 结合使用,从而降低成本或满足特定安全需求。与其仅按“每5个请求=1个CCU”的方式计费,客户可以通过自定义LLM生成成本,从而更灵活地控制支出。

支持的LLM平台包括:

  • Claude 3.5 Sonnet (通过AWS Bedrock、GCP Vertex、Snowflake和Anthropic获取)
  • GPT-4o (通过OpenAI或Microsoft Azure获取)

这样,用户几乎可以根据自身需求自由选择LLM,无论是 成本优化安全合规,还是两者兼顾。

以下是更改LLM提供程序以供AI API使用的操作示例:

此外,我们还为计划在 4月底前 将AI API投入生产的客户提供免费研讨会,帮助快速上手。


四. Cube AI API的Slack应用程序

自AI API推出以来,许多客户希望通过 Slack集成 让团队成员能够直接在Slack中与Cube的语义层交互。通过 Cube AI API,用户可以快速、安全且透明地获取数据答案。

Slack应用安装后,将被引入到工作区,并与每位用户单独对话:

  • 用户可以直接将数据问题发送给应用,系统会自动转化为线程;
  • 支持后续追问和反馈;
  • 可选在私人频道中接收所有问题日志,供工程团队观察和优化。

这种集成大大提升了 企业数据访问效率跨团队协作体验


五. 总结

Cube AI API 通过持续优化与新功能迭代,为用户带来更高效的体验:

  • 定价策略优化 —— 成本更低,支持更多并发请求;
  • 值搜索功能 —— 解决查询失败痛点,让数据访问更智能;
  • 自定义LLM支持 —— 灵活选择Claude、GPT-4o等平台,兼顾成本与安全;
  • Slack应用集成 —— 实现无缝协作,提高团队工作效率。

无论是企业还是开发团队,都能借助Cube的AI API,更智能地管理和查询数据,为业务决策提供有力支持。


原文链接: https://cube.dev/blog/make-your-ai-smarter-turbocharging-cubes-ai-api-with-value-search-byollm-and