
什么是API产品?
在本文中,我们将探讨如何在生成式人工智能(Generative AI)中使用替代的语言模型(LLM)。尽管 OpenAI 是目前广泛使用的选择,但本文将向您展示如何使用 Ollama 以及它相较于 OpenAI 的优势。
在传统的生成式人工智能模型中,通常遵循以下步骤:
在 InterSystems 开发者社区 中,有一些示例可供参考,例如:
这些示例中,LLM 通常依赖订阅服务(如 OpenAI),通过 API Key 调用 REST API,将矢量化数据作为上下文输入,并生成相应回答。
Ollama 可作为 OpenAI 的本地替代方案,主要优势如下:
注意事项:Ollama 对硬件资源有一定要求,建议至少 16GB 内存,否则可能无法顺利运行。
要开始使用 Ollama,可按照以下步骤操作:
Settings.llm = Ollama(Model="Callam3.2", Request_Timeout=360.0)
更多使用细节可参考 Ollama AI IRIS 的 Open Exchange 应用程序。
将文本向量化后加载到 IRIS 中。在 GitHub 仓库 的 data/example
目录中,可找到示例文本。
使用矢量化文本作为上下文,向 Ollama 提问。例如:
问题:作者做了什么?
回答:
问题:作者喜欢绘画吗?
回答:
注:具体回答会根据加载的文本和 Ollama 模型生成。
通过使用 Ollama,您可以:
注意:Ollama 对硬件资源要求较高,需根据实际环境进行配置。
原文链接:
https://es.community.intersystems.com/post/ollama-ai-con-iris