在 IRIS 数据集上使用 HuggingFace API 进行高效机器学习实践

作者:API传播员 · 2025-10-15 · 阅读时间:5分钟
本文介绍了如何在Next.js/React应用中利用WebOTP API实现短信验证码自动填充功能,提升用户体验。详细讲解了WebOTP API的实现原理、JavaScript代码实现、短信格式规范及注意事项,帮助开发者高效集成此功能。

一. 使用 HuggingFace API 在 IRIS 数据集上进行机器学习

HuggingFace API 是一个功能强大的机器学习工具,能够帮助开发者快速集成和部署模型。本文将详细介绍如何在 IRIS 数据集上使用 HuggingFace API 进行机器学习,包括模型的下载、配置、调用和测试等内容,为开发者提供完整实践指南。


二. 启动生产环境

在开始之前,请确保已安装 DockerDocker Compose。启动生产环境步骤如下:

1. 打开终端并进入项目目录

导航到 iris-local-ml 文件夹。

2. 启动生产环境

输入以下命令:

docker-compose up

三. 进入和关闭生产环境

1. 进入生产环境

生产环境启动后,可通过终端或管理控制台进入并进行操作。

2. 关闭生产环境

操作完成后,可通过以下命令关闭:

docker-compose down

四. HuggingFace Pipeline 简介

HuggingFace Pipeline 是一个强大的工具,它能自动分析模型文件夹并选择合适的框架(PyTorch、Keras、TensorFlow 或 JAX)。Pipeline 通过 AutoModel 加载模型,并根据任务类型自动处理输入、令牌化、特征提取等操作,最终返回可直接使用的结果,大大简化了模型调用流程。


五. 测试 HuggingFace 模型

1. 打开 IRIS 测试窗口

在请求类型中选择:

Grongier.PEX.Message

2. 配置类名和参数

classname 中输入相应的类名,并提供 JSON 格式参数,例如调用 GPT2 模型:

{
    "api_url": "https://api-inference.huggingface.co/models/gpt2",
    "payload": "请告诉我们您的详细信息",
    "api_key": "----------------------"
}

3. 查看运行结果

点击 Visual Trace 查看详细日志。

注意:使用 HuggingFace API 之前需申请 API 密钥(免费注册)。更改 api_url 可测试其他 HuggingFace 模型,但可能需调整 payload 参数。


六. 使用自定义模型

1. 配置自定义模型

步骤如下:

a. 放置模型文件

将模型文件放置在路径 src/model/yourmodelname/

b. 配置模型参数

name=yourmodelname
task=文本生成

namemodel_url 外的配置将进入 Pipeline 配置。

c. 创建 Pipeline

使用文件夹中的配置文件创建 Pipeline。

2. 测试自定义模型

示例 JSON 参数:

{
    "text_inputs": "不幸的是,结果",
    "max_length": 100,
    "num_return_sequences": 3
}

点击 Visual Trace 查看日志。


七. 下载和配置 HuggingFace 模型

1. 设置 HuggingFace 模型

步骤如下:

a. 打开终端并进入项目目录

docker-compose up

b. 配置模型参数

model_url=https://huggingface.co/gpt2
name=gpt2
task=文本生成

2. 其他模型示例

  • Camembert-ner
name=camembert-ner
model_url=https://huggingface.co/Jean-Baptiste/camembert-ner
task=ner
aggregation_strategy=简单
  • Bert-base-uncased
name=bert-base-uncased
model_url=https://huggingface.co/bert-base-uncased
task=填写掩码
  • Detr-resnet-50
name=detr-resnet-50
model_url=https://huggingface.co/facebook/detr-resnet-50
task=对象检测

namemodel_url 的配置将自动进入 Pipeline 配置。

3. 测试不同模型

示例 JSON 参数:

  • GPT2
{
    "text_inputs": "George Washington lived",
    "max_length": 30,
    "num_return_sequences": 3
}
  • Camembert-ner
{
    "text_inputs": "乔治华盛顿住在[面具]"
}
  • Detr-resnet-50
{
    "url": "http://images.cocodataset.org/val2017/000000039769.jpg"
}

首次下载模型后,系统会缓存模型文件,缺失文件会自动重新下载。


八. 总结

本文详细介绍了如何在 IRIS 数据集上使用 HuggingFace API 进行机器学习。无论是调用预训练模型还是自定义模型,Pipeline 工具都能帮助快速完成模型加载、配置和测试。开发者可以高效实现 IRIS 环境下的机器学习任务,为业务分析和应用开发提供有力支持。


原文链接

Machine Learning no IRIS usando API HuggingFace e/ou modelos de ML no local | InterSystems Community