使用HuggingFace API在IRIS数据集上进行机器学习

作者:API传播员 · 2025-10-15 · 阅读时间:5分钟
本文详细介绍了如何在IRIS数据集上使用HuggingFace API进行机器学习,包括模型的下载、配置和测试。HuggingFace API作为一个强大的工具,能够帮助开发者快速集成和部署机器学习模型。文章还涵盖了使用自定义模型和下载预训练模型的步骤,以及如何通过HuggingFace的Pipeline工具自动处理模型加载和配置。

使用HuggingFace API在IRIS数据集上进行机器学习

HuggingFace 机器学习模型。本文将详细介绍如何在 IRIS 数据集上使用 HuggingFace API 进行机器学习,包括模型的下载、配置和测试等内容。


开始生产环境

在开始之前,请确保已安装 Docker 和 Docker Compose。以下是启动生产环境的步骤:

  1. 打开终端,导航到 iris-local-ml 文件夹。
  2. 输入以下命令以启动生产环境:
    docker-compose up

进入生产环境

生产环境启动后,您可以通过以下步骤进入生产环境并进行操作。


关闭生产环境

当您完成所有操作后,可以通过以下命令关闭生产环境:

docker-compose down

HuggingFace Pipeline 简介

HuggingFace 提供的 Pipeline 是一个强大的工具,能够自动分析模型文件夹并选择适合的框架(如 PyTorch、Keras、TensorFlow 或 JAX)。它通过 AutoModel 加载模型,并根据任务类型自动处理输入、令牌化、特征提取等操作,最终返回可直接使用的解码结果。


测试 HuggingFace 模型

  1. 打开 IRIS 的测试窗口。

  2. 在请求类型中选择:

    Grongier.PEX.Message
  3. classname 中输入相应的类名。

  4. 提供 JSON 格式的参数,例如调用 GPT2 模型的示例:

    {
       "api_url": "https://api-inference.huggingface.co/models/gpt2",
       "payload": "请告诉我们您的详细信息",
       "api_key": "----------------------"
    }
  5. 点击“可视跟踪”以查看详细日志。

注意:在使用 HuggingFace API 之前,您需要申请 API 密钥免费注册即可)。此外,您可以通过更改 URL 来测试其他 HuggingFace 模型,但可能需要调整 payload 参数。


使用自定义模型

配置自定义模型

如果您有自己的模型,可以按照以下步骤配置:

  1. 将模型文件放置在路径 src/model/yourmodelname/ 中。

  2. 配置模型参数,例如:

    name=yourmodelname
    task=文本生成

    注意:除 namemodel_url 外的所有配置都将进入 Pipeline 配置。

  3. 使用文件夹中的配置文件创建 Pipeline。

测试自定义模型

以下是调用自定义模型的示例 JSON 参数:

{
    "text_inputs": "不幸的是,结果",
    "max_length": 100,
    "num_return_sequences": 3
}

完成配置后,点击 Visual Trace 查看详细日志。


下载 HuggingFace 模型

设置 HuggingFace 模型

您可以通过以下步骤下载并配置 HuggingFace 模型:

  1. 打开终端,导航到 iris-local-ml 文件夹。

  2. 输入以下命令:

    docker-compose up
  3. 配置模型参数,例如:

    model_url=https://huggingface.co/gpt2
    name=gpt2
    task=文本生成

以下是其他模型的配置示例:

  • Camembert-ner

    name=camembert-ner
    model_url=https://huggingface.co/Jean-Baptiste/camembert-ner
    task=ner
    aggregation_strategy=简单
  • Bert-base-uncased

    name=bert-base-uncased
    model_url=https://huggingface.co/bert-base-uncased
    task=填写掩码
  • Detr-resnet-50

    name=detr-resnet-50
    model_url=https://huggingface.co/facebook/detr-resnet-50
    task=对象检测

注意:非 namemodel_url 的配置将进入 Pipeline 配置。

测试 HuggingFace 模型

以下是调用不同 HuggingFace 模型的示例 JSON 参数:

  • GPT2

    {
      "text_inputs": "George Washington lived",
      "max_length": 30,
      "num_return_sequences": 3
    }
  • Camembert-ner

    {
      "text_inputs": "乔治华盛顿住在[面具]"
    }
  • Detr-resnet-50

    {
      "url": "http://images.cocodataset.org/val2017/000000039769.jpg"
    }

完成配置后,点击 Visual Trace 查看详细日志。

注意:首次下载模型后,系统会缓存模型文件。如果缺少某些文件,系统会自动重新下载。


总结

通过本文的介绍,您可以轻松使用 HuggingFace API 在 IRIS 数据集上进行机器学习。无论是使用自定义模型还是下载 HuggingFace 提供的预训练模型,HuggingFace 的 Pipeline 工具都能帮助您快速完成模型的加载、配置和测试。希望本文对您的开发工作有所帮助!

原文链接: https://pt.community.intersystems.com/post/machine-learning-no-iris-usando-api-huggingface-eou-modelos-de-ml-no-local