黑客可能通过暴露的API令牌修改流行的LLM模型...
在API令牌。这次泄露可能使黑客能够访问数百个公司账户,其影响可能波及数百万用户。
在Hugging Face平台上可以查看超过1500个API令牌,这对至少723个企业账户构成了威胁。根据Lasso Security研究人员的分析,这种暴露可能带来严重的安全隐患。
API令牌泄露的主要危险
API令牌的泄露对多个组织及其工具的用户构成了潜在的重大威胁。受影响的组织包括Meta、微软、谷歌和VMware等知名企业。
API令牌的危险在于它为攻击者提供了广泛的权限。例如:
- 对于655个账户,攻击者可以通过API令牌修改文件。
- 攻击者能够篡改大语言模型(LLM)的训练数据,从而感染模型。
- 攻击者还可以删除数据,导致LLM的回答不完整,因为模型可能缺少关键信息。
以Llama 2为例,攻击者可以利用API令牌对其进行操作。Llama 2是Meta推出的一种基础模型,与GPT-4不同,它仍需要额外的训练。该模型已经通过至少70亿个参数进行了部分训练,并作为开源项目在Hugging Face平台上提供。
泄露影响范围超越Llama 2
API令牌泄露的影响不仅限于Llama 2。研究人员发现,他们能够访问14个不同的数据集,这些数据集每月的下载量达到数万次,累计被超过100万用户下载。
这种情况可能引发多米诺骨牌效应:篡改一个LLM的源代码可能迅速影响大量用户。尽管私人模型的影响范围可能有限,但风险依然不容忽视。研究人员还能够访问多达10,000个私人模型。
Lasso Security的安全研究员Bar Lanyado表示:“这种情况的严重性无法被低估。我们已经能够控制一个拥有数百万下载量的组织,并有能力操纵现有模型,将其变成恶意工具。这对依赖这些基础模型的数百万用户构成了严重威胁。”
提升API安全性的解决方案
尽管研究人员及时发现了此次泄露,但这一事件凸显了LLM领域对API安全性的迫切需求。篡改LLM的训练数据可能导致AI应用程序生成虚假信息。如果用户基于这些错误信息做出决策,将引发重大问题。
API令牌泄露通常是由于人为错误造成的。例如,开发人员在将代码上传至公共存储库时,可能忘记将令牌设置为不可见状态。为防止类似问题,开发者可以使用以下工具:
- GitHub的秘密扫描工具:当API令牌存在暴露风险时,该工具会发出警告。
- Hugging Face通知功能:当令牌可能被公开时,平台会提醒用户。
通过这些工具,开发者可以更好地保护API令牌的安全,避免类似事件的发生。
总结
API令牌的泄露为攻击者提供了篡改和操控大开发者和企业在使用公共平台时需要更加谨慎。通过采用合适的安全工具和实践,可以有效降低API令牌泄露的风险,保护用户和组织的利益。
原文链接: https://www.techzine.eu/blogs/security/114182/hackers-were-able-to-edit-popular-llms-through-exposed-api-tokens-on-hugging-face/
最新文章
- 如何在 Node.js 中构建 gRPC API
- Link支付怎么注册?一站式指南
- 2025年最新图像算法面试题:图像识别、CNN算法与实战项目解析
- 如何获取 Pexels 开放平台 API Key 密钥(分步指南)
- 使用 FastAPI 和 RabbitMQ 构建端到端微服务:综合指南
- DeepSeek+dify 工作流应用,自然语言查询数据库信息并展示
- 医疗机构如何防范API漏洞威胁
- Swagger与API文档:如何使用Swagger实现API文档自动化生成
- REST API:定义、工作原理、优点与缺点
- Yahoo Finance API – 完整指南
- 使用 DEEPSEEK AI 构建应用程序:它能(和不能)做什么
- 如何获取 Figma 开放平台 API Key 密钥(分步指南)