Jeffrey Erickson | 高级撰稿人 | 2025 年 12 月 2 日
机器学习算法在赋能 AI 模型和 AI agents 之前,必须通过海量数据集的训练来识别模式和相互关系。但如果训练数据集中被恶意植入了特定数据,意图使 AI 模型为攻击者服务,而非为信任并使用 AI 的群体提供帮助,这又将意味着什么?
这种情况即被称为 AI“投毒” (AI poisoning)。安全研究人员证实,通过使用蓄意篡改的数据或利用底层代码的设计缺陷,攻击者可以完全破坏 AI 模型。这种威胁不仅存在于初始配置阶段。基础模型的算法会进行多轮训练,若后续针对特定任务进行微调,还可能接受更多训练。这一持续过程为企业数据安全防线开启了新的战场。
AI“投毒”是指通过污染训练数据或利用 AI 系统支撑架构中的漏洞,蓄意操纵 AI 系统的行为。此类攻击旨在破坏或削弱系统在关键决策中的判断能力,或利用系统与敏感信息的交互进行恶意活动。
尽管"投毒"一词颇具冲击力,但其行为本质仍源于数据架构中常见的恶意攻击模式,并针对 AI 系统的特性进行了特殊调整,例如向训练数据注入恶意样本或篡改数据,导致 AI 模型学习到错误规律,进而产生不符合预期甚至有害的输出。亦或如过往的数据泄露事件,攻击者可能通过利用 AI 模型架构中的漏洞达成其目的,无论是诱导错误结果还是破坏系统性能。
随着 AI 系统(包括日益增多的自主 AI agents)变得愈发普及且复杂,AI“投毒”的风险也相应攀升。这凸显了对生成式 AI 服务的需求:这类服务需提供完善的数据安全措施和测试规范,以保障系统的完整性和可靠性。
AI“投毒”是指通过操纵 AI 模型的架构或训练数据来破坏其安全性和准确性。此类攻击可能出于多种动机:例如,通过修改训练数据使 AI 模型无法识别欺诈交易、市场操纵或携带恶意软件的电子邮件,从而导致资金或数据被盗;或者,AI 系统可能被恶意篡改,使其提供错误的医疗诊断或法律建议。
AI“投毒”的实施者及其动机各不相同,其中包括意图造成破坏的恶意个体、试图削弱企业 AI 产品的竞争力对手以及心怀不满的内部员工。
“投毒”攻击的形式非常多样。其中一种方法是标签篡改,攻击者将训练数据的正确标签替换为错误标签。另一种方法是数据注入,即添加带有错误标签的全新虚构数据点。更复杂的技术包括无标签“投毒”,即被“投毒”的数据看似正常,却诱导模型学习错误模式;后门攻击则是当特定输入模式出现时触发特定的恶意行为。
防范 AI“投毒”需从训练数据安全着手,包括建立强大的数据验证和核查流程,检测异常、矛盾及潜在的篡改痕迹。在获取外部训练数据时,建议选择可信赖且信誉良好的供应商(例如政府机构和研究机构),以及专门对网站数据进行合规重组与匿名化处理、并专用于 AI 训练的企业及社交媒体平台。然而,部分公司通过大规模网络获取并出售训练数据,此类数据源需经过严格审查。
面对大规模且高度多样化的数据集,企业可利用数据科学服务供应商提供的数据清理工具来清理和筛选训练数据,以清除潜在的恶意或“投毒”样本。另一种提升模型准确性的常见策略是集成学习,通过在同一数据集或其变体上训练多个模型,并聚合其输出来获得最终结果。这种集体决策机制有助于识别并减轻“投毒”数据的影响。
此外,对 AI 系统进行持续且规范化的监控和维护同样是预防和检测“投毒”的关键。其中的优秀实践包括定期审计 AI 模型的性能并监视异常行为或输出。
基于生成式 AI 的应用和 AI agent 已深度嵌入业务应用和开发平台,为各行业及政府运营带来创新价值。随着 AI 在业务流程中的地位日益重要,保护生成式 AI 的训练和微调过程免受投毒攻击,已成为规避财务风险、维护品牌声誉和用户信任的重要防线。
担心遭遇 AI“投毒”?我们的电子书介绍了如何建立 AI 卓越中心,助您有效防范此类威胁及其他可能影响 AI 应用成效的风险。
AI“投毒”如何运作?
AI“投毒”攻击利用机器学习的基础训练过程,通过向数据集注入经过恶意篡改的污染数据(通常是难以察觉的细微修改),使 AI 模型逐步从这些受污染的数据中学习,进而产生非预期或错误的预测和决策。
AI“投毒”可能引发哪些后果?
AI“投毒”的影响可能极其严重。它可能导致系统做出不准确预测、错误分类对象或实体,甚至引发其他异常行为。例如,遭“投毒”的自动驾驶 AI 可能无法识别特定道路危险,人脸识别系统可能会错误匹配身份。在医疗、金融等关键领域,AI“投毒”可能危及生命安全或造成重大财务损失。
如何检测和防范 AI“投毒”?
检测 AI“投毒”需要强大的数据验证和监视技术,包括实施数据质量检查、异常检测算法及定期训练数据审计。此外,采用多样化和大规模数据集进行训练可降低“投毒”数据的影响强度。预防措施还需涵盖数据采集和存储过程的安全防护、实施访问控制,并对数据提供者和用户进行潜在威胁教育。
是否存在 AI“投毒”攻击的实际案例?
是的,安全机构已在多场景中验证了 AI“投毒”攻击。其中一个值得注意的案例是通过精心设计的邮件训练 AI 模型,使垃圾邮件过滤器将垃圾邮件误判为正常邮件;另一个例子是通过在图像中添加微小且不易察觉的偏差来操纵图像识别系统,从而导致错误分类。
企业如何防御 AI“投毒”?
企业应制定全面的安全策略,涵盖数据安全措施、定期模型验证及针对潜在攻击的响应计划。具体包括投入数据完整性检测机制、聘用专业安全人员、培育全员安全意识文化,并通过使用纯净数据持续更新与再训练 AI 模型,从而减轻“投毒”攻击的影响。
注:为免疑义,本网页所用以下术语专指以下含义: