沃卡惠移动端logo

沃卡惠  行业资讯

资讯详情

模型漂移:解释AI的致命弱点

2023-02-02 08:30:254636

机器学习模型是从数据中学习的一组规则的数学表示。它是训练机器学习算法过程的输出。然后使用该模型根据新的、看不见的数据做出预测或决策。

模型漂移:解释AI的致命弱点

有许多不同类型的机器学习模型

您需要熟悉许多不同类型的机器学习,包括决策树、随机森林、支持向量机和神经网络。每种类型的模型都有自己的优点和缺点,适用于不同类型的任务。

要创建机器学习模型,您需要为算法提供一组训练数据。然后,该算法使用此数据以及一组称为学习算法的规则来了解数据中的关系和模式。生成的模型是一组捕捉这些模式的数学方程式,可用于根据新的、看不见的数据做出预测或决策。

什么是模型漂移?

模型漂移是指机器学习模型的性能由于其作为输入的数据在现实世界中发生变化而随着时间的推移而下降。模型漂移主要有两种类型:

当数据中的关系或模式随时间发生变化时,就会发生概念漂移。例如,考虑一个经过训练可以预测信用卡欺诈的机器学习模型。该模型可能会在包含一定比例的欺诈和非欺诈交易的数据集上进行训练。如果欺诈交易的比例随时间发生变化,模型的性能可能会下降,因为它不再能够根据新的数据分布准确预测结果。

当数据本身随时间发生变化时,就会发生数据漂移。例如,考虑一个机器学习模型,该模型经过训练可以对动物图像进行分类。如果该模型是在包含狗、猫和鸟的图像的数据集上训练的,它可能在这些动物的新图像上表现良好。然而,如果随后向模型展示一种它以前从未见过的新型动物,例如海豚,它可能表现不佳,因为它训练的数据不包括任何海豚的例子。

减轻漂移影响的一种方法是定期根据新数据重新训练模型,以确保它保持准确和最新。详细了解此技术深度 ML 模型,漂移(aporia dotcom;漂移的概念)。

模型漂移如何影响生产AI系统?

模型漂移会对生产 AI 系统产生重大影响,因为它会导致它们做出不准确的预测或分类。这可能会导致性能不佳和潜在的有害决策。在某些情况下,它可能会导致系统故障,造成经济损失甚至人身伤害。

在生产人工智能系统中,模型漂移可能是由于输入数据分布随时间的变化而发生的,例如客户行为或市场条件的变化。它也可能由于系统本身的变化而发生,例如硬件或软件的更新。

为了减轻模型漂移的影响,定期监控 AI 系统的性能并根据需要重新训练模型非常重要。主动学习和在线学习等技术也可用于使模型不断适应输入数据的变化。此外,使用组合多个模型的集成方法可能是有益的,因为这有助于减少模型漂移的影响。

充分了解底层数据和系统以检测任何漂移迹象并采取必要的措施(例如重新训练模型、微调参数或收集更多数据)也很重要。

鉴于模型漂移问题,我们可以信任人工智能吗?

在使用人工智能 (AI) 系统时,了解模型漂移的可能性很重要,因为它会影响模型做出的预测或决策的准确性和可靠性。然而,这并不一定意味着人工智能系统不可信。

关键是接受和管理机器学习模型中固有的风险。这被称为“模型风险”——机器学习模型可能做出错误预测或决策的风险,这可能对其所有者或用户产生负面影响。

例如,以房地产和租赁市场 Zillow 为例。到2021年,由于财产估值算法高估了房地产价值,导致公司在购房时过度投资,导致其累计损失超过 5 亿美元。因此,该公司不得不裁员。

Zillow 可能在推出机器学习模型之前实施了严格的测试。生产中的推出是渐进的,使公司能够评估其在现实世界中的表现。然而,该公司随即在市场条件开始发生变化(概念漂移)时在短时间内扩大了采购计划。因此,该模型不再反映房地产市场。

这说明了为什么公司主动管理模型风险以确保他们的机器学习系统做出准确的预测或决策很重要。如果 Zillow 更密切地监控模型,模型漂移的影响是可以避免的。

AI开发人员可以对漂移做些什么

AI开发人员可以采取多种措施来减轻模型漂移的影响:

定期在新数据上重新训练模型:确保模型保持准确和最新的一种方法是定期在新数据上重新训练它。这有助于减少概念漂移和数据漂移的影响。

使用在线学习等技术:在线学习是一种机器学习方法,它允许模型在新数据可用时不断自我更新。这有助于减少概念漂移和数据漂移的影响。

监控模型的性能:模型在生产环境中部署后,持续监控其性能以确保其仍在做出准确的预测或决策非常重要。这有助于识别数据分布的任何变化或可能导致模型漂移的其他因素。监测应该是一个持续的过程。

使用多个模型:使用多个模型有助于降低依赖单个模型可能会出现模型漂移的风险。通过组合多个模型的预测或决策,可以提高系统的整体性能。

添加人工监督:在某些情况下,使用人工监督来审查或验证模型做出的预测或决策可能是合适的。这有助于确保正确使用系统并解决任何潜在问题。

结论

总之,模型漂移是一种随着时间的推移会显着影响人工智能 (AI) 系统性能的现象。当训练模型的数据分布或数据关系发生变化,导致模型的准确性和可靠性下降时,就会发生这种情况。

概念漂移和数据漂移都很难管理,因为它们难以预测和检测。然而,通过采取诸如定期根据新数据重新训练模型、使用在线学习技术和使用多个模型等步骤,AI 开发人员可以减轻模型漂移的影响并提高其系统的可信度。