AI系统中(机器学习算法)导致偏差的原因总结
基于算法的业务或者说AI的应用在这几年发展得很快。但是,在实际应用的场景中,我们经常会遇到一些非常奇怪的偏差现象。例如,Facebook将黑人标记为灵长类动物、城市图像识别系统将公交车上的董明珠形象广告识别为闯红灯的人等。算法系统出现偏差的原因有很多。本篇博客将总结在数据获取相关方面可能导致模型出现偏差的原因。

一个典型的AI系统(本文不区分算法和AI,虽然实际中二者的确不一样)的工作过程包括:
- 收集数据
- 标记数据
- 数据预处理
- 模型训练和测试
- 模型上线



