数据正在为这个世纪提供动力。有大量数据来自数字化世界、物联网设备、Alexa 和 Siri 等语音助手、健身追踪器、医疗传感器等等。数据科学正在成为医疗保健、物流、客户服务、银行、金融等快速增长行业的中心。人工智能和
机器学习现在是董事会对话的中流砥柱,以数据为中心也带来了围绕治理和道德的大问题在数据科学中。
步骤 1. 承认偏见
我们是否对处理数据负有道德责任?
每个人都有责任谨慎处理数据。仅仅为了金钱利益而绕过道德数据科学会助长偏见和刻板印象。同样,针对有偏见的数据交叉验证现实世界的数据会导致不慎重的商业决策,不仅会降低金钱收益,最重要的是降低其声誉和客户忠诚度。 每个企业都有责任通过更具包容性和过滤掉任何无意识的偏见来 培养 社区之间的团结,从而发展其业务。
不道德的数据科学有什么影响?
随着越来越多的机器学习模型学习我们的数字足迹并预测我们未来的需求,无论我们喜欢与否,数据隐私 正成为一个主要问题。GDPR(欧洲)、个人数据保护法(印度)、加州消费者隐私法(CCPA)等立法强调了数据隐私的重要性,保护数字公民免受滥用数据的危险后果。
基于消费者数据和人口统计的微观定位 正在影响目标消费者群体的行为。随着数据的丰富,越来越难以区分真假。没有正确理解数据及其来源的微观定位导致弊大于利。
医疗保健预测失败, 如 IBM Watson,会导致不可逆转的后果。目前,医疗保健行业正在经历一场人工智能的重大革命。
人工智能在医疗保健领域的成功取决于一个团队的方法,以及来自医疗保健和数据科学的不同领导者的透明讨论。
众所周知,面部识别 软件会根据一个人的肤色对具有犯罪意图的人进行错误分类,因为 ML 模型是用主要是白人面孔进行训练的。 市场上有多种面部识别应用程序。但该应用程序的成功取决于用于训练面部识别模型的不同数据集。
第 2 步:了解偏见
1.了解偏差类型
了解不同的偏见类型并意识到它们的存在以合乎道德地处理数据至关重要。机器学习中的偏差可分为样本偏差、偏见偏差、测量偏差、算法偏差和排除偏差
ml-bias-types-899×1024-1
一种。样本偏差
样本偏差源于错误信息,其中训练数据包含部分信息或不正确信息。例如,根据客户的社交信息而不是相关支付平台来预测客户的消费活动会导致样本偏差。
湾。偏见偏见