人工智能已经成为每个人生活中不可或缺的一部分。 从YouTube建议之类的简单任务到诸如生成可治愈疾病的药物之类的复杂的救生任务,它已经无处不在。 它以比我们意识到的更多的方式影响着我们的生活。
但是,人工智能公平吗? 不,绝对不是。
定义一个公平的AI很难。 这是我能想到的最好的解释。 如果输出独立于已经受到社会歧视影响的特定任务的敏感参数(例如性别,种族,性别,宗教信仰,残疾等),则给定的AI模型是公平的。
在此文章中,我将撰写有关AI偏差,AI偏差的现实示例以及解决方法的文章。
问题
AI偏差是由于用于训练模型的数据固有的偏见引起的,从而导致社会歧视。 这导致缺乏平等机会。
例如,假设我的任务是创建一个模型,以位置为参数来计算一个人的信用评分。 某些种族集中在某些地方。 这将使我的模型在种族上偏向那些种族群体,从而在获得信用卡和银行贷款时影响他们。
偏爱的AI模型加剧了当前的社会歧视,并为压迫铺平了道路。
现实生活中AI偏见的例子
这是AI偏见的一些现实例子:
这些只是AI偏见的一些常见示例。 无论是否有开发人员的知识,都有许多不公平的AI做法实例。
那么如何解决?
> Photo by Yancy Min on Unsplash
迈向公平AI的第一步就是承认这个问题。 人工智能是不完美的。 数据不完美。 我们的算法不完善。 我们的技术不完善。 假装没有问题,就不可能找到解决方案。
其次,问问自己这个解决方案是否需要AI。
不要害怕在没有机器学习的情况下发布产品-Google
存在一些不依赖于数据的问题。 诸如发现被告再犯的可能性之类的任务更多地取决于情感而不是数据。
第三,遵循负责任的AI实践。 我在下面添加了Google负责任的AI实践指南中的要点。
负责任的AI实践:
开发公平AI的工具
结论
在过去的几年中,公司和政府已经开始认真对待AI偏见。 许多公司已经开发了评估AI公平性的工具,并且正在竭尽全力对抗AI偏见。 尽管AI具有巨大的潜力,但对我们而言,现在要比以往任何时候都更加重要,要牢记AI系统的潜在歧视性危险并帮助开发公平的AI模型。
微信苹果二选一,成为近期网络上热门的话题。 此事件源自最新微信禁令,这让苹果...
1.从现在开始,聪明一点,不要问别人想不想你,爱不爱你?若是要想你或者爱你自...
DigiTimes 今天发布了一份报告,着重强调了苹果正建立一个完全由中国制造商组成...
【51CTO.com快译】纵观机器学习领域,一大趋势是侧生于将软件工程原理运用于机器...
1993年,美国电气与电子工程师学会(IEEE)成立了一个重要的分支机构IEEE VR,但有...
在整个春节假期,国内电影市场一片火热,据猫眼专业版数据显示,牛年春节档期(2...
IDC,全称Internet Data Center,是提供互联网服务的数据中心,也是我们最常提起...
Omdia最新发布的分析报告称,2019冠状病毒病(COVID-19)疫情并未明显影响5G无线接...
韩国电信运营商SK Telecom近期推出了仅可在线上办理的移动套餐业务,旨在通过降...
1月13日0点起,支付宝集五福活动正式开始了,集齐五福拼手气分5亿,年味似乎又浓...