本文转载自公众号“读芯术”(ID:AI_Discovery)
人工智能已经遍布我们的日常生活。从YouTube的首页推荐到生产药物,它无所不在,它对我们生活的影响超出我们的想象。但人工智能一定公平吗?不,绝对不是。
人们很难定义什么是公平的人工智能。以下是我能想出的最好的定义:对于社会歧视影响下的特定任务,如果给定的人工智能模型能够输出独立于敏感性参数(例如性别、种族、性取向、宗教信仰、残疾等)的结果,那么这个人工智能模型就是公平的。
本文将讨论人工智能偏见,与之对应的真实例子,及其解决方法。
问题
人工智能偏见是由于训练模型的数据所固有的偏见造成的,这导致了社会歧视,进而导致平等机会的缺乏。
假设我的任务是创建一个以位置为参数计算个人信用评分的模型,某些种族群体会集中在某些地方,这将使创建的模型对那些种族群体产生偏见,会影响他们申请信用卡和银行贷款,存在偏见的人工智能模型加剧了当前的社会歧视。
人工智能偏见的真实例子
这些例子只是沧海一粟。无论开发者是否知情,许多不公平的人工智能操作都真实存在着。
如何解决这个问题呢?
迈向公平人工智能的第一步是承认问题。人工智能是不完美的,数据是不完美的,我们的算法是不完善的,我们的技术也不够完善。如果我们对问题视而不见,那么是不可能找到解决办法的。
其次,问问自己这个解决方案是否需要人工智能。有一些问题不依赖于数据,比如寻找被告人再犯可能性这样的任务更多地依赖于情感而不是数据。
第三,遵循负责任的人工智能实践。在谷歌负责任的人工智能实践指南的基础上,我补充了几个要点。负责任的人工智能实践:
开发公平人工智能的工具
近来,公司和政府开始逐渐正视人工智能中的偏见。许多公司已经开发了评估人工智能公平性的工具,并且正在尽最大努力解决人工智能偏见。
虽然人工智能有着巨大的潜力,但我们现在比以往任何时候都更需牢记人工智能系统潜在的歧视性危险,我们也应帮助开发出公平的人工智能模型。
目前,针对新冠病毒大多都是采用咽拭子检测核酸检测。而用智能手表检测新冠病毒...
近日,被5G事件沸沸扬扬。在众多用户抱怨运营商为了推广5G套餐,悄然将低价的4G...
距离上次更新才过去半个月,7 月 1 日下午,微信再次发布了 7.0.14 for iOS 正式...
一套完整且比较优秀的移动端交互文档,我认为可以包含以下部分: 业务背景、产品...
人工智能(Artificial Intelligence, AI)是一项终极技术,可以用于设计新材料,...
继开放个人定制红包封面之后, 现在红包封面平台升级,支持添加已发表的视频号内...
要问现在的科技界什么最火?答案八九不离十是人工智能,机器学习,深度学习等等...
英国《金融时报》网站近日报道称,尽管欧洲最大的参与者加大了投资,但在建设5G...
导读 大家应该都知道华为手机和电脑通过华为share就能实现一碰即传,有的时候这...
Google Photos 可以说是世界上最好用的云相册服务,几乎没有之一。 它允许用户以...