如何防止AI将你认成“大猩猩”?光靠肤白可不行

各位是否还记得,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?正因此次事件造成的不良影响,让Google意识到:与其担心AI伤人,更严重的是AI偏见问题。为了防止AI“胡来”,Google为其制定了七项“道德”准则。

如何防止AI将你认成“大猩猩”?光靠肤白可不行

事情的原委是这样的,2015年,一位名叫Jacky Alciné的黑人软件开发人员在推特上透露,Google Photos使用的图像分类器将一名黑人女性称为“大猩猩”(Gorillas),引起了轩然大波。事发后,谷歌为此深表歉意,并着手处理这一漏洞。

如何防止AI将你认成“大猩猩”?光靠肤白可不行

不仅如此,谷歌还提出AI技术的开发道德准则,并且成立了专门的机器学习道德部门,对公司的产品和服务进行分析测试,提出改进意见,尽可能避免AI偏见的产生。不光是Google,从IBM到Airbnb,每家公司都在努力确保自己的算法不会出现类似的偏差。

为此,今年6月,Google首席执行官Sundar Pichai发布了公司的七项人工智能原则,指导谷歌在这些方面的工作和研究,包括确保Google员工不会制造或加强不公平的AI偏见,并表示AI技术的开发和使用将在未来许多年内对社会产生重大影响:

对社会有益
避免制造或增强不公平的偏见
建造并测试其安全性
对民众负责
融入隐私设计原则
坚持科学卓越的高标准
为符合这些原则的用户提供

如何防止AI将你认成“大猩猩”?光靠肤白可不行

除了那次不愉快的“大猩猩”事件外,哈佛大学的研究员Latanya Sweeney表示:谷歌搜索中存在种族歧视,当搜索类似黑人名字时,会比搜索类似白人名字更有可能出现与“被逮捕”相关的广告。这些现象都是我们的部门成立的原因,不应该让我们的用户看到这些,我们需要首先阻止这些偏见的产生。

实际上,对于AI偏见这件事,一份来自皮尤研究中心近期公布的研究结果显示:目前美国有58%的成年人认为,人工智能的算法极其程序将会始终包含对人类的偏见,人工智能算出的结果不能保持中立的态度。从受调查者的年龄来看,50岁以上的受访者中,有63%的人认为算法不中立;18-29岁的受访者中,也有48%的人认为算法一定会存在偏见。

如此看来,大众对AI偏见这件事存有共识。显然,解决AI偏见光靠Google一家公司还远远不够,需要有更多的公司加入其中。

ChinaIT.com 网站文章仅限于提供更多信息,不代表本网站立场观点。如需转载,请注明来源 。转载之文章来源于互联网,如有版权问题,请与我们联系:content@chinait.com。

下载 ChinaIT.com APP,随时掌握最新IT资讯