欧盟发布人工智能伦理指南,列出七条关键要求

没有一项技术能像人工智能那样引发道德担忧,甚至是恐惧。担忧的不仅仅是个别公民,Facebook、谷歌和斯坦福大学等都投资了人工智能伦理研究中心。去年年底,加拿大和法国联合成立了一个国际小组,讨论如何“负责任的”使用人工智能。

欧盟发布人工智能伦理指南,列出七条关键要求

今天,欧盟委员会发布了自己的指导方针,呼吁“值得信赖的人工智能”。

欧盟认为,人工智能应该坚持尊重人类自治、防止伤害、公平和责任的基本伦理原则。该指南包括7项要求,并呼吁特别注意保护儿童和残疾人等弱势群体。他们还表示,公民应该完全控制它们的数据。

欧盟委员会建议在开发或部署人工智能时使用评估列表,但这些指导方针并不意味着会成为政策或监管的依据,也不意味着要干预政策,他们只是提供了一个宽松的框架。

今年夏天,委员会将与相关方合作,确定可能需要额外指导的领域,并确定如何更好的执行和核查。在2020年初,专家组将纳入试点阶段的反馈意见。

随着我们开发出全自动化武器和假新闻生成算法等产品,很可能会有更多的政府对AI带来的伦理问题表明立场。

下面是欧盟指南的七条关键摘要:

人的管理和监督:人工智能系统应受人的基本管理和支持人的基本权利,从而使公平社会得以实现,而不是减少、限制或误导人类自治。

稳健性和安全性:值得信赖的人工智能要求算法足够安全、可靠和稳健性,能够处理人工智能系统在各个周期阶段的错误或不一致。

隐私和数据管理:公民应该对自己的数据有完全的控制权,而与之相关的数据不会被用来伤害他们。

透明度:应确保人工智能系统的可追溯性。

多样性、非歧视性和公平性:人工智能系统应考虑人类的各种能力、技能和需求,并确保其系统的可访问性。

社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。

问责制:应建立机制,确保对人工智能系统及其成果负责和问责。

ChinaIT.com 网站文章仅限于提供更多信息,不代表本网站立场观点。如需转载,请注明来源 。转载之文章来源于互联网,如有版权问题,请与我们联系。

下载 ChinaIT.com APP,随时掌握最新IT资讯