国信在线 国信在线
北京国信经济发展研究中心
  邮箱登录: 密码:
设为首页 | 收藏本站
 
国信在线首页
业务介绍 中心概况 数据库 公共政策研究 市场竞争情报 案例介绍 国信客户 人才招聘

会员登录

  用户名:
密码: 验证码: 请输入验证码
重点要情
危机情报 危机情报
行业发展 行业发展
服务项目 服务项目
图书开发 图书开发
 首页 >> 国信视点 >> 文章页
人工智能该如何远离偏见与歧视
2018-10-15 14:12:36 来源:本站原创 作者:gosense 阅读次数:1779

越来越多的高技术产业和数字服务都以人工智能和机器学习为基础。但是,我们必须看到:人类社会存在的偏见和歧视也会被复制到人工智能系统中。因此,我们应对人工智能的整个程序进行监管,包括信息输入输出、数据、算法、模型等,以克服偏见与歧视在人工智能领域的延续。

  在人工智能问题上,有个所谓 “黑盒子”的问题,即我们不能看到程序算法的内部,因此无法理解人工智能是如何做出决策的。如果没有解决好这个问题,一些涉嫌歧视的数据将被算法永久性地编码进人工智能程序中,从而影响未来人类与人工智能的关系。不过,仅靠纯粹的技术手段,很难实现对人工智能的每个阶段实现无漏洞监控,同时还需通过人工评估和干预,才能确保偏见和歧视被彻底消除。

  要消除人工智能潜在的歧视问题,第一步是打开算法“黑匣子”。出于专利保护和商业机密的考虑,许多公司的人工智能程序算法都处于保密状态。不过,这一状况正得到改变,目前人工智能领域正在加快代码的开源,制定新的透明度标准,来提高人工智能产品的可靠性。AI NOW是美国纽约大学一个倡导算法公平的非营利组织,它提倡 “程序员必须对算法得出的结论做出解释,否则就不能投入使用”。

  目前,相当一部分互联网巨头开始正视这一点。如谷歌开发的几个人工智能项目,程序员为机器学习增加了手动限制,使输出的信息更准确,可理解性更高。美国国防部高级研究计划局还资助了一项名为XAI(可解释的人工智能)的计划,旨在打开人工智能的 “黑匣子”,以保证用户更好地控制人工智能程序。微软首席执行官萨蒂亚·纳德拉也认可 “算法问责制”的必要性。

  但通过打开算法 “黑匣子”,制定法规和政策来确保消除人工智能的偏见和歧视,这还远远不够。因为偏见与歧视不光存在于算法中,还存在于人工智能得出的结论、预测和建议中。

  以虚拟助手为例,处理比较简单的任务时,人工智能系统会偏向使用女声(例如Apple的Siri和亚马逊的Alexa);而解决疑难问题时,系统则选用男声(例如IBM的Watson和微软的爱因斯坦)。由于在人工智能行业女性从业人数偏少,这更是增加了性别歧视的可能性。

  鉴于此,我们应加强对人工智能所使用的数据、算法以及模型的评估,以剔除潜在的可导致偏见与歧视的因素,并且加强程序员的 “算法问责制”,这样才能提高人工智能产品的可靠性,最终建立起人机信任。




 
   打印本页  关闭窗口
合作客户 国家发改委 商务部 财政部 文化部 卫生部 铁道部 农业部 外交部 工信部 人保部 司法部 民政部  银监会 保监会 全国政协 国家统计局 国家质检总局 药监局 海关总署 国税总局 团中央 国资委 中央党校 北京市委 北京市政府 北京市人大 北京市发改委 浙江政府 北京国际经济贸易学会 国家电网 中国银行 中海油 中石化 中石油 审计署

关于我们 | 免责声明 | 版权声明 | 人才招聘 | 客户留言 | 联系我们
版权所有 Copyright© 2009-2012 国信在线(北京)经济文化发展中心 京ICP备09031571号-1 北京网监备案号:1101051464
公司地址:北京市朝阳区芳园西路40号 联系电话:010-64377788
国信业务:国信报告 国信数据 国信每日 国信咨询 国信项目 国信研究   如果您的网速较慢,请点这里:国信在线电信 国信在线网通 国信在线