人工智能应用遇到坎了?有偏见的算法无处不在

x
用微信扫描二维码
分享至好友和朋友圈

  

  【网易智能讯 7月17日消息】不透明的、具有偏见性的数学模型正在重塑我们的生活。但对此,无论是负责开发它们的公司还是政府都不愿意解决这个问题。

  本周,一群研究人员和美国公民自由联盟在麻省理工学院联合发起了一项“人工智能倡议”,试图找出并突出强调偏见性算法的危害性,旨在讨论现今许多专家所认为的越来越严峻的挑战——算法的偏见性。

  在机器学习和人工智能发展的关键时刻,具有偏见性的算法已经成为了一个严重的社会问题。如果算法中存在偏见性,这会使许多重要的决策不被人们承认、最后不受控制,那将会产生严重的负面影响,特别是对于较贫穷的社区和少数群体而言。最终的强烈抗议可能也会阻碍一项极其有用的技术的进步(见“检查算法偏见”)。

  含有偏见的算法在金融和法律决策中起着至关重要的作用。例如,算法被用来决定谁有机会进入面试,谁有机会获得假释和贷款。

  微软的研究员KateCrawford和谷歌的研究员MeredithWhittaker是此次“人工智能倡议”的创始人,他们表示各种各样的服务和产品中都存在偏见。两人在一封电子邮件中说:“理解偏见性算法还为时过早。就在今年,我们看到了更多有问题的系统,而这些还不包括没被调查的那些。”他们说,最近曝光的算法偏见的例子包括有缺陷和错误的教师排名系统,以及用于自然语言处理的性别偏见模型。

  《数学杀伤性武器》的作者、数学家凯西奥尼尔表示,人们往往过于愿意相信数学模型,相信数学模型会消除人类的偏见。《数学杀伤性武器》一书指出了许多情况下算法偏见的风险性。她说:“算法取代了人类的程序,但它们并没有达到同样的标准,人们太信任它们了。”

  研究人员表示,挑战的关键在于利益相关者,包括开发和应用机器学习系统的公司和政府监管机构,他们对监控和限制性算法偏见几乎不感兴趣。金融和科技公司使用各种各样的数学模型,但这些模型的运作方式并不透明。例如,奥尼尔说,她担心谷歌新的工作搜索服务算法的运作方式。

  奥尼尔曾是纽约纳德学院的教授,也是D.E.Shaw公司的定量分析师。她现在是在线风险咨询和算法审计公司的负责人,这家公司主要是帮助企业识别并纠正算法偏见。但奥尼尔说,即使是那些知道自己的算法存在偏见风险的人,仍对其表示兴趣,而非想方设法去铲除偏见。她说:“实话实说,我现在没有客户。”

  奥尼尔、Crawford和Whittaker还警告说,特朗普政府对人工智能和科学不感兴趣,这也就意味着没有监管运动来解决这个问题。他们说:“据科学和技术政策办公室官方网站内容显示,他们不再积极参与人工智能政策,那我们必须通过其他渠道来完成现在的政策工作。”

  【英文来源:MIT作者:WillKnight 编译:网易见外编译机器人审校:夏艳】

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布 平台。

跟贴 跟贴 2 参与 2
© 1997-2017 网易公司版权所有 About NetEase | 公司简介 | 联系方法 | 招聘信息 | 客户服务 | 隐私政策 | 广告服务 | 网站地图 | 意见反馈 | 不良信息举报

AI研究院

聚焦人工智能!

头像

AI研究院

聚焦人工智能!

687

篇文章

20705

人关注

列表加载中...
x

用户登录

网易通行证/邮箱用户可以直接登录:
忘记密码