宙斯古代财富彩金
瞭望智库

2016年5月12日   星期四   丙申年   四月初六

设为首页 | 加入收藏夹           中文站 | EN

机器算法能带来公平吗?

云贺 | 瞭望智库助理研究员

发布日期:2019-08-12

数据存在的“偏见”经由算法系统读取和分析,不仅会被完整地记录和学习下来,甚至还会被放大,使之刻板化。

如今,机器算法越来越深入地渗透到人类社会的诸多方面,辅助人们做出各种决策。在广告投放、司法审判、人才雇佣等领域,机器算法都扮演着重要角色。

相对于?#22235;裕?#26426;器算法具有效率高、中立性等诸多优势。然而,机器算法能带来一个更公平的世界吗?

今年7月,兰德公司的六位研究员联名发布名为《算法公平——社会应用框架》的报告,梳理了金融、司法领域的诸多典型案例,系统阐述了机器算法的功与过。报告认为,以如今的?#38469;?#27700;平来看,机器算法往往带有刻板“偏见”。

算法科学性遭质疑

当前,机器算法已经渗透到人类现代生活的方方面面。有时候,甚至连人类自己都没意识到是机器在辅助整个社会做出决策。机器算法对于提高决策效率和消除人为歧视的确有所助益。但近些年来,机器算法也惹出了一系列麻烦,其科学性和公正?#26376;?#36973;公众质疑。

2013年5月,德国联邦法院判定,谷歌搜索的“自动填充”功能含有诽谤性搜索提示,侵犯了公民权利。?#24405;?#28304;自德国一家化妆品业的企业家,其在谷歌搜索中输入自己名字时,文?#31350;?#19979;方会自动显示“山达基教”和“欺诈”等词汇。原告认为,谷歌的这?#36824;?#33021;侵犯了个人权利,损害了企业声誉。

最终,联邦法院虽然裁定“自动填充”功能在原则上并无问题,但如果发生类似的侵犯个人权利或损害名誉的?#24405;?#36816;营商应承担相应责任并作出赔偿。

基于机器算法的谷歌搜索提示,可能来自?#25945;?#30340;错误报道或未经核实的?#26376;邸?#20294;无论如何,这一案件暴露出机器算法的“伪中立性”,即它并不一定能够正确反映?#29575;怠?/p>

另一个案例,来自微软在网络社交平台上推出的机器人——Tay。Tay的运作原理是在和大量用户聊天过程中,不断摄取和分析数据,?#20323;?#23398;习人类交谈方式。而这一特点也使得用户有可能“教坏”算法。结果是,Tay上线不到24小时,就变成了一位满口脏?#23433;?#24102;有种族歧视的机器人。

“偏见”加剧社会不公

那么,机器算法为?#35009;?#20250;出错?

首先,算法歧视有可能来源于“有偏见”的数据。众所周知,机器学习模型的构建,在很大程度上取决于训练机器时读取的数据。然而,一旦基础数据出现哪怕细微的偏差,就可能会导致整个模?#32479;?#29616;结构性偏差。上文中微软聊天机器人的案例就?#24471;?#20102;这一点。

更值得注意的是,数据存在的“偏见”经由算法系统读取和分析,不仅会被完整地记录和学习下来,甚至还会被放大,使之刻板化。

?#28304;耍?#20848;德的报告以金融和司法领域为例,?#24471;?#20102;算法“偏见”是如何加剧社会不公平现象的。

在美国金融借贷行业,机器算法越是强大,被打上“低收入”“高风险”“少数族裔”或特点地区等标签的群体,在办理金融服务时难度就越大。不仅如此,算法还可能会将这部分人群与高息贷款项目进行自动匹配。美国联邦贸易委员会就曾在一次调查中发现,基于机器算法的广告商们,会更多地将高息贷款的相关信息自动?#24179;?#32473;低收入群体。

兰德的研究员们认为,一旦金融领域的算法系统自动筛掉被精?#21103;?#31614;化后的部分企业和人群,包括小微企业、贫困人群、残疾人、少数族裔等,将对社会公平秩序造成极大危害,导致贫富两极分化愈演愈烈。

在司法领域,机器算法同样有可能侵犯社会公平原则。一个最著名的案例就是2016年发生的“卢姆斯案”。

彼时,威斯康辛州法院提起公诉,指控卢姆斯犯有危及社会安全?#20219;?#39033;罪名。在量刑调查?#26041;冢?#27861;院?#35270;?#20102;一款名为COMPAS的算法模型。COMPAS是一?#21482;?#20110;大数据识别罪犯风险的评估工具。具体来?#25285;珻OMPAS会根据被告档案中的信息,?#20113;?#20877;次犯罪的可能?#36234;?#34892;风险评估,?#20323;?#20026;法院在收监、量刑等?#26041;?#25552;供决策支持。

但卢姆斯认为,法院使用COMPAS进行量刑评估,打破了正当司法程序,特别是由于该算法本身的不透明性,其决策的科学性和准确性都有待检讨。因此,他对量刑结果提出异议,向州最高法院上诉。

“卢姆斯案”反映出的,是机器算法?#38469;?#22312;辅助决策时存在的“黑匣子”问题。由于读取数据庞大、算法系统复杂,有时可能连?#38469;?#35774;计者都不知道机器将如何做出决策。因此,想要在?#38469;?#23618;面辨别算法是否存在歧视是很困难的事。

各国展开“纠偏”行动

从根源上来看,算法的“偏见”在很大程度上并非来自机器本身,而是机器在学习人类语言或决策过程中,吸收了人类社会中根深蒂固的文化观念,或是错误的价值导向,并将这?#26234;?#21521;以?#38469;?#26041;式进?#26143;?#21270;。

但无论如何,人工智能时代已经来临,全球智能化的浪潮不可遏制。在这?#26234;?#20917;下,如何为算法纠偏成为重中之重。

实际上,当前各国政府和企业已就此展开行动。

在我国,国务院在《新一代人工智能发展规划?#20998;?#25552;出“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”,为未来智能化社会划出了法律和伦理道德的边界。

今年4月,美国国会议员提出一项名为《2019年算法问责法》(Algorithmic Accountability Act of 2019)的法案,要求科技公司审查在其?#38469;?#24212;用中,是否存在种族、?#21592;?#25110;其它方面的歧视和偏见倾向。

在某些特定领域,监管机构?#37096;?#22987;为算法“划红线”。例如,自动驾驶车辆会针对不同事故场景作出决策判断,确定相关事物的安全优先级。2017年5月,德国联邦交通和数?#21482;?#30784;设施部下设的伦理委员会,公布了全球首套自动驾驶伦理准则。该准则明确:人类生命拥有最高优先权,并始终优先于动物以及其他财产?#21462;?/p>

兰德公司的研究员们认为,除了在监管层面设立“算法审计”?#26041;冢?#26426;器算法要想维护公正和道?#30053;?#21017;,还可在?#38469;?#23618;面以扩大样本量、调整算法变量等方式进行优化。

此外,提高机器算法运作方式的透明度也十分必要,这可以有效避免算法“黑匣子”现象出现。(完)

来源:瞭望智库

版权所有,未经授权不得转载

瞭望智库紧扣“国家政策研究、评估和执行反馈”这一核?#22218;?#21153;定位,利用新华社内外智力资源, 连接全球主要智库,服务中央决策和新华社调查研究,发挥政治建言、理论创新、舆论引导、社会服务、公共外交等功能, 在社会上形成广泛的知名度和影响力。

学术合作?#20309;?#34183; [email protected]

商务合作:陈晶 13910894987 赵沁珩 15201538826

通讯地址:?#26412;?#24066;东城区永定门西滨河路8号中海地产广场东塔16层.100077

客服邮箱:[email protected]

?2015 瞭望智库(?#26412;?#31185;技发展有限公司 京ICP备10031607号-3

宙斯古代财富登陆