c

谁来审核决定人生的算法?

文=凯茜•奥尼尔

计算机科学家们惊呆了。他们以为他们给了计算机一个不可能完成的任务:想出一种让机器蜘蛛在脚不碰到地面的情况下行走的方法。但算法找到了一种绕过这种限制的方法。把机器蜘蛛翻转过来,这样它就能把肘关节当做脚来行走了。

 

就如本例所示,计算机算法非常善于根据明确的成功定义进行优化。然而,在我们的日常生活中使用的很多算法和人工智能(AI)应用给出的结果并没那么非凡,是否成功取决于发问者是谁。

 

在社会的相当大部分都关心算法结果的某些案例中(比如在面部识别技术这一正在成长的领域,或者在量刑中),算法提供的结果已被证明是不准确和有偏见的。随着人工智能进入我们社会中越来越多的关键领域,这日益成为一个问题。

 

在欧洲努力在人工智能研发方面赶上美国和中国的同时,欧洲也理解人工智能存在的风险和道德陷阱,尤其是在算法出错或做出有偏见的决策方面。

 

今年5月底生效的《通用数据保护条例》(GDPR)要求使用算法来自动化决策过程的数据控制者解释相关决策的逻辑。GDPR第71条甚至隐藏着这样一条要求:使用“适当的数学或者统计程序”来避免或减少源于错误或者不准确的风险。

 

这些要求的执行情况还有待观察,但欧盟似乎接受了算法问责制,包括对算法的审核,力求避免人工智能决策不当带来的恶果。

 

在法国,埃马纽埃尔•马克龙(Emmanuel Macron)政府宣布,向社会公开所有为政府用途开发的算法,这样整个社会能核实这些算法得到了正确的使用。

 

公开算法是否是一个适用于所有形式和用途的人工智能的解决方法?理论上确实如此,但这种方法在实际操作上存在明显缺陷——毕竟,不是每个人都看得懂代码。此外,企业和政府似乎都不是很情愿公开算法、用来训练算法的数据或者从数据得出的推论。

 

理由很简单。首先,暴露算法可能会使你丧失竞争优势。此外,公开算法可能会让精通技术的人详细了解决策过程,让他们实际上拥有蒙骗系统的能力。

 

公开算法的接受度不高的另一个原因是,披露算法可能会暴露关于决策过程有效性和准确度的令人不快的真相。如果不对算法进行独立审核,你可以继续置身于幸福的无知境界,并且在面对负面后果的时候做出说得通的否认。

 

尽管法国政府在算法开放方面的积极做法可能在算法问责制上走得太远,但是对算法进行独立审核的理由是不言自明的。欧洲在设定人工智能战略时,算法问责制(或者更准确地说是算法责任制)应该是一个关键考虑因素。政府和企业必须能够证明,它们在把人工智能应用推向社会前,先进行了彻底的测试和外部审核。

 

惊叹于算法对一个理论问题提出新颖的解决方法是一回事,对算法的糟糕决策在不经意间毁了某人的人生感到意外就是另一回事了。信息化周刊

 

摘自:FT中文网

电子杂志阅读

微信扫一扫

 

 

 

 

 

 

评分
( 0 人投票 0分 )

提交评论(不超过800字)