人工智能

人工智能和创造它的人类一样有偏见吗?

作者:罗恩·科格本

翻译:卢敏

数据(你在一篇科学文章、一本历史书或一组调查结果中找到的信息)似乎只是一些客观事实的集合。这些数字,如果来源正确,应该是不受观点或偏见玷污的铁一般的事实。但实际上,这种情况很少发生。这就是为什么人工智能会和创造它的人类一样有偏见。

数据的好坏取决于获取数据的手段,解释和分析数据的方法,以及数据的交流方式。

这些方面的失误会渗透到我们根据数据得出的结论中——往往会导致我们希望“事实”避免的那种主观性和偏见。

即使是像调查这样简单的事情,许多因素:从问题的措辞到定义术语的方式,再到我们评估形成判断的样本集等等,都可能给我们的数据带来偏见。而这些偏见会影响我们得出的结论。

“我知道有句谚语说,‘人非圣贤孰能无过’,但一个人的错误与计算机尝试时所能做的相比,根本算不了什么。”——阿加莎·克里斯蒂

缺失了人类情感、意识形态和偏好的系统和人工智能有望帮助我们避免人类推理固有的主观性和偏见。然而,人类必须设计和构建这些系统,这将使它们陷入相同的陷阱。

事实仍然是,人工智能的偏见已经成为一个非常普遍的问题,Salesforce最近在其教育平台Trailhead上添加了一个人工智能偏见课程,目的是向企业家和其他专业人士传授同质数据的危险。

AI偏见的后果

自动化系统中的偏差已经对某些群体产生了不利影响。例如,  威斯康星州试图  在其法院系统中利用人工智能来确定犯罪分子再次犯罪的可能性,以帮助法官确定量刑或假释。

不幸的是,该计划对有色人种有偏见,并错误地将黑人标记为比白人更容易犯下另一项罪行。

同行评审研究如何?

另一个例子是,一项经过同行评议的研究发现,亚马逊的面部识别技术更难识别肤色较深的女性和个人。这shishi怎么发生的?训练集(输入系统以教授人工智能编程的示例数据)缺乏多样性。

法庭案件摘要?

公司的数据提取软件有多种用途。其中一个目标是为法律专业人员总结法庭案例。为了使程序提供准确的摘要,训练集必须包含广泛的案例类型。例如,如果该系统只针对侵权案件进行培训,那么它在总结刑事案件方面的效率就会低得多。

机器学习人工智能——以及其他很难发现的人工智能学习。

这些例子表明,基于机器学习的人工智能系统是多么有害;当用来设置他们的数据不能充分代表他们正在学习的内容,或者不如他们试图评估的案例多样化时,结果可能是不幸的。但人工智能的偏见并不总是那么容易被发现。

例如,在商业中,使用有偏差的数据集可能导致领导层批准一个注定要失败的项目。当项目不可避免地失败时,执行团队可能会承担责任,因为它应该首先归咎于计划所依赖的错误假设。

人工智能和自动化技术可以为企业带来巨大的好处,尤其是那些依靠技术来完成需要团队合作的公司。

但是,如果该技术的构建方式无法防止引入不良数据(或扭曲有用的数据),则弊大于利。

针对这一问题,有人提出的一个解决方案是,鼓励数据科学家团队之间的多样性——这些数据科学家构建了我们所依赖的人工智能系统。我们面临的挑战是,我们并不总能找到并促进正确的多样性来解决我们的偏见问题。

对此问题的一个建议答案是鼓励数据科学家团队之间的多样性-那些构建我们所依赖的AI系统的科学家。面临的挑战是,我们并不总是识别并促进正确的多样性来解决我们的偏见问题。

多样性不仅仅是表面现象

在招聘数据科学家时,实现我们通常认为的多样性(种族和性别差异)是不够的。

多样性的价值。

当然,由不同种族,宗教和文化的男人和女人组成的劳动力很有价值。但是,这些领域的多样性仍然可能导致AI产生偏差。

例如,来自世界各地的男女团队可能会建立一个差距很大的系统;例如,他们都可以使用相同的教育框架进行培训,或者分享与所讨论的项目或问题相关的相同个人观点。

如果人们来自同一文化,社会经济背景和政党,那么他们可能会采用非常相似的方法来解决数据问题。这些区域的同质性将不可避免地渗入开发团队创建的AI系统。

避免偏见

为了避免AI偏见,我们需要从思想和观点出发,而不是仅仅从肤色和性别表达出发,考虑多样性。看起来不同的人也很可能会有所不同,但是并非总是如此。

实现多样性

人类不可能完全避免主观偏好,错误的信念以及我们思维过程中的各种漏洞。因此,消除偏差也不太可能。但是,我们仍然可以采取一些措施来减轻我们的偏好(认为偏见)对我们创建的系统的影响。

思想的多样性是一个很好的起点。为了组建具有正确多样性的数据科学团队,招聘经理必须专注于寻找具有独特观点和非常规想法的人员。

这些不同的态度,观点,概述和客观性通常来自新颖的经验和非常规的训练。

当然,这里的挑战是,经理人不能在面试时询问应聘者其社会经济背景、年龄、文化背景以及宗教和政治信仰。

如何使您的团队和所有员工多样化

他们所能做的就是问一些与潜在员工将从事的工作有关的尖锐问题。例如,为候选人提供数据建模项目的示例。询问他们如何解决问题,收集数据并进行分析。

如果您已经有团队成员使用X和Y方法处理这个案例,那么如果有一个候选人建议了一个经过深思熟虑的方法Z,那么您可以认为这是有利的。

个人的自信是另一个关键因素

如果某人发现问题时不愿意大声说出来,那么增加他们的思维方式对您的团队不利。为了避免在分析系统和AI工具中出现偏见,您需要的候选人不仅要拥有独特的观点,还要知道如何表达它们。

最后,在您的技术开发和数据科学团队中培养开放性和协作文化非常重要。当他们可以轻松表达观点时,他们可以发现并纠正错误。

切记:当一个团队共享一个尽可能客观的总体目标时,偏见就会在这个过程中最小化。

人工智能和自动化正处于上行期,这些系统有望帮助我们在提高效率和生产率的同时,将人类主观性和偏见的影响最小化。然而,为了实现这一目标,需要非常小心地构建它们。

小心前行——我们必须非常认真地对待多样性。这意味着在雇佣数据科学家和系统架构师时,不能仅仅关注外表。领导人需要更深入地挖掘,努力引入不同的观点和能够表达这些观点的人,并支持包容的发展文化。

拥有不同想法和协作结构的团队更有可能构建真正超越人类难以消除的偏见的人工智能系统。

图片来源:Unsplash;达瓦尔·帕尔马

我还没有学会写个人说明!

只有程序员才能读懂的三国演义(二)

上一篇

一周AI最火论文 | 100%揭穿伪造人脸图像,道高一丈反Deep Fake新方法

下一篇

你也可能喜欢

人工智能和创造它的人类一样有偏见吗?

长按储存图像,分享给朋友

ITPUB 每周精要将以邮件的形式发放至您的邮箱


微信扫一扫

微信扫一扫