2018 年度AI研究报告:丑闻层出不穷,监管力度贫乏

2018-12-21    来源:raincent

容器云强势上线!快速搭建集群,上万Linux镜像随意使用

 

作者:AI Now 译者:Alex

对于 AI 来说,2018 年是戏剧性的一年。从 Facebook 可能在缅甸煽动种族清洗,到 Cambridge Analytica 试图操纵选举。以及谷歌为中国人建立一个秘密审查的搜索引擎,令人愤怒的微软与 ICE 签订的合同,还有围绕亚马逊算法管理的仓库?的条件引发的多起工人起义。这些头条新闻层出不穷,而以上提及的仅是冰山一角。

这些层出不穷的人工智能丑闻的核心问题是问责:当人工智能系统伤害我们时,谁负责?我们如何理解这些危害,以及如何补救它们?干预的要点在哪里,需要进行哪些额外的研究和监管,以确保这些干预措施是有效的?目前,这些问题的答案很少,现有的监管框架远远没有达到所需的程度。随着这些系统的普遍性、复杂性和规模的增长,这种缺乏意义的问责和监督 (包括责任、义务和法定程序?的基本保障) 的情况成为人们日益迫切关注的问题。

AI Now 在其 2016 和 2017 报告的基础上,针对这一核心问题,在今年的报告中提出了 10 项切实可行的建议,以期建立基本的问责框架来管理这些先进的技术。

1. 政府需要在相关领域内扩大特定部门机构的权力来监管人工智能,以便监管、审查和监控这些技术。

在缺乏健全的治理、监管和问责制度的情况下,人工智能系统的开发和部署正在迅速扩大。健康、教育、刑事司法和福利事业等领域都有自己的历史、监管框架和危害。然而,全国性的人工智能安全机构或一般的人工智能标准和认证模式将难以满足更细致的监管所需的专业部门知识。政府应当设立一种特定部门,它不对技术进行管理和监督,而是将重点放在特定领域内的应用上,例如美国联邦航空管理局和国家公路交通安全管理局。

2. 人脸识别和情感识别需要严格的规范,以保护公众利益。

这种监管应包括强有力的监督、清晰化的约束以及公共透明的国家法律。公众应有权拒绝在公共和私人环境中应用这些技术。由于强制性和持续性的大规模监视的安全隐患,任何应用的授权都应该有更加严格的限制,仅仅公开声明它们的应用是不够的。情感识别更加值得特别关注,它是面部识别的一个子类,它能够根据面部图像或视频来检测诸如人格、内心感受、心理健康和“工作积极度”等事物。这些说法缺乏有力的科学证据支持,而且是以不道德和不负责任的方式加以应用的,这些方法常常使人回想起相学之类的伪科学。将这些信息与雇用、保险、教育和治安联系起来,在个人和社会层面都会产生严重的风险。

3. 人工智能行业迫切需要新的管理方法。

如本报告所示,大多数技术公司的内部管理框架未能确保人工智能系统的问责制。尽管政府监管是一个重要方面,人工智能行业的公司也需要建立高于一般道德准则的内部问责框架。这应包括在董事会、外部道德咨询委员会中设立普通员工代表,以及实行独立化的监管和透明化的工作制度。第三方专家应该能够审核和发布关键系统,公司需要确保他们的 AI 基础设施能够从头到尾被理解,包括他们的最终的部署和应用。

4. 对于妨碍公共部门问责制的贸易保密和其他法律主张,人工智能公司应当主动放弃。

对于为政府提供人工智能系统和自动决策系统的供应商以及开发人员,面对保障其软件的贸易保密权或其他法律主张时,应当主动放弃。公司保密法是正当程序的障碍:它们助长了“黑匣子效应”,使应用系统变得不透明且难以问责,使人们无法评估偏差、竞争决策或纠正错误。购买这些技术用于公共部门的任何组织或机构,在签订协议之前,都应要求供应商放弃这些索赔。

5. 科技公司应该为特殊群体提供保护,包括出于良心的反对者、员工组织和道德检举者。

技术人员的组织和抵制能力已经成为一种问责和道德决策的重要力量。科技公司需要保护工人的组织和检举能力,并支持他们对从事的项目做出道德上的选择。具体措施应包括采取明确的政策,包容和保护出于良心的反对者,确保工人有权知道他们在从事什么工作,以及能够在不被报复的情况下拒绝从事这类工作。提出道德问题的工人也必须受到保护,为了公众利益而告密者也必须受到保护。

6. 消费者保护机构应针对人工智能产品和服务提出相关法律,要求其进行“诚信宣传”。

人工智能相关的炒作一直在增长,导致营销承诺与产品实际效果之间的差距不断扩大。这些差距给个人和商业客户带来了越来越大的风险,并且往往都会产生严重后果。就像其他有可能严重影响或利用人口数量的产品和服务一样,人工智能供应商应该遵守高标准的承诺,尤其是在支持这些承诺的科学证据不充分和长期后果未知的情况下。

7. 技术公司必须超越“流水线模式”,并致力于解决其工作环境中的排斥和歧视。

科技公司和整个人工智能领域都把重点放在“流水线模式”上,希望培训和雇佣更多样化的员工。虽然这一点很重要,但它忽略了当人们被雇佣到工作环境时会发生什么,这些工作环境可能会基于性别、种族、性或残疾而排斥、骚扰或系统地低估人们的价值。公司需要研究工作环境的更深层次的问题,以及排他性文化与他们生产的产品之间的关系,因为它们有可能会导致工具产生永久性的偏见和歧视。在些改变的重点需要体现在实际行动上,包括承诺薪酬和机会的平等,同时采取透明化的雇用和留用措施。

8. 在人工智能中,公平、问责和透明需要依赖于详细的“全栈式供应链”。

为了有意义的问责,我们需要更好地理解和跟踪人工智能系统的组件部分和它所依赖的整个供应链:这意味着需要在产品生命周期中考虑训练数据、测试数据、模型、应用程序接口 (API) 和其他基础设施组件的来源和使用。我们称其为人工智能系统的“全栈供应链”,对于责任制度更健全的问责系统,这是一个必要条件。对人工智能系统而言,全栈式供应链还包括其对环保和劳动力成本的相关信息,以及能源的使用,在发展中国家使用劳动力的使用进行内容审核和训练数据的创建,以及依赖点击工作者来开发和维护人工智能系统的雇佣模式。

9. 应当提供更多的资金和支持诉讼、劳工组织和社区参与者加入人工智能问责。

最有可能受到人工智能系统伤害的人往往是那些最不可能对结果提出异议的人。我们需要更多地支持健全的法律补救和公民参与机制。这包括支持一些公众倡导者和劳工组织者,他们分别代表了因算法决策而被切断社会服务的人,以及支持面临失业和剥削风险的群体。同样应当被考虑的还有供公众参与的社区基础设施。

10. 大学人工智能课程应该超越计算机科学和工程学科。

人工智能最初是一个跨学科的领域,但经过几十年的发展,它已经成为一门技术学科。随着人工智能系统在社会领域的应用越来越广泛,人工智能也需要拓展其学科定位,包括累积一些社会和人文学科的专业知识形式。真正希望产生社会影响的人工智能成果不能仅仅停留在计算机科学和工程领域,在这些部门,教师和学生们并没有学习过如何研究真实社会的情况。扩大人工智能研究的学科方向将确保更深入地关注社会背景,在这种情况下,在将这些系统应用于人类更多地关注潜在的危害。

更多详情请阅读完整报告:

https://ainowinstitute.org/AI_Now_2018_Report.pdf

查看英文原文:

https://medium.com/@AINowInstitute/after-a-year-of-tech-scandals-our-10-recommendations-for-ai-95b3b2c5e5

标签: b2c 安全 谷歌 搜索 搜索引擎

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。

上一篇:吴恩达发布一本全新电子书《转型成为 AI企业快速指南》

下一篇:大数据在保险行业的应用