报告

人工智能如何改变世界

大多数人对人工智能(AI)的概念不是很熟悉。例如,2017年,当美国有1,500名高级商业领袖被问及有关AI时,只有17%的人表示他们熟悉AI。1 他们中的许多人不确定这是什么或它将如何影响他们的特定公司。他们了解更改业务流程的潜力很大,但不清楚如何在自己的组织中部署AI。

尽管普遍缺乏熟悉性,但AI仍在改变着人们的生活。它是一个范围广泛的工具,使人们可以重新考虑我们如何集成信息,分析数据以及使用所产生的见解来改进决策。我们希望通过这份全面的概述向决策者,意见领袖和感兴趣的观察者解释AI,并演示AI已如何改变世界并向社会,经济和治理提出重要问题。

在本文中,我们讨论了在金融,国家安全,医疗保健,刑事司法,交通和智慧城市中的新颖应用,并解决了诸如数据访问问题,算法偏见,人工智能伦理和透明度以及人工智能决策的法律责任等问题。我们对比了美国和欧盟的监管方法,最后提出了一些建议,以充分利用AI并同时保护重要的人类价值。 2

为了最大程度地发挥AI的优势,我们建议进行以下九个步骤:

一,人工智能的素质

尽管没有统一的定义,但一般认为AI是指“鉴于人类具有沉思,判断和意图的能力,对与人类传统反应一致的刺激做出反应的机器。”3 据研究人员Shubhendu和Vijay称,这些软件系统“做出通常需要[a]人的专业水平的决策”,并帮助人们预见问题或在问题出现时处理问题。4 因此,它们以有意,智能和自适应的方式运行。

意向性

人工智能算法旨在经常使用实时数据进行决策。它们不同于仅具有机械或预定响应能力的无源机器。他们使用传感器,数字数据或远程输入来组合来自各种不同来源的信息,立即分析材料,并根据这些数据得出的见解采取行动。通过对存储系统,处理速度和分析技术的巨大改进,它们可以在分析和决策方面取得巨大的成功。

人工智能已经在改变世界,并给社会,经济和治理提出了重要问题。

情报

人工智能通常与机器学习和数据分析结合进行。5 机器学习获取数据并寻找潜在趋势。如果发现与实际问题相关的某些内容,则软件设计人员可以利用该知识并将其用于分析特定问题。所需要的只是足够健壮的数据,以使算法可以辨别有用的模式。数据可以采用数字信息,卫星图像,视觉信息,文本或非结构化数据的形式。

适应性

人工智能系统具有在决策时学习和适应的能力。例如,在交通区域,半自动驾驶汽车的工具可让驾驶员和车辆了解即将发生的交通拥堵,坑洼,高速公路建设或其他可能的交通障碍。车辆无需人工干预即可利用道路上其他车辆的经验,并且其所获得的“经验”的全部内容可立即且完全转移到其他类似配置的车辆上。他们先进的算法,传感器和摄像头结合了当前操作的经验,并使用仪表板和可视显示器实时显示信息,从而使驾驶员能够了解正在发生的交通和车辆状况。对于全自动驾驶汽车,先进的系统可以完全控制汽车或卡车,并做出所有导航决策。

二。在不同领域的应用

人工智能不是未来主义的愿景,而是当今存在的,已集成并部署到各个领域的东西。这包括金融,国家安全,医疗保健,刑事司法,交通和智慧城市等领域。有许多例子表明,人工智能已经在以巨大的方式影响着世界并增强了人类的能力。6

AI之所以发挥越来越大的作用,其原因之一就是它带来了巨大的经济发展机遇。普华永道(PriceWaterhouseCoopers)开展的一个项目估计,“到2030年,人工智能技术可以使全球GDP增长15.7万亿美元,增长14%。” 7 其中包括中国的7万亿美元垫款,北美的3.7万亿美元,北欧的1.8万亿美元,非洲和大洋洲的1.2万亿美元,中国以外的亚洲其他地区的0.9万亿美元,南欧的0.7万亿美元,拉丁美洲的0.5万亿美元美国。中国之所以取得长足进步,是因为它设定了一个国家目标,即在人工智能领域投资1500亿美元,并在2030年前成为该领域的全球领导者。

同时,麦肯锡全球研究院对中国的一项研究发现,“以人工智能为主导的自动化可以为中国经济注入生产力,视采用速度而定,这将使GDP每年增长0.8至1.4个百分点。” 8 尽管其作者发现中国目前在AI部署方面落后于美国和英国,但其AI市场的庞大规模为该国提供了进行试点测试和未来发展的巨大机会。

金融

2013年至2014年,美国对金融AI的投资增加了三倍,总额达到122亿美元。9 该领域的观察家认为,“现在通过软件来决定贷款,可以考虑到有关借款人的各种精细分析数据,而不仅仅是信用评分和背景调查。”10 此外,所谓的机器人顾问“可以创建个性化的投资组合,从而消除了对股票经纪人和财务顾问的需求。”11 这些进步旨在使人们摆脱投资情绪,并基于分析性考虑做出决策,并在几分钟内做出选择。

一个显着的例子是在证券交易所,那里的机器高频交易已经取代了很多人为的决策。人们提交买卖订单,计算机在眨眼之间就匹配了它们,无需人工干预。机器可以在很小的范围内发现交易效率低下或市场差异,并根据投资者的指示执行赚钱的交易。12 这些工具在某些地方由高级计算提供支持,因为它们不强调零或一,而是强调可以在每个位置存储多个值的“量子位”,因此具有更大的信息存储能力。13 这极大地增加了存储容量并减少了处理时间。

欺诈检测是AI在金融系统中提供帮助的另一种方式。有时很难分辨大型组织中的欺诈活动,但AI可以识别异常,异常值或异常案例,需要进行进一步调查。这有助于管理人员在周期内及早达到危险水平之前发现问题。14

国家安全

人工智能在国防中发挥着重要作用。美国军方通过其Maven项目正在部署AI“以筛选监视捕获的大量数据和视频,然后向人类分析人员警告其模式或异常或可疑活动。”15 国防部副部长帕特里克·沙纳汉(Patrick Shanahan)表示,该领域新兴技术的目标是“满足我们作战人员的需求,并提高技术开发和采购的速度和敏捷性。”16

人工智能将如此迅速地加速传统战争进程,以至于创造了一个新名词:超战。

与AI关联的大数据分析将对情报分析产生深远的影响,因为近乎实时(如果不是最终实时)对海量数据进行筛选,从而为指挥官及其工作人员提供迄今为止从未见过的情报分析和生产力水平。当人类指挥官将某些例行程序委托给AI平台时,命令和控制将受到类似的影响,在特殊情况下,关键决策也将落入AI平台,从而大大减少了与决策和后续行动相关的时间。最后,战争是一个时间竞争的过程,通常能够决定最快和最迅速地执行任务的一方将占据上风。实际上,与AI辅助的命令和控制系统绑定的人工智能系统可以将决策支持和决策的速度大大提高到优于传统发动战争的速度。这个过程将是如此之快,特别是如果结合自动决策来发射具有致命性的人工智能自主武器系统,则专门创造了一个新术语来包含发动战争的速度:超战。

虽然关于美国是否会使用人工智能自动杀伤系统发动战争的伦理和法律辩论仍在激烈进行,但中国和俄罗斯人并没有沉迷于这场辩论中,我们应该预料到我们有必要捍卫这些以超战速度运转的系统。西方国家在激烈的战争中如何定位“人在圈内”的挑战最终将决定西方国家在这种新型冲突形式中具有竞争力的能力。17

正如AI将深刻影响战争的速度一样,零日或零秒网络威胁以及多态恶意软件的扩散甚至将挑战最复杂的基于签名的网络保护。这迫使对现有的网络防御进行重大改进。脆弱的系统越来越多地迁移,并且将需要转向使用基于云的认知型AI平台实现网络安全的分层方法。这种方法使社区朝着“思维”防御能力发展,该能力可以通过对已知威胁进行不断的培训来防御网络。此功能包括对迄今未知代码的DNA级分析,并可能通过识别文件的字符串组件来识别和阻止入站恶意代码。这就是某些基于美国的关键系统如何阻止令人衰弱的“ WannaCry”和“ Petya”病毒的方法。

由于中国,俄罗斯,朝鲜和其他国家正在将大量资源投入到AI中,因此,应对超战和防御关键网络的准备必须成为高度优先事项。 2017年,中国国务院发布了一项计划,要求中国到2030年“打造价值近1500亿美元的国内产业”。18 作为一种可能性的例子,中国搜索公司百度开创了一种面部识别应用程序,可以找到失踪人员。此外,深圳等城市将提供高达100万美元的资金来支持AI实验室。该国希望AI能够提供安全性,打击恐怖主义并改善语音识别程序。19 许多AI算法具有双重用途,这意味着专注于社会某一领域的AI研究也可以快速修改以用于安全领域。20

卫生保健

人工智能工具正在帮助设计人员改善医疗保健中的计算复杂性。例如,Mercantix是一家德国公司,致力于将深度学习应用于医学问题。它在医学成像中具有“在计算机断层扫描(CT)图像中检测人体淋巴结”的应用。21 根据其开发人员的说法,关键是标记节点并识别可能有问题的小病变或生长。人类可以做到这一点,但是放射科医生每小时收费100美元,并且每小时只能仔细读取四张图像。如果有10,000张图像,则此过程的成本将为250,000美元,如果由人工完成,这将是非常昂贵的。

在这种情况下,深度学习可以做的是在数据集上训练计算机,以了解正常外观的淋巴结与正常外观的淋巴结的区别。在通过成像练习并磨练标签的准确性之后,放射成像专家可以将这一知识应用于实际患者,并确定某人处于癌性淋巴结风险的程度。由于只有极少数的测试结果呈阳性,因此确定不健康节点与健康节点是一个问题。

人工智能还被应用于充血性心力衰竭,这种疾病困扰着10%的老年人,在美国每年造成350亿美元的损失。人工智能工具非常有用,因为它们“可以预先预测潜在的挑战,并为患者的教育,感知和主动干预分配资源,使患者远离医院。”22

刑事司法

大赦国际正在刑事司法领域部署。芝加哥市已经制定了一个由人工智能驱动的“战略主体清单”,该清单分析了因可能成为未来肇事者而被捕的人。它使用年龄,犯罪活动,受害,毒品逮捕记录和帮派关系等项目对0到500范围内的40万人进行排名。分析人员在查看数据时发现,青年人是暴力行为的有力预测因素,作为枪击受害者与成为未来犯罪者有关联,帮派从属关系的预测价值很小,而逮捕毒品与未来的犯罪活动关系不大。23

司法专家声称,人工智能程序减少了执法中的人为偏见,并导致了更公平的判决系统。 R Street Institute助理Caleb Watney写道:

基于经验的预测性风险分析问题发挥了机器学习,自动推理和其他形式的AI的优势。一项机器学习策略模拟得出的结论是,此类程序可用于将犯罪率降低至24.8%,而牢狱之罪没有变化,或者可以将监狱人数减少多达42%,而犯罪率却没有增加。24

但是,批评家担心,人工智能算法代表“一种秘密系统,用以惩罚尚未犯罪的公民。风险评分已被多次用于指导大规模综述。”25 人们担心这样的工具不公平地针对有色人种,并且没有帮助芝加哥减少近年来困扰它的谋杀热潮。

尽管存在这些担忧,其他国家还是在这一领域迅速部署。例如,在中国,公司已经“拥有大量资源,并且可以大量访问语音,面部和其他生物识别数据,这将有助于他们开发技术。”26 新技术可以将图像和声音与其他类型的信息进行匹配,并在这些组合的数据集上使用AI以改善执法和国家安全。通过其“敏锐的眼睛”计划,中国执法部门将视频图像,社交媒体活动,在线购买,旅行记录和个人身份匹配到“警察云”中。这个集成的数据库使当局能够跟踪罪犯,潜在的违法者和恐怖分子。27 换句话说,中国已成为世界领先的人工智能监控国。

运输

运输代表着AI和机器学习正在产生重大创新的领域。布鲁金斯学会的卡梅伦·凯里(Cameron Kerry)和杰克·卡斯滕(Jack Karsten)的研究发现,在2014年8月至2017年6月之间,对自动驾驶技术的投资超过800亿美元。这些投资包括自动驾驶应用和对该领域至关重要的核心技术。28

无人驾驶汽车-汽车,卡车,公共汽车和无人机运输系统-使用先进的技术能力。这些功能包括自动车辆导航和制动,换道系统,使用摄像头和传感器来避免碰撞,使用AI实时分析信息以及使用高性能计算和深度学习系统来适应通过详细地图了解新情况。29

光检测和测距系统(LIDAR)和AI是导航和避免碰撞的关键。 LIDAR系统将光和雷达仪器结合在一起。它们安装在车辆的顶部,这些车辆在360度环境中使用雷达和光束成像,以测量周围物体的速度和距离。这些仪器连同放置在车辆前,侧面和后部的传感器一起提供信息,使快速行驶的汽车和卡车保持在自己的车道上,帮助他们避开其他车辆,在需要时施加制动和转向,并立即执行操作以免发生意外。

先进的软件使汽车能够从道路上其他车辆的经验中吸取经验,并根据天气,驾驶或道路状况的变化调整其引导系统。这意味着软件是关键,而不是汽车或卡车本身。

由于这些相机和传感器会收集大量信息,并且需要立即对其进行处理,以避免汽车驶入下一车道,因此自动驾驶汽车需要高性能的计算,先进的算法和深度学习系统,才能适应新的场景。这意味着软件是关键,而不是物理的汽车或卡车本身。30 先进的软件使汽车能够从道路上其他车辆的经验中吸取经验,并根据天气,驾驶或道路状况的变化调整其引导系统。31

拼车公司对自动驾驶汽车非常感兴趣。他们看到了客户服务和劳动生产率方面的优势。所有主要的乘车共享公司都在探索无人驾驶汽车。汽车共享和出租车服务的激增,例如美国的Uber和Lyft,英国的戴姆勒Mytaxi和Hailo服务以及中国的Didi Chuxing,都证明了这种交通选择的机会。优步最近签署了一项协议,从沃尔沃购买24,000辆自动驾驶汽车,用于其乘车共享服务。32

然而,这家拼车公司在2018年3月遭受挫折,当时其在亚利桑那州的一辆自动驾驶汽车撞死一名行人。 Uber和几家汽车制造商立即暂停测试,并开始调查出了什么问题以及可能发生的致命事故。33 行业和消费者都希望保证该技术是安全的,并且能够兑现其既定的承诺。除非有有说服力的答案,否则此事故可能会减慢AI在运输领域的进步。

智慧城市

都市政府正在使用AI改善城市服务的提供。例如,根据Kevin Desouza,Rashmi Krishnamurthy和Gregory Dawson的说法:

辛辛那提消防局正在使用数据分析来优化医疗应急响应。新的分析系统通过考虑多个因素(例如呼叫的类型,位置),向调度员建议对医疗紧急呼叫的适当响应(无论是可以在现场治疗患者还是需要将患者送往医院) ,天气和类似通话。 34

由于辛辛那提每年要处理80,000个请求,因此该官员正在部署该技术以优先处理响应并确定处理紧急情况的最佳方法。他们将AI视为处理大量数据的一种方法,并找出了响应公共请求的有效方法。当局没有以临时方式解决服务问题,而是试图主动提供城市服务。

辛辛那提并不孤单。许多大都市地区正在采用智慧城市应用程序,这些应用程序使用AI来改善服务交付,环境规划,资源管理,能源利用和犯罪预防等。对于《智慧城市》指数,《快速公司》(Fast Company)杂志对美国地区进行排名,并发现西雅图,波士顿,旧金山,华盛顿特区和纽约市是最受采用的地区。例如,西雅图已经拥抱可持续性,并正在使用人工智能来管理能源使用和资源管理。波士顿启动了“待去的市政厅”,以确保服务不足的社区获得所需的公共服务。它还部署了“摄像机和感应回路来管理交通和声学传感器以识别枪击事件”。旧金山已认证203座建筑物符合LEED可持续性标准。 35

通过这些和其他方式,大都市区在AI解决方案的部署方面处于领先地位。确实,根据全国城市联盟的报告,美国66%的城市都在投资智慧城市技术。报告中提到的顶级应用包括“用于公用事业,智能交通信号,电子政务应用,Wi-Fi信息亭和路面上的射频识别传感器的智能仪表”。36

三,政策,法规和道德问题

来自各个部门的这些示例说明了AI如何改变人类生活的方方面面。人工智能和自主设备在生活的许多方面的日益普及正在改变组织内部的基本操作和决策,并提高效率和响应时间。

但是,与此同时,这些事态发展引发了重要的政策,法规和道德问题。例如,我们应该如何促进数据访问?我们如何防范算法中使用的有偏见或不公平的数据?通过软件编程引入了哪些类型的道德原则,设计师对选择的透明度如何?在算法造成损害的情况下,法律责任问题又如何呢?37

人工智能在生活的许多方面的渗透日益增加,正在改变组织内部的决策并提高效率。但是,与此同时,这些事态发展引发了重要的政策,法规和道德问题。

资料存取问题

充分利用AI的关键是拥有“具有统一标准和跨平台共享的数据友好型生态系统”。人工智能依赖于可以实时分析并处理具体问题的数据。在研究界拥有“可用于探索的数据”是成功开发AI的前提。 38

根据麦肯锡全球研究所的一项研究,促进开放数据源和数据共享的国家最有可能看到AI的发展。在这方面,美国比中国具有实质优势。对数据开放性的全球评分显示,美国在全球排名第八,而中国为93。39

但是目前,美国还没有统一的国家数据策略。很少有协议可以促进研究访问或平台的发展,从而可以从专有数据中获得新的见解。谁拥有数据或在公共领域拥有多少数据并不总是很清楚。这些不确定性限制了创新经济,并拖累了学术研究。在以下部分中,我们概述了改善研究人员数据访问的方法。

数据和算法偏差

在某些情况下,某些AI系统被认为启用了歧视性或偏见性做法。40 例如,Airbnb被指控在其平台上拥有歧视种族少数群体的房主。哈佛商学院进行的一项研究项目发现,“拥有明显非洲裔美国人名字的Airbnb用户被接纳为客人的可能性比具有明显白人名字的人低约16%。”41

面部识别软件也会出现种族问题。大多数此类系统通过将人的脸部与大型数据库中的一系列脸部进行比较来进行操作。正如算法正义联盟的Joy Buolamwini所指出的那样:“如果您的面部识别数据主要包含高加索人的面孔,那就是您的程序将学会识别的东西。”42 除非数据库可以访问各种数据,否则这些程序在尝试识别非裔美国人或亚裔美国人特征时将表现不佳。

许多历史数据集反映了传统值,这些值可能代表也可能不代表当前系统所需的偏好。正如布拉姆维尼(Buolamwini)所指出的,这种方法可能会重复出现过去的不平等现象:

自动化的兴起和对高风险决策的算法的依赖越来越大,例如是否有人获得保险,您拖欠贷款的可能性或某人的累犯风险,这是需要解决的问题。甚至入学决定也越来越自动化-我们的孩子去哪所学校上学以及他们有什么机会。我们不必将过去的结构性不平等带入我们创造的未来。43

人工智能道德与透明度

算法将道德考虑和价值选择嵌入程序决策中。这样,这些系统就自动决策中使用的标准提出了疑问。有些人希望对算法的功能以及做出的选择有更好的了解。44

在美国,许多城市学校都基于各种考虑因素,例如父母的偏爱,邻里质量,收入水平和人口背景,使用算法来决定入学。布鲁金斯大学的研究员乔恩·瓦兰特(Jon Valant)表示,新奥尔良的布里科拉奇学院(Bricolage Academy)“将经济弱势的申请者的优先权提高到33%。不过实际上,大多数城市都选择了优先考虑当前学生,学校雇员的子女以及居住在学校广泛地理区域的家庭中的兄弟姐妹的类别。”45 当这类考虑因素发挥作用时,预计入学选择会有很大不同。

根据AI系统的设置方式,它们可以促进抵押贷款申请的重新编排,帮助人们歧视自己不喜欢的个人,或者根据不公平的标准帮助筛选或建立个人花名册。就系统如何操作以及它们如何影响客户而言,编程决策中考虑的因素类型非常重要。46

出于这些原因,欧盟将于2018年5月实施通用数据保护条例(GDPR)。该规则明确规定,人们有权“选择退出个性化定制广告”,并且“可以对由欧盟做出的“法律或类似意义的”决定提出异议“算法和对人为干预的吸引力”,以解释该算法如何产生特定结果的形式。每个指南旨在确保对个人数据的保护,并向个人提供有关“黑匣子”如何运作的信息。47

法律责任

关于AI系统的法律责任存在疑问。如果存在危害或违规行为(对于无人驾驶汽车,则是死亡事故),该算法的运营商很可能会属于产品责任规定。大量判例法表明,情况的事实和情况决定了赔偿责任并影响了所施加的处罚种类。罚款的范围从民事罚款到重大伤害监禁不等。 48 亚利桑那州与Uber有关的死亡将是法律责任的重要测试案例。该州积极招募Uber对其自动驾驶汽车进行测试,并在道路测试方面给予了公司很大的自由度。在此案中是否会提起诉讼以及被起诉的人还有待观察:人工后备司机,亚利桑那州,发生事故的菲尼克斯郊区,Uber,软件开发商或汽车制造商。考虑到路试涉及的人员和组织众多,有许多法律问题需要解决。

在非运输领域,数字平台通常对其站点上发生的事情承担有限责任。例如,对于Airbnb,该公司“要求人们同意放弃其起诉,参加任何集体诉讼或集体仲裁以使用该服务的权利。”通过要求用户牺牲基本权利,该公司限制了对消费者的保护,因此削弱了人们抵抗因不公平算法而引起的歧视的能力。49 但是,中性网络的原理在许多领域是否成立尚待广泛确定。

IV。推荐建议

为了在创新与基本人类价值观之间取得平衡,我们提出了一些有关人工智能发展的建议。这包括改善数据访问,增加政府对AI的投资,促进AI劳动力发展,建立联邦咨询委员会,与州和地方官员合作以确保他们制定有效的政策,规范广泛的目标而不是特定的算法,将偏见视为人工智能问题,维持人类控制和监督的机制,并对恶意行为进行惩罚并促进网络安全。

改善数据访问

美国应制定促进创新和保护消费者的数据战略。目前,在数据访问,数据共享或数据保护方面还没有统一的标准。几乎所有数据本质上都是专有的,并未与研究团体广泛共享,这限制了创新和系统设计。人工智能需要数据来测试和提高其学习能力。50 没有结构化和非结构化的数据集,几乎不可能获得人工智能的全部好处。

通常,研究社区需要更好地访问政府和商业数据,尽管要采取适当的保护措施以确保研究人员不会像Cambridge Analytica对Facebook信息那样滥用数据。研究人员可以通过多种方式来获取数据。一种是通过与拥有专有数据的公司的自愿协议。例如,Facebook最近宣布与斯坦福大学经济学家拉吉·切蒂(Raj Chetty)建立合作伙伴关系,利用其社交媒体数据探索不平等现象。51 作为安排的一部分,要求研究人员进行背景调查,并且只能访问安全站点中的数据,以保护用户的隐私和安全。

在美国,在数据访问,数据共享或数据保护方面没有统一的标准。几乎所有数据本质上都是专有的,并未与研究团体广泛共享,这限制了创新和系统设计。

长期以来,Google一直以汇总形式向研究人员和公众提供搜索结果。通过其“趋势”网站,学者可以分析诸如对特朗普的兴趣,对民主的看法以及对整体经济的看法等主题。52 这有助于人们追踪公众利益的动向,并确定激发公众兴趣的话题。

推特通过应用程序编程接口(通常称为API)将大部分推文提供给研究人员。这些工具可帮助公司外部的人员构建应用程序软件并利用其社交媒体平台中的数据。他们可以研究社交媒体传播的模式,并了解人们对当前事件的评论或反应。

在某些具有明显公共利益的部门中,政府可以通过建立共享数据的基础结构来促进协作。例如,美国国家癌症研究所(National Cancer Institute)率先提出了一种数据共享协议,在该协议中,经过认证的研究人员可以使用从临床数据,理赔信息和药物疗法中获得的去识别信息来查询其拥有的健康数据。这使研究人员能够评估功效和有效性,并就最佳医疗方法提出建议,而不会损害单个患者的隐私。

可能存在将政府和业务数据集结合起来以提高系统性能的公私数据合作伙伴关系。例如,城市可以将乘车共享服务中的信息与其自身在社会服务位置,公交线路,公共交通和高速公路拥堵方面的资料进行整合,以改善交通状况。这将有助于大都市地区处理交通阻塞问题,并有助于高速公路和公共交通的规划。

这些方法的某种组合将改善研究人员,政府和企业界的数据访问权限,而不会影响个人隐私。正如NVIDIA副总裁Ian Buck所说:“数据是驱动AI引擎的燃料。联邦政府可以访问大量的信息资源。公开访问这些数据将有助于我们获得深刻的见解,从而改变美国的经济。”53 通过其Data.gov门户,联邦政府已经将超过23万个数据集放到了公共领域,这推动了创新,并帮助改进了AI和数据分析技术。54 私营部门还需要促进研究数据的访问,以使社会获得人工智能的全部收益。

增加政府对AI的投资

根据OpenAI的联合创始人Greg Brockman的说法,美国联邦政府仅在非机密AI技术上投资了11亿美元。55 这远远低于中国或其他主要国家在这一研究领域的投入。由于AI的经济收益是巨大的,因此这一不足之处是值得注意的。为了促进经济发展和社会创新,联邦官员需要增加对人工智能和数据分析的投资。更高的投资可能会在经济和社会效益方面收回很多倍。56

促进数字教育和劳动力发展

随着AI应用在许多领域的加速发展,至关重要的是,我们必须重新构想我们的教育机构,以应对AI将无处不在且学生需要与他们目前所接受的培训不同的世界。目前,许多学生尚未获得有关AI主导环境中所需技能的指导。例如,当前缺少数据科学家,计算机科学家,工程师,编码人员和平台开发人员。这些技能供不应求。除非我们的教育系统能吸引更多具有这些能力的人使用,否则它将限制AI的发展。

由于这些原因,州和联邦政府一直在投资于AI人力资本。例如,2017年,美国国家科学基金会(National Science Foundation)资助了6,500多名计算机相关领域的研究生,并发起了一些新计划,旨在鼓励从K到学前教育到高等教育和继续教育的各个层面的数据和计算机科学。57 目标是建立更大的AI和数据分析人员流水线,以使美国能够充分利用知识革命的全部优势。

但是学习本身的过程也需要进行实质性的改变。 AI世界不仅需要技术技能,还包括批判性推理,协作,设计,信息的视觉显示以及独立思考等技能。人工智能将重新配置社会和经济的运作方式,并且需要“大局”思考这对道德,治理和社会影响的意义。人们将需要具有广泛思考许多问题并整合来自多个不同领域的知识的能力。

IBM的Teacher Advisor计划是为学生准备迎接数字未来的新方法的一个例子,该计划利用Watson的免费在线工具来帮助老师将最新知识带入课堂。它们使讲师能够在STEM和非STEM领域中制定新的课程计划,查找相关的教学视频,并帮助学生充分利用课堂。58 因此,它们是需要创建的新教育环境的前身。

创建一个联邦AI咨询委员会

联邦官员需要考虑如何处理人工智能。如前所述,存在许多问题,从需要改进的数据访问到解决偏见和歧视问题。至关重要的是要考虑这些问题和其他问题,以便我们获得这项新兴技术的全部好处。

为了在这一领域向前发展,国会的一些议员提出了“人工智能的未来法”,该法案旨在为人工智能建立广泛的政策和法律原则。它建议商务部长成立一个有关人工智能开发和实施的联邦咨询委员会。该立法为联邦政府提供了一种机制,以就如何促进“投资和创新气候以确保美国的全球竞争力”,“优化人工智能的发展以应对潜在的增长,重组或发展”提出建议。美国劳动力的其他变化”,“支持人工智能的公正开发和应用”以及“保护个人的隐私权”。59

委员会需要解决的具体问题包括:竞争力,劳动力影响,教育,道德培训,数据共享,国际合作,责任制,机器学习偏见,农村影响,政府效率,投资环境,工作影响,偏见,和消费者的影响。委员会应在颁布后540天向国会和政府提交一份有关AI所需的任何立法或行政措施的报告。

这项立法是朝着正确方向迈出的一步,尽管该领域的发展如此之快,我们建议将报告时间从540天缩短到180天。等待近两年的委员会报告肯定会导致机会错失,并且在重要问题上缺乏行动。考虑到该领域的快速发展,在委员会分析​​中有更快的周转时间将是非常有益的。

与州和地方官员接触

各州和地区也正在就AI采取行动。例如,纽约市议会一致通过了一项法案,指示市长组建一个工作组,该工作组将“监督市政机构使用的算​​法的公平性和有效性”。60 该市采用算法来“确定是否将较低的保释金分配给贫困的被告,建立消防站,为公立学校安置学生,评估教师的表现,确定医疗补助欺诈并确定下一步将发生犯罪的地方。”61

根据法律的制定者,城市官员想知道这些算法如何工作,并确保有足够的AI透明度和责任感。此外,人们还担心AI算法的公平性和偏见,因此工作组已被指示分析这些问题并就未来的使用提出建议。计划在2019年底之前向市长报告一系列人工智能政策,法律和法规问题。

一些观察者已经担心该工作队在追究算法责任方面做得还不够。例如,康奈尔大学技术学院和纽约大学的朱莉娅·普勒斯(Julia Powles)辩称,该法案最初要求公司向公众提供AI源代码以供检查,并且需要使用实际数据模拟其决策。但是,在批评这些规定之后,前议员詹姆斯·瓦卡放弃了要求,转而成立了研究这些问题的工作队。他和其他城市官员担心,关于算法的专有信息的发布会减缓创新速度,并使得很难找到可以与城市合作的AI供应商。62 这个地方工作队将如何平衡创新,隐私和透明度问题还有待观察。

规范广泛的目标而不是特定的算法

欧洲联盟对这些数据收集和分析问题采取了限制性立场。63 它的规则限制了公司收集道路状况数据和绘制街道视图的能力。由于这些国家中的许多国家担心未加密的Wi-Fi网络中的人们的个人信息会席卷整个数据收集,因此欧盟对技术公司处以罚款,要求提供数据副本,并对收集的材料进行限制。64 这使得在那里经营的技术公司更难以开发自动驾驶汽车所需的高清地图。

在欧洲实施的GDPR严重限制了人工智能和机器学习的使用。根据已发布的指南,“法规禁止任何对欧盟公民有重大影响的自动决定。这包括评估一个人的“工作表现,经济状况,健康状况,个人喜好,兴趣,可靠性,行为,位置或动作的技术”。65 此外,这些新规则使公民有权查看数字服务如何做出影响人们的特定算法选择。

通过在数据收集和分析问题上采取限制性立场,欧盟使其制造商和软件设计师处于与世界其他国家相比明显的劣势。

如果严格解释,这些规则将使欧洲软件设计人员(以及与欧洲同行合作的美国设计人员)难以将人工智能和高清地图纳入自动驾驶汽车。这些汽车和卡车导航的中心是跟踪位置和运动。如果没有包含地理编码数据的高清地图以及利用这些信息的深度学习,那么全自动驾驶将在欧洲停滞不前。通过这项和其他数据保护措施,欧盟使其制造商和软件设计人员处于世界其他地区的严重劣势。

考虑到人工智能希望实现的广泛目标并制定推进这些目标的政策,而不是政府试图破解“黑匣子”并确切了解特定算法如何运行的政府,这更有意义。规范单个算法将限制创新,并使公司难以利用人工智能。

认真对待偏见

偏见和歧视是人工智能的严重问题。已经有许多与历史数据相关的不公平待遇案件,需要采取步骤以确保在人工智能中不普遍。有关实体经济中歧视的现行法规需要扩展到数字平台。这将有助于保护消费者并建立对这些系统整体的信心。

为了使这些进步得到广泛采用,人工智能系统的运行方式需要更高的透明度。 Immuta的安德鲁·伯特(Andrew Burt)指出:“预测分析面临的关键问题实际上是透明度。我们处在一个数据科学运营正在承担越来越重要的任务的世界中,唯一使它们受阻的是训练模型的数据科学家能够很好地解释其模型在做什么。”66

维持人类监督和控制机制

一些人认为,人类需要对AI系统进行监督和控制。例如,艾伦人工智能研究所首席执行官Oren Etzioni认为应该有规范这些系统的规则。他说,首先,人工智能必须受制于已经针对人类行为制定的所有法律,包括有关“网络攻击,股票操纵或恐怖威胁”的法规,以及“诱使人们实施犯罪”的法规。其次,他认为这些系统应该公开它们是自动化系统,而不是人类。第三,他说:未经信息来源的明确许可,系统将无法保留或披露机密信息。”67 他的理由是这些工具存储了太多数据,因此人们必须意识到AI带来的隐私风险。

同样,IEEE全球倡议组织对AI和自治系统制定了道德准则。它的专家建议对这些模型进行编程时要考虑到广泛接受的人类行为规范和规则。 AI算法需要考虑这些规范的重要性,如何解决规范冲突以及这些系统对规范解决方案透明的方式。伦理专家说,软件设计应该针对“不欺骗”和“诚实”进行编程。发生故障时,必须有缓解机制来处理后果。尤其是,人工智能必须对偏见,歧视和公平等问题敏感。68

一群机器学习专家声称可以自动进行道德决策。他们将手推车问题视为道德困境,他们提出以下问题:如果自动驾驶汽车失控,是否应该对其编程以杀死自己的乘客或过马路的行人?他们设计了一个“基于投票的系统”,该系统要求130万人评估替代方案,总结总体选择,并将这些人的总体观点应用于各种交通工具。这使他们能够在考虑到公众偏好的情况下自动执行AI算法中的道德决策。69 当然,此程序不会减少任何形式的死亡所造成的悲剧,例如在Uber案中所见,但是它提供了一种机制,可以帮助AI开发人员将道德考量纳入其计划中。

惩罚恶意行为并促进网络安全

与任何新兴技术一样,重要的是要阻止旨在诱骗软件或将其用于不良目的的恶意处理。70 考虑到AI的双重用途,这一点尤其重要,因为同一方面的工具可用于有益或恶意目的。恶意使用AI使个人和组织面临不必要的风险,并破坏了新兴技术的优点。这包括诸如黑客行为,操纵算法,损害隐私和机密性或窃取身份之类的行为。劫持AI以获取机密信息的行为应受到严惩,以制止此类行为。71

在一个瞬息万变的世界中,许多实体都具有先进的计算能力,因此需要特别关注网络安全。各国必须谨慎保护自己的系统,并防止其他国家破坏其安全。72 根据美国国土安全部的数据,一家大型美国银行每周在其服务中心接听约1100万个电话。为了保护其电话免受拒绝服务攻击,它使用“基于机器学习的策略引擎,该引擎根据语音防火墙策略(包括骚扰呼叫者,自动呼叫和潜在的欺诈性呼叫),每月阻止超过120,000个呼叫。”73 这代表了机器学习可以帮助防御恶意系统攻击的技术方法。

五,结论

总而言之,世界正处于通过人工智能和数据分析革新许多行业的风口浪尖。在金融,国家安全,医疗保健,刑事司法,交通和智慧城市中已经有大量部署,已经改变了决策,业务模型,风险缓解和系统性能。这些事态发展正在产生可观的经济和社会效益。

世界正处于通过人工智能彻底改变许多行业的风口浪尖,但是由于这些技术将对整个社会产生重大影响,因此需要更好地理解AI系统的开发方式。

然而,人工智能系统的发展方式对整个社会都具有重大意义。重要的是如何解决政策问题,解决道德冲突,解决法律现实以及在AI和数据分析解决方案中需要多少透明度。74 人对软件开发的选择会影响决策的方式以及将决策集成到组织例程中的方式。这些过程的确切执行方式需要更好地理解,因为它们将在不久的将来对公众产生重大影响。人工智能很可能是人类事务的一场革命,并且将成为历史上最有影响力的人类创新。

注意:我们感谢Grace Gilberg,Jack Karsten,Hillaryary Schaub和Kristjan Tomasson在该项目上的研究帮助。


布鲁金斯学会是一家致力于独立研究和政策解决方案的非营利组织。它的任务是进行高质量的独立研究,并在此基础上为决策者和公众提供创新,实用的建议。任何布鲁金斯出版物的结论和建议仅是其作者​​的结论和建议,并不反映该机构,其管理层或其他学者的观点。

亚马逊慷慨地提供了对该出版物的支持。布鲁金斯意识到,其提供的价值在于对质量,独立性和影响力的绝对承诺。捐助者支持的活动反映了这一承诺。 

约翰·艾伦是Amida Technology顾问委员会的成员,也是Spark Cognition的董事会成员。两家公司都在本文讨论的领域中工作。

脚注

  1. 托马斯·达文波特(Thomas Davenport),杰夫·罗克斯(Jeff Loucks)和大卫·沙茨基(David Schatsky),“对认知的商业价值的看好”(德勤,2017年),第1页。 3(www2.deloitte.com/us/en/pages/deloitte-analytics/articles/cognitive-technology-adoption-survey.html)。
  2. 卢克·多梅尔(Luke Dormehl), 思维机器:对人工智能的追求以及下一步的发展方向 (纽约:Penguin–TarcherPerigee,2017年)。
  3. Shubhendu和Vijay,“人工智能在不同生活领域中的适用性”。
  4. 同上
  5. Andrew McAfee和Erik Brynjolfsson, 机器平台人群:利用我们的数字未来 (纽约:诺顿,2017年)。
  6. 本文的某些部分借鉴了Darrell M. West, 工作的未来:机器人,人工智能和自动化,布鲁金斯学会出版社,2018年。
  7. 普华永道(PriceWaterhouseCoopers),“确定奖项:人工智能对您的业务的真正价值是什么,以及如何资本化?” 2017。
  8. Dominic Barton,Jonathan Woetzel,Seongminong Seong和Tianqizheng Tian,“人工智能:对中国的启示”(纽约:麦肯锡全球研究所,2017年4月),第1页。 1。
  9. 纳撒尼尔·波普(Nathaniel Popper),“股票与机器人” 纽约时报杂志,2016年2月28日。
  10. 同上
  11. 同上
  12. 迈克尔·刘易斯, 闪电男孩:华尔街起义 (纽约:诺顿,2015年)。
  13. 凯德·梅斯(Cade Metz),“在量子计算竞赛中,耶鲁大学教授与技术巨头搏斗” 纽约时报,2017年11月14日,第4页。 B3。
  14. 总裁执行办公室,“人工智能,自动化和经济”,2016年12月,第27-28页。
  15. 克里斯蒂安·达文波特(Christian Davenport),“未来战争可能取决于弹药的算法,报告说,” 华盛顿邮报,2017年12月3日。
  16. 同上
  17. 约翰·艾伦(John R. Allen)和艾米尔·侯赛因(Amir Husain),“论战” 海军学院学报2017年7月17日,第30-36页。
  18. 保罗·莫祖(Paul Mozur),“中国设定了领导人工智能的目标” 纽约时报,2017年7月21日,第4页。 B1。
  19. 保罗·莫祖尔(Paul Mozur)和约翰·马尔科夫(John Markoff),“中国在超越美国人工智能吗?” 纽约时报,2017年5月28日。
  20. 经济学家2018年3月15日,``美国诉中国:数字霸权之战''。
  21. Rasmus Rothe,“将深度学习应用于现实世界中的问题”, ,2017年5月23日。
  22. 埃里克·霍维茨(Eric Horvitz),“对人工智能现状和未来的思考”,美国参议院空间,科学与竞争力小组委员会的证词,2016年11月30日,第1页。 5,
  23. Jeff Asher和Rob Arthur,“试图预测芝加哥枪支暴力的算法内,” 纽约时报摘要,2017年6月13日。
  24. Caleb Watney,“现在是我们的司法系统采用人工智能的时候了,” 技术坦克 (博客),布鲁金斯学会,2017年7月20日。
  25. Asher和Arthur,“在试图预测芝加哥枪支暴力的算法内部。”
  26. 保罗·莫祖(Paul Mozur)和基思·布拉德瑟(Keith Bradsher),“中国的A.I.进步帮助其技术产业和国家安全,” 纽约时报,2017年12月3日。
  27. 西蒙·丹尼尔(Simon Denyer),“中国的警惕之眼” 华盛顿邮报,2018年1月7日。
  28. 卡梅伦·凯里(Cameron Kerry)和杰克·卡斯滕(Jack Karsten),“衡量无人驾驶汽车的投资”,布鲁金斯学会,2017年10月16日。
  29. 本部分内容摘自Daringll M. West,“中国,欧洲,日本,韩国和美国的无人驾驶汽车”,布鲁金斯学会,2016年9月。
  30. 同上
  31. 葛玉明,刘晓曼,唐丽波和Darrell M. West,“中美智能交通”,布鲁金斯学会技术创新中心,2017年12月。
  32. 彼得·霍利(Peter Holley),“优步签署从沃尔沃购买24,000辆自动驾驶汽车的交易” 华盛顿邮报,2017年11月20日。
  33. 若林大辅(Daisuke Wakabayashi),“无人驾驶Uber汽车在机器人漫游的亚利桑那州杀死行人,” 纽约 时报,2018年3月19日。
  34. Kevin Desouza,Rashmi Krishnamurthy和Gregory Dawson,“从公共部门的人工智能实验中学习” 技术坦克 (博客),布鲁金斯学会,2017年6月23日。
  35. 博伊德·科恩(Boyd Cohen),“北美十大智慧城市”, 快速公司,2013年11月14日。
  36. Teena Maddox,“美国66%的城市都在投资智慧城市技术”, 技术共和国,2017年11月6日。
  37. Osonde Osoba和William Welser IV,“人工智能对安全和工作未来的风险”(加利福尼亚州圣莫尼卡:兰德公司,2017年12月)(www.rand.org/pubs/perspectives/PE237.html) 。
  38. 同上,p。 7。
  39. Dominic Barton,Jonathan Woetzel,Seongminong Seong和Tianqizheng Tian,“人工智能:对中国的启示”(纽约:麦肯锡全球研究所,2017年4月),第1页。 7。
  40. 总裁执行办公室,“为人工智能的未来做准备”,2016年10月,第30-31页。
  41. Elaine Glusac,“随着Airbnb的增长,歧视的要求也在增长” 纽约时报,2016年6月21日。
  42. “ Joy Buolamwini,” 彭博商业周刊,2017年7月3日,第4页。 80
  43. 同上
  44. Mark Purdy和Paul Daugherty,“为什么人工智能是增长的未来”,埃森哲,2016年。
  45. 乔恩·瓦兰特(Jon Valant),“整合特许学校和基于选择的教育系统” 布朗中心黑板博客, 布鲁金斯学会,2017年6月23日。
  46. 塔克,“‘白色面膜效果更好’。”
  47. 匡匡(Cliff Kuang):要教自己解释吗?” 纽约时报杂志,2017年11月21日。
  48. 耶鲁大学法学院信息社会项目,“控制机器学习”,2017年9月。
  49. 凯蒂·本纳(Katie Benner),“ Airbnb誓言要与种族主义作斗争,但其用户不能提倡公正性,” 纽约时报,2016年6月19日。
  50. 总裁执行办公室,“人工智能,自动化和经济”和“为人工智能的未来做准备”。
  51. 南希·斯科拉(Nancy Scolar),“ 脸书的下一个项目:美国的不平等” 政治,2018年2月19日。
  52. 达雷尔·韦斯特(Darrell M. West),“关于唐纳德·特朗普任职第一年的互联网搜索数据揭示了什么”,布鲁金斯学会政策报告,2018年1月17日。
  53. 伊恩·巴克(Ian Buck),“众议院监督和政府改革信息技术小组委员会的证词”,2018年2月14日。
  54. Keith Nakasone,“众议院监督和政府改革信息技术小组委员会的证词”,2018年3月7日。
  55. 格雷格·布罗克曼(Greg Brockman),“人工智能的黎明”,美国参议院空间,科学与竞争力小组委员会的证词,2016年11月30日。
  56. Amir Khosrowshahi,“众议院监督和政府改革信息技术小组委员会的证词”,2018年2月14日。
  57. 詹姆斯·黑罗斯(James Kurose),“众议院监督和政府改革信息技术小组委员会的证词”,2018年3月7日。
  58. Stephen Noonoo,“教师现在可以使用IBM的Watson搜索免费的教案”, EdSurge,2017年9月13日。
  59. Congress.gov,“人权《 2017年人工智能法案4625未来》,2017年12月12日。
  60. 伊丽莎白·齐玛(Elizabeth Zima),“纽约市的AI透明度法案能成为该国的榜样吗?” 政府技术,2018年1月4日。
  61. 同上
  62. 朱莉亚·波勒斯(Julia Powles),“纽约市的大胆尝试使算法负责任的尝试失败,” 纽约人,2017年12月20日。
  63. Sheera Frenkel,“技术巨头为欧洲的新数据隐私规则提供支持”, 纽约时报,2018年1月28日。
  64. Claire Miller和Kevin O’Brien,“德国与Google街景的复杂关系”, 纽约 时报,2013年4月23日。
  65. Cade Metz,“人工智能正在为与欧洲的巨大冲突建立互联网”, 有线,2016年7月11日。
  66. 埃里克·西格尔(Eric Siegel),“预测性分析访谈系列:安德鲁·伯特(Andrew Burt)” 预测分析时间,2017年6月14日。
  67. Oren Etzioni,“如何规范人工智能”, 纽约时报,2017年9月1日。
  68. “人工智能和自治系统中的道德考虑”,未发表的论文。 IEEE全球倡议,2018年。
  69. Ritesh Noothigattu,Snehalkumar Gaikwad,Edmond Awad,Sohan Dsouza,Iyad Rahwan,Pradeep Ravikumar和Ariel Procaccia,“基于投票的道德决策系统”, 电脑和 社会,2017年9月20日(www.media.mit.edu/publications/a-voting-based-system-for-ethical-decision-make/)。
  70. Miles Brundage等人,“人工智能的恶意使用”,牛津大学未发表的论文,2018年2月。
  71. John Markoff,“随着人工智能的发展,其犯罪潜能也在发展”,《纽约时报》,2016年10月24日,第4页。 B3。
  72. 经济学家《挑战者:技术政治》,2018年3月17日。
  73. 道格拉斯·莫恩(Douglas Maughan),“众议院监督和政府改革信息技术小组委员会的证词”,2018年3月7日。
  74. 列维·提勒曼(Levi Tillemann)和科林·麦考密克(Colin McCormick),“为美国和德国制定人工智能政策议程制定路线图”,新美国基金会,2017年3月。

有关技术的更多信息& Innovation