埃森哲:公民AI时代来临

发布时间: 2018-6-7 11:43
知识文档-点击下载

Accenture-AI-2.pdf

1.79 MB, 7人喜欢 , 382人浏览

所需积分: 5 积分 [立即下载]

10页 PDF 中文版

如果一部人工智能操控的存货机器人撞伤了仓库工人?如果人工智能医生在为病人做出错误诊断时,谁将对此负责?埃森哲认为:企业必须提高人工智能系统的责任意识。无论其最终扮演何种角色,人工智能所采取的一切行动都代表着企业。使用这些技术的企业必须仔细考虑需要为其行动承担的责任和义务,培养公民AI。

如今,我们正工作和生活在一个创新年代,云、人工智能(AI)、区块链、增强现实和虚拟现实、物联网、量子计算等一系列新技术成为这个时代的标志。

企业正在运用技术与人们建立更深入、更有意义的关系,造福于整个社会。例如,不少企业已经意识到:部署人工智能不再只是训练它执行某个特定任务,而是必须将其“培养”为负责任的企业代表以及有贡献的社会成员,即所谓的公民AI。当新技术扑面而来时,除了积极利用之外,企业还要从人类自身出发,考虑技术对整个人类社会带来的深远影响。只有抱着“以人为本”的信念,人类才会从对AI的恐惧中解脱出来,真正步入智能新时代。

在美国,世界第一个人工智能律师ROSS,可以“通读法律”、收集证据、做出推论,并给出基于证据的高度相关性答案。卡内基梅隆大学的研究人员运用人工智能技术,使一架无人机能够通过自我培训,学会识别和追踪某辆汽车。在中国,2017年九寨沟地震发生18分钟后,中国地震台网用机器写出第一篇震后新闻稿,用时25秒。被评为“全球50大最聪明公司”的科大讯飞,应用人工智能技术模仿美国总统特朗普说话,达到连美国人都难辨真假的地步。

如今,人工智能技术已经深刻而广泛地影响到了人类的生活。它已经从一个单纯的技术工具发展成为人类的合作伙伴。在这样的背景下,企业应该如何看待人工智能技术,从而更好地为我所用?


人工智能:从程序化运行到自我学习
“人工智能”是一系列先进技术的集合,能够让机器感知、理解、行动和学习。其概念早在20世纪60年代就已经被提出,为何在最近几年才开始火?这波人工智能的兴起,正是得益于2006年深度学习算法的突破性进展,人机大战中李世石和AlphaGo的对决,让人工智能在一夜之间成为举世瞩目的焦点。

那么,如何通俗易懂地理解深度学习呢?如果用90年代IBM的“深蓝”计算机和谷歌AlphaGo相比的话,就会发现:深蓝团队本身就拥有国际象棋大师,当时沿用的思路就是把人的经验程序化。而AlphaGo团队里并没有顶尖的围棋选手,AlphaGo是通过学习大量的棋谱,在下棋的过程中不断进化,从而找到每一步最优策略的。

而随后,DeepMind公司的AlphaGo Zero更是在AlphaGo的基础上,进行了迭代和升级。其人工智能系统在不了解任何规则的情况下自学围棋下法。几天之内,AlphaGo Zero便已成为顶尖围棋高手,以100比0的绝对优势击败了自己的上一版本——曾战胜全球最优秀人类选手的AlphaGo系统。所以,有人用“知其然,而不知其所以然”来形容人工智能。   

再例如,如果一套机器学习系统希望在图片中找到一只狗,并分辨出品种。为此,大量带有“标记”的图像不可或缺:一组图片教会系统识别狗的位置,其他图片集则用于区分不同犬种。在监督学习模式下,图像通过手动标记,不仅告知系统动物位置,同时也说明其种类。

而并行处理技术和人工智能算法的发展,进一步开启了深度神经网络的潜能。受到大脑神经连接模式的启发,深度神经网络可以学习大量的现有数据——即使它们中混杂着许多无用数据也不受影响。

作为学习过程的一部分,这些算法会自主掌握新的数据联系方式——这意味着,深度神经网络人工智能系统可以不断拓展和提高自身能力。可见,人工智能完全自主学习,不需要人为监督。

人工智能系统获取的数据越多,其预测效果就更加精准。人工智能系统通过学习,能够利用这些数据建立模型,然后根据测试数据,检查各种因素所起的作用。在上面提到的识别宠物及其品种的实例中,测试数据集可以包括一幅在复杂或纷乱背景中存在多只宠物的图像。一旦模型达到了所需精度,就可以在生产环境中使用。

以往,机器学习依靠基于规则的数据分析程序、统计回归计算和早期的“专家系统”来实现,以程序方式构建的人工智能系统仅可完成种类极为有限的任务。但如今,功能强大的深度神经网络实现了爆发式增长,使人工智能得以突破单一程序的局限,拥有了超越预期的行动能力。基于学习的人工智能拥有广泛功能,并有望成长为员工的协作拍档和同事——而且企业无须担心它们会“跳槽”。

培养负责任的合作伙伴
目前,不少企业仍然只是把人工智能当作一种软件工具,而人们是不会指望一种工具可以负责任地“行动”、解释自己的决定,或者与他人合作。埃森哲技术展望调查显示,大多数高管(81%)均认为,不出三年时间,人工智能就将作为一名同事、合作者和值得信赖的顾问,和企业员工并肩协作。

纽约西奈山伊坎医学院(Icahn School of Medicine)的研究人员,如今拥有了一位独特的协作者——人工智能系统“Deep Patient”。该系统通过对70万名患者的电子医疗档案进行分析,成功自学了如何预测78种疾病的风险因素。现在,医生已开始依靠该系统来辅助诊断。尽管Deep Patient不是一个个人,但它也绝不只是一套程序。人工智能系统可以持续学习、自主决策,已经从一个单纯的技术工具发展成为人们的合作伙伴,与人类协调配合。随着其自主性和先进能力的不断提升,人工智能现在普遍拥有了与使用者同等的影响力。

事实上,人工智能已经在扮演着上述角色。在旧金山,人工智能解决方案帮助Stitch Fix公司的时尚设计师为顾客提供服饰搭配建议。在中国,蚂蚁金服公司保险部门的理赔师也在借助人工智能做出赔付决定。人工智能系统甚至在北欧软件制造商叠拓(Tieto)的领导层中占据了一席之地,该公司将这套系统称为“Alicia T”,希望“她”能帮助管理团队利用数据做出明智决策。在一些企业,人工智能已成为企业的公众形象,负责处理对外交流的所有事宜——从通过聊天、语音和电子邮件进行最初客户互动,一直到扮演重要的客户服务角色。

未来,人工智能的影响力还会更大:据IDC(International Data Corporation,国际数据公司)预测,2015至2020年,全球企业在认知技术/人工智能系统的投资将以54%的年复合增长率(CAGR)快速增长。鉴于人工智能参与做出的决策会给人类生活带来更大影响,埃森哲认为,对于企业而言,一项新的使命不容忽视:正如父母会教育子女有效沟通,并对自身行为负责一样,企业现在也需要“培养”人工智能系统的责任意识,教会他们公平和透明等商业及社会规范。对于企业来说,部署人工智能不再只是训练它执行某个特定任务,而是必须将其“培养”为负责任的企业代表以及有贡献的社会成员。

通过“培养”人工智能系统的责任感,企业可以创建具有不同技能的人工智能系统组合。而在完成训练后,这些技能可以根据需求在劳动力市场中推出,并且一旦必要,企业仍可使用它们。经过训练的人工智能系统不仅有助于扩大业务规模,还可以通过反馈回路适应新的需求——就如同通过继续教育,帮助员工适应新的任务。通过对AI进行社会责任方面的培训,企业有望创造出能力超群、善于合作的“新员工”。

积极消除数据偏见
的确,就理论而言,通过成功地训练和培养人工智能,企业将创造出一类能够不断拓展,适应各项工作的卓越员工。但弗吉尼亚大学研究人员的一项研究显示:人工智能会放大预料之中的性别偏见,甚至将站在炉灶旁的男性全部归类为女人。可见,除了海量的训练数据之外,企业还必须拥有准确的数据。

正如孩子们学习交流时,会先使用符号和手势,而非语言;不过最终,他们必须掌握一门语言体系,以扩大对世界的认知。同样,企业的人工智能系统也应从基本原则开始打造,但随后必须逐步依照设定的分类结构建立技能。如果拥有最准确的数据,企业以此培训人工智能如何完成其工作,那么将打造出最强大的人工智能系统。

谷歌近期发布了一套开源数据集,帮助企业提升其人工智能系统的语音识别能力。为了创建一套数据集,使人工智能做好充分准备,来理解某种语言的30个单词,谷歌录制了数千人的发音,共计6.5万条音频剪辑。正是凭借如此庞大的培训数据,谷歌的语音识别准确性达到了95%。

企业必须确保:无论人工智能的沟通对象是客户、员工,还是其他人工智能系统,双方都要拥有相同的认知背景。企业的数据科学家在选择分类法和培训数据时,必须小心谨慎——不仅关注规模,还应该积极消除数据中的偏见。企业还必须为正在收集和分享的各项模型标明出处,由此确保可移植的模型和训练数据之间的联系。如果能对数据录入加以整理,尽量消除各种偏差,同时建立良好的归档、组织和正确标记,企业就能建立起强大的人工智能模型库,反复对其进行利用。

可诠释的人工智能
除此之外,不论是在企业还是在社会中,一个可靠的员工必须对决策过程做出说明。高管人员已普遍意识到了这一点:调查中88%的受访者均表示,当企业利用人工智能进行决策时,确保员工和客户理解其决策原则非常重要。由于设计人工智能系统的初衷在于同人们合作,企业必须构建并培训其人工智能系统,以人们能够理解的方式清楚诠释其行动。

Drive PX是英伟达公司(NVIDIA)嵌入了人工智能的自动驾驶汽车平台,能够自主学习如何驾驶,不过其学习模式直到最近才被公开。为了改进该系统,英伟达的工程师们提前打开了人工智能“黑匣子”,并且开发出一种方法,由一辆搭载Drive PX的汽车直观地展示其驾驶方式。平台播放了这辆车近期行驶过程中拍摄的一段街景视频,并且突出显示系统在导航时最为重视的区域。

另外,美国信用卡发卡机构第一资本(Capital One)正研究如何让人工智能更易于理解,以便利用它来审核信用卡申请——因为根据银行法规要求,金融机构在拒绝申请时必须向客户做出说明。政府决策者们也在考虑出台规则,管理人工智能在决策中的作用。将于2018年中期生效的欧盟《通用数据保护条例》,其原则精神赋予了个人对人工智能和其他算法所做决定的“解释要求权”。

负责任的人工智能
如果一家依托人工智能的抵押贷款机构拒绝向合格的购房者提供贷款,或是一部由人工智能引导的存货管理机器人撞伤了仓库工人,会引发怎样的后果?如果人工智能医生在为病人做出错误诊断时,谁将对此负责?埃森哲认为:企业还必须提高人工智能系统的责任意识。无论其最终扮演何种角色,人工智能所采取的一切行动都代表着企业。使用这些技术的企业必须仔细考虑需要为其行动承担的责任和义务。

例如:奥迪公司(Audi)宣布,置入A8车型的“交通拥堵领航”自动驾驶系统于2019年投入使用后,将为其事故承担责任。德国联邦政府也针对一些不可避免的事故情形,预先制定了规则:汽车必须选择物质损害,而非人身。随着人工智能更广泛而紧密地融入社会,它势必会带来全方位的直接影响与冲击——从财务决策、医疗保健,一直延伸到刑事司法,乃至更广阔的领域。

随着其影响日益扩大,企业在培养人工智能方面的责任亦将不断增加。欧洲议会也已经开始考虑授予机器或机器人有限的“电子人格”,类似于判定责任或损害时所使用的“法人”概念。如果企业一旦忽视这点,就会陷入疲于应对新的法规和公众要求的被动局面——甚至可能出现更为不利的局面:整个人工智能行业都将受到更严格的监管控制,以扭转企业疏于承担责任的状况。

目前,领军企业将积极迎接培养负责任AI的挑战,充分重视其在社会中的新角色与影响力。为了达成该目标,他们会创建起一套标准,据此打造负责任、可解释的人工智能系统。不仅如此,这些企业还将努力赢得客户与员工的信任,因为后者已不愿再使用那些直接影响其生活但无法清楚了解其背后运作原理的技术。

埃森哲2018技术展望调查发现,72%的高管表示,其所在企业正设法提高人工智能决策与行动的透明度,以此获取客户的信任和信心。事实上,培养人工智能所面临的诸多挑战与人类教育类似:建立是非观念,理解负责任的行为;无偏见地传授知识;以及在自力更生的同时,强调与他人合作、沟通的重要性。为了培养出负责任的AI,企业可以借鉴人类能力培养的各个阶段:首先掌握学习方法,然后理顺或诠释自身想法及行为,最终为其决定承担责任。所以,培养机器的责任感,将是人工智能融入社会的关键一步,我们将其称之为“公民AI”。


Accenture-AI-2PDF第000页--- useit.jpg

Accenture-AI-2PDF第001页--- useit.jpg

Accenture-AI-2PDF第002页--- useit.jpg

Accenture-AI-2PDF第003页--- useit.jpg

Accenture-AI-2PDF第004页--- useit.jpg

Accenture-AI-2PDF第005页--- useit.jpg

Accenture-AI-2PDF第006页--- useit.jpg

Accenture-AI-2PDF第007页--- useit.jpg

Accenture-AI-2PDF第008页--- useit.jpg

Accenture-AI-2PDF第009页--- useit.jpg

  • 2018年8月,值得收藏的25份报告
  • 2018年7月,值得收藏的25份报告
邮件订阅
最新热门
 
相关知识
 
智能推荐
 

Copyright© 2005-2018 USEIT.COM.CN|帮助中心|关于我们|注册协议|投诉指引|获取积分|投稿须知|作者权益|下载须知|联系我们|手机版|USEIT Inc.

GMT+8, 2018-9-26 04:04 , Processed in 0.216602 second(s), 23 queries , Gzip On, MemCache On.

鄂公网安备 42011202000160号  鄂ICP备13013806号-1

网络经济主体信息湖北省互联网举报平台 中国互联网违法和不良信息举报中心

快速回复 返回顶部 返回列表