对人工智能的道德使用正成为赢得人们信任的基础

2020-05-19 09:05:17 来源: INeng财经

凯捷 研究机构(Capgemini Research Institute)的一项新研究 发现,对人工智能(AI)的道德使用正成为赢得人们信任的基础 。随着组织逐渐利用AI的好处,消费者,员工和公民正在密切关注并准备奖励或惩罚行为。

接受调查的人士表示,对于那些将AI互动视为道德的组织,他们将更忠于自己,向他们购买更多东西或倡导这些组织。

以道德方式使用AI的公司将获得回报: 在接受调查的消费者中,有62%的人表示将对自己认为具有道德的AI互动的公司寄予更高的信任,有61%的人表示将与朋友和家人分享积极的经历,59%的人表示他们对公司的忠诚度更高; 55%的人表示,他们将购买更多产品,并在社交媒体上提供较高的评价和正面反馈。相比之下,当消费者的AI互动导致道德问题时,会威胁到声誉和底线:41%的人表示,如果AI互动导致道德问题,他们会抱怨; 36%的人要求解释; 34%的人停止互动与公司。

已经观察到并经历了AI系统导致的道德问题: 十分之九的组织的高管认为,在过去2-3年中,使用AI系统导致了道德问题,例如未经同意就收集个人患者数据在医疗保健方面,过度依赖机器主导的决策,而没有在银行和保险中披露。高管们列举了一些原因,其中包括迫切需要实施AI的压力,在构建AI系统时未能考虑道德规范以及缺乏专用于道德AI系统的资源。

消费者,雇员和公民担心与AI有关的道德问题,并希望采取某种形式的监管: 几乎一半的受访者(47%)认为,他们在过去2年中经历了至少两种类型的AI使用,导致了道德问题-3年。大部分(75%)的人表示,当服务由AI驱动时,他们希望更高的透明度,并知道AI是否公平对待它们(73%)。超过四分之三(76%)的消费者认为应该对公司如何使用AI进行进一步的监管。

组织开始意识到道德AI的重要性: 51%的高管认为确保AI系统道德和透明非常重要。当出现道德问题时,组织也将采取具体行动。该研究发现,当提出道德问题时,有41%的高级管理人员报告完全放弃了AI系统。

“许多组织发现自己在使用AI方面处于十字路口。消费者,员工和公民越来越愿意与该技术进行交互,但要注意潜在的道德影响。这项研究表明,为了赢得人们的信任,组织必须创建使用AI的道德体系和实践。这不仅是合规性问题,而且可以在忠诚度,认可和敬业度方面创造重大利益。”凯捷人工智能和分析集团产品负责人Anne-Laure Thieullent说。

“为实现这一目标,组织需要集中精力建立正确的治理结构,他们不仅必须根据自己的价值观定义行为准则,而且还应将其实施为'设计伦理'方法,并且,最重要的是,重点在于告知人们和他们如何与AI解决方案进行交互。”

组织必须优先考虑道德AI战略: 为了解决消费者的关注并释放道德AI使用的信任红利,组织必须采取针对性的方法来使系统适合目标。凯捷(Capgemini)建议采用三管齐下的方法来构建涵盖所有关键利益相关者的AI道德策略:

对于CxO,业务负责人以及那些对信任和道德有责任的人: 建立具有道德AI的策略和行为准则的坚实基础;制定政策,为员工和AI应用程序定义可接受的做法; 建立道德治理结构并确保对AI系统负责 并建立多元化的团队,以确保对所有道德问题的敏感性

对于人力资源,市场营销,沟通和客户服务等面向客户和员工的团队: 确保以道德的方式使用AI应用程序;教育并告知用户建立对AI系统的信任; 赋予用户更多控制权和寻求追索权的能力;并在内部和外部就AI问题进行主动沟通以建立信任

对于AI,数据和IT领导者及其团队: 寻求使AI系统尽可能透明和易于理解,以赢得用户的信任;实行良好的数据管理并减轻数据的潜在偏差;持续监控精度和准确性;并使用技术工具来建立AI伦理。

牛津互联网学院数字道德实验室主任Luciano Floridi 说:“获得信任的经典方法,尤其是与AI交互,可以概括为三个词:透明性,问责制和授权。这意味着透明,以便人们可以看到您在做什么;问责制,因为您对所做的事情负责;和赋权,因为您让人们负责告诉您您做的事情是不对还是不好。”

该报告的副本可在此处下载 。

该研究对来自10个国家(中国,法国,德国,印度,意大利,荷兰,西班牙,瑞典,英国和欧洲)的大型组织的1,580名高管(年收入超过10亿美元(8.9亿欧元))进行了调查。我们)。高管是从三类人中选拔出来的:一般管理/战略/企业;IT / AI /数据科学/分析;人力资源和市场营销。

此外,还对来自六个国家(美国,中国,英国,法国,德国,荷兰)的4,400名消费者进行了一项消费者调查,这些国家过去都曾进行过某种形式的AI互动,因此它们可以与道德,信任和AI中与透明度相关的问题。凯捷研究所还对20多位学者,行业专家和企业家进行了深入采访。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。