需要有道德的人工智能来避免与客户之间的信任差距

2023年10月04日,22时50分47秒 科技新知 阅读 18 views 次

需要道德人工智能来避免与客户之间的信任差距 GenAI 提供了改变游戏规则的好处,但该技术并非没有风险。组织必须考虑人工智能的道德规范,以避免“信任差距”

随着人工智能在全球范围内的应用不断加速,如何确保人工智能的道德使用的问题从未如此突出。

随着生成式人工智能的使用不断增加(Salesforce 的研究表明,目前有五分之三的员工 (61%) 使用该技术),如何负责任地使用该技术的知识差距仍然存在。接受 CRM 领导者调查的一半员工表示,他们担心生成式人工智能输出不准确,而 59% 的人担心输出存在偏差。

生成式人工智能显然提供了改变游戏规则的好处,但该技术也并非没有风险。正如麦肯锡公司的人工智能咨询部门 QuantumBlack 所解释的那样,技术领导者必须设计他们的团队和流程,从一开始就减轻这些风险:不仅要满足快速变化的监管要求,还要保护他们的业务并赢得消费者的数字信任。

Salesforce 的研究反映了这一点,该研究发现,如果不采取行动,企业很快就会发现与客户之间的“人工智能信任差距”。随着品牌越来越多地采用人工智能来提高效率并满足不断增长的客户期望,近四分之三的受访者表示他们担心该技术的不道德使用。

有趣的是,该公司的研究发现,去年消费者对使用人工智能的开放程度大大降低,这凸显了人们对人工智能使用道德的担忧。虽然 73% 的企业买家和 51% 的消费者愿意使用人工智能来改善他们的体验,但自去年的调查以来,这些数字已大幅下降。因此,公司有机会通过实施道德准则并提供更好的技术应用可见性来缩小这一差距。

除了对生成式人工智能的见解之外,Salesforce 的第六份互联客户状况报告还揭示了对购买决策以及客户从营销、商务、销售和服务交互中寻求什么的不断变化的影响。

Salesforce 的调查结果显示,客户对公司的整体信任与他们对这些公司将负责任地利用新的人工智能创新的信念之间存在明显区别。例如,虽然 76% 的客户相信公司会对其产品和服务做出诚实的声明,但只有 57% 的客户相信他们会合乎道德地使用人工智能。

“道德人工智能是我们的客户和客户的客户迫切关心的问题,”Salesforce 负责任的人工智能与技术首席架构师 Kathy Baxter 说。 “做好这件事意味着在创建人工智能时,信任是你所做的一切的中心。这意味着以透明和同意的方式收集数据,在不同的数据集上训练算法,并且永远不要不安全地存储客户信息。”

技术领导者仍然对人工智能的道德考虑保持警惕

如今,技术领导者正在充分拥抱人工智能创造的机遇。然而,安永最新的首席执行官展望脉搏调查发现,高管们仍然对其后果保持警惕,尤其是道德问题。

近三分之二 (65%) 的首席执行官告诉安永,人工智能是一股向善的力量,但几乎同等比例的首席执行官表示,需要做更多工作来解决社会、道德和安全风险,这些风险包括网络攻击、虚假信息和深度造假。

调查还发现,66% 的首席执行官认为人工智能在劳动力中取代人类的影响将被该技术创造的新角色和职业机会所抵消。

安永战略与交易全球副主席 Andrea Guerzoni 评论道:“首席执行官对人工智能意外后果的担忧反映了媒体、社会和当代文化中更广泛的观点融合,有时甚至是反乌托邦。”解决这些恐惧——这是一个研究人工智能的道德影响以及人工智能的使用如何影响我们生活的关键领域(例如隐私)的机会。”

确保人工智能产品安全发展

正如 Veridas 首席执行官 Eduardo Azanza 所解释的那样,随着人工智能技术的迅速采用,确保企业负责任且合乎道德地使用该技术至关重要。

强调这一点的是,今年早些时候,世界道德数据基金会发布了一个安全开发人工智能产品的框架,希望能够解决其中一些挑战。

“从长远来看,新形式的人工智能要想取得成功,就需要得到客户和广大公众的信任,”阿赞扎评论道。 “希望实施人工智能的组织应该强烈考虑遵循世界道德数据基金会发布的框架,或者 NIST 和 NCSC 发布的框架。

“人工智能技术应始终建立在透明度和合规性的基础上,不仅符合法律和技术标准,而且还具有最高的道德价值观。随着人工智能继续呈指数级增长,组织严格审核和记录其系统的风险分析变得极其重要。

“确保技术符合严格的隐私标准和框架,不仅可以保证业务本身的安全,还可以赢得客户的信任,因为他们知道人工智能的使用是合乎道德和负责任的。”

技术缺乏多样性

如果没有人为干预,人工智能可能会加剧一些破坏性的社会偏见。 “人们是有偏见的——大多是无意识的——因此,如果没有仔细的方法论,这种偏见可能会嵌入到数据和任何其他开发人员构建人工智能系统的决策中,”IBM 研究员和人工智能人员 Francesca Rossi全球道德领袖今年早些时候告诉我们。

就这一主题,在今年 Tech LIVE Virtual London 的炉边聊天中,QuantumBlack 合伙人 Nayur Khan 讨论了有关人工智能道德的一系列话题:从人工智能面临的最大道德挑战以及如何应对这些挑战到多样性的需求当谈到构建人工智能时。

“总体而言,科技领域缺乏多样性,”他说。 “欧洲 22% 的科技职位是女性。在美国,不到 5% 的软件开发人员是黑人。那里有问题。

“是的,我们可以做高等数学,是的,我们可以创建这些新的检查和护栏。然而,缺乏多样性。因此,如果你正在构建人工智能,我要问的第一个问题是,你正在构建的东西会影响人们的生活吗?

“你是否有一个团队来代表你正在构建的人工智能,并将供个人使用?

“一般来说,我们经常谈论这个问题。那里有很多不同的人才,从经济角度来看这有好处,但从人工智能的角度来看,更重要的是你将这些不同的观点带入讨论中。”

本文来自互联网,不代表前途科技立场,如若转载,请注明出处:https://accesspath.com/tech/5876541/

(来源:前途科技)



用户登录