人工智能辅助决策中的信任:来自实践者和决策主体的观点
论文总结
研究机构
- Sorbonne Université, CNRS, ISIR, France
- University of Siegen, Germany
- Oleksandra Vereschak, Fatemeh Alizadeh, Gilles Bailly, Baptiste Caramiaux
摘要
本研究聚焦于人工智能(AI)辅助决策领域的信任问题。通过与7名AI从业者和7个决策对象进行深度访谈,我们探讨了他们对于人机信任的定义、关键要素以及影响因素的理解。研究发现:1) 采访者识别出信任存在的先决条件,并区分信任与可信赖性;2) AI集成系统中的信任受到人际关系的影响大;3) 对于AI信任的三个因素(透明度、互动性和AI性能),不同的利益相关者的看法有所差异。
问题发现
我们发现了以下几点:
- 定义的复杂性:对于什么是信任,以及它在AI辅助决策中的体现,存在复杂的理解。
- 人际关系的影响:人际关系对人对AI的信任有着显著影响,这可能源于系统中的人际互动和责任归属。
- 因素的重要性差异:不同的利益相关者(如AI从业者和决策对象)对透明度、互动性和AI性能等信任因素的看法不一。
解决方案
为了更好地理解和设计促进信任的AI辅助决策系统,我们提出以下建议:
- 考虑人际关系:在设计时应考虑到人与人之间的关系如何影响他们对AI的信任。
- 个性化信任要素:针对不同的利益相关者,可能需要调整透明度、互动性和其他信任因素的设计以满足他们的需求。
- 跨角色视角:理解不同群体(如用户、决策对象和AI团队)对于信任的定义和要素的看法,有助于全面评估人机系统的信任水平。
结果
研究结果总结如下:
- 识别了影响AI辅助决策信任的关键元素,并揭示了这些元素在不同利益相关者中的重要性和表现形式。
- 发现人际关系对信任度有重大影响,提示系统设计时应考虑人际因素。
- 揭示了透明度、互动性和AI性能等信任因素在不同群体中的相对权重和理解方式。
结论
本研究为了解AI辅助决策中的人机信任提供了新的视角,并为未来的设计和研究提供了方向。通过考虑人际关系、个性化信任要素以及跨角色视角,我们可以设计出更符合实际需求的信任增强的AI系统。
举一反三
Q1:在AI辅助决策中,信任是如何影响决策主体的?
A1:根据研究,决策者对AI的信任会影响他们是否接受或质疑AI的建议。如果他们信任AI,就可能更倾向于依赖其推荐;反之,不充分的信任可能导致他们对AI的决定持保留态度。
Q2:在定义和评估AI信任时,人际互动起什么作用?
A2:人际互动在AI信任中扮演了重要角色,它不仅影响决策者对系统的信任,也包括他们对设计、部署AI的团队以及与他们共享经验的其他用户的信任。这种互动可以通过合作、对话或用户间的口碑来建立和维护信任。
Q3:除了技术透明度,还有哪些因素可能影响决策者对AI的信任?
A3: 除技术透明度外,研究发现还包括了AI的性能和错误、可解释性、AI团队的信任以及AI literacy(即人们对AI的理解)。例如,用户需要理解AI如何工作,并对其推荐的质量有信心,这些都构成了他们信任AI的基础。
原文地址:https://dl.acm.org/doi/fullHtml/10.1145/3613904.3642018
内容由MiX Copilot基于大语言模型生成,有可能存在错误的风险。