当前位置:首页 > 新闻中心 > 新闻详情

是敌是友?对人工智能的看法如何影响我们与人工智能的交互

2024 / 01 / 19

如果你想好好体验人工智能,就要反复告诉自己,它是你的朋友。

亚利桑那州立大学(ASU)副教授埃德·芬恩(Ed Finn)与他人合作撰写了一项新研究,研究发现:人们与人工智能互动的提示性陈述会影响他们的实际体验——影响有好或坏。

近期,《自然机器智能》发表了芬恩的研究:“通过引导人们对人工智能的信念来影响人与人工智能的交互,可以提高感知到的可信度、同理心和有效性”。

芬恩和帕特·帕塔拉努塔蓬(Pat Pataranutaporn)、露比·刘(Ruby Liu)和帕蒂·梅斯(Pattie Maes)等研究人员研究了改变一个人对人工智能系统的心智模型是如何影响他们与该系统交互的,以及如何向他们介绍新技术的重要性。

《ASU News》采访了ASU科学与想象力中心创始主任芬恩和麻省理工学院研究员、亚利桑那州立大学校友帕塔拉努塔蓬,请他们介绍了这一新的用户友好型人工智能方法。

图源ASU官网

Q:为什么人工智能与其用户之间的信任如此重要?

芬恩:在这项研究中,我发现非常引人注目的一点是,不信任会在对话中滋生出更深的不信任。当我们一开始就对这些系统产生误解时,就很难重新获得信任。但是,如果我们对与人工智能的所有互动都抱有怀疑的态度,我们就会建立对立的关系——与这些系统对抗和竞争,而不是想办法与它们合作。

每当人类试图与机器展开直接竞争时,比如下棋或驾驶喷气式飞机,我们最终都会输掉比赛,因为我们是用“零和博弈”的思维方式与这些机器对抗。我们需要找到与人工智能合作的方式,以便利用这些令人难以置信的工具创造更美好的未来,或许成为更好的人类。

Q:这对我们了解人们是如何想象人工智能的有何启示?

芬恩:人类总是在世界上寻找故事。我们看着像人工智能这样的外来系统,试图找到有意义的模式,因为人工智能显示出一些智能和代理的迹象,我们就把它们拟人化。

我们在与Siri或ChatGPT等工具互动时,都会先了解这些系统是什么以及它们如何工作。这项研究表明,我们带入这些互动中的故事会直接影响互动的进展,因为在人类对人工智能做出反应和人工智能对人类做出反应之间存在着一种反馈回路。想想我们现在讲述的关于人工智能的故事,比如机器人杀手的故事或超级智能的故事,它们并不能很好地描述这些系统的实际工作。

我们需要更好的隐喻、更好的故事,来帮助我们应对人工智能这一异类智能,因为它真实地存在于这个世界上——它既不是人类,也不是真正的超人;只是与众不同。

图源ASU官网

Q:请告诉我们你是如何得出你的研究前提的——怎么用一句简单的话就能有效地影响用户,让他们相信人工智能更有同理心、更值得信赖、性能更好?

帕塔拉努塔蓬:我们研究的前提受到了医学中“安慰剂效应”概念的启发。就像一粒简单的糖丸可以通过信念的力量显著改善病人的治疗效果一样,我们想知道在人类与人工智能的互动中是否会出现类似的现象。

此外,我们的研究还受到了科幻小说的影响,这些科幻小说探讨了人工智能伴侣的概念,以及这些技术发展出类似人类特征和情感的潜力。

我们想研究的是,用某些关于人工智能内在动机的陈述来引导用户,是否会影响他们对人工智能的看法以及与人工智能的互动,并最终影响他们对人工智能的信任和整体体验。

Q:您在论文中指出,人们高估了人工智能的能力,这对人工智能和人类行为都有影响。您的意思究竟是指什么?

帕塔拉努塔蓬:我们发现,一个简单的引导语句能有效影响用户与人工智能对话时,其内在动机的心智模型,积极和中性的引导语句能强烈引导用户的信念。

想象人工智能具有关爱动机的用户会强烈倾向于认为人工智能值得信赖、富有同情心且表现更好。我们还发现,在具有更多类似人类行为且更复杂的人工智能模型中,启动和初始心智模型的效果更强。最后,我们展示了用户的心智模型与人工智能的互动以及人工智能的反应之间的反馈回路,二者相辅相成。

Q:你还认为,大多数人都认为人工智能没有感情或同理心。你如何向他们证明这一点?

帕塔拉努塔蓬:是的,许多人认为人工智能没有感情或同理心,因为他们知道,人工智能系统归根结底是机器,被训练来执行各种任务。他们认识到这些系统缺乏情感或主观体验的能力。然而,我们的研究表明,人们仍然可以形成人工智能具有同理心或爱心的心智模型。这凸显了想象力的力量及其对用户感知和与人工智能互动的影响。

Q:所以你认为如果早期使用者对人工智能有积极的体验,他们就更有可能继续使用人工智能,反之亦然?

帕塔拉努塔蓬:我喜欢把人工智能视为用户的“镜子”,这突出了用户体验与他们对人工智能的心智模式之间的相互关系。积极的体验可以塑造积极的心智模式,反过来又会影响用户对人工智能的采用和持续使用。

获取资料

关闭