導讀 阿爾托大學的最新研究表明,有時人工智能似乎在提供幫助,但這種好處實際上是一種安慰劑效應——人們表現(xiàn)得更好僅僅是因為他們期望這樣做。...
阿爾托大學的最新研究表明,有時人工智能似乎在提供幫助,但這種好處實際上是一種安慰劑效應——人們表現(xiàn)得更好僅僅是因為他們期望這樣做。該研究還表明,動搖人們對人工智能系統(tǒng)能力的信任是多么困難。
在這項研究中,參與者的任務是進行簡單的字母識別練習。他們自己完成了一次任務,據(jù)說還得到了人工智能系統(tǒng)的幫助。一半的參與者被告知該系統(tǒng)是可靠的,并且會提高他們的表現(xiàn),而另一半則被告知該系統(tǒng)不可靠,并且會惡化他們的表現(xiàn)。
研究結果發(fā)表在CHI 計算系統(tǒng)人因會議論文集上。
“事實上,這兩個人工智能系統(tǒng)都不存在。參與者被引導相信人工智能系統(tǒng)正在幫助他們,而實際上,假人工智能所做的事情完全是隨機的,”博士研究員艾格尼絲·克洛夫特解釋道。
參與者必須以不同的速度將屏幕上彈出的字母配對。令人驚訝的是,當兩組人相信人工智能參與時,他們的練習效率更高、更快、更專注。
助理教授 Robin Welsch 表示:“我們發(fā)現(xiàn),人們對這些系統(tǒng)抱有極高的期望,我們不能僅僅通過告訴他們某個程序不起作用,就讓他們成為人工智能的終結者。”
在最初的實驗之后,研究人員進行了一項在線復制研究,產(chǎn)生了類似的結果。他們還引入了一個定性部分,邀請參與者描述他們對人工智能的期望。大多數(shù)人對人工智能抱有積極的看法,令人驚訝的是,即使是持懷疑態(tài)度的人仍然對其表現(xiàn)抱有積極的期望。
標簽:
免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!