最近,一篇論文報(bào)道了一項(xiàng)全球道德偏好調(diào)查,涉及無人駕駛汽車在不可避免的事故中應(yīng)該拯救哪一方。研究成果結(jié)合了全球參與者貢獻(xiàn)的4000萬個(gè)決策,或?yàn)橹贫軌虮簧鐣?huì)普遍接受的人工智能(AI)倫理標(biāo)準(zhǔn)提供參考信息。
無人駕駛汽車不僅應(yīng)該能夠?qū)Ш铰肪€,還應(yīng)該在不可避免的事故中獨(dú)自應(yīng)對(duì)道德困境。因此,有必要制定一套倫理準(zhǔn)則來指導(dǎo)AI系統(tǒng)處理此類場景。如果無人駕駛汽車一定會(huì)被廣泛使用,我們首先要確定社會(huì)普遍接受的道德標(biāo)準(zhǔn)。
麻省理工學(xué)院的伊亞德拉赫萬和他的同事們建立了一個(gè)名為“道德機(jī)器”的大規(guī)模在線調(diào)查平臺(tái),統(tǒng)計(jì)世界各地人們的道德偏好。參與者被置于一個(gè)不可避免的事故現(xiàn)場,當(dāng)時(shí)一輛無人駕駛汽車正在雙向街道上行駛。每一個(gè)場景都會(huì)把行人和乘客置于不同的危險(xiǎn)之中,汽車可以選擇不變道或者轉(zhuǎn)向另一條車道。參與者必須選擇誰來保存并決定汽車的路線。這個(gè)實(shí)驗(yàn)記錄了大約4000萬個(gè)這樣的決定。
研究人員已經(jīng)確定了許多共同的道德偏好,例如拯救大多數(shù)而不拯救少數(shù),拯救年輕人而不拯救老年人,以及拯救動(dòng)物。作者還發(fā)現(xiàn)了不同文化之間道德偏好的差異。例如,來自中美洲和南美洲國家、法國、前法國海外領(lǐng)土和目前法國領(lǐng)土的參與者表現(xiàn)出強(qiáng)烈的偏好,首先拯救婦女和強(qiáng)者。然而,來自收入差距較大國家的參與者在決定儲(chǔ)蓄對(duì)象時(shí),往往會(huì)考慮自己的社會(huì)地位。相關(guān)論文于《自然》在線發(fā)表。
最后,研究人員指出,在讓汽車做出道德選擇之前,需要進(jìn)行全球?qū)υ?,將人們的偏好告知?shí)施監(jiān)督的道德算法設(shè)計(jì)公司和政策制定者。
標(biāo)簽:
免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!