[No.L001]
未來(lái)人工智能(AI)在極端情況下會(huì)擁有和人一樣的道德判斷嗎?如果未來(lái)無(wú)人駕駛汽車(chē)要大量投入使用,必須為它確定社會(huì)普遍接受的道德標(biāo)準(zhǔn)才行。
英國(guó)《自然》雜志日前就發(fā)表了一項(xiàng)有關(guān)方面的人工智能研究:美國(guó)麻省理工學(xué)院(MIT)以“在無(wú)法避免的事故中,無(wú)人駕駛汽車(chē)應(yīng)如何作出決定拯救哪一方”為調(diào)查內(nèi)容做了項(xiàng)全球道德偏好調(diào)查。
該研究團(tuán)隊(duì)搭建了一個(gè)名為“道德機(jī)器”的大型在線調(diào)查平臺(tái),參與者可置身于一個(gè)不可避免的事故場(chǎng)景,事故中行人與乘客身處不同的危險(xiǎn)中,參與者可選擇駕駛路線決定究竟救誰(shuí),該平臺(tái)總共記錄了約4000萬(wàn)個(gè)參與者決定,該結(jié)果將用于為制定社會(huì)普遍接受的人工智能(AI)道德標(biāo)準(zhǔn)提供重要借鑒。
其中,研究人員將道德偏好給予分類(lèi),譬如救多數(shù)不救少數(shù)、救小孩不救老人、救人不救動(dòng)物等,同時(shí)還發(fā)現(xiàn)了不同文化間的道德偏好差異:來(lái)自中美洲和南美洲國(guó)家、法國(guó)以及前法屬海外領(lǐng)地和現(xiàn)法屬領(lǐng)地的參與者,更偏向于先救女性和強(qiáng)壯個(gè)體;而來(lái)自收入差距較大國(guó)家的參與者在決定救誰(shuí)時(shí),一般會(huì)考慮其社會(huì)地位。
榜單收錄、高管收錄、融資收錄、活動(dòng)收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報(bào)生成中...