近日,德國奧斯納布呂克大學(xué)認(rèn)知科學(xué)學(xué)院的一項最新研究表明,人類在駕駛過程中做出的道德抉擇并沒有此前認(rèn)為的那么復(fù)雜,或者說與環(huán)境的關(guān)聯(lián)度不大。這項研究成果顯示,人類駕駛員做出的道德選擇,是在相對簡單的以生命為基準(zhǔn)的價值觀指導(dǎo)下做出的。這意味著通過編程的方式令自動駕駛汽車做出合乎人類社會道德取向的選擇,應(yīng)該并不是件難事。
這項研究共有105名志愿者參與,所有人被放置于一處虛擬現(xiàn)實的場景中:霧天中你駕駛車輛在郊區(qū)中轉(zhuǎn)悠,之后會出現(xiàn)一些需要作出兩難選擇的情節(jié),你不得不在「是駕車撞向行人、動物還是無生命物體」之間進(jìn)行抉擇。
按照之前的假設(shè),人類駕駛員在面對這三種情況時做出的選擇,很大程度上取決于當(dāng)時的環(huán)境,因此超越了計算機(jī)建模的能力?!安贿^我們發(fā)現(xiàn)事實恰恰相反,這種兩難場景下的人類行為可以借助「相對簡單的以生命為基準(zhǔn)的價值觀模型」進(jìn)行建模,每一位實驗參與者在遇到行人、動物或無生命物體做出的判斷,基本上都遵循類似的規(guī)則。”這項研究的第一作者Leon
Sütfeld在接受《科學(xué)日報》采訪時如是解釋道。
此前,網(wǎng)絡(luò)上曾有不少言論擔(dān)憂自動駕駛汽車能否給人類社會帶來好處。特斯拉CEO埃隆·馬斯克是自動駕駛技術(shù)堅實的擁護(hù)者,他甚至“毫不客氣地”回應(yīng)那些不支持的人,稱其“行為無異于謀殺”。馬斯克認(rèn)為自動駕駛汽車能夠變得更智能,更中立,甚至要比人類更能開好車,避免更多嚴(yán)重交通事故的發(fā)生。
不過目前自動駕駛技術(shù)仍處于發(fā)展初期,至于能挽救多少生命取決于工程師如何進(jìn)行編程,這也是奧斯納布呂克大學(xué)這項研究要探尋的問題。不過如果我們期望自動駕駛汽車的表現(xiàn)要比人類更好,那又為什么要通過編程使其更像人類呢?
作為這項研究的主要作者,Gordon
Pipa教授解釋稱,“我們其實需要搞明白的是,自動駕駛系統(tǒng)是否應(yīng)該做出基于人類道德標(biāo)準(zhǔn)的判斷。如果需要的話,那么它們應(yīng)該通過模仿人類的選擇繼而做出有道德的行為嗎?或者說它們應(yīng)該遵循一定的道德規(guī)則,那這樣的規(guī)則又是什么?而且更關(guān)鍵的問題在于,一旦發(fā)生了不好的事情,又到底是誰應(yīng)該承擔(dān)責(zé)任呢?”
總的來說,人工智能的道德標(biāo)準(zhǔn)依然是道德范疇內(nèi)十分模糊的領(lǐng)域。業(yè)界也在大量的嘗試將一系列相關(guān)法律通過編程的方式來控制人工智能的行為。目前德國國土交通省已經(jīng)制定了20條自動駕駛汽車應(yīng)該遵守的相關(guān)規(guī)則。
那么未來自動駕駛汽車能夠變得多安全取決于工程師如何進(jìn)行編程,盡管這項任務(wù)并不簡單,但先搞清楚人類駕駛員在不同的場景中是如何作出反應(yīng)的,這是最關(guān)鍵的。
|