詳解英特爾的自動駕駛“阿西莫夫三定律”
不知從何時,人們把拷問了無數(shù)人良心的“電車難題”交給了無人駕駛汽車。于是乎在各種行業(yè)論壇和發(fā)布會上,我們都能看到不少人面對企業(yè)和專家提出了特殊情景下“該撞誰”的問題。
從表面上看,這似乎是廣大人民群眾在“杞人憂天”,但其背后深層次原因卻不容忽視:一方面,普遍認(rèn)同自動駕駛技術(shù)的價值和其終將替代人類司機(jī)的發(fā)展趨勢。但另一方面,由于信息不對稱問題的廣泛存在,大家對新技術(shù)基本不了解,更談不上信任。
而作為社會交通的廣泛參與者,自動駕駛汽車一定,也是必須要獲得人們的信任。因此,這項新技術(shù)在決策和執(zhí)行環(huán)節(jié)的相對透明化,也必須提上日程。實際上,很多企業(yè)正在這方面進(jìn)行努力和探索。
日前,億歐汽車對英特爾無人駕駛解決方案資深首席工程師、首席系統(tǒng)架構(gòu)師,Jack Weast進(jìn)行了采訪交流。在長達(dá)一個小時的對話中,他為包括億歐汽車在內(nèi)的多家媒體闡述的英特爾旗下的自動駕駛技術(shù)公司Mobileye,在日前推出的責(zé)任敏感安全模型——RSS(Responsibility Sensitive Safety),以及該模型的運行模式。在交流中,Jack Weast將RSS定義為給自動駕駛汽車的“阿西莫夫三定律”。在可預(yù)見的未來,類似這樣的安全模型將在自動駕駛汽車的研發(fā)與推廣中扮演重要作用。
“電車難題”本身不應(yīng)該提給自動駕駛汽車
在詳細(xì)闡述RSS之前,讓我們先說回到“電車難題”。這一倫理學(xué)問題是由哲學(xué)家菲利帕·福特(Philippa Foot)于1967年發(fā)表的《墮胎問題和教條雙重影響》論文中提出來的,起初用于功利主義。后者提出的觀點是,大部分道德決策都是根據(jù)“為最多的人提供最大的利益”的原則做出的,即“人的生命價值,無法簡單用數(shù)量來衡量”。也就是說,這個問題從始至終,就建立在假設(shè)的基礎(chǔ)上。實際上,除非鐵軌上的人下定決心要自殺,否則不會有人看到電車駛來而不躲避。