自動駕駛要懂多少常識才能上路?需要常識推理的場景該是怎樣的?

時(shí)間:2018-04-13

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:想要準(zhǔn)確定義我們所說的常識可能有點(diǎn)難。常識可以基于某種文化,比如生活在某一地區(qū)的人都知道這種花有毒,而你作為游客卻不知道;常識也會隨著時(shí)間而變化,一百年前人們會說某事是常識,但是現(xiàn)代人可能根本就不知道。

想要準(zhǔn)確定義我們所說的常識可能有點(diǎn)難。常識可以基于某種文化,比如生活在某一地區(qū)的人都知道這種花有毒,而你作為游客卻不知道;常識也會隨著時(shí)間而變化,一百年前人們會說某事是常識,但是現(xiàn)代人可能根本就不知道。

常識可以通過學(xué)習(xí)獲得嗎?有些人說,人們并沒有專門去學(xué)習(xí)常識,我們會在不經(jīng)意間獲得常識。這表明我們不需要了解世界上所有事,也同樣可以歸納出一些規(guī)律。

人工智能是不是缺乏常識的書呆子?

我們的社會似乎接受這樣一個(gè)觀點(diǎn),即高智商的人缺乏生活常識(你可能會認(rèn)為《生活大爆炸》中的謝爾頓便是一個(gè)典型的例子)。但即使是那些高智商的人也仍然會知道一些常識,畢竟他們在現(xiàn)實(shí)世界中也過得很好。

出于開發(fā)人工智能的需要,我們需要弄明白“智能”的含義,因?yàn)槲覀冋趪L試開發(fā)一種可以學(xué)習(xí)常識的自動化系統(tǒng)。

如果說常識是智力的一部分,那么在創(chuàng)建人工智能系統(tǒng)的時(shí)候,我們也會希望它懂得一些常識。如果這個(gè)系統(tǒng)不懂任何常識,那么我們開發(fā)的產(chǎn)品就達(dá)不到預(yù)期的智能水平,而這個(gè)系統(tǒng)也稱不上是真正的“智能”系統(tǒng)。

然而目前來看,大多數(shù)人工智能系統(tǒng)都缺乏常識。

自動駕駛需要常識推理嗎?

在自動駕駛理論控制研究所,我們正在開發(fā)自動駕駛汽車的人工智能系統(tǒng),并探索將常識推理嵌入到系統(tǒng)里。

現(xiàn)有自動駕駛汽車的智能系統(tǒng)并沒有什么常識推理能力。相反,它們是專門用于駕駛的系統(tǒng),并且還聲稱駕駛不需要常識。關(guān)于這一點(diǎn)人們一直爭論不斷。

因此,我們有以下選擇:

對于人工智能自動駕駛汽車來說,根本不需要常識。

對于人工智能自動駕駛汽車來說,常識是一種可有可無的東西,但這并不是必需品。

常識是人工智能自動駕駛汽車的必需品。

如果你認(rèn)為人工智能自動駕駛汽車根本不需要常識,你和許多人工智能開發(fā)者的看法是一樣的。

如果你認(rèn)為常識是人工智能自動駕駛汽車的必備之物,那么你可能會擔(dān)心,人們現(xiàn)在幾乎沒有做出什么努力將常識內(nèi)置到自動駕駛汽車的智能系統(tǒng)中。

自動駕駛要懂多少常識才能上路?

有人說,90%的駕駛?cè)蝿?wù)不需要常識,需要使用常識的情況只有微不足道的10%。然而,如果你上路行駛的自動駕駛汽車錯(cuò)過了那10%的常識,我認(rèn)為你會對最終結(jié)果感到失望。

這意味著搭載智能系統(tǒng)的自動駕駛汽車可能無法完成所有任務(wù)。我意識到有些人可能會說專業(yè)知識占比99%,常識也許占比1%,但即使這樣,這仍然是值得你注意的事情。

經(jīng)驗(yàn)豐富的人工智能研究開發(fā)人員認(rèn)為,常識推理的能力早就被遺忘了。要實(shí)現(xiàn)讓人工智能具有一個(gè)常識性的推理能力需要350年的時(shí)間,這需要人們堅(jiān)持不懈的努力,而這種努力在短時(shí)間內(nèi)不會獲得豐厚的回報(bào)。

有些人會說,我們不要試圖找到所有規(guī)則并將它們編入一個(gè)系統(tǒng),我們要用機(jī)器學(xué)習(xí)來訓(xùn)練常識推理能力。如果你用人工神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)進(jìn)行模式化,那么它可能會找到那些隱藏在數(shù)據(jù)中的常識推理規(guī)律。

也許孩子們并沒有按照個(gè)人的規(guī)則來學(xué)習(xí)常識,相反,他們的大腦會看到周圍的世界,通過神經(jīng)元模式,他們會得到常識。這可能是因?yàn)槲覀冨e(cuò)誤地把這些規(guī)則變成了單獨(dú)的規(guī)則,僅僅因?yàn)槲覀兏菀讖倪壿嬌辖忉屨诎l(fā)生的事情,但事實(shí)上,它可能是對實(shí)際正在發(fā)生事件的一種誤導(dǎo)。

需要常識推理的場景設(shè)想

舉例來說,當(dāng)我行駛在高速公路時(shí),看見前方裝滿垃圾的皮卡車沒有被遮蓋,任由風(fēng)吹來吹去,我用常識判斷:卡車上的垃圾有可能會飛出來。為了避免安全隱患,我及時(shí)選擇變道行駛。果然,過了一會,我看見滿載垃圾的卡車顛簸了一下,垃圾碎片散落一地,后方車輛緊急變道。

據(jù)推測,目前的無人駕駛汽車會像其他司機(jī)一樣,只有當(dāng)垃圾掉落在路面時(shí)才會做出反應(yīng)。我們是否會期待有一輛人工智能汽車可以提前感知前方的安全隱患,提醒我們變道呢?

要想讓智能系統(tǒng)具備這種預(yù)測能力,前提在于它經(jīng)歷過類似的情況。當(dāng)然,我們也需要考慮到,從一個(gè)案例中所學(xué)到的東西沒有被過度概括。

還記得那個(gè)被一只小白狗嚇到,從此就害怕任何白色動物的孩子嗎?我們需要考慮一下,人工智能如何能夠運(yùn)用常識推理來理解真實(shí)的情形,而不是對所有拖著垃圾的卡車過于小心翼翼。

常識不是一件容易的事,把常識推理融入到人工智能自動駕駛汽車中也是一個(gè)相當(dāng)難解決的問題。盡管關(guān)于常識在自動駕駛汽車中是否必要的爭論還未停止,但最安全的建議是,人工智能自動駕駛汽車仍然需要常識推理。

中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(surachana.com)獨(dú)家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運(yùn)動控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺
  • 機(jī)械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0