在线不卡,久久久黄色的电影。,国产欧美一区久久,午夜人妻福利视频

EV知道  >  行業(yè)  >  正文

對話奇點美研總裁黃?。貉驖u進的自動駕駛之路

2018 年 04 月 29 日 13 : 12 原創(chuàng) 編輯:白雪 來源:EV知道
分享: 微信 微博

[ EV知道 行業(yè) ]今天很榮幸和黃浴博士在自動駕駛方面進行深入交流,黃浴博士作為奇點汽車美國研究與創(chuàng)新中心首席科學家兼奇點汽車美國公司總裁,將為我們分享《AI-CAR時代加速自動駕駛落地的路線及解決方案》。

 

黃?。阂话闾岬阶詣玉{駛大家會說怎么定義自動駕駛,一般按照大家理智的一些標準從L1級到L2、L3、L4,大家知道L5是我們創(chuàng)造最高等級的完全自動駕駛,我們就不介入了。然后從一級到二級最開始是輔助型的,如果大家簡單地理解的話,應該說一級基本上可以不用腳,到二級的時候可以不用腳或者不用手,到了三級基本是手腳都不會用,但是眼睛要盯著。到四級眼睛不用盯了,到了五級你就是乘客了,跟司機沒關系了,駕駛方向盤都不用了,簡單地就這么理解。

關于自動駕駛研究方向,我們看基本上大家認可的大概是兩種,一種是模塊化的方法,就是我們把這個模塊分成感知、規(guī)劃、決策最后是控制分塊下來的。有的時候它會有地圖傳送給你,這種模塊化的。

另外一種端到端,它是從輸入,你輸入傳感器所有的信號,我輸出就是對車的控制器。這個我們一般真正作為自動駕駛的公司不怎么喜歡這種方式,因為主要是自動駕駛它作為人工智能的應用來說,所以它有大量的比較罕見的情況出來,我們一般會看到一些公司在做這方面的工作,當然很少專門做自動駕駛技術的。比如說我舉個例子我賣零件,我賣很多系統給你看,證明我的零件有多強。但是你是做自動駕駛是不認可的一條路子。

如果按照劃模塊,我認為感知是最難的,基本上來說造成大多數的問題都是因為感知的問題,到目前來說雖然我們增加了很多感知器,完全超越人類的感知器的話。因為人它只有眼睛、耳朵,但是可能有激光雷達、人聲雷達,但是感知并不是萬能的,所以造成了自動駕駛研發(fā)不斷調整自己的地方。

因為剛才提到多種傳感器,所以傳感器融合是大家認可的,因為沒有任何傳感器可以獨當一面的。比如說攝象頭,它是通過這種我們看到感光的信息產生圖像里的RGB像素的圖像,它來做環(huán)境感知的理解、認知。不管你是單的相機還是兩個相機還是多個相機,它都是二維的圖像知識,但是這個不夠的,所以會有激光雷達。我發(fā)出的這種激光出去接受回波,通過它來測距。這樣發(fā)出去的速度和回波力的距離,會產生一個非常精準的三零點。我們人能理解完美的一個三維空間,讓機器去理解是一個重建的問題。

另外雷達也是,雷達它的分辨率比較低,一般我們說只是采取一個二維平面的一個測距、測速,這樣激光雷達有一些不足的地方。但是雷達相比剛才我們提到兩個傳感器來說,它有比較重要的一點就是天氣不影響。不論是下大雨還是雪霧都可以穿透,但是激光雷達都會受到干擾,甚至無法得到正確的數據。所以我說傳感器融合是大家目前認可的一個自動駕駛的感知的一個方向。

另外它不光是感知,同時定位也是采取多傳感器融合的方法。

在融合的時候我們再細分一下,融合一般可以分前融合和后融合,前融合指的數理層融合,甚至在傳感器數的空間上來解決,一般比較提前,所以叫前融合;后融合是說各個傳感器單獨執(zhí)行感知任務,然后在任務層再進行融合。比如說我的激光雷達會檢測障礙物,然后我給一個障礙物信息和軌跡,我們對攝象頭也會做同樣的操作。我們兩個產生的信息最后來依靠一定的判決機制來重合,來合在一起這個叫后融合。前融合已經做到硬件層了,后融合現在也有很多。比如說有時候我們傳感器并不是你造的,有的時候是第三方提供的,那個時候可能會走后融合道路。

對于自動駕駛的研究方向來說,大家可能都見過很多公司的一些信息。通過目前整個研究態(tài)勢來看基本算是兩條方法,第一個是低成本的方法,一種是高成本的。

低成本主要以特斯拉為主,基本上是攝象頭,另外它也是地圖不怎么看,看的比較輕。重地圖的或者比較高成本的激光雷達,谷歌在美國任何地方做實驗都會把地圖先掃出來,在地圖的情況下來走。像低成本的公司不看重地圖,所以他們的思路有點像漸進式的發(fā)展,因為它開始弱地圖,它可以逐漸添加地圖上去。我們說地圖要分清楚這個地圖的意思,它不是導航地圖,是高分辨圖。比如說我們今天從北京的某個區(qū)到另外一個區(qū)你走哪一條路,那是導航圖,但是你要在五條車線走哪一條線,這是高清圖,同時還有交通信號的信息,車速的信息,有的還加一些路標的一些信息進去。

對于這兩種模式來說,奇點汽車更適合于走特斯拉的這條路線。另外本身從成本考慮來說,激光雷達高成本路線一般互聯網公司采的,因為它的方法是我想把技術做到最好然后進入市場。進入市場我們也看到是需要一定時間,但是特斯拉不一樣。特斯拉是我先進到市場,技術逐漸的嚴禁,同時通過地圖的信息,通過我的用戶搜集數據慢慢增加我的信息,這條路我認為更適合像奇點汽車這種新能源車公司的特點。

自動駕駛是很有挑戰(zhàn)性的,一個是它的問題比較高,而且數據處理的量非常大。剛才也談到感知這塊非常多,所以它的感知算法不是很完美。另外大家能解決這么復雜的感知問題的時候,很多時候是采取數據驅動,也就是說我要大量的數據。因為沒有辦法建立合理的一個數學模式來描述它,所以我只能靠數據來逼近,基本上是這個思路。

當然這一個我們就可以看到在人工智能、在圖像、在原處理甚至包括一些機器翻譯這些都發(fā)揮了作用,實際上在自動駕駛也一樣。因為自動駕駛本身就是有大量的傳感器數據,所以它扮演地角色是非常大的。比如說檢測、識別、跟蹤包括駕駛行為的建模,包括有很多公司在做的等等的學習,比我們模塊化的數據量還要多。

這個圖大家可能見過,這是大概兩個月前waymo在網上放了一個360度無人車環(huán)境感知的一個視頻,大家可以看到它支持360度全景的播放,你拿鼠標可以拖可以轉。我轉到我這面把結果拷貝出來,他把人、交通信號、車都放出來了。但是大家可以仔細看,覺得這個和我們國內比怎么樣?其實每一個環(huán)境的增加,比如說你增加一倍,那你放的就不是一倍的增加,可能成指數的增加。所以現在waymo的測試,我想它的技術非常好,從2016年開始干了。但是目前它的測試大家可以看到,它是L4的,他的測試在美國的鳳凰城,那個城市100萬人口,那個跟芝加哥是不能比的。

這是一個我想描述出來我們自動駕駛的一個模塊化的結構,大家可以看我們從最左邊是我們的環(huán)境,中間這一塊是車身的一些模塊,就是它包括傳感器,甚至包括了車聯網,包括制動部分這是硬件。那么軟件部分包括感知、規(guī)劃、控制。感知一個是對周圍環(huán)境的理解,另外是對自身的定位;規(guī)劃分為三層,一層是簡單地路徑規(guī)劃,A點到B點路徑規(guī)劃,第二是行為規(guī)劃,你是換車道、左拐彎、超車。第三是你的運動規(guī)劃,直接告訴車你是以什么軌跡來走,最后把規(guī)劃的東西送到控制部分,控制告訴怎么樣把車按照制定的方式來走,這里面也分兩種一種是路徑跟蹤一種是軌跡跟蹤,路徑跟蹤是沒有識別信號的,軌跡跟蹤是有識別信號,所以更加準確。

最左邊這塊是車身部分,右邊這塊我叫云端部分,比如說高清地圖,沒有哪個車可以把一個城市的地圖放到車里面。比如說以前我們買GPS說把美國地圖放到車上,那是矢量地圖,但是你把高清地圖放在上面那不行,所以放在云端的。這方面的數據,不管是大公司還是創(chuàng)業(yè)公司他們競爭非常激烈。

另外你的感知的模型,因為你做那個東西會放在云端,不一定放在車里,因為它有時候需要更新,經過包括自己的車得到新的系統,它會更新。

另外就是規(guī)劃模型,包括我們的駕駛行為,包括路徑規(guī)劃的模型都可以放到上面,還有最后有一些控制模型。車的控制模型通過數據來優(yōu)化或者個性化放在上面。

另外還提到一個是仿真。仿真環(huán)境,大家知道完全靠車上的實測數據的話,目前來說數據搜集能力太慢,比如說像谷歌宣布的,它目前已經跑到數據,但是他仿真已經跑到,包括新的測試方法和新的問題。比如說在實測遇到問題會放在仿真環(huán)境里來調試我的算法,所以仿真環(huán)境也是成熟的自動駕駛所必備的模塊。

這是一個感知的示意圖,大家看到有雷達、激光雷達、攝象頭,其實還可以看到它的攝象頭也是有環(huán)式的,有單雙的都有。其實各個部門所具備的任務或者扮演的角色有所不同,相當于一個示意圖。還有GPS和慣導這些。傳感器對于自動駕駛,相當于你人的眼睛,就是獲取周圍信息一個方式。當然我們希望是數據越詳細越好,或者說你獲取的數據量越大越好,但是作為自動駕駛車來說是實事處理,必然對數據的優(yōu)選,必然做到決策的東西,不能把數據直接挑選放進來。所以感知器多成本高,但更需要的是有一個比較好的感知算法,能夠充分地利用或者準確利用傳感器的數據。

這塊就是深度學習的問題,因為深度學習最近應該是12年差不多,在人工智能里面發(fā)展的非常迅速,而且我看到它最早的突破是圖像、視頻和云里。因為以前的圖像、音頻都要有特征的提取,因為人怎么來識別這個聲音的內容?怎么樣來做到分類,這些大家都在探索。探索方法就是把它變成一個模識別問題,就是你要做模式,所以你要做一個特征,在特征里找不管是圖像還是視頻都花了很多年。甚至以云作為最早的成熟,他還要遭遇圖像。因為我以前是做計算機識別的,大家真正走到一個比較好的特征是1998年左右,那個時候出現比較好的特征。但是深度學習的問題解決了這個困難,因為它就是具有特征學習的能力,它是通過自主的網絡模型自己識別、提取出來。很多人把這個叫做特征表述或者特征學習的網絡,這個是有原因的,因為它尤其在視覺上扮演了很重要的角色。

這一塊我列了一些,大家看左邊,這些應該是深度學習訓練的時候的一些小技巧。它其實來說,因為深度學習對應的是淺度學習,以前淺度學習,當然一個是計算量小,另外一個它的網絡訓練更容易,深度學習它的層越來越多以后,他的訓練內容就很容易發(fā)散,很容易就飽和了。因為我們訓練知道,它是通過誤差信號更新的,有的時候誤差信號進來以后網絡T度就變成零了。所以各種訓練的小技巧都要想辦法客服在深度學習上的問題,這些很多都是非常有名的,因為它提出來以后影響到深度學習的內容。因為你要訓練成好的模型才可以用。

右邊是提到深度學習在學習的應用,因為我們作為攝象頭的話,我們面臨的問題是自動識別的問題,最經典就是說檢測、分類,再往上推廣做到分割,甚至還可以做到更高層,比如說光層、雙路等等方法都可以用它來取代。包括視覺的底層,有像素級的視覺底層的應用,比如說可以去噪,可以增強,大家看手機視頻質量怎么好,都有一堆算法。但是這些算法也可以借助,也在里頭慢慢取代傳統的。比如說它能夠在這個領域取得更好的質量,那么慢慢在工業(yè)界也得到推廣。

深度學習其實發(fā)展,最近幾年可能發(fā)展非常快,有一個原因是比較開放,頂級的科學家他們最早制定了比較開放的原則,所以這幾年發(fā)展非??煲彩歉@個有關的。

這些算法還有開研,以及大家沿革的開放態(tài)度是深度學習發(fā)展非常快,我們在自動駕駛里面也可以看到它在里頭我們扮演的作用也是非常多的。其實不僅僅剛才提到視覺問題,比如說障礙物檢測、跟蹤或者車道線檢測,包括駕駛區(qū)域的檢測。比如說我在沒有車道線,沒有任何標志的路上我怎么找到我的駕駛區(qū)域,這些現在都可以做。場景分割,分出是街道,是大樓都是可以做的。但是特別要提到的就是它還做很多我們以前可能都不怎么去想的,比如說它可以做傳感器融合,可以做傳感器數據的標的或者我們叫做校準,大家把它融合在一汽就解決坐標器的校準問題。大家也看到很多公司在講這個,有一家公司它可以做深度學習來做數據融合。同樣來說也可以在駕駛行為、反饋控制方面通過大量的數據來反映算法的性能。

這是去年下半年出現的一篇文章,我把它列出來的原因,它是做車箱頭的車輛檢測,我把它列出來原因是因為他有的地方體現出深度學習的特點。它上面其實是實現了三層網絡,它不光是二維的,它審議可以提取出三維的設想的姿態(tài)。右上角的方位,它還有一些車的模型,這樣他把模型和深度學習的網絡結合起來。然后你可以看到比傳統的方法要高,因為它分了三層不斷地往里面提案數據。當然以后大家期望的幾個大腕的說法,他們期望以后深度學習是不需要監(jiān)督的,希望它能夠像人一樣自己學習。但是在目前這樣,大家還是不太去用。如果說完全的非要數據可控性就比較差了,我一般在看見他們用的話一般是帶有這種標的數據的。

所以我們對自動駕駛的期望盡可能產品化和商業(yè)化落地,奇點汽車的原則就是能夠和不同的合作伙伴在不同的策略上進行合作。而且我們主張“以人為本”的思路,滿足個性化的需求。其實在自動駕駛可以看到,在整個訓練數據,得到駕駛的數據之后,我們的模型是數據化的。因為大家知道年輕人和老年人駕駛習慣是不同的,有些人就喜歡比較激進的駕駛,而老年人更喜歡溫馨、舒適,和他經過的路段、選擇的區(qū)域也不一樣。而且只有通過大數據的學習,通過數據的用戶掌握才能做到這一點,這也是滿足個性化需求的方法。

這是我們奇點汽車研發(fā)與布局,其實我們每年基本上是在自動駕駛整個的各個方面來進行統一的領導。然后蘇州是最近剛剛宣布了,會做一個全額的研發(fā)中心,現在在上海X-LAB也在布局,北京就是主要做ADAS產品開發(fā)的,我們把這些資源整合統一在我們今后產品落地上進行布局。

這是我們自動駕駛的研發(fā)的示意圖,可以看到感知器,我們配和8個相機、12個超聲波和5個毫米雷達。我們的計算平臺是達到它的計算平臺的能力是非常強的。還有基于我們自己自主的一些控制系統可以來支持我們整個自動駕駛的底層的需要。

我們的技術路線基本上是漸進升級式,我們從2級先落地,然后逐漸我們是升級以后進入3級的自動駕駛的目標還有長遠的話我們是走4級來發(fā)展。整個迭代因為我們的硬件環(huán)境,基本上包括感知的環(huán)境都已經支持四級的需要,只是在軟件上需要進行升級。

這是我們目前感知的一個布局圖。大家可以看到12個超聲波,5個毫米波和8個相機。今后我們奇點汽車主要是自主研發(fā)+第三方合作的方式。我們今后是在明年能夠在明年進行L3的自動駕駛,送到我們用戶車上去。

 

記者:我想問一下現在中國也開放了,北京、深圳都開放了一些實際注冊的一些城市和產地,奇點汽車有沒有實地注冊的計劃?

黃?。?/strong>這個我們是有的,我們現在今年比如說量產落地是支持L2,我們的L2的測試已經在進行。然后對L3的研發(fā)在今年年底就會開始測試,按照我們的計劃明年應該量產落地,不僅是在中國,在美國也會開始進行測試工作。

記者:對于本土化來講,你認為從L2到L3乃至L4最大的挑戰(zhàn)和阻礙是什么?

黃?。?/strong>我覺得L2的話基本上按照一些模塊比較分割,比如說ACC或者說LK這些模塊比較分割,然后實際上稍微一有什么特殊情況就會退出。比如說ICC它的控制跟LK實際上是不一樣的,一個是控制方向盤,一個是控制油門,一個是橫向一個是縱向。還是因為算法不太一樣,L3是手腳都放開,我舉個例子比如說跟車,如果跟前面的車,可能有的時候不光是車道線的保持問題,也不光是自身調整車速的問題,還有對方比如換車道。因為如果對方違規(guī)了,你不能違規(guī),比如說你要識別限速,要識別紅綠燈。當然最早開始是在高速上先做到L3,如果對方超速了你也不能就超速。這些來說L3的綜合能力要比L2好,L2模塊化割裂比較多,L3用戶的體驗會更好。


記者:因為前一段時間無人駕駛致人死亡的事件,大家對于無人駕駛的安全問題非常重視,覺得安全問題很關鍵。如果你覺得無人駕駛安全哪一方面是最重要的,如果做到安全的話。

黃?。?/strong>安全是一個很重的話題,造車企業(yè)以前一直講安全。所以首先要考慮被動安全,還有主動安全,就是說你能夠預防你的危險,說白了你追尾的原因是車速和距離造成的。那你對任何的一個事件的預測性越早你越能避免它。你比如說剛剛你提到Uber這個事情,它剛才公開感知數據,Uber只是提供了行車記錄的一個視頻給大家看。我們知道Uber車頂上有4000個激光雷達,至少有3個方向的攝象頭。應該說Uber哪個地方有問題還沒有公布,我們猜測行人穿行第三條車道線在第四條車道線被撞了。很多時候大家采用的安全性不夠,就是UBER更加激進一些,你看到車開的時候它的車非常謹慎,他左拐彎比人的機制性差很遠,它半天拐不過去,因為他給安全鑒定測的非常大。所以在測試L4這個級別的時候,大家有時候必然會考慮到計算的復雜度和安全的線的問題,我相信Uber的線做的比較低,造成它過于激進造成這種事。

但是我們從L2到L3,我們的安全設置是擺在第一位的,還有一個信息安全和網絡安全。我們有360安全的專家,我們對車聯網的安全,對信息的安全也非常重視。

 

記者:現在深度學習它應該是一個不斷地過程,跟我們老司機一樣每人都會在路上發(fā)現新的狀況,我們的回饋機制是什么?是我現在要去搜集信息,從那么多的數據里面取一個數據。

黃浴:這個題目是很大的,首先第一個我們的研究實際上是盡可能獲取用戶的數據,比如說我們模式那種靠自己的數據測去采集,所以我們相當于用戶在進入人工駕駛,我們采用的實際上是大家所謂公開的說法是引增模式(音)。獲取你的駕駛數據,其實你在學我們在學你。剛才我提到感知的問題比較多,我們獲取大量的感知數據,同時我們做定位的判斷等,同時有時候我們會出現一個虛擬的東西,它有時候沒有障礙物我們謊報了障礙物,而司機做出了殺車的行為。我們影子模式系統出現不同的我們都把它作為一個例子。

大家知道機器學習是深度學習的一部分,再一個分類空間上得到一個劃分,劃分的原理是讓這個間距越大,但是對于某些靠近那個帶有一定保護性,是對你的系統是有挑戰(zhàn)性的。一般對機器學習系統更新,大家更看中于。而我們在深度學習上要考慮的問題,如果出現我們的錯誤,那這些數據也會作為進入我們的云端讓開發(fā)人員這種數據送去然后進行更新,這是一種比較好的一種OTA的學習方式。

 

記者:剛才您說使用到特斯拉的路線,我們怎么向用戶證明我們比特色拉更安全呢?第二個問題,你講到會開放L3的功能,這個L3的功能是基于軟件更新嗎?因為之前我們看到好像透露信息說在車上有給激光雷達預留位置,會留激光雷達嗎?第三個,我們講大數據是融合的概念,我們去篩選有價值的數據這個功能怎么完成的?

記者:剛才您說使用到特斯拉的路線,我們怎么向用戶證明我們比特色拉更安全呢?第二個問題,你講到會開放L3的功能,這個L3的功能是基于軟件更新嗎?因為之前我們看到好像透露信息說在車上有給激光雷達預留位置,會留激光雷達嗎?第三個,我們講大數據是融合的概念,我們去篩選有價值的數據這個功能怎么完成的?

黃浴:我們希望能夠提供給用戶比較可靠的算法,讓用戶放心的去用,對安全性來說,我想安全性非常重要,同市場的宣傳來說要給大家一個比較積極的認識,因為它并不是L4,連L3都不是沒有做出一個完整的L3出來。

記者:就是對于奇點來說,在這個方面我們怎么提醒用戶?如果用戶不接管,這個車會怎么樣呢?在產品定義上。

黃?。?/strong>車規(guī)定義很多比較明確了,一旦不滿足會自動退出,無非達成謹慎說這個狀態(tài)已經退出了。目前從L2的體驗,比如說我說LPA,ACC或者是其他一些輔助的一些功能。我覺得對我們來說我們所給用戶的就是明確告訴你這個功能已經退出,實際上在L2,人沒有完全脫離控制,不管是用腳還是用手,L2的警告應該是更加明確,比L3更加直接。


記者:明年推出L3只是做基于軟件升級,會有激光雷達嗎?

黃?。?/strong>我們目前沒有激光雷達,激光雷達現在的價格,雖然很多公司在講自己的故激光雷達在量產,但是我們有明確的信息可以證明他們得到大量的量產。我們做的是機械式的,價格還是比較高,在短期明年內沒有激光雷達。

記者:沒有激光雷達的L3能夠保證它的安全性嗎?

黃?。?/strong>果我們看到激光雷達比較多的公司,比如說谷歌、百度,應該說激光雷達第一個作用就是它能夠建立高清地圖,第二個作用它能夠完全用自己產生的三維點來做障礙物的檢測和分類。從目前的技術來講,低成本的我們聊了這個也是可以做的。你說在某些情況,你比如說在夜晚的燈光比較暗的情況下,應該說激光雷達不受影響的,激光它是周圍越暗對它越好。比如說車道線檢測,對于夜晚來說激光雷達檢測車道線,它是按照光線來判斷的。比如說你用64線的激光雷達,因為激光雷達是輻射性掃出去的,基本上在100米以外的話,它能掃到一個人是非常小,做行人判決多半是在50米左右。你可以看到為什么那些用激光雷達的公司,比如說在三番做測試的時候經常對一盆花做測試,比如說把樹枝伸出來,他都沒有辦法判斷。激光雷達對于天氣還是沒有辦法判斷,比如說大雨情況下,下雨、下雪都沒有判斷。激光雷達的更新速度是在10赫茲,毫米雷達70到80赫茲,激光雷達也不是最好的傳感器。

 

記者:黃博士你好,剛才你的主題是AI-CAR時代,想讓你分享一下除了技術之外,未來的一個體驗是什么樣的?

黃浴:未來自動駕駛在AI-CAR時代的體驗。我相信是兩點,也是我們沈總以前一直說的,智能包括兩部分,一部分是講的智能聯網,比如說像以前出現的智能手機一樣,它會出現一個平臺,這個平臺是移動平臺,可以在上面客戶,可以在上面娛樂,通過車可以帶你所去的地方,比如說你去過的任何軌跡、時間地點,就像互聯網很多數據都手機了。越是手機你的數據,我們可能提供更加可靠的服務,這是一個車聯網從車作為一個品牌來考慮。

從自動駕駛,自動駕駛做成以后會對整個社會產生巨大的影響。很多人并不愿意買車,呼車和共享都很方便。同時大家可以看到很多業(yè)務都會受到影響,比如說旅館業(yè)、餐飲業(yè)都會受到影響,以后的餐廳可能是活動的餐廳,比如說會議可能就一個移動的車里進行了。我認為自動駕駛和智能車對社會的影響都會非常大。


記者:能不能多透露一點奇點團隊在自動駕駛上面,會提供更加量化的數據,包括里程的規(guī)模、數據的規(guī)模大概人工干預的頻率量化的指標。另外一個是我們8個攝象頭大概有5個放在前面后視鏡那個方向,這是我見過最多最集中的,能不能給我們講解一下。

黃?。?/strong>剛才您提到公開數據,我想我們在合適的時候會公布的。作為一個公司來說,我們畢竟是做產品的,我們在合適的時候會公布自己研發(fā)的指標或者什么的。另外,你剛才提到8個攝象頭,它一般是前方的攝象頭主要是來做障礙物檻車,然后做交通標志、信號燈識別。側面的攝象頭一般做車換道的時候,檢測側方有沒有出后面車道線,甚至還有當我們做自主爬車的時候能夠幫助你來實現爬車需要的感知任務。

記者:我問黃博士一個問題,你講到特斯拉和谷歌為代表的自動駕駛的,最終他們可靠性上會做哪些標準?

黃?。?/strong>從目前看來說,特斯拉基本上是反對這種做法。我覺得成本高是一個很大的因素,另外激光雷達也不是很完美的。像谷歌自己研發(fā)128線的激光雷達,它可以來調整,比如說我需要對很遠處的地方再一個窄的區(qū)域里面做成三個足球場的檢測距離。我相信谷歌這方面能力很強,他們的軟件都是自研發(fā)的,他們的硬件包括毫米雷達都是自己做的,這個別的公司都沒有這么強的研發(fā)實力。

至少大家能夠進入這個車的市場,有自己的用戶,這一點我覺得比較支持特斯拉的做法。目前你想做了快八年,快十年仍然只是在鳳凰城里做一個小范圍的試用的話,這個可能不是一般東西能承受的了。


記者:我想問據我了解VIVO在鳳凰城做的可能達到L4的駕駛,這是他們有很全的高清地圖的數據。我的問題是電子汽車本身是跟哪些公司有合作?第二是在選擇路測的城市和地點有沒有什么依據?

黃?。?/strong>地圖我們是有考量的,不管是高清地圖,還有包括GPS,比如說千尋網絡,包括地圖也不僅僅是激光雷達的地圖。我們的模式剛才比較輕地圖模式,所以更加傾向于特斯拉的路線。我們不光是依賴傳統的導航地圖,同時我們也會依賴用戶搜集的這些數據,幫助我們增加附加的信息或者是附加的信息層,比如說視覺層或者是語意層。實際上點云那一層應該是高清地圖比較高的一層,有的公司它實際上像大家提供的服務可能是在云一層或者是識別層,包括千尋網是用RT技術,比如說在同等服務層在R級或者靈敏級的應用。我們對車的定義是主導多傳感的技術,不管是攝象頭、RTK,慣導這一層。

記者:其實在大屏幕上看到這么多的雷達、傳感器,做到一個從零到一,我能解放一下駕駛者精力的問題,駕駛疲勞程度的問題。我們如何做到這么多自動駕駛的車里面,有一個個性化跟其他品牌不一樣。

黃?。?/strong>我們的個性化還是比較強調在OTA中能夠有一些對用戶的關心,剛剛提到的你的駕駛行為以及對你更合適的一種駕駛的動作或者是控制的一些東西,我們學的會更加像,更舒適。比如說中年人的駕駛習慣和年輕人有很大不同,不管是換道還是左轉彎都不一樣,包括比如說香港、日本都是左行或者右行,這些都不太一樣。我們會通過這些用戶數據,更加能夠讓你的自動駕駛更加舒適,應該說像你學習也對,像一個老司機學習也對。這種方法當然我們也有我們自己自身的車聯網以及中控各方面,我們自研的這種設備的這些技術。我想對一個新造車公司來說,我們在大數據、自動駕駛和車聯網整個綜合這方面,我們應該是能夠和其他的一些造車的不太一樣。

本文內容為EV知道( m.bulba-serche.cn)編輯或翻譯,轉載請務必注明來源。

發(fā)表我的評論

共0條評論  |  共0位用戶參與
0 / 5000 字
發(fā) 布

相關文章

REVIEW

0