新聞中心

智能座艙的下一個十年:被數字化占領

作者:華一汽車科技 ?? 來源:www.487048.tw ?? 發布時間:2020-06-03 18:20 ?? 閱讀:

多屏聯動、智能表面、自動駕駛、新材料、情感引擎正在迅速普及到中高端豪華電動車型中,智能座艙的下一個十年,更多數字化技術將會完美融入到智能座艙中,智能座艙也勢會以更全新的形式呈現出來!
 
智能座艙
 
1
從被動到主動的交互模式
真實駕駛場景中,駕駛者視線與雙手被駕駛任務占據,但駕駛員擁有與外界交互的需求,在人車交互體系中,駕駛員的核心注意力一定是被“開車”這件事占據的。所以,駕駛人員和車機系統進行“沉浸式”的交互短時間內并不現實。
除了注意力這種無形的交互限制外,駕駛人員的雙手和視線兩個重要的交互通道也被占用了。駕駛員可以偶爾單手操作,但可交互的距離被限制在了臂長范圍內,同時,由于路面可能會顛簸、單手操作時的肘部是懸空的,這些都會導致操控的精準度下降。
 
而另一方面,駕駛員的視線無法離開路面超過3秒,尤其是在高速駕駛的場景下,1秒鐘內汽車的移動距離最高可達30多米,眨眼間,可能就會造成慘劇。
但是,人們其實很難在駕駛過程中老老實實的,雙手握好方向盤,視線緊盯路面,別的什么都不做。通過我們的調研發現,用戶在開車時,會做很多事情,比如看看路況、聽聽音樂、和朋友聊聊天,甚至下班的路上順便定個外賣,到家剛好能吃上。
在這個數字化的智能時代,我們不可能讓駕駛人員一坐進車里就突然斷掉與外界的一切溝通,不去處理任何生活和工作的相關信息,只做開車這一件事。
 
結合前面說的駕駛場景下的交互特點,就會發現被動式交互是不適合在車內使用的。
用戶需要發起和推進每一個節點,這樣會導致視線需要頻繁從路面上移開,不僅帶來不安全的隱患,整個過程也是非常低效的。
于是我們設想,人與車的交互可不可以打破這種由人來發起再逐層深入的方式?汽車能不能在我需要的時候主動的把對應的服務放到我面前,而不再需要我在開車時手忙腳亂的去找。這樣美好的體驗設想,我們把它稱為“主動式交互”。
 
那么什么是主動式交互呢?不同于被動式交互由人來發起,主動式交互以機器為起點,主動輸出執行結果或建議給使用者,其次,機器可以自己主動的從外界輸入信息然后進行決策判斷,不再需要人來輸入指令。隨著智能化,自動化,電子化的趨勢發展,車艙交互目標方向都為之動態變化。
智能化:隨著技術,硬件和成本的發展,車里會越來越智能,智能化對交互方式影響是機器會增加擔任主動輸入的能力,所以隨著車越來越智能化,車主在輸入方面投入加少,效率更快。
自動化:隨著自動駕駛的技術越來越成熟和普及,車主會逐漸釋放注意力資源和手眼,可以更多投入車艙更多的娛樂操作當中。也會導致在輸入輸出反饋中更好利用視覺反饋。
電子化:去掉實體控件,科技感,簡化內飾,降低成本,變成一種趨勢。但是無論是觸摸屏還是語音,都沒有辦法完美取代實體控件交互。然而,趨勢仍然是站在觸摸屏這邊的。所以這也導致在車艙里交互的變化。
我們把車艙交互階段抽象歸納為3個階段進程,用戶主動式交互---機器建議式交互---機器主動式交互。我們目前處于用戶主動式交互到機器建議式交互到過渡期。而我們能推理出用戶輸入,機器輸出/反饋和場景信息采集在這3個階段進程里的趨勢。
 
所以我們在規劃未來的多模交互時,要增加對機器輸出/反饋界面的重視,逐漸降低對用戶輸入的投入,重視場景信息采集,讓機器承擔更多主動輸入輸出的角色,從而真正解放用戶的思考,達到自然交互的目的。
主動式交互的車機系統,應該做到精準與無感知的主動輸入
主動輸入的體驗目標有兩個,精準度和無感知。如果一開始機器對外界的感知就不精準,判斷出錯,那么機器的主動輸出很有可能不是用戶需要的,所以我們要確保精準。另一方面,機器的主動輸入過程也不能干擾用戶,那最好的方式就是讓用戶感知不到,也就是無感知交互。
 
我們把車和人感知世界的方式做比較,人有感官,可以通過看和聽來感知周圍的環境。同樣的,我們通過在車內搭建一套硬件傳感系統作為車的感官,借助AI的識別技術,讓汽車也具備和人類似的聽、說、看的能力。
主動式交互的車機系統,應該做到簡潔高效的主動輸出
說完了主動輸入,我們再來看看主動輸出;輸出是機器主動和人進行溝通的重要環節,在駕駛這個特殊的場景下,機器的主動輸出要尤為注重減少駕駛干擾和提升傳達效率。
主動式交互能有效減少用戶視線轉移次數,提升安全性,主動式交互能省去記憶和尋找功能入口的麻煩,提高效率,無人車時代的“主動式交互”將由車內拓展到車外。
 
 
人工智能技術使得機器的自主性越來越強,機器會變得越來越智能,隨之交互也會變得越來越主動。那么,在更加智能的無人駕駛時代,汽車又會怎樣的“主動”的和人類交互呢?
事實上,在無人駕駛的時代,車不僅要和車內用戶交流,還要主動的和車外行人、道路上行駛的其他車輛進行交互。而車和外部環境的溝通方式,由于距離和噪聲的影響,也會有很大不同。
 
當我們走向車輛,汽車會通過傳感器或人臉識別等技術來以語音、燈光、全息影像、車外屏等形式來給我們來打招呼。同時,會對我們進行全面識別,以確定我們是否攜帶行李和兒童,從而為我們提供行李搬運機器人,并為我們打開車門,安排適合我們乘坐人數的座椅配置方案。
 
 
 
2
從按鍵-語音-到多模態交互進階
語音成為多模態融合的主流交互方式
隨著科技發展和車主的期望,車內外的信息和功能越來越多,作為HMI設計師的任務就是讓車主減少注意力資源占用,減少駕駛分神,所以交互方式由此產生階段性變化:物理旋鈕/按鍵——數字觸屏——語音控制——多模態交互。
車內信息和功能隨著越來越多,物理旋鈕/按鍵的交互方式已經滿足不了內容的擴展,數字界面由此在車內出現。但是當網聯化后,娛樂信息成為了車內一大內容,數字界面的弊端也逐漸暴露出來了。界面層級導致操作效率的下降,而數字組件控件雖然解決了空間,成本,擴展迭代的問題,但是同時也缺失了物理旋鈕/按鍵原本的觸感反饋,易定位性及效率精細操作等優勢,一定程度上影響到駕駛安全。
 
而此刻語音的出現,可以有效的提高操作效率,減少車主視線移開路面的時長,提高了駕駛安全。那么語音交互就是最終的理想形態了嗎?答案是否定的,功能不可見性/輸入輸出效率低/識別正確率/意圖理解/勿擾性等等弊端導致語音交互并不能解決所有問題。而近幾年多模態交互方式概念的提出并應用,試圖改善這些問題。
 
我個人覺得車艙交互的未來一定是以語音為主的多模態交互方式,從車輛、環境、駕駛員狀態等全面的感知、融合、決策、交互。豐富多模的輸入,語音作為主交互模式,其余模態作為輔助與增強作用。語音又是人工智能的先鋒,也是最先落地的技術,當前還有很大的提升空間。
 
區別于以往的交互方式,語音交互在輸入和輸出方式上發生了質的變化,語音可以解放人們的雙手和雙眼,降低駕駛場景的操作風險,提高安全度。但目前語音交互仍不夠自然,會受諸多條件限制,例如需要在安靜環境下,先喚醒然后發出指令,使用普通話交流等,這些并不符合人們日常對話的習慣。
 
未來,隨著語音技術的不斷完善,語音交互的自然度將進一步提升,并愈加趨向人類自然對話的體驗。
具體表現為:
1 語音交互將從機械的單輪對話進階到更流暢的多輪對話
 
圖片來源:百度AI研究
2 合成語音更自然、真實,接近真人水平
 
圖片來源:百度AI研究
3 語音交互具備聽覺選擇能力,提升多人對話體驗 
 
圖片來源:百度AI研究
4 語音交互將支持多種方言,并針對細分群體進行差異化設計
 
圖片來源:百度AI研究
5 語音具備人設,情感,智能
目前,語音形象的人設的設計和表達主要聚焦在語音(如音色,語氣語調等)和語言層面(如表達方式),并且通常局限在部分場景,部分話術上,缺少一致性和全局感。
未來,語音形象人設的設計和表達將以多維度整體設計的理念解決全局感弱的問題:從語音,產品外觀,虛擬形象等維度進行整體的設計,甚至聘用編劇設計具有統一形象特點的話術,利用混合現實,全息投影等技術將人設具象化,以讓用戶在不同場景下均感受語音助手一致,明顯的人設特征。打造用戶喜愛的人設也將成為企業在市場競爭中形成差異化,吸引更多用戶的重要方式。
 
6 語音開始擁有情感判斷和反饋智能
未來,情感計算技術的提升以及硬件的升級將賦予語音助手在視,聽方面更強的情感識別能力;同時智能體對于人類思維理解,情景理解能力將更加完善,其情感交互能力將更智能,更體貼。
 
 在情感識別的基礎上,語音助手開始具備對情感的應對能力。通過合理借鑒人對于情感的應對策略,語音助手將從硬件層面(光效,肢體動作),VUI層面(如音樂,音效,話術),GUI層面(表情,顏色)等給出立體的情感反饋。智能體在人機交互過程中將體現出更多“情感智能”,帶來更人性化的交互體驗。
 
從語音交互到多模態交互
人臉交互利用人自身固有特征進行交互,具有自然,方便,快捷等特點;伴隨計算機視覺技術發展,深度學習算法的不斷突破,用于身份驗證的人臉檢測和識別技術已經成熟,被廣泛應用于個人和公共場景的身份驗證,并會繼續擴大應用落地場景。
未來,車里還可以準確地識別人臉更多細節信息,如表情,微表情,精神狀態(是否疲勞,是否專注),視線注意等,以判斷人的情緒,疲勞狀態,專注度等,并在情感互動,疲勞駕駛預警,專注力監測與應對等場景發揮作用。
圖片來源:汽車HMI公眾號
隨著攝像頭技術和深度學習算法的不斷進步,空中手勢交互的種類和自由度在不斷提升,從二維靜態,近距離手勢擴展到三維動態,遠距離手勢,手勢交互自然,高效的優勢被進一步凸顯出來。隨著國內外科企業在手勢識別領域的紛紛布局,空中手勢交互將有望成為實現多模態交互的標配。
圖片來源:百度AI研究
Tesla HUD 概念設計 圖片來源:douban.com
基于眼動偵測的多模態交互能夠更加優化交互控制、拓展信息服務。Nuance在CES 2019展出的眼動偵測+語音識別設計概念,使駕駛員可以對車內外的環境信息進行自然定位選擇與交互
 
Nuance在CES 2019概念設計 圖片來源:www.nuance.cn
所謂“自然交互”,就像人與人之間的對話一樣,駕駛員可以通過聲音、手勢、眼神等多種方式組合在一起與車輛進行互動。當駕駛員在交談時,他可以選擇手勢和眼神對車輛系統進行控制;當他正在駕駛,眼睛關注著路面情況時,就可以依靠語音和手勢來操作。用戶可以根據自己的喜好、習慣或當前狀況來決定如何互動。
 
并且,可以操作的項目不僅包括導航、多媒體、車聯網等軟件功能,還可對車窗或天窗的開合、空調風口的調節等硬件進行控制。如果用戶想更多地了解車輛功能,甚至還可以指著按鈕問:“它們的功能是什么?并且隨著手勢識別技術的不斷增強,以及未來車輛之間的互聯性增長,互動的空間也將不再局限于車內。
 
或許不久之后的某一天,用戶將可以與生活環境進行更多的互動。即使是復雜的查詢,也可以通過手指和語音來操作,比如你可以問系統:這是什么建筑物?那家店營業多久?這家餐館叫什么名字?我可以在這里停車嗎?費用是多少?
 
寶馬集團電子高級副總裁克里斯托夫·格羅特(Christoph Grote)表示:”用戶應該能夠以一種完全自然的方式與他們的智能聯網車輛進行交流,而不用為了得到他們需要的功能去考慮使用哪種方式。在未來的座駕上,人們應該自由地做出決定,汽車也應該能夠理解他們的需求。寶馬的自然交互系統是未來自動駕駛汽車的一個重要配置,屆時,車內的駕乘者將得到更加自由的體驗。”
 
BMW
 
 
當人們開車時,他們必須同時關注多種事物:道路,乘客,收音機和其他輔助噪音。因此,他們很難知道汽車觸摸屏上的一個動作何時完成,可以提供觸覺反饋表明操作已成功,而不是僅依靠視覺或聽覺提示。
 
凱迪拉克提示系統—觸覺反饋
細微的手勢和隱藏的負擔尤其難以準確地傳達給用戶,觸覺技術可以幫助提供有關已成功激活隱藏功能的反饋。
 
觸覺反饋應該是相關的,及時的,有語義的和互補的。它應該解決一個突出的用戶問題,并應明智地使用以避免分散用戶的注意力或讓人感到厭煩。觸摸屏作為汽車人機界面的獨特的控制模式被提出來,正如保時捷918和特斯拉模型S的大屏幕迭代所展示的那樣。
雖然他們似乎提供了一個簡單的替代方案,但事實上,他們在易學性方面存在問題,因為這種交互本身很可能帶來分心等認知障礙,因為駕駛員必須始終依靠視覺反饋,并且不能隨著時間的推移形成肌肉記憶或控制圖。
迪士尼研究中心進行的一組有趣的實驗指出了前進的方向,觸覺渲染算法被用來模擬觸摸屏表面上豐富的三維幾何特征(如凸塊,脊,邊緣,凸起和紋理)。如果應用有意義的話,這可以允許肌肉記憶或對于控制的“感覺”隨著時間的推移而發展 。該技術可以在觸摸表面上的3D特征的觸覺渲染中看到。
 
 
圖片來源于網絡
3
智能互聯,多場景銜接
未來,將會打破單車智能的孤島效應,形成一個互聯智能場景。在此場景下,設備之間將互聯互通,場景直接實現無縫銜接:一種情況是一個大腦(中控)連接并控制多個終端,例如通過智能中控,控制家里空調,窗簾等等。通過設備互通,場景融合,形成數據交互,共享的嶄新智慧生態,共同提升人們的生活品質。
 
多終端協同,車輛調度形成體系,提高出行效率,通過大規模精準的車輛調度運營,實現出行需求和供給的高效匹配,提高車輛和城市道路資源的利用率。
 
智能互聯下的多場景銜接需要人機信任。隨著自動駕駛智能汽車的發展,智能汽車可以輔助甚至替代人們做出一些決策。在這種情況下,人類能否信任AI成為人機能否實現深度協同的重要前提。
人與人的信任通常建立在理解對方和了解其可靠性的基礎上。而AI對于大多數人來說都較為陌生,決策過程也難以理解,這種不確定性往往會引發焦慮。同時,決策權和控制權的過渡也讓我們對AI可能發生的錯誤異常敏感。
因此,信任構建的關鍵在于保證系統更加透明可靠(如在協作中給出決策依據),以及讓人參與到AI的訓練中,可以對智能系統進行指導和校正。通過人和AI的持續有效互動,AI成為可指揮,可糾正,可理解,可自我解釋的系統,而人也學會如何更好地理解AI,用戶AI來滿足自己的需求。
 
資料參考:百度人工智能交互設計院人機交互趨勢研究
車聯網與家庭物聯網正在逐漸整合,汽車與家庭之間的互聯性增加,對汽車到家庭門戶網站的需求將不斷增長。
寶馬和SmartThings合作,讓寶馬客戶在旅途中與家人保持聯系。從BMW數字儀表板,任何配備ConnectedDrive服務功能的BMW都將允許駕駛員在智能家居中單獨配置房間和連接設備、打開和關閉家庭報警系統、在家庭緊急情況下接收警報等操作。
 
2019 年 8 月 9 日,華為在開發者大會上正式亮相 HUAWEI HiCar ,致力于提供 人 - 車 - 家全場景智慧互聯解決方案 。
該解決方案的核心是“ 4S ”,即 Safety , Smart Connection , Seamless , Resource Sharing ,分別是出行安全、無感連接、服務場景無縫流轉、手機車機硬件資源共享互助。具體而言, 車與手機、車與穿戴設備、車與智能家居,都可以融合在一起,讓我們的生活場景在不同空間中無縫切換 。
 
可以通過手機遠程控制車門、車窗、車燈、空調 等,提供用車相關服務,包括加油、違章提醒、停車位拍照尋車等,以后在大型停車場再也不會有找不到車的尷尬了。華為智能家居 HiLink 服務的演繹視頻中顯示 ,通過中控屏幕控制家里的智能設備,包括燈具、窗簾、門鎖以及各種家用電器 。
4
AR-HUD等新技術的成熟與普及
在未來三年內有量產基礎的八項交互新技術中,AR-hud、智能機器人、智能表面、空中手勢等技術正在逐漸成熟。HUD抬頭顯示中,可以有效發揮車載AR在智能車艙中的應用價值。
不同用戶如單一用戶或多用戶如駕駛員、副駕駛、車內乘客,針對不同的信息內容維度:安全、導航、車輛監控、娛樂交流工作等,在不同的駕駛模式下等都呈現出非常大的設計空間。分享相應的內容到HUD屏幕上,通過AR地圖導航技術疊加眼動跟蹤技術,可以讓駕駛員體驗到更加逼真的導航服務。
 
 
HUD UI概念設計 圖片來源:www.google.cn
 
 
三菱MI-TECH
AR-HUD是通過內部特殊設計的光學系統將圖像信息精確地結合于實際交通路況中,將胎壓、速度、轉速等信息投射到前擋風玻璃上。使車主在行車中,無需低頭就能查看汽車相關信息。下面我們將結合部分案例,來看一下AR-HUD在未來的發展。
 
AR-HUD對于用戶而言,具有很大的直觀性,通過結合現實路況信息,實時出現一些虛擬箭頭來直觀地引導我們前進,從而避免在駕駛中出現開過路口和分散駕駛員注意力的情況。
 
在駕駛安全方面,AR-HUD將結合ADAS、汽車傳感器來做出安全提醒。比如,跟車距離預警、壓線預警、紅綠燈監測、提前變道、行人預警、路標顯示、車道偏離、前方障礙物、駕駛員狀態監測等等。同時,通過顏色的變化來提醒駕駛員安全度。
 
 
 
BMW-Vision-Next-100
 
BMW
 
 
 
 
同時,AR-HUD可以結合眼球跟蹤,實時感知瞳孔和凝視位置,為駕駛員提供更準確的信息定位,同時為客戶定制不同的體驗要求。
 

文章轉載請保留原文網址:http://www.487048.tw/news/yjyb/1126.html


上一篇:智能座艙的終極奧義,其實是自動駕駛

下一篇:車企憑什么對車載中控屏為所欲為?


液晶儀表 返回列表
? 香港最快开奖现场直播