国产肉体XXXX裸体137大胆,国产成人久久精品流白浆,国产乱子伦视频在线观看,无码中文字幕免费一区二区三区 国产成人手机在线-午夜国产精品无套-swag国产精品-国产毛片久久国产

博客專欄

EEPW首頁 > 博客 > 輔助駕駛故障造成車禍,車主負全責(zé),這功能還敢用嗎?

輔助駕駛故障造成車禍,車主負全責(zé),這功能還敢用嗎?

發(fā)布人:大數(shù)據(jù)文摘 時間:2022-08-20 來源:工程師 發(fā)布文章

大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自果殼

作者:莎士billy

編輯:翻翻


又一起車禍在輔助駕駛模式下發(fā)生。


8月10日下午,寧波一處高架橋上,一輛小鵬P7電動車以80km/h時速撞上一輛在路邊臨時停靠的故障車輛。道路監(jiān)控和行車記錄儀視頻顯示,肇事車在接近故障車輛時幾乎沒有減速和轉(zhuǎn)向,徑直撞向前方,導(dǎo)致前車尾部嚴重損毀、站在車尾后方的人員不幸身亡。


圖片


肇事車主王先生對紅星新聞表示,事發(fā)時他正使用電動車的LCC(車道居中輔助)功能,但該功能沒能識別前方的人和車,在撞擊發(fā)生前沒有任何警告,而自己因為在輔助駕駛狀態(tài)下跑神沒有做出應(yīng)對,最終釀成車禍。


8月11日,小鵬汽車官方對此事故作出了回應(yīng),稱交警部門已經(jīng)立案處理,小鵬也將全力配合相關(guān)部門進行事故調(diào)查,持續(xù)跟進后續(xù)結(jié)果。


這場悲劇并非毫無預(yù)告,同樣的事件已經(jīng)發(fā)生過預(yù)演。


今年3月13日,小鵬P7車主鄧先生在湖南臨湘-岳陽高速路段上發(fā)生嚴重車禍,車禍時同樣開啟著LCC功能、同樣是80km/h速度巡航,同樣是撞上前方側(cè)翻的靜止車輛。鄧先生在社交媒體上稱:“撞擊前車輛毫無減速,碰撞預(yù)警提示或者緊急制動的跡象……我認為輔助駕駛功能存在致命的安全隱患?!?/span>


車禍頻發(fā),車主們還能放心把性命攸關(guān)的大事交給輔助駕駛系統(tǒng)嗎?


LCC模式能解放車主嗎?


這次事故的爭議核心LCC(車道居中輔助),是一個能幫助車輛在車道正中間行駛的功能。在有清晰車道線的道路上,如果車輛偏離車道中心,系統(tǒng)會自動施加轉(zhuǎn)向輔助力使車輛回正以保證行車安全。駕駛員開始變道時,系統(tǒng)會自動退出以避免干預(yù)駕駛員的操作。


在LCC開啟時,車外攝像頭會檢測車道線,使車輛維持設(shè)定時速在車道中央行駛,同時,攝像頭和毫米波雷達會判斷前方車輛的遠近,自動保持安全距離。


根據(jù)官網(wǎng)介紹,小鵬目前最高配的輔助駕駛系統(tǒng)XPILOT 3.0使用了英偉達Xavier芯片+智能控制器的雙組合,高精毫米波雷達5個,車外有13個攝像頭,車內(nèi)也有一個攝像頭,全車共計14個攝像頭。


圖片

XPILOT不同版本的硬件配置差異|小鵬官網(wǎng)


但就算是最高配的XPILOT 3.0 系統(tǒng)也有致命短板。


攝像頭+毫米波雷達的組合對非標準靜態(tài)物體的識別存在困難,在高速場景下尤其明顯。因為靜止物的反射波沒有相位差,靜態(tài)目標的信息很容易和附近的干擾目標信號摻雜在一起,導(dǎo)致雷達無法準確地識別。同時,“靜態(tài)雜波濾除”的算法,也會過濾掉一些靜止物體。這就可能會導(dǎo)致前方的靜止車輛和行人被誤判或忽略。


圖片

毫米波雷達工作示意圖


在LCC的各種介紹中,小鵬汽車都標注了“車道居中輔助(LCC)啟用時,駕駛員仍需始終保持手握方向盤并在必要時接管方向盤”、“LCC 激活時,您仍需始終保持手握方向盤,以便可以在有潛在危險發(fā)生時,及時接管車輛”等警示。


圖片

XPILOT小助手的LCC介紹文章 | 小鵬社區(qū)


輔助駕駛失靈,車主負責(zé)


根據(jù)美國高速公路安全管理局(NHTSA)和美國汽車工程師學(xué)會(SAE)提出的自動駕駛分級制度,自動駕駛被分為L0、L1、L2、L3、L4、L5六個等級,L0-L2屬于輔助駕駛,L4-L5屬于無需接管的自動駕駛,而L3級別的自動駕駛,車主需要在功能請求時接管汽車。


圖片

SAE自動駕駛等級 | SAE


今年3月,國家市場監(jiān)督管理總局、中國國家標準化管理委員會也推出了適用于我國的《汽車駕駛自動化分級》國家推薦標準。


圖片

《汽車駕駛自動化分級》|國家標準委


車企認為,在輔助駕駛模式下出現(xiàn)事故,責(zé)任在車主一方。


小鵬在用戶手冊中不斷強調(diào),車主不能依賴ACC/LCC系統(tǒng),需要隨時準備好做出人工干預(yù),并列舉了各種系統(tǒng)可能失靈的場景,其中就包括無法檢測到靜止車輛和物體。就算在事故發(fā)生時輔助駕駛系統(tǒng)失靈,但因為用戶手冊已經(jīng)強調(diào)過了車主雙手不得離開方向盤,需要隨時注意接管汽車,因此車主仍需負主要責(zé)任。


圖片

小鵬用戶手冊 | xiaopeng.com


從法律法規(guī)執(zhí)行的角度來講,在國內(nèi)的交通事故認定中,輔助駕駛汽車的責(zé)任主體也都是駕駛員。


8月1日,《深圳經(jīng)濟特區(qū)智能網(wǎng)聯(lián)汽車管理條例》(簡稱《條例》)實施,《條例》中定義的“智能網(wǎng)聯(lián)汽車”包括了有條件自動駕駛(即L0-L2)、高度自動駕駛和完全自動駕駛3種類型,也因此被視為國內(nèi)首部L3級的法規(guī)。


《條例》規(guī)定:配備駕駛?cè)说闹悄芫W(wǎng)聯(lián)汽車發(fā)生交通違法行為,由公安機關(guān)交通管理部門依法對駕駛?cè)诉M行處罰;發(fā)生交通事故且智能網(wǎng)聯(lián)汽車一方負有責(zé)任的,該車輛的駕駛?cè)藨?yīng)當承擔(dān)相應(yīng)的損害賠償責(zé)任;因智能網(wǎng)聯(lián)汽車質(zhì)量缺陷造成交通事故的,駕駛?cè)艘婪ǔ袚?dān)損害賠償責(zé)任后,可以向智能網(wǎng)聯(lián)汽車的生產(chǎn)者、銷售者追償。


也就是說,依據(jù)現(xiàn)行法律,因輔助駕駛功能失靈造成的交通事故,駕駛?cè)穗m然承擔(dān)責(zé)任,但可以向車企追償。


雖然根據(jù)用戶手冊說明,小鵬P7的輔助駕駛系統(tǒng)屬于L2級別,但在百度搜索“小鵬P7 L3”,查詢8月9日(車禍發(fā)生前一天)前的搜索結(jié)果,會發(fā)現(xiàn)網(wǎng)上有很多宣傳小鵬P7擁有L3級自動駕駛的文章,消費者很可能會因此而過分信任汽車的輔助駕駛功能,從而在駕駛時掉以輕心。


圖片

普通車主來說,很難分辨到底什么才是真正的L3 | 百度截圖


在國外也是一樣,就算因為車輛系統(tǒng)的故障導(dǎo)致了車禍,法律責(zé)任也往往都在駕駛員身上。從此前的判例來看,輔助駕駛不能算是司機們的好朋友,司機時時刻刻都得提防意外發(fā)生。


2016年6月,40 歲的美國司機約書亞·布朗(Joshua Brown)在將特斯拉Model S置于Autopilot(自動輔助駕駛)模式中行駛時,因傳感器無法識別前方明亮天空下的白色貨車而撞車身亡。約書亞成為了第一個死于自動駕駛車禍的人。


圖片

約書亞生前的社交網(wǎng)站照片 | Facebook


特斯拉隨后發(fā)布的事件聲明強調(diào)了Autopilot功能并不完美,依然需要車主隨時接管,撇清了公司的責(zé)任:Autopilot“是一項輔助功能,要求你的手始終放在方向盤上”,并且在使用時 “你需要保持對車輛的控制和責(zé)任”。


2019 年底,美國司機凱文·里亞德(Kevin George Aziz Riad)駕駛的特斯拉Model S在Autopilot模式中沖出加州高速公路,闖紅燈,撞上另一輛車,造成車內(nèi)兩人死亡。今年1月,洛杉磯縣檢察官對現(xiàn)年 27 歲的里亞德提出了“過失殺人罪”和“交通肇事殺人罪”指控。此案也是對涉及特斯拉Autopilot功能車禍的首次刑事起訴,而特斯拉在需要定責(zé)時不見蹤影。


我們離“真正的自動”還很遠


從自動駕駛概念出現(xiàn)之初的L5大餅到L2的現(xiàn)實,從一開始的高歌猛進,到如今聲量越來越小,“自動駕駛”的宣傳也悄悄改口成了“輔助駕駛”。這都是因為L3的分水嶺會讓車企承擔(dān)更多的追責(zé)風(fēng)險。


作為自動駕駛的先驅(qū),特斯拉首當其沖。根據(jù) CNBC 8月5日的報道,加州機動車輛管理局正在指控特斯拉在自動駕駛方面存在虛假宣傳。加州車管局認為,特斯拉把輔助駕駛系統(tǒng)稱作Autopilot(字面意義是自動駕駛)和FSD(全自動駕駛系統(tǒng)的簡稱),將這些系統(tǒng)宣傳為“全自動”,屬于一種夸大宣傳。特斯拉有兩個星期的時間來回應(yīng)調(diào)查,否則可能暫時失去在加州的經(jīng)營許可。


圖片

特斯拉與加州車管局此前曝光的郵件|DMV


這個口徑上的拉鋸過程,也是人類在是否要把控制權(quán)交給機器這件事上的徘徊。


如果一棵小樹枝探出了公路,而且沒有來往的車輛,我們會簡單地變到對面車道繞行。但是自動駕駛汽車可能會完全停下來,因為它盡職盡責(zé)地遵守了禁止跨越雙黃線的交通法規(guī)。這種意外的舉動會避免撞到前面的物體,但會與后面的人類司機發(fā)生碰撞。


又比如經(jīng)典的電車問題:一輛失控的電車即將碾過并殺死站在鐵軌上的五個人,你可以拉動開關(guān),讓電車進入另一條只有一人的軌道,犧牲一人拯救五人?;蛘呷拥糸_關(guān),任五人死亡。人類尚且無法判斷的倫理難題,自動駕駛系統(tǒng)又會如何抉擇?


圖片

電車難題


2004年上映,根據(jù)阿西莫夫同名小說改編的電影《我,機器人》中,威爾·史密斯飾演的男主斯普納十分厭惡人工智能機器人,因為在他幾年前經(jīng)歷的一場車禍中,前來救助的機器人因存活率太低為由放棄了了另一個12歲女孩,選擇營救斯普納。在性命攸關(guān)的情況下,自動駕駛汽車面臨的考驗恐怕只會更大。


圖片

《我,機器人》劇照


人們也可能認為,在車禍中,由自己以外的人控制自己的命運是有違倫理。工程師們根據(jù)自己的道德規(guī)范和觀念開發(fā)自動駕駛的算法技術(shù),而他們的決定影響著司機、乘客和路人的生命。政策制定者和政府也試圖為自動駕駛汽車制定規(guī)則和條例,增加了對司機、乘客和路人的額外影響。


德國則試圖用事先設(shè)定指導(dǎo)方針來解決自動駕駛汽車的倫理問題。德國政府提出,“自駕車應(yīng)該總是試圖將人的死亡降到最低,不應(yīng)該根據(jù)年齡、性別或任何因素對個人進行歧視。人的生命也應(yīng)始終優(yōu)先于動物或財產(chǎn)”。從《科學(xué)》雜志發(fā)表的一項研究來看,超過75%的參與者支持這種實用主義的做法。


在技術(shù)與倫理問題上,我們或許還要很久才能放心地將控制權(quán)全部交給機器,獲得真正的自動駕駛車輛。希望在這條發(fā)展的道路上,悲劇會越來越少。


參考文獻:

[1]Lin, P. (2013). The Ethics of Autonomous Cars. Retrieved 12 August 2022, from https://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360/[2]Lambert, Fred. 2022. "Tesla Is In Hot Water With California DMV Over Its Autopilot And Self-Driving Claims". Electrek. https://electrek.co/2022/08/06/tesla-hot-water-california-dmv-autopilot-self-driving-claims/.[3]"The Ethics Of Self-Driving Cars". 2020. Medium. https://towardsdatascience.com/the-ethics-of-self-driving-cars-efaaaaf9e320.


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。

linux操作系統(tǒng)文章專題:linux操作系統(tǒng)詳解(linux不再難懂)
電容式接近開關(guān)相關(guān)文章:電容式接近開關(guān)原理


關(guān)鍵詞: 汽車電子

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉