1866 汽車的倫理問題(1 / 2)

過了兩天時間,辰逸這兩天基本都在新能源汽車製造基地裡麵,因為北嶺實驗室的人員在原本的汽車係統基礎上研發出了新的電控係統和製動係統。

新車在外觀上沒有改變的基礎上做了係統的重新安裝,車輛電腦也進行了升級。

“這一次我能開了吧?”

辰逸問。

“不行!”

柴勇想都不想的反對。

依舊是一個技術人員負責駕駛操作,辰逸隻能看著。

重新製作係統後的車輛穩定性和操控性都好了許多,這個技術人也還試驗了一下自動駕駛的功能。

實驗結果基本達到了預期的要求,最主要的是刹車係統的改善上,增加了自動分辨能力後的自動刹車係統。

不過就是這個自動刹車係統最後還是出現了問題。

“砰!”

電動汽車以四十公裡的速度撞到了一旁的防護上,車輛直接側翻了出去。

“快快快,趕緊救人!”

柴勇大喊。

車子內的技術人員被救了出來,人沒有大事。

“怎麼回事?人沒事吧?”

辰逸走過來詢問。

“嚴總,我沒事……我發現了一個極大的問題,車輛的自動刹車係統存在一個倫理區彆問題!”

技術人員回答。

“什麼?你再說一遍?一個電動汽車怎麼出現倫理問題了?”

辰逸莫名其妙。

“我剛剛試驗了一下特殊路況下的自動刹車程序,自動刹車沒有刹車,而是采用了保護駕駛員的做法,最後我隻能手動刹車,導致了撞車!”

技術人員回答。

“保護駕駛員有什麼錯?”

辰逸奇怪的問。

“嚴總,您還是沒有明白一個問題,就是在某種情況下,比如說刹車就會導致駕駛員死亡,不刹車車輛前方的行人就會死亡的極端情況下!”

“車輛的行車電腦就會出現無法判斷的情況,這一次是車輛電腦傾向於保護汽車駕駛員的角度,那麼剛剛死的就是行人,不過這種傾向不是人為控製的,所以我們不能判斷行車電腦會不會一直有這種傾向……”

技術人員詳細地解釋道。

辰逸愣住了,這特麼的……

說這樣的情況是倫理問題還真是一點錯沒有,到時候死誰都是由行車電腦控製的,你讓電腦怎麼選?

“你們是什麼想法?”

他扭頭問想北嶺實驗室的那些科研人員。

“我們一致認為目前這種情況就是最好的選擇,保護駕駛人員!”

北嶺實驗室的人員一致回答。

“可是如果是這樣,那麼自動刹車有什麼用?完全不需要這樣的東西嘛,反而還會分散汽車的電池用電量,咱們直接人工刹車,刹得住就刹得住,刹不住反正行人也是死……”

汽車基地的技術人員反對道。

“我們這樣的選擇也是基於對用戶的保證……用戶的安全有了保證,這樣他們才會考慮我們的車子!”

實驗室的人員解釋道。

“那你們有沒有考慮,撞死了行人對用戶的負麵危害?”

汽車基地的技術人員反問。

兩邊的人就這麼直接當著辰逸的麵吵了起來,辰逸沉默不語,他也在思考這件事。

“行了,彆在我麵前演戲了,這種問題你們在研發的時候不是應該已經吵完了嗎?”

辰逸終於開口了。

兩邊的人都停了下來,齊齊的看著辰逸。

上一章 書頁/目錄 下一頁