
黑客已經證明了他們如何通過使用稱為“逆勢攻擊”的方法來欺騙Tesla模型S進入錯誤的車道,一種操縱機器學習(ML)模型的方法。
Tesla Autopilot識別車道并通過識別道路交通標志來幫助控制。
來自中國科技巨頭騰訊敏銳的實驗室的研究人員表明,通過在路上放置干擾貼紙,自動駕駛儀系統可以提交給迫使它產生異常判斷并使車輛進入錯誤車道的信息。
“在這次演示中,研究人員在車輛周圍調整了物理環境(例如放置在道路上或改變車道線上),以使汽車在使用自動駕駛儀時的行為方式,”Tesla發言人被引用為敏銳的安全性實驗室博客。
“如果駕駛員可以通過使用方向盤或制動器可以隨時容易地超越自動駕駛儀,并且應該準備好在,因此應該準備始終可以做到這一點,這不是一個真實的世界問題,并且應該準備這樣做,”發言人說。
根據下載下載技術審查的報告,由于機器學習更廣泛,特別是在網絡安全等領域,對抗性攻擊可能變得更加普遍。