オフィス鴻

自動運転の盲点

2026年03月06日

東京都で実施されていたバスの自動運転実証実験で、バスが街路樹に衝突してしまう事故が発生しました。既に自動車の自動運転技術はレベル4段階に入っており、アメリカ西海岸では個人情報保護の観点からあえて無人タクシーを使う方が増えたと言う話も聞こえます。当該事故では乗客3名が負傷(軽傷)したと報道されており、その原因がシステム上の不備により22秒前の位置情報に基づいて自動で急ハンドルがきられたと結論付けられていました。この実証実験はレベル2という特定条件下での自動運転でしたが、まだ実証実験中であったことが今後の改善に役立つでしょう。

また自動運転に基礎データとなるカーナビ機能なども年々進化していますが、そもそも更新情報が適宜反映されていないことや先述のようにシステムエラーを完全に防止する技術は普及していません。まずは公共交通機関から導入が始まる予定ではあるものの、一般車両(特に貨物自動車)では車格・総重量などから大きな事故に繋がる可能性は非常に高くなります。編集人が現役時代の車両位置情報システム誤差は約5秒でしたが、今回のケースでは0.1秒ごとに更新されるようプログラムされていたそうです。それでも22秒の誤差が生じてしまったことは、大きな課題だと言えます。

さてあと数年後には特定の高速道路での貨物自動車自動運転が実用化され、中長距離ドライバー不足問題の解決に繋がるだろうと言われています。しかし日本の職人魂の多くは個人のたゆまざる努力の結晶といわれ、貨物自動車運転技術も実際に運転してみなければ安全性・危険性共に正しく認識することは非常に難しいのが現状です。確かに様々な日常の一コマが便利になっていくことは大変喜ばしいことではあるのですが、その一方で人間しか感じることのできないこともあると考えています。最近は非常にAI技術開発が盛んですが、少し人間味が不足している気がしていますね。