
ゼネラルモーターズ(GM)は2028年からアイズオフ運転技術を導入し、GoogleのAIモデル「Gemini」に基づく対話型人工知能(AI)を2026年から車両に統合すると発表した。
GMのほか、フォード、ステランティス、ホンダもレベル3自動運転技術を開発しており、メルセデス・ベンツは「ドライブパイロット」をカリフォルニア州とネバダ州の一部高速道路で運用している。しかし、この技術は依然として法的制約が多く、事故発生時の責任の所在が不明確だという点で懸念が指摘されている。
3日(現地時間)、IT媒体『The Verge』は、この問題が規制当局にとっても「頭痛の種」になっていると伝えた。
人間の運転手と自動運転システムが混在する状況で、事故責任をどこに置くのかという論点が残るためだ。メルセデス・ベンツはシステム作動中に発生した事故について責任を負うと明言しているが、運転手が誤用した場合や警告を無視した場合は免責される。
一方、テスラは自社のレベル2運転支援システムであるAutopilotとFSD(完全自動運転)機能を通じて、この曖昧さを利用していると指摘されている。事故調査では、衝突直前にAutopilotが「1秒未満」で解除された事例が複数確認されており、法的責任を回避する意図があるように見える。
GMのメアリー・バーラCEOも、新しいアイズオフシステムを紹介する場で事故責任に関する質問を受け、「センサーが増えれば事故原因をより明確に特定できる」と述べ、責任回避の余地を残す発言をした。
レベル3自動運転では、運転手が運転から離れていてもよいが、緊急時には即座に介入する必要がある。研究結果によれば、長時間運転に関与しない状態が続くと緊急対応能力が低下し、重大事故につながる可能性が高まるという。
現在まで、事故責任は人間の運転手に帰されるケースが多い。米アリゾナ州のUberロボタクシー事故では、安全運転者が過失致死罪を認め、テスラの事故でも運転手に責任が問われてきた。しかし最近、フロリダ州ではテスラ側にも一部責任があると判断する判決が下された。















コメント0