Teslaの「フルセルフドライビング」機能が再び事故に関与、NHTSAが調査開始
米国の国家交通安全委員会(NHTSA)は、Teslaの「フルセルフドライビング(FSD)」機能が原因で発生した歩行者死亡事故に関して新たな調査を開始しました。この調査は、FSDが視界の悪い状況でどのように機能しているかを評価することを目的としています。この事故をきっかけに、FSDの信頼性と安全性が再び疑問視されています。
事故は、視界が制限される状況でFSDが作動していた際に発生しました。NHTSAによれば、過去にも同様の事故が複数回報告されており、これらの状況は霧や太陽光の強い照り返しなど、視界が悪くなる条件下で発生しています。この調査では、FSDがどのようにしてこれらの視界制限に対応しているか、またTeslaがFSDに対してどのようなアップデートを行ってきたのかが焦点となります。
この事故を含む4件の事例が報告されており、そのうち1件では歩行者が死亡、他の事故でも負傷者が出ています。この調査では、FSDがこれらの視界制限に対して適切に対応できているか、今後の安全性向上のための対応が必要かどうかが問われています。
Teslaの未来の自動運転計画に対する懸念
Elon Musk氏は、2026年までに完全な自動運転機能を備えたロボタクシーを市場に投入すると発表していますが、多くの専門家はこれが実現する可能性を疑問視しています。現在のFSDの技術的な制約や安全性の問題を考えると、この目標を達成するのは容易ではないと見られています。特に、手動操作が不要となる車両では、FSDの完璧な性能が求められ、安全性がより一層重視される必要があります。
今回の調査結果次第では、Teslaが自動運転技術を大幅に見直す必要があるかもしれません。NHTSAがどのような対応を取るか注目が集まります。
コメント