KONTEKS.CO.ID – Sebuah mobil Tesla Model S memicu kecelakaan beruntun di San Francisco saat menggunakan fungsi “Full Self-Driving Beta”.
Rekaman muncul dari pengemudi Tesla Model S yang menyebabkan kecelakaan delapan mobil di San Francisco. Kecelakaan dipicu saat pengemudi menggunakan fungsi “Full Self-Driving Beta” mobil tersebut.
Ironisnya, kecelakaan itu terjadi pada hari yang sama CEO Tesla Elon Musk mengumumkan fitur yang sama tersedia untuk umum. Bukan hanya subset pelanggan yang dipilih.
Video yang diperoleh The Intercept menggambarkan kecelakaan yang dilaporkan terjadi di San Francisco Bay Bridge pada 24 November. Video menunjukkan Model S putih bergerak ke jalur paling kiri dan melambat hingga berhenti. Lalu menghentikan lalu lintas di belakangnya.
Pengemudinya dilaporkan mengakui bahwa mereka telah menggunakan perangkat lunak “Full Self-Driving Beta” Tesla. Halangan tersebut menyebabkan kecelakaan di antara delapan mobil lainnya, yang mengakibatkan sembilan penumpang luka-luka.
Salah satu yang terluka adalah seorang anak berusia 2 tahun. Lalu lintas di jembatan dilaporkan diblokir selama lebih dari satu jam.
Pagi itu juga, Elon Musk menyatakan di Twitter bahwa FSDB akan tersedia bagi siapa saja di Amerika Utara yang telah membeli fungsi tersebut. FSDB memperluas rangkaian fitur yang tersedia melalui sistem bantuan mengemudi lanjutan Tesla (ADAS) “Autopilot”.
Meskipun menurut Tesla itu tidak meningkatkan kemampuan mobil di luar SAE Level 2 Autonomy (kategori yang sama dengan Autopilot). Pembuat mobil lain sendiri, seperti Mercedes Benz sudah memiliki sistem SAE Level 3 di jalan dalam penggunaan terbatas.
I obtained surveillance footage of the self-driving Tesla that abruptly stopped on the Bay Bridge, resulting in an eight-vehicle crash that injured 9 people including a 2 yr old child just hours after Musk announced the self-driving feature.
Full story: https://t.co/LaEvX9TzxW pic.twitter.com/i75jSh2UpN
— Ken Klippenstein (@kenklippenstein) January 10, 2023
Sebelumnya, akses ke FSD telah dibatasi untuk kumpulan pelanggan yang telah membayar hingga USD15.000 dan mencapai skor berkendara aman yang cukup tinggi. Namun pemilik Tesla telah mengkritik sistem penilaian untuk memberi penghargaan pada apa yang mereka anggap mengemudi berisiko.
Sistem mengemudi otomatis Tesla—baik Autopilot dan FSDB—sedang diselidiki oleh National Highway Traffic Safety Administration setelah serangkaian kecelakaan.
Intercept melaporkan Autopilot dikaitkan dengan 273 kecelakaan yang diketahui antara Juli 2021 dan Juni 2022 menurut data NHTSA. Selain itu, selusin tabrakan dengan kendaraan darurat telah membuat Autopilot selangkah lagi untuk ditarik kembali.
Kepercayaan peraturan pada teknologi ADAS Tesla telah terkikis hingga California mengesahkan undang-undang yang menargetkan penggunaan istilah “mengemudi sendiri”. Karena FSDB membutuhkan pemantauan pengemudi yang konstan menurut Tesla, ini di mata negara bagian mengklasifikasikan FSD sebagai bantuan mengemudi dan bukan sistem mengemudi sendiri.
Jika Tesla terpaksa berhenti menyebut paket ADAS teratasnya “Full Self-Driving”, itu bisa menjadi konsekuensi bagi perusahaan, yang nilainya terkait dengan kelayakan perangkat lunak FSD oleh Musk.
“Ini benar-benar perbedaan antara Tesla bernilai banyak uang atau bernilai nol,” kata Musk tentang Full Self-Driving.
NHTSA sedang menyelidiki insiden dalam video tersebut. ***
Baca berita pilihan konteks.co.id lainnya di "Google News"