تقرير: الطيار الآلى فى تسلا والقيادة الذاتية الكاملة تسببا بمئات الحوادث
فى مارس 2023، كان طالب من ولاية كارولينا الشمالية ينزل من حافلة مدرسية عندما صدمته سيارة تيسلا موديل Y وهي تسير “بسرعات عالية”، وفقًا لتحقيق فيدرالي نُشر اليوم ، كان سائق تسلا يستخدم الطيار الآلي، وهي ميزة مساعدة السائق المتقدمة الخاصة بشركة صناعة السيارات والتي يصر إيلون موسك على أنها ستؤدي في النهاية إلى سيارات ذاتية القيادة بالكامل.
وتم نقل الطالب البالغ من العمر 17 عامًا الذي أصيب إلى المستشفى بطائرة هليكوبتر مصابًا بجروح تهدد حياته، لكن ما توصل إليه التحقيق بعد فحص مئات الحوادث المماثلة هو وجود نمط من عدم انتباه السائق، إلى جانب عيوب تكنولوجيا تسلا، مما أدى إلى مئات الإصابات وعشرات الوفيات.
وخلصت NHTSA إلى أن السائقين الذين يستخدمون الطيار الآلي أو القيادة الذاتية الكاملة الأكثر تقدمًا للنظام، “لم يشاركوا بشكل كافٍ في مهمة القيادة”، وأن تقنية Tesla “لم تضمن بشكل كافٍ أن السائقين حافظوا على انتباههم في مهمة القيادة، وفقا لتقرير ذا فيرج .
وفى المجمل، حققت NHTSA في 956 حادثًا، بدءًا من يناير 2018 وامتدت حتى أغسطس 2023، ومن بين تلك الحوادث، التي اصطدم بعضها بمركبات أخرى بمركبة تسلا توفى 29 شخصًا.
كما كان هناك 211 حادث تصادم “اصطدمت فيه الطائرة الأمامية لسيارة تسلا بمركبة أو عائق في طريقها، وأسفرت هذه الحوادث التي كانت في كثير من الأحيان الأشد خطورة، عن مقتل 14 شخصا وإصابة 49 آخرين.
وطُلب من NHTSA إطلاق تحقيقاتها بعد عدة حوادث اصطدم فيها سائقو Tesla بمركبات الطوارئ الثابتة المتوقفة على جانب الطريق، ووقعت معظم هذه الحوادث بعد حلول الظلام، مع تجاهل البرنامج لتدابير التحكم في المشهد، بما في ذلك أضواء التحذير، والمشاعل، والأقماع، ولوحة الأسهم المضيئة.
ووجدت الوكالة في تقريرها أن الطيار الآلي – وفي بعض الحالات FSD – لم يكن مصممًا لإبقاء السائق منخرطًا في مهمة القيادة، وتقول شركة Tesla إنها تحذر عملائها من ضرورة الانتباه أثناء استخدام Autopilot وFSD، والذي يتضمن إبقاء أيديهم على العجلات وأعينهم على الطريق ، لكن NHTSA تقول أنه في كثير من الحالات، قد يصبح السائقون راضين بشكل مفرط ويفقدون التركيز، وعندما يحين وقت الرد، يكون الأوان قد فات في كثير من الأحيان
في 59 حادثًا فحصتها NHTSA، وجدت الوكالة أن سائقي Tesla كان لديهم ما يكفي من الوقت، “خمس ثوانٍ أو أكثر” قبل الاصطدام بجسم آخر للرد عليه، وفي 19 من تلك الحوادث، كان الخطر مرئيًا لمدة 10 ثوانٍ أو أكثر قبل الاصطدام، بمراجعة سجلات الأعطال والبيانات المقدمة من Tesla، وجدت NHTSA أن السائقين فشلوا في استخدام المكابح أو التوجيه لتجنب المخاطر في غالبية الحوادث التي تم تحليلها.
وقالت NHTSA: “تم العثور على حوادث بدون أي محاولة مراوغة أو محاولة مراوغة متأخرة من قبل السائق في جميع إصدارات أجهزة Tesla وظروف الأعطال”.
وقامت NHTSA أيضًا بمقارنة ميزات التشغيل الآلي من المستوى 2 (L2) الخاصة بشركة Tesla بالمنتجات المتوفرة في سيارات الشركات الأخرى، على عكس الأنظمة الأخرى، يقوم نظام الطيار الآلي بفك الارتباط بدلاً من السماح للسائقين بتعديل توجيههم، وقالت NHTSA إن هذا “يثبط” السائقين عن الاستمرار في المشاركة في مهمة القيادة.
وقالت الوكالة: “إن المقارنة بين خيارات التصميم الخاصة بـ Tesla وتلك الخاصة بنظيراتها من L2 حددت أن Tesla هي صناعة شاذة في نهجها تجاه تقنية L2 من خلال عدم تطابق نظام مشاركة السائق الضعيف مع قدرات التشغيل المتساهلة لـ Autopilot”.
وقالت NHTSA إنه حتى اسم العلامة التجارية “Autopilot” مضلل، مما يستحضر فكرة أن السائقين لا يسيطرون على السيارة، وفي حين تستخدم شركات أخرى بعض صيغ “المساعدة” أو “الإحساس” أو “الفريق”، فإن منتجات تيسلا تغري السائقين بالاعتقاد بأنهم أكثر قدرة مما هم عليه بالفعل، ويقوم المدعي العام في كاليفورنيا ووزارة المركبات الآلية بالولاية بالتحقيق مع شركة تسلا بتهمة تضليل العلامات التجارية والتسويق.
وتعترف NHTSA بأن تحقيقها قد يكون غير مكتمل بناءً على “الفجوات” في بيانات القياس عن بعد الخاصة بشركة Tesla، و قد يعني ذلك أن هناك العديد من الأعطال التي تنطوي على Autopilot وFSD أكثر مما تمكنت NHTSA من العثور عليه.