ماسک گفت هیچ تسلای خودران تا به حال تصادف نکرده است. رگولاتورها 8 شمارش کرده بودند



ایلان ماسک مدت‌هاست که از مگافون قدرتمند توییتر خود برای تقویت این ایده استفاده می‌کند که نرم‌افزار رانندگی خودکار تسلا نه تنها ایمن نیست بلکه ایمن‌تر از هر چیزی است که یک راننده انسانی می‌تواند به دست آورد.

این کمپین پاییز گذشته زمانی شروع شد که سازنده خودروهای برقی برنامه کامل خودران “بتا” خود را از چند هزار نفر به ناوگانی که اکنون به بیش از 100000 نفر می‌رسد، گسترش داد. ظاهراً این ویژگی 12000 دلاری به یک تسلا اجازه می‌دهد در بزرگراه‌ها و خیابان‌های محله رانندگی کند، خطوط را تغییر دهد، پیچ‌ها را بپیچد و علائم و علائم راهنمایی و رانندگی را رعایت کند.

در حالی که منتقدان ماسک را به دلیل آزمایش فناوری آزمایشی در جاده‌های عمومی بدون رانندگان ایمنی آموزش‌دیده به‌عنوان پشتیبان سرزنش می‌کردند، مدیر سرمایه‌گذاری سانتا مونیکا و تقویت‌کننده تسلا، راس گربر، از متحدانی بود که به دفاع از او برخاستند.

او گفت: «از زمان راه‌اندازی نسخه بتا FSD هیچ حادثه یا جراحتی رخ نداده است توییت کرد در ژانویه. “نه یکی. نه یک نفر.»

که ماسک با یک کلمه پاسخ داد: «درست است».

در واقع، تا آن زمان ده‌ها راننده قبلاً شکایت‌های ایمنی را به اداره ملی ایمنی ترافیک بزرگراه‌ها در مورد حوادث مربوط به رانندگی کامل خود ثبت کرده بودند – و حداقل هشت مورد از آنها تصادفات بودند. شکایات در حوزه عمومی، در پایگاه داده در وب سایت NHTSA است.

یکی از راننده ها گزارش داد که FSD به طور خودکار قبل از شتاب گرفتن به سمت یک پست وسط، “راست به سمت یک نیمه کامیون تکان می خورد” و باعث خرابی می شود.

یکی دیگر گفت: “ماشین به خط اشتباه رفت” با FSD درگیر “و راننده دیگری در لاین کنار ماشینم با من برخورد کرد.”

یوتیوب و توییتر مملو از ویدیوهایی هستند که رفتار نادرست FSD از جمله یکی از موارد اخیر را نشان می دهد پست به نظر می رسد که یک تسلا را نشان می دهد که خود را به مسیر قطاری که از روبرو می رود هدایت می کند. راننده فرمان را فشار می دهد تا از تصادف جلو گیری کند.

تقریباً برای کسی غیر از تسلا غیرممکن است که بگوید چه تعداد تصادف، جراحت یا مرگ ناشی از FSD رخ داده است. NHTSA در حال بررسی چندین تصادف مرگبار اخیر است که ممکن است در آن دخیل بوده باشد. این آژانس اخیراً به خودروسازان دستور داده است تا تصادفات جدی مربوط به فناوری خودکار و نیمه خودکار را به آژانس گزارش دهند، اما هنوز جزئیات تصادف به تصادف را برای عموم منتشر نکرده است.

شرکت‌های ربات‌سازی مانند کروز، وایمو، آرگو و زوکس به نرم‌افزارهایی مجهز هستند که تصادفات را فوراً به شرکت گزارش می‌دهند. تسلا پیشگام چنین نرم‌افزاری در خودروهای سواری بود، اما این شرکت که دفتر روابط رسانه‌ای ندارد، به سؤالاتی درباره اینکه آیا گزارش‌های تصادف خودکار را از خودروهای دارای FSD دریافت می‌کند پاسخی نداد. خودروسازان بدون نرم‌افزار هوایی باید به گزارش‌های عمومی و ارتباطات با رانندگان و مراکز خدماتی برای قضاوت در مورد ضروری بودن گزارش NHTSA تکیه کنند.

حتما بخوانید:
تعمیرات ماشین لباسشویی سامسونگ SAMSUNG در تهران

تلاش برای رسیدن به ماسک نیز ناموفق بود.

گربر گفت وقتی توییتش را منتشر کرد از گزارش‌های خرابی در پایگاه داده NHTSA آگاه نبود، اما معتقد بود که شرکت از هرگونه برخورد مطلع می‌شد. او گفت: “با توجه به این واقعیت که تسلا هر اتفاقی را که اتفاق می افتد ضبط می کند، تسلا از هر حادثه آگاه است.” او گفت که ممکن است رانندگان در تصادفات مقصر بوده باشند، اما خودش گزارش ها را بررسی نکرده است.

آمار عمومی دقیقی در مورد تصادفات خودروهای خودکار وجود ندارد زیرا افسران پلیسی که گزارش تصادفات را می نویسند فقط اظهارات رانندگان را در اختیار دارند. امبر دیویس، سخنگوی گشت بزرگراه کالیفرنیا، گفت: «ما در مورد چگونگی جمع‌آوری این نوع داده‌ها متخصص نیستیم. “در پایان روز، ما بهترین خاطرات را در مورد چگونگی آن می خواهیم [a crash] اتفاق افتاد.»

محمود حکمت، رئیس تحقیق و توسعه در شرکت شاتل خودران Ohmio گفت، دقیقاً چه داده‌هایی را که سیستم رانندگی خودکار خودروهای تسلا جمع‌آوری می‌کند و به دفتر مرکزی ارسال می‌کند، تنها برای تسلا می‌داند. او گفت که تعریف ماسک از تصادف یا تصادف ممکن است با تعریف یک شرکت بیمه یا یک فرد معمولی متفاوت باشد. NHTSA فقط در صورت مجروح شدن یا باز شدن کیسه هوا یا یدک‌کشیدن خودرو، گزارش‌های تصادف را برای وسایل نقلیه کاملاً خودکار یا نیمه خودکار می‌طلبد.

گزارش‌های سقوط FSD اولین بار توسط منتقد FSD، تیلور اوگان، که Snow Bull Capital، یک صندوق تامینی چینی را اداره می‌کند، کشف شد. تایمز به طور جداگانه داده ها را دانلود و ارزیابی کرد تا یافته های اوگان را تأیید کند.

داده ها – دوره ای از ژانویه را پوشش می دهد. 1، 2021، تا ژانویه. 16، 2022 – نشان دادن ده ها شکایت ایمنی در مورد FSD، از جمله بسیاری از گزارش های ترمز فانتوم، که در آن سیستم ترمز اضطراری خودکار خودرو بدون هیچ دلیل مشخصی به ترمز می زند.

در زیر گزیده‌هایی از هشت گزارش از خرابی‌هایی که FSD در آن درگیر بوده است آورده شده است:

  • ساوتهمپتون، نیویورک: یک مدل 3 که با سرعت 60 مایل در ساعت حرکت می کرد با یک خودروی شاسی بلند پارک شده در شانه بزرگراه تصادف کرد. تسلا خود را “مستقیم از کنار شاسی بلند عبور داد و آینه ماشین را پاره کرد.” راننده با تسلا تماس گرفت و گفت: “ماشین ما دیوانه شده بود.”
  • هیوستون: یک مدل 3 با سرعت 35 مایل در ساعت حرکت می کرد “که ناگهان ماشین از روی حاشیه پرید و باعث آسیب به سپر، چرخ و لاستیک پنچر شد.” این تصادف “به نظر می رسد که ناشی از یک لکه تغییر رنگ در جاده است که به FSD درک نادرستی از مانعی داده است که سعی کرده از آن اجتناب کند.” با رد ادعای گارانتی، یک مرکز خدمات تسلا 2332.37 دلار هزینه کرد و گفت تا زمانی که صورتحساب پرداخت نشود، خودرو را پس نمی‌دهد.
  • نان: هنگام پیچیدن به چپ، ماشین به لاین اشتباه رفت و راننده دیگری در لاین کنار ماشینم با من برخورد کرد. خودرو “به خودی خود کنترل را در دست گرفت و به زور خود را وارد خط نادرست کرد … همه افراد درگیر را در معرض خطر قرار داد. خودرو از سمت راننده به شدت آسیب دیده است.»
  • Collettsville، NC: “جاده به سمت چپ منحنی شد و همانطور که ماشین پیچید، پیچ بسیار گسترده ای را طی کرد و از جاده منحرف شد… سمت راست ماشین بالا رفت و از ابتدای شیب صخره بالا رفت. لاستیک جلو سمت راست منفجر شد و فقط کیسه‌های هوای جانبی باز شدند (هر دو طرف). خسارت تخمینی 28000 تا 30000 دلار بوده است.
  • تروی، مو.: یک تسلا در حال چرخش از یک منحنی بود که “ناگهان، حدود 40 درصد از مسیر پیچ، مدل Y چرخ را صاف کرد و از خط مرکزی عبور کرد و به مسیر مستقیم خودروی مقابل رفت. وقتی خواستم خودرو را به لاین خود برگردانم، کنترل خود را از دست دادم و به داخل یک گودال و از میان جنگل سر خوردم و آسیب قابل توجهی به خودرو وارد کردم.
  • جکسون، مو.: یک مدل 3 “راست به سمت یک نیمه کامیون تکان داد، سپس به سمت چپ به سمت ستون های میانه حرکت کرد، زیرا در حال شتاب بود و FSD خاموش نمی شد… ما 11 روز صاحب این خودرو بودیم که خرابی ما اتفاق افتاد.”
  • هرکول، کالیفرنیا: ترمز فانتوم باعث توقف ناگهانی تسلا شد و خودروی پشت سرم واکنشی نشان نداد. برخورد از عقب باعث “خسارات جدی به خودرو” شد.
  • دالاس: «من با کمک کامل رانندگی می‌کردم… یک ماشین در نقطه کور من بود، بنابراین سعی کردم با کشیدن چرخ ماشین را تصاحب کنم. ماشین زنگ خطری را به صدا درآورد که نشان می‌دهد قرار است با دست چپ تصادف کنم. فکر می کنم با ماشین برای به دست آوردن کنترل ماشین می جنگیدم و در نهایت به میانه سمت چپ ضربه زدم که کمانه کرد.[ed] ماشین کاملاً به سمت راست، به میانه برخورد می کند.»
حتما بخوانید:
Frontier هزینه زیرساختی 7 دلاری سنگین را به صورت حساب های اینترنت می افزاید

منتقدان می گویند که نام Full Self-Driving یک نام اشتباه است و هیچ خودرویی که برای فروش به یک فرد در ایالات متحده موجود است نمی تواند خودش رانندگی کند. مردیت بروسارد، استاد دانشگاه نیویورک، نویسنده کتاب «بی هوش مصنوعی» که توسط انتشارات ام آی تی منتشر شده است، گفت: FSD «کاملاً یک فانتزی است». “و این یک کابوس ایمنی است.”
قوانین کالیفرنیا یک شرکت را از تبلیغ یک خودرو به عنوان کاملاً خودران در حالی که چنین نیست، منع می کند. دپارتمان وسایل نقلیه موتوری ایالتی در حال بررسی بازاریابی تسلا است که در دومین سال آن بررسی شده است.

استیو گوردون، رئیس DMV از می 2021 از صحبت علنی در مورد این موضوع خودداری کرده است. روز چهارشنبه، این بخش گفت: “بازبینی در حال انجام است. وقتی چیزی برای به اشتراک گذاشتن داشته باشیم به شما اطلاع خواهیم داد.”




منبع: spring-news.ir

hacklink al hd film izle php shell indir siber güvenlik türkçe anime izle Fethiye Escort android rat duşakabin fiyatları fud crypter hack forum instagram beğeni bayan escort - vip elit escort html nullednulled themesMobil Ödeme BozdurmaMobil Ödeme BozdurmaMobil Ödeme Nakite ÇevirmeViagraMobil Ödeme BozdurmaMobil Ödeme BozdurmaVodafone Mobil Ödeme Bozdurma