2. radostinalassa
3. zahariada
4. mt46
5. varg1
6. leonleonovpom2
7. wonder
8. sparotok
9. kvg55
10. planinitenabulgaria
11. rosiela
12. bven
13. apollon
14. getmans1
2. katan
3. wonder
4. leonleonovpom2
5. mt46
6. dobrota
7. bojil
8. ambroziia
9. vidima
10. milena6
2. geraltofrivia
3. radostinalassa
4. lamb
5. hadjito
6. simonata
7. metaloobrabotka
8. djani
9. iw69
10. rosiela
04/04/2018 / От Ланс Д Джонсън
https://www.newstarget.com/2018-04-04-video-proves-that-tesla-autopilot-can-get-you-killed.htmlФункцията за автопилот на Tesla не е доказателство за неуспех и водачите трябва непрекъснато да са готови да поемат контрола върху колелото. В тестовия видеоклип на един човекавтопилотът стана объркан с линиите на пътя и почти изпрати главата на водача на първо място в бетонен делител. Човекът се опитваше да докаже какво може да се е случило при фатален инцидент, включващ автосалон Tesla Model X в Маунтин Вю само преди месец.
Разследване от Националния съвет по безопасност на транспорта на САЩ установи, че въпросният модел Tesla модел X наистина е бил на автопилот, когато то се е сринало . Адаптивната функция за круиз контрол беше настроена да последва на минималното разстояние преди да настъпи фаталната катастрофа. Досиетата за данни потвърдиха, че водачът не е имал ръце на колелото шест секунди преди катастрофата да се е случила. По-рано в шофирането шофьорът получи звуково предупреждение, че ръцете му не са на волана. Според дневниците шофьорът имаше пет секунди и 150 метра безпрепятствен изглед преди катастрофата, но "не бяха предприети никакви действия".
Това води до реалния проблем при самоуправлението на превозни средства. Шофьорите, които се доверяват на автопилота, естествено ще обърнат по-малко внимание на пътя и околностите. Ако възникне повреда в технологията за автопилот, водачът може да бъде забелязан, без да е готов да поеме управлението на автомобила. Не беше предприето никакво действие в тази катастрофа, защото шофьорът не обръщаше внимание и не очакваше, че ще трябва да се отърве от конкретен разделител. В реалния свят, разсеяните шофьори няма да могат да предскажат проблемите със самоуправляващите се автомобили. Няма да видят тези нови неочаквани проблеми. Шофьорите, които се радват на автопилот, няма да бъдат напълно наясно със заобикалящата ги среда, защото се доверяват на технологията да се грижи за тях. В последната секунда те няма да могат да правят важни разсъждения. (Свързани:Безопасността не е сериозна опасност, тъй като House дава на самоуправляващите се автомобили бързата лента. )
При възобновяване на катастрофата водачът никога не грабва волана навреме, като пренебрегва предупреждението, което бе изпратено само няколко секунди, преди бетонната бариера да се изправи срещу него. Очевидно функцията на Tesla"s Auto steering стана объркана, заключвайки се в най-лявата линия, която всъщност беше правилната линия на изходната рампа. Тази линия бе ясно маркирана и открита, за разлика от действителната ляв ред на лентата, за която се предполагаше, че колата ще се води. Функцията за объркване на Auto steering насочи колата директно към бариерата, като даде на водача само няколко секунди, за да реагира. Въпреки това, много шофьори могат да бъдат разсеяни, да изпращат текстови съобщения или да се отдалечават при подобни обстоятелства. По времето, когато разберат къде се е случило автоматичното управление, може да е твърде късно да реагира.
Неизвестни недостатъци в автомобилната пилотна технология + сляпо доверие в технологиите + разсеяни шофьори + свръхдозирани, затрудняващи познания неизбежно ще се равняват на повече инциденти и смъртни случаи по пътя. За да сте в крак с автономните притеснения на превозните средства, посетете Glitch.News .
Източниците включват:
Electrek.co
YouTube.com
NaturalNews.com
Боян Чуков: Европейския съюз приключи. В...
ХОРАТА ВЪСТАВАТ, А ПРАВИТЕЛСТВАТА ПАДАТ...