Čínská společnost TuSimple na sebe upoutala značnou pozornost na přelomu roku, když uskutečnila sérii nočních jízd svých autonomních nákladních vozidel zcela bez jakékoli obsluhy na palubě na trase mezi arizonskými městy Tucson a Phoenix. Ačkoli se jednalo o bezpochyby významný počin, v odborné komunitě se začaly vést diskuse, zda rozhodnutí tyto jízdy uskutečnit bylo učiněno na základě dat o dostatečné bezpečnosti vozidel a s tím související důvěry firmy ve svůj produkt, anebo na základě potřeby za každou cenu ohromit investory. Jak se aktuálně z dostupných informací jeví, blíže pravdě bylo spíše druhé tvrzení. Když letos v polovině června zveřejnil americký Národní úřad pro bezpečnost silničního provozu (NHTSA) data o nahlášených nehodách autonomních vozidel za uplynulé období zhruba jednoho roku, jednou z nich byla nehoda nákladního vozidla International LT 625 firmy TuSimple, k níž došlo letos 6. dubna, kdy toto vozidlo narazilo do betonového hrazení ve středu dálnice poblíž města Tuscon. V komentáři u této nehody firma stroze uvedla, že systém autonomního řízení nebyl v době kolize aktivní, a tedy nepovažuje za nutné se k ní nějak detailněji vyjadřovat. Úřad NHTSA sice zahájil šetření této nehody, veřejnost ale incidentu žádnou zvláštní pozornost nevěnovala, hlavně kvůli chybějícím informacím. To se ale změnilo na konci července, kdy jeden ze zaměstnanců firmy TuSimple anonymně zaslal interní video této nehody na jeden z populárních YouTube kanálů, načež se spustila lavina pozornosti. O nehodu se okamžitě začala zajímat věhlasná média a díky jejich investigaci na povrch začaly pronikat znepokojující informace o mizerné firemní kultuře, přehlížení problémů a zejména velice vlažném vztahu firmy k bezpečnosti. Korunu celé situaci nasadila sama firma TuSimple, když se snažila ve svém oficiálním vyjádření svalit vinu za nehodu na bezpečnostního řidiče. Ten ale ve skutečnosti svou pohotovou reakcí důsledky chyby autonomního systému výrazně zmenšil. Dle dostupných informací lze děj nehody zrekonstruovat zhruba následovně: Přibližně dvě a půl minuty před incidentem došlo k převzetí řízení bezpečnostním řidičem, který následně pokračoval v jízdě manuálně. Systém autonomního řízení nicméně vinou chybného fungování zaviněného patrně špatně naprogramovanými algoritmy ponechal ve své paměti uložený poslední příkaz, kterým bylo prudké odbočení doleva. Když po více než dvou minutách bezpečnostní řidič na zcela rovném a přehledném úseku znovu aktivoval autonomní řízení, v paměti uložený starý příkaz okamžitě zahájil prudký manévr, kterým bylo odbočení doleva. Autonomní nákladní vozidlo jen těsně minulo pick-up v levém pruhu a narazilo do dělicí betonové zábrany. Bezpečnostní řidič sice bleskově zareagoval, ale vlivem patrně dalšího nepříliš dobře fungujícího systému nebyl schopný volant takzvaně přetlačit, a tedy kolizi zabránit. Pro detailnější seznámení s nehodou přikládáme dvě videa, která se incidentem do podrobností zabývají. Lze očekávat, že po ukončení vyšetřování budou učiněny ze strany úřadů adekvátní kroky. Připomeňme, že v nedávné době se s problematickou bezpečností svého systému autonomního řízení potýkala také čínská firma Pony.ai.