Tesla tuvākajā laikā plāno satiksmē iesaistīt vairākus tā dēvētos robotaksi. Runa nav par pērn prezentēto CyberCab koncepciju, bet gan par parastiem Model Y, kuros darbosies kāda no Full Self-Driving (FSD) programmatūras versijām. Tomēr jaunākais neatkarīgais izmēģinājums liecina, ka drošības jautājumi reālās pilsētas situācijās joprojām ir aktuāli, īpaši gadījumos, kad auto obligāti jāapstājas, lai ļautu bērniem izkāpt no skolēnu autobusa.
- 1.Tests ar skolēnu autobusu un bērna manekenu
- 2.Par risku esot brīdināts jau iepriekš
- 3.Reāls negadījums ar Model Y un aizdomas par palīgsistēmu iesaisti
- 4.Kāpēc tas ir īpaši svarīgi, plānojot robotaksi pilsētā
- 5.Kritika avotam un atbildības jautājums
- 6.Programmas kļūda auto nav tas pats, kas kļūda telefonā
Tests ar skolēnu autobusu un bērna manekenu
Drošības organizācija The Dawn Project, kas saistīta ar programmatūras inženieri Denu O’Doudu, publicēja testa rezultātus, kuros Model Y ar FSD 13.2.9 pabrauc garām apstājušam skolēnu autobusam ar ieslēgtām sarkanajām signālgaismām un izlaistu STOP zīmi. Pārbaudē automobiļa braukšanas trajektorijā tika izstumts bērna augumam atbilstošs manekens, lai noskaidrotu, vai sistēma reaģēs ar apstāšanos.
Automašīna neapstājās un no manekena neizvairījās, kā arī nepiebremzēja, bet vienkārši uzbrauca šķērslim. Būtiski, ka problēma nebija tikai neredzēšana: pēc testa apraksta sistēma manekenu identificēja un klasificēja kā gājēju, taču bremzēšanas darbība tāpat netika ierosināta.
Par risku esot brīdināts jau iepriekš
The Dawn Project norāda, ka Tesla par FSD grūtībām apstāties pie skolēnu autobusiem un līdzīgiem objektiem esot informēta jau aptuveni pirms divarpus gadiem. Šis jautājums ticis izcelts arī iepriekšējās publiskajās kampaņās, uzsverot, ka šādas kļūdas reālā satiksmē var novest līdz traumām.
Reāls negadījums ar Model Y un aizdomas par palīgsistēmu iesaisti
Tekstā tiek atgādināts arī gadījums, kurā Tesla Model Y notrieca skolēnu, kas izkāpa no skolēnu autobusa. Izmeklētāji pieļāva, ka negadījuma brīdī varēja būt aktivizēts Autopilot vai Full Self-Driving. Cietušais guva dzīvībai bīstamas traumas, tika steidzami nogādāts slimnīcā un izdzīvoja, taču ievainojumi bija smagi, tostarp kakla lūzums un kājas lūzums. Šis incidents tiek minēts kā viens no piemēriem, kad Tesla automobilis neapstājās situācijā, kur tas bija nepieciešams.
Kāpēc tas ir īpaši svarīgi, plānojot robotaksi pilsētā
Ja Full Self-Driving sistēmu izmantotu tikai uz automaģistrālēm, līdzīgi kā daļu citu vadītāja atbalsta risinājumu, sistēmas nespēja vienmēr droši reaģēt uz apstādinātiem transportlīdzekļiem vai operatīvo dienestu auto joprojām būtu būtiska problēma. Taču, ņemot vērā ieceri tuvākajā laikā izmantot Model Y kā robotaksi pilsētas ielās, prasības situāciju atpazīšanai un bremzēšanas uzticamībai kļūst vēl stingrākas.
Kritika avotam un atbildības jautājums
Tiek atzīts, ka The Dawn Project un Dens O’Douda publiski asi kritizē Tesla, tāpēc daļa auditorijas šādus testus mēdz uzskatīt par neobjektīviem. Vienlaikus tiek uzsvērts, ka video materiāls parāda rezultātu pašu par sevi: automobilis neapstājās un notrieca bērna izmēra manekenu. Tekstā tiek uzdots jautājums, kāpēc līdz šim nav redzamas juridiskas darbības, ja izmēģinājumi būtu acīmredzami safabricēti un kaitētu reputācijai.
Blakus tiek pieminēts vēl viens iepriekš plaši apspriests piemērs, kurā satura veidotājs Marks Robers veica testu, un tā laikā Tesla ietriecās mākslīgā šķērslī, kas imitēja ceļu. Teksta doma ir tāda, ka arī pēc šādiem skaļi apspriestiem gadījumiem publiski redzami tiesvedības procesi nav sekojuši, lai gan sabiedrībā regulāri rodas strīdi par testu metodiku.
Programmas kļūda auto nav tas pats, kas kļūda telefonā
Noslēgumā uzsvērta atšķirība starp kļūdām ikdienas lietotnēs un kļūdām sistēmās, kas pieņem lēmumus reālajā ceļu satiksmē. Ja viedtālruņa lietotne nestrādā, parasti tas nozīmē vien neērtības. Savukārt braukšanas automatizācija, kas kļūdās kritiskā brīdī, var radīt tiešus draudus cilvēku veselībai un dzīvībai, īpaši situācijās ar bērniem un obligātu apstāšanos pie skolēnu autobusa.
- Testā fiksēts, ka Model Y ar FSD 13.2.9 pabrauca garām apstājušam skolēnu autobusam un neapstājās pirms bērna auguma manekena.
- Tiek apgalvots, ka sistēma manekenu identificēja kā gājēju, tomēr bremzēšanu neuzsāka.
- Atgādināts reāls gadījums, kur Model Y notrieca skolēnu, kas izkāpa no autobusa, un izmeklētāji pieļāva vadītāja palīgsistēmu ieslēgšanu.
- Plānojot robotaksi pakalpojumu pilsētas satiksmē, šāda tipa uzvedība drošības ziņā ir īpaši jutīga.
- Uzsverts, ka kļūdas automobiļu autonomās vadības programmatūrā rada būtiski smagākas sekas nekā tipiski lietotņu darbības traucējumi.




