Wielkoformatowy baner reklamowy z wizerunkiem pieszego zatrzymał autonomiczny pojazd testowy w połowie skrzyżowania. Inny przypadek: algorytm zignorował rowerzystę jadącego tyłem do kierunku ruchu, bo taki obiekt po prostu nie istniał w zbiorze treningowym. To nie spekulacje — to udokumentowane incydenty, które pokazują, że maszyna postrzega świat fundamentalnie inaczej niż człowiek. I czasem postrzega go błędnie.
LiDAR gubi się w deszczu, mgle i śniegu
Mało kto spodziewa się, że technologia warta dziesiątki tysięcy dolarów może zostać pokonana przez zwykłą kropiącą mżawkę. A jednak — LiDAR, uznawany za najbardziej precyzyjny czujnik w arsenale pojazdów autonomicznych, ma fatalną słabość: warunki atmosferyczne rozbijają go skuteczniej niż jakikolwiek inny czynnik.
Najczęstsze błędy LiDAR-u w trudnych warunkach:
| Warunek atmosferyczny | Typ błędu | Skutek dla systemu |
| Deszcz powyżej 20 mm/h | Fałszywe wykrycia | Gwałtowne hamowanie |
| Gęsta mgła | Utrata konturów obiektów | Niedoszacowanie odległości |
| Intensywny śnieg | Zaślepienie czujnika | Brak mapy otoczenia |
| Mokra nawierzchnia | Odbicia jako przeszkody | Phantom braking |
| Pobliskie pojazdy z LiDAR-em | Interferencja wiązek | Zniekształcenie mapy 3D |
Ciemne obiekty wprowadzają osobną kategorię błędów — pochłaniają wiązki laserowe zamiast je odbijać. Czarny samochód na mokrej drodze nocą to dla LiDAR-u obiekt niemal niewidoczny. Testy z pierwszej dekady autonomii udokumentowały kilkadziesiąt incydentów właśnie z tego powodu.
Jak deszcz oszukuje laser?
LiDAR emituje tysiące impulsów laserowych na sekundę i mierzy czas ich powrotu, budując trójwymiarową mapę otoczenia z dokładnością do centymetra. Problem polega na tym, że kropla deszczu rozprасza wiązkę laserową dokładnie tak samo jak fizyczna przeszkoda. Dla algorytmu każda kropla może stać się "obiektem" wartym uwagi — powstaje efekt ducha, czyli wykrywanie przeszkód, których nie ma.
Podobnie jak użytkownik szukający wiarygodnej platformy sprawdza dostępne opcje — na przykład przeglądając nv casino pl przed rejestracją, by upewnić się, że system działa zgodnie z oczekiwaniami — tak algorytm percepcji powinien weryfikować wiarygodność każdego odczytu sensorycznego. W praktyce weryfikacja ta zawodzi właśnie przy anomaliach pogodowych.
Kamery ślepną przy słońcu i w tunelach
Kamera jest czujnikiem pozornie najbliższym ludzkiemu oku — rejestruje obraz w kolorze, rozpoznaje sygnalizację świetlną, odczytuje znaki drogowe. Ta "ludzkość" jest jednak jednocześnie jej główną słabością: kamera dziedziczy wszystkie ograniczenia biologicznego wzroku, nie dziedzicząc przy tym jego adaptacyjności. Słońce o wschodzie lub zachodzie może całkowicie oślepić matrycę kamery. Wyjazd z tunelu na jasną drogę wymaga adaptacji: oko trwa ułamek sekundy, kamera kilka klatek. Przy 100 km/h to kilkadziesiąt metrów jazdy bez danych wizualnych.
Podobnie jak systemy wizyjne w motoryzacji wymagają elastyczności w różnych warunkach, tak Aplikacja NV Casino została zaprojektowana, by błyskawicznie dostosowywać się do użytkownika — niezależnie od urządzenia, oświetlenia czy prędkości połączenia internetowego.
Radar widzi, ale nie rozumie kształtów
Radar jest czujnikiem, który na papierze wygląda idealnie: działa w każdych warunkach atmosferycznych, wykrywa obiekty przez mgłę, deszcz i śnieg, mierzy prędkość z precyzją niemożliwą dla kamery. Jego fundamentalna wada kryje się gdzie indziej — radar widzi obecność obiektu, ale prawie nic o jego geometrii.
Niska rozdzielczość angularna jako źródło pomyłek
Rozdzielczość angularna radaru samochodowego wynosi zazwyczaj kilka stopni. Oznacza to, że rower, pieszy i metalowy słupek ogrodzeniowy mogą generować sygnał o identycznych parametrach. Algorytm klasyfikacji musi wtedy polegać na dodatkowych danych — prędkości obiektu, kontekście sceny, historii śledzenia.
Najczęstsze pomyłki klasyfikacyjne systemów radarowych:
- Nierozróżnialność rowerzysty i słupka przy prędkości zbliżonej do zera;
- Fałszywe alarmy generowane przez metalowe pokrywy studzienek;
- Mosty i wiadukty wykrywane jako pojazdy stojące na pasie ruchu;
- Zagubienie śladu obiektu przy nagłej zmianie jego prędkości;
- Interferencja między radarami pojazdów jadących z naprzeciwka.
Fuzja sensoryczna mnoży błędy zamiast je eliminować
Połączenie LiDAR-u, kamer i radaru miało być odpowiedzią na słabości każdego czujnika z osobna. Fuzja sensoryczna działa jednak na zasadzie łańcucha — i jest tak mocna, jak jego najsłabsze ogniwo. Co gorsza, wprowadza nową kategorię błędów: konflikty między czujnikami, których algorytm nie potrafi rozstrzygnąć.
Desynchronizacja i dryf kalibracyjny
Przy prędkości 100 km/h pojazd pokonuje 28 metrów na sekundę. Desynchronizacja danych między czujnikami rzędu 50 milisekund oznacza, że algorytm łączy informacje opisujące dwie różne chwile i dwie różne pozycje obiektu. Dryf kalibracyjny — stopniowe rozjustowanie czujników po wibracji, uderzeniu lub zmianie temperatury — sprawia, że mapy 3D z różnych źródeł przestają na siebie nakładać się poprawnie.
Główne źródła błędów w procesie fuzji danych:
| Źródło błędu | Mechanizm | Skutek operacyjny |
| Desynchronizacja czasowa | Dane z różnych chwil | Błędna pozycja obiektu |
| Martwe strefy między sektorami | Luki w pokryciu kątowym | Niezauważony obiekt |
| Dryf kalibracyjny | Niezsynchronizowane mapy | Dublowanie obiektów |
| Propagacja błędu | Jeden zły odczyt zaburza sieć | Kaskadowe decyzje błędne |
| Brak kontekstu semantycznego | Obiekty bez znaczenia | Brak priorytetu zagrożeń |
Gdy LiDAR widzi przeszkodę, a radar nie — system musi podjąć decyzję w czasie rzeczywistym, któremu czujnikowi przyznać wyższy priorytet. Wagi tych decyzji są ustalane podczas kalibracji i treningu, co oznacza, że każdy scenariusz nieprzewidziany w fazie projektowania staje się potencjalnym punktem awarii.
Dlaczego autonomia zaczyna się od sensu, nie od sensorów?
Człowiek za kierownicą nie tylko widzi rowerzystę — rozumie, że jedzie niepewnie, że zaraz może skręcić, że reaguje na kontakt wzrokowy. Pojazd autonomiczny widzi obiekt o określonych wymiarach, prędkości i współczynniku odbicia. Ta przepaść semantyczna jest największą nierozwiązaną barierą na drodze do pełnej autonomii.
Czujniki będą coraz lepsze — wyższe rozdzielczości, większe zasięgi, niższe ceny. Jednak prawdziwy przełom nie nastąpi przez ulepszenie sprzętu, lecz przez zmianę sposobu, w jaki maszyna interpretuje dane. Percepcja to nie rejestrowanie sygnałów. To rozumienie kontekstu, intencji i nieprzewidywalności świata, w którym jeżdżą nie tylko algorytmy, ale przede wszystkim ludzie.
