Niemal połowa wypadków lotniczych – dokładnie 48% – wynika z nieodpowiedniego monitorowania krytycznych parametrów w kokpicie (Smart Eye, 2023). Ta statystyka pokazuje, gdzie tkwi prawdziwe wyzwanie współczesnego lotnictwa: nie w technologii samolotów, ale w sposobie, w jaki piloci przetwarzają lawinę informacji podczas lotu. Już w 1987 roku Geratewohl zauważył, że oko jest najważniejszym organem sensorycznym pilota, przetwarzającym aż 80% wszystkich informacji lotniczych. Dziś, gdy branża lotnicza stoi przed wyzwaniem podwojenia liczby pilotów w ciągu najbliższych 20 lat, potrzebujemy bardziej efektywnych metod szkolenia i monitorowania. Odpowiedzią może być eyetracking – technologia śledzenia wzroku, która w ostatniej dekadzie przeszła drogę od laboratoryjnego curiosum do praktycznego narzędzia transformującego sposób, w jaki szkolimy pilotów, projektujemy kokpity i zarządzamy bezpieczeństwem w lotnictwie.

Czym jest eyetracking i jak działa w lotnictwie?

Eyetracking, czyli okulografia lub śledzenie wzroku, to technologia wykorzystująca kamery podczerwieni do precyzyjnego śledzenia ruchów gałek ocznych. W kontekście lotniczym stosuje się przede wszystkim dwa rodzaje systemów. Pierwszy to remote eyetracking – bezkontaktowe systemy kamer montowane w symulatorze lub kokpicie, które śledzą wzrok pilota z odległości nawet 1,3 metra, nie wymagając noszenia żadnego sprzętu. Przykładem jest system Smart Eye Pro używany przez NASA, osiągający precyzję 0,5 stopnia – co w praktyce kokpitu przekłada się na dokładność wystarczającą do jednoznacznego określenia, na który wskaźnik patrzy pilot (Smart Eye, 2023). Drugi typ to mobile eye trackery – lekkie okulary wyposażone w miniaturowe kamery, idealne do badań w rzeczywistych warunkach lotu lub w wieży kontrolnej.

Ale prawdziwa moc eyetrackingu tkwi nie w samym śledzeniu spojrzenia, lecz w metrykach, które pozwalają zrozumieć procesy poznawcze pilota. Fiksacje – momenty, gdy wzrok zatrzymuje się na konkretnym elemencie – pokazują, gdzie i jak długo pilot przetwarza informację. Sakkady, czyli szybkie ruchy oczu między punktami fiksacji, ujawniają strategię skanowania kokpitu. Średnica źrenicy jest naturalnym wskaźnikiem obciążenia poznawczego – większa średnica oznacza wyższy wysiłek umysłowy. Badania pilotów śmigłowców podczas awaryjnego lądowania (autorotative glide) wykazały, że średnica źrenicy wzrasta z 5,229 mm podczas normalnego lotu do 5,326 mm w sytuacji krytycznej (He et al., 2024). Częstotliwość i czas trwania mrugnięć służą do wykrywania zmęczenia – krótsza częstotliwość mrugania często sygnalizuje narastające przeciążenie mentalne. Wreszcie dwell time (czas obserwacji) i scanpath (ścieżka wzroku) pozwalają porównać strategie doświadczonych pilotów z nowicjuszami.

Kluczowa różnica? Doświadczeni piloci wykonują więcej fiksacji, ale każda jest krótsza – potrafią szybciej wydobyć istotne informacje z każdego wskaźnika, co daje im więcej czasu na wykrycie potencjalnych problemów (Peissl et al., 2018).

Rewolucja w szkoleniu pilotów – od intuicji instruktora do obiektywnych danych

Tradycyjnie instruktor lotniczy siedzi z tyłu kokpitu symulatora, próbując ocenić, czy kandydat na pilota prawidłowo skanuje przyrządy. Problem? Nawet najlepszy instruktor może przeoczyć kluczowe momenty – szczególnie gdy jednocześnie steruje symulatorem, odgrywa kontrolera ruchu i monitoruje parametry lotu.

Tu pojawia się projekt iAssyst (Instructor Assistant System) – przełomowe rozwiązanie stworzone przez ETH Zurich we współpracy z NASA, Swiss Airlines i Lufthansa Aviation Training. System zainstalowany w symulatorze Airbusa A320 integruje wideo, audio i dane z symulatora, jednocześnie wyświetlając wzorce wzroku pilota w czasie rzeczywistym (Raubal et al., 2019). Instruktorzy mogą po zakończeniu sesji dokładnie przeanalizować, czy szkolący pilot patrzył na właściwe wskaźniki we właściwym momencie – na przykład czy podczas podchodzenia do lądowania przeniósł uwagę z PFD (Primary Flight Display – główny wskaźnik lotu) na widok z kokpitu dokładnie po ogłoszeniu „One hundred” przez kopilota.

Badania NASA przeprowadzone z 19 pilotami Boeing 737-700 ujawniły fascynujący wzorzec: piloci, którzy pomyślnie poradzili sobie z wyzwaniami monitorowania (np. kontrolą ograniczeń punktów nawigacyjnych czy wypuszczeniem klap w odpowiednim momencie), nie tylko patrzyli na obszary zawierające najistotniejsze informacje – także adaptowali swoją strategię wzroku do specyfiki zadania. W wyzwaniach związanych z punktami nawigacyjnymi skupiali się na ND (Navigation Display – wyświetlacz nawigacyjny), podczas kontroli prędkości dla wypuszczenia klap – na PFD (Lombaerts et al., 2021).

Korzyści biznesowe są wymierne. Po pierwsze, badania eyetrackingowe zapewniają obiektywną ocenę kompetencji – instruktor nie musi polegać wyłącznie na intuicji. Po drugie, możliwe staje się skrócenie czasu szkolenia poprzez szybszą identyfikację błędnych wzorców. Po trzecie, otwiera się droga do spersonalizowanych ścieżek treningowych – system może automatycznie wykryć, że dany pilot ma problem z monitorowaniem konkretnych wskaźników i dostosować program. Efekt końcowy to nie tylko lepiej przeszkoleni piloci, ale też znaczące oszczędności – pilot gotowy do lotu wcześniej to mniejsze koszty szkolenia i szybszy zwrot z inwestycji.

Wykrywanie zmęczenia pilota zanim dojdzie do błędu

Zmęczenie stanowi jedną z głównych przyczyn błędów w lotnictwie. Pilot może czuć się w pełni sprawny, gdy tymczasem jego mózg stopniowo traci zdolność do szybkiego przetwarzania informacji. Tradycyjne metody detekcji zmęczenia – kwestionariusze czy pomiary czasu reakcji – są albo subiektywne, albo inwazyjne, wymagające przerwania pracy.

Eyetracking oferuje rozwiązanie w czasie rzeczywistym. Kluczowa metryka to PERCLOS (Percentage of Eyelid Closure – procent zamknięcia powieki) – procent czasu w ciągu minuty, gdy oczy są zamknięte w co najmniej 80%. Badania pokazują, że jest to najbardziej wiarygodny wskaźnik senności kierowców i pilotów (Dinges & Grace, 1998). Podczas symulowanych długich lotów obserwuje się wydłużenie czasu trwania mrugnięć i spadek liczby reaktywnych sakkad – ruchów oczu reagujących na nieoczekiwane zdarzenia (Sirevaag et al., 1999).

Komercyjne rozwiązanie PilotReady, wykorzystywane przez NASA, Departament Obrony USA i DARPA, oferuje opatentowaną metodę oceny cognitive workload (obciążenia poznawczego). System analizuje nie tylko to, gdzie pilot patrzy, ale przede wszystkim jak ciężko musi myśleć podczas wykonywania zadań. Gdy obciążenie poznawcze jest zbyt wysokie, pilot znajduje się w strefie ryzyka – szczególnie jeśli pojawi się nieprzewidziana sytuacja (PilotReady, 2021).

Badanie 11 pilotów podczas symulowanego lotu wykazało, że kombinacja zmiennych związanych z HRV (Heart Rate Variability – zmienność rytmu serca) i wskaźników okulograficznych pozwala na automatyczne wykrycie zmęczenia mentalnego z wysoką skutecznością za pomocą uczenia maszynowego (Qin et al., 2021). Kluczem jest multimodalność – eyetracking sam w sobie jest potężnym narzędziem, ale w połączeniu z innymi sygnałami fizjologicznymi tworzy kompleksowy system wczesnego ostrzegania.

Biznesowy wymiar jest oczywisty: wczesne wykrycie zmęczenia prowadzi do prewencji, która z kolei pozwala uniknąć wypadków i oszczędzić setki milionów dolarów – a przede wszystkim uratować ludzkie życie.

Projektowanie kokpitów przyszłości – gdy dane z eyetrackingu kształtują design

Każdy element w kokpicie samolotu został zaprojektowany z myślą o bezpieczeństwie i efektywności. Ale czy rzeczywiście działa tak, jak przewidywali projektanci? Eyetracking pozwala to zweryfikować z bezprecedensową precyzją.

Badania przeprowadzone przez CSIR-NAL w Indiach z wykorzystaniem systemu SmartEye Pro w symulatorze lotu ujawniły konkretne problemy projektowe. Analizując heat mapy (mapy cieplne) pokazujące, gdzie pilot najczęściej koncentruje wzrok, oraz dwell time na poszczególnych AOI (Areas of Interest – obszarach zainteresowania), można zidentyfikować elementy interfejsu powodujące zamieszanie lub ignorowane przez pilotów (Babu et al., 2021).

Przykład? Badania systemów wyświetlania syntetycznej wizji w UAV (Unmanned Aerial Vehicles – bezzałogowych statkach powietrznych) wykazały, że ruchome pola tekstowe pokazujące prędkość, wysokość i kąt natarcia w dronie RQ-1 Predator powodowały znacznie dłuższe czasy fiksacji w porównaniu do tradycyjnego układu wskaźników. Przyczyna? Pilot musiał „gonić wzrokiem” za przemieszczającymi się danymi zamiast skanować statyczne, przewidywalne położenie przyrządów (Peissl et al., 2018).

Zaawansowane badania nad kokpitami myśliwców szóstej generacji prowadzone przez BAE Systems pokazują kierunek rozwoju technologii. Inżynierowie Jacob Greene i Lucy Crabb testują integrację eyetrackingu z AR (Augmented Reality – rozszerzoną rzeczywistością), wyświetlaczami HUD (Head-Up Display – wyświetlacz przezierny), haptyką ciała i wearables (technologią noszalną). Badanie 21 pilotów w scenariuszu SPO (Single Pilot Operations – operacje jednoosobowe) z AR-HUD wykazało, że rozszerzona rzeczywistość zapewnia bardziej równomierny rozkład uwagi między przyrządami a widokiem zewnętrznym, jednocześnie osiągając optymalne poziomy obciążenia poznawczego i świadomości sytuacyjnej (Li et al., 2023).

Co więcej, eyetracking może służyć jako urządzenie wejściowe – pilot wybiera opcje menu lub elementy sterowania samym wzrokiem. BAE Systems bada możliwość użycia eyetrackingu do kontroli autonomicznych systemów w przyszłych myśliwcach (Royal Aeronautical Society, 2024).

Korzyści dla producentów są wymierne: lepszy design kokpitu przekłada się na mniejszą liczbę błędów operacyjnych, co zwiększa bezpieczeństwo i wzmacnia pozycję konkurencyjną na rynku.

Kontrolerzy ruchu lotniczego – zarządzanie złożonością w czasie rzeczywistym

Jeśli kokpit samolotu stanowi wyzwanie dla wzroku pilota, to ekran radarowy kontrolera ruchu lotniczego (ATC – Air Traffic Controller) to już prawdziwy labirynt. Kontrolerzy muszą nieustannie śledzić dziesiątki dynamicznie poruszających się celów, przewidywać konflikty, wydawać komendy – wszystko to pod presją czasu i przy pełnej świadomości odpowiedzialności za bezpieczeństwo pasażerów.

Badania z wykorzystaniem eyetrackingu ujawniają fascynujące różnice między ekspertami a nowicjuszami. Analiza 25 doświadczonych kontrolerów z Indianapolis ARTCC (Air Route Traffic Control Center – centrum kontroli ruchu lotniczego) wykazała, że eksperci stosują bardziej efektywne strategie wyszukiwania – ich wzorce skanowania (scanpaths) są bardziej systematyczne, a fiksacje częstsze ale krótsze, co pozwala na szybszą identyfikację potencjalnych konfliktów (Kang et al., 2016).

Badanie prowadzone przez Nanyang Technological University z 30 uczestnikami trzech poziomów doświadczenia pokazało, że można mapować fiksacje kontrolera na dynamicznie poruszające się obiekty (samoloty) na ekranie radarowym w czasie rzeczywistym. Na podstawie liczby i czasu trwania fiksacji na poszczególnych samolotach możliwe jest rozróżnienie poziomu ekspertyzy kontrolera (Wee et al., 2020).

Praktyczne zastosowanie? Swedish Civil Aviation Administration wykorzystała przenośne eye trackery do nagrywania kontrolerów podczas wykonywania normalnych zadań w rzeczywistej wieży kontrolnej. Po sesji zespół badawczy odtwarzał nagrania i zadawał pytania, aby w pełni zrozumieć, które elementy pracy powodowały zamieszanie lub wahanie. Efekt? Identyfikacja szczegółów procesów pracy i interakcji między systemem a operatorem, które wymagały poprawek (Tobii, 2023).

Szczególne wyzwanie stanowią remote towers (zdalne wieże kontrolne), gdzie kontroler nie patrzy przez okno, ale na ekrany kamer. Badanie 36 uczestników podczas 60-minutowej symulacji wykazało, że wirtualizacja informacji może potęgować zmęczenie wzrokowe. System oparty na multimodalnych sygnałach fizjologicznych – eyetracking (ET), EEG (elektroencefalografia), ECG (elektrokardiografia) i EDA (aktywność elektrodermalna) – przy użyciu algorytmu LightGBM osiągnął wysoką skuteczność w rozpoznawaniu stanów zmęczenia (Zhang et al., 2025).

Technologie na rynku – od gigantów po specjalistyczne rozwiązania

Rynek eye trackerów dla lotnictwa jest już dojrzały i oferuje rozwiązania dla różnych potrzeb i budżetów. Smart Eye, szwedzka firma z ponad 20-letnim doświadczeniem, dostarcza systemy zainstalowane m.in. w NASA Flight Deck Simulators oraz Research Flight Deck. Ich flagowy produkt Smart Eye Pro oferuje zdalny tracking 3D z wielu kamer, precyzję 0.5° i częstotliwość próbkowania 60 Hz, co czyni go idealnym dla symulatorów lotniczych (Smart Eye, 2023).

Tobii, szwedzki lider rynku, oferuje zarówno remote eye trackery (seria Tobii Pro), jak i wearables – okulary Tobii Pro Glasses 3 ze 100 Hz samplingiem, świetnie sprawdzające się w badaniach kontrolerów ATC w rzeczywistych wieżach kontrolnych.

PilotReady to wyspecjalizowane rozwiązanie skupiające się wyłącznie na ocenie obciążenia poznawczego pilotów. Ich opatentowana technologia, rozwijana przez dwie dekady we współpracy z NASA i DARPA, pozwala określić, kiedy zadanie staje się zbyt trudne dla pilota – nawet jeśli formalnie wykonuje je poprawnie.

Dla firm planujących wdrożenie eyetrackingu w symulatorach czy laboratoriach badawczych kluczowe parametry to:

  • Sampling rate (częstotliwość próbkowania): 60-300 Hz – wyższe wartości dla badań naukowych, niższe wystarczają dla aplikacji treningowych
  • Dokładność: 0.5° jest wystarczające dla kokpitu, <0.3° dla precyzyjnych badań naukowych
  • Remote vs. mobile: systemy zdalne nie obciążają użytkownika, mobile oferują mobilność
  • Integracja: kluczowa jest synchronizacja czasowa z symulatorami i innymi systemami pomiarowymi

Firmy takie jak EyeTracking Solutions oferują kompleksowe wsparcie – od doboru odpowiednich eye trackerów (Tobii, Smart Eye i innych), przez budowę laboratoriów badawczych, po przeprowadzenie dedykowanych badań eyetrackingowych dopasowanych do specyfiki procesów lotniczych.

Wyzwania i przyszłość – dokąd zmierza eyetracking w lotnictwie?

Mimo znaczącego potencjału eyetracking w lotnictwie wciąż napotyka bariery. Największym wyzwaniem jest czasochłonność preprocessingu – przygotowania surowych danych do analizy. Identyfikacja fiksacji, sakkad, filtrowanie artefaktów związanych z ruchami głowy czy mruganiami to procesy, które mogą trwać godziny. To ogranicza aplikacje w czasie rzeczywistym, choć już pojawiają się algorytmy AI przyspieszające ten proces.

Drugi czynnik to koszt implementacji. Profesjonalne systemy remote eyetrackingu wciąż kosztują dziesiątki tysięcy dolarów. Jednak ceny systematycznie spadają – mobile eye trackery są już dostępne poniżej 10 tys. USD, a pojawienie się konsumenckich rozwiązań z kamerami 3D może dalej demokratyzować technologię.

Przyszłość eyetrackingu w lotnictwie rozwija się w trzech głównych kierunkach. Po pierwsze – AI i uczenie maszynowe. Algorytmy SVM (Support Vector Machine – maszyna wektorów nośnych), Random Forest (las losowy) czy LightGBM już teraz potrafią automatycznie klasyfikować stany poznawcze pilota i przewidywać zmęczenie z dokładnością przekraczającą 85-97% (Zhang et al., 2024; Wee et al., 2020). W najbliższych latach systemy staną się jeszcze bardziej precyzyjne i szybsze.

Po drugie – multimodalne systemy. Połączenie eyetrackingu z EEG, ECG, analizą głosu czy wearables daje holistyczny obraz stanu operatora. Badania już pokazują, że taka fuzja danych przewyższa możliwości pojedynczych metod (Qin et al., 2021).

Po trzecie – adaptive automation (automatyka adaptacyjna). Przyszłe kokpity będą mogły monitorować stan poznawczy pilota i automatycznie dostosowywać poziom wsparcia – gdy system wykryje przeciążenie, sam przejmie mniej krytyczne zadania. Lub system treningowy, który w locie modyfikuje trudność scenariusza w zależności od rzeczywistych możliwości ucznia. BAE Systems już testuje takie rozwiązania dla myśliwców szóstej generacji (Royal Aeronautical Society, 2024).

Wreszcie – nowe obszary zastosowań. Obecnie 76,4% badań eyetrackingowych w lotnictwie dotyczy pilotów, 20,8% kontrolerów ruchu, a jedynie 2,8% operatorów UAV (Li et al., 2023). Praktycznie nie ma badań nad personelem MRO (maintenance, repair, overhaul – konserwacja, naprawa, remont) czy ekipami naziemnymi. Wraz z rozwojem Urban Air Mobility (mobilności powietrznej w miastach) pojawią się zupełnie nowe aplikacje. To ogromne pole dla ośrodków badawczych i firm komercyjnych.

Podsumowanie

Eyetracking w lotnictwie przeszedł drogę od akademickiego eksperymentu do dojrzałej technologii transformującej sposób, w jaki szkolimy pilotów, projektujemy kokpity i zarządzamy bezpieczeństwem. Gdy Geratewohl w 1987 roku napisał, że oko przetwarza 80% informacji lotniczych, nie miał narzędzi, by to zmierzyć. Dziś mamy.

Dla decydentów w firmach lotniczych to inwestycja w wymierny ROI: lepsza efektywność szkoleń, mniej wypadków, optymalne projektowanie. Dla ośrodków badawczych i uczelni technicznych to rozwijająca się dziedzina z lukami badawczymi i możliwościami współpracy międzynarodowej na poziomie NASA czy ETH Zurich. Dla firm komercyjnych oferujących badania eyetrackingowe to rosnący rynek z konkretnymi potrzebami – od symulatorów po wieże kontrolne.

EyeTracking Solutions wspiera organizacje lotnicze w wykorzystaniu potencjału tej technologii – od budowy laboratoriów badawczych po przeprowadzenie dedykowanych badań usprawniających procesy treningowe i operacyjne.

Technologia jest gotowa. Pytanie brzmi: czy jesteś gotowy, by zobaczyć to, czego dotąd nie widziałeś?

Zainteresowany zastosowaniem eyetrackingu w Twojej organizacji? Skontaktuj się z nami, aby umówić konsultację i dowiedzieć się, jak badania eyetrackingowe mogą usprawnić Twoje procesy lotnicze.

Bibliografia

Babu, M. D., et al. (2021). Using Eye Tracker to Evaluate Cockpit Design — A Flight Simulation Study. arXiv preprint. https://arxiv.org/pdf/2106.07408

Dinges, D., & Grace, R. (1998). PERCLOS: A Valid Psychophysiological Measure of Alertness. FHWA-MCRT-98-006.

He, Y., et al. (2024). Spying with a pilot’s eye: Using eyetracking to investigate pilots’ attention allocation and workload during helicopter autorotative gliding. Heliyon. https://www.sciencedirect.com/science/article/pii/S2405844024119032

Kang, Z., et al. (2016). Characterization of Visual Scanning Patterns in Air Traffic Control. PMC. https://pmc.ncbi.nlm.nih.gov/articles/PMC4838798/

Li, W., et al. (2023). Leveraging eye-tracking technologies to promote aviation safety – A review of key aspects, challenges, and future perspectives. Safety Science. https://www.sciencedirect.com/science/article/abs/pii/S0925753523002370

Lombaerts, T., et al. (2021). Eye-Tracking Analysis from a Flight-Director-Use and Pilot-Monitoring Study. NASA Technical Reports. https://ntrs.nasa.gov/citations/20210018582

Martinez-Marquez, D., et al. (2021). Application of eyetracking Technology in Aviation, Maritime, and Construction Industries: A Systematic Review. PMC. https://pmc.ncbi.nlm.nih.gov/articles/PMC8271947/

Peissl, S., et al. (2018). Eye-Tracking Measures in Aviation: A Selective Literature Review. International Journal of Aerospace Psychology. https://www.tandfonline.com/doi/full/10.1080/24721840.2018.1514978

PilotReady (2021). Cognitive workload assessment for pilot training. https://www.eyetracking.com/pilotready/

Qin, H., et al. (2021). Detection of mental fatigue state using heart rate variability and eye metrics during simulated flight. Human Factors and Ergonomics in Manufacturing. https://onlinelibrary.wiley.com/doi/abs/10.1002/hfm.20927

Raubal, M., et al. (2019). Tracking the eye of the pilot. ETH Zurich News. https://ethz.ch/en/news-and-events/eth-news/news/2019/11/tracking-the-eye-of-the-pilot.html

Royal Aeronautical Society (2024). Future cockpits – flying with the blink of an eye. https://www.aerosociety.com/news/future-cockpits-flying-with-the-blink-of-an-eye/

Sirevaag, E. J., et al. (1999). Performance and physiological measures of oculomotor activity during low-level flight. Aviation, Space, and Environmental Medicine.

Smart Eye (2023). Aviation & Aerospace Solutions. https://www.smarteye.se/solutions/behavioral-research/aviation-aerospace/

Tobii (2023). Assessing air traffic controllers using eyetracking. https://www.tobii.com/resource-center/customer-stories/human-factors-research-benefits-system-design

Wee, H. J., et al. (2020). Monitoring Performance Measures for Radar Air Traffic Controllers Using eyetracking Techniques. Springer. https://link.springer.com/chapter/10.1007/978-3-030-20503-4_65

Zhang, Y., et al. (2025). Modeling Visual Fatigue in Remote Tower Air Traffic Controllers. Aerospace. https://www.mdpi.com/2226-4310/12/6/474

Zhang, Y., et al. (2024). Fatigue Detection of Air Traffic Controllers Through Their Eye Movements. Aerospace. https://www.mdpi.com/2226-4310/11/12/981

Ziv, G. (2016). Gaze Behavior and Visual Attention: A Review of eyetracking Studies in Aviation. International Journal of Aviation Psychology.