iMotions 11 to nowy standard w analizie ludzkich zachowań. Szybsze przetwarzanie danych, inteligentna automatyzacja i nowy panel wizualizacji sprawiają, że zobaczysz więcej niż kiedykolwiek wcześniej. Zintegrowane pomiary fNIRS, eye trackingu, mimiki, głosu i fizjologii pozwalają odkrywać prawdziwe emocje i reakcje — w laboratorium, w terenie i online.

Premiera
iMotions 11

Nowe funkcje w iMotions Lab 11
Dwadzieścia lat innowacji w badaniach ludzkich zachowań. Ta wersja wprowadza zaawansowane narzędzia, inteligentniejszą automatyzację i głębszą integrację urządzeń, wszystko po to, by dać badaczom przewagę w pracy z danymi multimodalnymi.
-
Moduł fNIRS
We współpracy z firmą Artinis wprowadziliśmy natywną integrację z technologią fNIRS. Teraz możesz rejestrować dane fNIRS bezpośrednio w iMotions oraz eksportować je w formacie SNIRF. To otwiera nowe możliwości łączenia danych neuronalnych z behawioralnymi.
-
Panel wizualizacji danych
Nowe narzędzie analityczne, które rozszerza możliwości wizualizacji danych. Możesz tworzyć różne typy wykresów — słupkowe, punktowe i kołowe — oraz dostosowywać ich wygląd. Dostępny jest import metryk multimodalnych lub zagregowanych danych AOI, a także wybór konkretnych przedziałów lub obszarów do porównania.
-
Ankiety
Moduł ankiet został ulepszony — wprowadzono inteligentną logikę przejść (Skip Logic), bogatsze formatowanie i automatyczne tworzenie obszarów AOI. Można dodawać obrazy i filmy, także w badaniach zdalnych, a eksport danych automatycznie oznacza każdy bodziec, co ułatwia analizę.
-
Pomiar oddechu przez kamerę
Od wersji 10 dostępny jest moduł Webcam Respiration, umożliwiający bezkontaktowy pomiar oddechu w badaniach online. Pozwala to prowadzić zdalne eksperymenty z pełnym zestawem danych fizjologicznych.
-
Notatniki R (R Notebooks)
Notatniki R przekształcają sygnały z urządzeń w metryki wykorzystywane w badaniach. W najnowszej wersji dodano nowe wskaźniki dla analizy mimiki, głosu i EKG:
- Analiza wyrazu twarzy: Mowa, Adaptacyjne Zaangażowanie, Adaptacyjna Walencja.
- Analiza głosu: Średni poziom gniewu, szczęścia, neutralności, smutku, aktywacji, dominacji i walencji.
- EKG: Wsparcie dla fotopletyzmografii (PPG, dla urządzeń Plux) umożliwiającej pomiar zmian objętości krwi przy użyciu światła.
Dodano też metrykę Missed Peaks Count oraz obsługę mrugnięć dla HTC Focus Vision i Meta Quest Pro. Przetwarzanie danych w notatnikach R jest teraz znacznie szybsze dzięki usprawnieniom obliczeń.
-
Notatnik akcelerometru
Nowy Accelerometry Notebook umożliwia detekcję ruchu na podstawie danych z trzech osi. Obsługuje Shimmer, okulary Neon Eye Tracking i Pupil Invisible — idealny do wykrywania anomalii lub precyzyjnego momentu ruchu.
-
Wielotwarzowa analiza emocji
Moduł Facial Expression Add-on z technologią Affectiva umożliwia śledzenie i analizę emocji wielu osób jednocześnie — doskonały do badań wideokonferencji i interakcji grupowych.
-
Odtwarzanie wielu bodźców
Oś czasu Multi-Stimulus Replay pozwala wizualizować pełną ekspozycję respondenta — sygnały, adnotacje i zdarzenia — w jednym ciągłym widoku.
-
Ulepszone przetwarzanie wideo
Automatyczne wykrywanie scen i generowanie opisów za pomocą modelu językowo-wizyjnego oraz rozmywanie twarzy dla pełnej anonimowości uczestników badań.
-
Auto AOI
Funkcja Auto AOI obsługuje teraz dynamiczne kształty (elipsy i wielokąty), bodźce statyczne i zapewnia większą precyzję działania.
-
Zbiorcze eksporty multimodalne
Łącz dane ze wszystkich uczestników i notatników w jednym pliku w formacie „long”, idealnym do analizy za pomocą filtrów i tabel przestawnych.
-
Usprawnienia interfejsu
Nowe wyszukiwanie badań po nazwie, przełączanie między punktami końcowymi AssemblyAI EU / non-EU, dynamiczne dane o urządzeniach przez API iMotions oraz udoskonalone menu kontekstowe.
-
Pozostałe aktualizacje
Mapowanie spojrzeń uwzględnia teraz śledzenie zdarzeń myszy, eksport wyników kalibracji oraz import badań z iMotions Online bezpośrednio do wersji lokalnej.