System do klasyfikacji emocji użytkownika w scenie dialogowej gry wideo – na podstawie analizy wzroku gracza – opracowali naukowcy z Politechniki Łódzkiej. Wykorzystują w nim Eye-Tracker, pozwalający na kontrolowanie komputera za pomocą wzroku użytkownika.
„Nasze rozwiązanie może znacząco wpłynąć na przyszłe sposoby interakcji człowiek – komputer oraz pozyskiwane przez maszyny informacje na temat użytkownika w grach wideo” – mówi PAP współtwórca rozwiązania mgr inż. Konrad Jadwiszczak z Wydziału Fizyki Technicznej, Informatyki i Matematyki Stosowanej PŁ.
Obecnie dzięki szybkiemu rozwojowi technologii oraz mocy obliczeniowej maszyn na rynek gier wprowadzane są nowe rozwiązania wspierające obsługę komputerów oraz konsol przez ruch ciała, zmysły oraz stany emocjonalne użytkownika.
„Pozwalają one na uzyskanie informacji nie tylko w formie zero–jedynkowej, jak mysz i klawiatura, ale także dodatkowych informacji na temat użytkownika. Takie rozwiązania wprowadzane w rozrywce multimedialnej wpływają znacząco na zjawisko immersji, czy głębokie zaangażowanie się użytkownika w rzeczywistość wirtualną” – wyjaśnił współtwórca systemu.
Jedynym z nich takich rozwiązań jest Eye–Tracking, które pozwala na kontrolowanie komputera za pomocą wzroku użytkownika. Można go jednak wykorzystać także do innych celów. System stworzony na Wydziale Fizyki Technicznej, Informatyki i Matematyki Stosowanej PŁ wykorzystuje Eye-Tracking do klasyfikacji emocji użytkownika w scenie dialogowej gry wideo na podstawie analizy wzroku gracza.
Według twórców systemu, bazując na cechach użytkownika tj. wielkość źrenicy oka czy częstotliwość mrugania oczami możliwe jest określenie aktualnego stanu emocjonalnego badanej osoby. Aby przenieść rozwiązanie do rozrywki multimedialnej mgr inż. Konrad Jadwiszczak i dr inż. Jarosław Andrzejczak stworzyli klasyfikator, który bazując na wartościach możliwych do odczytania przez Eye–Trackera jest w stanie rozpoznać aktualny stan emocjonalny badanej osoby.
Pozwala to wykorzystać uzyskaną informację w świecie wirtualnym, w tym przypadku stan emocjonalny, który ma wpływ na przebieg sceny dialogowej w grze wideo.
„Zaimplementowany algorytm decyduje o dalszym przebiegu rozmowy bazując nie tylko na opcjach wybranych przez użytkownika za pomocą tradycyjnego kontrolera, ale również na towarzyszących mu w danej chwili emocjach, często wywołanych przebiegiem dialogu w grze wideo” – zaznaczył dr inż. Jarosław Andrzejczak, współautor rozwiązania.
Naukowiec podaje przykład zastosowania systemu. Jeśli wypowiedź NPC, czyli postaci w grach wideo, w którą nie wciela się żaden z graczy, spowoduje u gracza zdziwienie, taka emocja zostanie rozpoznana przez stworzony klasyfikator.
„W wyniku tego postać, z którą rozmawiamy może zapytać nas dlaczego jesteśmy tym stwierdzeniem zaskoczeni. Analogiczne reakcje można przypisać do pozostałych rozpoznawanych emocji, dzięki czemu dialogi w grze wideo mogą być bardziej naturalne i wpływać pozytywnie na poczucie realizmu” – przekonuje dr Andrzejczak.
Badania wykazały znaczne zwiększenie immersji użytkownika w scenie dialogowej z użyciem Eye – Trackera w stosunku do sceny dialogowej bez wykorzystania urządzenia – dodają naukowcy.