Badania nad wirtualnym tłumaczem języka migowego

Wirtualny tłumacz języka migowego mógłby znacznie uprościć komunikację z osobami głuchoniemymi. Aby jednak taki system mógł powstać, trzeba m.in. zgromadzić ogromny zasób danych i zaprojektować odpowiednie algorytmy - wyjaśnia dr inż. Jakub Gałka z Akademii Górniczo-Hutniczej w Krakowie.

Projekt "Wirtualny tłumacz komunikacji migowej" AGH oraz firmy Unico Software rozpocznie się jesienią tego roku i finansowany będzie w ramach Programu Badań Stosowanych Narodowego Centrum Badań i Rozwoju (NCBR).

- Będziemy badać, jakie technologie można tu zastosować. Chcemy opracować m.in. metody pozyskiwania, przetwarzania i interpretowania obrazu wideo czy sygnału dźwiękowego - mówi kierownik projektu, dr inż. Jakub Gałka z Wydziału Informatyki, Elektroniki i Telekomunikacji AGH.

Wirtualny tłumacz mógłby być doradcą głuchoniemych tam, gdzie używa się do komunikacji mowy, ale mógłby być także pomocny osobom zdrowym w komunikacji z niesłyszącymi. - Wyobrażamy sobie np. aplikację bankową, która pomagałaby osobom niesłyszącym w załatwieniu spraw - zaznacza naukowiec. Osoby głuchonieme mogłyby wyjaśnić pracownikom banku jakąś kwestię językiem migowym, a system komputerowy szybko przełożyłby ten komunikat na tekst w języku polskim i przeczytałby go np. za pomocą syntezatora mowy. Tłumacz działałby też w drugą stronę - komputer przekształcałby mówiony język polski na język migowy, który byłby prezentowany na ekranie przez awatar - animowaną postać.

Kierownik projektu wyjaśnia, że badania, które dotyczą języka czy komunikacji, zawsze wymagają wielu danych - w odpowiedni sposób opisanych i ustrukturyzowanych. Dlatego w projekcie konieczne będzie zgromadzenie dużej liczby nagrań języka migowego o odpowiednich parametrach technicznych. W ten sposób powstać ma coś w rodzaju wirtualnego słownika czy korpusu języka migowego.

Jak przyznaje badacz, największym wyzwaniem dla jego zespołu może być opracowanie algorytmu, który pozwoli na pozyskiwanie i interpretację gestów migowych. Wyjaśnia, że komputer - analizując obraz np. z kamery - będzie musiał rozpoznać dany ruch niezależnie od tego, jakie będzie oświetlenie, ustawienie osoby względem kamery albo detektora ruchu. Poza tym znaki muszą być rozpoznawane niezależnie od tego, kto je wykonuje, a przecież styl migania zmienia się w zależności od osoby.

Dr Gałka podkreśla, że efektem samego projektu, finansowanego przez NCBR, ma być know-how, a nie wytworzenie samego wirtualnego tłumacza. Badacz nie wyklucza jednak, że po zrealizowaniu projektu tłumacz w końcu trafi na rynek. Ekspert zaznacza, że w projekcie nie będzie budowana sztuczna inteligencja, która pozwoli porozumiewać się na wszystkie tematy.

Więcej: www.naukawpolsce.pap.pl

Podobał się artykuł? Podziel się!
comments powered by Disqus

PARTNER DZIAŁU

  • MSD

BĄDŹ NA BIEŻĄCO Z MEDYCYNĄ!

Newsletter

Najważniejsze informacje portalu rynekzdrowia.pl prosto na Twój e-mail

Rynekzdrowia.pl: polub nas na Facebooku

Rynekzdrowia.pl: dołącz do nas na Google+

Obserwuj Rynek Zdrowia na Twitterze

RSS - wiadomości na czytnikach i w aplikacjach mobilnych

POLECAMY W PORTALACH