Konferencje
Mobile Trends

Mobilna nawigacja dla niewidomych od IBM i Carnegie Mellon University

Urządzenia mobilne służą przede wszystkim naszej wygodzie, zastępują także inne, rozmaite sprzęty lub usługi. Nie tak dawno pisaliśmy w jaki sposób można wykorzystać je do pomocy innym w ramach inicjatywy UNICEF-u: Wearable for good. Tym razem urządzenia przenośne przysłużą się osobom niewidomym. IBM we współpracy z Carnegie Mellon University stworzyło otwartą platformę technologiczną,  wspierającą tworzenie aplikacji mających pomóc niewidomym i słabowidzącym w codziennym funkcjonowaniu.

NavCog poprowadzi osoby niewidome i niedowidzące

Naukowcy opracowali już pilotażową apkę mobilną platformy – NavCog (jest dostępna na iOS oraz już niedługo na Androidzie). Jak wskazuje sama nazwa, NavCog to program nawigacyjny tyle, że przekazujący użytkownikowi trasę do celu albo głosowo (przez słuchawkę douszną podawane są komunikaty typu „idź prosto”, „skręć w lewo”), albo też poprzez subtelne wibracje o różnym natężeniu – w zależności od wybranego trybu.
Jeśli chodzi o sposób nawigowania – jak na razie aplikacja nie korzysta z danych GPS, ale coraz popularniejszego ostatnio rozwiązania nawigacyjno-informacyjnego – beaconów – z którymi łączy się przez Bluetooth. NavCog może wykorzystywać także sensory innych smartfonów (np. by umożliwić poruszanie się w towarzystwie bez bezpośredniej asysty innych osób).

Do tej pory NavCog testowane było na terenie kampusu Carnegie Mellon University. Naukowcy udostępnili jednak narzędzia deweloperskie, które pozwolą dopasować technologię specjalnie pod potrzeby konkretnej osoby niewidomej poruszającej się w danym środowisku (nawet takim, w którym nie rozmieszczono beaconów).
„Podczas gdy osoby niewidzące, takie jak ja, stały się niezależne w internecie, ciągle stoimy jednak przed wyzwaniami realnego świata. By osiągnąć kolejny poziom niezależności i poprawić jakość takiego życia, konieczna jest możliwość swobodnego poruszania się w różnych środowiskach” – powiedziała członkini grupy IBM wizytująca na Uniwersytecie Carnegie Mellon – Chieko Asakawa.

Narzędzia deweloperskie są już gotowe

Pierwszy zestaw narzędzi programu wsparcia poznawczego znajduje się pod adresem http://hulop.mybluemix.net/. Zawiera on aplikację do nawigacji, edytor map oraz algorytmy lokalizowania (narzędzia te pozwolą chociażby „zeskanować otoczenie” za pomocą zdjęć, by można było przenieść je na mapę 3D, według której odbywać się będzie nawigowanie).

Co przyniosą dalsze prace?

W trakcie dalszych prac poprawiany będzie zasięg narzędzi jeśli chodzi o możliwość zastosowania technologii w różnych środowiskach. Na przykład poprzez użycie dodatkowej kamerki wspomagającej, która w połączeniu z technologią lokalizacji, mogłaby komputerowo wizualizować osobie niewidomej rzeczywistość (np. rozpoznać typowe obiekty takie jak barierki czy schody na drodze). Możliwe, że dzięki dalszemu rozwojowi projektu, aplikacja oprócz nawigowania, poinformuje także użytkownika o tym kto się do niego zbliża lub jaki ma humor na podstawie wyrazu twarzy (a możliwe, że w przyszłości także jaką czynność wykonuje). Co więcej, badania nad tą technologią mogą pomóc także w innych obszarach. Możliwe, że przydadzą się chociażby w rozpoznawaniu emocji i twarzy osobom cierpiącym na autyzm.

Asystent na ramieniu

Badania nad asystą poznawczą, które doprowadziły do powstania aplikacji NavCog, mają parę punktów wspólnych z pracami prowadzonymi nad sztuczną inteligencją IBM Watson. NavCog wpomoże jednak percepcję osób niewidomych, a sztuczna inteligencja Watson meteorologów (IBM wykupiło ostatnio firmę Weather Company) czy pracowników medycznych.
Tym samym, dzięki technologii, pokonywane są kolejne bariery ludzkiej percepcji.
Źródło:
www.washingtonpost.com
www.prnewswire.com

Udostępnij
Zobacz także