Serwis Facebook wprowadza automatyczny tekst alternatywny dla publikowanych zdjęć

W ubiegłym tygodniu serwis Twitter wprowadził istotne zmiany w swojej aplikacji dla iOS i Androida, o czym informowałem na łamach MyApple. Zmiany dotyczyły kwestii dostępności, a dokładnie mówiąc możliwości dodawania do publikowanych zdjęć tekstu alternatywnego dla osób niewidomych. Minęło kilka dni i na wprowadzenie podobnego rozwiązania zdecydował się Facebook. Zdjęcia opisze za nas „sztuczna inteligencja” Marka Zuckerberga. Z serwisu społecznościowego Facebook korzysta na całym świecie 1,5 miliarda ludzi, w tym także osoby niewidome i niedowidzące. Pozwalają na to wykorzystywane przez nich czytniki ekranu np. VoiceOver wbudowany w system iOS i OS X, czyli narzędzia do odczytu wyświetlanych treści. W ten sposób osoby z dysfunkcją wzroku mogą usłyszeć, co ich znajomi piszą na Facebooku, jednak nie mają możliwości sprawdzenia, co znajduje się na milionach udostępnianych tam codziennie zdjęć. Nad rozwiązaniem tego problemu pracował od kilku lat zespół Facebooka d/s dostępności prowadzony przez Jeffa Wielanda, o czym pisałem w ubiegłym roku. Celem jego działalności jest pomoc osobom niepełnosprawnym w bezproblemowym korzystaniu z serwisu Marka Zuckerberga.

Opisy alternatywne do zdjęć na Twitterze mają jedną wadę – zamieszczenie ich zależy od dobrej woli użytkownika. Facebook natomiast go wyręcza zastępując wolę sztuczną inteligencją. Na początku bieżącego tygodnia w aplikacji Facebooka dla systemu iOS (wersja przeglądarkowa i na Androida pojawią się później) wprowadzono narzędzie „automatic alternative text” do automatycznego rozpoznawania obiektów, które pomoże zorientować się niewidomym użytkownikom, co znajduje się na zdjęciach udostępnianych w tym serwisie. Narzędzie rozpoznaje elementy używając w tym celu „uczenia maszynowego”, czyli algorytmów, które mogą uczyć się na podstawie przetwarzanego przez siebie zbioru danych. W przypadku Facebooka takim zbiorem będą zdjęcia danego obiektu. Im częściej będzie spotykał np. zdjęcie psa, tym łatwiej zidentyfikuje taki element na innych zdjęciach.

Aktualnie sztuczna inteligencja nie pozwala na tworzenie dokładnych opisów alternatywnych. Osoby korzystające z czytnika ekranu, mogą usłyszeć, iż na zdjęciu znajduje się np. auto, łódź, samolot, chmura, drzewo, zachód słońca, uśmiechnięte dziecko. Mój opis alternatywny do powyższego zdjęcia, które zamieściłem na Twitterze brzmiał: Biały iPad mini w pozycji poziomej z uruchomioną funkcją Split View. Klawiatura ekranowa wyświetlona na tle aplikacji Safari (po lewej) z wyświetloną stroną MyApple.pl i aplikacji Pages (po prawej). Sztuczna inteligencja musi się jeszcze trochę maszynowo pouczyć.

Maksymilian Pijanowski

Źródło: The Verge

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Możesz użyć następujących tagów oraz atrybutów HTML-a: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>