Nowe innowacje Apple w zakresie ułatwień dostępu w systemie iOS mają zaspokoić niezaspokojone potrzeby

Nowe innowacje Apple w zakresie ułatwień dostępu w systemie iOS mają zaspokoić niezaspokojone potrzeby

Dwie najbardziej zaawansowane funkcje ułatwień dostępu firmy Apple Ogłoszono w zeszłym tygodniu Obchody Światowego Dnia Świadomości Dostępności w dniu 16 maja zmienią reguły gry dla niedostatecznie wspieranych grup społeczności osób niepełnosprawnych.

Tradycyjnie wysiłki na rzecz dostępności cyfrowej, zarówno sprzętu, jak i oprogramowania, skupiały się na użytkownikach niewidomych i niedowidzących, a ostatnio także na osobach z ubytkiem słuchu, ponieważ napisy stają się coraz bardziej powszechne.

Firma Apple ogłosiła teraz, że jeszcze w tym roku wprowadzi nowe funkcje śledzenia wzroku, które umożliwią użytkownikom z poważnymi niepełnosprawnościami związanymi z funkcjonowaniem i ruchem dłoni kontrolowanie iPhone'a lub iPada wyłącznie za pomocą oczu. Zintegrowane bezpośrednio z systemem operacyjnym przy użyciu sztucznej inteligencji i uczenia maszynowego, śledzenie wzroku wykorzystuje wbudowaną w urządzenie kamerę RGB, aby umożliwić użytkownikom poruszanie się po aplikacjach i menu, a następnie aktywowanie elementów na ekranie po prostu „pozostając” na nim i wpatrując się w niego . Konfiguracja śledzenia wzroku jest prosta od razu po wyjęciu z pudełka dzięki dziewięciopunktowej kalibracji polegającej na wizualnym śledzeniu punktów na ekranie, co wystarczy, aby rozpocząć.

Gigant technologiczny z Cupertino ma również w ofercie coś specjalnego dla osób cierpiących na problemy z mową i komunikacją, takie jak te spowodowane porażeniem mózgowym lub stwardnieniem zanikowym bocznym.

Skróty głosowe pozwolą użytkownikom dopasować niestandardową wymowę lub dźwięki do określonych poleceń za pomocą Siri. Może to obejmować wszystko, od ustawienia minutnika, sprawdzenia prognozy pogody lub zadzwonienia do przyjaciela. Można to wytrenować za pomocą uczenia maszynowego, po prostu prosząc użytkownika o trzykrotne powtórzenie wypowiedzi. Tymczasem Apple będzie w dalszym ciągu rozwijać swoją osobistą wersję audio wydaną w zeszłym roku w systemie iOS 17 w oparciu o funkcję, która pomaga osobom, które mogą utracić mowę z powodu postępujących schorzeń, w stworzeniu cyfrowej symulacji ich głosu za pomocą urządzeń Apple, której można następnie używać w rozmowa. Nadchodząca funkcja słuchania nietypowej mowy będzie lepiej umożliwiać interakcję z Siri osobom z ograniczonymi możliwościami mówienia i komunikacji.

Podczas specjalnego wydarzenia prasowego, które odbyło się w zeszłym tygodniu, Apple nie określił dokładnego terminu udostępnienia tych funkcji, ale stwierdził, że mają one pojawić się jeszcze w tym roku.

Inne godne uwagi premiery premium ogłoszone podczas wydarzenia obejmują Music Haptics, która pomaga niesłyszącym i niedosłyszącym użytkownikom cieszyć się muzyką za pomocą silnika Taptic Engine iPhone'a, który może wyzwalać kliknięcia, tekstury i pewne wibracje w zależności od konkretnego dźwięku nuty. Technologia ta zostanie zastosowana w milionach utworów z katalogu Apple Music, a także zostanie udostępniona zewnętrznym programistom jako interfejs programowania aplikacji (API).

„Głęboko wierzymy w transformacyjną moc innowacji, która wzbogaca życie” – powiedział w oświadczeniu medialnym dyrektor generalny Apple Tim Cook. Dlatego od prawie 40 lat Apple wspiera projektowanie włączające, osadzając ułatwienia dostępu w sercu naszych urządzeń i oprogramowania. Nieustannie przesuwamy granice technologii, a te nowe funkcje odzwierciedlają nasze wieloletnie zaangażowanie w zapewnianie możliwie najlepszego doświadczenia wszystkim naszym użytkownikom.

„Każdego roku wprowadzamy nowe rozwiązania w zakresie dostępności” – dodała Sarah Herlinger, starsza dyrektor ds. globalnej polityki dostępności w Apple. „Te nowe funkcje będą miały wpływ na życie szerokiego grona użytkowników, zapewniając nowe sposoby komunikacji i kontroli swoich urządzeń i poruszać się po świecie.

Wiele metod

Mówiąc o poruszaniu się po świecie, gigant technologiczny nie ogranicza się tylko do najnowszych innowacji w zakresie dostępności do ekosystemu mobilnego iOS. CarPlay jest kompatybilny z szeregiem ulepszeń dostępności w postaci funkcji sterowania głosowego i rozpoznawania głosu, aby pomóc osobom z ubytkiem słuchu poprzez wyświetlanie na ekranie informacji o wykrytych dźwiękach, takich jak syreny służb ratunkowych. Jest też coś dla podróżnych, którzy chcą oglądać ekran telefonu w ruchu, ale chcą uniknąć choroby lokomocyjnej. Nowa funkcja wskazówek dotyczących ruchu pojazdu będzie wyświetlać na ekranie urządzenia kropki, których kierunek jest dostosowywany w zależności od ruchu pojazdu, zmieniając postrzeganie przez mózg rozdźwięku między tym, co widzi, a tym, co czuje w ruchu – co jest częstą przyczyną choroby lokomocyjnej.

Użytkownicy niedawno wydanego, wysokiej klasy zestawu słuchawkowego Apple Vision Pro firmy Apple wkrótce będą mogli korzystać z napisów na żywo w czasie rzeczywistym, aby pomóc osobom z ubytkiem słuchu lepiej rozumieć rozmowy i uczestniczyć w nich. Wprowadzone zostaną także dodatkowe udoskonalenia funkcji wspomagania wzroku dla osób niedowidzących, obejmujące opcje zmniejszania przezroczystości, odwracania kolorów i przyciemniania migających świateł.

Wszystko to jest dobrą wiadomością dla społeczności osób niepełnosprawnych, ponieważ sygnalizuje, że zakres bieżących zobowiązań firmy Apple w zakresie dostępności wykracza poza różnorodne rodzaje niepełnosprawności, którymi należy się zająć, aby uwzględnić uznanie dla różnych systemów i urządzeń, których używają ludzie o różnych umiejętnościach do poruszania się po coraz bardziej złożone środowisko. Świat technologii.

Halsey Andrews

„Lekarz gier. Fanatyk zombie. Studio muzyczne. Kawiarni ninja. Miłośnik telewizji. Miły fanatyk alkoholik.

Rekomendowane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *