П’ятниця, 18 Жовтня, 2024

iPhone та iPad можна буде керувати своїми очима

Apple анонсувала низку нових функцій доступності, які з’являться пізніше цього року для власників iPhone та iPad. Серед них варто відзначити можливість взаємодії з інтерфейсами iOS і iPadOS за допомогою руху очей. Компанія називає це Eye Tracking, і це система, побудована на засадах Dwell Control. Наразі Dwell Control був доступний як частина Accessibility Keyboard у macOS, дозволяючи користувачам виконувати дії миші за допомогою жестів очима та голови.

На iPhone та iPad функція Eye Tracking займе лише кілька секунд для калібрування та працюватиме за допомогою передньої камери. Після ввімкнення він дозволить користувачам з обмеженими фізичними можливостями виконувати жести пальцем і кнопками рухами очей.

Дії зупинки також доступні для гарнітури Vision Pro. На дорогій машині XR вони входять до складу системи Assistive Touch у налаштуваннях спеціальних можливостей. На комп’ютерах Mac жести очима та голови дозволяють клацати мишею, перетягувати й опускати та інші основні жести керування інтерфейсом користувача.

Для користувачів із вадами слуху Apple додає на iPhone функцію Music Haptics. Після активації Taptic Engine, встановлений всередині iPhone, вироблятиме вібрацію синхронно з відтворенням музики, використовуючи суміш ритмічних натискань, плавних вібрацій і текстур.

Ця функція вже сертифікована для мільйонів пісень у бібліотеці Apple Music. Розробники також можуть використовувати інтерфейси програмування додатків (API), щоб увімкнути зворотній зв’язок доступності на основі вібрації, щоб зробити свої програми більш інклюзивними та функціонально корисними для людей з проблемами слуху.

Для людей, які мають проблеми з мовленням, Apple додає кілька нових функцій до своїх телефонів і планшетів. Перший — Atypical Speech, який покладається на машинне навчання для визначення унікального мовного підпису людини, щоб допомогти їй виконувати завдання за допомогою голосових команд.

Далі на черзі — Vocal Shortcuts. Це дозволяє користувачам записувати власні аудіосигнали, а потім призначати їх як ярлики для різних завдань на пристрої, які можуть бути однокроковими або багатокроковими за своєю природою. Apple каже, що ці функції були «розроблені для користувачів із набутими або прогресуючими захворюваннями, які впливають на мову, такими як церебральний параліч, бічний аміотрофічний склероз (БАС) або інсульт».

Ще одна пов’язана функція – персональний голос. Люди, яким важко вимовляти або читати довгі речення, можуть створити особистий голос, використовуючи коротші фрази.

Apple також розробила функцію оздоровлення, яка враховує заколисування в умовах транспортного засобу. Функція, про яку йде мова, називається Vehicle Motion Cues, і після її ввімкнення на екрані відображатимуться анімовані точки, які динамічно узгоджуються з напрямком руху автомобіля. Ідея полягає в тому, щоб зменшити сенсорний конфлікт, щоб користувачам було легше читати вміст на екрані.

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися