Дослідники створили прототип навушників, які забезпечують звукову бульбашку. Користувач може налаштувати розмір цієї бульбашки від 1 до 2 метрів. Голоси та звуки поза бульбашкою заглушуються в середньому на 49 децибел, навіть якщо вони голосніші, ніж у бульбашці.
Алгоритми штучного інтелекту в поєднанні з прототипом навушників з Вашингтонського університету дозволяють користувачеві чітко чути людей, що говорять у бульбашці. Команда опублікувала свої висновки 14 листопада в Nature Electronics. Програмний код пристрою для підтвердження концепції доступний для інших. Дослідники створюють стартап для комерціалізації цієї технології.
«Люди погано сприймають відстані за допомогою звуку, особливо коли навколо них є кілька джерел звуку», — сказав старший автор Шям Голлакота, професор у Школі комп’ютерних наук та інженерії Пола Г. Аллена. «Наша здатність зосереджуватися на людях, які знаходяться поблизу, може бути обмежена в таких місцях, як гучні ресторани, тому створення звукових бульбашок на звуковому пристрої поки що неможливо. Наша система штучного інтелекту може фактично визначити відстань до кожного джерела звуку в кімнаті, і обробляти це в реальному часі, протягом 8 мілісекунд, на самому слуховому апараті».
Дослідники створили прототип із комерційно доступними навушниками з шумопоглинанням. Вони прикріпили шість маленьких мікрофонів поперек пов’язки. Нейронна мережа, яка працює на невеликому вбудованому комп’ютері, підключеному до навушників, відстежує, коли різні звуки досягають кожного мікрофона. Потім система пригнічує звуки, що надходять ззовні бульбашки, водночас відтворюючи та трохи посилюючи звуки всередині бульбашки (оскільки навушники з шумозаглушенням фізично пропускають певний звук).
Щоб навчити систему створювати звукові бульбашки в різних середовищах, дослідникам знадобився набір звукових даних на основі відстані, зібраний у реальному світі, який був недоступний. Щоб зібрати такий набір даних, вони одягають навушники на голову манекена. Роботизована платформа обертала голову, а рухомий динамік відтворював звуки, що доносилися з різних відстаней. Команда зібрала дані за допомогою системи манекенів, а також із користувачами в 22 різних приміщеннях, включаючи офіси та житлові приміщення.
Дослідники визначили, що система працює з кількох причин. По-перше, голова користувача відбиває звуки, що допомагає нейронній мережі розрізняти звуки з різних відстаней. По-друге, звуки (як людська мова) мають кілька частот, кожна з яких проходить різні фази, коли вона йде від джерела. Дослідники кажуть, що алгоритм ШІ порівнює фази кожної з цих частот, щоб визначити відстань до будь-якого джерела звуку (наприклад, людини, яка розмовляє).
Такі навушники, як AirPods Pro 2 від Apple, можуть посилювати голос людини, що знаходиться перед користувачем, одночасно зменшуючи фоновий шум. Але ці функції працюють, відстежуючи положення голови та посилюючи звук, що надходить із певного напрямку, а не вимірювання відстані. Це означає, що навушники не можуть підсилювати кілька джерел одночасно, втрачають функціональність, якщо користувач відвертає голову від цільового джерела, і не настільки ефективно зменшують гучні звуки з боку джерела.
Систему навчено працювати лише в приміщенні, тому що отримати чисте навчальне звучання складніше на вулиці. Далі команда працює над тим, щоб ця технологія працювала на слухових апаратах і навушниках із шумопоглинанням, що вимагає нової стратегії розташування мікрофонів.