Дослідники Facebook, які займаються розробками штучного інтелекту, зробили черговий крок уперед. Вони створили бота, який може вести переговори і при цьому брехатиме співрозмовникові. Неправду штучний інтелект говоритиме заради отримання більшої вигоди.

Чат-боти в інтернет-сервісах вже звичне явище: вони приймають замовлення на товари, проводять платежі і виконують інші доручення. Але хоча всі ці програми є «розумними», мислять вони досить лінійно. Бот від Facebook, кажуть розробники, вміє стратегічно «мислити», продумувати план бесіди і вести переговори. Причому навчився він всього цього самостійно.

Змусити комп’ютер спілкуватися з людьми так, щоб його було майже неможливо відрізнити від людини, надзвичайно складно. Розробникам доводиться завантажувати в програму величезні масиви даних. Але після цього бот часто обмежується записаними в нього даними і не вміє імпровізувати.

Дослідники з підрозділу FAIR (сектор Facebook з роботи над штучним інтелектом), щоб навчити бота вести переговори, спочатку провели роботу зі звичайними людьми. Фахівці попросили добровольців оцінити звичайні побутові предмети (книги, м’ячі, шапки та інше) за ступенем цінності. А після змусили справедливо поділити речі між собою. Після чого цінності і алгоритм бесіди фахівці записали на електронний носій і перенесли в програму бота.

Далі для того, щоб створити ілюзію людського спілкування, дослідники навчили бота техніці «розгортання діалогу». Завдяки цій можливості програма може сконструювати потенційну бесіду від початку до кінця. Упродовж розмови штучний інтелект також активно намагається досягнути поставлених перед ним цілей. Подібна техніка дозволила уникнути конфузів, роздратування і неінформативних зауважень, кажуть розробники.

За словами представників Facebook, бота протестували на людях, і ті не відразу зрозуміли, що розмовляють з комп’ютером. Головне відкриття дослідників полягало в тому, що бот без допомоги програмістів навчився імпровізувати і придумував нові фрази і пропозиції, яким його заздалегідь не навчали.

Він навіть став вдаватися до хитрощів заради досягнення цілей переговорів. Наприклад, були моменти, коли бот штучно виявляв інтерес до якогось предмету, який насправді його не цікавив. А потім прикидався, що йде на компроміс, обмінюючи його на те, що дійсно було потрібно програмі. За словами представників Facebook, таку поведінку вони не програмували.

ПОДІЛИТИСЯ