Перед розробниками роботів стоїть складне завдання: не лише навчити їх самостійно орієнтуватися у просторі, але й вкласти в них етичні норми. Адже «розумні» машини без цього неможливо інтегрувати в суспільне життя – не знаючи прийнятих стандартів поведінки, вони можуть зашкодити людям. Однак навчити роботів поняттям поганого та доброго виявилося навіть складніше, ніж навчити їх орієнтуватися у просторі.
Моральним вихованням машин сьогодні займається багато науковців, і один з них – Алан Вінфілд, який працює в лабораторії роботів Брістоля. Він побудував етичну пастку для роботів, і вони вразили його своєю реакцією.
В експерименті науковці запрограмували машину працювати рятувальником: вона повинна була завадити іншим гаджетам (вони імітували людей) на полі впасти в діру. Так учені перевіряли один з найвідоміших законів робототехніки, який створив фантаст Айзек Азімов. Цей перший закон говорить, що робот не повинен допустити шкоди для людини.
Спершу дослідження йшло доволі успішно, і робот запобігав потраплянню гаджетів у діру. Як тільки хтось до неї наближувався, він відштовхував їх подалі. Проблеми почалися, коли на полі з’явився другий гаджет-імітатор людини.
Поява ще одного об’єкта змусила робота вибирати: він міг врятувати одного, проте інший в такому разі гинув у дірі. Іноді машині все ж вдавалося врятувати обох. Однак у 14 з 33 спроб робот настільки довго думав, що в діру провалювалися обиді імітації людини.
Вінфілд називає таку поведінку машини «етичним зомбі», оскільки вона не має іншого вибору, окрім поводитись так, як вона поводиться. У деяких випадках роботу вдається врятувати когось із підопічних – як це закладено у його програмному забезпеченні. Однак Вінфілд каже, що машина при цьому не розуміє причин своїх дій.
Проведений Вінфілдом експеримент показав, що роботи – це “етичні зомбі”
Роботи в повсякденні
Машини дедалі глибше інтегруються у буденне життя, і їх необхідно навчити прийнятим у суспільстві етичним нормам. Наприклад, автомобіль на автопілоті одного дня може потрапити в ситуацію, в якій він повинен буде обирати між безпекою пасажирів всередині та безпекою пішоходів і інших учасників дорожнього руху. Сьогодні для роботів прийняти таке рішення дуже складно.
Знайти вихід з цієї складної ситуації можуть допомогти військові роботи. Комп’ютерний спеціаліст з Інституту Джорджії Рональд Аркін створив для них набір алгоритмів, які він назвав «етичним управлінням». З їхньою допомогою машини повинні приймати зважені рішення на полі бою. Експерт вже провів тестування своїх алгоритмів, і виявилося, що з ними дрони можуть обирати, вести вогонь чи ні, або спробувати мінімізувати втрати у довіреній їм зоні охорони.
Аркін каже, що розробка військових роботів, які поводять себе етично, може бути легким завданням, адже правила їхньої поведінки добре відомі. «Закони війни вироблялися тисячі років, – каже дослідник. – Усі вони втілені в домовленостях». При цьому, на відміну від людей, які в емоційному пориві можуть ігнорувати ці правила, роботи будуть діяти чітко за ними.
«Коли ми говоримо про етику, зазвичай мова йде про роботів, які повинні працювати у визначених умовах, – говорить Венделл Валлах. Він написав книгу «Моральні машини: навчити роботів гарному та поганому». Автор каже, що експерименти Вендела дозволять закласти фундамент для вирішення складних моральних питань у роботів. – Якщо ми зможемо навчити роботів успішно працювати в незнайомих їм середовищах, це відкриває нам гігантські можливості для їхнього використання».
За матеріалами: New Scientist