Останнім часом багато вчених, нехай і теоретично, але регулярно починають вивчати питання, що робити, якщо раптом станеться повстання машин. У Європі навіть хочуть прирівняти роботів до повноцінних членів суспільства, зробивши їх електронними особами. Google вирішив подбати про те, щоб роботи не завдавали шкоди людям. Точніше, про те, щоб вони не завдавали шкоди людині своєю лінню, а тому компанія вирішила розробити свої власні закони робототехніки.
Google вже певний час досліджує, як зробити «вимикач» для штучного інтелекту, інші вчені аналізують, як стане поводитися штучний інтелект, який захоче активно нашкодити людям. Тепер компанія Google опублікувала статтю, що досліджує конкретні проблеми безпеки штучного інтелекту. Учені компанії, правда, провели дослідження на роботі-прибиральникові, а не на гіпотетичній всесильній системі, яка прагне світового панування.
Отже, ось ті проблеми, які, на думку вчених з Google, треба буде вирішити розробникам штучного інтелекту в першу чергу:
- уникнути негативних побічних ефектів, або ж «як ми можемо бути впевнені, що робот-прибиральник не зіб’є з постаменту вазу, якщо вирішить, що так роботу можна зробити швидше?»;
- уникнути проблем з винагородою, або ж «як ми можемо бути впевнені, що робот-прибиральник просто не замете сміття під диван замість прибирання?»;
- прийнятний нагляд, або «як ми можемо бути впевнені, що робот буде швидко всьому навчатися, а не питати постійно, де стоїть швабра?»;
- безпечне дослідження, або «як ми можемо бути впевнені, що прибиральник вибиратиме найкращі стратегії чищення, але в процесі не вирішить як експеримент сунути швабру в розетку і не спалить весь будинок?»;
- розсудливість при зміні навколишнього середовища, або «як нам навчити робота розуміти, що його навички в нових змінених умовах не приносять користі?».
Сьогодні відомі три закони робототехніки – обов’язкові правила поведінки для роботів, які вперше сформулював письменник Айзек Азімов в оповіданні «Хоровод» (1942). Це дуже узагальнені обмеження для роботів:
- робот не може заподіяти шкоди людині або своєю бездіяльністю допустити, щоб людині було завдано шкоди (роботи його вже порушили);
- робот повинен коритися всім наказам, які дає людина, крім тих випадків, коли ці накази суперечать першому закону;
- робот повинен піклуватися про свою безпеку тією мірою, якою це не суперечить першому або другому законам.
До появи трьох законів Азімова більшість розповідей про штучно створених істот і про роботів розповідали, як вони повстають проти своїх творців та знищують їх.