Неділя, 22 Грудня, 2024

Саме час замислитися про повстання машин

Нещодавно ООН визнала перший офіційно зареєстрований випадок, коли робот вбив людину за власною ініціативою. Це був дрон лівійських військових сил, які вистежували противників і які були запрограмовані атакувати самостійно. Розмір цих смертельних дронів, які виготовляються в Туреччині, дорівнює приблизно обідній тарілці і вони доставляють близько кілограма вибухівки.

Дослідники штучного інтелекту вже роками попереджують про появу автономної смертельної зброї. Кілька років назад видатні експерти навіть підписали листа до ООН з проханням заборонити розробку такого озброєння.

Днями представники близько 50 країн зібралися у штаб-квартирі ООН, щоб в одній з останніх спроб зупинити поширення роботів-вбивць. Історія показує, що такі угоди необхідні і вони можуть працювати.

Уроки ядерної зброї

Науковці досить добре вміють аналізувати факти та прогнозувати на їхній основі майбутнє. На жаль, суспільство рідко дослуховується до цих прогнозів.

В серпні 1945 року США скинули атомні бомби на Японію, вбивши 200 000 цивільних. Сьогодні світ досі живе у страху ядерного знищення. Багато разів світ опинявся на межі повномасштабної ядерної війни. Наприклад, якби не особиста рішучість одного радянського військового, світ в 1983 році міг припинити існування.

Задовго до першого тесту атомної бомби багато науковців, які працювали над її розробкою в США, почали турбуватися про те, що така зброя може накоїти. В липні 1945 року вони направили таємну петицію тогочасному президенту США Гаррі Труману, в якій точно передбачили майбутнє:

Розвиток атомної енергії надасть націям нові засоби знищення. Атомні бомби в нашому розпорядженні представляють лише перший крок у цьому напрямку і майже немає ліміту руйнівній силі, яка стане доступна в майбутньому. Тому нація, яка створить прецедент використання цих вивільнених сил природи для цілей знищення може бути повинна нести відповідальність за відкриття дверей в еру руйнування неуявних масштабів”.

Попередження світові

Шість років назад науковці випустили схожу, але вже публічну петицію. Вона попереджала про небезпеки штучного інтелекту при розробці автономного озброєння. Таку зброю ще називають роботи-вбивці.

Ключовим питанням для людства сьогодні є чи варто починати гонку озброєння зі штучним інтелектом, або їй варто запобігти. Якщо якась армія просуватиме розвиток таких технологій, глобальна гонка озброєнь неминуча. Кінцеву точку передбачити нескладно: автономні роботи-вбивці, які стануть майбутніми автоматами Калашникова.

Стратегічно, автономна зброя є мрією військових. Вони отримують можливість проводити операції без обмеження чисельності особистого складу. Один оператор може керувати сотнями таких роботів. Армія подібних машин може вчиняти найбільш ризиковані операції.

Кошмар від роботів

Мрія військових перетвориться на кошмар, навіть залишаючи осторонь філософське питання того, що життя та смерть людини вирішуватиме машина.

Автономні роботи-вбивці будуть машинами повного знищення. Раніше, щоб знищити противника, необхідно було переконати свою армію, яка складається із людей, зробити це. Це обмежувало те, що може зробити армія. З роботами достатньо ввести відповідну команду і вони зроблять будь-що.

Роботи-вбивці також можуть виявитися страшнішими за ядерну зброю. Для створення атомної бомби потрібні технології та матеріали, які досить складно розробити і добути. Таку зброю можуть собі дозволити лише окремі країни.

Роботи завдяки своєму масовому виробництву стають дешевшими, а, отже, доступнішими. Автономне озброєння може виявитися ідеальним засобом терору.

Час для угоди

Сьогодні людство стоїть на перехресті і відповідальним за його долю людям необхідно обрати, яке майбутнє вони хочуть. Укладені в ООН угоди працюють: таким чином вдалося обмежити поширення хімічно, біологічної та інших типів зброї. Настав час для угоди щодо роботів-вбивць.

За матеріалами: The Next Web

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися