Минулого року сталася подія, яка може перевернути бойові дії та хід історії, і звіт про яку нещодавно оприлюднила ООН. У Лівії дрон на власний розсуд вбив людину. – це сталося вперше в історії. Дрон не отримував наказу атакувати цю людину.
В березні 2020 року озброєний квадрокоптер KARGU-2 автономно проводив патрулювання під час активної фази конфлікту між лівійськими провладними угрупованнями та фракцією, що відкололася від них під керівництвом Халіфа Хафтара. Турецький дрон KARGU-2 розроблений для ведення асиметричних бойових дій та антитерористичних операцій. Дрон атакував одного з членів угрупування Хафтара, коли той відступав.
Дрон працював в автономному режимі і не потребував інструкцій від людини-оператора.
“Летальне автономне озброєння було запрограмовано атакувати цілі без необхідності каналу зв’язку з оператором. Це “запустити, забути та знайти можливість”, – йдеться у звіті експертної комісії ООН по Лівії.
Експерти вже закликають до термінового регулювання автономного озброєння. Консультант з національної безпеки Зак Келленборн, який спеціалізується на безпілотних системах, запитує: “Наскільки крихка його система розпізнавання об’єктів. Наскільки часто він невірно розпізнає цілі?”.
Раніше організація Human Rights Watch закликала заборонити використання роботів-вбивць. Вони закликали до завчасної заборони розробці, виробництва та використання повністю автономних систем озброєння.
«Існує безліч людей, які бачать це як неминуче і навіть бажане. Ми повинні діяти зараз, щоб зупинити це. Це терміново, хоча ми говоримо про зброю майбутнього», – ще в 2014 році говорив Стефен Гус з організації з прав людини Human Rights Watch.
Колишній співробітник Пентагону Пол Шеррі, який брав участь у розробці стратегії застосування автономного озброєння, стверджує, що в реальних умовах автономна зброя може бути некерованою, і існує можливість злому, підміни й маніпуляцій з боку противника.
«Кожен коли-небудь розчаровувався в автоматизованій підтримці телефону довіри, будильнику, помилково встановленому на «вечір» замість «ранок» і так далі. Кожен стикався з проблемою «крихкості», яка присутня в автоматизованих системах», – пише Шеррі.
За словами експерта, автономним системам озброєння не вистачає «гнучкості». У процесі виконання такою системою завдання можуть виникнути помилки, яких люди змогли б уникнути.