Четвер, 25 Квітня, 2024

Ілон Маск та ще 1000 селебріті та експертів закликають не навчати надрозумний штучний інтелект

Після появи штучного інтелекту GPT-4, який вміє читати, малювати та слухати, стали звучати думки, що залишилося ще небагато часу до появи людиноподібного інтелекту в машини. Ілон Маск та ще близько 1000 відомих людей та експертів закликали призупинити навчання більш розумного штучного інтелекту. Вони побоюються можливих загроз, які людиноподібний штучний інтелект може принести людству.

Ілон Маск і група експертів зі штучного інтелекту та керівників галузі у відкритому листі закликають до шестимісячної паузи в розробці систем, потужніших за нещодавно запущений OpenAI GPT-4.

У листі, опублікованому некомерційною організацією Future of Life Institute і підписаному понад 1000 людей, закликається призупинити розробку передового штучного інтелекту, доки спільні протоколи безпеки для таких проектів не будуть розроблені, реалізовані та перевірені незалежними експертами.

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими», — йдеться в листі.

У листі детально описуються потенційні ризики для суспільства та цивілізації з боку систем штучного інтелекту у формі економічних і політичних збоїв.

Відповідно до реєстру прозорості Європейського Союзу, Future of Life Institute в основному фінансується Фондом Маска, а також лондонською групою ефективного альтруїзму Founders Pledge і Фондом громади Кремнієвої долини.

Ці занепокоєння виникли після того, як у понеділок поліцейські сили ЄС Європол приєдналися до хору етичних і правових стурбованостей щодо передового штучного інтелекту, такого як ChatGPT, попереджаючи про потенційне зловживання системою для спроб фішингу, дезінформації та кіберзлочинності.

Тим часом уряд Великобританії оприлюднив пропозиції щодо «адаптивної» нормативно-правової бази щодо штучного інтелекту. Підхід уряду передбачає розподіл відповідальності за управління штучним інтелектом між регуляторами прав людини, охорони здоров’я та безпеки та конкуренції, а не створення нового органу, присвяченого цій технології.

З моменту випуску минулого року ChatGPT від OpenAI спонукав конкурентів прискорити розробку подібних великих мовних моделей, а компанії — інтегрувати генеративні моделі штучного інтелекьу у свої продукти.

Минулого тижня OpenAI оголосила, що співпрацює з понад десятком фірм, щоб вбудувати свій чат-бот, дозволяючи користувачам ChatGPT замовляти продукти через Instacart або бронювати авіаквитки через Expedia.

Сем Альтман, виконавчий директор OpenAI, не підписав листа, повідомив Reuters представник Future of Life.

«Лист не ідеальний, але дух правильний: нам потрібно уповільнити темп, поки ми краще не зрозуміємо наслідки, — сказав Гері Маркус, професор Нью-Йоркського університету, який підписав листа. – Великі гравці стають все більш таємничими щодо того, що вони роблять, що ускладнює суспільству захист від будь-якої шкоди, яка може матеріалізуватись».

Критики звинуватили підписантів листа в просуванні «ажіотажу щодо штучного інтелекту», стверджуючи, що заяви про поточний потенціал технології були сильно перебільшені.

«Такі заяви мають на меті підняти ажіотаж. Вони мають на меті змусити людей хвилюватися, — Йоганна Бйорклунд, дослідник штучного інтелекту та доцент Університету Умео. – Я не думаю, що потрібно активувати ручне гальмо».

За її словами, замість того, щоб призупинити дослідження, до дослідників штучного інтелекту слід пред’явити більші вимоги щодо прозорості.

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися