Неділя, 22 Грудня, 2024

Автор GPT та ChatGPT боїться свого творіння

Сем Альтман, генеральний директор OpenAI, компанії, яка розробила чат-бот на базі штучного інтелекту ChatGPT, попередив, що ця технологія несе в собі реальні небезпеки, оскільки вона змінює суспільство. Але, незважаючи на небезпеки, сказав він, це також може бути найбільшою технологією, яку розробило людство.

37-річний Альтман підкреслив, що регулюючі органи та суспільство повинні бути залучені до технології, щоб захистити від потенційно негативних наслідків для людства. «Ми повинні бути обережними», — сказав Альтман ABC News, додавши: «Я думаю, що люди повинні радіти, що ми трохи налякані.

«Я особливо стурбований тим, що ці моделі можуть бути використані для широкомасштабної дезінформації, — сказав Альтман. – Тепер, коли вони стають кращими в написанні комп’ютерного коду, [їх] можна використовувати для наступальних кібератак».

Попередження надійшло, коли OpenAI випустив останню версію своєї мовної моделі, GPT-4 і менше ніж через чотири місяці після випуску оригінальної версії GPT-3, та коли ChatGPT став найшвидше зростаючою споживчою програмою в історії.

В інтерв’ю інженер сказав, що, хоча нова версія була «неідеальною», вона набрала 90% балів у США на адвокатських іспитах і майже ідеальний бал на тесті з математики SAT у середній школі. За його словами, система також може писати комп’ютерний код на більшості мов програмування.

Побоювання щодо штучного інтелекту, орієнтованого на споживача, та штучного інтелекту загалом зосереджені на заміні людей машинами. Але Альтман зазначив, що штучний інтелект працює лише під керівництвом або введенням від людей.

“Він чекає, поки хтось дасть йому вхід, – сказав він. Це інструмент, який повністю контролюється людиною». Але він сказав, що його хвилює питання про те, хто з людей контролює вхід.

«Будуть інші люди, які не встановлять обмеження безпеки, які ми встановлюємо, — додав він. – Я вважаю, що суспільство має обмежений час, щоб зрозуміти, як на це реагувати, як це регулювати, як з цим поводитися».

Генеральний директор Tesla Ілон Маск, один із перших інвесторів в OpenAI, коли вона ще була некомерційною компанією, неодноразово попереджав, що AGI – штучний загальний інтелект – небезпечніший за ядерну зброю.

Маск висловив занепокоєння тим, що Microsoft, яка розміщує ChatGPT у своїй пошуковій системі Bing, розформувала свій підрозділ з нагляду за етикою.

«Немає регуляторного нагляду за штучним інтелектом, що є основною проблемою. Я закликаю до регулювання безпеки штучного інтелекту більше десяти років!», – Маск написав у Twitter у грудні.

Цього тижня Маск також стурбувався: «Що нам, людям, залишиться робити?»

У четвер Альтман визнав, що остання версія використовує дедуктивне міркування, а не запам’ятовування, процес, який може призвести до дивних відповідей.

«Найбільше я намагаюся застерігати людей від того, що ми називаємо «проблемою галюцинацій», — сказав Альтман. – Модель буде впевнено стверджувати речі, як ніби це цілком вигадані факти.

«Правильний спосіб думати про моделі, які ми створюємо, — це механізм міркування, а не база даних фактів», — додав він.

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися