Неділя, 22 Грудня, 2024

GPT4: Чи готовий світ до майбутньої бурі, породженої штучним інтелектом?

Штучний інтелект має приголомшливу силу змінювати наше життя як на користь, так і на небезпеку. Експерти не зовсім впевнені, що можновладці готові до того, що настане.

Ще в 2019 році некомерційна дослідницька група під назвою OpenAI створила програмне забезпечення, яке могло генерувати абзаци зв’язного тексту та виконувати елементарне розуміння прочитаного та аналіз без спеціальних інструкцій.

Спочатку OpenAI вирішила не робити свій продукт під назвою GPT-2 повністю доступним для громадськості через побоювання, що люди зі злими намірами можуть використати його для створення величезної кількості дезінформації та пропаганди. У прес-релізі, в якому оголосили про своє рішення, група назвала програму “надто небезпечною“.

Перемотайте три роки вперед, і можливості штучного інтелекту зросли в геометричній прогресії.

Але, на відміну від останнього обмеженого розповсюдження, остання лінгвістична модель GPT-3 стала публічно та безкоштовно доступною в листопаді 2022 року. Інтерфейс Chatbot-GPT запустив тисячі новинних статей і публікацій у соціальних мережах, а репортери та експерти тестували його можливості – часто з приголомшливими результатами.

Програма Chatbot-GPT створила стендап-програми в стилі покійного коміка Джорджа Карліна про банкрутство Silicon Valley Bank. Вона висловлювалася щодо християнської теології. Вона писала вірші. Вона пояснювала фізику квантової теорії дитині, наче це був репер Снуп Догг.

Інші моделі штучного інтелекту, такі як Dall-E, створювали настільки переконливі візуальні ефекти, що викликали суперечки щодо їх розміщення на арт-сайтах.

Машини, принаймні неозброєним оком, досягли творчості.

Але машини продовжили розвиватися – OpenAI представила GPT-4, яка поєднала в собі текстове, візуальне та аудіо сприйняття.

Першими клієнтами стали Microsoft, Merrill Lynch та уряд Ісландії. А на конференції South by Southwest Interactive в Остіні, штат Техас — глобальному зібранні технічних політиків, інвесторів і керівників — найгарячішою темою для розмови був потенціал і потужність програм штучного інтелекту.

Араті Прабхакар, директор Управління наукової та технологічної політики Білого дому, каже, що вона в захваті від можливостей штучного інтелекту, але вона також мала попередження.

«Ми всі бачимо появу цієї надзвичайно потужної технології. Це точка перегину, — сказала вона аудиторії конференції. – Вся історія показує, що такі потужні нові технології можуть і будуть використовуватися як на благо, так і на зло».

Її колега, Остін Карсон, був трохи відвертішим. «Якщо через шість місяців ви повністю не злякаєтеся, тоді я пригощу вас обідом», — сказав аудиторії засновник SeedAI, консультативної групи з питань політики штучного інтелекту.

«Злякався» — це один із способів виразити враження від штучного інтелекту. Емі Вебб, керівник Інституту майбутнього сьогодні та професор бізнесу Нью-Йоркського університету, спробувала кількісно визначити потенційні результати у своїй презентації SXSW. За її словами, протягом наступних 10 років штучний інтелект може розвиватися в одному з двох напрямків.

За оптимістичним сценарієм розробка штучного інтелекту зосереджена на загальному благу, з прозорістю в системі штучного інтелекту та можливістю для окремих людей вирішувати, чи включена їх загальнодоступна інформація в інтернеті до бази знань штучного інтелекту. Технологія служить інструментом, який робить життя простішим і безперебійним, оскільки функції штучного інтелекту на споживчих продуктах можуть передбачати потреби користувачів і допомагати виконувати практично будь-які завдання.

Катастрофічний сценарій, вважає Вебб, передбачає меншу конфіденційність даних, більшу централізацію влади в кількох компаніях і штучний інтелект, який передбачає потреби користувачів – і приймає їх неправильно або, принаймні, гальмує вибір.

Оптимістичному сценарію вона дає лише 20% шансів.

У якому напрямку розвиватиметься технологія, сказала Вебб, зрештою багато в чому залежить від відповідальності, з якою компанії її розробляють. Чи роблять вони це прозоро, розкриваючи та контролюючи джерела, з яких чат-боти отримують інформацію?

Інший фактор, за її словами, полягає в тому, чи зможе уряд – федеральні регулятори та Конгрес – швидко вжити заходів для встановлення правових огорож, щоб керувати технологічними розробками та запобігати їх неправильному використанню.

У цьому відношенні показовим є досвід уряду з компаніями соціальних медіа — Facebook, Twitter, Google тощо. І досвід не втішний.

«Те, що я чула в багатьох розмовах, — це занепокоєння, що там немає жодних огорож, — сказала Мелані Субін, керуючий директор Інституту майбутнього сьогодні, про свій час у South by Southwest. – Є відчуття, що потрібно щось робити. І я думаю, що соціальні медіа як застереження — це те, що згадується у людей, коли вони бачать, як швидко розвивається генеративний штучний інтелект».

Федеральний нагляд за компаніями соціальних медіа в основному базується на Законі про пристойність у комунікаціях, який Конгрес ухвалив у 1996 році, і короткому, але потужному положенні, що міститься в Розділі 230 закону.

Ці документи захищали інтернет-компанії від відповідальності за створений користувачами контент на їхніх веб-сайтах. Їм приписують створення правового середовища, в якому компанії соціальних медіа можуть процвітати. Але останнім часом їх також звинувачують у тому, що вони дозволила цим інтернет-компаніям отримати занадто багато влади та впливу.

Праві політики скаржаться, що це дозволило компаніям Google і Facebook у всьому світі засуджувати або применшувати видимість консервативних думок. Ліві звинувачують компанії в тому, що вони недостатньо роблять для запобігання поширенню мови ненависті та насильницьких погроз.

«У нас є можливість і відповідальність визнати, що риторика ненависті призводить до ненависних дій», — сказала Джоселін Бенсон, державний секретар штату Мічиган. У грудні 2020 року її будинок став мішенню протесту озброєних прихильників Дональда Трампа, організованих у Facebook, які оскаржували результати президентських виборів 2020 року.

Вона підтримала закон про шахрайство в Мічигані, згідно з яким соціальні мережі будуть нести відповідальність за свідоме поширення шкідливої інформації. Існували подібні пропозиції як на федеральному рівні, так і в інших штатах, разом із законодавством, яке вимагало від соціальних мереж забезпечувати більший захист для неповнолітніх користувачів, бути більш відкритими щодо своєї політики модерації контенту та вживати більш активних заходів для зменшення переслідувань в інтернеті.

Проте думки щодо шансів на успіх такої реформи неоднозначні. Великі технологічні компанії мають цілі команди лобістів у Вашингтоні та столицях штатів, а також значні кошти, за допомогою яких вони можуть впливати на політиків за допомогою пожертвувань на кампанію.

«Незважаючи на численні докази проблем у Facebook та інших соціальних мережах, минуло 25 років, — каже Кара Свішер, технічний журналіст. – Ми чекали будь-якого закону від Конгресу щодо захисту споживачів, і вони скасували свою відповідальність».

Небезпека, каже Свішер, полягає в тому, що багато компаній, які були головними гравцями в соціальних медіа – Facebook, Google, Amazon, Apple і Microsoft – тепер є лідерами в галузі штучного інтелекту. І якщо Конгрес не зміг успішно регулювати соціальні медіа, їм буде складно швидко вжити заходів, щоб усунути занепокоєння щодо того, що Свішер називає «гонкою озброєнь» штучного інтелекту.

Порівняння між регулюванням штучного інтелекту та соціальними медіа теж не просто академічні. Нова технологія штучного інтелекту може захопити і без того неспокійні води таких веб-сайтів, як Facebook, YouTube і Twitter, і перетворити їх на кипляче море дезінформації, оскільки стає все важче відокремити дописи справжніх людей від підроблених, але цілком правдоподібних записів, створених штучним інтелектом.

Навіть якщо уряду вдасться запровадити нові правила щодо соціальних медіа, вони можуть бути марними перед обличчям потоку згубного контенту, створеного штучним інтелектом.

Серед незліченних доповідей на конференції South by Southwest була одна під назвою «Як Конгрес будує політику штучного інтелекту з нуля». Після приблизно 15 хвилин очікування глядачам повідомили, що доповідь скасовано, оскільки учасники зайшли не туди.

Для тих, хто брав участь у конференції, сподіваючись на ознаки компетентності людей в уряді, це не було обнадійливою подією.

За матеріалами: BBC

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися