![]()
У Вашингтоні співзасновник і CEO OpenAI Сем Альтман у розмові з Axios окреслив найближче майбутнє штучного інтелекту — не як віддалену фантазію про «суперінтелект», а як дуже конкретний набір змін, які вже почали ламати звичні уявлення про роботу, науку й безпеку. З одного боку, моделі нового покоління обіцяють кар’єроутворювальні наукові відкриття та радикальний стрибок продуктивності знаннєвої праці. З іншого — створюють реальні ризики масштабних кібератак і зловживань у біології, до яких суспільство поки що не готове.
Від «корисного асистента» до співавтора наукових проривів
Сьогоднішні великі мовні моделі вже вміють писати код, аналізувати дані, допомагати з науковими гіпотезами й експериментальним дизайном. Але Альтман наполягає: це лише початок кривої, а наступне покоління моделей стане «дуже значущим кроком уперед» порівняно з тим, що є зараз.
Якщо нинішні системи можна описати як інструменти, що допомагають ученим робити невеликі, але корисні кроки вперед, то наступна хвиля, за його оцінкою, вийде на інший рівень впливу. Мова вже не про «трошки швидше» чи «трошки зручніше», а про відкриття, які визначають цілу кар’єру.
Альтман очікує, що вчені почнуть говорити не просто «ШІ допоміг мені оптимізувати експеримент», а «ця система допомогла зробити найважливіше відкриття десятиліття або навіть усієї моєї наукової кар’єри». Це не означає, що модель самостійно «виграє Нобелівську премію», але її внесок у формулювання гіпотез, аналіз даних, пошук неочевидних закономірностей і проєктування експериментів може стати настільки значущим, що без неї ці прориви були б або неможливими, або відкладеними на роки.
Важливий нюанс: Альтман обережний у формулюваннях щодо поточних можливостей. Він підкреслює, що не хоче перебільшувати те, що моделі вміють уже сьогодні. Але водночас визнає: навіть зараз наукова спільнота демонструє реальні приклади, коли системи OpenAI допомагають робити «дивовижні речі» — і це ще до виходу наступного покоління.
Це означає, що наука входить у фазу, де ШІ перестає бути лише інструментом автоматизації рутинних завдань і стає повноцінним учасником процесу створення нового знання. А це вже змінює не тільки швидкість, а й саму структуру наукової діяльності.
Коли один розробник і сотні GPU дорівнюють цілій команді
Найшвидше й найболючіше ШІ змінює саме знаннєву працю — передусім програмування. Альтман стверджує, що вже зараз деякі розробники завдяки сучасним моделям працюють у два-три рази продуктивніше, ніж раніше. Це не теоретичні оцінки, а відчутна зміна повсякденної практики: від автодоповнення коду до генерації цілих модулів, тестів і документації.
Але його прогноз іде значно далі. У найближчій хвилі розвитку інструментів він очікує появу сценаріїв, де одна людина, озброєна потужними моделями й сотнями графічних процесорів, зможе виконувати роботу, яку сьогодні робить ціла команда розробників.
Формула «я плюс X сотень GPU» як еквівалент «повноцінної софтверної команди» — це не просто красива метафора. Вона описує нову організаційну реальність, де:
- архітектура системи, написання коду, тестування, деплоймент і підтримка значною мірою автоматизуються;
- людина бере на себе постановку задач, прийняття ключових рішень, визначення пріоритетів і контроль якості;
- обчислювальні ресурси й моделі виконують левову частку технічної реалізації.
Наслідки для ринку праці в ІТ можуть бути радикальними. Альтман прямо говорить, що «величезні пласти знаннєвої праці вже трансформовані». Він наводить показовий приклад: те, що означало бути програмістом на початку 2025 року, і те, що означає бути програмістом на початку 2026-го, — це вже «дуже різні речі».
Ця зміна не обмежується лише швидкістю написання коду. Вона стосується того, як розробники мислять, які навички стають ключовими, як формуються команди й проєкти. Якщо раніше цінувалася здатність самостійно реалізовувати складні технічні рішення, то тепер на перший план виходить уміння правильно формулювати завдання для моделей, критично оцінювати їхні результати й інтегрувати ШІ в складні системи.
Фактично формується новий тип «оркестратора ШІ», який керує не людьми, а цілими стеками інтелектуальних інструментів і обчислювальних ресурсів.
ШІ вже робить «серйозну економічну роботу» — і це змінює правила гри
Один із ключових аргументів Альтмана: дискусія про штучний інтелект більше не може обмежуватися теоріями про майбутнє. На його думку, ми вже живемо в новій парадигмі, де ШІ:
- відкриває «легітимно нове» наукове знання;
- виконує «серйозну, цінну економічну роботу в реальному масштабі».
Це означає, що моделі вже вийшли за межі демонстраційних кейсів і «іграшкових» застосунків. Вони беруть участь у процесах, від яких безпосередньо залежать доходи компаній, ефективність бізнесу й конкурентоспроможність цілих галузей.
У такій ситуації питання «чи досягли ми AGI?» стає менш важливим, ніж питання «як швидко суспільство встигає адаптуватися до нової реальності?». Альтман визнає, що темп змін вищий, ніж багато хто очікував, і вищий, ніж більшість інституцій готові витримати.
Це особливо помітно в знаннєвих професіях. Якщо «величезні пласти» такої праці вже трансформовані, то йдеться не лише про програмістів, а й про аналітиків, юристів, консультантів, маркетологів, дослідників. У кожній із цих сфер ШІ поступово переходить від ролі «розумного пошуку» до ролі співавтора рішень.
У результаті змінюється не тільки продуктивність окремих працівників, а й структура попиту на навички, моделі кар’єрного зростання, освітні траєкторії. І водночас — баланс сил між компаніями, які швидко інтегрують ШІ, і тими, хто відстає.
Кібербезпека: рік, коли «тотально можлива» світова кібератака
Паралельно з економічними й науковими вигодами ШІ створює новий клас загроз. У власній рамці готовності OpenAI виділяє два головні напрями ризиків: кібербезпека та біоризики. І саме вони, за словами Альтмана, мають стати пріоритетними зонами співпраці між урядами й індустрією вже цього року.
У кіберсфері прогноз жорсткий: у найближчий рік, вважає він, ми побачимо «значні загрози», які доведеться активно нейтралізовувати. Моделі вже зараз «досить здатні» в кіберконтексті й стануть ще потужнішими.
Особливо тривожним є визнання, що «світова кібератака, яка сколихне світ, цього року цілком можлива», якщо не буде проведена масштабна оборонна робота. Мова не про абстрактну далеку перспективу, а про часовий горизонт у межах одного року.
Це ставить перед державами, великими платформами й кіберкомпаніями дуже конкретне завдання: використати сам ШІ як інструмент захисту. Альтман наголошує, що йдеться не лише про «зробити одну модель безпечною», а про побудову системної стійкості:
- уряди, великі платформи й кібербезпекові компанії мають застосовувати ШІ для швидкого захисту своїх систем;
- особлива увага — до безпеки open-source стеків, які лежать в основі величезної кількості сервісів і продуктів.
OpenAI, зі свого боку, запустила програму «trusted access» — механізм, який дозволяє захисникам використовувати моделі для кібероборони. Інші компанії, за словами Альтмана, також розробляють подібні інструменти. Але ключова ідея в тому, що без широкого, скоординованого застосування ШІ на боці захисників баланс сил може зміститися на користь зловмисників.
Фактично ми входимо в епоху, де «ШІ проти ШІ» стає базовою моделлю кіберконфліктів. І від того, наскільки швидко інституції навчаться використовувати ці інструменти, залежить, чи вдасться уникнути сценаріїв, які Альтман називає «тотально можливими».
Біоризики: коли моделі навчаться створювати нові патогени
Якщо кіберзагрози вже добре зрозумілі політикам і експертам, то біологічні ризики поки що сприймаються як більш абстрактні. Альтман намагається зняти цю ілюзію. На його думку, моделі «очевидно стануть дуже добрими» у допомозі людям, які займаються біологією на просунутому рівні.
Позитивний бік цього сценарію очевидний: «ми побачимо, як буде вилікувано багато хвороб». ШІ може прискорити розробку ліків, оптимізувати дизайн молекул, моделювати взаємодії в клітинних системах, допомагати в синтезі нових терапевтичних підходів.
Але той самий набір можливостей може бути використаний для створення нових патогенів. Альтман прямо говорить: «хтось спробує зловживати цими можливостями». І якщо сьогодні ситуація відносно контрольована — «фронтирні моделі» перебувають у руках «досить відповідальних компаній», які можуть:
- налаштовувати моделі так, щоб вони не допомагали в небезпечних біологічних сценаріях;
- застосовувати класифікатори й інші механізми безпеки;
то в найближчому майбутньому це вікно контролю може закритися. «Ми не так далеко від світу, де існують неймовірно здатні open-source моделі, дуже сильні в біології», — попереджає він.
У такому світі:
- будь-яка група з базовими ресурсами зможе завантажити модель, здатну допомогти в розробці нових патогенів;
- контроль через політику окремих компаній уже не працюватиме;
- єдиним реалістичним шляхом стане побудова суспільної стійкості до спроб терористичних груп використати ці моделі для створення нових біологічних загроз.
Саме тому в політичних пропозиціях OpenAI з’являється акцент на «суспільній резильєнтності». Ідея в тому, що безпека в епоху потужного ШІ не може бути зведена до технічних налаштувань моделей чи внутрішніх політик компаній. Потрібні:
- інституційні механізми виявлення й стримування біозагроз;
- міжнародна координація;
- оновлені протоколи біобезпеки, які враховують можливості ШІ;
- готовність систем охорони здоров’я й безпеки до сценаріїв, які ще недавно вважалися суто теоретичними.
Альтман підкреслює: питання використання ШІ для створення нових патогенів «вже не є суто теоретичним» або «дуже скоро таким бути перестане».
Чому компанії не впораються самі: безпека ШІ як суспільний проєкт
Один із найважливіших меседжів Альтмана стосується меж відповідальності технологічних компаній. Він прямо говорить: «безпека ШІ або безпека в світі потужного ШІ не може бути забезпечена самими компаніями».
Це стосується і кіберзагроз, і біоризиків. Навіть якщо OpenAI та інші гравці:
- максимально «вирівнюють» моделі;
- впроваджують класифікатори й фільтри;
- створюють програми на кшталт trusted access для захисників;
цього недостатньо в умовах, коли:
- з’являються потужні open-source моделі, які ніхто централізовано не контролює;
- зловмисники можуть комбінувати різні інструменти й моделі;
- критична інфраструктура, державні системи, медичні й наукові установи залишаються вразливими.
Звідси — заклик до «суспільної резильєнтності». Йдеться не лише про технічну стійкість систем, а й про:
- готовність урядів до швидкого ухвалення рішень у кризових ситуаціях, пов’язаних із ШІ;
- оновлення регуляторних рамок, які враховують нові типи ризиків;
- залучення великих платформ і кіберкомпаній до спільних оборонних ініціатив;
- розвиток культури безпеки в наукових і технологічних спільнотах.
При цьому Альтман наполягає: попри масштаб економічних і соціальних змін, «ядро того, що означає бути людиною й мати повноцінне життя, не зміниться». На його думку, навіть у світі «неймовірно розумних машин» люди продовжать прагнути:
- глибоких зв’язків з іншими людьми;
- часу на природу й заняття, які приносять радість;
- вищої якості людських стосунків.
Тобто, за цією логікою, ШІ радикально змінить економіку, структуру праці, інститути, але не фундаментальні людські мотивації. І саме тому, вважає він, дискусія про безпеку ШІ має бути не лише технічною чи політичною, а й суспільною: від того, як ми колективно визначимо прийнятні ризики й бажані сценарії, залежатиме, наскільки комфортним буде перехід у «нову парадигму».
Висновок: рік великого прискорення й великих випробувань
Зі слів Альтмана вимальовується парадоксальна картина. З одного боку, найближчі покоління моделей обіцяють:
- наукові прориви, які визначатимуть кар’єри;
- радикальне зростання продуктивності знаннєвої праці;
- уже сьогодні — «серйозну економічну роботу» в масштабах, що змінюють цілі галузі.
З іншого — той самий технологічний стрибок створює:
- реальну можливість світової кібератаки вже в найближчий рік;
- ризик появи потужних open-source моделей, здатних допомагати у створенні нових патогенів;
- ситуацію, в якій безпека більше не може бути справою лише окремих компаній.
У цій напрузі між проривом і загрозою й проходитиме найближчий етап розвитку ШІ. Від того, наскільки швидко уряди, бізнес і суспільство зможуть перейти від споглядання до практичної побудови стійкості, залежатиме, чи стане нове покоління моделей переважно джерелом прогресу, чи також каталізатором криз, до яких світ виявиться неготовим.
Джерело
OpenAI’s warning: Washington isn’t ready for what’s coming — Axios


