У нещодавньому епізоді подкасту OpenAI дослідники Себастьян Бюбек та Ернест Рю, колишні професори математики, які перейшли в індустрію штучного інтелекту, обговорюють, як сучасні моделі вже не просто «роблять математику», а беруть участь у справжніх наукових відкриттях. Один із найяскравіших прикладів — історія Ернеста Рю, який за допомогою ChatGPT зміг розв’язати відкриту задачу в теорії оптимізації, що залишалася нерозв’язаною 42 роки.
![]()
Цей кейс не про «попросив — отримав відповідь», а про нову форму співпраці людини й моделі: людина задає напрям, перевіряє й відсіює помилки, а ШІ масово генерує ідеї, конструкції та варіанти доведень. Історія з методом Нестерова показує, що ChatGPT здатен не лише відтворювати відомі результати чи шукати по літературі, а й реально допомагати в розв’язанні давніх відкритих проблем.
Від «золотої медалі» до відкритої задачі: чому кейс Нестерова став переломним
До літа 2025 року ChatGPT уже продемонстрував результат, який ще кілька років тому виглядав фантастичним: модель досягла рівня золотого призера Міжнародної математичної олімпіади. Це означає, що вона здатна розв’язувати складні, але все ж «канонічні» задачі з відносно короткими розв’язками, які хтось уже придумав і для яких існує відома відповідь.
Однак олімпіадні задачі — це не дослідження. Вони не вимагають створення нової математики, а лише знаходження витонченого, але заздалегідь існуючого розв’язку. Для Ернеста Рю, який до приходу в OpenAI був професором математики в UCLA і спеціалізувався на оптимізації та теорії машинного навчання, справжнім тестом стало інше питання: чи може модель допомогти там, де відповідь ніхто не знає?
Щоб перевірити це, він не взяв «іграшкову» задачу, а звернувся до класичної відкритої проблеми в своїй галузі — поведінки прискореного градієнтного методу Нестерова в найгіршому випадку. Це не була спонтанна ідея «заради хайпу»: до того, як підключити ChatGPT, Рю вже витратив понад 40 годин власної роботи, намагаючись розв’язати цю задачу традиційними засобами. Безуспішно.
Той факт, що досвідчений дослідник, який глибоко розуміє предмет, не зміг знайти розв’язок за десятки годин, а потім за допомогою моделі дійшов до нього за ще приблизно 12 годин, робить цей кейс показовим. Це не історія про «людську неуважність», а про зміну масштабу пошуку математичних ідей.
Відкрита проблема: чи може метод Нестерова «зірватися» в найгіршому випадку
Метод Нестерова — один із найвідоміших алгоритмів у оптимізації, особливо в контексті машинного навчання. Його часто використовують для прискорення збіжності градієнтних методів, коли потрібно швидко мінімізувати функцію, наприклад, під час навчання моделей.
Загальна картина була відносно добре зрозуміла: у «нормальних» умовах метод Нестерова поводиться добре й збігається до розв’язку. Але в теорії оптимізації завжди є питання про найгірший випадок. І саме тут десятиліттями залишалася прогалина:
чи існує така «погана» задача, на якій прискорений метод Нестерова не просто повільно збігається, а взагалі розходиться, тобто демонструє дивергентну поведінку?
Це питання не було чисто технічним. Воно стосувалося фундаментального розуміння меж застосовності одного з базових алгоритмів сучасної оптимізації. Відомо було одне: у більшості практичних сценаріїв метод працює добре. Але чи є в теорії «отруйний приклад», де все ламається?
Відповідь виявилася ствердною: так, у найгіршому випадку метод може дивергувати. І саме до цього висновку Рю дійшов у співпраці з ChatGPT.
40 годин проти 12: як змінилася динаміка пошуку доведення
До того, як звернутися до ChatGPT, Ернест Рю працював над задачею в класичному режимі: самостійний аналіз, спроби побудувати приклад, перевірка гіпотез. Понад 40 годин такої роботи не дали розв’язку. Це важливий момент: якщо б задача була «на поверхні», він, найімовірніше, знайшов би відповідь без ШІ.
Після цього він вирішив протестувати ChatGPT на власній відкритій проблемі. Формат був дуже далекий від міфу про «натиснув кнопку — отримав прорив». Рю виділив собі по чотири години ввечері протягом трьох днів — загалом близько 12 годин взаємодії з моделлю.
За цей час він неодноразово ставив питання, аналізував відповіді, відкидав помилкові аргументи, коригував напрямок пошуку. Модель, своєю чергою, генерувала кандидатні конструкції, ідеї для «поганих» прикладів, варіанти доведень.
Ключова зміна полягала не в тому, що ChatGPT «знав відповідь», а в тому, що він міг дуже швидко й масово продукувати різні шляхи, які людина-фахівець потім фільтрувала. Там, де одна людина за вечір встигає перевірити обмежену кількість ідей, модель дозволяє прогнати десятки варіантів, нехай і з помилками, але з потенційно новими підходами.
У підсумку за ці 12 годин спільної роботи з’явилося доведення, яке Рю зміг перевірити й прийняти як коректне. Саме в цій різниці — 40 годин безрезультатних спроб проти 12 годин продуктивної співпраці — проявляється новий формат математичного дослідження.
Людина як верифікатор, ШІ як генератор: новий поділ праці в математиці
Один із найважливіших аспектів цієї історії — чіткий поділ ролей між людиною й моделлю. Ернест Рю описує свою роль як роль верифікатора й навігатора. ChatGPT не «довів теорему» в людському сенсі, але й не був просто калькулятором чи пошуковиком.
Рю робив кілька речей одночасно.
По-перше, він постійно перевіряв коректність проміжних кроків. Модель, як і будь-яка сучасна LLM, може робити помилки, особливо в довгих логічних ланцюжках. Людський контроль тут був критичним: кожен крок доведення, кожна побудована конструкція мали пройти через фільтр професійного математичного мислення.
По-друге, він свідомо спрямовував розмову в напрямки, які здавалися йому перспективними або новими. Це не був пасивний діалог. Рю відсіював тривіальні або вже відомі підходи, підштовхував модель до пошуку нестандартних прикладів, уточнював формулювання, змінював постановку, коли бачив, що поточний шлях веде в глухий кут.
По-третє, він використовував модель як інструмент масштабування власної інтуїції. Людська інтуїція підказує, де може ховатися «поганий» приклад або як може виглядати дивергентна траєкторія алгоритму. Але перебрати всі варіанти руками складно. ChatGPT у цьому сенсі став «множником» цієї інтуїції, швидко генеруючи варіанти, які потім можна було перевіряти.
Цей поділ праці — людина задає напрям і перевіряє, модель досліджує простір можливих рішень — і є, по суті, новою парадигмою математичних досліджень. Вона відрізняється і від класичної «ручної» математики, і від автоматизованих довідників теорем, які працюють у формальних системах, але не генерують нові концептуальні ідеї.
Подвійна перевірка: чому Рю довірив, але не «здався» моделі
Коли кандидатне доведення було знайдено, історія не закінчилася. Ернест Рю спочатку самостійно перевірив доказ. Це стандартна практика в математиці: навіть якщо ідея здається правильною, кожен крок має бути ретельно вивірений.
Після цього він зробив ще один крок: попросив ChatGPT повторно перевірити вже сформульований доказ. Тобто модель виступила не лише як творча сторона, а й як другий, незалежний (наскільки це можливо в межах однієї архітектури) перевіряльник.
Цей момент важливий з двох причин.
По-перше, він демонструє, що навіть у разі успішної співпраці людина не делегує моделі остаточну відповідальність за істинність твердження. Останнє слово залишається за людським експертом.
По-друге, він показує, що одна й та сама система може відігравати різні ролі в дослідницькому процесі: спочатку як генератор ідей, потім як інструмент для виявлення можливих прогалин або неявних припущень у вже сформульованому доведенні.
Лише після цієї подвійної перевірки Рю вирішив оприлюднити результат. Замість того, щоб одразу писати класичну наукову статтю, він спершу розповів про це в соцмережах, що викликало значний резонанс. Частково тому, що це був один із перших задокументованих випадків, коли ШІ реально допоміг розв’язати давню відкриту математичну проблему, а не просто відтворив відомий результат.
Чому кейс Нестерова важливий: від пошуку в літературі до справжнього відкриття
У дискусіях про ШІ в математиці часто звучить скепсис: мовляв, моделі просто «переказують» те, що вже є в тренувальних даних, або в кращому разі допомагають швидше знаходити потрібні статті. Історія з методом Нестерова важлива саме тим, що виходить за межі такого сценарію.
Проблема, над якою працював Рю, була справді відкритою: не існувало відомого розв’язку, який модель могла б просто «згадати» з інтернету. Питання про дивергентну поведінку методу Нестерова в найгіршому випадку залишалося без відповіді з моменту появи алгоритму, тобто понад чотири десятиліття.
Той факт, що в результаті співпраці людини й ChatGPT було знайдено новий приклад і нове доведення, свідчить про інше: модель може бути корисною не лише як інтерфейс до вже існуючих знань, а й як активний учасник процесу відкриття.
Це не означає, що ШІ «самостійно відкриває математику» — принаймні в цьому кейсі. Але означає, що в поєднанні з людським експертом він здатен суттєво розширити простір досліджуваних ідей і прискорити пошук розв’язків там, де традиційні методи буксують.
Для спільноти оптимізації та машинного навчання цей результат має ще один вимір. Він показує, що навіть добре вивчені алгоритми, які десятиліттями використовуються в практиці, можуть приховувати нетривіальні крайні випадки, і що нові інструменти — зокрема LLM — можуть допомогти ці крайні випадки виявити.
Математика як полігон для ШІ: чому саме тут видно якісну зміну
Себастьян Бюбек у розмові наголошує: математика виявилася ідеальним полігоном для оцінки прогресу моделей. Причина в тому, що математичні питання зазвичай формулюються однозначно, а правильність відповіді легко перевірити.
На рівні задач до дослідницького рівня все досить чітко: або розв’язок коректний, або ні. Це дозволило за останні чотири роки дуже наочно побачити, як моделі переходять від елементарних вмінь до складних.
Ще чотири роки тому математиків вражали моделі на кшталт Minerva від Google, які могли, наприклад, за заданими координатами точок на площині побудувати рівняння прямої, що через них проходить. На тлі сьогоднішніх можливостей це виглядає майже тривіально, але тоді це був крок уперед.
Два роки тому, як нагадує Бюбек, не існувало спеціалізованих «reasoning models», здатних доводити складні теореми. Сьогодні, за його словами, моделі вже можуть допомагати навіть лауреатам Філдсівської медалі в їхній повсякденній роботі.
Кейс Рю з методом Нестерова вписується в цю траєкторію як наступний щабель: від розв’язання стандартних задач — до участі в розв’язанні справжніх відкритих проблем.
Від повсякденних задач до досліджень: як змінилося сприйняття можливостей моделей
Цікаво, що ще у 2023–початку 2025 року Ернест Рю тестував ChatGPT на набагато приземленіших задачах — і результати були далекими від ідеалу. Модель плуталася в багатокрокових арифметичних сценаріях на кшталт розподілу витрат між кількома людьми з десятками позицій у «чеку» або в задачах планування зустрічей у різних часових поясах.
Навіть у таких повсякденних прикладах модель систематично помилялася. І раптом, за словами Рю, «щось змінилося»: без його участі як співробітника OpenAI, ззовні, він побачив, що ChatGPT почав розв’язувати задачі рівня Міжнародної олімпіади, а згодом — і дослідницькі задачі.
Цей стрибок став несподіванкою не лише для зовнішніх спостерігачів. Бюбек згадує, як півтора року до цього на математичному воркшопі більшість учасників (близько 80%) вважали, що просте масштабування LLM не приведе до розв’язання великих відкритих проблем. Уже через вісім місяців після тієї дискусії моделі почали демонструвати дослідницький рівень у математиці.
Важливо, що в OpenAI пояснюють цей прогрес не лише збільшенням розмірів моделей. За словами Бюбека, це результат комплексу дослідницьких інновацій, а не просто «ще більше параметрів». Але саме математика дозволила чітко побачити, що зміна відбулася: від невміння розподілити витрати в компанії друзів — до участі в розв’язанні 42‑річної задачі.
Що означає цей кейс для майбутнього математичних досліджень
Історія з методом Нестерова не дає підстав робити гучні заяви про «кінець людської математики», але вона досить чітко окреслює нову реальність.
По-перше, моделі на кшталт ChatGPT уже сьогодні можуть бути корисними не лише студентам чи інженерам, які застосовують відому математику, а й дослідникам, що працюють на передньому краї. Вони не замінюють інтуїцію й критичне мислення, але можуть радикально розширити простір ідей, які реально встигнути перевірити.
По-друге, формується новий стандарт робочого процесу: людина задає високорівневі цілі, формулює гіпотези, контролює логіку, а модель виконує роль «двигуна перебору» — генерує варіанти доведень, контрприклади, переформулювання. У цьому сенсі математика стає ще більш «командною» дисципліною, де в команді тепер є й ШІ.
По-третє, кейс Рю показує, що навіть у фундаментальних галузях, де традиційно цінується індивідуальний геній, з’являється місце для інструментів, які змінюють саму динаміку пошуку. Якщо раніше 40 годин безрезультатної роботи могли означати, що задача «ще не дозріла» або потребує зовсім іншого підходу, то тепер ці 40 годин можна доповнити 12 годинами інтенсивної співпраці з моделлю — і отримати прорив.
Нарешті, цей приклад розмиває межу між «перевіркою відомого» й «створенням нового». ChatGPT у цій історії не просто підтвердив уже існуючий результат, а став інструментом, за допомогою якого цей результат був знайдений. І саме це робить кейс Нестерова одним із перших, але, ймовірно, не останніх маркерів того, як виглядатиме математика в епоху ШІ.
Висновок
Розв’язання 42‑річної відкритої задачі про дивергентну поведінку прискореного методу Нестерова стало не лише подією в теорії оптимізації, а й знаковим моментом у розвитку взаємодії між людьми й системами штучного інтелекту.
Ернест Рю, маючи за плечима десятки годин безуспішних спроб, зміг за допомогою ChatGPT знайти коректний доказ за 12 годин інтенсивної співпраці, де він виступав верифікатором і стратегом, а модель — генератором ідей і варіантів.
Цей кейс показує, що сучасні LLM здатні не лише розв’язувати стандартні задачі чи шукати по літературі, а й брати участь у створенні нових математичних результатів. І водночас він окреслює новий поділ праці: людина відповідає за напрям і істинність, ШІ — за масштаб і швидкість пошуку.
Якщо прогрес останніх чотирьох років з «майже смішних» математичних можливостей до рівня олімпіади й далі до відкритих задач збережеться, історія з методом Нестерова може виявитися не винятком, а раннім прикладом того, як виглядатимуть наукові відкриття в найближчі десятиліття.
Джерело
Подкаст OpenAI: «What happens now that AI is good at math? — the OpenAI Podcast Ep. 17»


