У спільноті AI-інженерів дедалі частіше звучить одна й та сама скарга: стрічка LinkedIn перетворюється на одноманітний потік шаблонних постів, які легко впізнати як результат «одного промпту в чатбот». На воркшопі каналу AI Engineer співзасновник Towards AI Луї-Франсуа Бушар разом із колегами показує, чому це не просто естетична проблема, а системний збій у тому, як ми використовуємо мовні моделі, і пропонує альтернативу — глибокі дослідницькі агенти, що ставлять дослідження та обґрунтування вище за миттєву генерацію тексту.

Як виглядає «AI slop» у технічному LinkedIn-контенті
Якщо попросити популярний чатбот написати «короткий експертний пост для LinkedIn про AI», результат майже завжди впізнаваний. Це не випадковість, а наслідок того, як моделі оптимізовані: вони відтворюють найтиповіші патерни з масиву текстів, на яких навчалися. У випадку LinkedIn це означає відтворення вже наявної «словесної маси» — і саме вона сьогодні формує значну частину стрічки.
Типовий приклад такого поста має кілька характерних рис.
По-перше, шаблонні формулювання. Конструкції на кшталт «most companies miss…», «most teams don’t realize…», «most AI projects fail because…» зустрічаються настільки часто, що перестають щось означати. Вони створюють ілюзію глибокого інсайту, але не спираються на жодні конкретні дані, дослідження чи навіть приклади. Це універсальний «гачок», який не веде ні до чого змістовного.
По-друге, словесні тики, які легко впізнати як маркери низькоякісної AI-генерації. Серед них — «in today’s rapidly evolving AI landscape», «it’s not about X, it’s about Y», «we’re just scratching the surface». Ці фрази не додають змісту, але заповнюють простір, створюючи враження важливості й актуальності. Саме їх у воркшопі називають «AI slop words» — словесний шум, який маскує відсутність реального змісту.
По-третє, поверхневість і відсутність опори на реальність. У демонстраційному прикладі, згенерованому буквально за тиждень до воркшопу, модель стверджує, що GPT‑4 — «state-of-the-art», хоча це вже не відповідає поточному стану поля. Це не просто дрібна неточність: вона показує, що текст не спирається на актуальне дослідження, а лише відтворює застарілий консенсус із навчальних даних.
У сукупності це й утворює те, що команда воркшопу прямо називає «AI slop» — текст, який виглядає гладко, але є порожнім, неглибоким і часто неточним. Він не містить перевірених фактів, не посилається на джерела, не демонструє власного розуміння теми. Для особистого бренду це означає розмивання довіри, для компаній — ризики дезінформації, а для спільноти — засмічення інформаційного простору.
Проблема не лише в «баззвордах»: слабка структура й відсутність доказів
Легко посміятися з кліше на кшталт «rapidly evolving landscape», але справжня проблема глибша. Навіть якщо прибрати очевидні «слоп-слова», типовий чатбот-пост залишається структурно слабким і погано обґрунтованим.
Одна з ключових вад — відсутність реальних посилань і доказів. Коли в тексті з’являються узагальнення рівня «most AI projects fail because…», читач не отримує жодної відповіді на базові питання: які саме проєкти, у якій галузі, на якій вибірці, за якою методологією це оцінювали? Немає посилань на дослідження, немає згадки про конкретні кейси, немає навіть гіперпосилань на статті чи репозиторії.
Друга проблема — формальна, але показова: структура таких текстів часто виглядає випадковою. Речення можуть бути граматично правильними, але логічний рух думки слабкий. Тези не розгортаються, а повторюються іншими словами. Висновки не випливають із наведених фактів, бо самих фактів немає. Це «структура без скелета» — послідовність абзаців, які не будують аргумент.
Третій аспект — відсутність конкретики. Коли мова йде про AI-інженерію, читач очікує хоча б мінімальних деталей: які моделі, які обмеження, які метрики, які компроміси між латентністю, вартістю й якістю. Натомість у «AI slop» усе залишається на рівні загальних слів: «use the right tools», «focus on quality», «leverage data». Без прикладів, без коду, без архітектурних рішень.
Ці недоліки особливо помітні на тлі реальної роботи, яку виконують технічні команди. У Towards AI, наприклад, створення повноцінного курсу, відео чи уроку вимагає участі інженерів, технічних авторів, редакторів, кількох ітерацій, перевірки фактів, побудови наративу. Це дорого і повільно, але саме так народжується контент, що має цінність. Коли ж усе це замінюється одним промптом до чатбота, результат неминуче виявляється поверхневим.
Воркшоп як відповідь: від одноразового промпту до дослідницького циклу
Саме ця прірва між «натиснути згенерувати» і «справді дослідити тему» стала відправною точкою воркшопу. Його мета — не просто показати ще один «крутий агент», а навчити будувати системи, які ставлять дослідження й обґрунтування в центр процесу створення контенту.
У Towards AI ця потреба виникла з практики. Компанія виробляє курси, навчальні відео й технічні матеріали з AI-інженерії. Для цього потрібні фахівці, які одночасно розуміють технології й уміють писати: інженери, автори, редактори. Вони разом витрачають багато часу на те, щоб зібрати джерела, перевірити факти, вибудувати історію, адаптувати її під формат уроку чи відео. Це значні витрати, особливо якщо робити це системно й масштабно.
Команда вирішила автоматизувати ту частину процесу, яка найбільш механічна й формалізована: глибоке дослідження теми та первинний технічний драфт. Так з’явилася система з двох компонентів: глибокий дослідницький агент і окремий агент для технічного письма. Перший займається збором і аналізом інформації, другий — перетворенням результатів дослідження на структурований текст.
Цікаво, що цю ж систему використали для створення курсу, який пояснює, як її будувати. Це дало змогу не лише відшліфувати інструмент на реальних задачах, а й отримати зворотний зв’язок від студентів, які працювали з ним у навчальному форматі. На основі цього досвіду й побудовано воркшоп: у ньому показують спрощену версію дослідницького агента й окремий, більш вузький агент для коротких форматів — зокрема LinkedIn-постів.
Принципово важливо, що воркшоп не пропонує «кращий промпт для LinkedIn», а змінює саму модель роботи: замість одноразової взаємодії з чатботом — цілеспрямований дослідницький цикл, який включає пошук, перевірку, фільтрацію й лише потім — генерацію тексту.
Що таке глибокий дослідницький агент і чим він відрізняється від чатбота
У центрі підходу — ідея «deep research agent» — агента глибокого дослідження. На відміну від звичайного чатбота, який отримує промпт і одразу повертає відповідь, такий агент працює як автономний дослідник із доступом до інструментів.
Його завдання — не «написати пост», а спочатку розібратися в темі. Для цього він:
планує стратегію дослідження, розбиваючи запит на підзапитання;
шукає інформацію на різних ресурсах, включно з вебом і відео;
перевіряє актуальність і надійність джерел;
фіксує проміжні результати;
синтезує зібрані дані в структурований дослідницький артефакт.
У продакшн-системі Towards AI таким артефактом стає файл research.md у форматі Markdown. Саме він потім слугує основним вхідним матеріалом для окремого агента-письменника, який уже працює в більш жорстких рамках: обмежена довжина, чіткі вимоги до стилю, наявність коду й ілюстрацій там, де це доречно.
Воркшоп навчає створювати спрощену версію цього агента, але принципи залишаються тими самими. Ключова відмінність від чатбота — у наявності циклу: агент може шукати, повертатися, уточнювати, змінювати напрямок, перш ніж сформулювати підсумок. Це не «одна відповідь на один промпт», а послідовність кроків, спрямованих на досягнення дослідницької мети.
Саме тому в описі воркшопу дослідження пропонується розглядати не як «ще одну чатбот-взаємодію», а як «goal-directed research loop» — цілеспрямований дослідницький цикл. Він включає пошук, інспекцію, можливість «півоту» (зміни напряму) й поступове уточнення розуміння теми.
Від дослідження до письма: чому важливо розділяти ці етапи
Одна з цікавих ідей, що проходить через увесь воркшоп, — чітке розділення дослідження й письма. У продакшн-системі Towards AI це два різні компоненти з різною архітектурою й різним ступенем автономії.
Дослідницький агент гнучкий і «агентний»: він може самостійно вирішувати, які інструменти використати, куди піти по інформацію, як довго досліджувати тему. Він працює з невизначеністю, приймає рішення в умовах неповної інформації, може змінювати план у процесі.
Натомість агент-письменник працює в набагато жорсткіших рамках. Його завдання — не «вигадати» контент, а перетворити вже зібрані й структуровані дані на текст, який відповідає конкретному формату. Для коротких технічних постів, зокрема LinkedIn-формату, це означає чіткі обмеження: стислість, відсутність «слоп-слов», наявність конкретних фактів і посилань, ясна структура.
У воркшопі підкреслюється, що саме така розділеність допомагає уникати «AI slop». Коли один і той самий чатбот одночасно «досліджує» й «пише», він схильний компенсувати прогалини у знаннях вигаданими узагальненнями й красивими, але порожніми фразами. Коли ж дослідження відбувається окремо, а письмо спирається на готовий артефакт, у моделі менше простору для вигадок і більше — для роботи з уже перевіреним матеріалом.
Цей підхід також добре узгоджується з тим, як працюють людські команди. У традиційному редакційному процесі дослідник збирає джерела, аналітик структурує висновки, автор пише текст, редактор перевіряє логіку й стиль. Автоматизована система, яку демонструє воркшоп, намагається відтворити цю багатоступеневу модель у світі LLM, замість того щоб покладатися на «чарівний промпт».
Чому перехід до дослідницьких циклів важливий саме зараз
Проблема «AI slop» не нова, але сьогодні вона стає особливо гострою з кількох причин.
По-перше, бар’єр входу в генерацію контенту практично зник. Будь-хто може за хвилину створити десяток «експертних» постів, не маючи глибокого розуміння теми. Це створює конкуренцію не за якість, а за обсяг, і в такій гонці перемагає саме «словесна маса».
По-друге, технічні теми, особливо в AI-інженерії, змінюються настільки швидко, що покладатися на «знання моделі» стає небезпечно. Те, що було актуальним під час тренування, може бути застарілим уже через кілька місяців. Без зовнішнього дослідження й перевірки джерел ризик поширення неточностей зростає.
По-третє, зростають очікування до прозорості й обґрунтованості. Аудиторія, яка працює з AI-платформами, дедалі частіше запитує: звідки ці дані, на що ви спираєтеся, які обмеження моделі, які компроміси в архітектурі? Відповісти на ці питання в межах «одного промпту» практично неможливо.
У цьому контексті перехід від одноразових чат-відповідей до цілеспрямованих дослідницьких циклів виглядає не просто технічним апгрейдом, а необхідною еволюцією. Глибокі дослідницькі агенти дають змогу:
відокремити збір і перевірку інформації від її формулювання;
зменшити кількість галюцинацій і застарілих тверджень;
підвищити щільність реального змісту в коротких форматах;
зберегти контроль над стилем і структурою тексту.
Для платформ на кшталт LinkedIn це означає шанс повернутися від «словесного шуму» до контенту, який справді щось пояснює, показує досвід і додає нові знання в спільноту.
Висновок: технічний контент потребує не «кращих промптів», а кращих систем
Проблема «AI slop» не вирішується ще одним «ідеальним промптом для LinkedIn». Вона коріниться в тому, як ми використовуємо мовні моделі: як універсальні генератори тексту, а не як частину більшого процесу, що включає дослідження, перевірку, структурування й лише потім — письмо.
Воркшоп AI Engineer із командою Towards AI пропонує іншу оптику. Замість того щоб намагатися змусити чатбот «писати глибше», він вчить будувати системи, де глибина досягається через окремий дослідницький агент, а якість письма — через окремий, більш детермінований робочий процес. У центрі такого підходу — не магія моделі, а дисципліна: пошук, інспекція, фільтрація, артефакт, потім — текст.
У світі, де стрічки соцмереж заповнює все більше «AI slop», саме такі системи дають шанс повернути технічному контенту головне — зміст.
Джерело
Full Workshop: Build Your Own Deep Research Agents – Louis-François Bouchard, Paul Iusztin, Samridhi


