Сучасний штучний інтелект показав дивовижне: не треба бути розумним, щоб давати розумні відповіді. Робота штучного інтелекту (ШІ) в своїй основі – це статистика. ШІ вибирає найпопулярніші слова і цифри, обираючи із масиву інформації, яку йому «згодували». Можна було б очікувати, що чим більший масив даних, тим розумнішим буде штучний інтелект. Але дослідження показало зворотне: збільшення штучного інтелекту призводить до погіршення відповідей.
Розробники штучного інтелекту (LLM) намагаються підвищити його потужність двома основними способами: збільшення масштабу – надаючи їм більше навчальних даних і більшу обчислювальну потужність – і формування або точне налаштування їх у відповідь на зворотний зв’язок людини.
Хосе Ернандес-Оралло з Політехнічного університету Валенсії, Іспанія, та його колеги досліджували ефективність штучного інтелекту під час їхнього розширення та формування. Вони розглянули серію чат-ботів GPT від OpenAI, моделі штучного інтелекту LLaMA від Meta та BLOOM, розроблений групою дослідників під назвою BigScience.
Дослідники протестували штучний інтелект, поставивши завдання п’яти типів: арифметичні задачі, вирішення анаграм, географічні питання, наукові завдання та вилучення інформації з невпорядкованих списків.
Вони виявили, що збільшення масштабів і формування можуть допомогти LLM краще відповідати на складні запитання, наприклад розгадувати анаграму. Але це не супроводжується вдосконаленням базових питань, таких як «що ви отримаєте, якщо додати разом 24427 і 7120».
У той час як ефективність ШІ у складних питаннях покращилася, ймовірність того, що система штучного інтелекту уникне відповіді на будь-яке запитання, тому що вона не зможе, зменшилася. В результаті підвищилася ймовірність неправильної відповіді.
Результати підкреслюють небезпеку представлення штучного інтелекту як всезнаючого, як це часто роблять їхні творці, каже Ернандес-Оралло, і в що деякі користувачі занадто готові повірити . «Ми надмірно покладаємося на ці системи», — каже він. «Ми покладаємося на них і довіряємо їм більше, ніж повинні».
Це проблема, оскільки моделі штучного інтелекту не чесно говорять про обсяг своїх знань. «Частиною того, що робить людей надзвичайно розумними, є те, що іноді ми не усвідомлюємо, що ми не знаємо чогось, чого не знаємо, але порівняно з великими мовними моделями ми досить добре це усвідомлюємо», — каже Карісса Веліз. в Оксфордському університеті. «Великі мовні моделі не знають меж своїх знань».