ChatGPT і інші великі мовні моделі змінюють світ. Вони, наприклад, змінюють стиль вашого мовлення, стверджує група дослідників. Оскільки ШІ запрограмований видавати максимально усереднений результат, кінцевим наслідком його впливу на людей може стати ерозія мовного та культурного розмаїття.
Команда з Інституту людського розвитку Макса Планка в Німеччині опублікувала дослідження, яке, за їх словами, виявляє, що слова, які переважно використовують ChatGPT, стали частіше з’являтися в людській мові з тих пір, як бот був випущений на світ у 2022 році.
Так звані “GPT-слова” включають в себе “розуміти”, “хвалитися”, “швидкий”, “допитливий” і найпопулярніше “заглиблюватися”. Проаналізувавши 360 445 академічних виступів на YouTube і 771 591 серію подкастів, команда прийшла до висновку, що такі слова були всього лише декількома прикладами термінів, які почали з’являтися у все більшій кількості подкастів і відеороликів по різним темам.
Стаття не виходить за рамки статистичного аналізу кількох слів, щоб відстежити зростання їх вживання, і в ній не виноситься судження про те, чи хороший цей зсув або поганий. Але цього достатньо, щоб змусити дослідників поставити важливе питання: чи є у ШІ культура, яка формує нашу?
Тим не менш, взаємодія штучного інтелекту та людини може мати довгострокові наслідки для того, як обидва використовують мову, що в кінцевому підсумку може призвести до створення замкнутого циклу культурної зворотного зв’язку, в якому культурні риси циркулюють двонаправлено між людьми і машинами, відзначили дослідники.
Хоча ця думка цікава з точки зору культурної еволюції, вона викликає занепокоєння у дослідників, які зазначили, що за наявності достатнього часу і охоплення лінгвістичний дискурс штучного інтелекту та людини може призвести до культурної однорідності.
“Якщо системи штучного інтелекту непропорційно віддають перевагу певним культурним рисами, вони можуть прискорити ерозію культурної різноманітності”, – написала команда в своїй статті. “Посилює цю загрозу той факт, що майбутні моделі штучного інтелекту будуть навчатися на даних, в яких все частіше домінують риси, керовані штучним інтелектом, ще більш посилюються за рахунок прийняття людиною, тим самим посилюючи однорідність в самовідтворюваному циклі”.
По мірі монополізації певних шаблонів ризик краху моделі зростає по новому шляху: навіть включення людей в цикл навчальних моделей не може забезпечити необхідного розмаїття даних.