Если вы копируете тексты, которые написал Вам ChatGPT, теперь это можно надежно распознать. По сей день нет надежного способа сказать, кто написал текст-ИИ или человек. Однако ChatGPT начал добавлять невидимые человеку метки в текст. эти метки легко обнаружить самым простым поиском по тексту.
Новые мини-модели CHATGPT GPT-o3 и GPT-o4 добавляют водяные знаки из специальных символов Юникода. Это, например, символ узкого пробела без разрыва – визуально вы не распознаете его, для вас это будет выглядеть как обычный пробел. Однако каждый символ имеет свою кодировку и для компьютера обычный пробел, неразрывный пробел и узкий неразрывный пробел – три разных символа.
Эксперты, заметившие нововведение говорят, что водяные знаки добавлялись только к более длинным ответам. Например, при запросе GPT-o3 «написать полное эссе о Департаменте образования». В ходе тестирования исследователи не наблюдали водяных знаков в более старых моделях, таких как GPT-4o.
Пользователи могут обнаруживать эти скрытые символы, вставляя текст в онлайн-инструменты или текстовые редакторы, которые обнаруживают эти обычно невидимые маркеры.
Расположение этих символов-меток выглядит систематическим, а не случайным, что предполагает умышленную реализацию.
Преимущество использования таких меток на основе кодов ASCII в том, что при обычном копировании они также копируются. Это позволяет установить, что текст написан силами ИИ даже после нескольких циклов копирования.
Нововведение последовало за недавними объявлениями о тестировании работы ИИ с водяными знаками на изображениях в ChatGPT. OpenAI не делала официального объявления об этой функции, вероятно, потому, что ее обнародование подорвало бы эффективность системы в выявлении плагиата.
Несмотря на потенциальную полезность для идентификации контента, созданного искусственным интеллектом, водяные знаки на основе символов ASCII относительно легко обойти, как только пользователи узнают об этом — простая операция поиска и замены может удалить эти специальные символы.