Воображаемый город в Перу, Эйфелева башня в Пекине: все больше путешественников используют такие инструменты, как ChatGPT, для составления маршрутов — и в результате попадают в места, которых не существует.
Мигель Анхель Гонгора Меса, основатель и директор Evolution Treks Peru, находился в сельском перуанском городке, готовясь к походу через Анды, когда услышал странный разговор. Двое туристов без сопровождения оживленно обсуждали свои планы отправиться самостоятельно в горы к так называемому «Священному каньону Гумантай».
«Они показали мне скриншот-текст был уверен, красочный, но ложный. Никакого Священного каньона Гумантай не существует, — пояснил Гонгора Меса. — Название представляет собой комбинацию двух разных мест, не имеющих ничего общего с описанием. Турист заплатил почти 160 долларов (118 фунтов стерлингов), чтобы добраться до сельской дороги недалеко от Моллепаты без гида и, по сути, без пункта назначения».
По его словам, такая, казалось бы, мелкая ошибка могла стоить этим путешественникам жизни. «Подобная дезинформация в Перу опасна, — отметил он. — Высота, климатические условия и доступность троп должны быть тщательно спланированы. Когда используется программа вроде ChatGPT, которая комбинирует изображения и названия, создавая вымышленную реальность, человек может оказаться на высоте 4000 метров без кислорода и без связи».
За прошедшие годы инструменты искусственного интеллекта, такие как ChatGPT, Microsoft Copilot и Google Gemini, превратились из диковинки в неотъемлемую часть планирования путешествий для миллионов людей. Согласно одному из опросов, 30% международных туристов уже пользуются генеративными AI-сервисами и специализированными сайтами вроде Wonderplan и Layla для организации поездок.
Хотя эти приложения способны давать полезные советы при правильной работе, в случае сбоев они могут привести людей в разочаровывающие или даже опасные ситуации. Некоторые путешественники уже столкнулись с тем, что прибывают в места, о которых искусственный интеллект сообщил ложные данные, или вообще в места, которые существуют только в «воображении» алгоритма.
Дана Яо и ее муж испытали это на собственном опыте. Они использовали ChatGPT, чтобы спланировать романтическое восхождение на гору Мисен на японском острове Ицукусима. После прогулки по городку Миядзима без проблем, супруги отправились в 15: 00, чтобы успеть подняться на вершину до захода солнца — именно так советовал ChatGPT.
«Именно тогда начались проблемы, — рассказала Яо, автор блога о путешествиях по Японии. — Мы подошли к станции канатной дороги, чтобы спуститься вниз, как и рекомендовалось. ChatGPT сообщил, что последняя поездка была в 17:30, но на самом деле канатная дорога больше не работала. Мы остались на вершине горы».
В статье BBC за 2024 год сообщалось, что сервис Layla короткое время советовал пользователям посетить «Эйфелеву башню в Пекине» и предлагал британскому туристу марафонский маршрут через север Италии, который был полностью нереальным. «Маршруты не имели никакого смысла, — отметил путешественник. — Мы бы потратили больше времени на дорогу, чем на сам отдых».
Согласно другому опросу 2024 года, 37% пользователей, которые использовали ИИ для планирования поездок, заявили, что система не предоставляет достаточно информации, а около 33% сообщили, что рекомендации содержали ложные данные.
Причины этого кроются в том, как искусственный интеллект формирует ответы. Как объяснил Рейид Гани, почетный профессор машинного обучения в Университете Карнеги-Меллона, хотя такие программы могут показаться рациональными и полезными, их модель работы не гарантирует достоверности.
«Она не различает советы по путешествиям, маршруты или рецепты, — объяснил Гани. — Она просто знает слова. И продолжает издавать слова, которые звучат правдоподобно, создавая иллюзию реальности. Именно это и является источником большинства проблем».
Большие языковые модели, такие как ChatGPT, работают путем анализа гигантских объемов текста и комбинирования слов и фраз, которые статистически кажутся уместными. Иногда это дает вполне точную информацию, а иногда порождает то, что специалисты называют «галлюцинацией» — случаи, когда система просто выдумывает. Но поскольку интерфейс подает вымышленные и Реальные ответы одинаково, пользователям часто трудно различить правду и вымысел.
В случае со «Священным Каньоном Гумантай» Гани считает, что программа просто объединила несколько слов, которые, по ее «мнению», подходили к региону. Анализ данных не дает системам реального понимания физического мира, поэтому ChatGPT может легко спутать «легкую прогулку на 4000 метров» по городу с подъемом на гору той же высоты — еще до того, как возникнет проблема дезинформации.
В статье Fast Company недавно описан инцидент, когда пара отправилась к» живописной канатной дороге в Малайзии», которую увидела в TikTok, но на месте оказалось, что такой постройки не существует. Видео оказалось полностью созданным искусственным интеллектом-будь то для привлечения просмотров или по другим непонятным причинам.
Такие случаи являются частью более широкого явления, когда внедрение ИИ постепенно меняет восприятие реальности. В августе 2024 года создатели контента заметили, что YouTube без разрешения использует ИИ для «редактирования» своих видео, меняя одежду, волосы и даже черты лица реальных людей. А Netflix в начале 2025 года подвергся критике за попытки «ремастерить» старые ситкомы — из-за чего лица любимых звезд 1980-1990-х стали искаженными. Все чаще такие «невидимые» правки делают реальность похожей на отполированный мир иллюзий, и путешествия не являются исключением.
Хавьер Лабурт, лицензированный психотерапевт и сторонник идеи путешествий как средства улучшения психического здоровья и межличностных связей, опасается, что такие тенденции могут свести на нет пользу, которую странствия приносят человеку. По его мнению, путешествия — это уникальная возможность встречать людей из других культур, учиться на собственном опыте, развивать эмпатию и понимание. Но когда ИИ «галлюцинирует» и передает дезинформацию, он формирует ложное представление о месте еще до того, как путешественник отправляется туда.
Сейчас существуют попытки регулировать способ, в который AI подает информацию пользователям, в частности предложения ЕС и США по внедрению водяных знаков или других маркеров, указывающих, когда контент создан или изменен с помощью искусственного интеллекта. Но, как отмечает Гани, это сложная борьба: «есть много работы по выявлению дезинформации: как ее распознать, как помочь людям идентифицировать ее. Но сегодня более надежным решением является не предотвращение, а смягчение последствий».
Даже если подобные правила будут приняты, они не помогут в ситуации, когда чат-бот придумывает информацию прямо во время диалога. Эксперты, в том числе генеральный директор Google Сундар Пичаи, считают, что галлюцинации являются «неотъемлемой чертой» крупных языковых моделей, таких как ChatGPT или Gemini. Поэтому, пользуясь AI, нужно оставаться бдительным.
Гани советует формулировать запросы как можно конкретнее и проверять абсолютно все. В то же время он признает, что в случае с путешествиями это сложнее, ведь люди часто спрашивают о местах, с которыми не знакомы. Однако если совет кажется слишком идеальным-его стоит проверить дважды. В конце концов, время, потраченное на проверку информации, может оказаться не меньшим, чем при привычном самостоятельном планировании.
Для Лабурта ключом к успешному путешествию — с ИИ или без него-является открытое отношение к миру и способность адаптироваться, когда что-то идет не по плану. «Постарайтесь не сосредотачиваться на разочаровании из — за того, что вас обманули», — советует он. — Если вы уже там, подумайте, как можно обернуть ситуацию на пользу. Ведь вы все равно в путешествии, и это уже замечательно».
BBC



