Вторник, 18 марта, 2025

Заставляете искусственный интеллект искать для вас в интернете? В 60% ИИ изобретает источники

Новый отчет показывает, что для поиска информации в интернете лучше использовать классические поисковики, такие как Google или Bing. Поисковые системы на базе интеллекта, которые вроде бы ищут за вас, в большинстве случаев не ищут, а придумывают информацию. Исследовательский отчет Columbia Journalism Review (CJR) показал, что модели искусственного интеллекта от таких компаний, как OpenAI и xAI, чаще всего, когда их спрашивают о конкретном новостном событии, просто придумывают историю или искажают существенные детали.

Исследователи скармливали различным моделям прямые выдержки из реальных новостных сюжетов, а затем просили искусственные интеллекты указать источник информации, включая заголовок статьи, издателя и URL-адрес статьи.

Perplexity возвращал неверную информацию в 37 процентах случаев, в то время как Grok xAI изменял детали в 97 процентах случаев. Ошибки включали в себя ссылки на статьи, которые никуда не вели, потому что бот сам придумал URL статьи.

В целом, исследователи обнаружили, что модели искусственного интеллекта выдавали ложную информацию для 60 процентов тестовых запросов.

Иногда поисковые системы, такие как Perplexity, обходят платные брандмауэры таких сайтов, как National Geographic, даже если на этих сайтах установлена инструкция, запрещающая сканирование – классические поисковые системы обычно уважают эту инструкцию.

В прошлом компания Perplexity не раз ссорилась из-за этого, но утверждала, что такая практика является добросовестным использованием. Она пыталась предложить соглашения о распределении доходов, чтобы успокоить издателей, но по-прежнему отказывается прекратить эту практику.

Любой, кто использовал чат-ботов в последние годы, не должен удивляться. Чат-боты дают ответы, даже если их почти не просят. Интернет-поиск в чат-ботах включен с помощью технологии, называемой генерацией с дополненным поиском, которая просматривает интернет в поисках информации по мере получения ответа.

Одна из самых неприятных вещей, которую заметили некоторые пользователи чат-ботов, заключается в том, что, просматривая свой текст «рассуждений» или логическую цепочку, которую чат-боты используют для ответа на запрос, они часто признают, что выдумывают. Например, Клауд из Anthropic был пойман на вставке данных-заполнителей, когда его попросили провести исследовательскую работу.

Марк Ховард, главный операционный директор журнала Time, пристыдил пользователей, предположив, что это их вина, если они не скептически относятся к точности бесплатных инструментов искусственного интеллекта: «если кто-то из потребителей прямо сейчас считает, что любой из этих бесплатных продуктов будет точным на 100 процентов, то позор им».

Ожидания здесь должны быть минимальными. Люди ленивы, а чат-боты отвечают на запросы в уверенной манере, которая может усыпить бдительность пользователей. Настроения в социальных сетях демонстрируют, что люди не хотят переходить по ссылкам и предпочитают получать немедленный ответ от искусственного интеллекта. И даже до запуска инструментов генеративного искусственного интеллекта более половины поисковых запросов Google были «без клика», что означало, что пользователь получал необходимую ему информацию, не переходя на веб-сайт с информацией. Другие сайты, такие как Википедия, годами доказывали, что люди возьмут то, что может быть менее авторитетным, если оно будет бесплатным и доступным.

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися

Статті