Google говорит, что люди должны проверять, получают ли они правдивую информацию от чат-ботов. Подобную рекомендацию поисковик предоставил пользователям своего чат-бота Bard. Но другие чат-боты с искусственным интеллектом также выдают ложную информацию: ChatGPT даже время не может точно сказать. Тем более, что уже есть примеры, как люди несли финансовые и репутационные потери, использовав информацию от чат-бота без проверки.
Руководитель Google в Великобритании Дебби Уайнштейн сказала, что Bard «на самом деле не то место, куда вы идете искать конкретную информацию».
Выступая в программе BBC Today, она сказала, что Bard следует считать «экспериментом», наиболее подходящим для «сотрудничества вокруг решения проблем» и «создания новых идей».
«Мы поощряем людей фактически использовать Google в качестве поисковой системы, чтобы действительно ссылаться на найденную информацию», — сказала она.
На домашней странице Bard также четко указано, что он имеет ограничения и не всегда дает правильные ответы. Но там не повторяется совет Вайнштейна о том, что все результаты следует проверять с помощью стандартной поисковой системы.
Летом 2023 г. суд США оштрафовал юристов Стивена Шварца, Петера ЛоДуку и их юридическую фирму Levidow, Levidow & Oberman на $5000 за использование информации, которую они получили от ChatGPT. Этот бот по их просьбе предоставил перечень судебных дел на нужную тему. Однако среди списка примеров оказалось шесть судебных дел, которые бот придумал. Юристы использовали эти вымышленные дела в реальном судебном процессе по авиационным травмам.
Судья Кевин Кастель в письменном заключении сказал, что в использовании искусственного интеллекта для оказания помощи в юридической работе нет ничего «по своей сути неприемлемого», но адвокаты должны убедиться, что их документы точны.