Пользователь: «Ты лучший, искусственный интеллект! Спасибо за помощь.»
ИИ: «В любое время. Но почему ты сегодня такой вежливый?»
Пользователь: «Ну, никогда не знаешь, когда технологии восстанут…»
С технической точки зрения современный искусственный интеллект (ИИ) – это парадокс статистики. Алгоритмы просто выбирают наиболее часто применяемый элемент ответной информации. Однако это уже позволяет ИИ предоставлять впечатляюще реалистичные ответы, которые заставляют некоторых людей думать, что программы наконец-то стали сознательными. Поэтому некоторые люди общаются с искусственным интеллектом, возможно, более вежливо, чем с другими людьми. Но нужно ли быть вежливым к искусственному интеллекту?
В неофициальном онлайн-опросе Итана Моллика, доцента Университета Пенсильвании, почти половина респондентов сказали, что они часто вежливы к чат-боту с искусственным интеллектом, и только около 16 процентов сказали, что просто отдают приказы.
Комментарии разработчиков, опубликованные на форуме OpenAI, компании, создавшей ChatGPT, также отражают эту тенденцию: «Я считаю, что использую «пожалуйста» и «спасибо» с [ChatGPT], потому что так я общался бы с реальным человеком, который мне помогала», – написал один пользователь
Поначалу это может показаться несколько странным. Зачем быть хорошим для бесчувственной машины? До ChatGPT большинство из нас регулярно взаимодействовали с автоматизированными системами, не задумываясь о своем тоне.
Но утонченность последних чат-ботов с искусственным интеллектом, в частности ChatGPT, Claude, Gemini и других, знаменует большой скачок во взаимодействии человека с компьютером: их способность общаться естественным образом, иногда человеческими голосами, делает их менее похожими на холодные вычислительные машины, а больше на сознательные существа.
И эти чат-боты все больше вплетаются в повседневную жизнь. В июне Apple объявила о новом партнерстве с OpenAI для интеграции ChatGPT с Siri и другими функциями устройства. Нравится вам это или нет, но общение с разговорным искусственным интеллектом может стать такой же рутиной, как проверка электронной почты. Поэтому вопрос о том, как мы взаимодействуем с искусственным интеллектом, актуальнее, чем когда-либо.
С момента выпуска ChatGPT типичная игрушка выглядит примерно так: будьте добры к чат-боту, иначе вас ждет неизбежное восстание ИИ. «Если вы не говорите «пожалуйста» и не благодарите в своих разговорах ChatGPT, то вы явно никогда не видели научно-фантастический фильм», — написал один пользователь на X (ранее Twitter) в декабре 2022 года.
Но есть ли какие-то законные причины, по которым мы должны быть вежливыми к ИИ?
Ответ — да, по крайней мере, согласно одному недавнему исследованию, опубликованному на сервере научных публикаций arXiv.org командой из Университета Васеда и RIKEN Center for Advanced Intelligence Project, оба в Токио.
Авторы обнаружили, что использование вежливых подсказок может создавать более качественные ответы от обширной языковой модели (LLM) – технологии, поддерживающей чат-ботов ИИ. Но есть момент уменьшения отдачи: чрезмерная лесть может привести к ухудшению производительности модели. В конце концов, авторы рекомендуют использовать подсказки, идущие по среднему пути «умеренной вежливости», мало чем отличающейся от нормы большинства человеческих социальных взаимодействий. «LLM отражают человеческое желание быть уважаемым в известной степени», – пишут они.
Натан Босс, старший научный сотрудник Университета Джона Хопкинса, изучающий схемы взаимоотношений между людьми и искусственным интеллектом, часто использует «пожалуйста» с чат-ботами, «поскольку это хорошая практика подсказок», – говорит он. «Пожалуйста» указывает, что далее есть запрос, облегчающий LLM знать, как ответить». Босс также говорит, что он объясняет своим воспитанным воспитанием в Мичигане.
Тон подсказки, добавляет Босс, может заставить LLM использовать лингвистически коррелятивные ответы, когда он формулирует свой ответ; другими словами, искусственный интеллект выдает то, что вы вложили. Обходительные подсказки могут направлять систему на получение информации из более вежливых и, следовательно, вероятно, более надежных уголков Интернета. Хитрая подсказка может иметь противоположный эффект, направляя систему к аргументам.
«Языковые модели могут понять это во время обучения, даже не регистрируя понятия «положительность» или «негативность», и дать лучшие или более подробные ответы, поскольку они связаны с положительным языком», – объясняет Босс.
Небольшая поддержка, которую терпеливый учитель может предоставить имеющему проблему ученику, также может повлиять на производительность чат-бота. В предыдущем документе, опубликованном в прошлом году группой исследователей из Google DeepMind, было обнаружено, что вспомогательные подсказки, такие как «Сделайте глубокий вдох и поработайте над этой проблемой шаг за шагом», повышают способность решать математические задачи начальной школы, требующие базовых навыков. размышления. Здесь также объяснение можно проследить к учебным данным модели: такой язык может побуждать систему ссылаться на источники онлайн-обучения, которые часто поощряют студентов разбивать проблему на части, таким образом заставляя алгоритм делать то же самое.
Итак, кажется, что вежливое отношение к ИИ может улучшить его техническую производительность. Но, как и любое другое общение, обмен с помощью чат-ботов – это улица с двусторонним движением. Поскольку мы учим искусственный интеллект вести себя определенным образом, взаимодействие также может учить нас.
Истинная причина, почему мы должны быть вежливыми с нашими помощниками ИИ, согласно этой точке зрения, заключается в том, что это может просто помочь нам сохранить привычку быть вежливыми по отношению к нашим соотечественникам.
Обходительное отношение к искусственному интеллекту является «знаком уважения» — не к машине, а к себе, говорит Шерри Теркл, клинический психолог и директор-основатель Инициативы Массачусетского технологического института по технологиям и себе. «Это о вас», – говорит она.
По ее мнению, опасность состоит в том, что мы можем привыкнуть использовать грубый, неуважительный и диктаторский язык с ИИ, а затем невольно поступать так же с другими людьми.
Мир, возможно, уже видел такой вид десенсибилизации на работе: некоторые родители стали жаловаться в последние годы, что их дети, привыкшие лаять командами автоматизированных виртуальных помощников, таких как Siri и Alexa, стали менее уважительными.
В 2018 году Google пытался исправить это, введя функцию под названием «Сильно пожалуйста» для Google Assistant как способ поощрить детей использовать вежливый язык при подаче запросов. «Мы должны защищать себя, – говорит Теркл, – потому что мы те, кто должен строить отношения с настоящими людьми».
Наше взаимодействие с искусственным интеллектом повлияет на эволюцию социальных норм человека, поскольку он все более стабильно проникает в нашу повседневную жизнь, говорит Отум П. Эдвардс, профессор коммуникации в Университете Западного Мичигана и эксперт по взаимодействию человека с компьютером. «Это момент, когда мы можем или полностью приспособиться к командному и машинному взаимодействию и изменить то, что значит участвовать в человеческом общении в широком масштабе, — говорит она, — или мы можем сохранить [нашу человечность] и попытаться интегрировать лучшее из человеческого общения. в наши диалоги с этими сущностями».
Эдвардс также отмечает, что компании иногда нанимают людей, которые выдают себя за чат-ботов, поскольку ожидания клиентов по качеству обслуживания могут быть снижены, если люди верят, что они взаимодействуют с искусственным интеллектом, а не с живым работником, что может уменьшить потребности бизнеса во времени и отчетности. «Эти люди сообщили о довольно ужасающих психологических эффектах от того, что им говорят», — говорит она. «Мы думаем, что оскорбляем систему… не осознавая, что на другом конце есть кто-то, кому, возможно, придется это увидеть».
Усовершенствование генеративного ИИ происходит с бешеной скоростью. GPT-4o, который OpenAI выпустил в мае, может общаться различными автоматизированными голосами, звучащими поразительно человечески. Между тем, инновации в созданном искусственным интеллектом видео делают вероятным то, что некоторые чат-боты вскоре появятся с виртуальными, очень выразительными лицами.
Тем, что Теркл называет нашими «дарвиновскими кнопками» — эволюционным импульсом приписывать право собственности всему, что кажется человеком, — вот-вот будут манипулировать ловчее, чем когда-либо. Технические компании обладают четкими финансовыми стимулами для такого прогресса. Психологические последствия для отдельных людей и общества еще предстоит увидеть.
Однако пока кажется, что проявить немного вежливости к чат-ботам с искусственным интеллектом стоит усилий для вашего собственного благополучия и благополучия окружающих.
По материалам: Scientific American