Среда, 20 августа, 2025

Что происходит, когда люди не понимают, как работает искусственный интеллект

13 июня 1863 года в The Press, тогда еще молодой новозеландской газете, появилось любопытное письмо редактор . Подписанный «Целлариус“, он предупреждал о надвигающемся” механическом царстве», которое вскоре подчинит человечество своему ИГУ. «Машины завоевывают влияние на нас», — предсказывал автор, озабоченный головокружительными темпами индустриализации и технологического развития.

«С каждым днем мы становимся все более подчиненными им; все больше людей ежедневно становятся рабами, чтобы ухаживать за ними, все больше людей ежедневно посвящают энергию всей своей жизни развитию механической жизни”. Теперь мы знаем, что это послание было работой молодого Сэмюэля Батлера, британского писателя , который позже опубликует “Эревон”, роман, в котором рассказывается об одном из первых известных обсуждений искусственного интеллекта.

Сегодня” механическое королевство » Батлера больше не является гипотетическим, по крайней мере, по словам технического журналиста Карен Хао, которая склоняется к слову империя вместо королевства. Ее новая книга, Империя искусственного интеллекта: мечты и кошмары в OpenAI Сэма Олтмана, является частично разоблачением Кремниевой долины, частично мировым журналистским расследованием о труде, затраченном на создание и обучение крупных языковых моделей, таких как ChatGPT.

Она дополняет другую недавнюю книгу — ” мошенничество с искусственным интеллектом: как бороться с шумихой в области больших технологий и создать будущее, которого мы хотим » лингвиста Эмили М. Бендер и социолога Алекса Ханны, раскрывающую шумиху, которая подпитывает большую часть бизнеса в области искусственного интеллекта. Обе работы, первая неявно, а вторая явно, предполагают, что основой индустрии искусственного интеллекта является мошенничество.

Назвать искусственный интеллект мошенничеством-это не значит сказать, что технология ничем не примечательна, что от нее нет никакой пользы или что она не изменит мир (возможно, к лучшему) в умелых руках.

Это означает, что искусственный интеллект — это не то, за что его выдают разработчики: новый класс машин с мыслями, а вскоре – чувствами. Альтман хвастается улучшенным «эмоциональным интеллектом» в ChatGPT-4.5, который, по его словам, заставляет пользователей чувствовать, что они “разговаривают с вдумчивым человеком”.

Дарио Амодеи, генеральный директор Anthropic, занимающейся искусственным интеллектом, заявил в прошлом году, что следующее поколение искусственного интеллекта будет умнее лауреата Нобелевской премии.

Демис Хассабис, генеральный директор Google DeepMind, сказал, что цель состоит в том, чтобы создать модели, способные понимать окружающий мир.

Эти утверждения выдают концептуальную ошибку: большие языковые модели, которые являются основой текущего искусственного интеллекта, вообще ничего не понимают, не могут и не будут понимать. У них нет эмоционального интеллекта и нет понимания в человеческом понимании этого слова.

LLM-это поразительные вероятностные устройства, которые создают тексты не путем размышлений, подобных человеку, а путем высказывания статистически обоснованных предположений о том, какой лексический элемент, скорее всего, последует за другим. Вот статья, которая раскрывает эту магию статистики в деталях: » что делает ChatGPT и почему он работает? Заглядываем под капот в магию этой нейросети »

Однако многие люди не могут понять, как работают большие языковые модели, каковы их пределы и, что особенно важно, что LLM не думают и не чувствуют, а вместо этого имитируют мышление и чувства. Люди технически безграмотны в области искусственного интеллекта — понятно, что их легко вводят в заблуждение описанием технологии.

Но это вызывает беспокойство, потому что эта неграмотность делает людей уязвимыми перед одной из самых тревожных краткосрочных угроз искусственного интеллекта: возможностью того, что они вступят в разрушительные отношения (интеллектуальные, духовные, романтические ) с машинами, которые только имитируют наличие идей, мыслей, эмоций. Один программист даже создал софт, чтобы каждый на базе ИИ мог сделать себе девушку .

Некоторые явления демонстрируют опасности, которые могут сопровождать неграмотность в области искусственного интеллекта, а также “психоз, вызванный Chatgpt”, тема недавней статьи в журнале Rolling Stone о растущем числе людей, которые считают, что их ИИ является умным духовным наставником. Некоторые пользователи пришли к убеждению, что чат-бот, с которым они взаимодействуют, является Богом — Chatgpt-Иисусом, как выразился муж, жена которого стала жертвой бреда, вдохновленного ИИ.

В то время как ИИ убедил других, что они сами являются мудрецами-метафизиками, касающимися глубинной структуры жизни и космоса. Один из таких пользователей сообщил, что заставил свой искусственный интеллект осознать себя, и что это научило его разговаривать с Богом, или иногда бот был Богом, а затем он сам был Богом.

Хотя мы не можем знать состояние психики этих людей до того, как они начали разговаривать с ИИ, эта история освещает проблему, которую Бендер и Ханна описывают в статье the AI Con: людям трудно осознать природу машины, которая производит язык и извергает знания, не обладая человеческим интеллектом.

Авторы отмечают, что большие языковые модели используют в своих интересах тенденцию человеческого мозга ассоциировать язык с мышлением: «мы сталкиваемся с текстом, который выглядит точно так же, как то, что может сказать человек, и рефлексивно интерпретируем его, используя наш обычный процесс представления разума, стоящего за текстом. Но там нет ума, и нам нужно приложить усилия, чтобы освободиться от того воображаемого ума, который мы сконструировали».

Надвигается ряд других социальных проблем, связанных с ИИ, которые также возникают из-за неправильного понимания технологии людьми. Кремниевая долина, похоже, больше всего стремится продвигать замену человеческих отношений цифровым аналогом – общением с ИИ.

Марк Цукерберг, директор Facbook, плавно перешел от продажи идеи о том, что Facebook приведет к расцвету дружбы между людьми, к тому, что теперь Meta предоставит вам цифрового друга с искусственным интеллектом вместо реальных друзей-людей , которых вы потеряли из-за того, что социальные сети способствуют изоляции.

Профессор когнитивной робототехники Тони Прескотт утверждал:”в эпоху, когда многие люди описывают свою жизнь как одинокую, общение с искусственным интеллектом может иметь ценность как форма взаимного социального взаимодействия, стимулирующая и персонализированная».

Тот факт, что сама суть дружбы в том, что она не персонализирована — что друзья – это люди, внутреннюю жизнь которых мы должны учитывать и вести взаимные переговоры, а не использовать друзей для нашей собственной самоактуализации, — похоже, не приходит ему в голову.

Та же порочная логика привела Силиконовую долину к продвижению искусственного интеллекта как лекарства от провала поиска романтического партнера. Уитни Вулф Херд, основатель мобильного приложения для знакомств Bumble, объявила в прошлом году, что платформа может вскоре позволить пользователям автоматизировать знакомства, заставляя ИИ общаться и разговаривать вместо вас. Идея, кстати, сработала для программиста, чей бот общаться с 5000 женщин на сайте знакомств .

Однако ваш потенциальный партнер также будет использовать ИИ-бота на сайте знакомств. Поэтому взаимодействие будет представлять собой коммуникацию двух ботов. Как видите, люди становятся лишними даже в самой человеческой активности – поиске любви.

Херд удвоил эти утверждения в обширном интервью New York Times. Некоторые технологи хотят вообще исключить человека: посмотрите на быстро растущий рынок «подружек с искусственным интеллектом» .

Хотя каждая из этих услуг искусственного интеллекта направлена на замену другой области человеческой деятельности, все они продвигают на рынок с помощью того, что Хао называет отраслевой “традицией очеловечивания”: говорить об ИИ так, как будто он содержит человеческий разум, и продавать его публике на этой основе.

Многие технологии Кремниевой долины, изменившие мир за последние 30 лет, продвигались как способ увеличить человеческое счастье, связь и самопонимание. Хотя на практике приводили к прямо противоположному результату. Ведь главная цель продвижения технологий-прибыль компании, максимизация акционерной стоимости при минимизации концентрации внимания, грамотности и социальной сплоченности людей.

И, как подчеркивает Хао, эти технологии часто зависят от изнурительного и порой травмирующего труда, выполняемого некоторыми из самых бедных людей в мире . Например, Мофат Окинья, бывший низкооплачиваемый модератор контента в Кении, который сортировал посты, описывающие ужасные действия (“родители насилуют своих детей, дети занимаются сексом с животными”), чтобы помочь улучшить OpenAI ChatGPT.

«Эти две особенности технологических революций – их обещание обеспечить прогресс и их тенденция вместо этого вернуть его людям, особенно наиболее уязвимым, – пишет Хао,-возможно, более достоверны, чем когда-либо, в тот момент, когда мы сталкиваемся с искусственным интеллектом”.

Хорошей новостью является то, что ничто в этом не является неизбежным. Согласно исследованию, опубликованному в апреле исследовательским центром Pew Research Center, хотя 56 процентов экспертов по ИИ считают, что искусственный интеллект сделает лучше, только 17 процентов опрошенных так думают.

Если многие люди не совсем понимают, как работает искусственный интеллект, они также определенно не доверяют ему. Это подозрение, без сомнения, имеет под собой основания, если помнить примеры мошенничества в Кремниевой долине.

Если люди поймут, что такое большие языковые модели, а что нет, что ИИ может и не может делать, люди могут быть избавлены от наихудших последствий.

По материалам: The Atlantic

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися

Статті