Функции лайков в социальных сетях могут предоставить моделям искусственного интеллекта (ИИ) множество данных о поведении человека. Но по мере того, как ИИ становится умнее, сможет ли он узнавать предпочтения пользователей раньше, чем они сами осознают свои предпочтения?
Макс Левчин-соучредитель PayPal и генеральный директор Affirm — видит новую и чрезвычайно ценную роль в искусственном интеллекте, который делать выводы, в большей степени соответствующие тому, что сделал бы человек, принимающий решения.
Хорошо известная проблема машинного обучения заключается в том, что компьютер, наделенный четкой функцией вознаграждения, будет заниматься непрерывным обучением с подкреплением, чтобы улучшить свою производительность и максимизировать это вознаграждение. Но этот путь оптимизации часто приводит системы искусственного интеллекта к результатам, которые не совпадают с результатами человеческого суждения.
Чтобы внедрить корректирующую силу, разработчики искусственного интеллекта часто используют так называемое обучение с подкреплением на основе обратной связи с человеком (RLHF). По сути, они кладут большой палец человека на весы, когда компьютер создает свою модель искусственного интеллекта, обучая его на данных, отражающих реальные предпочтения реальных людей.
Но откуда берутся эти данные о предпочтениях человека и сколько их необходимо для того, чтобы входные данные были действительными? До сих пор это было проблемой с RLHF: это дорогостоящий метод, если он требует найма людей-корректировщиков и комментаторов для ввода отзывов.
И это та проблема, которую, по мнению Левчина, можно было бы решить с помощью кнопки «Мне нравится». Он рассматривает накопленный ресурс лайков, который сегодня находится в руках Facebook, как находку для любого разработчика, желающего обучить интеллектуального агента на основе данных о предпочтениях человека.
И насколько это важно? «Я бы сказал, что одна из самых ценных вещей, которыми обладает Facebook, — это гора данных о лайках», — сказал Левчин. Действительно, на этом переломном этапе развития искусственного интеллекта наличие доступа к тому, какой контент нравится людям, который можно использовать для обучения моделям искусственного интеллекта, вероятно, является одной из самых ценных вещей в интернете.
В то время как Левчин предполагает, что ИИ учится предпочтениям человека с помощью кнопки «Мне нравится», ИИ уже меняет способ формирования этих предпочтений в первую очередь. Фактически, платформы социальных сетей активно используют искусственный интеллект не только для анализа лайков, но и для их прогнозирования, что потенциально делает саму кнопку устаревшей.
Это было поразительное наблюдение, потому что прогнозы в основном делались с другой точки зрения, не описывая, как кнопка «Мне нравится» повлияет на производительность ИИ, а то, как ИИ изменит мир кнопки «Мне нравится».
Мы уже слышали, что искусственный интеллект применяется для улучшения алгоритмов социальных сетей. Например, в начале 2024 года Facebook экспериментировал с использованием искусственного интеллекта для изменения алгоритма, который рекомендует пользователям видеоролики Reels. Может он предложить лучшее взвешивание переменных, чтобы предсказать, какое видео пользователь больше всего хотел бы посмотреть следующим? Результат этого раннего теста показал, что это возможно: применение искусственного интеллекта к задаче окупилось более длительным пересмотром — показатель, который Facebook надеялся повысить.
Когда его спросили соучредителя YouTube Стива Чена, что ждет кнопку “Мне нравится» в будущем, он сказал: «Иногда я задаюсь вопросом, понадобится ли мне кнопка «Мне нравится», когда искусственный интеллект достаточно сложен, чтобы со 100-процентной точностью сообщать алгоритму, что вы хотите посмотреть следующим, на основе шаблонов просмотра и обмена информацией. До сих пор кнопка «Мне нравится» была самым простым способом для контент-платформ сделать это, но конечная цель — сделать это как можно проще и точнее с использованием любых доступных данных».
Однако далее он отметил, что одна из причин, по которой кнопка «Мне нравится» может остаться всегда актуальной, заключается в том, чтобы справляться с резкими или временными изменениями потребностей в просмотре через жизненных событий или ситуаций.
«Бывают дни, когда я хочу смотреть контент, который немного более актуален, скажем, для моих детей», — сказал он. Чен также объяснил, что кнопка «Мне нравится» может быть долговечна из — за ее роли в привлечении рекламодателей — другой ключевой показатель наряду со зрителями и создателями, — потому что «мне нравится» действует как простейший элемент, соединяющий эти три группы. Одним нажатием зритель одновременно выражает признательность и обратную связь непосредственно поставщику контента и свидетельствует о своих вовлеченности и предпочтениях рекламодателю.
Другим важным влиянием ИИ станет его все более широкое использование для создания самого контента, который зависит от эмоциональных реакций людей. Уже сейчас растущее количество контента — как текста, так и изображений — который нравится пользователям социальных сетей, создается ИИ. Возникает вопрос, останется ли вообще актуальной первоначальная цель кнопки «Мне нравится» — мотивировать больше пользователей создавать контент. Были бы платформы такими же успешными сами по себе, если бы их обычные пользователи вообще перестали делать посты?
Этот вопрос, конечно, поднимает проблему подлинности. Во время шоу в перерыве между матчами за Суперкубок 2024 года певица Алисия Киз взяла неверную ноту, которую заметил каждый внимательный слушатель, кто смотрел прямой эфир. Однако, когда запись ее выступления вскоре после этого была загружена на YouTube, эта ошибка была исправлена без уведомления о том, что видео было изменено. Это мелочь, но, тем не менее, хитрая коррекция вызвала удивление.
Если ИИ может тонко улучшать развлекательный контент, его также можно использовать в качестве оружия для более вводящих в заблуждение целей. Та же технология, которая может исправить музыкальную ноту, может так же легко клонировать голос, что приведет к гораздо более серьезным последствиям.
Еще больше пугает тенденция, с которой недавно расправилась Федеральная комиссия по связи США (FCC) и ее эквиваленты в других странах: использование искусственного интеллекта для «клонирования» голоса человека и эффективного вкладывания слов в уста этого клона. Это может быть самозванец, пытающийся обманом заставить дедушку этого человека заплатить выкуп или пытающийся провести финансовую операцию от его имени. В январе 2024 года, после инцидента с использованием спамерами голоса тогдашнего президента Джо Байдена, FCC выпустила четкие инструкции о том, что такое олицетворение является незаконным, и предупредила потребителей, чтобы они были осторожны.
Если не ограничиваться сценариями мошенничества, будущее социальных сетей, наполненных искусственным интеллектом, вполне может быть населено, казалось бы, людьми, созданными исключительно компьютером. Такие виртуальные выдумки проникают в сообщество онлайн-авторитетов и завоевывают легионы поклонников на платформах социальных сетей.
Например, «Айтана Лопес» регулярно публикует отрывки из своей завидной жизни прекрасной испанской музыкантши и модницы. В ее Instagram-аккаунте до 310 000 подписчиков, и она получала от брендов по уходу за волосами и одеждой, включая Victoria’s Secret, около 1000 долларов за публикацию. Но на самом деле Айтани Лопес не нужны ни одежда, ни еда, ни жилье. Она-несуществующий персонаж, созданный рекламным агентством.
Поскольку влиятельные лица и боты, управляемые искусственным интеллектом, взаимодействуют друг с другом с беспрецедентной скоростью, сама структура онлайн-взаимодействия может измениться. Если лайки больше не приходят от реальных людей, контент и больше не создается ими, что это значит для будущего экономики лайков?
В сценарии, который не только повторяет, но и выходит за рамки фильма 2013 года «она», теперь вы также можете приобрести подписку, которая позволяет вам сколько душе угодно общаться с экранной «девушкой». Каринай-это искусственный интеллект-клон реальной блогерши Кэрин Марджори, которая продает поминутное общение со своим клоном и зарабатывает десятки тысяч долларов в неделю. Поклонники красоты платят доллар в минуту, хотя на самом деле они общаются с ИИ OpenAI GPT-4, который был обучен на основе архива контента Марджори на YouTube.
Мы можем представить себе сценарий, в котором большая часть лайков не присуждается контенту, созданному человеком, и не ставится реальными людьми. У нас мог бы быть цифровой мир, наполненный синтезированными создателями и потребителями, молниеносно взаимодействующими друг с другом. Несомненно, если это произойдет, хотя бы частично, возникнут новые проблемы, требующие решения, связанные с нашей потребностью знать, кто есть кто.
Хотим мы будущего, в котором наши искренние симпатии и симпатии всех остальных будут более прозрачными? Хотим ли мы сохранить способность лицемерить? Кажется вероятным, что мы увидим разработку новых инструментов для обеспечения большей прозрачности и уверенности в том, относится ли лайк к реальному человеку или боту.
По материалам: Wired