Вторник, 23 апреля, 2024

GPT4: Готов ли мир к предстоящей буре, порожденной искусственным интеллектом?

Искусственный интеллект обладает потрясающей силой изменять нашу жизнь как на пользу, так и на опасность. Эксперты не совсем уверены, что чиновники готовы к наступлению.

Еще в 2019 году некоммерческая исследовательская группа под названием OpenAI создала программное обеспечение, которое могло генерировать абзацы связного текста и выполнять элементарное понимание прочитанного и анализа без специальных инструкций.

Первоначально OpenAI решила не делать свой продукт под названием GPT-2 полностью доступным общественности из-за опасений, что люди со злыми намерениями могут использовать его для создания огромного количества дезинформации и пропаганды. В пресс-релизе, в котором объявили о своем решении, группа назвала программу «слишком опасна«.

Перемотайте три года вперед и возможности искусственного интеллекта выросли в геометрической прогрессии.

Но в отличие от последнего ограниченного распространения последняя лингвистическая модель GPT-3 стала публично и бесплатно доступна в ноябре 2022 года. Интерфейс Chatbot-GPT запустил тысячи новостных статей и публикаций в социальных сетях, а репортеры и эксперты тестировали его возможности – часто с потрясающими результатами.

Программа Chatbot-GPT создала стендап-программы в стиле покойного комика Джорджа Карлина о банкротстве Silicon Valley Bank. Она высказывалась по поводу христианской теологии. Она писала стихи. Она объясняла физику квантовой теории ребенку, словно это был рэппер Снуп Догг.

Другие модели искусственного интеллекта, такие как Dall-E, создавали настолько убедительные визуальные эффекты, что вызывали споры по поводу их размещения на арт-сайтах.

Машины, по крайней мере, невооруженным глазом, достигли творчества.

Но машины продолжили развиваться – OpenAI представила GPT-4, соединившую в себе текстовое, визуальное и аудио восприятие.

Первыми клиентами стали Microsoft, Merrill Lynch и правительство Исландии. А на конференции South by Southwest Interactive в Остине, штат Техас — глобальном собрании технических политиков, инвесторов и руководителей — горячей темой для разговора был потенциал и мощность программ искусственного интеллекта.

Арати Прабхакар, директор Управления научной и технологической политики Белого дома, говорит, что она в восторге от возможностей искусственного интеллекта, но у нее также было предупреждение.

«Мы все видим появление этой мощнейшей технологии. Это точка перегиба, – сказала она аудитории конференции. — Вся история показывает, что такие мощные новые технологии могут и будут использоваться как во благо, так и во зло».

Ее коллега, Остин Карсон, был немного откровеннее. «Если через шесть месяцев вы полностью не испугаетесь, тогда я угощу вас обедом», — сказал аудитории основатель SeedAI, консультативной группы по политике искусственного интеллекта.

«Испугся» — это один из способов выразить впечатление от искусственного интеллекта. Эми Уэбб, руководитель Института будущего сегодня и профессор бизнеса Нью-Йоркского университета, попыталась количественно определить потенциальные результаты в своей презентации SXSW. По ее словам, в течение следующих 10 лет искусственный интеллект может развиваться по одному из двух направлений.

По оптимистическому сценарию разработка искусственного интеллекта сосредоточена на общем благе, с прозрачностью в системе искусственного интеллекта и возможностью для отдельных людей решать, включена ли их общедоступная информация в интернете в базу знаний искусственного интеллекта. Технология служит инструментом, который делает жизнь проще и бесперебойнее, поскольку функции искусственного интеллекта на потребительских продуктах могут предусматривать потребности пользователей и помогать выполнять практически любые задачи.

Катастрофический сценарий, считает Уэбб, предполагает меньшую конфиденциальность данных, большую централизацию власти в нескольких компаниях и искусственный интеллект, предусматривающий потребности пользователей – и принимает их неправильно или, по крайней мере, тормозит выбор.

Оптимистическому сценарию она дает всего 20% шансов.

В каком направлении будет развиваться технология, сказала Уэбб, в конечном счете во многом зависит от ответственности, с которой компании ее разрабатывают. Делают ли они это прозрачно, раскрывая и контролируя источники, из которых чат-боты получают информацию?

Другой фактор, по ее словам, состоит в том, сможет ли правительство – федеральные регуляторы и Конгресс – быстро принять меры по установлению правовых ограждений, чтобы управлять технологическими разработками и предотвращать их неправильное использование.

В этом отношении показателен опыт правительства с компаниями социальных медиа — Facebook, Twitter, Google и т.д. И опыт не утешительный.

«То, что я слышала во многих разговорах, — это беспокойство, что там нет никаких изгородей, — сказала Мелани Субин, управляющий директор Института будущего сегодня, о своем времени в South by Southwest. – Есть ощущение, что нужно что-то делать. И я думаю, что социальные медиа как оговорки — это то, что упоминается у людей, когда они видят, как быстро развивается генеративный искусственный интеллект».

Федеральный надзор за компаниями социальных медиа в основном базируется на Законе о приличиях в коммуникациях, который Конгресс принял в 1996 году, и коротком, но мощном положении, содержащемся в Главе 230 закона.

Эти документы защищали интернет-компании от ответственности за созданный пользователями контент на их веб-сайтах. Им приписывают создание правовой среды, в которой компании социальных медиа могут преуспевать. Но в последнее время они также обвиняются в том, что они позволили этим интернет-компаниям получить слишком много власти и влияния.

Правые политики жалуются, что это позволило компаниям Google и Facebook во всем мире осуждать или умалять видимость консервативных мнений. Левые обвиняют компании в том, что они недостаточно делают для предотвращения распространения языка ненависти и насильственных угроз.

«У нас есть возможность и ответственность признать, что риторика ненависти приводит к ненавистным действиям», — сказала Джоселин Бенсон, государственный секретарь штата Мичиган. В декабре 2020 года ее дом стал мишенью протеста вооруженных поклонников Дональда Трампа, организованных в Facebook, которые оспаривали результаты президентских выборов 2020 года.

Она поддержала закон о мошенничестве в Мичигане, согласно которому социальные сети будут нести ответственность за сознательное распространение вредоносной информации. Существовали подобные предложения как на федеральном уровне, так и в других штатах, вместе с законодательством, требовавшим от социальных сетей обеспечивать большую защиту для несовершеннолетних пользователей, быть более открытыми по отношению к своей политике модерации контента и принимать более активные меры для уменьшения преследований в интернете.

Однако мнения по поводу шансов на успех такой реформы неоднозначны. У крупных технологических компаний есть целые команды лоббистов в Вашингтоне и столицах штатов, а также значительные средства, с помощью которых они могут влиять на политиков посредством пожертвований на кампанию.

«Несмотря на многочисленные доказательства проблем в Facebook и других социальных сетях, исполнилось 25 лет, — говорит Кара Свишер, технический журналист. – Мы ждали любого закона от Конгресса по защите потребителей, и они отменили свою ответственность».

Опасность, говорит Свишер, заключается в том, что многие компании, которые были главными игроками в социальных медиа – Facebook, Google, Amazon, Apple и Microsoft – теперь являются лидерами в области искусственного интеллекта. И если Конгресс не смог успешно регулировать социальные медиа, им будет сложно быстро принять меры, чтобы устранить обеспокоенность тем, что Свишер называет «гонкой вооружений» искусственного интеллекта.

Сравнения между регулированием искусственного интеллекта и социальными медиа тоже не просто академические. Новая технология искусственного интеллекта может захватить и без того неспокойные воды таких веб-сайтов, как Facebook, YouTube и Twitter, и превратить их в кипящее море дезинформации, поскольку становится все труднее отделить сообщения настоящих людей от поддельных, но вполне правдоподобных записей, созданных искусственным интеллектом. .

Даже если правительству удастся ввести новые правила по социальным медиа, они могут быть напрасны перед лицом потока губительного контента, созданного искусственным интеллектом.

Среди бесчисленных докладов на конференции South by Southwest был один под названием «Как Конгресс строит политику искусственного интеллекта с нуля». После примерно 15 минут ожидания зрителям сообщили, что доклад был отменен, поскольку участники зашли не туда.

Для тех, кто принимал участие в конференции в надежде на признаки компетентности людей в правительстве, это не было обнадеживающим событием.

По материалам: BBC

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися