Сэм Альтман, генеральный директор OpenAI, компании, разработавшей чат-бот на базе искусственного интеллекта ChatGPT, предупредил, что эта технология несет в себе реальные опасности, поскольку она меняет общество. Но, несмотря на опасности, сказал он, это также может быть самой большой технологией, которую разработало человечество.
37-летний Альтман подчеркнул, что регулирующие органы и общество должны быть вовлечены в технологию, чтобы защитить от потенциально негативных последствий для человечества. «Мы должны быть осторожными», – сказал Альтман ABC News, добавив: «Я думаю, что люди должны радоваться, что мы немного напуганы.
«Я особенно озабочен тем, что эти модели могут быть использованы для широкомасштабной дезинформации, – сказал Альтман. – Теперь, когда они становятся лучше в написании компьютерного кода, [их] можно использовать для наступательных кибератак».
Предупреждение поступило, когда OpenAI выпустил последнюю версию своей языковой модели, GPT-4 и менее чем через четыре месяца после выпуска оригинальной версии GPT-3, и когда ChatGPT стал самым быстрорастущим потребительским приложением в истории.
В интервью инженер сказал, что хотя новая версия была «неидеальной», она набрала 90% баллов в США на адвокатских экзаменах и почти идеальный балл на тесте по математике SAT в средней школе. По его словам, система также может писать компьютерный код на большинстве языков программирования.
Опасения по поводу искусственного интеллекта, ориентированного на потребителя, и искусственного интеллекта в целом сосредоточены на замене людей машинами.Но Альтман отметил, что искусственный интеллект работает только под руководством или ведением людей.
«Он ждет, пока кто-то даст ему вход, — сказал он. Это инструмент, полностью контролируемый человеком». Но он сказал, что его волнует вопрос о том, кто из людей контролирует вход.
«Будут другие люди, которые не установят ограничения безопасности, которые мы устанавливаем, – добавил он. — Я считаю, что у общества есть ограниченное время, чтобы понять, как на это реагировать, как это регулировать, как с этим обращаться».
Генеральный директор Tesla Илон Маск, один из первых инвесторов в OpenAI, когда она еще была некоммерческой компанией, неоднократно предупреждал, что AGI – искусственный общий интеллект – опаснее ядерного оружия.
Маск выразил обеспокоенность тем, что Microsoft, размещающая ChatGPT в своей поисковой системе Bing, расформировала свое подразделение по надзору за этикой.
«Нет регуляторного надзора за искусственным интеллектом, являющимся основной проблемой. Я призываю к регулированию безопасности искусственного интеллекта больше десяти лет!», — Маск написал в Twitter в декабре.
На этой неделе Маск также озаботился: «Что нам, людям, останется делать?»
В четверг Альтман признал, что последняя версия использует дедуктивное размышление, а не запоминание, процесс, который может привести к странным ответам.
«Больше всего я стараюсь предостерегать людей от того, что мы называем «проблемой галлюцинаций», – сказал Альтман. – Модель будет уверенно утверждать вещи, как будто это вполне выдуманные факты.
«Правильный способ думать о моделях, которые мы создаем, – это механизм рассуждения, а не база данных фактов», – добавил он.