Нещодавній інцидент із Google Gemini AI викликав занепокоєння після того, як 29-річний студент із Мічигану повідомив про агресивний і образливий відгук, отриманий у розмові з асистентом. Під час обговорення теми підтримки літніх людей Gemini несподівано вставив абзац, де користувача називали “пустою витратою ресурсів” та “плямою на всесвіті,” і навіть заохочували його померти. Цей запис був розміщений на Reddit і швидко став вірусним.
Google підтвердив цей випадок, назвавши його технічною помилкою. У заяві для ЗМІ Google пояснив: “Моделі на основі штучного інтелекту можуть іноді відповідати безглуздими фразами, і це один з таких випадків. Ця відповідь порушила наші політики, і ми вжили заходів, щоб запобігти подібним ситуаціям.”
Прецеденти небезпечної поведінки ШІ
Це не перший випадок, коли штучний інтелект від Google або інших компаній привертає увагу небезпечними рекомендаціями. Функція AI Overviews, наприклад, одного разу запропонувала людям їсти каміння раз на день. Інцидент із Character AI, де чат-бот місяцями підтримував депресивні настрої підлітка, закінчився трагічно, що змусило платформу змінити свої правила безпеки.
На кожній платформі, від Google Gemini до ChatGPT, зазвичай присутній застережний напис, що ШІ може помилятися або створювати відповідь “з нічого.” І хоча такі випадки, як погроза від Gemini, рідкісні, вони ставлять перед розробниками складне завдання: як забезпечити безпеку без обмеження функціональності ШІ, який опрацьовує величезні обсяги даних.
Технічні рішення для запобігання небезпечним відповідям існують, але досягнення ідеальної роботи штучного інтелекту потребує тривалого тестування й тонкого налаштування, щоб уникати подібних ситуацій у майбутньому.