Користувач: “Ти найкращий, штучний інтелект! Дякую за допомогу.”
ШІ: “В будь-який час. Але чому ти сьогодні такий ввічливий?”
Користувач: “Ну, ніколи не знаєш, коли технології повстануть…”
З технічної точки зору сучасний штучний інтелект (ШІ) – це парадокс статистики. Алгоритми просто вибирають найчастіше вживаний елемент інформації у відповідь. Однак це вже дозволяє ШІ надавати вражаюче реалістичні відповіді, які змушують деяких людей думати, що програми нарешті стали свідомими. Через це деякі люди спілкуються зі штучним інтелектом, можливо, більш ввічливо, ніж з іншими людьми. Але чи потрібно бути ввічливим до штучного інтелекту?
У неофіційному онлайн-опитуванні Ітана Молліка, доцента Університету Пенсільванії, майже половина респондентів сказали, що вони часто ввічливі до чат-бота зі штучним інтелектом, і лише близько 16 відсотків сказали, що просто віддають накази.
Коментарі розробників, опубліковані на форумі OpenAI, компанії, яка створила ChatGPT, також відображають цю тенденцію: «Я вважаю, що використовую «будь ласка» та «дякую» з [ChatGPT], тому що так я спілкувався б із реальною людиною, яка мені допомагала», – написав один користувач
Спочатку це може здатися трохи дивним. Навіщо бути добрим до безчуттєвої машини? До ChatGPT більшість із нас регулярно взаємодіяли з автоматизованими системами, не замислюючись про свій тон.
Але витонченість останніх чат-ботів зі штучним інтелектом, зокрема ChatGPT, Claude, Gemini та інших, знаменує великий стрибок у взаємодії людини з комп’ютером: їхня здатність спілкуватися природним чином, іноді людськими голосами, робить їх менш схожими на холодні обчислювальні машини, а більше на свідомі істоти.
І ці чат-боти все більше вплітаються в повсякденне життя. У червні Apple оголосила про нове партнерство з OpenAI для інтеграції ChatGPT із Siri та іншими функціями пристрою. Подобається вам це чи ні, але незабаром спілкування з розмовним штучним інтелектом може стати такою ж рутиною, як перевірка електронної пошти. Тому питання про те, як ми взаємодіємо зі штучним інтелектом, є актуальнішими, ніж будь-коли.
З моменту випуску ChatGPT типова забавка виглядає приблизно так: будьте добрі до чат-бота, інакше вас чекає неминуче повстання ШІ. «Якщо ви не говорите «будь ласка» та не дякуєте у своїх розмовах ChatGPT, то ви явно ніколи не бачили науково-фантастичного фільму», — написав один користувач на X (раніше Twitter) у грудні 2022 року.
Але чи є якісь законні причини, через які ми повинні бути ввічливими до ШІ?
Відповідь – так , принаймні згідно з одним нещодавнім дослідженням, опублікованим на сервері наукових публікацій arXiv.org командою з Університету Васеда та RIKEN Center for Advanced Intelligence Project, обидва в Токіо.
Автори виявили, що використання ввічливих підказок може створювати більш якісні відповіді від великої мовної моделі (LLM) — технології, що підтримує чат-ботів ШІ. Але є момент зменшення віддачі: надмірні лестощі можуть призвести до погіршення продуктивності моделі. Зрештою, автори рекомендують використовувати підказки, які йдуть середнім шляхом «поміркованої ввічливості», що мало чим відрізняється від норми більшості людських соціальних взаємодій. «LLM відображають людське бажання бути поважаним до певної міри», – пишуть вони.
Натан Бос, старший науковий співробітник Університету Джона Гопкінса, який вивчає схеми взаємовідносин між людьми та штучним інтелектом, часто використовує «будь ласка» з чат-ботами, «оскільки це хороша практика підказок», – каже він. «Будь ласка» вказує на те, що далі є запит, що полегшує LLM знати, як відповісти». Бос також каже «дякую», що він пояснює своїм вихованим вихованням у Мічигані.
Тон підказки, додає Бос, також може змусити LLM використовувати лінгвістично корелятивні відповіді, коли він формулює свою відповідь; іншими словами, штучний інтелект видає те, що ви вклали. Ввічливі підказки можуть спрямовувати систему на отримання інформації з більш ввічливих і, отже, ймовірно, більш надійних куточків Інтернету. Хитра підказка може мати протилежний ефект, спрямовуючи систему до аргументів.
«Мовні моделі можуть зрозуміти це під час навчання, навіть не реєструючи поняття «позитивність» чи «негативність», і дати кращі чи детальніші відповіді, оскільки вони пов’язані з позитивною мовою», – пояснює Бос.
Невелика підтримка, яку терплячий учитель може надати учневі, що має проблеми, також може вплинути на продуктивність чат-бота. У попередньому документі, опублікованому минулого року групою дослідників із Google DeepMind, було виявлено, що допоміжні підказки , такі як «Зробіть глибокий вдих і попрацюйте над цією проблемою крок за кроком», підвищують здатність розв’язувати математичні завдання початкової школи, які потребують базові навички міркування. Тут також пояснення можна простежити до навчальних даних моделі: така мова може спонукати систему посилатися на джерела онлайн-навчання, які часто заохочують студентів розбивати проблему на частини, таким чином змушуючи алгоритм робити те саме.
Отже, здається, що ввічливе ставлення до ШІ може покращити його технічну продуктивність. Але, як і будь-яке інше спілкування, обмін за допомогою чат-ботів — це вулиця з двостороннім рухом. Оскільки ми навчаємо штучний інтелект поводитися певним чином, взаємодія також може навчати нас.
Справжня причина , чому ми повинні бути ввічливими з нашими помічниками ШІ, згідно з цією точкою зору, полягає в тому, що це може просто допомогти нам зберегти звичку бути ввічливими по відношенню до наших співвітчизників.
Ввічливе ставлення до штучного інтелекту є «знаком поваги» — не до машини, а до себе, каже Шеррі Теркл, клінічний психолог і директор-засновник Ініціативи Массачусетського технологічного інституту щодо технологій і себе. «Це про вас », — каже вона.
На її думку, небезпека полягає в тому, що ми можемо звикнути використовувати грубу, неповажну та диктаторську мову з ШІ, а потім мимоволі діяти так само з іншими людьми.
Світ, можливо, вже бачив такий вид десенсибілізації на роботі: деякі батьки почали скаржитися останніми роками, що їхні діти, які звикли гавкати командами автоматизованих віртуальних помічників, таких як Siri та Alexa, стали менш поважними.
У 2018 році Google намагався виправити це, запровадивши функцію під назвою «Сильно будь ласка» для Google Assistant як спосіб заохотити дітей використовувати ввічливу мову під час подання запитів. «Ми повинні захищати себе, — каже Теркл, — тому що ми ті, хто має будувати стосунки зі справжніми людьми».
Наша взаємодія зі штучним інтелектом вплине на еволюцію соціальних норм людини, оскільки він все більш стабільно проникає в наше повсякденне життя, каже Отум П. Едвардс , професор комунікації в Університеті Західного Мічигану та експерт із взаємодії людини з комп’ютером. «Це момент, коли ми можемо або повністю пристосуватися до командної та машинної взаємодії та змінити те, що означає брати участь у людському спілкуванні в широкому масштабі, — каже вона, — або ми можемо зберегти [нашу людяність] і спробувати інтегрувати найкраще з людського спілкування в наші діалоги з цими сутностями».
Едвардс також зазначає, що компанії інколи наймають людей, які видають себе за чат-ботів, оскільки очікування клієнтів щодо якості обслуговування можуть бути знижені, якщо люди вірять, що вони взаємодіють із штучним інтелектом, а не з живим працівником, що може зменшити потреби бізнесу в часі та звітність. «Ці люди повідомили про досить жахливі психологічні ефекти від того, що їм говорять», — каже вона. «Ми думаємо, що ображаємо систему… не усвідомлюючи, що на іншому кінці є хтось, кому, можливо, доведеться це побачити».
Удосконалення генеративного ШІ відбувається з шаленою швидкістю. GPT-4o, який OpenAI випустив у травні, може спілкуватися різноманітними автоматизованими голосами, які звучать разюче людсько. Тим часом інновації у створеному штучним інтелектом відео роблять ймовірним те, що деякі чат-боти незабаром з’являться з віртуальними, дуже виразними обличчями.
Тим, що Теркл називає нашими «дарвінівськими кнопками» — еволюційним імпульсом приписувати право власності всьому, що здається людиною, — ось-ось маніпулюватимуть спритніше, ніж будь-коли. Технічні компанії мають чіткі фінансові стимули для такого прогресу. Психологічні наслідки для окремих людей і суспільства ще належить побачити.
Однак наразі здається, що проявити трохи ввічливості до чат-ботів зі штучним інтелектом варто зусиль — для вашого власного добробуту та добробуту оточуючих.
За матеріалами: Scientific American