Штучний інтелект вже давно перетворився з фантастичних мрій на повсякденну реальність. Від написання електронних листів у ChatGPT – розмовній нейромережі, що генерує текст, – до механізмів, які пропонують нам фільми чи навіть допомагають у встановленні діагнозів, машинний розум міцно увійшов у наше життя. Попри всі обіцянки швидкості, точності та оптимізації, відчуття непевності залишається. Одні із захопленням приймають інструменти ШІ, інші – відчувають тривогу, підозру, а часом навіть зраду. В чому причина такого розмаїття реакцій?
Відповідь криється не лише в принципах функціонування штучного інтелекту, а й у глибинних особливостях людського сприйняття. Ми схильні довіряти тому, що розуміємо. Традиційні знаряддя праці та механізми є для нас звичними: обертаєш важіль – машина рушає, натискаєш кнопку – ліфт прибуває. Проте численні розробки ШІ функціонують як своєрідні “чорні скриньки”: ви вводите запит, і натомість отримуєте результат. Внутрішня логіка, що призвела до цього рішення, залишається невидимою. Психологічно це викликає дискомфорт. Люди прагнуть бачити причинно-наслідкові зв’язки та мати можливість ставити запитання щодо прийнятих рішень. Коли такої можливості немає, виникає відчуття безсилля.
Саме це є однією з причин явища, відомого як алгоритмічна відраза. Цей термін набув поширення завдяки досліднику маркетингу Берклі Дитфорсту та його колегам, чия праця виявила, що люди часто надають перевагу хибним людським судженням над алгоритмічними рішеннями, особливо після того, як стануть свідками хоча б однієї помилки, допущеної алгоритмом. Берклі Дитфорст – американський професор, чиї дослідження у сфері маркетингу та поведінкової економіки зосереджуються на психологічних аспектах довіри до алгоритмів.
Ми розуміємо – на раціональному рівні – що технології штучного інтелекту не володіють емоціями чи власними цілями. Проте це не заважає нам проєктувати на них саме ці людські якості. Коли, наприклад, ChatGPT відповідає “надто ввічливо”, деяким користувачам це здається моторошним. А коли механізм рекомендацій стає надто влучним, це може викликати відчуття вторгнення в особистий простір. Ми починаємо підозрювати маніпуляції, навіть знаючи, що система не має власного “я”. Це явище відоме як антропоморфізм – тобто, приписування нелюдським механізмам людських намірів. Професори комунікацій Кліффорд Насс та Байрон Рівз, серед інших, продемонстрували, що ми реагуємо на машини як на соціальних істот, навіть цілком усвідомлюючи їхню нелюдську природу. Кліффорд Насс – видатний американський дослідник, чиї роботи зосереджувались на взаємодії людини та комп’ютера, а Байрон Рівз – його колега, що також значно доклався до розуміння наших зв’язків з медіа та технологіями.
Одне з цікавих відкриттів поведінкової науки полягає в тому, що ми часто більш поблажливі до людських помилок, ніж до помилок, допущених машинами. Коли хибить людина, ми це розуміємо, а іноді навіть співчуваємо. Проте, коли алгоритм робить промах, особливо якщо його позиціонували як об’єктивний чи заснований на даних, ми відчуваємо себе ошуканими. Це пов’язано з концепцією порушення очікувань – психологічного феномена, що виникає, коли наші уявлення про те, як щось “повинно” працювати, не виправдовуються. Такий збій викликає дискомфорт та втрату довіри. Ми покладаємося на те, що машини будуть логічними та неупередженими. Тому, коли вони дають збій – наприклад, неправильно класифікують зображення, видають упереджені результати або пропонують щось абсолютно недоречне, – наша реакція є значно гострішою. Ми очікували більшого. Парадокс полягає в тому, що люди постійно приймають недосконалі рішення, але принаймні ми можемо запитати їх – “чому?”.
Неприйняття помилок штучного інтелекту
Для деяких людей штучний інтелект не просто незнайомий – він глибоко бентежить, викликаючи екзистенційні переживання. Викладачі, письменники, юристи та дизайнери раптово зіткнулися з інструментами, які відтворюють значну частину їхньої роботи. Це не лише питання автоматизації; це питання про цінність наших умінь та сутність людського буття. Така ситуація може активувати форму загрози ідентичності – концепцію, яку досліджував соціальний психолог Клод Стіл. Вона описує страх того, що власна експертиза чи унікальність зменшується. Результат? Опір, захисна реакція або повне відторгнення технології. Недовіра в цьому випадку є не збоєм – це психологічний захисний механізм. Клод Стіл – видатний американський психолог, відомий своїми дослідженнями в галузі соціальної психології, зокрема теорії загрози стереотипу та її впливу на самоідентичність.
Прагнення емоційних проявів
Людська довіра формується не лише на логіці. Ми зчитуємо інтонації, міміку, вагання та зоровий контакт – усе те, чого штучний інтелект позбавлений. Він може бути віртуозним у мовленні, навіть чарівним. Але не здатен заспокоїти нас так, як це може зробити інша людина. Це схоже на дискомфорт “зловісної долини” – терміна, який ввів японський робототехнік Масахіро Морі. Цей термін описує моторошне відчуття, що виникає, коли щось майже людське, але не зовсім. Воно виглядає або звучить правильно, але щось у ньому здається неприродним, не тим. Така емоційна відсутність може тлумачитися як холодність або навіть обман. Масахіро Морі – визначний японський робототехнік, що заклав основу для розуміння емоційного сприйняття роботів та комп’ютерних персонажів.
У світі, де повно дипфейків та алгоритмічних рішень, відсутність емоційного відгуку стає проблемою. І не тому, що штучний інтелект чинить щось неправильно, а тому, що ми не знаємо, як до нього ставитись.
Важливо зазначити: не всяка підозра щодо штучного інтелекту є ірраціональною. Було доведено, що алгоритми відбивають та посилюють упередження, особливо у сферах підбору персоналу, правоохоронної діяльності та оцінки кредитоспроможності. Якщо ви вже зазнали шкоди або були дискриміновані через роботу систем на основі даних, то ваша обережність – це не параноя, а цілком виправданий захист.
Це пов’язано з ширшою психологічною ідеєю – набутою недовірою. Коли інституції чи системи неодноразово підводять певні групи, скептицизм стає не лише обґрунтованим, а й захисним механізмом.
Заклики довіряти системі рідко дають результат. Довіра повинна бути завойована. Це означає розробку інструментів штучного інтелекту, які будуть прозорими, доступними для запитань та підзвітними. Це означає надання користувачам можливості впливати, а не лише зручностей. З психологічної точки зору, ми довіряємо тому, що розуміємо, що можемо піддати сумніву, і що ставиться до нас з повагою. Якщо ми прагнемо, щоб штучний інтелект був прийнятий суспільством, він має менше нагадувати “чорну скриньку” і більше – розмову, до якої нас запросили.
