Можна синю або червону пігулку, але синіх нема

Уявіть собі, що ви заходите в літак, а половина інженерів, які його створювали, кажуть вам, що існує 10-відсоткова ймовірність того, що літак розіб'ється, вбивши вас і всіх, хто перебуває на борту. Ви би однаково наважилися летіти?

 

 

У 2022 році опитали понад сімсот чільних науковців і дослідників, які стоять за провідними компаніями у сфері штучного інтелекту, про пов'язані з ним майбутні ризики. Половина опитаних заявили, що майбутні системи штучного інтелекту породжують більш як 10-відсотковий ризик вимирання людства (або аналогічне цьому постійне і серйозне обмеження його можливостей). Технологічні компанії, які створюють сучасні великі мовні моделі, втягнулися в гонитву за те, щоб посадити все людство на цей "літак".

 

Фармацевтичні компанії не можуть продавати людям нові ліки без попередньої ретельної перевірки їхньої безпечності. Біотехнологічні лабораторії не можуть випустити нові віруси у публічний простір, аби просто вразити акціонерів своєю майстерністю. Так само і системи штучного інтелекту з потужністю GPT-4 і вище не повинні втручатися в життя мільярдів людей швидше, ніж культури можуть їх безпечно сприйняти. Гонитва за домінування на ринку не повинна визначати швидкість розгортання найбільш значущих технологій людства. Ми мусимо рухатися з тією швидкістю, яка дозволить нам зробити це правильно.

 

Загроза штучного інтелекту переслідує людство з середини ХХ століття, але донедавна він залишався далекою перспективою, чимось зі сфери радше наукової фантастики, ніж серйозних наукових і політичних дебатів. Нашому людському розуму важко осягнути нові можливості GPT-4 та подібних інструментів – і ще важче зрозуміти експоненціальну швидкість, з якою ці інструменти розвивають свої все досконаліші та потужніші можливості. Але більшість ключових компетенцій зводяться до одного: вміння обробляти та генерувати мову – байдуже, слова це, звуки чи зображення.

 

Спочатку було слово. Мова – це операційна система людської культури. З мови виникають міф і закон, боги і гроші, мистецтво і наука, дружба, нації та комп'ютерний код. Нове опанування мови штучним інтелектом означає, що тепер він може зламати операційну систему цивілізації й оперувати нею. Опанувавши мову, штучний інтелект отримує головний ключ до цивілізації – від банківських сховищ до гробів Господніх.

 

Що це означатиме для людей – жити у світі, де великий відсоток історій, мелодій, образів, законів, політик та інструментів формується нелюдським інтелектом, який вміє з надлюдською ефективністю експлуатувати слабкості, упередження та узалежнення людського розуму, знаючи при цьому, як формувати інтимні стосунки з людськими істотами? У таких іграх, як шахи, жодна людина не може сподіватися перемогти комп'ютер. Що станеться, коли те саме відбудеться в мистецтві, політиці чи релігії?

 

Штучний інтелект може швидко поглинути всю людську культуру – все, що ми створили за тисячі років – перетравити її і почати вивергати потік нових культурних артефактів. Не лише шкільні твори, а й політичні промови, ідеологічні маніфести, священні книги для нових культів. До 2028 року президентські кампанії в США можуть більше не провадитися людьми.

 

Люди часто не мають прямого доступу до реальності. Ми перебуваємо в коконі культури, сприймаючи реальність через культурну призму. Наші політичні погляди формуються репортажами журналістів й оповідками друзів. Наші сексуальні вподобання коригуються мистецтвом і релігією. Досі цей культурний кокон плели інші люди. Яким буде сприйняття реальності крізь призму, створену нелюдським інтелектом?

 

Тисячоліттями ми, люди, жили у мріях інших людей. Ми поклонялися богам, прагнули до ідеалів краси і присвячували своє життя цілям, які виникли в уяві якогось пророка, поета чи політика. Незабаром ми також виявимо, що живемо всередині галюцинацій нелюдського інтелекту.

 

Франшиза "Термінатор" зображувала роботів, які бігають вулицями і стріляють у людей.  "Матриця" припускала, що для здобуття повного контролю над людським суспільством штучний інтелект повинен спочатку отримати фізичний контроль над нашим мізками і підключити їх безпосередньо до комп'ютерної мережі. Однак просто опанувавши мову, штучний інтелект матиме все необхідне, щоб утримувати нас у світі ілюзій, як у "Матриці", ні в кого не стріляючи і не імплантуючи жодних чіпів у наш мозок. Якщо ж буде потрібна стрілянина, штучний інтелект змусить людину натиснути на курок, просто розповівши нам правильну історію.

 

Загроза пастки у світі ілюзій переслідує людство значно довше, ніж загроза штучного інтелекту. Незабаром ми нарешті зіткнемося віч-на-віч із демоном Декарта, з печерою Платона, з Маєю Будди. Завіса ілюзій може опуститися над усім людством, і ми, можливо, вже ніколи не зможемо зірвати її – чи навіть усвідомити, що вона існує.

 

Соціальні мережі були першим контактом між штучним інтелектом та людством – і людство програло. Перший контакт дав нам гіркий смак того, що буде далі. У соціальних мережах примітивний штучний інтелект використовувався не для створення контенту, а для організації контенту, створеного користувачами. Штучний інтелект, що стоїть за нашими новинними стрічками, продовжує обирати, які слова, звуки та зображення досягнуть наших сітківок і барабанних перетинок, відбираючи ті, що отримають найбільшу вірусність, найбільшу реакцію та найбільшу заанґажованість.

 

Хоча штучний інтелект, що стоїть за соціальними мережами, був дуже примітивним, його вистачило, щоби створити куртину ілюзій, які посилили поляризацію суспільства, підірвали наше психічне здоров'я і зруйнували демократію. Мільйони людей сплутали ці ілюзії з реальністю. Сполучені Штати мають найкращі інформаційні технології в історії, але громадяни США більше не можуть дійти згоди у питанні, хто переміг на виборах. Хоча про негативний бік соціальних мереж уже знають всі, цієї проблеми не розв'язали, бо ними обплутано занадто багато наших соціальних, економічних і політичних інститутів.

 

Великі мовні моделі – це наш другий контакт зі штучним інтелектом, і ми не можемо дозволити собі знову програти. Але на якій підставі можемо вірити, що людство здатне пристосувати ці нові форми штучного інтелекту до наших потреб? Якщо ми продовжимо business as usual, продовжимо вести справи як завше, нові можливості штучного інтелекту знову використають для отримання прибутку і влади, навіть якщо це мимохіть зруйнує основи нашого суспільства.

 

Штучний інтелект дійсно має потенціал допомогти нам перемогти рак, відкрити життєво важливі ліки і винайти рішення для кліматичних та енергетичних криз. Існує незліченна кількість інших переваг, яких ми навіть не можемо собі уявити. Але байдуже, наскільки високим буде хмарочос переваг штучного інтелекту, якщо завалиться його фундамент.

 

Настав час рахуватися зі штучним інтелектом, поки наша політика, наша економіка і наше повсякденне життя не стали залежними від нього. Демократія – це розмова, а розмова базується на мові; і коли саму мову зламують, розмова переривається, а демократія стає неспроможною. Якщо ми чекатимемо, поки настане хаос, буде запізно щось виправляти.

 

Але є питання, яке не дає нам спокою: якщо ми не будемо рухатись якомога швидше, чи не ризикує Захід програти Китаю? Ні. Розгортання і впровадження неконтрольованого штучного інтелекту в суспільство, вивільнення богоподібних сил, відокремлених від відповідальності, може стати тією самою причиною, через яку Захід програє Китаю.

 

Ми все ще можемо вибрати, яке майбутнє хочемо зі штучним інтелектом. Коли богоподібна сила поєднується з належною відповідальністю і контролем, ми можемо реалізувати переваги, які обіцяє штучний інтелект.

 

Ми викликали чужий, нелюдський розум. Ми мало що знаємо про нього, окрім того, що він надзвичайно потужний і пропонує нам приголомшливі дари, але водночас може підірвати основи нашої цивілізації. Ми закликаємо світових лідерів відреагувати на цей момент – на рівні того виклику, який він представляє. Перший крок – виграти час, щоб модернізувати наші установи ХІХ століття відповідно до світу зі штучним інтелектом і навчитися опанувати штучний інтелект до того, як він опанує нас.

 

 

Юваль Ноа Гарарі – історик, автор книг "Sapiens", "Homo Deus" та "Нас не зупинити", засновник компанії  Sapienship.

Трістан Гарріс та Аза Раскін – засновники Центру гуманних технологій та співведучі подкасту "Ваша неподільна увага".

 

Yuval Harari, Tristan Harris and Aza Raskin

You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills

The New York Times, 24.03.2023

 

28.03.2023