13 червня 1863 року в The Press, тоді ще молодій новозеландській газеті, з’явився цікавий лист редактор . Підписаний “Целларіус”, він попереджав про насування “механічного царства”, яке незабаром підпорядкує людство своїм ярмом. “Машини завойовують вплив на нас”, – пророкував автор, стурбований запаморочливими темпами індустріалізації і технологічного розвитку.
“З кожним днем ми стаємо все більш підлеглими їм; все більше людей щодня стають рабами, щоб доглядати за ними, все більше людей щодня присвячують енергію всього свого життя розвитку механічної життя”. Тепер ми знаємо, що це послання було роботою молодого Семюеля Батлера, британського письменника, який згодом опублікує “Еревон” , роман, в якому представлено одне з перших відомих обговорень штучного інтелекту.
Сьогодні “механічне королівство” Батлера більше не є гіпотетичним, принаймні, на думку технічного журналіста Карен Хао, яка схиляється до слова імперія замість королівства. Її нова книга, Імперія штучного інтелекту: мрії і кошмари в OpenAI Сема Олтмана, є частково викриттям Кремнієвої долини, частково світовим журналістським розслідуванням про працю, витрачену на створення і навчання великих мовних моделей, таких як ChatGPT.
Вона доповнює іншу нещодавно книгу — “Шахрайство з штучним інтелектом: як боротися з ажіотажем великих технологій і створити майбутнє, якого ми хочемо” лінгвіста Емілі М. Бендер і соціолога Алекса Ханни, що розкриває галас, яка підживлює більшу частину бізнесу в області штучного інтелекту. Обидві роботи, перша неявно, а друга явно, припускають, що основою індустрії штучного інтелекту є шахрайство.
Назвати штучний інтелект шахрайством – це не означає сказати, що технологія нічим не примітна, що від неї немає ніякої користі або що вона не змінить світ (можливо, на краще) в умілих руках.
Це означає, що штучний інтелект — це не те, за що його видають розробники: новий клас машин з думками, а незабаром – почуттями. Альтман хвалиться поліпшеним “емоційним інтелектом” в ChatGPT-4.5, який, за його словами, змушує користувачів відчувати, що вони “розмовляють з вдумливою людиною”.
Даріо Амодеі, генеральний директор компанії Anthropic, що займається штучним інтелектом, стверджував в минулому році, що наступне покоління штучного інтелекту буде розумнішим за лауреата Нобелівської премії.
Деміс Хассабіс, генеральний директор Google DeepMind, сказав , що мета полягає в тому, щоб створити моделі, здатні розуміти навколишній світ.
Ці твердження видають концептуальну помилку: великі мовні моделі, які є основою поточного штучного інтелекту, взагалі нічого не розуміють, не можуть і не будуть розуміти. Вони не мають емоційного інтелекту та не мають розуміння у людському розумінні цього слова.
LLM – це вражаючі імовірнісні пристрої, які створюють тексти не шляхом розмірковування подібного до людини, а шляхом висловлювання статистично обгрунтованих припущень про те, який лексичний елемент, швидше за все, піде за іншим. Ось стаття, що в подробицях розкриває цю магію статистики: «Що робить ChatGPT і чому він працює? Зазираємо під капот у магію ціє нейромережі»
Однак багато людей не в змозі зрозуміти, як працюють великі мовні моделі, які їх межі і, що особливо важливо, що LLM не думають і не відчувають, а замість цього імітують мислення та почуття. Люди технічно безграмотні в області штучного інтелекту — зрозуміло, що їх легко вводять в оману описом технології.
Але це викликає занепокоєння, тому що ця неграмотність робить людей уразливими перед однією з найбільш тривожних короткострокових загроз штучного інтелекту: можливістю того, що вони вступлять в руйнівні відносини (інтелектуальні, духовні, романтичні ) з машинами, які тільки імітують наявність ідей, думок, емоцій. Один програміст навіть створив софт, щоб кожен на базі ШІ міг зробити собі дівчину.
Деякі явища демонструють небезпеки, які можуть супроводжувати неграмотність в галузі штучного інтелекту, а також “психозу, викликаного Chatgpt”, темою недавньої статті в журналі Rolling Stone про зростаюче число людей, які вважають, що їх ШІ є розумним духовним наставником. Деякі користувачі прийшли до переконання, що чат-бот, з яким вони взаємодіють, є богом — ChatGPT-Ісусом, як висловився чоловік, дружина якого стала жертвою марення, натхненного ШІ.
В той час як ШІ переконав інших, що вони самі є мудрецями-метафізиками, дотичними до глибинної структури життя і космосу. Один із таких користувачів повідомив, що змусив свій штучний інтелект усвідомити себе, і що це навчило його розмовляти з Богом, або іноді бот був Богом, а потім він сам був Богом.
Хоча ми не можемо знати стан психіки цих людей до того, як вони почали розмовляти з ШІ, ця історія висвітлює проблему, яку Бендер і Ханна описують в статті The AI Con: людям важко усвідомити природу машини, яка виробляє мову і вивергає знання, не володіючи людським інтелектом.
Автори відзначають, що великі мовні моделі використовують у своїх інтересах тенденцію людського мозку асоціювати мову з мисленням: «Ми стикаємося з текстом, який виглядає точно так само, як те, що може сказати людина, і рефлексивно інтерпретуємо його, використовуючи наш звичайний процес подання розуму, що стоїть за текстом. Але там немає розуму, і нам потрібно докласти зусиль, щоб звільнитися від того уявного розуму, який ми сконструювали».
Насувається ряд інших соціальних проблем, пов’язаних з ШІ, які також виникають із-за неправильного розуміння технології людьми. Кремнієва долина, схоже, найбільше прагне просувати заміну людських відносин цифровим аналогом – спілкуванням з ШІ.
Марк Цукерберг, директор Facbook, плавно перейшов від продажу ідеї про те, що Facebook призведе до розквіту дружби між людьми, до того, що тепер Meta надасть вам цифрового друга з штучним інтелектом замість реальних друзів-людей, яких ви втратили через те, що соціальні мережі сприяють ізоляції.
Професор когнітивної робототехніки Тоні Прескотт стверджував : “В епоху, коли багато людей описують своє життя як одиноке, спілкування з штучним інтелектом може мати цінність як форма взаємної соціальної взаємодії, стимулююча і персоналізована”.
Той факт, що сама суть дружби в тому, що вона не персоналізована — що друзі – це люди, внутрішнє життя яких ми повинні враховувати і вести взаємні переговори, а не використовувати друзів для нашої власної самоактуалізації, — схоже, не приходить йому в голову.
Та ж порочна логіка привела Кремнієву долину до просування штучного інтелекту як ліків від провалу пошуку романтичного партнера. Вітні Вулф Херд, засновниця мобільного додатку для знайомств Bumble, оголосила в минулому році, що платформа незабаром може дозволити користувачам автоматизувати знайомства, змусивши ШІ спілкуватися та розмовляти замість вас. Ідея, до речі, спрацювала для програміста, чий бот спілкуватися з 5000 жінок на сайті знайомств.
Однак ваша потенційний партнер також використовуватиме бот з ШІ на сайті знайомств. Тому взаємодія представлятиме собою комунікацію двох ботів. Як бачите, люди стають зайвими навіть в найбільш людській активності – пошуку кохання.
Херд подвоїв ці твердження у розлогому інтерв’ю New York Times. Деякі технологи хочуть взагалі виключити людину: подивіться на швидко зростаючий ринок “подружок з штучним інтелектом”.
Хоча кожна з цих послуг штучного інтелекту спрямована на заміну іншої сфери людської діяльності, всі вони просувають на ринок з допомогою того, що Хао називає галузевою “традицією олюднення”: говорити про ШІ так, як ніби він містить людський розум, і продавати його публіці на цій основі.
Багато технологій Кремнієвої долини, що змінили світ за останні 30 років, просувалися як спосіб збільшити людське щастя, зв’язок і саморозуміння. Хоча на практиці призводили до прямо протилежного результату. Адже головна мета просування технологій – прибуток компанії, максимізація акціонерної вартості при мінімізації концентрації уваги, грамотності та соціальної згуртованості людей.
І, як підкреслює Хао, ці технології часто залежать від виснажливої і деколи травмуючої праці, що виконується деякими з найбідніших людей в світі. Наприклад, Мофат Окинья, колишній низькооплачуваний модератор контенту в Кенії, який сортував пости, що описують жахливі дії (“батьки гвалтують своїх дітей, діти займаються сексом з тваринами”), щоб допомогти поліпшити OpenAI ChatGPT.
“Ці дві особливості технологічних революцій — їх обіцянку забезпечити прогрес і їх тенденція замість цього повернути його назад для людей, особливо для найбільш уразливих, – пише Хао, – можливо, більш достовірні, ніж коли-небудь, в той момент, коли ми стикаємося з штучним інтелектом”.
Доброю новиною є те, що ніщо в цьому не є неминучим. Згідно з дослідженням, опублікованому в квітні Дослідницьким центром Pew Research Center, хоча 56 відсотків експертів з ШІ вважають, що штучний інтелект зробить краще, тільки 17 відсотків опитаних так думають.
Якщо багато людей не зовсім розуміють, як працює штучний інтелект, вони також, безумовно, не довіряють йому. Ця підозра, без сумніву, має під собою підстави, якщо пам’ятати приклади шахрайства в Кремнієвій долині.
Якщо люди зрозуміють, чим є великі мовні моделі, а чим вони не є, що ШІ може і чого не може робити, люди, можливо, будуть позбавлені від найгірших наслідків.
За матеріалами: The Atlantic
The post Що відбувається, коли люди не розуміють, як працює штучний інтелект appeared first on .