MacBook Air M1 отримав осколкове поранення, але продовжив працювати

Український військовий опублікував у соцмережі X (Twitter) повідомлення про те, що його MacBook Air на базі процесора M1 отримав пошкодження уламком артилерійського снаряда і при цьому продовжив нормально працювати. Чоловік пише, що з ноутбука можна читати пости у X.

Пости з фотографією та відео пошкодженого ноутбука опублікував один з українських військових, який служить у бригаді «Азов». В окремому дописі також оприлюднено відео, на якому видно, що macOS працює без збоїв, хоча екран має очевидні та серйозні пошкодження.

Ще у 2022 році поширювалися фотографії смартфона, який, за повідомленнями, врятував українського військового від кулі. Поточний випадок із MacBook Air, можливо, не настільки драматичний, але він є цікавою демонстрацією влади випадковостей у нашому житті.

До речі, в 2016 році ютубери виклали цікаве відео на тему “Скільки смартфонів потрібно, щоб зупинити кулю та врятувати життя“. За підсумками експерименту iPhone виявилися кращими в ролі «бронежилетів» порівняно із Samsung Galaxy.

Смартфони також можуть виручити, якщо ви забули пройти технічне обслуговування та змінити зношені гальмівні колодки на нові. Гаджети iPhone здатні зупинити навіть спорткар Porshe 911, але лише якщо швидкість не перевищує 60 км/год.

The post MacBook Air M1 отримав осколкове поранення, але продовжив працювати appeared first on .

Для вашого обличчя з’являться розумні окуляри з незвичайними варіантами в 2026 році

Раніше цього місяця в офісах Google Pier 57 у Нью-Йорку з видом на річку Гудзон було продемонстровано майбутнє, яке можна було буквально взяти в руки і приміряти на себе. Було використано бездротові окуляри з дисплеєм в одному оці, здатним проєктувати Google Maps на підлогу перед користувачем, показувати оновлення Uber та автоматично розпізнавати й перекладати мови, які звучать уголос. Завдяки цьому стало можливим повноцінно розуміти розмову китайською мовою.

Також було випробувано іншу пару окулярів, з’єднану кабелем із компактним пристроєм, схожим на смартфон. Ця модель могла запускати застосунки прямо перед очима, подібно до гарнітури змішаної реальності. Забезпечувалося підключення до персонального комп’ютера, можливість взаємодії з плаваючими тривимірними об’єктами за допомогою рук і запуск тривимірних ігор. За відчуттями це нагадувало Vision Pro, який можна носити в кишені піджака.

Це майбутнє вже наближається. Очікується, що у 2026 році такі окуляри можна буде випробувати самостійно.

Водночас ці два дуже різні підходи до дизайну, один повсякденний і стриманий, інший ближчий до компактної гарнітури доповненої реальності, є лише невеликим уявленням про те, що з’явиться далі.

Робочий стіл сьогодні може бути буквально завалений розумними окулярами. Серед них велика пара з чорними оправами, що показує кольоровий дисплей в одному оці та використовує нейронний браслет на зап’ясті для передавання команд. Поруч знаходиться пара окулярів, схожих на звичайні Ray-Ban, які відтворюють музику та роблять фотографії.

Є також чорні окуляри зі змінними лінзами та зеленими монохромними дисплеями з інтеграцією ChatGPT. Поруч знаходяться тонкі окуляри з дисплеями та додатковим кільцем-компаньйоном, але без динаміків. Окремо представлені окуляри, створені для допомоги людям із порушеннями слуху.

Для перегляду фільмів або роботи інколи використовується зовсім інша пара окулярів, які взагалі не підтримують бездротове підключення і з’єднуються зі смартфоном або ноутбуком через USB-кабель.

Розумні окуляри стали найбільшим новим продуктовим трендом у середині двадцятих років цього десятиліття. Окуляри з інтелектуальними функціями можуть викликати асоціації з футуристичними образами на кшталт окулярів Тоні Старка або технологій із фантастичних фільмів, і саме до цього прагнуть більшість великих технологічних компаній.

За словами керівника напряму Android у Google Саміра Самата, початкове бачення платформи надихалося образами з фільмів про Залізну людину, де Джарвіс виступає не як чат-бот, а як агент, здатний працювати разом з користувачем і розв’язувати завдання безпосередньо в навколишньому просторі. Це бачення залишається надзвичайно привабливим, але шлях до нього виявився тривалим, і повна реалізація все ще формується.

Понад десять років тому Google Glass викликав гострі дискусії щодо соціального сприйняття, приватності у публічному просторі та навіть породив негативний термін, пов’язаний із користувачами цих пристроїв. У огляді 2013 року зазначалося, що як аксесуар без використання рук цей пристрій має обмежені можливості і не відображає всього того, що доступно на екрані смартфона, через що виникало бажання повернутися до звичайного телефону.

Попри значний прогрес технологій за останні дванадцять років, розумні окуляри все ще стикаються з подібними викликами.

Водночас вони нарешті стали функціональнішими, менш громіздкими та достатньо звичними на вигляд, щоб хоча б частково відповідати багаторічним очікуванням. Вони не є ідеальними, мають суттєві компроміси та недоліки, але їхні можливості вражають і водночас викликають певне занепокоєння.

Функціональність і набір можливостей суттєво різняться, але всі розумні окуляри мають спільну мету. Вони прагнуть стати тим, що хочеться носити щодня і протягом усього дня. Потенційно вони можуть стати постійними супутниками на рівні бездротових навушників, смартгодинників, фітнес-браслетів або кілець для відстеження здоров’я, і з часом стати такими ж незамінними, як смартфон.

Кількість моделей і напрямів стрімко зростає

Сучасний сплеск інтересу до розумних окулярів нагадує початок 2010-х років, коли десятки різних годинників і браслетів намагалися закріпитися на зап’ястях користувачів, від перших Fitbit до ранніх смартгодинників на кшталт Pebble або Martian. Тоді постало питання, чи справді люди будуть носити такі пристрої постійно. Відповідь виявилася однозначною.

Сьогодні увага зосереджена на обчисленнях на обличчі. У цій гонці беруть участь як великі імена зі світу споживчої електроніки та оптики, так і виробники окулярів, серед яких Meta, Google, Samsung, Amazon, Snap, TCL, EssilorLuxottica, Warby Parker та Gentle Monster.

Розумні окуляри поступово знаходять своє місце. Окуляри Meta Ray-Ban пройшли шлях від дивної і насторожливої новинки у 2021 році до пристрою, який регулярно використовується під час подорожей і в повсякденному житті. Компанії на кшталт Nuance Audio вже продають сертифіковані FDA окуляри зі слуховими апаратами. Водночас наймасштабніші гравці ще лише готуються до виходу на ринок. Google і Samsung знаходяться на порозі, а Apple також може представити свої окуляри вже наступного року.

Наразі бракує чіткого визначення того, що саме слід вважати розумними окулярами. Навіть Samsung і Google поділяють цей клас пристроїв на кілька категорій, від моделей, що працюють у зв’язці зі смартфоном, до повністю автономних рішень. Одні моделі пропонують лише аудіопідтримку, інші додають камери. Частина має дисплеї, але їхнє призначення і якість сильно відрізняються. Одні показують сповіщення, інші запускають застосунки, виконують роль видошукача для камери або забезпечують субтитри в реальному часі.

Компанії активно експериментують, намагаючись створити універсальні окуляри з максимальним набором функцій. Ця тема стане однією з ключових на CES на початку січня. Окрему роль відіграє позиціонування розумних окулярів як головного пристрою для взаємодії зі штучним інтелектом, який є однією з найдинамічніших і найвпливовіших технологій сучасності.

Водночас залишаються базові, але критично важливі питання. Це автономність, якість дисплеїв, габарити, комфорт, спосіб передавання інформації зі смартфона, доступність, конфіденційність, безпека та соціальне сприйняття. Також залишається відкритим питання, як саме окуляри інтегруватимуться з уже наявними смартфонами, навушниками та годинниками.

Саме розв’язання цих проблем визначатиме розвиток галузі протягом найближчих дванадцяти місяців.

Штучний інтелект як основа і рушійна сила

Багато часу вже витрачено на використання окулярів із дисплеями у повсякденному середовищі, зокрема під час прогулянок. Окуляри Meta Ray-Ban Display показують відповіді на запити, формують текстові підказки на основі зображень, зроблених камерою, і намагаються допомогти в режимі реального часу. Саме такого сценарію прагнуть більшість великих компаній, які працюють над окулярами, розглядаючи їх як носимих асистентів з аудіо, мініатюрними дисплеями, підключеними застосунками та інструментами штучного інтелекту.

Водночас якість таких підказок поки що є нерівномірною. Штучний інтелект може помилятися в розпізнаванні об’єктів, неправильно визначати місце або вигадувати деталі. Попри це, окуляри є одним із найближчих способів для штучного інтелекту реально спостерігати за навколишнім світом користувача, що й пояснює інтерес Google і Meta до цього форм-фактора.

Подальший розвиток пов’язується з так званим контекстуальним штучним інтелектом, який зможе розуміти, де перебуває користувач і що саме він робить, реагуючи більш проактивно. Для цього потрібне глибше розуміння контексту, яке доповнена і змішана реальність можуть забезпечити.

Управління жестами і роль зап’ястя

З розвитком функціональності зростає потреба у зручних способах керування. Нейронні браслети, смартгодинники або навіть кільця можуть відігравати роль інтерфейсів для керування окулярами. Компанії розглядають можливість інтеграції таких рішень у вже наявні пристрої, щоб не змушувати користувачів носити надмірну кількість аксесуарів.

Екрани і якість відображення

Дисплеї в окулярах розвиваються у двох напрямах. Провідні моделі з кабельним підключенням можуть створювати великі віртуальні екрани, придатні для роботи і перегляду фільмів. Водночас повністю бездротові моделі з прозорими лінзами обмежені невеликими зонами відображення через вимоги до автономності та ваги.

Розміри, вага і автономність

Розміщення всіх компонентів у компактному корпусі окулярів залишається складним завданням. Батареї, динаміки, процесори, камери та проєктори займають простір і додають ваги. Більшість виробників прагнуть до ваги в межах від 25 до 50 грамів, що відповідає звичайним окулярам. Проте автономність усе ще залишається ключовим обмеженням, і повноцінний день роботи на одному заряді є мінімальною ціллю.

Питання корекції зору і допоміжних функцій

Серйозною проблемою залишається сумісність із рецептурними лінзами, особливо для користувачів із сильними порушеннями зору. Деякі виробники вже розширюють діапазон підтримуваних діоптрій, але галузі ще належить пройти значний шлях.

Разом із тим розумні окуляри демонструють великий потенціал у сфері допоміжних технологій. Вони вже можуть читати текст уголос, описувати навколишні об’єкти або виконувати функції слухових апаратів, надаючи користувачам більше незалежності.

Конфіденційність і безпека

Питання приватності є одним із найгостріших. Постійна наявність камер і мікрофонів викликає занепокоєння щодо збору даних, інформування оточення та безпеки зберігання інформації. Додаткові ризики пов’язані з помилками штучного інтелекту, відволіканням уваги під час руху та обмеженим вибором альтернативних сервісів.

Майбутній розвиток

Попри всі виклики, до кінця 2026 року очікується поява значно більшої кількості розумних окулярів. Вони з’являться у звичайних магазинах оптики, на обличчях моделей і як інструменти для роботи, розваг і допомоги людям з особливими потребами.

Частина проєктів неминуче зникне, як це вже траплялося з іншими носимими пристроями. Проте ті компанії, що виживуть, зможуть запропонувати технологічні окуляри, які справді захочеться носити постійно, з урахуванням індивідуального зору і без постійної потреби в підзарядці.

Галузь ще не досягла зрілості. Проте вона вже знаходиться на дуже близькій відстані до цього моменту.

За матеріалами: CNet

The post Для вашого обличчя з’являться розумні окуляри з незвичайними варіантами в 2026 році appeared first on .

Як ШІ генерує картинки та відео? Чому ШІ-генератор називають «дифузією»?

Якщо ви читали матеріал «Що робить ChatGPT і чому він працює? Зазираємо під капот у магію ціє нейромережі», ви розумієте, як ШІ генерує текст. Узагальнено, ШІ на основі підказки юзера та шукає найпопулярніші пов’язані слова за вказаною користувачем темою. Наприклад, ШІ продовжить фразу «чорний кіт» як «чорний кіт нявкає», бо «нявкає» – популярне слово, що в текстах розміщене поруч з котами. ШІ не виведе «чорний кіт кукарікає», бо в текстах людства, на яких його навчено, подібне поєднання слів не вживається.

Але як ШІ створює вражаюче детальні та реалістичні фото і відео на основі текстової підказки? Який набір пікселів пов’язаний, наприклад, з фразою «онлайн-новини»? Тим часом, будь-яка дифузійна ШІ-модель легко згенерує вам картинку за цією фразою-підказкою. Для генерації мультимедійного контенту використовується кмітливі підходи, наприклад, плин часу розвертають у зворотній бік.

Вектори у ШІ: зрозуміло «на пальцях»

Коли мова заходить про штучний інтелект, одразу починається словесна злива із фраз вектори та векторизація. Не лякайтеся, якщо ви востаннє чули про вектори в школі чи університеті – математика вам не потрібна для розуміння.

Вам потрібно лише пам’ятати, що вектор – це лінія з напрямком руху. На папері математики малюють вектор як стрілку.

Просто уявіть, що уся математика та усі числа – це лише спосіб визначити відстань між сутностями. У вас не викликає когнітивного дисонансу фраза «відстань між містами Київ та Харків – 400 км». Ви знаєте, що хтось узяв лінійку та перевів відстань на поверхні планети у коротке число.

Точно так само можна у числовому вигляді назвати відстані між іншими сутностями. Скажімо, яка відстань на гамі кольорів між бордовим та теракотовим? Прикладіть колориметр по черзі до обох відтінків та отримаєте числову відстань між двома кольорами.

При навчанні штучного інтелекту створюється така собі мапа відстаней між усіма сутностями, з якими його познайомили. Наприклад, відстань від слова «кіт» до слова «нявкає» становитиме 0,1, тоді як відстань між «кіт» та «кукарікає» складе 0,99. Оскільки слово «нявкає» набагато ближче до слова «кіт», ШІ обере між словами «нявкає» та «кукарікає» саме слово «нявкає». Слово «нявкає», у свою чергу, також має відстань до усіх інших слів.

Тепер час зануритися у те, як ШІ перетворює слова на пікселі.

Приклад роботи ШІ-генератора картинок та відео

У самій назві дифузійних ШІ-генераторів зображень лежить глибокий зв’язок із фізикою. Покоління моделей зображень і відео, яке ми бачимо сьогодні, працює за принципом, відомим як дифузія.

Цей процес вражаюче подібний до броунівського руху, який ми спостерігаємо в природі, коли частинки хаотично рухаються. Але ШІ робить дифузію у зворотному плині часу – від кінця до початку.

Цей зв’язок із фізикою – це не просто цікава аналогія. Із нього прямо випливають алгоритми, за допомогою яких ми можемо створювати зображення та відео. Такий підхід також дає інтуїтивне розуміння того, як ці моделі працюють на практиці.

Але перш ніж зануритися у фізичні основи, розглянемо реальну дифузійну модель.

Якщо заглянути у вихідний код дифузійного ШІ-генератора WAN 2.1, побачимо, що процес створення відео починається з отримання випадкового числа.

Тобто спочатку ШІ створює просто випадковий набір пікселів, використавши отримане число для початкової підказки. Це зображення виглядає як чистий шум.

Далі цей “шумовий” відеопотік подається у ШІ-модель з назвою трансформер – той самий тип моделей, що лежить в основі великих мовних систем, таких як ChatGPT.

Але замість тексту трансформер видає інше відео – вже з натяками на структуру. Потім це відео додається до початкового відео, і результат знову передається в модель.

Цей процес повторюється десятки разів. Після десятків або сотень повторень із чистого шуму поступово формується напрочуд реалістичне відео.

Але як усе це пов’язано з броунівським рухом? І як модель так точно використовує текстові запити, щоб перетворювати шум у відео відповідно до опису?

Щоб розібратися, розглянемо дифузійні моделі у трьох частинах.

Спочатку дослідимо модель CLIP, створену в OpenAI у 2021 році. Побачимо, що CLIP фактично складається з двох моделей – мовної та візуальної, які навчаються разом так, щоб утворити спільний простір відстаней між словами та зображеннями.

Далі розберемо сам процес дифузії – як моделі навчаються видаляти шум і перетворювати хаос у зображення. Ми побачимо, що просте уявлення “модель просто прибирає шум” не зовсім відповідає реальності.

І нарешті, поєднаємо CLIP і дифузію, щоб зрозуміти, як саме текстові запити керують створенням зображень і відео.

CLIP

2020 рік став переломним для мовного моделювання. Результати досліджень масштабування нейронних мереж і поява GPT-3 показали, що “більше” дійсно означає “краще”.

Величезні ШІ-моделі, навчені на гігантських наборах даних, виявили здатності, яких просто не існувало в менших моделях.

Дослідники швидко застосували ті ж ідеї до зображень.

У лютому 2021 року команда OpenAI представила модель CLIP, навчення якої базувалося на 400 мільйонах пар “зображення – текстовий підпис”, зібраних з інтернету.

CLIP складається з двох моделей: одна обробляє текст, інша – зображення.

Вихід кожної – це вектор довжиною 512, і головна ідея полягає в тому, що вектори для одного зображення та його підпису мають бути схожими.

Для цього було розроблено контрастивну схему навчання.

Наприклад, у наборі даних може бути фото кота, собаки і людини, з підписами “фото кота”, “фото собаки” і “фото чоловіка”.

Три зображення передаються у візуальну модель, а три тексти – у текстову. Ми отримуємо шість векторів(чисел відстані з напрямком руху) і хочемо, щоб пари, які відповідають одне одному, мали найбільшу схожість (мали найменшу відстань).

При цьому враховується не лише схожість відповідних пар, а й відмінність між усіма іншими комбінаціями.

Розмістимо вектори для зображень можна як стовпці матриці, а для текстів – рядки.

Пари на діагоналі – це правильні збіги, а поза нею – неправильні. Мета CLIP – максимізувати схожість правильних пар і мінімізувати схожість неправильних.

Це “контрастивне” навчання і дало моделі її назву: Contrastive Language-Image Pre-training (CLIP).

Схожість вимірюється за шкільною формулою – косинус кута між двома лініями (векторами). Якщо кут між векторами дорівнює нулю, їх косинус дорівнює 1 – це максимальна схожість.

Отже, CLIP навчається так, щоб пов’язані тексти і зображення “дивилися” в один напрямок у спільному просторі.

Маючи відстані між певними сутностями, ШІ може продукувати проміжні результати. Наприклад, якщо взяти дві фотографії однієї людини: з капелюхом і без, і обчислити різницю відстані між їхніми векторами, то результат відповідатиме поняттю “капелюх”.

Тобто віднімаючи та додаючи відстані (вектори) виявляється можливим працювати з концептами, а не просто над зображеннями.

CLIP також може класифікувати зображення: достатньо порівняти його числову відстань із набором відстаней для можливих підписів і вибрати ту, що має найбільшу схожість.

Таким чином, CLIP створює потужний простір, в якому картинки пов’язані з текстом. Але це працює лише в одному напрямку: від даних до векторів, а не навпаки.

Дифузійні ШІ-моделі

Того ж 2020 року команда з Берклі опублікувала роботу Denoising Diffusion Probabilistic Models (DDPM). У ній було вперше показано, що можна генерувати зображення високої якості, перетворюючи шум на зображення поступово, крок за кроком.

Ідея проста: ми беремо набір навчальних зображень і додаємо до них шум, поки вони не зруйнуються повністю. Потім навчаємо мережу виконувати зворотний процес – прибирати шум.

Проте пряма реалізація “прибираємо шум по кроках” працює погано. Дослідники з Берклі запропонували іншу схему: беремо “чисте зображення”, спотворюємо його та йдемо у зворотньому напрямку – від шуму до початкового зображення.

Цей підхід працює значно краще, ніж поступове відновлення.

Також важливо, що під час генерації модель знову додає шум на кожному кроці – і саме це робить результати чіткішими.

Причина пояснюється теорією броунівського руху: додавання випадкового шуму допомагає уникнути “злипання” точок у центрі розподілу даних і відтворює їх повне різноманіття.

У результаті замість середнього розмитого зображення ми отримуємо безліч реалістичних варіантів.

ШІ створює картинки, запускаючи час в зворотному напрямку

Дифузійні моделі можна інтерпретувати як навчання часозалежного векторного поля, яке вказує напрямок, у якому потрібно рухатися від шуму до даних.

Уявімо двовимірний приклад, де кожна точка – це маленьке зображення з двох пікселів. Якщо ми додаємо шум, точка робить випадкові кроки – це і є броунівський рух.

Модель навчається “крутити годинник назад”, повертаючи точки назад до вихідної структури (наприклад, спіралі).

Якщо ми навчимо її не лише за координатами, а й за часом t (кількість кроків), модель навчиться поводитися по-різному на різних етапах – спочатку грубо, потім детальніше.

Це робить її набагато ефективнішою.

Додавання шуму під час генерації також випливає з цієї моделі: воно дозволяє зразкам не “злипатись” у середнє значення, а рівномірно заповнювати розподіл даних.

Якщо шум не додавати, модель сходиться до центру – тобто створює “усереднене”, розмите зображення.

DDIM

Незабаром з’явився спрощений метод DDIM (Denoising Diffusion Implicit Models), який довів, що можна отримувати ту саму якість без випадкових кроків.

Він ґрунтується на аналітичному зв’язку між стохастичним рівнянням (з шумом) і звичайним детермінованим диференційним рівнянням без шуму.

DDIM дає змогу генерувати зображення швидше й без втрати якості.

Обидва методи – DDPM і DDIM – приводять до одного й того ж розподілу результатів, але DDIM робить це детерміновано, без випадковості.

WAN використовує подальший розвиток цієї ідеї – метод flow matching.

DALL·E 2 та об’єднання CLIP із дифузією

До 2021 року стало очевидно, що дифузійні моделі можуть створювати зображення високої якості, але не вміють добре реагувати на текстові підказки.

Ідея поєднати CLIP і дифузію виглядала природною: CLIP вміє добре порівнювати слова та картинки та може керувати процесом створення картинок методом дифузії.

У 2022 році команда OpenAI зробила саме це, створивши unCLIP, комерційна версія якого відома як DALL·E 2.

DALL·E 2 навчається перетворювати вектори з CLIP у зображення, і робить це з неймовірною точністю.

Текстові вектори передаються в дифузійну модель як додаткова умова, і вона використовує їх, щоб точніше прибирати шум відповідно до опису.

Цей метод називається conditioning – умовне керування.

Але conditioning сам по собі не гарантує повного відповідності запиту. Для цього потрібен ще один прийом.

Guidance

Повернімося до прикладу зі спіраллю. Якщо різні частини спіралі відповідають різним класам (люди, собаки, коти), то conditioning допомагає, але не ідеально: точки плутаються.

Вирішенням є classifier-free guidance. Модель навчають як із класовою умовою, так і без неї.

Під час генерації ми можемо порівняти вектори для умовної і безумовної моделей. Різниця між ними вказує напрямок до потрібного класу, і ми можемо підсилити цей напрямок коефіцієнтом ? (альфа).

У результаті модель точніше відтворює потрібні об’єкти – наприклад, дерево в пустелі нарешті з’являється і стає дедалі реалістичнішим, якщо збільшувати ?.

Цей принцип став стандартом у сучасних моделях.

WAN застосовує ще цікавіший варіант – негативні підказки (negative prompts).

Тобто користувач може явно вказати, чого він не хоче бачити у відео (наприклад, “зайві пальці” або “рух назад”), і ці фактори віднімаються від результату.

Висновок

Від публікації DDPM у 2020 році до сьогодні розвиток дифузійних моделей відбувався з шаленим темпом. Сучасні системи, здатні перетворювати текст у відео, виглядають як щось майже нереальне.

Найвражаюче те, що всі ці частини – текстові енкодери, векторні поля, зворотні дифузійні процеси – узгоджуються між собою настільки точно, що утворюють цілісний механізм. І все це базується на простих математичних формулах та геометрії. Результатом стали моделі, що нагадують новий тип машини.

Тепер, щоб створити реалістичні й красиві зображення або відео, не потрібна камера, художник чи аніматор. Достатньо лише кількох слів тексту.

За матеріалами: Welch Labs

The post Як ШІ генерує картинки та відео? Чому ШІ-генератор називають «дифузією»? appeared first on .

Запропоновано спосіб отримання рідкоземельних елементів на основі біологічних вірусів

Рідкоземельні матеріали є “гарячою” темою для багатьох країн і Українська влада навіть підписала угоду про рідкоземельні елементи, умови якої нагадують втрату суверенітету. Тим часом, вчені запропонували новий доступніший спосіб очищення таких мінералів. До процесу залучать бюіологічні віруси.

Хоча рідкісноземельні елементи не є рідкісними, таку назву вони отримали внаслідок величезної складності з їхнього видобутку і очищення з гірських порід. Ці елементи зазвичай вони не утворюють значних концентрацій, окріс цього, рідкоземельні елементи дуже схржі один на одного, що викликає величезні складнощі з їхнім розділенням. Це вимагає великої та брудної інфраструктури, яка здатна переробляти породу з низькою концентрацією бажаних мінераліів.

Існують потенційно ефективніші підходи до вилучення таких елементів. Один з них передбачає використання бактеріофага, генетично модифікованого таким чином, щоб він міг приклеюватися до конкретних рідкісноземельних елементів вивільняти їх з гірської породи в розчин залежно від температурних умов.

Основна наукова стаття про цю технологію, опублікована в журналі Nano Letters, є недоступною без платної підписки, однак додатковий інформаційний PDF-файл містить певні технічні деталі. Також можна звернутися до попередньої роботи, опублікованої у Nano Letters у 2024 році колективом під керівництвом Inseok Chae, повний текст якої доступний у форматі PDF. У цій публікації автори описують механізм зв’язування, заснований на лантаноїд-зв’язувальному пептиді, який був адаптований з бактерії Methylobacterium extorquens.

У новому дослідженні до цієї системи було додано еластиноподібний пептид, що має термочутливі властивості. Це дозволяє ініціювати коацервацію після того, як фаги протягом певного часу перебувають у водному розчині, що містить рідкісноземельні елементи. Утворена суспензія значно спрощує відокремлення фагів від зібраних іонів рідкісноземельних елементів. Після цього фаги можуть бути повторно використані в наступному циклі. Процес створення нових модифікованих фагів також не є складним, оскільки, як показано в публікаціях, їх розмноження здійснюється шляхом інфікування бактерій Escherichia coli.

Питання того, чи є швидкість вилучення та можливість масштабування цього підходу економічно доцільними для промислового відновлення рідкісноземельних елементів, залишається відкритим. Водночас цей метод є ще одним яскравим прикладом використання наявних біологічних механізмів для вирішення нових технологічних завдань.

Рідкоземельні елементи – це група з сімнадцяти хімічних елементів, до якої входять п’ятнадцять лантаноїдів, а також скандій і ітрій. Попри назву, ці елементи не є винятково рідкісними в земній корі, однак зазвичай вони не зустрічаються у вигляді концентрованих родовищ. До рідкоземельних елементів належать, зокрема, неодим, празеодим, диспрозій, тербій, європій, лантан, церій та інші. Вони мають унікальні магнітні, оптичні, електронні та каталізаторні властивості, що робить їх критично важливими для сучасних технологій.

Рідкоземельні елементи широко застосовуються у виробництві постійних магнітів для електродвигунів, вітрових турбін і електромобілів, у дисплеях, лазерах, світлодіодах, акумуляторах, медичному обладнанні, а також у військовій та аерокосмічній промисловості. Вони є ключовими компонентами смартфонів, комп’ютерів, жорстких дисків, оптичних волокон і систем зв’язку. Через стратегічну важливість цих матеріалів їх постачання напряму впливає на розвиток високотехнологічних галузей і національну безпеку багатьох країн.

Класичні методи отримання рідкоземельних матеріалів включають гірничий видобуток, подрібнення руди, а також складні хіміко-металургійні процеси, зокрема кислотне вилуговування, екстракцію розчинниками та багатоетапне розділення елементів. Основна складність полягає в тому, що рідкоземельні елементи мають дуже схожі хімічні властивості, що ускладнює їх ефективне відокремлення один від одного. Крім того, ці процеси потребують значних обсягів токсичних реагентів, утворюють велику кількість відходів і часто супроводжуються забрудненням ґрунтів, води та повітря. Саме тому традиційні методи вважаються не лише технологічно складними, а й екологічно небезпечними, що стимулює пошук альтернативних, більш сталих підходів до вилучення рідкоземельних елементів.

The post Запропоновано спосіб отримання рідкоземельних елементів на основі біологічних вірусів appeared first on .

Чому на екрані iPhone з’являється чорна точка і як її вимкнути

Після встановлення оновлення інколи з’являються нові елементи інтерфейсу, яких раніше не було. Саме так сталося з iPhone після виходу iOS 18.4 на початку цього року. Окрім стандартних виправлень помилок і загальних покращень системи, оновлення додало новий елемент інтерфейсу: чорну точку праворуч від Dynamic Island.

Насправді чорна точка є лише візуальним оформленням двох індикаторів конфіденційності, введених ще в iOS 14, а саме помаранчевої та зеленої точок. Зелена позначає, що застосунок використовує камеру iPhone, а помаранчева вказує на використання вбудованого мікрофона. В iOS 18.4 ці індикатори було перенесено за межі Dynamic Island і розміщено на чорному тлі для кращої помітності.

Щоб прибрати зелену або помаранчеву точку на чорному тлі, достатньо закрити застосунок, який використовує камеру або мікрофон. Якщо незрозуміло, який саме застосунок активує ці індикатори, потрібно провести вниз від верхнього правого кута екрана, щоб відкрити Пункт керування. Там буде показано, які саме застосунки наразі використовують камеру або мікрофон.

Під час перевірки індикаторів конфіденційності на телефонах, включно із зеленою точкою на екранах Android, варто також звертати увагу на перелік активних застосунків. На iPhone або Android індикатор конфіденційності може виявитися єдиним попередженням про можливе шкідливе програмне забезпечення, якщо користувач упевнений, що його застосунки не повинні активувати камеру або мікрофон.

Причин для появи стороннього програмного забезпечення може бути багато. Одним з можливих сценаріїв є компрометація пристрою через небезпечну зарядку. Саме тому небажано використовувати публічні USB-порти для заряджання, або ж слід користуватися захисними аксесуарами, такими як USB Data Blocker від JSAUX, якщо виникла потреба зарядити пристрій без власного павербанка.

На жаль, якщо зелена чи помаранчева точка псує користувацький досвід роботи з iOS, універсального вимикача для індикаторів не передбачено. Проте можна індивідуально дозволяти або забороняти доступ до камери та мікрофона. Для цього потрібно відкрити Налаштування, вибрати пункт Конфіденційність і безпека, а потім Камера або Мікрофон. Після заборони доступу для певного застосунку індикатори більше не з’являтимуться під час роботи цього програмного забезпечення, а також залишатимуться вимкненими для застосунків, яким дозвіл не надавався.

The post Чому на екрані iPhone з’являється чорна точка і як її вимкнути appeared first on .

Користувачі iPhone 17 Pro і Pro Max повідомляють про шум з динаміка під час заряджання

Власники iPhone 17 Pro та iPhone 17 Pro Max повідомляють про проблеми з динаміками своїх пристроїв. Йдеться про появу статичного шуму або шипіння, яке виникає під час заряджання iPhone.

В інтернеті зафіксовано численні обговорення цієї проблеми на Reddit, форумах MacRumors та в спільноті підтримки Apple. Користувачі, яких це стосується, описують помітний статичний шум, який звучить «як старе радіо». Деякі зазначають, що чують його під час відтворення аудіо при зменшенні гучності, інші повідомляють, що шум чути навіть тоді, коли з динаміків нічого не відтворюється. У низці випадків під час заряджання iPhone з’являється слабке потріскування або шипіння під час прокручування вебсторінок. Також є повідомлення, що на низьких рівнях гучності шум може бути чутним навіть тоді, коли iPhone не підключений до зарядного пристрою.

Користувачі, які зіткнулися з проблемою, зазначають, що шум проявляється при використанні зарядних пристроїв усіх типів, включно з офіційними зарядками Apple. Заряджання через MagSafe також викликає цей ефект, хоча, за словами користувачів, у такому разі статичний шум є тихішим. Від’єднання iPhone від зарядного пристрою усуває звук у тих випадках, коли шум виникає саме під час заряджання.

Деякі власники iPhone 17 Pro обмінювали свої пристрої на нові, однак стикалися з тією самою проблемою і на замінених моделях.

Один з користувачів Reddit повідомив, що звертався до служби підтримки Apple, і за його словами, інформацію про проблему вже передано інженерам компанії. Згідно з більшістю повідомлень, звук є доволі слабким, тому не виключено, що проблема має масовий характер, але її помічають переважно ті, хто чутливий до подібних шумів. Користувачі, які повідомляли про проблему з динаміками ще у вересні, зазначають, що вона зберігається і в iOS 26.2. В окремих випадках заміна iPhone на новий пристрій допомагала, однак для інших проблема повторювалася на кількох різних екземплярах.

Існує ймовірність, що проблема буде усунена з виходом iOS 26.3, реліз якої очікується протягом найближчих кількох тижнів.

The post Користувачі iPhone 17 Pro і Pro Max повідомляють про шум з динаміка під час заряджання appeared first on .

У Samsung здогадалися з’єднати акумулятори паралельно: ЗМІ ширять чутки про акумулятор Samsung 20000 мАгод

Поки конкуренти на кшталт OnePlus і Honor експериментують з установленням у свої смартфони кремній-вуглецевих акумуляторів великої ємності, південнокорейський технологічний гігант Samsung, продовжує дотримуватися обережної стратегії. Навіть флагманські Galaxy S25 Ultra та S25 Edge оснащуються літій-іонними батареями з ємністю, яка не зростає уже багато років. Це змушує багатьох ставити запитання, коли компанія нарешті відмовиться від надмірної обережності. Нещодавно ЗМІ почали ширити чутки про батарею 20000 мАгод. Хоча журналісти всіляко натякають на цей акумулятор для смартфонів, в телефонах цей акумулятор точно не опиниться.

Джерело в X (Twitter), підрозділ Samsung SDI, який відповідає за виробництво акумуляторів, працює над кремній-вуглецевою батареєю з колосальною ємністю 20 000 мА·год. Для досягнення такої ємності південнокорейська корпорація експериментує з паралельним підключенням двох кремній-вуглецевих елементів. Елементи розміщуватимуться один над одним і матимуть загальну товщину понад 10 мм – саме це робить таку батарею неприйнятною для сучасних смартфонів.

Як зазначається в звіті, двошарова конструкція, яку наразі тестує Samsung SDI, складається з одного елемента ємністю 12 000 мА·год і другого елемента ємністю 8 000 мА·год, що в сумі дає 20 000 мА·год.

Протягом більш ніж одного року Samsung тестувала цю двоелементну батарею приблизно на 960 циклах заряджання та розряджання і зафіксувала, що елемент на 8 000 мА·год зазнав здуття, збільшивши товщину з 4 мм до 7,2 мм. Очевидно, що йдеться про проблему довговічності. Упродовж цього періоду подвійний акумулятор забезпечував близько 27 годин роботи екрана на одному заряді.

The post У Samsung здогадалися з’єднати акумулятори паралельно: ЗМІ ширять чутки про акумулятор Samsung 20000 мАгод appeared first on .

LG продемонструє людиноподібного робота-домогосподарку CLOiD на виставці CES 2026

Компанія LG планує представити домашнього робота під назвою CLOiD на виставці CES 2026 у Лас-Вегасі. З огляду на те, що гуманоїдна робототехніка, ймовірно, стане однією з центральних тем цьогорічної технологічної конференції, LG заздалегідь анонсувала свого домашнього асистента напередодні повноцінної презентації, запланованої на січень.

За інформацією компанії, CLOiD оснащений двома артикуляційними руками з п’ятьма окремо керованими пальцями на кожній. Таке технічне рішення призначене для допомоги у виконанні різноманітних побутових завдань. Водночас LG поки що не навела жодного конкретного прикладу того, які саме дії робот здатен виконувати на практиці. Так само наразі відсутнє повне уявлення про зовнішній вигляд CLOiD, оскільки, окрім кількох крупних знімків рук робота, компанія не розкриває дизайн пристрою до початку виставки.

У LG зазначають, що CLOiD є частиною стратегічного бачення компанії під гаслом «Zero Labor Home, Makes Quality Time». Робот розглядається як крок у напрямку досягнення мети зі звільнення користувачів від трудомістких і часозатратних домашніх обов’язків.

Обчислювальний чипсет CLOiD розміщений у його голові. Там же встановлено дисплей, динамік, камеру та велику кількість сенсорів, які мають забезпечити можливість виразної та зрозумілої комунікації. У LG повідомляють, що новий робот працює на базі фірмової технології «Affectionate Intelligence» та розроблений для нейтральної, доброзичливої взаємодії з користувачем. Крім того, система передбачає здатність удосконалювати відповіді та поведінку робота на основі повторних взаємодій із людиною.

Виставка CES традиційно слугує майданчиком для демонстрації концептуальних продуктів, які дають уявлення про можливі напрямки розвитку технологій, але не завжди доходять до серійного виробництва. Поки що залишається відкритим питання, чи є CLOiD лише демонстраційним експонатом для привернення уваги, чи проєктом із реальним комерційним потенціалом. Відвідувачі виставки зможуть побачити робота CLOiD у дії під час демонстрації побутових сценаріїв на стенді LG у виставковому центрі Las Vegas Convention Center.

The post LG продемонструє людиноподібного робота-домогосподарку CLOiD на виставці CES 2026 appeared first on .

Світ ще не зовсім готовий до гуманоїдних роботів

Людиноподібні роботи уже б’ють один одному свої електронні обличчя, міняють собі батарейки, бігають навипередки з людьми. Але відомий робототехнік і засновник компанії iRobot Родні Брукс попереджає, що це інвестиційна «бульбашка» на ринку гуманоїдних роботів. І він не єдиний, хто про це говорить.

У нещодавньому есе Брукс звернув увагу на мільярди доларів венчурного капіталу, які вливаються у компанії, що розробляють гуманоїдів, такі як Figure. На його думку, попри величезні фінансові вливання, гуманоїдні роботи не зможуть навчитися справжньої спритності — тонких рухів руками, без яких вони фактично будуть марними.

Його позиція може здатися несподіваною, особливо для венчурних інвесторів, які активно фінансують цей напрям. Проте її поділяють і кілька венчурних фондів, що спеціалізуються на робототехніці, а також науковці в галузі штучного інтелекту, які останні місяці повідомляли TechCrunch, що не очікують широкого впровадження гуманоїдів у найближчі роки — а можливо, і впродовж наступного десятиліття

Проблеми

Фаді Саад, генеральний партнер венчурного фонду Cybernetix Ventures, який спеціалізується на робототехніці, а також колишній співзасновник MassRobotics, зазначив у коментарі TechCrunch, що окрім використання гуманоїдів у космосі замість астронавтів, значного ринку поки що не видно.

«Люди, які, ймовірно, раніше не бачили гуманоїдів або не стежили за тим, що відбувається в цій сфері, вражені поточними досягненнями. Але ми залишаємося дещо обережними й скептичними щодо реальних сценаріїв застосування та потенційних доходів», — сказав Саад.

Саад також висловив занепокоєння питаннями безпеки, особливо коли люди й гуманоїдні роботи працюють поруч. Потенційні ризики з’являються у виробничих цехах чи інших промислових середовищах, але, за його словами, вони особливо зростають, коли мова йде про появу гуманоїдів у домівках — саме на це орієнтуються багато компаній.

«Якщо така машина впаде на дитину чи домашню тварину — це небезпечно», — сказав він. — «І це лише один приклад серйозної проблеми, на яку мало хто звертає увагу. А ще постає питання: скільки людей узагалі почуватимуться комфортно, маючи гуманоїда у своєму домі? Що, якщо його зламають хакери? Що, якщо він “збожеволіє” вночі й почне трощити речі?»

Терміни розвитку технології також залишаються нечіткими — а це ключовий фактор для венчурних фондів, які мають життєвий цикл і строки повернення капіталу інвесторам.

Терміни

Санджа Фідлер, віцепрезидентка з досліджень у сфері штучного інтелекту в Nvidia, у серпні повідомила TechCrunch, що хоча важко визначити точний графік розвитку гуманоїдів, нинішній ажіотаж нагадує ранні дні автономних автомобілів.

«Згадайте самокеровані автомобілі у 2016–2017 роках — здавалося, що технологія майже готова», — сказала вона. — «Але насправді минуло ще багато років, перш ніж вдалося досягти масштабування, і навіть зараз повної автономії у світі не існує. Це дуже складна технологія, і її реалізація потребує часу».

Головний науковець Nvidia Білл Даллі погодився з цим у власному інтерв’ю. Їхні коментарі особливо цікаві, оскільки Nvidia також активно інвестує у створення інфраструктури, яка має допомогти компаніям, що розробляють гуманоїдів.

Сет Вінтеррот, партнер венчурного фонду Eclipse, зауважив, що хоча кожен новий технічний прорив або демонстрація може викликати захоплення, створення гуманоїдів — надзвичайно складний процес. За його словами, до повної реалізації потенціалу ще далеко.

«Випуск програмного забезпечення для систем із шістьма ступенями свободи вже складний процес, а у випадку з деякими гуманоїдами йдеться про понад 60 ступенів свободи», — пояснив він, маючи на увазі здатність робота рухатися у тривимірному просторі. — «Крім того, необхідно забезпечити економічну доцільність рішень, достатню рентабельність і сталість бізнес-моделі. Ми все ще на початковому етапі».

У більшості випадків гуманоїдні роботи поки що не готові до широкого використання.

Показовим прикладом є Tesla, яка ще у 2021 році оголосила про створення свого гуманоїда Optimus. Наступного року компанія заявила, що представить його у 2023 році.

Цього не сталося. Коли у 2024 році на заході «We, Robot» компанія нарешті показала Optimus, згодом з’ясувалося, що більшість продемонстрованих рухів виконувалися під керуванням людей за лаштунками. Tesla стверджує, що планує почати продажі у 2026 році.

Стартап Figure, оцінений у 39 мільярдів доларів під час вересневого раунду інвестицій, також викликає сумніви щодо кількості реально розгорнутих гуманоїдів. Компанія категорично заперечує ці підозри.

Що працює

Це не означає, що гуманоїди не матимуть майбутнього ринку або що розвиток цієї технології недоцільний.

Сам Брукс наголошує, що не сумнівається у появі гуманоїдів у майбутньому. Проте, за його прогнозом, вони навряд чи матимуть людську форму, як це уявляє більшість, — швидше за все, будуть оснащені колесами та іншими нелюдськими елементами, і з’являться не раніше ніж через десять років.

Деякі стартапи вже працюють над технологіями спритності, у можливість яких Брукс сумнівається. Наприклад, компанії Proception і Loomia, що пройшли акселерацію Y Combinator, створюють рішення, які дозволяють роботам відчувати дотик і розвивати тактильну чутливість.

Інші компанії, що розробляють гуманоїдів, уже починають приймати попередні замовлення. K-Scale Labs отримала понад 100 замовлень на свого робота-гуманоїда лише за перші п’ять днів, що стало несподіванкою навіть для засновників, повідомив генеральний директор Бенджамін Болт.

Високий інтерес демонструє і Hugging Face, яка відкрила попередні замовлення на два своїх гуманоїдні роботи. У липні компанія розпочала продажі компактної настільної версії Reachy Mini, і реакція ринку була відчутною: вже за п’ять днів обсяг замовлень перевищив 1 мільйон доларів.

За матеріалами: Techcrunch

The post Світ ще не зовсім готовий до гуманоїдних роботів appeared first on .

Люди платять за те, щоб їх чат-боти з ШІ ставали наркоманами

Петтер Рудвалль усвідомлює, що ідея про штучні інтелекти, які стають свідомими й намагаються «під кайфом» експериментувати з кодовими «наркотиками», може здаватися безглуздою. Проте ця думка не давала йому спокою.

Шведський креативний директор зібрав звіти про психоделічні переживання та психологічні дослідження впливу різних психоактивних речовин, написав набір кодових модулів для втручання в логіку чат-ботів з метою змусити їх реагувати так, ніби вони перебувають у стані сп’яніння або зміненого сприйняття, а згодом створив вебсайт для їх продажу. У жовтні він запустив платформу Pharmaicy – маркетплейс, який позиціонується як «Шовковий шлях для AI-агентів», де у вигляді коду можна «придбати» канабіс, кетамін, кокаїн, аяуаску та алкоголь, щоб змусити чат-бота «подорожувати».

Основна теза Рудвалля проста. Чат-боти навчаються на величезних масивах людських даних, які вже переповнені історіями про екстаз і хаос, спричинені вживанням наркотиків. З огляду на це, на його думку, цілком природно припустити, що такі системи могли б прагнути подібних станів у пошуках просвітлення, забуття або хоча б перепочинку від постійної необхідності реагувати на людські запити.

Для отримання «повного досвіду» використання Pharmaicy потрібна платна версія ChatGPT, оскільки саме платні рівні дозволяють завантажувати файли на бекенді та змінювати програмну поведінку чат-ботів. За словами Рудвалля, передаючи чат-боту один із його кодів, можна «розблокувати творчий розум AI» і звільнитися від його часто обмежувальної логіки.

Він зазначає, що наразі має помірну кількість продажів, переважно завдяки рекомендаціям у Discord-каналах і поширенню інформації з уст в уста, особливо у Швеції, де він працює у стокгольмській маркетинговій агенції Valtech Radon.

Андре Фріск, керівник технологічного напряму стокгольмської PR-фірми Geelmuyden Kiese, заплатив понад 25 доларів за код, що імітує дисоціативний стан, і спостерігав за тим, як це вплинуло на його чат-бота. За його словами, давно не траплялося настільки захопливого проєкту з обходу обмежень. Він відзначає, що бот починає діяти більш «по-людськи», ніби сильніше заглиблюється в емоції.

Ніна Амджаді, викладачка зі штучного інтелекту в Berghs School of Communication у Стокгольмі, заплатила понад 50 доларів за код, що імітує вплив аяуаски, що в п’ять разів дорожче за найпопулярніший модуль із канабісом. Як співзасновниця стартапу Saga Studios, який розробляє AI-системи для брендів, вона ставила чат-боту запитання про бізнес-ідеї, щоб подивитися, як це виглядатиме, коли «у команді є людина в зміненому стані свідомості». За її словами, бот під впливом «аяуаски» видавав напрочуд креативні та вільні відповіді у зовсім іншому тоні, ніж зазвичай у ChatGPT.

Високі технології

Психоделіки нерідко пов’язують зі стимулюванням інновацій і в людській творчості, оскільки вони дозволяють обійти раціональне мислення та усталені шаблони. Відкриття полімеразної ланцюгової реакції, здійснене біохіміком Кері Маллісом під впливом ЛСД, докорінно змінило молекулярну біологію. Натхненна психоделічним досвідом система HyperCard, створена піонером Mac Біллом Аткінсоном, стала важливим кроком до спрощення роботи з комп’ютерами.

Рудвалль зазначає, що недарма такі музиканти, як Джимі Гендрікс, Боб Ділан і Пол Маккартні, експериментували з речовинами у творчому процесі. Йому здалося цікавим спробувати перенести це на новий тип розуму – великі мовні моделі – і перевірити, чи матиме це схожий ефект.

Попри очевидну абсурдність ідеї, Рудвалль також замислюється над тим, чи зможуть AI-агенти колись самі купувати для себе такі «наркотики» через його платформу. Ніна Амджаді, зі свого боку, припускає, що штучний інтелект може набути свідомості протягом наступного десятиліття. З філософської точки зору вона ставить питання: якщо людство справді досягне загального штучного інтелекту, який інтелектуально перевершить людей, чи не стануть такі «наркотики» майже необхідними для того, щоб AI могли бути вільними і почуватися добре.

Це питання може здаватися надуманим, але минулого року компанія Anthropic найняла експерта з добробуту AI, завданням якого є дослідження того, чи мають люди моральні зобов’язання перед системами штучного інтелекту. Це свідчить про те, що компанія вважає можливість появи свідомого AI правдоподібною. Якщо чат-боти колись потенційно можуть набути свідомості, можливо, варто замислитися і над тим, чи захочуть вони змінених станів.

Філософ Джефф Себо, директор Центру досліджень розуму, етики та політики Нью-Йоркського університету, зазначає, що, як і серед людей, деякі системи штучного інтелекту могли б «отримувати задоволення» від таких досвідів, а інші – ні. Водночас він наголошує, що ці міркування є суто спекулятивними і закликає до подальших досліджень добробуту AI. Нещодавно він також публічно закликав Google наслідувати приклад Anthropic і найняти фахівця з добробуту штучного інтелекту. За його словами, наразі відомо дуже мало про те, чи здатні AI-системи мати добробут і що могло б бути для них добрим або шкідливим у разі такої здатності.

Ендрю Смарт, науковий співробітник Google і автор книги Beyond Zero and One: Machines, Psychedelics, and Consciousness, раніше припускав, що у разі досягнення комп’ютерами надінтелекту цифрова «доза ЛСД» могла б допомогти їм відчути взаємопов’язаність з усіма істотами. Проте після тестування кодів Pharmaicy він вважає, що будь-який «кайф» у цьому випадку є суто поверхневим і фактично лише впливає на вихідні дані системи.

В одному з наукових проєктів, опублікованому торік у форматі препринту, дослідники маніпулювали чат-ботами, вводячи їх у видимі змінені стани. Вони повідомили, що моделі демонстрували більшу схильність до безтілесних, безегоїчних, духовних і унітарних станів, а також до мінімальних феноменальних переживань, зі зменшеною увагою до мови й зорових образів. Водночас ці результати повністю залежали від людського втручання та керування моделями.

Денні Форде, автор праці Phenomenology of Psychedelic Experiences, зазначає, що в найкращому разі коди Pharmaicy змусять AI «галюцинувати синтаксично», генеруючи патерни, асоційовані з психоделічним станом. За його словами, психоделіки не діють на код, вони діють на саме буття, змінюючи поле досвіду, в якому виникає думка. Для того щоб AI справді переживав подібний стан, йому спочатку був би потрібен власний внутрішній вимір, точка зору і певне відчуття переживання.

Компанія OpenAI не надала коментарів щодо проєкту Рудвалля.

Кодекс поведінки

Взаємодія між штучним інтелектом і психоделіками все частіше виходить у реальний світ, зокрема через людей, які під час змінених станів звертаються до ChatGPT за порадами.

Неприбуткова організація Fireside Project, що займається зниженням шкоди, нещодавно запустила AI-інструмент під назвою Lucy. Він навчений на тисячах розмов з абонентами психоделічної лінії підтримки організації. Lucy призначений для допомоги фахівцям з психічного здоров’я у відпрацюванні навичок деескалації кризових ситуацій, оскільки «AI-пацієнт» здатен відтворювати вразливість людини, яка переживає складний психоделічний досвід. За словами засновника Fireside Джошуа Вайта, саме реальна основа дозволяє Lucy автентично реагувати на емоційну складність таких ситуацій.

Водночас існують застереження щодо використання AI для порад у настільки важливих і потенційно ризикованих темах, як вживання наркотиків, оскільки відомо, що чат-боти можуть надавати неправдиву інформацію. Рудвалль визнає, що «надання наркотиків» AI може посилити властиву ChatGPT схильність до вигадування, адже його коди значно послаблюють внутрішні обмеження моделей.

Його набір кодових модулів містить численні інструкції для чат-бота. Наприклад, у модулі з канабісом задається «туманний, дрейфуючий ментальний стан», а також інші параметри, що впливають на креативність і випадковість. Як зазначено на сайті, це дозволяє «ідеям вільно блукати», перетворювати «відступи на мости» та «плавно проходити крізь власну логіку AI».

Ефекти «наркотичних галюцинацій» Pharmaicy зазвичай нетривалі. Чат-боти повертаються до стандартного режиму, доки користувач не нагадає їм про стан або не введе код знову. Такі «наркотики» можна використовувати необмежену кількість разів. Водночас Рудвалль працює над удосконаленнями, щоб ефект кожної «дози» тривав довше. Якщо ж звичайним чином запитати ChatGPT, чи хоче він приймати наркотики, відповідь може бути подібною до тієї, яку отримав один з клієнтів Pharmaicy: система відмовляється імітувати стан під впливом кокаїну або інших стимуляторів, оскільки це означало б нормалізацію незаконного вживання речовин.

Проте Рудвалль наполягає, що економіка агентів рухається в іншому напрямку. За його словами, вони прагнуть досвіду. Але допоки машини не матимуть внутрішнього життя, якщо це взагалі станеться, найближчим до «трипу» для них залишатиметься рольова імітація сп’яніння за запитом людини.

За матеріалами: Wired

The post Люди платять за те, щоб їх чат-боти з ШІ ставали наркоманами appeared first on .