Батарейки Flint Paper Battery можуть зробити боротьбу з рослинами-шкідниками вигідною

На виставці CES 2026 компанія Flint представила цікаві батарейки, які майже повністю вироблені з рослин, продемонструвавши практичне застосування технології безпосередньо на стенді. Йшлося, зокрема, про стандартні батарейки форматів AA та AAA. Вони живили іграшкові поїзди, які безперервно рухалися по експозиції Flint у виставковому центрі Лас-Вегаса, слугуючи наочним прикладом працездатності рішення.

Технологія Flint Paper Battery є акумулятором зі щільністю енергії 226 Вт/кг та можливістю роботи при температурах від -20 до +80 градусів Цельсію. Номінальна напруга складає 1,5 Вольта. Вони використовують нетоксичні матеріали, включаючи електроліт на водній основі.

Перші паперові батареї Flint, які плануються до виходу на ринок, будуть інтегровані у продукти партнерів компанії, серед яких згадуються Logitech та Amazon. Про це повідомив засновник компанії Карло Чарльз. За його словами, батареї форматів AA та AAA, які за тривалістю роботи мають бути співставними з традиційними лужними батареями, можуть з’явитися у продажу вже пізніше цього року. Окрім цього, ще один продукт компанії, надтонка батарея, вже використовується в аксесуарах Apple, які виготовляє компанія Nimble.

Формати цих батарей залишаються звичними для ринку, оскільки Flint не ставить за мету змінювати спосіб, у який електронні пристрої використовують джерела живлення. Основний акцент робиться на зміні підходу до їх виробництва. Компанія свідомо обрала стратегію сумісності з наявною інфраструктурою та існуючими стандартами, прагнучи інтегруватися в поточну екосистему без радикальних змін для виробників і споживачів.

Виробництво батарей Flint уже розпочато в Сінгапурі. При цьому компанія використовує місцеву рослинну сировину і планує дотримуватися такого ж підходу й на інших виробничих майданчиках. Ключовим матеріалом є целюлоза, яку можна отримувати з широкого спектра рослин. Це дозволяє розглядати технологію не як чергове екологічне навантаження, а як потенційно стале рішення з мінімальним негативним впливом на довкілля.

Окрему увагу у Flint приділяють можливості використання інвазивних видів рослин. У багатьох країнах такі рослини становлять серйозну екологічну проблему, і держави витрачають значні кошти на їх знищення, часто обмежуючись спалюванням біомаси. Концепція Flint полягає в тому, щоб замість цього вилучати з таких рослин целюлозу і застосовувати її у виробництві батарей, перетворюючи екологічну проблему на ресурс.

Усі основні компоненти батареї, включно з анодом, катодом, електролітом і сепаратором, виготовляються з використанням целюлози у поєднанні з мінералами, безпечними для харчових продуктів, такими як цинк і марганець. Поєднання цих елементів дозволяє створити хімічну систему, що є повністю водною за своєю основою та значно безпечнішою з точки зору екології та поводження після завершення життєвого циклу.

Компанія розраховує, що її підхід до виробництва батарей стане прикладом для інших виробників елементів живлення та електронних компонентів. Масове впровадження подібних рішень із використанням сталих матеріалів потенційно здатне істотно зменшити сукупний екологічний слід сучасних електронних пристроїв. На тлі виставкової експозиції CES, практично повністю заповненої рішеннями на основі літієвих батарей, Flint демонструє альтернативний підхід, який нарешті переходить зі стадії концепції до реального виходу на ринок.

The post Батарейки Flint Paper Battery можуть зробити боротьбу з рослинами-шкідниками вигідною appeared first on .

Windows відмовляється від Intel та AMD? Нову Windows 11 26H1 отримають лише ноутбуки на Snapdragon (ARM). Intel та AMD залишаться з 25H2

З’являється все більше ознак того, що Microsoft працює над новою версією операційної системи Windows 11 під назвою 26H1. Особливість цього релізу полягає в тому, що він буде доступний лише для пристроїв, оснащених процесорами Snapdragon, тоді як комп’ютери на базі чипів Intel та AMD залишаться зі старою версією ОС. На перший погляд таке рішення виглядає дивним і потенційно дискримінаційним, однак у Microsoft є технічне та стратегічне пояснення такого підходу.

Інформація стала відомою завдяки виданню Windows Central, яке раніше припускало, що Microsoft може запровадити окремий графік оновлень Windows саме для ARM-пристроїв на базі Snapdragon. Після звернення до компанії Asus ці підозри отримали підтвердження. Asus офіційно повідомила, що її ноутбуки ZenBook A14 та ZenBook A16, оснащені процесорами Snapdragon, постачатимуться з попередньо встановленою Windows 11 версії 26H1. Водночас моделі цього ж виробника на базі процесорів AMD та Intel отримають Windows 11 версії 25H2.

Що це означає для користувачів без Snapdragon

Для користувачів, які не використовують пристрої на Snapdragon, ситуація має як негативні, так і позитивні аспекти. Негативна сторона полягає в тому, що Windows 11 26H1 містить низку покращень, яких немає у версії 25H2. Йдеться не про нові функції інтерфейсу чи додатки, а про внутрішні оптимізації, зокрема на рівні ядра та системних компонентів, які спрямовані на підвищення загальної продуктивності, енергоефективності та стабільності роботи системи на ARM-архітектурі.

Водночас позитивною новиною є те, що Windows 11 26H1 не впроваджує жодних нових користувацьких функцій. Це означає, що власники пристроїв на Snapdragon не отримають ексклюзивний доступ до нових програм або можливостей, які кардинально змінюють досвід користування Windows. Крім того, очікується, що всі ключові зміни та оптимізації, не пов’язані безпосередньо зі специфікою ARM-платформи, з’являться для пристроїв на Intel і AMD у межах наступного загального оновлення Windows 11 26H2.

Причини розбіжностей у версіях

За оцінкою Windows Central, основна причина такої асинхронності полягає у відмінностях у циклах розробки та оновлення між Microsoft і Qualcomm. Qualcomm, як виробник процесорів Snapdragon, дотримується власного графіка випуску драйверів, мікропрограмного забезпечення та платформи в цілому. Це змушує Microsoft адаптувати свій план розвитку Windows, щоб синхронізувати систему з оновленнями апаратної платформи.

Для Microsoft існує і стратегічний стимул підлаштовуватися під ритм Qualcomm. Хоча процесори Snapdragon уже не домінують у сегменті так званих AI PC так однозначно, як це прогнозувалося раніше, багато виробників продовжують впроваджувати ці чипи, щоб відповідати вимогам платформи Copilot+. Ці вимоги включають певний рівень продуктивності нейронних процесорів, енергоефективності та підтримку локальних AI-обчислень.

Надання пристроям на Snapdragon певних преференцій у вигляді окремої версії Windows може виконувати маркетингову функцію. Такий підхід здатен стимулювати інтерес до Copilot+ ПК і спонукати користувачів активніше знайомитися з вбудованими AI-можливостями, які Microsoft активно просуває як ключовий елемент майбутнього Windows.

Потенційний розвиток ситуації

Хоча Windows 11 26H1 не містить нових функцій, не виключено, що у разі появи версії 27H1 Microsoft може використати цю модель для раннього впровадження нових можливостей саме на пристроях із Snapdragon. У такому сценарії ранній доступ до функцій міг би стати додатковим аргументом на користь купівлі ARM-пристроїв із підтримкою Copilot+.

Також не можна виключати, що Microsoft спробує використати це як елемент просування, прямо або опосередковано позиціонуючи Snapdragon-пристрої як більш перспективні або «просунуті» з точки зору розвитку Windows. Водночас варто зазначити, що Copilot+ ПК уже з’являються і на базі процесорів Intel та AMD, що робить подальший розвиток цієї стратегії менш однозначним.

Наразі ситуація свідчить про перехідний етап у розвитку Windows, де Microsoft експериментує з різними моделями підтримки апаратних платформ. Остаточний напрямок стане зрозумілим лише після виходу наступних великих оновлень і реакції ринку на таке розділення версій операційної системи.

The post Windows відмовляється від Intel та AMD? Нову Windows 11 26H1 отримають лише ноутбуки на Snapdragon (ARM). Intel та AMD залишаться з 25H2 appeared first on .

Windows відмовляється від Intel та AMD? Нову Windows 11 26H1 отримають лише ноутбуки на Snapdragon (ARM). Intel та AMD залишаться з 25H2

З’являється все більше ознак того, що Microsoft працює над новою версією операційної системи Windows 11 під назвою 26H1. Особливість цього релізу полягає в тому, що він буде доступний лише для пристроїв, оснащених процесорами Snapdragon, тоді як комп’ютери на базі чипів Intel та AMD залишаться зі старою версією ОС. На перший погляд таке рішення виглядає дивним і потенційно дискримінаційним, однак у Microsoft є технічне та стратегічне пояснення такого підходу.

Інформація стала відомою завдяки виданню Windows Central, яке раніше припускало, що Microsoft може запровадити окремий графік оновлень Windows саме для ARM-пристроїв на базі Snapdragon. Після звернення до компанії Asus ці підозри отримали підтвердження. Asus офіційно повідомила, що її ноутбуки ZenBook A14 та ZenBook A16, оснащені процесорами Snapdragon, постачатимуться з попередньо встановленою Windows 11 версії 26H1. Водночас моделі цього ж виробника на базі процесорів AMD та Intel отримають Windows 11 версії 25H2.

Що це означає для користувачів без Snapdragon

Для користувачів, які не використовують пристрої на Snapdragon, ситуація має як негативні, так і позитивні аспекти. Негативна сторона полягає в тому, що Windows 11 26H1 містить низку покращень, яких немає у версії 25H2. Йдеться не про нові функції інтерфейсу чи додатки, а про внутрішні оптимізації, зокрема на рівні ядра та системних компонентів, які спрямовані на підвищення загальної продуктивності, енергоефективності та стабільності роботи системи на ARM-архітектурі.

Водночас позитивною новиною є те, що Windows 11 26H1 не впроваджує жодних нових користувацьких функцій. Це означає, що власники пристроїв на Snapdragon не отримають ексклюзивний доступ до нових програм або можливостей, які кардинально змінюють досвід користування Windows. Крім того, очікується, що всі ключові зміни та оптимізації, не пов’язані безпосередньо зі специфікою ARM-платформи, з’являться для пристроїв на Intel і AMD у межах наступного загального оновлення Windows 11 26H2.

Причини розбіжностей у версіях

За оцінкою Windows Central, основна причина такої асинхронності полягає у відмінностях у циклах розробки та оновлення між Microsoft і Qualcomm. Qualcomm, як виробник процесорів Snapdragon, дотримується власного графіка випуску драйверів, мікропрограмного забезпечення та платформи в цілому. Це змушує Microsoft адаптувати свій план розвитку Windows, щоб синхронізувати систему з оновленнями апаратної платформи.

Для Microsoft існує і стратегічний стимул підлаштовуватися під ритм Qualcomm. Хоча процесори Snapdragon уже не домінують у сегменті так званих AI PC так однозначно, як це прогнозувалося раніше, багато виробників продовжують впроваджувати ці чипи, щоб відповідати вимогам платформи Copilot+. Ці вимоги включають певний рівень продуктивності нейронних процесорів, енергоефективності та підтримку локальних AI-обчислень.

Надання пристроям на Snapdragon певних преференцій у вигляді окремої версії Windows може виконувати маркетингову функцію. Такий підхід здатен стимулювати інтерес до Copilot+ ПК і спонукати користувачів активніше знайомитися з вбудованими AI-можливостями, які Microsoft активно просуває як ключовий елемент майбутнього Windows.

Потенційний розвиток ситуації

Хоча Windows 11 26H1 не містить нових функцій, не виключено, що у разі появи версії 27H1 Microsoft може використати цю модель для раннього впровадження нових можливостей саме на пристроях із Snapdragon. У такому сценарії ранній доступ до функцій міг би стати додатковим аргументом на користь купівлі ARM-пристроїв із підтримкою Copilot+.

Також не можна виключати, що Microsoft спробує використати це як елемент просування, прямо або опосередковано позиціонуючи Snapdragon-пристрої як більш перспективні або «просунуті» з точки зору розвитку Windows. Водночас варто зазначити, що Copilot+ ПК уже з’являються і на базі процесорів Intel та AMD, що робить подальший розвиток цієї стратегії менш однозначним.

Наразі ситуація свідчить про перехідний етап у розвитку Windows, де Microsoft експериментує з різними моделями підтримки апаратних платформ. Остаточний напрямок стане зрозумілим лише після виходу наступних великих оновлень і реакції ринку на таке розділення версій операційної системи.

The post Windows відмовляється від Intel та AMD? Нову Windows 11 26H1 отримають лише ноутбуки на Snapdragon (ARM). Intel та AMD залишаться з 25H2 appeared first on .

Штучний інтелект Nvidia Lightricks-2 створить відео 20 сек 50 fps безпосередньо на вашому ПК

Штучний інтелект працює, вигадуючи кожен елемент контенту. Це означає, що для створення відеоролика ШІ повинен вигадати кожен піксель в кожному кадрі. Для відео роздільної здатності 1080p 30 fps тривалістю 5 секунд це означає потребу вигадати 1920х1080х30х5=311040000 пікселів. Це гігантський обсяг обчислень, з яким раніше могли впоратися лише надпотужні хмарні сервери. Однак новий ШІ Nvidia Lightricks-2 може стати революцією. Він здатний створювати відео відео до 20 сек 50 fps і здатний працювати на локальному ПК.

Компанія Lightricks представила нову модель у співпраці з Nvidia на виставці CES 2026, одному з найбільших світових технологічних заходів. У межах тієї ж події Nvidia також продемонструвала низку програмних оновлень нового покоління з підтримкою штучного інтелекту для геймерів. Серед них були агентний асистент, освітній консультант та AI-апскейлер, призначений для отримання більш плавної та чіткої графіки.

Нова модель Lightricks здатна створювати відеокліпи зі штучним інтелектом тривалістю до 20 секунд із частотою 50 кадрів на секунду. Це знаходиться на верхній межі можливостей сучасних індустріальних AI-відеомоделей. Також модель підтримує вбудоване аудіо. Можливість генерації відео у форматі 4K є критично важливою для авторів, які планують використовувати цю модель у проєктах професійного рівня. Водночас саме локальні, або on-device, можливості моделі суттєво відрізняють її від конкурентів, зокрема Google Veo 3 та OpenAI Sora.

Модель створювалася з орієнтацією на професійних творців. Йдеться як про незалежних кінорежисерів, так і про великі студії. Акцент на якості відеофрагментів у поєднанні з оптимізацією для локальної роботи на пристрої покликаний зробити цю розробку однією з найбільш привабливих і безпечних для творців, які активно інтегрують штучний інтелект у свої робочі процеси.

Окрім цього, на CES було представлено й інші апаратні новинки, зокрема нові бізнес-ноутбуки HP, орієнтовані на ІТ-середовище, а також високопродуктивні мобільні процесори від AMD.

Особливості нової моделі Lightricks заслуговують на окрему увагу. Коли компанії, що працюють зі штучним інтелектом, говорять про «відкриті» моделі, зазвичай маються на увазі моделі з відкритими вагами. Такі моделі не є повністю відкритим програмним забезпеченням, адже це вимагало б повного розкриття всіх етапів створення. Водночас вони дають розробникам уявлення про те, як модель була побудована. Ваги можна порівняти з інгредієнтами у рецепті торта. Моделі з відкритими вагами показують, які саме інгредієнти використовувалися, але не розкривають точних пропорцій кожного з них. Модель Lightricks належить саме до такого типу і вже доступна на платформах HuggingFace та ComfyUI.

Нова відеомодель Lightricks також може працювати безпосередньо на локальних пристроях користувача. Це є нетиповим для AI-відеогенерації. Створення навіть коротких відеокліпів за допомогою штучного інтелекту потребує значних обчислювальних ресурсів, тому відеомоделі зазвичай споживають більше енергії, ніж інші AI-інструменти. Для отримання якісних результатів більшість відеогенераторів покладаються на обчислювальні потужності дата-центрів, які використовують такі компанії, як Google або OpenAI, і виконують основну роботу в хмарі, а не на локальних пристроях. Використання графічних процесорів Nvidia RTX дозволяє досягати порівнянної якості без передавання обчислювального навантаження стороннім хмарним сервісам.

Локальне виконання моделей штучного інтелекту має низку переваг. Користувач зберігає повний контроль над власними даними і не змушений передавати їх великим технологічним компаніям, які можуть використовувати ці дані для вдосконалення власних моделей. Це має особливо важливе значення для великих розважальних студій, які активно досліджують можливості генеративного штучного інтелекту, але водночас повинні захищати права на інтелектуальну власність. Крім того, запуск AI-моделей безпосередньо на пристрої, за наявності відповідного обладнання, може забезпечити швидші результати. Середній запит на генерацію AI-відео зазвичай займає від однієї до двох хвилин, і скорочення цього часу дозволяє заощаджувати як час, так і кошти. Саме ці чинники є одними з найвагоміших аргументів для творців, які інтегрують штучний інтелект у свою професійну діяльність

The post Штучний інтелект Nvidia Lightricks-2 створить відео 20 сек 50 fps безпосередньо на вашому ПК appeared first on .

Смартфони Samsung Galaxy нагадають подзвонити мамі – фіча прошивки One UI 8.5

Коли ви востаннє дзвонили мамі чи тату, бабусі чи дідусю, тітці чи дядьку? Якщо для відповіді потрібно замислитися над тим, скільки часу минуло, ситуація виглядає не надто добре. Ситуацію можна покращити, оновивши свій смартфон Samsung Galaxy до прошивки версії One UI 8.5. Вона відстежує дати останніх дзвінків, і допоможе зробити так, щоб подібне не повторювалося.

У системі з’являється спеціальна картка в розділі Now Brief, яка надає м’які нагадування зв’язатися з близькими людьми, з якими давно не було контакту. Йдеться про родичів або інших важливих осіб, з якими спілкування з певних причин перервалося.

Ця функція заохочує підтримувати зв’язок і нагадує про прості, але важливі речі.

Картка Now Brief, на яку звернули увагу користувачі в соціальній мережі X, делікатно підштовхує до того, щоб написати або зателефонувати членам родини. У ній відображається, скільки днів минуло з моменту останнього контакту з конкретною людиною. З цього ж інтерфейсу можна одразу ініціювати дзвінок або скористатися кнопкою «Не зараз», щоб відкласти нагадування.

Механізм роботи цієї підказки залишається малопомітним для користувача. Імовірно, система просто зіставляє контакти, збережені в телефонній книзі з позначками на кшталт «мама», «тато», «брат», із даними про те, коли востаннє відбувався дзвінок або інша форма спілкування. На основі цього формується ненав’язливе нагадування про необхідність підтримувати зв’язок із родиною.

Це один із небагатьох прикладів, коли користь від застосування елементів штучного інтелекту виглядає очевидною. Уникнення спілкування з близькими не завжди є свідомим вибором. Повсякденні справи, робота та інші обставини часто захоплюють настільки, що важливі речі просто губляться серед дрібниць.

У таких випадках One UI 8.5 бере на себе роль ненав’язливого помічника і вчасно нагадує про цінні людські зв’язки. Система допомагає не втрачати контакт із тими, хто має значення, оскільки саме це залишається справді важливим.

The post Смартфони Samsung Galaxy нагадають подзвонити мамі – фіча прошивки One UI 8.5 appeared first on .

MacBook Air M1 отримав осколкове поранення, але продовжив працювати

Український військовий опублікував у соцмережі X (Twitter) повідомлення про те, що його MacBook Air на базі процесора M1 отримав пошкодження уламком артилерійського снаряда і при цьому продовжив нормально працювати. Чоловік пише, що з ноутбука можна читати пости у X.

Пости з фотографією та відео пошкодженого ноутбука опублікував один з українських військових, який служить у бригаді «Азов». В окремому дописі також оприлюднено відео, на якому видно, що macOS працює без збоїв, хоча екран має очевидні та серйозні пошкодження.

Ще у 2022 році поширювалися фотографії смартфона, який, за повідомленнями, врятував українського військового від кулі. Поточний випадок із MacBook Air, можливо, не настільки драматичний, але він є цікавою демонстрацією влади випадковостей у нашому житті.

До речі, в 2016 році ютубери виклали цікаве відео на тему “Скільки смартфонів потрібно, щоб зупинити кулю та врятувати життя“. За підсумками експерименту iPhone виявилися кращими в ролі «бронежилетів» порівняно із Samsung Galaxy.

Смартфони також можуть виручити, якщо ви забули пройти технічне обслуговування та змінити зношені гальмівні колодки на нові. Гаджети iPhone здатні зупинити навіть спорткар Porshe 911, але лише якщо швидкість не перевищує 60 км/год.

The post MacBook Air M1 отримав осколкове поранення, але продовжив працювати appeared first on .

Для вашого обличчя з’являться розумні окуляри з незвичайними варіантами в 2026 році

Раніше цього місяця в офісах Google Pier 57 у Нью-Йорку з видом на річку Гудзон було продемонстровано майбутнє, яке можна було буквально взяти в руки і приміряти на себе. Було використано бездротові окуляри з дисплеєм в одному оці, здатним проєктувати Google Maps на підлогу перед користувачем, показувати оновлення Uber та автоматично розпізнавати й перекладати мови, які звучать уголос. Завдяки цьому стало можливим повноцінно розуміти розмову китайською мовою.

Також було випробувано іншу пару окулярів, з’єднану кабелем із компактним пристроєм, схожим на смартфон. Ця модель могла запускати застосунки прямо перед очима, подібно до гарнітури змішаної реальності. Забезпечувалося підключення до персонального комп’ютера, можливість взаємодії з плаваючими тривимірними об’єктами за допомогою рук і запуск тривимірних ігор. За відчуттями це нагадувало Vision Pro, який можна носити в кишені піджака.

Це майбутнє вже наближається. Очікується, що у 2026 році такі окуляри можна буде випробувати самостійно.

Водночас ці два дуже різні підходи до дизайну, один повсякденний і стриманий, інший ближчий до компактної гарнітури доповненої реальності, є лише невеликим уявленням про те, що з’явиться далі.

Робочий стіл сьогодні може бути буквально завалений розумними окулярами. Серед них велика пара з чорними оправами, що показує кольоровий дисплей в одному оці та використовує нейронний браслет на зап’ясті для передавання команд. Поруч знаходиться пара окулярів, схожих на звичайні Ray-Ban, які відтворюють музику та роблять фотографії.

Є також чорні окуляри зі змінними лінзами та зеленими монохромними дисплеями з інтеграцією ChatGPT. Поруч знаходяться тонкі окуляри з дисплеями та додатковим кільцем-компаньйоном, але без динаміків. Окремо представлені окуляри, створені для допомоги людям із порушеннями слуху.

Для перегляду фільмів або роботи інколи використовується зовсім інша пара окулярів, які взагалі не підтримують бездротове підключення і з’єднуються зі смартфоном або ноутбуком через USB-кабель.

Розумні окуляри стали найбільшим новим продуктовим трендом у середині двадцятих років цього десятиліття. Окуляри з інтелектуальними функціями можуть викликати асоціації з футуристичними образами на кшталт окулярів Тоні Старка або технологій із фантастичних фільмів, і саме до цього прагнуть більшість великих технологічних компаній.

За словами керівника напряму Android у Google Саміра Самата, початкове бачення платформи надихалося образами з фільмів про Залізну людину, де Джарвіс виступає не як чат-бот, а як агент, здатний працювати разом з користувачем і розв’язувати завдання безпосередньо в навколишньому просторі. Це бачення залишається надзвичайно привабливим, але шлях до нього виявився тривалим, і повна реалізація все ще формується.

Понад десять років тому Google Glass викликав гострі дискусії щодо соціального сприйняття, приватності у публічному просторі та навіть породив негативний термін, пов’язаний із користувачами цих пристроїв. У огляді 2013 року зазначалося, що як аксесуар без використання рук цей пристрій має обмежені можливості і не відображає всього того, що доступно на екрані смартфона, через що виникало бажання повернутися до звичайного телефону.

Попри значний прогрес технологій за останні дванадцять років, розумні окуляри все ще стикаються з подібними викликами.

Водночас вони нарешті стали функціональнішими, менш громіздкими та достатньо звичними на вигляд, щоб хоча б частково відповідати багаторічним очікуванням. Вони не є ідеальними, мають суттєві компроміси та недоліки, але їхні можливості вражають і водночас викликають певне занепокоєння.

Функціональність і набір можливостей суттєво різняться, але всі розумні окуляри мають спільну мету. Вони прагнуть стати тим, що хочеться носити щодня і протягом усього дня. Потенційно вони можуть стати постійними супутниками на рівні бездротових навушників, смартгодинників, фітнес-браслетів або кілець для відстеження здоров’я, і з часом стати такими ж незамінними, як смартфон.

Кількість моделей і напрямів стрімко зростає

Сучасний сплеск інтересу до розумних окулярів нагадує початок 2010-х років, коли десятки різних годинників і браслетів намагалися закріпитися на зап’ястях користувачів, від перших Fitbit до ранніх смартгодинників на кшталт Pebble або Martian. Тоді постало питання, чи справді люди будуть носити такі пристрої постійно. Відповідь виявилася однозначною.

Сьогодні увага зосереджена на обчисленнях на обличчі. У цій гонці беруть участь як великі імена зі світу споживчої електроніки та оптики, так і виробники окулярів, серед яких Meta, Google, Samsung, Amazon, Snap, TCL, EssilorLuxottica, Warby Parker та Gentle Monster.

Розумні окуляри поступово знаходять своє місце. Окуляри Meta Ray-Ban пройшли шлях від дивної і насторожливої новинки у 2021 році до пристрою, який регулярно використовується під час подорожей і в повсякденному житті. Компанії на кшталт Nuance Audio вже продають сертифіковані FDA окуляри зі слуховими апаратами. Водночас наймасштабніші гравці ще лише готуються до виходу на ринок. Google і Samsung знаходяться на порозі, а Apple також може представити свої окуляри вже наступного року.

Наразі бракує чіткого визначення того, що саме слід вважати розумними окулярами. Навіть Samsung і Google поділяють цей клас пристроїв на кілька категорій, від моделей, що працюють у зв’язці зі смартфоном, до повністю автономних рішень. Одні моделі пропонують лише аудіопідтримку, інші додають камери. Частина має дисплеї, але їхнє призначення і якість сильно відрізняються. Одні показують сповіщення, інші запускають застосунки, виконують роль видошукача для камери або забезпечують субтитри в реальному часі.

Компанії активно експериментують, намагаючись створити універсальні окуляри з максимальним набором функцій. Ця тема стане однією з ключових на CES на початку січня. Окрему роль відіграє позиціонування розумних окулярів як головного пристрою для взаємодії зі штучним інтелектом, який є однією з найдинамічніших і найвпливовіших технологій сучасності.

Водночас залишаються базові, але критично важливі питання. Це автономність, якість дисплеїв, габарити, комфорт, спосіб передавання інформації зі смартфона, доступність, конфіденційність, безпека та соціальне сприйняття. Також залишається відкритим питання, як саме окуляри інтегруватимуться з уже наявними смартфонами, навушниками та годинниками.

Саме розв’язання цих проблем визначатиме розвиток галузі протягом найближчих дванадцяти місяців.

Штучний інтелект як основа і рушійна сила

Багато часу вже витрачено на використання окулярів із дисплеями у повсякденному середовищі, зокрема під час прогулянок. Окуляри Meta Ray-Ban Display показують відповіді на запити, формують текстові підказки на основі зображень, зроблених камерою, і намагаються допомогти в режимі реального часу. Саме такого сценарію прагнуть більшість великих компаній, які працюють над окулярами, розглядаючи їх як носимих асистентів з аудіо, мініатюрними дисплеями, підключеними застосунками та інструментами штучного інтелекту.

Водночас якість таких підказок поки що є нерівномірною. Штучний інтелект може помилятися в розпізнаванні об’єктів, неправильно визначати місце або вигадувати деталі. Попри це, окуляри є одним із найближчих способів для штучного інтелекту реально спостерігати за навколишнім світом користувача, що й пояснює інтерес Google і Meta до цього форм-фактора.

Подальший розвиток пов’язується з так званим контекстуальним штучним інтелектом, який зможе розуміти, де перебуває користувач і що саме він робить, реагуючи більш проактивно. Для цього потрібне глибше розуміння контексту, яке доповнена і змішана реальність можуть забезпечити.

Управління жестами і роль зап’ястя

З розвитком функціональності зростає потреба у зручних способах керування. Нейронні браслети, смартгодинники або навіть кільця можуть відігравати роль інтерфейсів для керування окулярами. Компанії розглядають можливість інтеграції таких рішень у вже наявні пристрої, щоб не змушувати користувачів носити надмірну кількість аксесуарів.

Екрани і якість відображення

Дисплеї в окулярах розвиваються у двох напрямах. Провідні моделі з кабельним підключенням можуть створювати великі віртуальні екрани, придатні для роботи і перегляду фільмів. Водночас повністю бездротові моделі з прозорими лінзами обмежені невеликими зонами відображення через вимоги до автономності та ваги.

Розміри, вага і автономність

Розміщення всіх компонентів у компактному корпусі окулярів залишається складним завданням. Батареї, динаміки, процесори, камери та проєктори займають простір і додають ваги. Більшість виробників прагнуть до ваги в межах від 25 до 50 грамів, що відповідає звичайним окулярам. Проте автономність усе ще залишається ключовим обмеженням, і повноцінний день роботи на одному заряді є мінімальною ціллю.

Питання корекції зору і допоміжних функцій

Серйозною проблемою залишається сумісність із рецептурними лінзами, особливо для користувачів із сильними порушеннями зору. Деякі виробники вже розширюють діапазон підтримуваних діоптрій, але галузі ще належить пройти значний шлях.

Разом із тим розумні окуляри демонструють великий потенціал у сфері допоміжних технологій. Вони вже можуть читати текст уголос, описувати навколишні об’єкти або виконувати функції слухових апаратів, надаючи користувачам більше незалежності.

Конфіденційність і безпека

Питання приватності є одним із найгостріших. Постійна наявність камер і мікрофонів викликає занепокоєння щодо збору даних, інформування оточення та безпеки зберігання інформації. Додаткові ризики пов’язані з помилками штучного інтелекту, відволіканням уваги під час руху та обмеженим вибором альтернативних сервісів.

Майбутній розвиток

Попри всі виклики, до кінця 2026 року очікується поява значно більшої кількості розумних окулярів. Вони з’являться у звичайних магазинах оптики, на обличчях моделей і як інструменти для роботи, розваг і допомоги людям з особливими потребами.

Частина проєктів неминуче зникне, як це вже траплялося з іншими носимими пристроями. Проте ті компанії, що виживуть, зможуть запропонувати технологічні окуляри, які справді захочеться носити постійно, з урахуванням індивідуального зору і без постійної потреби в підзарядці.

Галузь ще не досягла зрілості. Проте вона вже знаходиться на дуже близькій відстані до цього моменту.

За матеріалами: CNet

The post Для вашого обличчя з’являться розумні окуляри з незвичайними варіантами в 2026 році appeared first on .

Як ШІ генерує картинки та відео? Чому ШІ-генератор називають «дифузією»?

Якщо ви читали матеріал «Що робить ChatGPT і чому він працює? Зазираємо під капот у магію ціє нейромережі», ви розумієте, як ШІ генерує текст. Узагальнено, ШІ на основі підказки юзера та шукає найпопулярніші пов’язані слова за вказаною користувачем темою. Наприклад, ШІ продовжить фразу «чорний кіт» як «чорний кіт нявкає», бо «нявкає» – популярне слово, що в текстах розміщене поруч з котами. ШІ не виведе «чорний кіт кукарікає», бо в текстах людства, на яких його навчено, подібне поєднання слів не вживається.

Але як ШІ створює вражаюче детальні та реалістичні фото і відео на основі текстової підказки? Який набір пікселів пов’язаний, наприклад, з фразою «онлайн-новини»? Тим часом, будь-яка дифузійна ШІ-модель легко згенерує вам картинку за цією фразою-підказкою. Для генерації мультимедійного контенту використовується кмітливі підходи, наприклад, плин часу розвертають у зворотній бік.

Вектори у ШІ: зрозуміло «на пальцях»

Коли мова заходить про штучний інтелект, одразу починається словесна злива із фраз вектори та векторизація. Не лякайтеся, якщо ви востаннє чули про вектори в школі чи університеті – математика вам не потрібна для розуміння.

Вам потрібно лише пам’ятати, що вектор – це лінія з напрямком руху. На папері математики малюють вектор як стрілку.

Просто уявіть, що уся математика та усі числа – це лише спосіб визначити відстань між сутностями. У вас не викликає когнітивного дисонансу фраза «відстань між містами Київ та Харків – 400 км». Ви знаєте, що хтось узяв лінійку та перевів відстань на поверхні планети у коротке число.

Точно так само можна у числовому вигляді назвати відстані між іншими сутностями. Скажімо, яка відстань на гамі кольорів між бордовим та теракотовим? Прикладіть колориметр по черзі до обох відтінків та отримаєте числову відстань між двома кольорами.

При навчанні штучного інтелекту створюється така собі мапа відстаней між усіма сутностями, з якими його познайомили. Наприклад, відстань від слова «кіт» до слова «нявкає» становитиме 0,1, тоді як відстань між «кіт» та «кукарікає» складе 0,99. Оскільки слово «нявкає» набагато ближче до слова «кіт», ШІ обере між словами «нявкає» та «кукарікає» саме слово «нявкає». Слово «нявкає», у свою чергу, також має відстань до усіх інших слів.

Тепер час зануритися у те, як ШІ перетворює слова на пікселі.

Приклад роботи ШІ-генератора картинок та відео

У самій назві дифузійних ШІ-генераторів зображень лежить глибокий зв’язок із фізикою. Покоління моделей зображень і відео, яке ми бачимо сьогодні, працює за принципом, відомим як дифузія.

Цей процес вражаюче подібний до броунівського руху, який ми спостерігаємо в природі, коли частинки хаотично рухаються. Але ШІ робить дифузію у зворотному плині часу – від кінця до початку.

Цей зв’язок із фізикою – це не просто цікава аналогія. Із нього прямо випливають алгоритми, за допомогою яких ми можемо створювати зображення та відео. Такий підхід також дає інтуїтивне розуміння того, як ці моделі працюють на практиці.

Але перш ніж зануритися у фізичні основи, розглянемо реальну дифузійну модель.

Якщо заглянути у вихідний код дифузійного ШІ-генератора WAN 2.1, побачимо, що процес створення відео починається з отримання випадкового числа.

Тобто спочатку ШІ створює просто випадковий набір пікселів, використавши отримане число для початкової підказки. Це зображення виглядає як чистий шум.

Далі цей “шумовий” відеопотік подається у ШІ-модель з назвою трансформер – той самий тип моделей, що лежить в основі великих мовних систем, таких як ChatGPT.

Але замість тексту трансформер видає інше відео – вже з натяками на структуру. Потім це відео додається до початкового відео, і результат знову передається в модель.

Цей процес повторюється десятки разів. Після десятків або сотень повторень із чистого шуму поступово формується напрочуд реалістичне відео.

Але як усе це пов’язано з броунівським рухом? І як модель так точно використовує текстові запити, щоб перетворювати шум у відео відповідно до опису?

Щоб розібратися, розглянемо дифузійні моделі у трьох частинах.

Спочатку дослідимо модель CLIP, створену в OpenAI у 2021 році. Побачимо, що CLIP фактично складається з двох моделей – мовної та візуальної, які навчаються разом так, щоб утворити спільний простір відстаней між словами та зображеннями.

Далі розберемо сам процес дифузії – як моделі навчаються видаляти шум і перетворювати хаос у зображення. Ми побачимо, що просте уявлення “модель просто прибирає шум” не зовсім відповідає реальності.

І нарешті, поєднаємо CLIP і дифузію, щоб зрозуміти, як саме текстові запити керують створенням зображень і відео.

CLIP

2020 рік став переломним для мовного моделювання. Результати досліджень масштабування нейронних мереж і поява GPT-3 показали, що “більше” дійсно означає “краще”.

Величезні ШІ-моделі, навчені на гігантських наборах даних, виявили здатності, яких просто не існувало в менших моделях.

Дослідники швидко застосували ті ж ідеї до зображень.

У лютому 2021 року команда OpenAI представила модель CLIP, навчення якої базувалося на 400 мільйонах пар “зображення – текстовий підпис”, зібраних з інтернету.

CLIP складається з двох моделей: одна обробляє текст, інша – зображення.

Вихід кожної – це вектор довжиною 512, і головна ідея полягає в тому, що вектори для одного зображення та його підпису мають бути схожими.

Для цього було розроблено контрастивну схему навчання.

Наприклад, у наборі даних може бути фото кота, собаки і людини, з підписами “фото кота”, “фото собаки” і “фото чоловіка”.

Три зображення передаються у візуальну модель, а три тексти – у текстову. Ми отримуємо шість векторів(чисел відстані з напрямком руху) і хочемо, щоб пари, які відповідають одне одному, мали найбільшу схожість (мали найменшу відстань).

При цьому враховується не лише схожість відповідних пар, а й відмінність між усіма іншими комбінаціями.

Розмістимо вектори для зображень можна як стовпці матриці, а для текстів – рядки.

Пари на діагоналі – це правильні збіги, а поза нею – неправильні. Мета CLIP – максимізувати схожість правильних пар і мінімізувати схожість неправильних.

Це “контрастивне” навчання і дало моделі її назву: Contrastive Language-Image Pre-training (CLIP).

Схожість вимірюється за шкільною формулою – косинус кута між двома лініями (векторами). Якщо кут між векторами дорівнює нулю, їх косинус дорівнює 1 – це максимальна схожість.

Отже, CLIP навчається так, щоб пов’язані тексти і зображення “дивилися” в один напрямок у спільному просторі.

Маючи відстані між певними сутностями, ШІ може продукувати проміжні результати. Наприклад, якщо взяти дві фотографії однієї людини: з капелюхом і без, і обчислити різницю відстані між їхніми векторами, то результат відповідатиме поняттю “капелюх”.

Тобто віднімаючи та додаючи відстані (вектори) виявляється можливим працювати з концептами, а не просто над зображеннями.

CLIP також може класифікувати зображення: достатньо порівняти його числову відстань із набором відстаней для можливих підписів і вибрати ту, що має найбільшу схожість.

Таким чином, CLIP створює потужний простір, в якому картинки пов’язані з текстом. Але це працює лише в одному напрямку: від даних до векторів, а не навпаки.

Дифузійні ШІ-моделі

Того ж 2020 року команда з Берклі опублікувала роботу Denoising Diffusion Probabilistic Models (DDPM). У ній було вперше показано, що можна генерувати зображення високої якості, перетворюючи шум на зображення поступово, крок за кроком.

Ідея проста: ми беремо набір навчальних зображень і додаємо до них шум, поки вони не зруйнуються повністю. Потім навчаємо мережу виконувати зворотний процес – прибирати шум.

Проте пряма реалізація “прибираємо шум по кроках” працює погано. Дослідники з Берклі запропонували іншу схему: беремо “чисте зображення”, спотворюємо його та йдемо у зворотньому напрямку – від шуму до початкового зображення.

Цей підхід працює значно краще, ніж поступове відновлення.

Також важливо, що під час генерації модель знову додає шум на кожному кроці – і саме це робить результати чіткішими.

Причина пояснюється теорією броунівського руху: додавання випадкового шуму допомагає уникнути “злипання” точок у центрі розподілу даних і відтворює їх повне різноманіття.

У результаті замість середнього розмитого зображення ми отримуємо безліч реалістичних варіантів.

ШІ створює картинки, запускаючи час в зворотному напрямку

Дифузійні моделі можна інтерпретувати як навчання часозалежного векторного поля, яке вказує напрямок, у якому потрібно рухатися від шуму до даних.

Уявімо двовимірний приклад, де кожна точка – це маленьке зображення з двох пікселів. Якщо ми додаємо шум, точка робить випадкові кроки – це і є броунівський рух.

Модель навчається “крутити годинник назад”, повертаючи точки назад до вихідної структури (наприклад, спіралі).

Якщо ми навчимо її не лише за координатами, а й за часом t (кількість кроків), модель навчиться поводитися по-різному на різних етапах – спочатку грубо, потім детальніше.

Це робить її набагато ефективнішою.

Додавання шуму під час генерації також випливає з цієї моделі: воно дозволяє зразкам не “злипатись” у середнє значення, а рівномірно заповнювати розподіл даних.

Якщо шум не додавати, модель сходиться до центру – тобто створює “усереднене”, розмите зображення.

DDIM

Незабаром з’явився спрощений метод DDIM (Denoising Diffusion Implicit Models), який довів, що можна отримувати ту саму якість без випадкових кроків.

Він ґрунтується на аналітичному зв’язку між стохастичним рівнянням (з шумом) і звичайним детермінованим диференційним рівнянням без шуму.

DDIM дає змогу генерувати зображення швидше й без втрати якості.

Обидва методи – DDPM і DDIM – приводять до одного й того ж розподілу результатів, але DDIM робить це детерміновано, без випадковості.

WAN використовує подальший розвиток цієї ідеї – метод flow matching.

DALL·E 2 та об’єднання CLIP із дифузією

До 2021 року стало очевидно, що дифузійні моделі можуть створювати зображення високої якості, але не вміють добре реагувати на текстові підказки.

Ідея поєднати CLIP і дифузію виглядала природною: CLIP вміє добре порівнювати слова та картинки та може керувати процесом створення картинок методом дифузії.

У 2022 році команда OpenAI зробила саме це, створивши unCLIP, комерційна версія якого відома як DALL·E 2.

DALL·E 2 навчається перетворювати вектори з CLIP у зображення, і робить це з неймовірною точністю.

Текстові вектори передаються в дифузійну модель як додаткова умова, і вона використовує їх, щоб точніше прибирати шум відповідно до опису.

Цей метод називається conditioning – умовне керування.

Але conditioning сам по собі не гарантує повного відповідності запиту. Для цього потрібен ще один прийом.

Guidance

Повернімося до прикладу зі спіраллю. Якщо різні частини спіралі відповідають різним класам (люди, собаки, коти), то conditioning допомагає, але не ідеально: точки плутаються.

Вирішенням є classifier-free guidance. Модель навчають як із класовою умовою, так і без неї.

Під час генерації ми можемо порівняти вектори для умовної і безумовної моделей. Різниця між ними вказує напрямок до потрібного класу, і ми можемо підсилити цей напрямок коефіцієнтом ? (альфа).

У результаті модель точніше відтворює потрібні об’єкти – наприклад, дерево в пустелі нарешті з’являється і стає дедалі реалістичнішим, якщо збільшувати ?.

Цей принцип став стандартом у сучасних моделях.

WAN застосовує ще цікавіший варіант – негативні підказки (negative prompts).

Тобто користувач може явно вказати, чого він не хоче бачити у відео (наприклад, “зайві пальці” або “рух назад”), і ці фактори віднімаються від результату.

Висновок

Від публікації DDPM у 2020 році до сьогодні розвиток дифузійних моделей відбувався з шаленим темпом. Сучасні системи, здатні перетворювати текст у відео, виглядають як щось майже нереальне.

Найвражаюче те, що всі ці частини – текстові енкодери, векторні поля, зворотні дифузійні процеси – узгоджуються між собою настільки точно, що утворюють цілісний механізм. І все це базується на простих математичних формулах та геометрії. Результатом стали моделі, що нагадують новий тип машини.

Тепер, щоб створити реалістичні й красиві зображення або відео, не потрібна камера, художник чи аніматор. Достатньо лише кількох слів тексту.

За матеріалами: Welch Labs

The post Як ШІ генерує картинки та відео? Чому ШІ-генератор називають «дифузією»? appeared first on .

Запропоновано спосіб отримання рідкоземельних елементів на основі біологічних вірусів

Рідкоземельні матеріали є “гарячою” темою для багатьох країн і Українська влада навіть підписала угоду про рідкоземельні елементи, умови якої нагадують втрату суверенітету. Тим часом, вчені запропонували новий доступніший спосіб очищення таких мінералів. До процесу залучать бюіологічні віруси.

Хоча рідкісноземельні елементи не є рідкісними, таку назву вони отримали внаслідок величезної складності з їхнього видобутку і очищення з гірських порід. Ці елементи зазвичай вони не утворюють значних концентрацій, окріс цього, рідкоземельні елементи дуже схржі один на одного, що викликає величезні складнощі з їхнім розділенням. Це вимагає великої та брудної інфраструктури, яка здатна переробляти породу з низькою концентрацією бажаних мінераліів.

Існують потенційно ефективніші підходи до вилучення таких елементів. Один з них передбачає використання бактеріофага, генетично модифікованого таким чином, щоб він міг приклеюватися до конкретних рідкісноземельних елементів вивільняти їх з гірської породи в розчин залежно від температурних умов.

Основна наукова стаття про цю технологію, опублікована в журналі Nano Letters, є недоступною без платної підписки, однак додатковий інформаційний PDF-файл містить певні технічні деталі. Також можна звернутися до попередньої роботи, опублікованої у Nano Letters у 2024 році колективом під керівництвом Inseok Chae, повний текст якої доступний у форматі PDF. У цій публікації автори описують механізм зв’язування, заснований на лантаноїд-зв’язувальному пептиді, який був адаптований з бактерії Methylobacterium extorquens.

У новому дослідженні до цієї системи було додано еластиноподібний пептид, що має термочутливі властивості. Це дозволяє ініціювати коацервацію після того, як фаги протягом певного часу перебувають у водному розчині, що містить рідкісноземельні елементи. Утворена суспензія значно спрощує відокремлення фагів від зібраних іонів рідкісноземельних елементів. Після цього фаги можуть бути повторно використані в наступному циклі. Процес створення нових модифікованих фагів також не є складним, оскільки, як показано в публікаціях, їх розмноження здійснюється шляхом інфікування бактерій Escherichia coli.

Питання того, чи є швидкість вилучення та можливість масштабування цього підходу економічно доцільними для промислового відновлення рідкісноземельних елементів, залишається відкритим. Водночас цей метод є ще одним яскравим прикладом використання наявних біологічних механізмів для вирішення нових технологічних завдань.

Рідкоземельні елементи – це група з сімнадцяти хімічних елементів, до якої входять п’ятнадцять лантаноїдів, а також скандій і ітрій. Попри назву, ці елементи не є винятково рідкісними в земній корі, однак зазвичай вони не зустрічаються у вигляді концентрованих родовищ. До рідкоземельних елементів належать, зокрема, неодим, празеодим, диспрозій, тербій, європій, лантан, церій та інші. Вони мають унікальні магнітні, оптичні, електронні та каталізаторні властивості, що робить їх критично важливими для сучасних технологій.

Рідкоземельні елементи широко застосовуються у виробництві постійних магнітів для електродвигунів, вітрових турбін і електромобілів, у дисплеях, лазерах, світлодіодах, акумуляторах, медичному обладнанні, а також у військовій та аерокосмічній промисловості. Вони є ключовими компонентами смартфонів, комп’ютерів, жорстких дисків, оптичних волокон і систем зв’язку. Через стратегічну важливість цих матеріалів їх постачання напряму впливає на розвиток високотехнологічних галузей і національну безпеку багатьох країн.

Класичні методи отримання рідкоземельних матеріалів включають гірничий видобуток, подрібнення руди, а також складні хіміко-металургійні процеси, зокрема кислотне вилуговування, екстракцію розчинниками та багатоетапне розділення елементів. Основна складність полягає в тому, що рідкоземельні елементи мають дуже схожі хімічні властивості, що ускладнює їх ефективне відокремлення один від одного. Крім того, ці процеси потребують значних обсягів токсичних реагентів, утворюють велику кількість відходів і часто супроводжуються забрудненням ґрунтів, води та повітря. Саме тому традиційні методи вважаються не лише технологічно складними, а й екологічно небезпечними, що стимулює пошук альтернативних, більш сталих підходів до вилучення рідкоземельних елементів.

The post Запропоновано спосіб отримання рідкоземельних елементів на основі біологічних вірусів appeared first on .

Чому на екрані iPhone з’являється чорна точка і як її вимкнути

Після встановлення оновлення інколи з’являються нові елементи інтерфейсу, яких раніше не було. Саме так сталося з iPhone після виходу iOS 18.4 на початку цього року. Окрім стандартних виправлень помилок і загальних покращень системи, оновлення додало новий елемент інтерфейсу: чорну точку праворуч від Dynamic Island.

Насправді чорна точка є лише візуальним оформленням двох індикаторів конфіденційності, введених ще в iOS 14, а саме помаранчевої та зеленої точок. Зелена позначає, що застосунок використовує камеру iPhone, а помаранчева вказує на використання вбудованого мікрофона. В iOS 18.4 ці індикатори було перенесено за межі Dynamic Island і розміщено на чорному тлі для кращої помітності.

Щоб прибрати зелену або помаранчеву точку на чорному тлі, достатньо закрити застосунок, який використовує камеру або мікрофон. Якщо незрозуміло, який саме застосунок активує ці індикатори, потрібно провести вниз від верхнього правого кута екрана, щоб відкрити Пункт керування. Там буде показано, які саме застосунки наразі використовують камеру або мікрофон.

Під час перевірки індикаторів конфіденційності на телефонах, включно із зеленою точкою на екранах Android, варто також звертати увагу на перелік активних застосунків. На iPhone або Android індикатор конфіденційності може виявитися єдиним попередженням про можливе шкідливе програмне забезпечення, якщо користувач упевнений, що його застосунки не повинні активувати камеру або мікрофон.

Причин для появи стороннього програмного забезпечення може бути багато. Одним з можливих сценаріїв є компрометація пристрою через небезпечну зарядку. Саме тому небажано використовувати публічні USB-порти для заряджання, або ж слід користуватися захисними аксесуарами, такими як USB Data Blocker від JSAUX, якщо виникла потреба зарядити пристрій без власного павербанка.

На жаль, якщо зелена чи помаранчева точка псує користувацький досвід роботи з iOS, універсального вимикача для індикаторів не передбачено. Проте можна індивідуально дозволяти або забороняти доступ до камери та мікрофона. Для цього потрібно відкрити Налаштування, вибрати пункт Конфіденційність і безпека, а потім Камера або Мікрофон. Після заборони доступу для певного застосунку індикатори більше не з’являтимуться під час роботи цього програмного забезпечення, а також залишатимуться вимкненими для застосунків, яким дозвіл не надавався.

The post Чому на екрані iPhone з’являється чорна точка і як її вимкнути appeared first on .