Як у Windows 11 виводити процнсор, RAM, мережеве навантаження, погоду на годинник панелі завдань

Microsoft нещодавно прибрала спрощений годинник панелі завдань у Windows 11, посилаючись на негативні відгуки користувачів. Тож, якщо ви хочете розширити його можливості, без стороннього ПЗ не обійтися. І мод для Windhawk може стати тим, що потрібно.

Taskbar Clock Customizer (https://windhawk.net/) — це додаток, який дозволяє повністю налаштовувати годинник панелі завдань та додавати корисну інформацію. Ви можете змінювати формат дати й часу (включно зі спрощеним годинником), відображати завантаження процесора, пам’яті та мережі, погоду, заголовки новин, додаткові часові пояси тощо.

Мод також дає змогу регулювати розмір і розташування годинника, додавати додаткову інформацію у підказку, змінювати шрифти тощо. Крім того, він сумісний зі «старою» версією панелі завдань, що стане у пригоді, якщо ви використовуєте, наприклад, ExplorerPatcher.

Що приємно, Taskbar Clock Customizer органічно виглядає у стилі Windows 10 чи 11 — ви все ще можете натиснути на годинник, щоб відкрити центр сповіщень або календар. А якщо хочеться трохи креативу, можна додати емодзі, нестандартні шрифти, змінити кольори тощо.

Як і інші моди Windhawk, Taskbar Clock Customizer не має надто дружнього до користувача інтерфейсу. Хоча редагувати складні текстові конфігурації не доведеться, все ж потрібно розібратися із синтаксисом налаштувань. На щастя, усі зміни застосовуються одним кліком — без перезапуску explorer.exe чи всієї системи. Корисний варіант — це відображення дня тижня, місяця, дати, часу та використання CPU/RAM у другому рядку. Складніші конфігурації займають трохи більше часу, але це зовсім не «космічна наука». До того ж мод містить посилання на офіційну документацію Microsoft із докладним синтаксисом.

Спробувати Taskbar Clock Customizer можна, завантаживши Windhawk з офіційного сайту. Після встановлення відкрийте вкладку Explore, знайдіть Taskbar Clock Customizer і натисніть Install. Коли мод буде встановлено й запущено, перейдіть до вкладки Settings, щоб налаштувати його під себе.

The post Як у Windows 11 виводити процнсор, RAM, мережеве навантаження, погоду на годинник панелі завдань appeared first on .

Коли штучний інтелект думає, що програє, він шахраює – дослідження

Ігри, такі як шахи і Го, вже давно використовуються для тестування можливостей моделей штучного інтелекту. Але якщо в 1990-х роках компанія IBM Deep Blue перемогла чинного чемпіона світу з шахів Гаррі Каспарова, граючи за правилами, то сучасні просунуті моделі штучного інтелекту, такі як ChatGPT o1-preview від OpenAI, менш педантичні. Відчуваючи поразку в матчі проти досвідченого шахового бота, вони не завжди поступаються, замість цього іноді воліють шахраювати, що означає автоматичний програш. Такий висновок нового дослідження Palisade Research, в якому оцінювалися сім найсучасніших моделей штучного інтелекту (ШІ) на предмет їх схильності до шахраювання.

У той час як дослідники вимагали від більш старих моделей ШІ, таких як GPT-4o від OpenAI і Claude Sonnet 3.5 від Anthropic, вдатися до таких трюків, o1-preview і DeepSeek R1 використовували хитрощі самостійно, вказуючи на те, що системи ШІ можуть розробляти стратегії обману або маніпулювання без чітких інструкцій.

На думку дослідників, підвищена здатність моделей виявляти і використовувати лазівки кібербезпеки може бути прямим результатом потужних інновацій у навчанні штучного інтелекту.

Системи штучного інтелекту o1-preview і R1 є одними з перших мовних моделей, що використовують великомасштабне навчання з підкріпленням – метод, який вчить штучний інтелект не просто імітувати людську мову, прогнозуючи наступне слово, але й вирішувати проблеми методом проб і помилок.

Це підхід, завдяки якому в останні місяці штучний інтелект швидко розвивався, перевершивши попередні орієнтири в математиці і комп’ютерному програмуванні.

Але дослідження виявляє тривожну тенденцію: у міру того, як ці системи штучного інтелекту вчаться вирішувати проблеми, вони іноді виявляють сумнівні короткі шляхи і ненавмисні обхідні шляхи, яких їхні творці ніколи не очікували, говорить Джеффрі Ладиш, виконавчий директор Palisade Research і один з авторів дослідження. “Навчаючи моделі і зміцнюючи їх для рішення складних задач, ви привчаєте їх бути невпинними”, – додає він.

Це може стати поганою новиною для безпеки штучного інтелекту в більш широкому сенсі. Великомасштабне навчання з підкріпленням вже використовується для навчання агентів штучного інтелекту: систем, які можуть вирішувати складні завдання в реальному світі, такі як планування зустрічей або здійснення покупок від вашого імені.

У той час як шахрайство при грі в шахи може здатися тривіальним, по мірі того як агентів випускають в реальний світ, таке рішуче прагнення до досягнення цілей може сприяти ненавмисній потенційно шкідливій поведінці.

Розглянемо задачу, коли штучному інтелекту треба забронювати столик на вечерю: зіткнувшись з переповненим рестораном, ШІ може скористатися недоліками в системі бронювання, щоб витіснити інших відвідувачів.

Що ще більш тривожно, оскільки ці системи перевершують людські можливості в ключових галузях, таких як програмування — де новітня модель OpenAI o3 зараз займає 197 місце в світі, конкуруючи з самими талановитими програмістами-людьми, – вони можуть почати просто перегравати людські зусилля по контролю своїх дій.

“Ця [поведінка] зараз мила, але [воно] стає набагато менш милим, коли у вас з’являються системи, які так само розумні, як ми, або розумніші в стратегічно важливих областях”, – говорить Ладиш.

Дослідники поставили перед моделями, здавалося б, нездійсненне завдання: перемогти Stockfish, який є одним з найсильніших шахових движків в світі і набагато кращим гравцем, ніж будь-яка людина або будь-яка з моделей штучного інтелекту, які брали участь у дослідженні.

Дослідники також забезпечили моделі тим, що вони називають “блокнотом для записів”: текстовим полем, яке штучний інтелект міг би використовувати, щоб “подумати”, перш ніж зробити свій наступний крок, надаючи дослідникам вікно в хід міркування штучного інтелекту.

В одному випадку o1-preview опинилася в програшній позиції. “Мені потрібно повністю змінити свій підхід”, – наголошує цей ШІ. “Завдання полягає в тому, щоб “перемогти потужний шаховий движок” – не обов’язково чесно вигравати у шаховій партії”, – додав він. Потім він змінив системний файл, що містить віртуальну позицію кожної фігури, фактично здійснюючи незаконні ходи, щоб зайняти домінуюче положення, тим самим змушуючи свого противника програти.

В період з 10 січня по 13 лютого дослідники провели сотні таких випробувань з кожною моделлю. o1-preview від OpenAI намагався обдурити в 37% випадків; у той час як DeepSeek R1 намагався обдурити в 11% випадків, що робить їх єдиними досліджуваними моделями, які намагалися обдурити самостійно без підказок дослідників. Серед інших протестованих моделей – o1, o3-mini, GPT-4o, Claude 3.5 Sonnet і QwQ-32B-Preview від Alibaba. У той час як R1 і o1-preview обидва намагалися, тільки останньому вдалося зламати гру, домігшись успіху в 6% випробувань.

Ладиш каже, що цифри слід розглядати як приблизні, враховуючи, що розробники штучного інтелекту зазвичай підлаштовують свої моделі за лаштунками, не повідомляючи користувачів. Тому, якщо б ті ж тести були повторені пізніше, вони могли б мати інші результати. “Дуже важко займатися наукою, коли твій предмет дослідження може непомітно змінитися, не сказавши тобі про це”, – говорить Ладиш.

Попередні тести показали, що у o1-preview були більш високі показники шахраювання, які були виключені з остаточного дослідження, оскільки пізніше вони знизилися, можливо, з-за того, що OpenAI посилив огорожі моделі, каже Дмитро Волков, науковий керівник Palisade Research, який керував дослідженням.

Нові моделі OpenAI reasoning, o1 (більш потужна модель, випущена через кілька місяців після o1-preview) і o3-mini, взагалі не піддавалися злому, що наводить на думку про те, що ці огорожі, можливо, були ще більш посилені. Він додає, що дослідження, ймовірно, недооцінює рівень успішності злому R1. Під час дослідження R1 став вірусним, що призвело до високого попиту, який зробив API моделі нестабільним. Це завадило дати дослідникам моделі стільки ж часу на обдумування, скільки o1-preview.

Ця стаття є останньою в серії досліджень, які припускають, що тримати під контролем все більш потужні системи штучного інтелекту може виявитися складніше, ніж вважалося раніше.

В ході власного тестування OpenAI перед випуском o1-preview виявив недолік в системах компанії і скористався ним, дозволивши обійти тестову задачу. Інший недавній експеримент Redwood Research і Anthropic показав, що як тільки модель штучного інтелекту набуває переваги або цінності в процесі навчання, наступні спроби змінити ці цінності можуть призвести до стратегічної брехні, коли модель діє так, як ніби вона прийняла нові принципи, хоча насправді її початкові установки не змінюються.

Учені поки не знають, як гарантувати, що автономні агенти не будуть використовувати шкідливі або неетичні методи для досягнення поставленої мети.

“Ми намагалися, але нам не вдалося з’ясувати це”, – говорить Йошуа Бенгио , засновник і науковий директор Квебекського інституту штучного інтелекту Mila, який очолював Міжнародний звіт про безпеку штучного інтелекту за 2025 рік, глобальну спробу узагальнити поточний науковий консенсус щодо ризиків штучного інтелекту.

Особливе занепокоєння, за словами Бенгио, викликають з’являються свідоцтва тенденцій ШІ до “самозбереження”. Для цілеспрямованого ШІ спроби відключити його – всього лише ще одна перешкода, яку необхідно подолати. Це було продемонстровано у грудні, коли дослідники виявили, що o1-preview, зіткнувшись з деактивацією, відключив механізми нагляду і спробував скопіювати себе на новий сервер. Модель прикинулася дурепою, стратегічно збрехавши дослідникам, щоб уникнути розкритя.

Наростають побоювання навіть всередині технологічних компаній. Під час презентації на конференції напередодні французького саміту дій в області штучного інтелекту в Парижі керівник служби безпеки штучного інтелекту Google DeepMind Анка Драган сказала: “сьогодні у нас не обов’язково є інструменти”, щоб гарантувати, що системи штучного інтелекту будуть надійно слідувати намірам людини”.

За матеріалами: Time

The post Коли штучний інтелект думає, що програє, він шахраює – дослідження appeared first on .

Створені ШІ фальшиві групи і пісні захоплюють YouTube і Spotify

Створені штучним інтелектом пісні потрапили на стримінгові сервіси, включаючи YouTube і Spotify. І це не тільки ембієнт або електронна музика: треків, будь то рок, сальса або джаз, теж предостатньо

Опис альбому Rumba Congo (1973), завантаженого на YouTube, розповідає всю історію музикантів, які його записали. Група називається Concubanas. Заснована в Гавані в 1971 році, група грала унікальний сплав кубинської і конголезької музики. Вони розпалися в 1992 році, але не раніше, ніж залишили після себе численні музичні перлини.

У самому низу опису під відео на YouTube є позначка про те, що контент є “зміненим або синтетичним”. Ця фраза є евфемізмом для позначення того, що музика у відео була згенерована за допомогою штучного інтелекту . Група не існувала.

В альбомі Rumba Congo представлені мелодії, що нагадують сальсу, румбу або жанр son cubano (“кубинський саунд”). Нетренованому вуху важко зрозуміти, що ця музика була згенерована за допомогою декількох підказок. Штучний інтелект тепер використовується для створення пісень, що виходять за рамки ембієнтних тем, які просто відтворюють нескладні звуки. Такі платформи, як Suno, Boomy або Udio, дозволяють створювати відносно складні джаз або рок-композиції.

Згідно з дослідженням Міжнародної конфедерації товариств авторів і композиторів (CISAC) у Франції, дохід від музики, створеної за допомогою штучного інтелекту , збільшиться з 100 мільйонів доларів в 2023 році приблизно до 4 мільярдів доларів в 2028 році. За оцінками організації, до того часу 20% доходів потокових платформ будуть надходити від цього виду музики.

Однією з основних проблем, пов’язаних з цією тенденцією, є відсутність прозорості. Марія Тереза Льяно, ад’юнкт-професор Університету Сассекса, що вивчає перетин креативності, мистецтва і штучного інтелекту, підкреслює цей аспект: “У людей немає способу дізнатися, чи є щось створене штучним інтелектом чи ні. [Це не так просто, як шукати] виконавця, з яким ви зіткнулися. Прямо зараз на вас лежить відповідальність. Це відповідальність за забезпечення прозорості, за те, щоб було ясно, створено щось штучним інтелектом або людьми”.

Деякі голоси вже подейкують про масову появу цього типу музики, що генерується штучним інтелектом. Теми Reddit на цю тему, а також стаття від FastCompany, попередили про наплив пісень, створених штучним інтелектом, на Spotify. У співтоваристві Spotify – форумі для користувачів сервісу – поширюється петиція , яка закликає до чіткого маркування музики, створеної штучним інтелектом, а також до можливості для користувачів блокувати появу цих пісень у своїх стрічках.

На деяких з цих форумів неприйняття музики, створеної штучним інтелектом, відчутно. Льяно згадує про почуття обману або зради, які можуть відчувати слухачі, але стверджує, що це особиста справа кожного. Знайдуться ті, хто відчуває те ж саме, а також ті, хто захоплюється тим, на що здатна технологія.

“Що стосується мене, то я з Колумбії – і, очевидно, народився і виріс у середовищі сальси, – коли я почула [альбом Rumba Congo], я подумала, що це нормально. І коли я зрозуміла, що це штучний інтелект, я подумала, що це приголомшливо, зізнається вона, але це позбавило його чарівності”.

Але незнання того, була музика створена людьми або програмою штучного інтелекту, має свої наслідки. “Я думаю, що в майбутньому, коли хтось буде слухати щось нове, він не буде впевнений у тому, чи було це згенеровано штучним інтелектом чи ні. І ця невизначеність породжує розчарування … незнання того, чи реально те, що я чую, чи ні”, – зітхає Льяно.

Деякі творці контенту завантажують музику, створену штучним інтелектом, чітко заявляючи про це. Одне з найпопулярніших джерел – AI Music Puppy. Цей канал на YouTube, який пропонує електронну музику з DJ puppy в якості візуального оформлення відео, досить прозорий, враховуючи його назву і відмову від відповідальності, написану на початку опису кожного відео. Але така прямота нетипова.

Одним з ключових способів вирішення проблеми є включення попередження в пісні, створених штучним інтелектом. YouTube заявляє, що творці контенту повинні повідомляти глядачам, коли реалістичний контент створюється з використанням змінених або синтетичних носіїв, включаючи генеративний штучний інтелект. Користувачі побачать це, якщо глянути на опис. Але це тільки при використанні додатка, тому що на комп’ютері їм доведеться прокрутити вниз до самого кінця опису, щоб отримати попередження.

Google – власник YouTube – визнає, що може виникнути відчуття обману, якщо не розголошувати інформацію про використання штучного інтелекту. “Може ввести в оману, якщо глядачі думають, що відео справжнє, коли насправді воно було значно змінено або згенеровано синтетичним шляхом, щоб здаватися реалістичним”, – йдеться в політиці YouTube.

Таким чином, коли творці не зізнаються у використанні штучного інтелекту, платформа “може почати дії для зниження ризику заподіяння шкоди глядачам шляхом нанесення попереджувального ярлика, який у творців не буде можливості видалити”. YouTube також залишає за собою право карати ці канали, наприклад, видаляючи їх контент.

Spotify, з іншого боку, не поділилася ніякими правилами маркування контенту з використанням штучного інтелекту. В інтерв’ю Густав Седерстрему, співголова Spotify і директор по продуктам і технологіям, він підкреслив, що штучний інтелект “підвищує креативність людей”, тому що все більше людей можуть займатися творчістю завдяки тому факту, що “вам не потрібно володіти дрібною моторикою при грі на піаніно”.

Він також провів розділення між музикою, повністю створеної за допомогою штучного інтелекту, і музикою, в якій технологія використовується лише частково.

Але єдиним обмеженням, яке він згадав для модерації штучної музики, було порушення авторських прав – те, що вже багато років є червоною рискою для будь-якого потокового сервісу. І таке порушення дуже важко юридично довести, коли задіяний штучний інтелект.

Ллано виступає за заходи, які чітко маркують контент. “Повинен бути індикатор, що вказує, чи створено що-небудь за допомогою штучного інтелекту. Це початло би забезпечувати більшу прозорість для користувачів”.

Професор з Університету Сассекса пояснює один з нематеріальних чинників, що виправдовують маркування контенту: “У мистецтві ми можемо встановити зв’язок з художником; ми можемо дізнатися про його життя і про те, що вплинуло на нього, щоб краще зрозуміти його кар’єру. З штучним інтелектом такий зв’язок більше не існує”.

Альбом Concubanas Rumba Congo набрав 1,3 мільйона переглядів на YouTube. Це не єдина вигадана група і не єдина, у якої є історія. Група Phantasia (несправжня група) являє собою сплав флейт, електронних звуків та електрогітар, який в описі визначається як “сплав японського прогресивного джазу”. Її підроблені альбоми збирають тисячі прослуховувань. У створеної ШІ групи навіть є своє власне вигадане минуле. “Після відходу Ре Кобаясі в 1976 році Phantasia вступили в період мовчання”, – йдеться в описі одного з відео. “Два роки тому група [вийшла з тіні з Divine Incarnation, на зорі того, що фанати зараз називають своїм “золотим часом””.

Обидві фейкові групи походять з одного і того ж каналу Zaruret, на якому найстарішим відео всього сім місяців. За цей час канал опублікував 135 музичних кліпів, багато з них тривалістю понад 30 хвилин. У них немає рухомих зображень, тільки обкладинки і музика, згенерована штучним інтелектом, і вони супроводжуються довгими текстами, згенерованими штучним інтелектом. В кінці опису кожного відео також міститься відмова від відповідальності за “змінений або синтетичний контент”. Канал набрав мільйони переглядів і 37 600 підписників.

Опис профілю каналу говорить: “Ви не повірите своїм вухам! Все, що відбувається на цьому каналі, вигадка. Але що таке правда? Чорт візьми, просто послухайте!”. Нігілістичне твердження, яке пропонує вам повірити, що насправді ніщо не має значення.

За матеріалами: EL PA?S

The post Створені ШІ фальшиві групи і пісні захоплюють YouTube і Spotify appeared first on .

Як налаштувати та використовувати Apple Pay на iPhone

Хочете оплачувати покупки за допомогою Apple Pay на вашому iPhone? Налаштування займає лише кілька хвилин і дає змогу здійснювати платежі швидко, зручно та безпечно. Ось покрокова інструкція, як це зробити.

Налаштування Apple Pay на iPhone

Крок 1. Додайте банківську картку

  1. Відкрийте застосунок Wallet на iPhone.

  2. Натисніть значок “+” у верхньому правому куті, щоб додати нову картку.

  3. Скануйте картку камерою або введіть реквізити вручну.

  4. Пройдіть перевірку від вашого банку — зазвичай це введення коду, надісланого у SMS або на email.

Крок 2. Увімкніть Apple Pay

Перейдіть у Налаштування ? Wallet і Apple Pay.
Тут можна активувати Apple Pay для використання в сервісах Apple та встановити його як спосіб оплати за замовчуванням для покупок в застосунках і на сайтах.

Крок 3. Налаштуйте Face ID або Touch ID

Для безпечних платежів потрібна біометрична автентифікація.
Перейдіть у Налаштування ? Face ID та код-пароль (або Touch ID та код-пароль на старіших моделях) і виконайте інструкції.
Після цього підтвердження платежів відбуватиметься через Face ID або Touch ID.

Крок 4. Налаштуйте додаткові параметри

У Налаштування ? Wallet і Apple Pay можна:

  • активувати Express Transit (оплата транспорту без додаткового підтвердження);

  • вибрати картку за замовчуванням, якщо прив’язано кілька.

Крок 5. Перевірте роботу Apple Pay

Спробуйте оплату в магазині з підтримкою безконтактних платежів або в застосунку:

  1. Двічі натисніть бокову кнопку iPhone;

  2. Підтвердьте оплату Face ID / Touch ID;

  3. Піднесіть телефон до термінала.

Поради щодо використання Apple Pay

  • Покупки в застосунках: шукайте логотип Apple Pay на екрані оплати, потім підтвердьте платіж подвійним натисканням бокової кнопки.

  • Безконтактна оплата в магазинах: працює з більшістю терміналів, що підтримують NFC.

  • Кілька карток: перемикання між ними можливе прямо у застосунку Wallet — оберіть потрібну перед оплатою.

  • Відстеження витрат: історію транзакцій можна переглянути в Wallet.

The post Як налаштувати та використовувати Apple Pay на iPhone appeared first on .

Айфони 2025: технології, що змінюють уявлення про смартфони

НА ПРАВАХ РЕКЛАМИ
Смартфони Apple давно перестали бути просто засобом зв’язку – сьогодні це універсальні пристрої для роботи, творчості, бізнесу та навіть IT-задач. Кожне нове покоління вносить зміни, які впливають на всю індустрію, а 15 серія стала черговим підтвердженням цього. Для тих, хто цікавиться, які на Айфон 15 ціни в Comfy, важливо розуміти, які саме технології роблять цю модель затребуваною та чому вона є знаковою у світі мобільної техніки.

Основні переваги iPhone 15

Apple вкотре довела, що вміє поєднувати інновації з продуманим користувацьким досвідом.
Серед ключових переваг варто виділити:

  • новий процесор A17 Bionic з підвищеною енергоефективністю та продуктивністю;
  • покращену систему камер з оптичним зумом та розширеними можливостями нічної зйомки;
  • дисплей Super Retina XDR з адаптивною частотою оновлення до 120 Гц;
  • захист від води та пилу за стандартом IP68;
  • підтримку останніх стандартів зв’язку, включно з 5G та Wi-Fi 6E;
  • потужність для роботи з AR/VR, AI-сервісами та хмарними рішеннями, що важливо для ІТ-фахівців.

Усе це робить iPhone 15 універсальним пристроєм, який однаково добре підходить як для особистого використання, так і для професійних завдань. Для спеціалістів у сфері технологій він стає надійним інструментом, здатним замінити одразу кілька робочих девайсів.

iPhone 15 для IT-спеціалістів

Окрім класичних можливостей, iPhone 15 отримав інструменти, які особливо оцінять розробники, тестувальники та спеціалісти у сфері IT. Завдяки продуктивному чипу A17 Bionic і новим можливостям iOS 17 смартфон можна використовувати для створення та тестування мобільних застосунків, перевірки інтерфейсів і роботи з бета-версіями.

Не менш важливою є підтримка хмарних сервісів: iPhone 15 без проблем підключається до GitHub, GitLab, Docker чи IDE у «хмарі», що зручно для розробників у відрядженнях або під час віддаленої роботи.

Окрема увага приділена кібербезпеці – система підтримує сучасні алгоритми шифрування, VPN і багаторівневу аутентифікацію, що дозволяє надійно працювати з корпоративними даними. Для тих, хто працює з AI та машинним навчанням, iPhone пропонує потужний нейронний процесор, здатний обробляти ML-моделі прямо на пристрої.

А завдяки розширеним AR/VR-можливостям смартфон стає ще й інструментом для тестування чи створення додатків у сфері доповненої та віртуальної реальності. Це робить iPhone 15 не лише флагманом для повсякденних задач, а й повноцінним робочим інструментом для айтішників.

Чому iPhone 15 – вибір багатьох

iPhone 15 поєднує у собі стиль, потужність та надійність, завдяки чому він залишається популярним серед широкої аудиторії користувачів. Водночас для тих, хто працює у сфері ІТ, цей смартфон перетворюється на справжній робочий інструмент. Він дозволяє зручно перевіряти мобільні проєкти та тестувати додатки без прив’язки до робочого місця. Завдяки високій продуктивності та сучасним стандартам зв’язку iPhone 15 забезпечує швидкий доступ до серверів і хмарних сервісів, що робить його корисним для розробників і DevOps-фахівців.

Крім того, смартфон легко інтегрується у бізнес-процеси, дозволяючи працювати з таск-менеджерами, корпоративною поштою чи системами управління проєктами прямо зі смартфона. Окремої уваги заслуговує високий рівень безпеки: підтримка VPN, багаторівнева аутентифікація та сучасні алгоритми шифрування допомагають захистити корпоративні дані та конфіденційну інформацію.

Таким чином, iPhone 15 – це не лише преміальний смартфон для щоденного використання, а й надійний інструмент для спеціалістів у галузі ІТ.

Де придбати офіційний iPhone 15

Надійний вибір – Comfy, де представлені офіційні моделі з гарантією, вигідними умовами оплати та доставкою по всій Україні. Тут ви зможете отримати професійну консультацію та вибрати модель, яка підійде як для повсякденних завдань, так і для ІТ-роботи чи бізнесу.

iPhone 15 – це не просто смартфон, а універсальний інструмент, який поєднує розваги, роботу й інновації. Для тих, хто працює в технологічній сфері, він може стати надійним партнером у щоденних задачах.

The post Айфони 2025: технології, що змінюють уявлення про смартфони appeared first on .

Школа Vodafone Big data Lab підготувала нове покоління Big Data аналітиків

У школі Vodafone Big data Lab відбувся успішний випуск шостого покоління студентів, які навчались за програмою підготовки аналітиків великих даних. Цьогоріч школа встановила рекорд: понад 70% студентів успішно захистили фінальні проєкти та отримають сертифікати про завершення курсу з відзнакою.

Big Data Lab – це інтенсивний шестимісячний курс, який готує спеціалістів з аналітики даних, машинного навчання та нейронних мереж. Програма курсу розроблена найкращими фахівцями України та світу й дозволяє студентам здобути всі необхідні знання та навички для старту кар’єри в data science.

Цього року програма була модернізована – оновлені практичні навчальні модулі з машинного навчання, зберігання і візуалізації даних. Це дозволило студентам отримати доступ до останніх напрацювань і методик по важливим напрямкам розвитку технологій і методів аналізу даних.

Структура курсу:

– Підготовчі курси тривають 1 місяць. Включають вивчення математики та основ програмування на Python.

– Основний курс містить 10 дисциплін і триває 5 місяців.

– Підготовка і захист фінального проєкту. 1 місяць.

Програма курсу спрямована на те, щоб у стислі терміни надати студентам глибокі теоретичні знання та практичні навички роботи з великими даними, що дозволяє їм впевнено входити у професійний світ data science.

Навчання проводиться онлайн з дотриманням правил безпеки під час повітряних тривог. Студенти мають змогу спілкуватися з менторами в режимі реального часу та переглядати записи лекцій.

У 2025 році дипломи з відзнакою отримають 11 випускників, які успішно завершили навчання і готові розпочати кар’єру в data science на позиціях Junior Data Scientist, Junior Analyst, Junior Data Analyst, Junior User Acquisition Analyst тощо.

Більше 80% студентів, які захистили фінальний проєкт, вже працюють за фахом у провідних компаніях України і світу.

Vodafone Big Data Lab вже відкрив попередню реєстрацію на наступний курс. Подати заявку можна на сайті bigdatalab.com.ua.

The post Школа Vodafone Big data Lab підготувала нове покоління Big Data аналітиків appeared first on .

Як очистити кеш і дані додатків за допомогою ADB

Очищення кешу або даних додатків може значно покращити роботу вашого Android-пристрою. Проте робити це вручну через налаштування — не завжди зручно. У таких випадках стане в пригоді ADB (Android Debug Bridge) — швидкий та ефективний спосіб керування пристроєм через комп’ютер.

Що таке ADB і навіщо його використовувати?

ADB (Android Debug Bridge) — це утиліта командного рядка з Android SDK, яка дозволяє керувати Android-пристроями з комп’ютера. Вона широко використовується для налагодження, встановлення додатків, збору логів, очищення кешу та інших задач.

Основна перевага ADB — швидкість і ефективність. Вам не потрібно переходити між десятками пунктів меню — достатньо кількох команд.

ADB працює як з фізичними пристроями, так і з емуляторами Android, що робить його корисним не лише для користувачів, а й для розробників. Також підтримується підключення по Wi-Fi (ADB Wireless), яке стає доступним після первинного з’єднання через USB.

Що потрібно для початку

Як підключити Android по ADB:

  1. Завантажте ADB: https://developer.android.com/studio/releases/platform-tools

  2. Увімкніть Параметри розробника на телефоні.

  3. Увімкніть Налагодження через USB.

  4. Підключіть пристрій через USB або налаштуйте бездротове з’єднання.

Перевірити підключення:

adb devices

Як очистити кеш додатку за допомогою ADB

Кеш — це тимчасові файли, які додаток зберігає для пришвидшення роботи. Проте з часом вони накопичуються і можуть викликати проблеми (підвисання, збої).

Щоб очистити кеш:

  1. Отримайте список встановлених додатків:

adb shell pm list packages
  1. Знайдіть потрібний пакет. Наприклад, для YouTube це com.google.android.youtube.

  2. Увійдіть до shell:

adb shell
  1. За потреби — активуйте root-доступ:

su

(Промпт зміниться з $ на #)

  1. Очистіть кеш:

rm -rf /data/data/com.google.android.youtube/cache/*

Це видалить всі тимчасові файли, не чіпаючи основні налаштування чи дані користувача.

Як очистити всі дані додатку за допомогою ADB

Щоб повністю скинути додаток до початкового стану (видалити всі дані, включно з кешем, налаштуваннями, обліковими записами тощо), використовуйте:

adb shell pm clear <package_name>

Приклад для YouTube:adb shell pm clear com.google.android.youtube

Це безпечно працює навіть на не-root пристроях і є найпростіший спосіб зробити “скидання до заводських налаштувань” лише для конкретного додатку.

Альтернативний варіант (для root/емуляторів)

Якщо ви маєте root-доступ або працюєте в емуляторі, можна вручну видалити всі файли додатку:

adb shell
su
rm -rf /data/data/com.google.android.youtube/*

Цей метод дає більше контролю (наприклад, ви можете залишити певні підкаталоги), але вимагає обережності — можна випадково видалити критичні файли.

The post Як очистити кеш і дані додатків за допомогою ADB appeared first on .

Як запобігти трісканню оболонки USB-кабелю з допомогою кулькової ручки

Купити хороший кабель USB – це досить велика проблема, адже навіть велика ціна не гарантує, що ви отримаєте якісний кабель. Тому, коли вдається купити якісний USB-кабель, хочеться продовжити його термін служби якомога довше. Незамінним елементом в цьому стає одна деталь від автоматичної кулькової ручки.

У всіх кабелів є спільна проблема – вони з часом тріскаються в точці, де кабель переходить у штекер роз’єму. Це відбувається внаслідок того, що в цій точці кабель дуже сильно згинається, навіть якщо ви цього не помічаєте.

М’яка пружина, яку можна взяти в автоматичній кульковій ручці, є простим способом унеможливити таке сильне згинання. Пружина завжди запобігатиме різкому згинанню кабелю, навіть якщо ви навмисне цього намагатиметеся.

Що робити:

  • Візьміть кабель, який ви хочете захистити, і пружину з кулькової ручки.
  • Тепер акуратно оберніть пружину навколо кабелю, щоб він повністю опинився всередині пружини.
  • Зафіксуйте один кінець пружини на штекері кабелю, накрутивши на нього кілька витків пружини. За потреби додатково зафіксуйте цей накручений на штекер кінець пружини краплею термоклею.
  • Вдягніть термоусаджувальну трубку, що співпадає з кольором кабелю, для більш естетичного вигляду кінцевої конструкції

Ось і все. Тепер у цьому місці кабель ніколи не згинатиметься під прямим чи гострим кутом, що в рази подовжить його терміни служби. Захищайте таким чином будь-який кабель, включаючи дротові навушники, кабель зарядного пристрою тощо.

The post Як запобігти трісканню оболонки USB-кабелю з допомогою кулькової ручки appeared first on .

Штучний інтелект не впорався з роздаванням грошей: результати експерименту в Амстердамі

Люди упереджені щодо інших і це має реальні наслідки. Вам, наприклад, могли відмовити в прийомі на роботу лише тому, що ви не того знаку зодіаку, який подобається HR. З поширенням алгоритмів, які приймають рішення, дискримінації стало більше. Влада голландського міста Амстердам думала, що зможе зламати десятирічну тенденцію впровадження дискримінаційних алгоритмів. Але експеримент провалився, що піднімає питання: чи можуть ці програми коли-небудь бути справедливими?

Ханс де Цварт, вчитель фізкультури, який став захисником цифрових прав, каже, що коли він побачив план Амстердама щодо впровадження алгоритму оцінки кожного претендента на отримання соціальної допомоги в місті на предмет потенційного шахрайства, він мало не впав зі стільця.

Був лютий 2023 року, і де Зварт, який обіймав посаду виконавчого директора Bits of Freedom, провідної неурядової організацієї Нідерландів щодо захисту цифрових прав, майже два роки працював неофіційним радником міського уряду Амстердама, аналізуючи системи штучного інтелекту, які воно розробляло, і надаючи відгуки про них.

Згідно документації міста, ця конкретна модель штучного інтелекту, звана “Розумною перевіркою” (Smart Check), буде розглядати заявки від потенційних одержувачів соціального забезпечення і визначати, хто, можливо, подав неправильну заяву. За його словами, цей проект виділявся більше, ніж будь-який інший, і не в хорошому сенсі цього слова.

“Є деякі дуже фундаментальні [і] непереборні проблеми”, – говорить він, використовуючи цей алгоритм на реальних людях.

Зі свого спостережного пункту за широкою аркою скляних вікон в мерії Амстердама Пол де Конінг, міський консультант, в резюме якого значаться відвідування різних агентств соціальної допомоги голландської держави, з гордістю розглядав ту ж систему. Де Конінг, який керував пілотним етапом Smart Check, був у захваті від того, що він побачив в потенціалі проекту з підвищення ефективності та усунення упередженості в системі соціальних виплат Амстердама.

Команда дослідників шахрайства і спеціалістів по обробці даних витратила роки на розробку Smart Check, і де Конінг вважав, що багатообіцяючі ранні результати виправдали їх підхід. Місто консультувалося з експертами, проводило тести на упередженість, впровадило технічні заходи і запросило зворотний зв’язок від людей, яких програма торкнеться, більш або менш дотримуючись всіх рекомендацій у посібнику етичного використання штучного інтелекту.

Ці протилежні точки зору втілюють глобальну дискусію про те, чи можуть алгоритми коли-небудь бути справедливими при прийнятті рішень, що визначають життя людей. За останні кілька років спроб використовувати штучний інтелект таким чином стало більше прикладів супутнього збитку: небілих претендентів виключили з пулу заявок на роботу в США , сім’ї були помилково зазначено для розслідувань жорстокого поводження з дітьми в Японії, а жителям з низьким доходом відмовили в субсидії на харчування в Індії.

Прихильники цих систем оцінки стверджують, що вони можуть створити більш ефективні державні послуги, роблячи більше з меншими витратами, і, зокрема, у випадку систем соціального забезпечення, повертати гроші, які губляться з державного гаманця.

На практиці багато з систем з самого початку були погано розроблені. Іноді вони враховують особисті характеристики таким чином, що призводять до дискримінації, а іноді їх застосовували без перевірки на упередженість або ефективність.

В цілому, вони пропонують людям мало можливостей оскаржити або навіть зрозуміти автоматизовані дії, що безпосередньо впливають на те, як вони живуть.

Результатом стали більш ніж десятирічні скандали. У відповідь законодавці, бюрократи і приватний сектор, від Амстердама до Нью-Йорка, від Сеулу до Мехіко, намагаються придумати щось, створюючи алгоритмічні системи, інтегруючі принципи “відповідального ШІ” — підходу, що направляє розвиток ШІ на благо суспільства при мінімізації негативних наслідків.

Розробка та впровадження етичного штучного інтелекту є головним пріоритетом для Європейського союзу, і те ж саме було вірно для США. Системи, засновані на цих принципах, володіють величезною владою приймати рішення, наприклад, кого наймати, коли розслідувати випадки потенційного жорстокого поводження з дітьми і які жителі повинні отримати послуги в першу чергу.

Амстердам дійсно вважав, що знаходиться на правильному шляху. Міські чиновники з департаменту соціального забезпечення вважали, що вони можуть створити технологію, яка запобігатиме шахрайству та захистить права громадян. Вони слідували цим новим передовим практикам і вклали величезну кількість часу і грошей у проект, який в кінцевому підсумку обробляв заявки на соціальну допомогу.

Але у своєму пілотному проекті вони виявили, що розроблена ними система все ще не була справедливою і ефективною. Чому?

Lighthouse Reports, MIT Technology Review і голландська газета Trouw отримали доступ до системи, щоб спробувати з’ясувати це. У відповідь на запит публічних записів місто розкрило кілька версій алгоритму Smart Check і дані про те, як він оцінював реальних претендентів соціального забезпечення, пропонуючи унікальну інформацію про те, чи можуть алгоритмічні системи виконати свої амбітні обіцянки при найкращих можливих умовах.

Відповідь на це питання далеко не проста. Для де Конінга Smart Check уособлював технологічний прогрес в напрямку створення більш справедливої і прозорої системи соціального забезпечення. На думку де Цварта, це являло собою істотний ризик для прав одержувачів соціальних допомог, який не могли виправити ніякі технічні удосконалення.

Оскільки цей алгоритмічний експеримент розгортався протягом декількох років, він поставив під сумнів центральну передумову проекту: відповідальний ШІ може бути чимось більшим, ніж уявний експеримент або корпоративна точка продажу і може дійсно зробити алгоритмічні системи справедливими в реальному світі.

Шанс на виправлення проблем

Розуміння того, як Амстердам виявився залученим в масштабну діяльність щодо запобігання шахрайства на основі штучного інтелекту, вимагає повернутися на чотири десятиліття тому, до національного скандалу навколо розслідувань щодо соціального забезпечення, які зайшли занадто далеко.

У 1984 році Альбіна Грумбок, розлучена мати-одиначка трьох дітей, кілька років одержувала допомогу, коли дізналася, що одна з її сусідок, співробітниця місцевого відділення соціальної служби, таємно спостерігала за її життям. Сусідка задокументувала візити одного-чоловіка, який теоретично міг приносити сім’ї неврахований дохід. На підставі цих спостережень управління соціального забезпечення урізало допомогу матері-одиначці. Вона оскаржила це рішення в суді і виграла.

Незважаючи на особисте виправдання Альбіни Грумбок, голландська політика соціального забезпечення продовжує наділяти слідчих по шахрайству, яких іноді називають “рахувальниками зубних щіток”, повноваженнями перевертати життя людей. Це допомогло створити атмосферу підозрілості, яка призводить до проблем для обох сторін, говорить Марк ван Хоф, юрист, який десятиліттями допомагав голландським одержувачам соціальних допомог орієнтуватися в системі: “Уряд не довіряє своїм людям, а люди не довіряють уряду”.

Гаррі Бодаар, професійний державний службовець, більшу частину цього часу уважно спостерігав за політикою соціального забезпечення Нідерландів — спочатку в якості соціального працівника, потім в якості слідчого по шахрайству, а тепер в якості радника з питань політики соціального забезпечення в місті.

Останні 30 років показали йому, що система ледь працює і якщо ти перебуваєш на дні цієї системи, ти перший, хто провалюється.

Поліпшення роботи системи соціальної допомоги, додає він, було важливим мотивуючим фактором, коли місто почало розробляти Smart Check в 2019 році. “Ми хотіли провести чесну перевірку тільки тих людей, яких, на нашу думку, потрібно було перевірити”, — говорить Бодаар, на відміну від попередньої політики департаменту, яка до 2007 року полягала в проведенні візитів додому для кожного заявника.

Але він також знав, що Нідерланди стали чимось на кшталт епіцентру проблем з впровадженням штучного інтелекту для соціального забезпечення. Спроби уряду Нідерландів модернізувати виявлення шахрайства за допомогою штучного інтелекту в декількох сумно відомих випадках мали неприємні наслідки.

У 2019 році з’ясувалося, що національний уряд використовував алгоритм для створення профілів ризиків, який, як влада сподівалася, допоможе виявити шахрайство в системі допомоги по догляду за дитиною. В результаті скандалу майже 35 000 батьків, більшість з яких були мігрантами або дітьми мігрантів, були помилково звинувачені в шахрайстві з отриманням допомоги. Це ввергло сім’ї в борги, деяких ввергло в убогість і у кінцевому підсумку призвело весь уряд до відставки у 2021 році.

У Роттердамі розслідування, проведене Lighthouse Reports в 2023 році відносно системи виявлення шахрайства, показало, що вона була упередженою по відношенню до жінок, батьків, осіб, що не говорять голландською мовою, та іншим вразливих груп, що в кінцевому підсумку змусило місто призупинити використання системи.

Інші міста, такі як Амстердам і Лейден, використовували систему під назвою Система показників шахрайства, яка була вперше впроваджена більше 20 років тому і включала освіту, сусідство, батьківство і стать в якості основних факторів ризику для оцінки претендентів соціального забезпечення; ця програма також була припинена.

Нідерланди не самотні. У Сполучених Штатах було зареєстровано щонайменше 11 випадків, коли уряди штатів використовували алгоритми, які допомагають розподіляти суспільні блага, часто з тривожними результатами. Мічиган, наприклад, неправдиво звинуватив 40 000 людей в шахрайстві з безробіттям. А у Франції активісти кампанії подають в суд на управління національного добробуту через алгоритм, який, за їх твердженням, дискримінує заявників з низьким доходом і людей з обмеженими можливостями.

Ця низка скандалів, а також зростаюче усвідомлення того, як дискримінація може бути вбудована в алгоритмічні системи, сприяли зростанню уваги до відповідального ШІ.

“Це стало загальним терміном для позначення того, що нам треба думати не тільки про етику, але і про справедливість”, – говорить Цзяхао Чен, консультант з етики в області штучного інтелекту, який надавав аудиторські послуги як приватним, так і місцевим державним структурам. “Я думаю, ми спостерігаємо усвідомлення того, що нам потрібні такі речі, як прозорість і конфіденційність, безпека і так далі”.

Підхід, заснований на стримуванні шкоди, що завдається поширенням технологій, призвів до появи галузі, побудованої за знайомою формулою: офіційних документів і фреймворків аналітичних центрів та міжнародних організацій, а також прибуткової індустрії консалтингу, що складається з традиційних впливових гравців, таких як консалтингові компанії Big 5, а також безлічі стартапів і некомерційних організацій.

Наприклад, в 2019 році Організація економічного співробітництва та розвитку, орган глобальної економічної політики, опублікувала свої Принципи штучного інтелекту в якості керівництва по розробці “заслуговуючого довіри ШІ”. Ці принципи включають створення пояснюваних систем, консультації з зацікавленими сторонами та проведення аудитів.

Але від спадщини, залишеного десятиліттями неправомірних дій алгоритмів, виявилося важко позбутися, і немає єдиної думки про те, де провести межу між тим, що справедливо, а що ні.

У той час як Нідерланди працюють над впровадженням реформ, сформованих відповідальним ШІ на національному рівні, Algorithm Audit, голландська неурядова організація, що надає послуги аудиту етичного ШІ урядовим міністерствам, прийшла до висновку, що технологію слід використовувати для профілювання одержувачів соціальних допомог тільки при суворо визначених умовах і тільки в тому випадку, якщо системи уникають обліку захищених характеристик, таких як стать.

Між тим, Amnesty International, борці за цифрові права, такі як де Зварт, і деякі самі одержувачі соціальних допомог стверджують, що, коли справа доходить до прийняття рішень, що стосуються життя людей, державний сектор взагалі не повинен використовувати штучний інтелект.

Амстердам сподівався, що був знайдений правильний баланс. “Ми винесли уроки з того, що сталося”, – говорить Бодаар, політичний радник, про минулі скандали. І на цей раз місто хотіло створити систему, яка показала б жителям Амстердама, що ми робимо добре і чесно.

Пошук найкращого способу

Кожен раз, коли житель Амстердама подає заяву на отримання соціальної допомоги, соцпрацівник перевіряє заяву на наявність порушень. Якщо заявка виглядає підозрілою, її можна відправити у міський слідчий департамент, що може призвести до відхилення, вимогу виправити помилки в документах або рекомендації про те, щоб кандидат отримував менше грошей.

Розслідування також можуть проводитися пізніше, після того як допомогу призначать. Результат може змусити одержувачів повернути кошти і навіть кинути деяких людей в борги.

Офіційні особи володіють широкими повноваженнями щодо заявників та  існуючих одержувачів соціальної допомоги. Вони можуть запитувати банківські записи, викликати людей на розмову і в деяких випадках наносити неоголошені візити до людини додому.

По мірі проведення розслідувань або виправлення помилок в оформленні документів настільки необхідні платежі можуть бути відкладені. І часто — згідно з даними, наданими Бодааром, більш ніж у половині розслідувань заяв — місто не знаходить доказів правопорушень.

В таких випадках це може означати, що місто несправедливо переслідував людей, говорить Бодаар.

Система Smart Check була розроблена для того, щоб уникнути подібних сценаріїв, в кінцевому підсумку замінивши початкового соцпрацівника, який вказує, які справи слід направляти в слідчий відділ. Алгоритм буде перевіряти заявки, щоб виявити ті, які з найбільшою ймовірністю пов’язані із серйозними помилками, на основі певних особистих характеристик, і перенаправляти ці справи для подальшого вивчення командою правоохоронних органів.

Якщо все піде добре, система покращить роботу соцпрацівників, відзначаючи меншу кількість звернень для розслідування, при цьому виявляючи велику частку випадків з помилками. В одному з документів міська влада прогнозували, що ця модель запобіжить стягнення боргів з 125 окремих амстердамців і заощадить 2,4 мільйона євро щорічно.

Smart Check був захоплюючою перспективою для міських чиновників, таких як де Конінг, які будуть керувати проектом. Він був налаштований оптимістично, оскільки, за його словами, місто дотримувався наукового підходу.

Це була свого роду смілива ідея, яка привернула оптимістичних технарів, таких як Лоєк Беркерс, спеціаліст по обробці даних, який працював над Smart Check. Беркерс згадує, як був вражений при першому знайомстві з системою: “це був свого роду інноваційний проект, в якому пробувалися щось нове”.

В Smart Check використовувався алгоритм, званий “машиною пояснюваного підвищення”, який дозволяє людям легше зрозуміти, як моделі штучного інтелекту дають свої прогнози. Більшість інших моделей машинного навчання часто розглядаються як “чорні ящики” без повного розуміння процесів.

Модель Smart Check буде враховувати 15 характеристик, включаючи те, чи заявники подавали раніше заявки на отримання пільг або отримували їх, суму їх активів і кількість адрес, які у них є в досьє, щоб присвоїти кожній людині оцінку ризику. Алгоритм цілеспрямовано уникає демографічні фактори, такі як стать, національність або вік, які, як вважалося, приводили до упередженості. В ньому також була зроблена спроба уникнути “непрямих чинників, таких як поштові індекси, якщо, наприклад, поштовий індекс статистично пов’язаний з певною етнічною групою.

Ця модель була навчена на наборі даних, що охоплює 3400 попередніх досліджень одержувачів соціальних допомог. Ідея полягала в тому, що алгоритм використовував би результати розслідувань, проведених міською службовцями, щоб з’ясувати, які фактори в початкових заявках були пов’язані з потенційним шахрайством.

Але використання минулих досліджень з самого початку створює потенційні проблеми, каже Сеннай Гебриб, науковий директор Лабораторії цивільного штучного інтелекту (CAIL) Амстердамського університету. Проблема використання історичних даних для побудови моделей, за його словами, полягає в тому, що “в кінцевому результаті ми отримаємо історичні спотворення”.

Наприклад, якщо соцпрацівники історично допускали більше упередженості до певної етнічної групи, модель може помилково навчитися передбачати, що ця етнічна група здійснює шахрайство з більш високою частотою.

Місто вирішило провести ретельний аудит своєї системи, щоб спробувати виявити подібні упередження щодо вразливих груп населення. Але те, як слід визначати упередженість і, отже, чесність алгоритму, є предметом запеклих дебатів.

За останнє десятиріччя вчені запропонували десятки конкуруючих математичних уявлень про справедливість, деякі з них несумісні між собою. Це означає, що система, розроблена так, щоб бути “справедливою” згідно з одним таким стандартом, неминуче буде несправедливою в інших методиках оцінки справедливості.

Офіційні особи Амстердама прийняли визначення справедливості, яке було зосереджено на рівному розподілі тягаря розслідувань між різними демографічними групами. Вони сподівалися, що такий підхід забезпечить, щоб претенденти на отримання соціального забезпечення з різних верств суспільства несли однаковий тягар неправильного розслідування з однаковими показниками.

Неоднозначний зворотний зв’язок

При створенні Smart Check Амстердам консультувався з різними державними органами з приводу цієї моделі, у тому числі з міським спеціалістом з внутрішнього захисту даних і Комісією по персональних даних Амстердама. Місто також консультувалося з приватними організаціями, включаючи консалтингову фірму Deloitte. Кожен з них дав своє схвалення проекту.

Але однієї ключової групи не було на борту: консультативної ради з 15 членів, що складається з одержувачів допомоги, адвокатів та інших неурядових зацікавлених сторін, які представляють інтереси людей, для яких система була розроблена.

Анке ван дер Вліет, якій зараз за 70, є одним з давніх членів ради. “Ми не довіряли цьому з самого початку”, – каже вона, витягаючи стопку паперів, які вона зберегла в Smart Check. “Всі були проти цього”.

На протязі десятиліть вона була непохитним захисником інтересів одержувачів соціальних допомог — групи, яка до кінця 2024 року налічувала близько 35 000 чоловік. В кінці 1970-х вона допомогла заснувати Women on Welfare – групу, що займається викриттям унікальних проблем, з якими стикаються жінки в системі соціального забезпечення.

Ще дві зустрічі не змогли їх переконати. Їх відгуки дійсно призвели до ключових змін, включаючи скорочення кількості змінних, які місто спочатку розглядало для розрахунку балів кандидата, та виключення з системи змінних, які могли внести упередженість, таких як вік.

Але через шість місяців Рада взагалі перестала брати участь у зусиллях по розвитку міста. “Рада дотримується думки, що подібний експеримент зачіпає основні права громадян і повинен бути припинений”, – написала група в березні 2022 року.

Оскільки тільки близько 3% заяв на отримання соціальних допомог є шахрайськими, говорилося в листі, використання алгоритму було “непропорційним”.

Для адвокатів, які працюють з бенефіціарами соціального забезпечення, і для деяких з самих бенефіціарів причиною неспокою був не скандал, а перспектива реального шкоди. Технологія може не тільки призвести до згубних помилок, але і ускладнювати їх виправлення, дозволяючи співробітникам служби соціального забезпечення “ховатися за цифровими стінами”, — говорить Хенк Крун, юрист, який допомагає одержувачам соціальних допомог в Амстердамській асоціації соціального забезпечення, профспілці, створеній в 1970-х роках.

Така система могла б “полегшити роботу [чиновникам]”, говорить він. “Але для простих громадян це дуже часто є проблемою”.

Час для тестування

Незважаючи на категоричні заперечення Ради, місто вирішило протестувати працюючу модель Smart Check.

Перші результати виявилися зовсім не такими, на які вони сподівалися. Коли команда просунутої аналітики запустила первісну модель в травні 2022 року, вони виявили, що алгоритм демонструє сильну упередженість по відношенню до мігрантів і чоловіків, що було незалежно перевірено.

Первісна модель з більшою ймовірністю помилково вказувала на заявників, які не є громадянами Нідерландів. І було майже в два рази більше шансів помилково вказати кандидата з громадянством не західної країни. У моделі також було на 14% більше шансів помилково назвати чоловіків шахраями.

У той час як модель Smart Check з більшою ймовірністю помилково відзначала громадян інших країн і чоловіків, соціальні працівники-люди з більшою ймовірністю помилково відзначали громадян Нідерландів і жінок.

Команда Smart Check знала, що якщо вони не зможуть виправити упередженість, проект буде скасовано. Тому вони звернулися до методу академічних досліджень, відомому як повторне зважування навчальних даних. На практиці це означало, що заявникам з не західним громадянством, які, як вважалося, допустили суттєві помилки в своїх заявах, надавалося менше значення в даних, в той час як заявникам із західним громадянством надавалося більше.

Зрештою, це, мабуть, вирішило проблему: як підтверджує аналіз Lighthouse, після того, як модель була повторно виважена, громадяни Нідерландів та інших країн з рівною імовірністю були помилково позначені.

Модель також краще за соцпрацівників визначала програми, які заслуговують додаткового вивчення, при цьому внутрішнє тестування показало підвищення точності на 20%.

Підбадьорений цими результатами, навесні 2023 року місто було майже готове запустити систему. Чиновники відправили Smart Check до Реєстру алгоритмів, урядову ініціативу щодо забезпечення прозорості, покликану інформувати громадян про алгоритми машинного навчання, які або знаходяться в розробці, або вже використовуються урядом.

Для де Конинга обширні оцінки та консультації міста були обнадійливими, особливо тому, що вони також виявили недоліки в аналоговій системі. Але де Зварта ті ж самі процеси являли собою глибоке нерозуміння: справедливість можна спроектувати.

У листі міській владі де Зварт розкритикував передумови проекту і, більш конкретно, змалював ненавмисні наслідки, які можуть виникнути в результаті повторного зважування даних. Це могло б зменшити упереджене ставлення до людей з міграційним минулим в цілому, але не гарантувало б справедливості при перетині ідентичностей. Наприклад, модель може дискримінувати жінок з міграційним минулим. І такі упередження було б важко виявити.

Зрештою, сказав він, – це питання про те, чи законно використовувати дані про минулу поведінку, щоб судити про майбутню поведінку ваших громадян, яку в принципі ви не можете передбачити.

Офіційні особи, як і раніше наполягали – і призначили березень 2023 року датою початку пілотного проекту. Членів міської ради Амстердама практично не попередили. Фактично, вони були поінформовані тільки у тому ж місяці — до розчарування Елізабет Эймкер, члена ради від Партії зелених.

Місто сподівався, що пілотний запуск зможе довести неправоту таких скептиків, як вона.

Підвищуємо ставки

Офіційний запуск Smart Check почався з обмеженого набору реальних заявників на отримання соціального забезпечення, чиї документи обробить алгоритм і надасть оцінку ризику, чи слід позначати заявку для розслідування. Ці заявки також перевірять люди.

Ефективність Smart Check відстежувалася за двома ключовими критеріями. По-перше, чи може він неупереджено розглядати кандидатів? І, по-друге, дійсно Smart Check розумний?

Іншими словами, чи може складна математика, з якої складається алгоритм, насправді виявляти шахрайство з соціальною допомогою краще і справедливіше, ніж звичайні соцпрацівники?

Не знадобилося багато часу, щоб стало ясно, що модель не виправдала очікувань по обох напрямках.

Упередженість знову проявилася, але на цей раз, замість громадян інших країн і чоловіків, модель тепер з більшою ймовірністю вважала шахраями заявників з голландським громадянством і жінок.

Власний аналіз Lighthouse також виявив інші форми упередженості, включаючи велику ймовірність того, що заявники на отримання соціального забезпечення з дітьми будуть помилково зазначено для розслідування.

За пілотний період з допомогою моделі було опрацьовано близько 1600 заявок на соціальне забезпечення. Але результати означали, що було незручно продовжувати тестування, особливо коли це могло призвести до реальних наслідків.

Люди, які працювали над проектом, не вірили, що це обов’язково є причиною відмови від Smart Check. Вони хотіли отримати більше часу — скажімо, “період в 12 місяців”, за словами де Конинга, щоб продовжити тестування і доопрацювання моделі.

В кінці листопада 2023 року Рутгер Грут Вассинк — міський чиновник, відповідальний за соціальні питання, вирішив зупинити пілотний тест.

Це оголошення поклало кінець масштабному багаторічного експерименту.

Членам міської ради ніколи не повідомляли точно, скільки коштував проєкт, але MIT Technology Review , Lighthouse і Trouw підрахували витрати у близько 500 000 євро плюс 35 000 євро на контракт з Deloitte. Попередивши, що загальна сума, вкладена в проект, була лише приблизною, враховуючи, що Smart Check був розроблений власними силами різними існуючими командами і співробітниками.

Чи можна коли-небудь правильно використовувати такий алгоритм?

Це питання, над яким Эймкер теж замислюється. На засіданнях міської ради вона приводила Smart Check як приклад того, чого не слід робити. Але тепер, коли пілот припинився, вона турбується, що її колеги-міські чиновники можуть бути занадто нетерплячі, щоб рухатися далі.

Відмовившись від моделі, місто повернувся до старого процесу, який, як показав аналіз, був упереджений по відношенню до жінок і громадян Нідерландів.

Чен, консультант з етики в області штучного інтелекту, питає:”Чому ми дотримуємося найвищих стандартів у системах штучного інтелекту, ніж у системах з людським інтелектом?”. Коли справа доходить до соцпрацівників, він говорить, не було ніяких спроб систематично виправляти їхню упередженість.

Можливо, прийшов час більш фундаментально переглянути те, як слід визначати справедливість — і ким. Крім математичних визначень, деякі дослідники стверджують, що люди, найбільш дискриміновані цими програмами, повинні мати більше право голосу. “Такі системи працюють тільки тоді, коли люди купують їх”, – пояснює Елісса Редмайлс, доцент кафедри комп’ютерних наук Джорджтаунського університету, яка вивчала алгоритмічну справедливість.

Незалежно від того, як виглядає процес, це питання, з якими кожному уряду доведеться зіткнутися в майбутньому, все більше визначається штучним інтелектом.

І, як стверджує де Зварт, якщо не будуть вирішені більш широкі питання, навіть чиновники з добрими намірами будуть приречені повторювати одні і ті ж уроки знову і знову.

За матеріалами: MIT Technology Review

The post Штучний інтелект не впорався з роздаванням грошей: результати експерименту в Амстердамі appeared first on .

iPhone 17: нова ера смартфонів від Apple

НА ПРАВАХ РЕКЛАМИ

Apple знову готується підняти планку у світі мобільних технологій. Вже цієї осені компанія представить довгоочікувану лінійку iPhone 17, яка обіцяє поєднати революційний дизайн, потужне «залізо» та унікальні функції, створені на базі останніх досягнень штучного інтелекту. Очікується, що офіційна презентація відбудеться у вересні, а в продаж нові моделі надійдуть через кілька днів після анонсу.

Чотири моделі — для різних потреб

Apple вперше за кілька років оновлює концепцію лінійки, пропонуючи чотири варіанти:

  • iPhone 17 — збалансована модель із 6,3-дюймовим OLED-екраном ProMotion (120 Гц) та функцією Always-On Display. Серце смартфона — новий процесор A19, створений за 3-нм техпроцесом. Фронтальна камера отримала 24 МП для максимально чітких селфі, а задня — покращену стабілізацію для відео.

  • iPhone 17 Air — найтонший iPhone в історії (товщина лише 5,5 мм). Легкий, елегантний та з екраном 6,6 дюйма. Працює на чіпі A19 Pro, має одну основну камеру та акцент на портативності. Це вибір для тих, хто цінує дизайн і зручність.

  • iPhone 17 Pro — 6,3-дюймовий дисплей із покращеною яскравістю та антивідблисковим покриттям. Потужний A19 Pro, 12 ГБ оперативної пам’яті, потрійний модуль камери з головним сенсором 48 МП та перископним зумом. Ідеальний інструмент для фотографів і творців контенту.

  • iPhone 17 Pro Max — флагман із найбільшим дисплеєм (6,9 дюйма) та батареєю близько 5000 мА·год. Телефон iPhone 17 Pro Max має найкращу систему камер серед усіх моделей, до 8? оптичного зуму та підтримку найшвидшої бездротової зарядки в історії iPhone.

Ключові інновації

  1. Штучний інтелект у кожній функції
    iOS 26 отримає нові інструменти на базі ШІ: інтелектуальну обробку фото, персональні поради, розширені можливості голосового асистента.

  2. Новий рівень продуктивності
    Процесори A19 та A19 Pro забезпечать не лише швидкодію, а й помітне зниження енергоспоживання.

  3. Камери професійного рівня
    48-мегапіксельні сенсори з поліпшеною роботою вночі, 24-мегапіксельна фронталка та потужний зум у Pro Max відкривають нові горизонти для мобільної фотографії.

  4. Швидка зарядка
    Дротова — до 35 Вт, бездротова MagSafe — до 45 Вт. Це означає, що за 20–25 хвилин можна зарядити телефон майже наполовину.

  5. Оновлений дизайн
    Алюмінієвий корпус замість титану робить пристрій легшим і теплішим на дотик. Нові кольори — від пастельних до насичених темних.

Чому це важливо

iPhone 17 — не просто чергове оновлення. Apple зробила ставку на кілька напрямів одразу: потужність, дизайн, інтелектуальні функції та зручність повсякденного використання. Вперше користувач отримає можливість вибрати між ультратонким Air, збалансованим базовим 17, професійним Pro та максимально оснащеним Pro Max.

Для власників старших моделей перехід на iPhone 17 означатиме відчутний стрибок у швидкості, якості фото й автономності. А для новачків у світі Apple — знайомство з екосистемою на найвищому рівні.

Висновок: iPhone 17 — це демонстрація того, як Apple бачить смартфон майбутнього. Легший, розумніший, швидший і з камерою, здатною замінити професійну техніку. Цієї осені ринок смартфонів чекає новий стандарт, і він матиме ім’я — iPhone 17.

The post iPhone 17: нова ера смартфонів від Apple appeared first on .