Microsoft Store заставит обновлять приложения чаще -теперь пауза максимум 5 недель

0

Microsoft выпустила обновление приложения Microsoft Store для Windows 10 и 11, которое убрало возможность навсегда отключить автоматические обновления приложений. Теперь, по данным Deskmodder.de (машинный перевод), можно лишь поставить обновление на паузу от одной до пяти недель. После этого Windows снова автоматически будет проверять наличие обновлений для всех приложений, установленных через Microsoft Store. Это сделано по аналогии с Windows Update, где действует такая же логика: по истечении срока паузы система возобновляет обновление (если пользователь не поставит паузу снова).

Журналисты попытались изменить параметры реестра Microsoft Store, чтобы вернуть возможность полностью отключить обновление, но безрезультатно.

Вероятно, Microsoft ввела принудительные обновления по соображениям безопасности. Хакеры часто используют уязвимости в приложениях для доступа к системам. Хотя разработчики обычно довольно быстро исправляют такие баги, пользователи, которые не обновляют приложения, подвергаются риску.

Впрочем, не всем понравится такой подход. Пользователи могут считать, что компания ограничивает их свободу распоряжаться собственным оборудованием и софтом. Теоретически автоматические обновления-это хорошо, но часть людей считает, что они должны иметь право полностью отказаться от них.

Есть и другая проблема: нестабильные обновления. Даже после тщательного тестирования разработчики не могут предсказать все сценарии использования, и ошибки все равно проскальзывают. Известный пример-июль 2024 года, когда сбойное обновление CrowdStrike привело к глобальному IT-коллапсу и многомиллиардным убыткам.

Чтобы проверить, доступна ли у вас новая опция паузы, откройте Microsoft Store, нажмите на свой профиль и выберите Настройки . В самом верху вы увидите переключатель App updates . Если у вас уже активированы принудительные обновления, при его выключении появится окно с выбором, на сколько времени поставить паузу.

Развертывание этого нововведения происходит постепенно-не все пользователи видят его сейчас. Но в ближайшее время ограничение станет стандартом, так же как Microsoft сделала с Windows 11 24h2, начавшей автоматически загружаться на ПК через несколько месяцев после релиза.

Если вы не хотите иметь дело с принудительными обновлениями, вам придется избегать Microsoft Store и загружать приложения напрямую с сайтов разработчиков. Однако Microsoft постепенно стимулирует переход на свою экосистему распространения приложений, стремясь к большему контролю. Это похоже на подход Apple из App Store или Google из Play Store. Не исключено, что в будущем загружать приложения для Windows можно будет только через Microsoft Store.

Вы не сможете купить iPhone 18 в следующем году. Новая стратегия Apple для прибыли

0

Несколько дней назад появился отчет о том, что Apple меняет график выпуска своих смартфонов. Теперь стали известны новые подробности: расписание отличается от первоначальных предположений — в следующем году базовой модели iPhone 18 просто не будет.

Apple планирует начать выпускать базовый iPhone в начале года — параллельно с телефонами Galaxy. Сначала казалось, что iPhone 18 дебютирует вместе с линейкой Samsung Galaxy S26 в начале 2026 года, то есть всего через несколько месяцев после запуска iPhone 17. но это оказалось не так.

Согласно новому подробному отчету, базовый iPhone 18 выйдет только в начале 2027 года. Между тем модели iPhone 18 Air, Pro и Pro Max появятся в привычные сроки — вероятно, в сентябре 2026-го. Вместе с ними получится и складной iPhone, который будет позиционироваться как следующий уровень после Pro Max.

Apple считает, что такая стратегия поможет увеличить продажи. Честно говоря, выглядит это странно: было бы логичнее сделать наоборот. Если бы изначально вышла базовая модель, пользователи бы обновлялись до нее как до» новейшего iPhone», а потом, через полгода, еще и покупали Pro.

Сейчас же получается так, что покупатели получат доступ к лучшим моделям iPhone раньше, чем к базовой. Возможно, Apple надеется, что те, кто обычно покупал стандартную версию, на этот раз предпочтут более дорогой Pro, чтобы не ждать.

Бюджетная линейка останется без изменений. iPhone 17E выйдет примерно в те же сроки, что и его предшественник в этом году.

В то же время Samsung — главный конкурент Apple в США — не собирается менять свой график. Galaxy S26 выйдет в начале следующего года, а через несколько месяцев к нему присоединятся Galaxy Z Flip 8 и Galaxy Z Fold 8.

Смартфоны Android начали показывать фото звонящего

0

Google начала поэтапно внедрять новую функцию Calling Cards в бета-версиях своих приложений Android Contacts и Phone . Еще в июле, анализируя APK, эксперты обнаружили признаки разработки этой функции. Теперь ее можно протестировать, установив бета-версии приложения.

В версии Google Contacts 4.61.28.792249534 функция уже доступна без дополнительных манипуляций. Некоторые пользователи в Telegram также сообщают о ее появлении.

Реализация Google противоположна Apple. На iOS пользователь сам настраивает свое фото и имя, которые будут видеть другие, когда он им звонит. Но на iPhone нельзя изменить фото того, кто вам звонит. В Android-наоборот: собственную карточку вызова создать нельзя, зато можно настроить фото и имя для любого контакта, чтобы они отображались на вашем экране во время звонка.

Основное отличие от Apple заключается в том, что в Google у вас есть полный контроль над внешним видом карточек вызова для других людей, но вы не можете настроить свою собственную.

Как это работает

  • Просматривая контакт в Google Contacts, появится предложение добавить ему карточку вызова.

  • Добавить карту можно также при создании или редактировании контакта.

  • Вы можете выбрать изображения с камеры, галереи или Google Фото.

  • Доступны настройки шрифта и цвета имени.

  • Есть опция использовать карточку как фото контакта (можно пропустить).

  • Карты синхронизируются с учетной записью Google и появляются на других устройствах пользователя.

В бета-версии Google Phone 188.0.793710089-publicbeta-pixel2024 карты также интегрированы: в настройках появился пункт Calling Card , где можно просмотреть, для каких контактов они добавлены.

Функция пока доступна лишь части бета-пользователей, но ожидается, что вскоре она появится и в стабильных версиях. Это простой способ визуально разнообразить звонки.

Если у вас есть доступ к бета-версии, вы увидите подсказку «попробуйте добавить карту вызова»при просмотре контакта . Далее можно выбрать фото этого контакта или сделать новое, настроить шрифт и цвет имени. Во время звонка такая карта будет полностью занимать экран.

Это не совсем новинка в экосистеме Android — у Samsung уже давно есть аналогичная функция Profile Card , доступная в профиле контактов.

Представлены SSD настолько маленькие, что их надо вставлять как SIM-карту

0

Карты MicroSD очень маленькие, но медленные; диски M.2 в ПК невероятно быстрые, но большие и полностью закрытые. Теперь китайские инженеры представили новый тип SSD, который сочетает в себе оба преимущества — и он уже появится в двух современных игровых портативных устройствах. Два передовых портативных устройства Strix Halo уже получат слоты для них.

Китайский производитель дисков Biwin называет его» Mini SSD«, хотя другой производитель называет его»1517″. Размеры устройства — всего 15?17?1,4 мм, меньше американского Пенни и немного больше MicroSD. Несмотря на это, он обеспечивает максимальные последовательные скорости чтения до 3 700 МБ/с (Запись — 3 400 МБ/с) через PCIe 4?2 и доступен в вариантах 512 ГБ, 1 ТБ и 2 ТБ.

Для сравнения: новые карты MicroSD Express, совместимые с Nintendo Switch 2, теоретически работают на скорости до 985 МБ/с — менее трети от Mini SSD. И хотя полноразмерная SD Express карта теоретически может превзойти Mini SSD (3940 МБ/с), ее размеры почти вдвое больше, чем у устройства Biwin.

Нано-SIM, используемый в современных смартфонах, еще меньше, а M.2 диска остаются быстрее. Вот наглядное сравнение размеров и теоретических скоростей:

Тип Длина Ширина Высота Теоретическая макс. скорость
Mini SSD 15 мм 17 мм 1,4 мм 3 700 МБ/с
MicroSD 11 мм 15 мм 1 мм 985 МБ/с
SD 24 мм 32 мм ~2 мм 3 940 МБ/с
M.2 2230 22 мм 30 мм ~2 мм ~8 000 МБ/с
M.2 2280 22 мм 80 мм ~2 мм ~14 000 МБ/с
Nano-SIM 8,8 мм 12,3 мм 0,67 мм N/A
Micro-SIM 12 мм 15 мм 0,76 мм N/A
Mini-SIM 15 мм 25 мм 0,76 мм N/A

Неизвестно, станет ли Mini SSD полноценным стандартом, который другие производители смогут легко применять. Но компания позиционирует его для ноутбуков, планшетов, телефонов, камер и других устройств, с собственным слотом, работающим как слот SIM-карты: для извлечения подставки нужно вставить шпильку.

Biwin заявляет о защите от воды и пыли по стандарту IP68, что особенно полезно для телефонов, а также о защите при падении с трех метров.

Два современных китайских игровых портативных устройства уже планируют использовать Mini SSD-оба анонсированы на ChinaJoy на прошлой неделе. Это GPD Win 5-портативный Strix Halo с большой батареей, о котором мы писали в июле (видео показывает новый SSD), и OneXPlayer Super X от OneNetbook, гибрид ноутбука и планшета на том же чипе Strix Halo, который уже рекламирует «специальный слот» для Mini SSD.

Пока неизвестно, какова будет цена новых SSD, и никаких товарных предложений на них пока нет.

Искусственный интеллект не справился с раздачей денег: результаты эксперимента в Амстердаме

0

Люди предвзяты по отношению к другим и это имеет реальные последствия. Например, вам может быть отказано в приеме на работу только потому, что вы не тот знак зодиака, который нравится HR. С распространением алгоритмов, принимающих решения, дискриминации стало больше. Власти голландского города Амстердам думали, что смогут сломать десятилетнюю тенденцию внедрения дискриминационных алгоритмов. Но эксперимент провалился, что поднимает вопрос: Могут ли эти программы когда-либо быть справедливыми?

Ханс де Цварт, учитель физкультуры, ставший защитником цифровых прав, говорит, что когда он увидел план Амстердама по внедрению алгоритма оценки каждого претендента на получение социальной помощи в городе на предмет потенциального мошенничества, он чуть не упал со стула.

Был февраль 2023 года, и де Зварт, который занимал пост исполнительного директора Bits of Freedom, ведущей неправительственной организации Нидерландов по защите цифровых прав, почти два года работал неофициальным советником городского правительства Амстердама, анализируя системы искусственного интеллекта, которые оно разрабатывало, и предоставляя отзывы о них.

Согласно документации города, эта конкретная модель искусственного интеллекта, называемая” умной проверкой » (Smart Check), будет рассматривать заявки от потенциальных получателей социального обеспечения и определять, кто, возможно, подал неправильное заявление. По его словам, этот проект выделялся больше, чем любой другой, и не в хорошем смысле этого слова.

«Есть некоторые очень фундаментальные [и] непреодолимые проблемы”, – говорит он, используя этот алгоритм на реальных людях.

Со своего наблюдательного пункта за широкой аркой стеклянных окон в мэрии Амстердама Пол де Конинг, городской консультант, в резюме которого значатся посещения различных агентств социальной помощи голландского государства, с гордостью рассматривал ту же систему. Де Конинг, который руководил пилотным этапом Smart Check, был в восторге от того, что он увидел в потенциале проекта по повышению эффективности и устранению предвзятости в системе социальных выплат Амстердама.

Команда исследователей мошенничества и специалистов по обработке данных потратила годы на разработку Smart Check, и де Конинг считал, что многообещающие ранние результаты оправдали их подход. Город консультировался с экспертами, проводил тесты на предвзятость, реализовал технические меры и запросил обратную связь от людей, которых программа коснется, более или менее следуя всем рекомендациям в руководстве по этическому использованию искусственного интеллекта.

Эти противоположные точки зрения воплощают глобальную дискуссию о том, могут ли алгоритмы когда-либо быть справедливыми при принятии решений, определяющих жизнь людей. За последние несколько лет попыток использовать искусственный интеллект таким образом стало больше примеров сопутствующего ущерба: небелые соискатели были исключены из пула заявлений о приеме на работу в США , семьи были ошибочно указано для расследований жестокого обращения с детьми в Японии, а жителям с низким доходом было отказано в субсидии на питание в Индии.

Сторонники этих систем оценки утверждают, что они могут создавать более эффективные государственные услуги, делая больше с меньшими затратами, и, в частности, в случае систем социального обеспечения, возвращать деньги, которые теряются из государственного кошелька.

На практике многие из систем С самого начала были плохо разработаны. Иногда они учитывают личные характеристики таким образом, что приводят к дискриминации, а иногда их применяют без проверки на предвзятость или эффективность.

В целом, они предлагают людям мало возможностей бросить вызов или даже понять автоматизированные действия, которые напрямую влияют на то, как они живут.

Результатом стали более чем десятилетние скандалы. В ответ законодатели, бюрократы и частный сектор, от Амстердама до Нью-Йорка, от Сеула до Мехико, пытаются придумать что — то, создавая алгоритмические системы, интегрирующие принципы “ответственного ИИ” — подхода, направляющего развитие ИИ на благо общества при минимизации негативных последствий.

Разработка и внедрение этического искусственного интеллекта является главным приоритетом для Европейского союза, и то же самое было верно для США. Системы, основанные на этих принципах, обладают огромной властью принимать решения, например, кого нанимать, когда расследовать случаи потенциального жестокого обращения с детьми и какие жители должны получить услуги в первую очередь.

Амстердам действительно считал, что находится на правильном пути. Городские чиновники из департамента социального обеспечения считали, что они могут создать технологию, которая предотвратит мошенничество и защитит права граждан. они следовали этим новым передовым практикам и вложили огромное количество времени и денег в проект, который в конечном итоге обрабатывал заявки на социальное обеспечение.

Но в своем пилотном проекте они обнаружили, что разработанная ими система все еще не была справедливой и эффективной. Почему?

Lighthouse Reports, MIT Technology Review и голландская газета Trouw получили доступ к системе, чтобы попытаться выяснить это. В ответ на запрос публичных записей город раскрыл несколько версий алгоритма Smart Check и данные о том, как он оценивал реальных претендентов на социальное обеспечение, предлагая уникальную информацию о том, могут ли алгоритмические системы выполнить свои амбициозные обещания при наилучших возможных условиях.

Ответ на этот вопрос далеко не прост. Для де Конинга Smart Check олицетворял технологический прогресс в направлении создания более справедливой и прозрачной системы социального обеспечения. По мнению де Цварта, это представляло собой существенный риск для прав получателей социальных пособий, который не могли исправить никакие технические усовершенствования.

Поскольку этот алгоритмический эксперимент разворачивался в течение нескольких лет, он поставил под сомнение центральную предпосылку проекта: ответственный ИИ может быть чем-то большим, чем воображаемый эксперимент или корпоративная точка продажи, и может действительно сделать алгоритмические системы справедливыми в реальном мире.

Шанс исправить проблемы

Понимание того, как Амстердам оказался вовлеченным в масштабную деятельность по предотвращению мошенничества на основе искусственного интеллекта, требует возвращения на четыре десятилетия назад, к национальному скандалу вокруг расследований по социальному обеспечению, которые зашли слишком далеко.

В 1984 году Альбина Грумбок, разведенная мать-одиночка троих детей, несколько лет получала помощь, когда узнала, что одна из ее соседок, сотрудница местного отделения социальной службы, тайно наблюдала за ее жизнью. Соседка задокументировала визиты друга-мужчины, который теоретически мог приносить семье неучтенный доход. На основании этих наблюдений управление социального обеспечения урезало помощь матери-одиночке. Она обжаловала это решение в суде и выиграла.

Несмотря на личное оправдание Альбины Грумбок, голландская политика социального обеспечения продолжает наделять следователей по мошенничеству, которых иногда называют “счетчиками зубных щеток”, полномочиями переворачивать жизни людей. Это помогло создать атмосферу подозрительности, которая приводит к проблемам для обеих сторон, говорит Марк ван Хоф, юрист, который десятилетиями помогал голландским получателям социальных пособий ориентироваться в системе: “правительство не доверяет своим людям, а люди не доверяют правительству”.

Гарри Бодаар, профессиональный государственный служащий, большую часть этого времени внимательно наблюдал за политикой социального обеспечения Нидерландов — сначала в качестве социального работника, затем в качестве следователя по мошенничеству, а теперь в качестве советника по вопросам политики социального обеспечения в городе.

Последние 30 лет показали ему, что система едва работает и если вы находитесь на дне этой системы, вы первый, кто терпит неудачу.

Улучшение работы системы социальной помощи, добавляет он, было важным мотивирующим фактором, когда город начал разрабатывать Smart Check в 2019 году. «Мы хотели провести честную проверку только тех людей, которых, по нашему мнению, нужно было проверить”, — говорит Бодаар, в отличие от предыдущей политики департамента, которая до 2007 года заключалась в проведении визитов на дом для каждого заявителя.

Но он также знал, что Нидерланды стали чем-то вроде эпицентра проблем с внедрением искусственного интеллекта для социального обеспечения. Попытки правительства Нидерландов модернизировать обнаружение мошенничества с помощью искусственного интеллекта в нескольких печально известных случаях имели неприятные последствия.

В 2019 году выяснилось, что национальное правительство использовало алгоритм для создания профилей рисков, которые, как надеялись власти, помогут обнаружить мошенничество в системе помощи по уходу за ребенком. В результате скандала почти 35 000 родителей, большинство из которых были мигрантами или детьми мигрантов, были ложно обвинены в мошенничестве с получением помощи. Это ввергло семьи в долги, некоторых ввергло в нищету и в конечном итоге привело все правительство к отставке в 2021 году.

В Роттердаме расследование, проведенное Lighthouse Reports в 2023 году в отношении системы обнаружения мошенничества, показало, что она была предвзятой по отношению к женщинам, родителям, лицам, не говорящим по-голландски, и другим уязвимым группам, что в конечном итоге вынудило город приостановить использование системы.

Другие города, такие как Амстердам и Лейден, использовали систему под названием система показателей мошенничества, которая была впервые внедрена более 20 лет назад и включала образование, соседство, отцовство и пол в качестве основных факторов риска для оценки соискателей социального обеспечения; эта программа также была прекращена.

Нидерланды не одиноки. В Соединенных Штатах было зарегистрировано не менее 11 случаев, когда правительства Штатов использовали алгоритмы, помогающие распределять общественные блага, часто с тревожными результатами. Мичиган, например, ложно обвинил 40 000 человек в мошенничестве с безработицей. А во Франции активисты кампании подают в суд на управление национального благосостояния через алгоритм, который, по их утверждению, дискриминирует заявителей с низким доходом и людей с ограниченными возможностями.

Эта серия скандалов, а также растущее осознание того, как дискриминация может быть встроена в алгоритмические системы, способствовали росту внимания к ответственному ИИ.

” Это стало общим термином для обозначения того, что нам нужно думать не только об этике, но и о справедливости», – говорит Цзяхао Чен, консультант по этике в области искусственного интеллекта, который предоставлял аудиторские услуги как частным, так и местным государственным структурам. «Я думаю, что мы наблюдаем осознание того, что нам нужны такие вещи, как прозрачность и конфиденциальность, безопасность и так далее”.

Подход, основанный на сдерживании ущерба, наносимого распространением технологий, привел к появлению отрасли, построенной по знакомой формуле: официальных документов и фреймворков аналитических центров и международных организаций, а также прибыльной индустрии консалтинга, состоящей из традиционных влиятельных игроков, таких как консалтинговые компании Big 5, а также множества стартапов и некоммерческих организаций.

Например, в 2019 году Организация экономического сотрудничества и развития, орган глобальной экономической политики, опубликовала свои принципы искусственного интеллекта в качестве руководства по разработке “заслуживающего доверия ИИ”. Эти принципы включают создание объясненных систем, консультации с заинтересованными сторонами и проведение аудитов.

Но от наследия, оставленного десятилетиями неправомерных действий алгоритмов, оказалось трудно избавиться, и нет единого мнения о том, где провести грань между тем, что справедливо, а что нет.

В то время как Нидерланды работают над внедрением реформ, сформированных ответственным ИИ на национальном уровне, Algorithm Audit, голландская неправительственная организация, предоставляющая услуги аудита этического ИИ правительственным министерствам, пришла к выводу, что технологию следует использовать для профилирования получателей социальных пособий только при строго определенных условиях и только в том случае, если системы избегают учета защищенных характеристик, таких как пол.

Между тем, Amnesty International, борцы за цифровые права, такие как де Зварт, и некоторые сами получатели социальных пособий утверждают, что, когда дело доходит до принятия решений, касающихся жизни людей, государственный сектор вообще не должен использовать искусственный интеллект.

Амстердам надеялся, что был найден правильный баланс. «Мы извлекли уроки из того, что произошло”, – говорит бодаар, политический советник, о прошлых скандалах. И на этот раз город хотел создать систему, которая показала бы жителям Амстердама, что мы делаем хорошо и честно.

Поиск лучшего способа

Каждый раз, когда житель Амстердама подает заявление на получение социальной помощи, соцработник проверяет заявление на наличие нарушений. Если заявка выглядит подозрительной, ее можно отправить в городской следственный департамент, что может привести к отклонению, требованию исправить ошибки в документах или рекомендации о том, чтобы кандидат получал меньше денег.

Расследования также могут проводиться позже, после того как помощь назначат. Результат может заставить получателей вернуть деньги и даже бросить некоторых людей в долги.

Официальные лица обладают широкими полномочиями в отношении заявителей и существующих получателей социальной помощи. Они могут запрашивать банковские записи, вызывать людей на разговор и в некоторых случаях наносить необъявленные визиты к человеку домой.

По мере проведения расследований или исправления ошибок в оформлении документов столь необходимые платежи могут быть отложены. И часто — согласно данным, предоставленным Бодааром, более чем в половине расследований заявлений-город не находит доказательств правонарушений.

В таких случаях это может означать, что город несправедливо преследовал людей, говорит Бодаар.

Система Smart Check была разработана для того, чтобы избежать подобных сценариев, в конечном итоге заменив первоначального соцработника, указывающего, какие дела следует направлять в следственный отдел. Алгоритм будет проверять заявки, чтобы выявить те, которые с наибольшей вероятностью связаны с серьезными ошибками, на основе определенных личных характеристик, и перенаправлять эти дела для дальнейшего изучения командой правоохранительных органов.

Если все пойдет хорошо, система улучшит работу соцработников, отмечая меньшее количество обращений для расследования, при этом выявляя большую долю случаев с ошибками. В одном из документов городские власти прогнозировали, что эта модель предотвратит взыскание долгов с 125 отдельных амстердамцев и сэкономит 2,4 миллиона евро ежегодно.

Smart Check был захватывающей перспективой для городских чиновников, таких как де Конинг, которые будут руководить проектом. Он был настроен оптимистично, потому что, по его словам, город придерживался научного подхода.

Это была своего рода смелая идея, которая привлекла оптимистичных технарей, таких как Лоек Беркерс, специалист по обработке данных, который работал над Smart Check. Беркерс вспоминает, как был впечатлен при первом знакомстве с системой: “это был своего рода инновационный проект, в котором пробовались что-то новое”.

В Smart Check використовувався алгоритм, званий “машиною пояснюваного підвищення”, який дозволяє людям легше зрозуміти, як моделі штучного інтелекту дають свої прогнози. Більшість інших моделей машинного навчання часто розглядаються як “чорні ящики” без повного розуміння процесів.

Модель Smart Check буде враховувати 15 характеристик, включаючи те, чи заявники подавали раніше заявки на отримання пільг або отримували їх, суму їх активів і кількість адрес, які у них є в досьє, щоб присвоїти кожній людині оцінку ризику. Алгоритм цілеспрямовано уникає демографічні фактори, такі як стать, національність або вік, які, як вважалося, приводили до упередженості. В ньому також була зроблена спроба уникнути “непрямих чинників, таких як поштові індекси, якщо, наприклад, поштовий індекс статистично пов’язаний з певною етнічною групою.

Ця модель була навчена на наборі даних, що охоплює 3400 попередніх досліджень одержувачів соціальних допомог. Ідея полягала в тому, що алгоритм використовував би результати розслідувань, проведених міською службовцями, щоб з’ясувати, які фактори в початкових заявках були пов’язані з потенційним шахрайством.

Але використання минулих досліджень з самого початку створює потенційні проблеми, каже Сеннай Гебриб, науковий директор Лабораторії цивільного штучного інтелекту (CAIL) Амстердамського університету. Проблема використання історичних даних для побудови моделей, за його словами, полягає в тому, що “в кінцевому результаті ми отримаємо історичні спотворення”.

Например, если соцработники исторически допускали большую предвзятость к определенной этнической группе, модель может ошибочно научиться предсказывать, что эта этническая группа совершает мошенничество с более высокой частотой.

Город решил провести тщательный аудит своей системы, чтобы попытаться выявить аналогичные предубеждения в отношении уязвимых групп населения. Но то, как следует определять предвзятость и, следовательно, честность алгоритма, является предметом ожесточенных споров.

За последнее десятилетие ученые предложили десятки конкурирующих математических представлений о справедливости, некоторые из них несовместимы между собой. Это означает, что система, разработанная для того, чтобы быть “справедливой” в соответствии с одним таким стандартом, неизбежно будет несправедливой в других методах оценки справедливости.

Официальные лица Амстердама приняли определение справедливости, которое было сосредоточено на равном распределении бремени расследований между различными демографическими группами. Они надеялись, что такой подход обеспечит, чтобы соискатели социального обеспечения из разных слоев общества несли одинаковое бремя неправильного расследования с одинаковыми показателями.

Неоднозначная обратная связь

При создании Smart Check Амстердам консультировался с различными государственными органами по поводу этой модели, в том числе с городским специалистом по внутренней защите данных и Комиссией по персональным данным Амстердама. Город также консультировался с частными организациями, включая консалтинговую фирму Deloitte. Каждый из них дал свое одобрение проекту.

Но одной ключевой группы не было на борту: консультативного совета из 15 членов, состоящего из получателей помощи, адвокатов и других неправительственных заинтересованных сторон, представляющих интересы людей, для которых система была разработана.

Анке ван дер Влит, которой сейчас за 70, является одним из давних членов Совета. «Мы не доверяли этому с самого начала», — говорит она, вытаскивая стопку бумаг, которые она сохранила в Smart Check. «Все были против этого».

На протяжении десятилетий она была непоколебимым защитником интересов получателей социальных пособий — группы, которая к концу 2024 года насчитывала около 35 000 человек. В конце 1970-х она помогла основать Women on Welfare, группу, занимающуюся выявлением уникальных проблем, с которыми сталкиваются женщины в системе социального обеспечения.

Еще две встречи не смогли их убедить. Их отзывы действительно привели к ключевым изменениям, включая сокращение количества переменных, которые город первоначально рассматривал для расчета баллов кандидата, и исключение из системы переменных, которые могли внести предвзятость, таких как возраст.

Но через шесть месяцев Совет вообще перестал участвовать в усилиях по развитию города. «Совет придерживается мнения, что подобный эксперимент затрагивает основные права граждан и должен быть прекращен”, – написала группа в марте 2022 года.

Поскольку только около 3% заявлений на получение социальных пособий являются мошенническими, говорилось в письме, использование алгоритма было “непропорциональным”.

Для адвокатов, работающих с бенефициарами социального обеспечения, и для некоторых из самих бенефициаров причиной беспокойства был не скандал, а перспектива реального вреда. Технология может не только привести к пагубным ошибкам, но и затруднить их исправление, позволяя сотрудникам службы социального обеспечения “прятаться за цифровыми стенами”, — говорит Хэнк Крун, юрист, помогающий получателям социальных пособий в Амстердамской ассоциации социального обеспечения, профсоюзе, созданном в 1970-х годах.

Такая система могла бы » облегчить работу [чиновникам]», говорит он. ”Но для простых граждан это очень часто является проблемой».

Время для тестирования

Несмотря на категорические возражения Совета, город решил протестировать работающую модель Smart Check.

Первые результаты оказались совсем не такими, на которые они надеялись. Когда команда продвинутой аналитики запустила первоначальную модель в мае 2022 года, они обнаружили, что алгоритм демонстрирует сильную предвзятость по отношению к мигрантам и мужчинам, что было независимо проверено.

Первоначальная модель с большей вероятностью ошибочно указывала на заявителей, не являющихся гражданами Нидерландов. И было почти в два раза больше шансов ошибочно указать кандидата с гражданством не западной страны. У модели также было на 14% больше шансов ошибочно назвать мужчин мошенниками.

В то время как модель Smart Check с большей вероятностью ошибочно отмечала граждан других стран и мужчин, социальные работники-люди с большей вероятностью ошибочно отмечали граждан Нидерландов и женщин.

Команда Smart Check знала, що якщо вони не зможуть виправити упередженість, проект буде скасовано. Тому вони звернулися до методу академічних досліджень, відомому як повторне зважування навчальних даних. На практиці це означало, що заявникам з не західним громадянством, які, як вважалося, допустили суттєві помилки в своїх заявах, надавалося менше значення в даних, в той час як заявникам із західним громадянством надавалося більше.

В конце концов, это, вероятно, решило проблему: как подтверждает анализ Lighthouse, после того, как модель была повторно взвешена, граждане Нидерландов и других стран с равной вероятностью были ошибочно помечены.

Модель также лучше соцработников определяла программы, заслуживающие дополнительного изучения, при этом внутреннее тестирование показало повышение точности на 20%.

Воодушевленный этими результатами, весной 2023 года город был почти готов запустить систему. Чиновники отправили Smart Check в реестр алгоритмов, правительственную инициативу по обеспечению прозрачности, призванную информировать граждан об алгоритмах машинного обучения, которые либо находятся в разработке, либо уже используются правительством.

Для де Конинга обширные оценки и консультации города были обнадеживающими, особенно потому, что они также обнаружили недостатки в аналоговой системе. Но где Зварта те же самые процессы представляли собой глубокое непонимание: справедливость можно спроектировать.

В письме городским властям де Зварт раскритиковал предпосылки проекта и, более конкретно, обрисовал непреднамеренные последствия, которые могут возникнуть в результате повторного взвешивания данных. Это могло бы уменьшить предвзятое отношение к людям с миграционным прошлым в целом, но не гарантировало бы справедливости при пересечении идентичностей. Например, модель может дискриминировать женщин с миграционным прошлым. И такие предубеждения было бы трудно обнаружить.

В конце концов, сказал он, это вопрос о том, законно ли использовать данные о прошлом поведении для оценки будущего поведения ваших граждан, которое в принципе вы не можете предсказать.

Официальные лица по – прежнему настаивали-и назначили март 2023 года датой начала пилотного проекта. Членов городского совета Амстердама практически не предупредили. Фактически, они были проинформированы только в том же месяце-к разочарованию Элизабет Эймкер, члена совета от Партии зеленых.

Город надеялся, что пилотный запуск сможет доказать неправоту таких скептиков, как она.

Повышаем ставки

Официальный запуск Smart Check начался с ограниченного набора реальных заявителей на получение социального обеспечения, чьи документы обработает алгоритм и предоставит оценку риска, следует ли помечать заявку для расследования. Эти заявки также будут проверены людьми.

Эффективность Smart Check отслеживалась по двум ключевым критериям. Во-первых, может ли он беспристрастно рассматривать кандидатов? И, во-вторых, действительно Smart Check умный?

Другими словами, Может ли сложная математика, из которой состоит алгоритм, на самом деле выявлять мошенничество с социальной помощью лучше и справедливее, чем обычные соцработники?

Не потребовалось много времени, чтобы стало ясно, что модель не оправдала ожиданий по обоим направлениям.

Предвзятость снова проявилась, но на этот раз, вместо граждан других стран и мужчин, модель теперь с большей вероятностью считала мошенниками заявителей с голландским гражданством и женщин.

Собственный анализ Lighthouse также выявил другие формы предвзятости, в том числе высокую вероятность того, что заявители на социальное обеспечение с детьми будут ошибочно заявлены для расследования.

За пилотный период с помощью модели было обработано около 1600 заявок на социальное обеспечение. Но результаты означали, что было неудобно продолжать тестирование, особенно когда это могло привести к реальным последствиям.

Люди, которые работали над проектом, не верили, что это обязательно является причиной отказа от Smart Check. Они хотели получить больше времени-скажем, » период в 12 месяцев”, по словам де Конинга, чтобы продолжить тестирование и доработку модели.

В конце ноября 2023 года Рутгер Грут Вассинк — городской чиновник, отвечающий за социальные вопросы, решил остановить пилотный тест.

Это объявление положило конец масштабному многолетнему эксперименту.

Членам городского совета никогда не сообщали точно, сколько стоил проект , но MIT Technology Review, Lighthouse и Trouw подсчитали расходы в около 500 000 евро плюс 35 000 евро на контракт с Deloitte. Предупредив, что общая сумма, вложенная в проект, была лишь приблизительной, учитывая, что Smart Check был разработан собственными силами различными существующими командами и сотрудниками.

Можно ли когда-нибудь правильно использовать такой алгоритм?

Это вопрос, над которым Эймкер тоже задумывается. На заседаниях городского совета она приводила Smart Check в качестве примера того, чего не следует делать. Но теперь, когда пилот остановился, она беспокоится, что ее коллеги-городские власти могут быть слишком нетерпеливы, чтобы двигаться дальше.

Отказавшись от модели, город вернулся к старому процессу, который, как показал анализ, был предвзят по отношению к женщинам и гражданам Нидерландов.

Чен, консультант по этике в области искусственного интеллекта, спрашивает: «Почему мы придерживаемся самых высоких стандартов в системах искусственного интеллекта, чем в системах с человеческим интеллектом?”. Когда дело доходит до соцработников, он говорит, не было никаких попыток систематически исправлять их предвзятость.

Возможно, пришло время более фундаментально пересмотреть то, как следует определять справедливость — и кем. Помимо математических определений, некоторые исследователи утверждают, что люди, наиболее дискриминируемые этими программами, должны иметь большее право голоса. «Такие системы работают только тогда, когда люди покупают их”, – объясняет Элисса Редмайлс, доцент кафедры компьютерных наук Джорджтаунского университета, изучавшая алгоритмическую справедливость.

Независимо от того, как выглядит процесс, этот вопрос, с которым каждому правительству придется столкнуться в будущем, все больше определяется искусственным интеллектом.

И, как утверждает де Зварт, если не будут решены более широкие вопросы, даже чиновники с добрыми намерениями будут обречены повторять одни и те же уроки снова и снова.

По материалам: MIT Technology Review

Почему Poco F7 Pro и Poco M7 Pro захватывают рынок: секрет успеха

0

НА ПРАВАХ РЕКЛАМЫ

Слышал про Poco? Если нет, то ты многое теряешь. Этот бренд вырвался на рынок и буквально взорвал его, предложив невероятную производительность за адекватные деньги. Мы расскажем о двух хитах — Poco F 7 Pro и Poco M7 Pro — и разберемся, почему они так популярны.

 

Xiaomi Poco F7 Pro: флагман для геймеров и энтузиастов

Если ты ищешь бескомпромиссную мощь и готов к любым вызовам, то Xiaomi Poco F7 Pro — это то, что тебе нужно. Этот смартфон — настоящий зверь, созданный для тех, кто не признает компромиссов.

Под капотом у него стоит топовый процессор, который тянет самые «тяжелые» игры и приложения на максимальных настройках. Огромная память позволяет хранить тонны файлов, а яркий дисплей с высокой частотой обновления делает картинку невероятно плавной.

Фирменный дизайн с агрессивными линиями и крутая камера, которая снимает как профессиональный фотоаппарат, — все это делает Поко Ф7 Про идеальным выбором. Благодаря поддержке 5G, ты будешь летать по интернету, а емкая батарея не подведет в самый ответственный момент.

Телефон Poco M7 Pro: чемпион по соотношению цена-качество

Нужен надежный, мощный и при этом доступный смартфон? Тогда телефон Poco M7 Pro создан для тебя! Эта модель доказывает, что отличные характеристики не обязательно должны стоить целое состояние. Он оснащен шустрым процессором, который легко справляется с повседневными задачами, и большим дисплеем, на котором приятно смотреть фильмы и играть.

Камера у Poco M 7 Pro делает классные снимки для соцсетей, а аккумулятор держит заряд весь день, так что о частой зарядке можно забыть. Его стильный дизайн выглядит дорого, а интуитивно понятная оболочка MIUI делает использование максимально комфортным. Поко М7 Про — это идеальный вариант для студентов, молодых специалистов и всех, кто ценит практичность и функциональность.

Секрет успеха Poco: производительность без переплат

Почему эти смартфоны так популярны? Все просто: Поко дает максимум за свои деньги, и в этом вся их гениальность.

Вместо того чтобы вкладывать баснословные суммы в масштабные рекламные кампании, они концентрируются на том, что действительно важно — на самой начинке телефона. Они не пытаются изобрести колесо, а берут мощные, проверенные компоненты и собирают из них гаджет, который работает как флагман, но стоит как крепкий середняк.

Их успех складывается из нескольких ключевых факторов:

  • Производитель устанавливает в свои смартфоны мощные чипы, которые обычно встречаются в куда более дорогих моделях. Это позволяет играть в самые требовательные игры и запускать любые приложения без лагов.
  • Они не экономят на том, что важно. Например, крутая камера, яркий дисплей и емкая батарея — это всегда в приоритете. Ты получаешь топовые характеристики, не переплачивая за бренд.
  • Несмотря на доступную цену, дизайн смартфонов бренда выглядит очень стильно и современно. Они используют качественные материалы, которые приятно держать в руке.
  • Фирменная оболочка MIUI, специально доработанная для Poco, работает быстро и плавно, обеспечивая максимальный комфорт в использовании.

Это умный выбор для тех, кто умеет считать деньги, но не хочет жертвовать качеством. Poco — это протест против завышенных цен и скучных телефонов.

В Украине эти телефоны уже стали хитами. Неважно, где ты живешь — в Киеве, Одессе, Львове, Днепре, Виннице или Запорожье, — ты можешь легко найти их в продаже. Но чтобы быть уверенным в качестве, всегда покупай в проверенных магазинах. Загляни на официальный сайт Y.ua — здесь ты найдешь широкий выбор продукции бренда с гарантией и сервисом.

День, когда кто-то взломал основу основ Bitcon и сделал из 21 млн 184 000 млн криптомонет

0

Спросите у поклонников криптовалюты, что делает Bitcoin ценным, они наверняка скажут – его ограниченное количество. И обязательно сравнят Bitcoin с золотом (не будем упоминать, что Bitcoin — это лишь данные, а золото – физическая вещь). Однако действительно, когда-то было сказано: биткоинов будет не более 21 миллиона. И все поверили. Пока кто-то не сделал в 8762 раза больше криптомонет — 184 000 млн.

Так случилось, что на тот момент Bitcoin был в начале своего пути и произошедшее никто не заметил. Представьте обесценивание этой криптомонеты, если бы это произошло сегодня: люди, веря в ограниченный запас Bitcoin, разогнали его цену до более $100 000, а кто-то выпускает на рынок миллиарды новых монет, которых хватит всем.

На момент инцидента, 15 августа 2010 года, в обращении было уже более 18,5 миллиона Bitcoin. Какой — то один человек решил, что математика-штука гибкая, и с помощью бага создал 184 миллиарда биткоинов.

Здесь нам следует вспомнить, что в то время биткоин стоил около 30 центов. В мае 2010-го один программист обменял 10 000 биткоинов на пиццу — сегодня это означало бы, что та пицца стоила более 110 миллионов долларов.

Тогда биткоин был сырым экспериментом, а не»цифровым золотом». И, как у каждого недоношенного стартапа, у него были свои детские болячки. Одной из таких стал баг, позволивший создать в рамках одного блока более 184 миллиардов монет.

Анонимный пользователь, личность которого еще не установлена, использовал уязвимость в коде. Жертвой стал блок №74638. там два адреса получили по 92 миллиарда биткоинов. Код не учел, что сумма выходов может превысить допустимое значение. Переполнение переменной-классика жанра. Ошибку оперативно обнаружил один из программистов — Джефф Гарзик.

Реакция была мгновенной: менее чем за 5 часов вышел патч 0.3.10, а сам блок из 184 млрд Bitcoin просто уничтожили. Провели так называемый «софт форк» — состояние блокчейна (книга записей всех транзакций) откатили назад, а все финансовые транзакции после инцидента признали недействительными (кто-то потерял деньги).

Патч был выпущен не кем иным, как Сатоши Накамото (до сих пор неизвестно, кто стоит за этим именем). Можно долго спорить, кто это был — один программист, группа или симулякр, — но именно он (она, они) зафиксировал систему. Вмешательство было критически необходимым: если бы баг оставили, вновь созданные 184 миллиарда монет полностью обвалили бы доверие к биткоину, еще до того, как криптовалюта успела сформироваться.

Стоит помнить: тогда еще можно было» откатить » блокчейн Bitcoin без катастрофических последствий, ибо тогда Bitcoin был никому не нужен. Сегодня это просто невозможно. Подобная атака повлекла бы хаос, крах бирж и массовую отмену транзакций. Один факт, что 21-миллионный лимит вообще можно было нарушить, вызвал бы панику в криптосообществе и обвал курса.

Интересно, что тогдашний баг не убил биткоин. Наоборот — после исправления курсировал подъем: с 7 до 30 центов всего за несколько месяцев. Почему? Йито знает. Пути желающих получить деньги с воздуха неисповедимы.

Кто осуществил выпуск монет Bitcoin сверх технически допустимого лимита-неизвестно до сих пор. Но это, без преувеличений, первый хакер в истории блокчейна. Человек, который доказал, что даже» пусть мы зафиксируем максимум в 21 миллион » можно обойти одной строкой кода.

И хотя последствия удалось нивелировать, сам факт остался в истории как напоминание: криптовалюта, в которую вкладывают десятки миллиардов, существует, на честном слове. История с 184 миллиардами-это не просто инцидент. Это напоминание о том, что следующий баг может ждать не за горами. Учитывая масштабы криптовалют и их глубокое проникновение в глобальную экономику подобный баг может обвалить финансовую систему.

По материалам: Decrypt

Как получить еще один год бесплатных обновлений Windows 10

0

Если вы считаете, что регулярные обновления гарантируют безопасность, Возможно, вы уже перешли на Windows 11. ведь indows 10 в октябре прекратит получать патчи. Однако Microsoft предоставила способ, с которым можно продолжить получать обновления еще в течение года.

Microsoft официально прекращает обновление безопасности для Windows 10 после 14 октября 2025 года. Это решение компания использует как рычаг для продвижения Windows 11-либо как обновление на существующем компьютере, либо чтобы вы купили новое оборудование, отвечающее требованиям новой ОС.

Однако для тех, кто не может или не хочет переходить на Windows 11, Microsoft предусмотрела возможность продления поддержки еще на один год — до октября 2026 года — через программу Extended Security Updates (ESU) . Но это не произойдет автоматически: пользователь должен вручную зарегистрировать свой компьютер в приложении из-за новой функции, которую Microsoft недавно добавила в Windows 10.

Ниже описано, как зарегистрировать компьютер в программе ESU, как проверить статус регистрации и как избежать платы в размере 30 долларов, которую Microsoft номинально взимает за продолжение обновлений.

Как зарегистрировать ПК с Windows 10 в расширенных обновлениях безопасности

Спрос

Чтобы использовать программу ESU, ваш компьютер должен соответствовать следующим условиям:

  • Операционная система Windows 10 Home, Pro, Pro Education или Workstation со всеми установленными обновлениями.

  • Учетная запись с правами администратора.

  • Учетная запись Microsoft (даже если вы обычно используете локальную учетную запись).

  • ПК не должен быть:

    • в режиме киоска (режим киоска),

    • присоединен к домену Active Directory,

    • присоединен к Microsoft Entra (ранее Azure AD),

    • управляемый через MDM (Mobile Device Management).

Для бизнеса, учебных заведений и других организаций Microsoft предлагает отдельные программы ESU.

Процедура регистрации

  1. Откройте Параметры (Настройки) ? Центр Обновления Windows (Центр Обновления Windows) .

  2. Вы увидите сообщение о завершении поддержки Windows 10 в октябре 2025 года со ссылкой “зарегистрировать сейчас” (Enroll now) .

  3. Нажмите на эту ссылку.

  4. Если вы еще не вошли в учетную запись Microsoft, система предложит вам это сделать. Вы можете войти временно-после регистрации ПК вы сможете снова перейти на локальную учетную запись.

Как получить лицензию ESU

Доступны три варианта:

  1. Оплатить $30 (единовременно).

  2. Использовать 1000 баллов Microsoft Rewards.

  3. Воспользоваться приложением Windows Backup.

Самый простой вариант- Windows Backup . Он синхронизирует некоторые Настройки, Пароли и приложения с учетной записью Microsoft. Если вы уже использовали Windows Backup в прошлом, вы автоматически зарегистрируетесь в приложении ESU бесплатно.

После выбора варианта нажмите зарегистрировать (Enroll). Ваш компьютер будет зарегистрирован, и вы получите дополнительные обновления безопасности к октябрю 2026 года.

Как проверить, что ПК зарегистрирован

После успешной регистрации в окне обновления Windows появится сообщение: ”Ваш компьютер зарегистрирован для получения расширенных обновлений безопасности (ESU)» . Вы продолжите получать:

  • обновление безопасности Windows до октября 2026 г.,

  • обновление защитника Microsoft Antivirus,

  • обновления безопасности для поддерживаемых версий Microsoft Office — как минимум до 2028 года.

А если я не хочу ничего хранить в Microsoft?

Если вы принципиально избегаете учетной записи Microsoft, хорошая новость заключается в том, что после регистрации в приложении ESU вам не нужно постоянно оставаться в этой учетной записи или сохранять резервные копии в Microsoft Backup.

Отключение резервного копирования

  1. Перейти к Settings ? Accounts ? Windows Backup .

  2. Выключите все переключатели, чтобы остановить будущие резервные копии.

  3. Чтобы удалить предыдущие настройки:

    • Войдите в учетную запись Microsoft через браузер.

    • Перейдите на вкладку Devices , прокрутите вниз и нажмите Clear stored settings .

Выход из учетной записи Microsoft

  1. Перейти к Settings ? Accounts ? Your Info .

  2. Нажмите «Sign in with a local account instead” или » Stop signing in to all Microsoft apps automatically » — в зависимости от способа входа в систему.

  3. Потом в Settings ? Accounts ? Email & Accounts удалите все учетные записи Microsoft, которые вы больше не хотите использовать.

Даже после полного удаления Microsoft-аккаунтов с вашего ПК сообщение об успешной регистрации в программе ESU останется активным.

Это неидеально, но если Windows 11 Вам не подходит — дополнительный год обновлений безопасности стоит нескольких минут мороки.

«Крестный отец ИИ» говорит, что человечество спасет материнский инстинкт в ИИ

0

Джеффри Хинтон-пионер в области нейронных сетей, чьи разработки изменили индустрию ИИ, и которого часто называют «крестным отцом искусственного интеллекта» — считает, что для предотвращения угрозы от «неуправляемого» ИИ нужно придать системам «материнские инстинкты».

Хінтон, чия робота з нейронними мережами сприяла появі сучасних великих мовних моделей (LLM), нині більше відомий як скептик та критик безпечності штучного інтелекту. Він неодноразово попереджав про ймовірність знищення людства надрозумними системами.

Во время конференции индустрии искусственного интеллекта в Лас-Вегасе Нобелевский лауреат (2024) изложил свое видение: сверхразумный ИИ не будет «покорным» попыткам людей его контролировать.

«Умные системы очень быстро выработают две подцели: первая-выжить, вторая — получить больше контроля», — заявил Хинтон.

По его мнению, вместо жесткого доминирования следует применить другой подход: сделать так, чтобы искусственный интеллект стал похожим на маму, которая заботится о своем «неразумном ребенке» — человеке.

«Единственная известная нам модель, в которой более разумное существо контролируется менее разумным, — это мать, которую контролирует ее ребенок», — сказал он. — «Это единственный хороший сценарий. Если ИИ не будет меня «воспитывать», он меня заменит».

Хинтон считает, что» суперинтеллектуальные заботливые матери-ИИ » по большей части не захотят избавляться от этого инстинкта, чтобы не допустить гибели людей.

Эта идея вызывает вопросы. Сам термин «материнский инстинкт» — противоречивый и научно неоднозначный. Исследования показывают, что беременность и отцовство изменяют мозг, но после родов женщины испытывают совершенно другой спектр эмоций и связи с ребенком. Часто связь формируется постепенно, а не мгновенно.

Многие эксперты подчеркивают, что образ «врожденного инстинкта матери» был сформирован преимущественно мужчинами, закреплен в религиозных представлениях, евгенике и гендерных стереотипах.

«Представление о том, что самопожертвование и нежность, необходимые ребенку, автоматически вшиты в женскую биологию, — Это современный и вредный миф», — писала Пулитцеровская лауреат Челси Коннабой в The New York Times (2022).

Хотя любовь и забота родителей к детям-реальность, само существование такого инстинкта на биологическом уровне остается дискуссионным. Таким образом, идея передать его ИИ — тем более в измеримой форме — основана на непроверенном предположении.

Сам Хинтон отметил, что забота матерей о детях — не только инстинкт, но и результат социального давления. Однако общественное давление существует в большинстве сфер человеческой жизни и не ограничивается только материнством.

Стоит напомнить, что суперинтеллект сейчас-лишь гипотетическое явление. Вместо этого уже сегодня есть более насущные проблемы, такие как усиление социальных предубеждений, которые модели ИИ берут на себя из данных обучения.

Да и вряд ли единственные два сценария взаимодействия с AI-это либо» господство и покорение«, либо»AI-мама и человеческий младенец».

Осторожно с кликами на сайтах: сайты прячут вредителей в изображениях ради «лайков» в Facebook

0

Исследователи кибербезопасности обнаружили десятки сайтов, которые встраивают вредоносный код в файлы формата Scalable Vector Graphics (.svg) . Это графические файлы, которые чаще всего используются для отображения иконок и схематических картинок. Неосторожный клик мышкой на такой картинке приводит к неприятным последствиям.

В отличие от обычных форматов изображений JPEG или PNG, SVG использует XML-текст для описания изображений и может содержать HTML и JavaScript. Последнее позволяет создавать интерактивную графику, но также открывает возможности для злоупотреблений, таких как XSS-атаки или HTML-инъекции.

Как работает атака clickjacking

По данным Malwarebytes, некоторые посетители таких сайтов сталкиваются с ловушками в виде SVG-изображений.

При клике файл запускает сильно искаженный JavaScript-код-иногда с использованием гибридной техники JSFuck , чтобы скрыть истинное назначение скрипта.

После декодирования код загружает дополнительные скрипты, которые в конечном итоге устанавливают вредоносный модуль Trojan.JS.Likejack . Если у жертвы открыта сессия в Facebook, вредитель незаметно жмет кнопку Like, повышая видимость вредоносного сайта в ленте новостей.

Чем выше показатель охвата, тем больше людей видят публикацию об этом вредоносном сайте — и жертвы невольно продвигают вредоносный сайт без собственного согласия.

SVG в атаках-не впервые

  • Два года назад пророссийские хакеры использовали SVG для XSS-атаки на Roundcube — популярную веб-почтовую платформу.

  • Недавно в фишинговых кампаниях SVG-файлы открывали поддельные страницы входа Microsoft с уже заполненным адресом электронной почты жертвы.

Многие такие атаки происходят из сети взаимосвязанных сайтов(например, на blogspot [.] com) и часто предлагают «откровенные» фото знаменитостей, вероятно сгенерированные искусственным интеллектом.

Facebook регулярно блокирует аккаунты, участвующие в подобных кампаниях, но злоумышленники быстро возвращаются с новыми профилями.

Введение в разных странах правил доступа к контенту по паспорту может подтолкнуть часть пользователей к менее законопослушным сайтам, которые активно применяют агрессивные методы продвижения.

Как защититься

Угроза от таких кампаний не ограничивается нежелательными «лайками» в соцсетях — она может привести к краже личных данных или учетных записей .

Эксперты советуют:

  • Использовать актуальные комплексы защиты, способные блокировать подозрительные домены.

  • Убедиться, что файервол настроен правильно для предотвращения несанкционированных передач данных.

  • Включить защиту в реальном времени , чтобы обнаруживать угрозы до их выполнения.

  • Помните, что некоторые форматы изображений (особенно SVG) могут содержать код.

  • VPN помогает сохранить конфиденциальность, но не заменяет антивирус и осторожное поведение в интернете.

Самое главное -внимательно смотрите, куда вы кликаете.