Cryptos Platform logo Cryptos Platform logo
Forklog 2022-03-16 11:58:15

Исследование: модификация фотографий не защищает от систем распознавания лиц

Ученые из Стэнфорда, Университета штата Орегон и Google выяснили, что манипуляция с фотографиями на пиксельном уровне не защитит от систем распознавания лиц. Исследователи протестировали две программы «отравления» данных: Fawkes и LowKey, которые тонко изменяют изображения на уровне пикселей. Такие модификации незаметны глазу, однако они способны сбить с толку систему распознавания лиц. Оба инструмента находятся в свободном доступе, что является их главной проблемой, считают авторы. Благодаря этому разработчики систем распознавания лиц могут научить свои модели игнорировать «отравления». «Адаптивное обучение модели с доступом к черному ящику [программ модификации фотографий] может немедленно обучить надежную модель, устойчивую к отравлению», — сказали ученые. По их словам, оба инструмента продемонстрировали низкую эффективность против версий программного обеспечения для распознавания лиц, выпущенных в течение года после их появления в сети. Кроме этого, исследователи опасаются создания более совершенных алгоритмов идентификации, которые изначально смогут игнорировать изменения в фотографиях. «Существует еще более простая защитная стратегия: создатели моделей могут просто ждать более совершенных систем распознавания лиц, которые больше не уязвимы для этих конкретных атак», — говорится в документе. Авторы исследования подчеркнули, что модификация данных для предотвращения биометрической идентификации не только не обеспечивает безопасность, но и создает ложное чувство защищенности. Это может нанести вред пользователям, которые в противном случае не размещали бы фотографии в сети. Исследователи заявили, что единственный способ защитить конфиденциальность пользователей в интернете — принятие законодательства, ограничивающего использование систем распознавания лиц. Напомним, в мае 2021 года инженеры представили бесплатные инструменты Fawkes и LowKey для защиты от алгоритмов биометрической идентификации. В апреле стартап DoNotPay разработал сервис для защиты изображений от систем распознавания лиц Photo Ninja. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Lesen Sie den Haftungsausschluss : Alle hierin bereitgestellten Inhalte unserer Website, Hyperlinks, zugehörige Anwendungen, Foren, Blogs, Social-Media-Konten und andere Plattformen („Website“) dienen ausschließlich Ihrer allgemeinen Information und werden aus Quellen Dritter bezogen. Wir geben keinerlei Garantien in Bezug auf unseren Inhalt, einschließlich, aber nicht beschränkt auf Genauigkeit und Aktualität. Kein Teil der Inhalte, die wir zur Verfügung stellen, stellt Finanzberatung, Rechtsberatung oder eine andere Form der Beratung dar, die für Ihr spezifisches Vertrauen zu irgendeinem Zweck bestimmt ist. Die Verwendung oder das Vertrauen in unsere Inhalte erfolgt ausschließlich auf eigenes Risiko und Ermessen. Sie sollten Ihre eigenen Untersuchungen durchführen, unsere Inhalte prüfen, analysieren und überprüfen, bevor Sie sich darauf verlassen. Der Handel ist eine sehr riskante Aktivität, die zu erheblichen Verlusten führen kann. Konsultieren Sie daher Ihren Finanzberater, bevor Sie eine Entscheidung treffen. Kein Inhalt unserer Website ist als Aufforderung oder Angebot zu verstehen