Cryptos Platform logo Cryptos Platform logo
Forklog 2022-03-16 11:58:15

Исследование: модификация фотографий не защищает от систем распознавания лиц

Ученые из Стэнфорда, Университета штата Орегон и Google выяснили, что манипуляция с фотографиями на пиксельном уровне не защитит от систем распознавания лиц. Исследователи протестировали две программы «отравления» данных: Fawkes и LowKey, которые тонко изменяют изображения на уровне пикселей. Такие модификации незаметны глазу, однако они способны сбить с толку систему распознавания лиц. Оба инструмента находятся в свободном доступе, что является их главной проблемой, считают авторы. Благодаря этому разработчики систем распознавания лиц могут научить свои модели игнорировать «отравления». «Адаптивное обучение модели с доступом к черному ящику [программ модификации фотографий] может немедленно обучить надежную модель, устойчивую к отравлению», — сказали ученые. По их словам, оба инструмента продемонстрировали низкую эффективность против версий программного обеспечения для распознавания лиц, выпущенных в течение года после их появления в сети. Кроме этого, исследователи опасаются создания более совершенных алгоритмов идентификации, которые изначально смогут игнорировать изменения в фотографиях. «Существует еще более простая защитная стратегия: создатели моделей могут просто ждать более совершенных систем распознавания лиц, которые больше не уязвимы для этих конкретных атак», — говорится в документе. Авторы исследования подчеркнули, что модификация данных для предотвращения биометрической идентификации не только не обеспечивает безопасность, но и создает ложное чувство защищенности. Это может нанести вред пользователям, которые в противном случае не размещали бы фотографии в сети. Исследователи заявили, что единственный способ защитить конфиденциальность пользователей в интернете — принятие законодательства, ограничивающего использование систем распознавания лиц. Напомним, в мае 2021 года инженеры представили бесплатные инструменты Fawkes и LowKey для защиты от алгоритмов биометрической идентификации. В апреле стартап DoNotPay разработал сервис для защиты изображений от систем распознавания лиц Photo Ninja. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Leggi la dichiarazione di non responsabilità : Tutti i contenuti forniti nel nostro sito Web, i siti con collegamento ipertestuale, le applicazioni associate, i forum, i blog, gli account dei social media e altre piattaforme ("Sito") sono solo per le vostre informazioni generali, procurati da fonti di terze parti. Non rilasciamo alcuna garanzia di alcun tipo in relazione al nostro contenuto, incluso ma non limitato a accuratezza e aggiornamento. Nessuna parte del contenuto che forniamo costituisce consulenza finanziaria, consulenza legale o qualsiasi altra forma di consulenza intesa per la vostra specifica dipendenza per qualsiasi scopo. Qualsiasi uso o affidamento sui nostri contenuti è esclusivamente a proprio rischio e discrezione. Devi condurre la tua ricerca, rivedere, analizzare e verificare i nostri contenuti prima di fare affidamento su di essi. Il trading è un'attività altamente rischiosa che può portare a perdite importanti, pertanto si prega di consultare il proprio consulente finanziario prima di prendere qualsiasi decisione. Nessun contenuto sul nostro sito è pensato per essere una sollecitazione o un'offerta