Forklog 2022-03-16 11:58:15

Исследование: модификация фотографий не защищает от систем распознавания лиц

Ученые из Стэнфорда, Университета штата Орегон и Google выяснили, что манипуляция с фотографиями на пиксельном уровне не защитит от систем распознавания лиц. Исследователи протестировали две программы «отравления» данных: Fawkes и LowKey, которые тонко изменяют изображения на уровне пикселей. Такие модификации незаметны глазу, однако они способны сбить с толку систему распознавания лиц. Оба инструмента находятся в свободном доступе, что является их главной проблемой, считают авторы. Благодаря этому разработчики систем распознавания лиц могут научить свои модели игнорировать «отравления». «Адаптивное обучение модели с доступом к черному ящику [программ модификации фотографий] может немедленно обучить надежную модель, устойчивую к отравлению», — сказали ученые. По их словам, оба инструмента продемонстрировали низкую эффективность против версий программного обеспечения для распознавания лиц, выпущенных в течение года после их появления в сети. Кроме этого, исследователи опасаются создания более совершенных алгоритмов идентификации, которые изначально смогут игнорировать изменения в фотографиях. «Существует еще более простая защитная стратегия: создатели моделей могут просто ждать более совершенных систем распознавания лиц, которые больше не уязвимы для этих конкретных атак», — говорится в документе. Авторы исследования подчеркнули, что модификация данных для предотвращения биометрической идентификации не только не обеспечивает безопасность, но и создает ложное чувство защищенности. Это может нанести вред пользователям, которые в противном случае не размещали бы фотографии в сети. Исследователи заявили, что единственный способ защитить конфиденциальность пользователей в интернете — принятие законодательства, ограничивающего использование систем распознавания лиц. Напомним, в мае 2021 года инженеры представили бесплатные инструменты Fawkes и LowKey для защиты от алгоритмов биометрической идентификации. В апреле стартап DoNotPay разработал сервис для защиты изображений от систем распознавания лиц Photo Ninja. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Прочтите Отказ от ответственности : Весь контент, представленный на нашем сайте, гиперссылки, связанные приложения, форумы, блоги, учетные записи социальных сетей и другие платформы («Сайт») предназначен только для вашей общей информации, приобретенной у сторонних источников. Мы не предоставляем никаких гарантий в отношении нашего контента, включая, но не ограничиваясь, точность и обновление. Никакая часть содержания, которое мы предоставляем, представляет собой финансовый совет, юридическую консультацию или любую другую форму совета, предназначенную для вашей конкретной опоры для любых целей. Любое использование или доверие к нашему контенту осуществляется исключительно на свой страх и риск. Вы должны провести собственное исследование, просмотреть, проанализировать и проверить наш контент, прежде чем полагаться на них. Торговля - очень рискованная деятельность, которая может привести к серьезным потерям, поэтому проконсультируйтесь с вашим финансовым консультантом, прежде чем принимать какие-либо решения. Никакое содержание на нашем Сайте не предназначено для запроса или предложения