Cryptos Platform logo Cryptos Platform logo
Forklog 2021-10-18 09:30:31

WSJ: алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы

Инженеры Facebook обнаружили, что алгоритмы удаляют лишь часть контента, нарушающего правила платформы. Об этом говорится в новом расследовании The Wall Street Journal, основанном на внутренней документации соцсети. Согласно отчету, два года назад Facebook сократила количество времени, в течение которого командам специалистов-рецензентов приходилось сосредотачиваться на жалобах пользователей на разжигание ненависти, и уменьшила общее их количество. Вместо этого компания переключилась на применение ИИ в модерации постов. По словам сотрудников, это способствовало преувеличению успеха технологии в публичной статистике. Согласно другому документу, в марте 2021 года внутренняя исследовательская группа обнаружила, что автоматизированные системы Facebook удаляли сообщения, которые генерировали от 3% до 5% просмотров разжигающих ненависть высказываний в соцсети. Эти же системы отметили и удалили примерно 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства. Вице-президент по добросовестности Facebook Гай Розен опроверг результаты расследования и заявил, что благодаря алгоритмам распространенность языка вражды в соцсети снизилась на 50% за последние три года. «Данные из просочившихся документов используются для создания нарратива о том, что используемая нами технология для борьбы с языком ненависти неадекватна и что мы намеренно искажаем наш прогресс. Это неправда», — сказал он. По словам Розена, компания не приемлет использования платформы для разжигания вражды и прозрачна в своей работе по ее устранению. «Эти документы демонстрируют, что наша работа по обеспечению добросовестности — многолетний путь. Хотя мы никогда не добьемся совершенства, наши команды постоянно работают над развитием систем, выявлением проблем и поиском решений», — добавил он. Розен также утверждает, что «неправильно» судить об успехе Facebook в борьбе с разжиганием ненависти, основываясь исключительно на удалении постов. По его словам, снижение видимости этого контента является более важным показателем. За последние три квартала просмотры подобных постов упали до 0,05% или примерно пяти просмотров из каждых 10 000, сказал Розен. Напомним, в начале октября информатор Facebook на сенатских слушаниях сообщила, что компания использует алгоритмы для разжигания ненависти ради прибыли. Спустя неделю вице-президент компании по глобальным связям Ник Клегг заявил, что Facebook готова открыть регуляторам доступ к алгоритмам, чтобы доказать их безвредность. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.