Cryptos Platform logo Cryptos Platform logo
Forklog 2021-10-18 09:30:31

WSJ: алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы

Инженеры Facebook обнаружили, что алгоритмы удаляют лишь часть контента, нарушающего правила платформы. Об этом говорится в новом расследовании The Wall Street Journal, основанном на внутренней документации соцсети. Согласно отчету, два года назад Facebook сократила количество времени, в течение которого командам специалистов-рецензентов приходилось сосредотачиваться на жалобах пользователей на разжигание ненависти, и уменьшила общее их количество. Вместо этого компания переключилась на применение ИИ в модерации постов. По словам сотрудников, это способствовало преувеличению успеха технологии в публичной статистике. Согласно другому документу, в марте 2021 года внутренняя исследовательская группа обнаружила, что автоматизированные системы Facebook удаляли сообщения, которые генерировали от 3% до 5% просмотров разжигающих ненависть высказываний в соцсети. Эти же системы отметили и удалили примерно 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства. Вице-президент по добросовестности Facebook Гай Розен опроверг результаты расследования и заявил, что благодаря алгоритмам распространенность языка вражды в соцсети снизилась на 50% за последние три года. «Данные из просочившихся документов используются для создания нарратива о том, что используемая нами технология для борьбы с языком ненависти неадекватна и что мы намеренно искажаем наш прогресс. Это неправда», — сказал он. По словам Розена, компания не приемлет использования платформы для разжигания вражды и прозрачна в своей работе по ее устранению. «Эти документы демонстрируют, что наша работа по обеспечению добросовестности — многолетний путь. Хотя мы никогда не добьемся совершенства, наши команды постоянно работают над развитием систем, выявлением проблем и поиском решений», — добавил он. Розен также утверждает, что «неправильно» судить об успехе Facebook в борьбе с разжиганием ненависти, основываясь исключительно на удалении постов. По его словам, снижение видимости этого контента является более важным показателем. За последние три квартала просмотры подобных постов упали до 0,05% или примерно пяти просмотров из каждых 10 000, сказал Розен. Напомним, в начале октября информатор Facebook на сенатских слушаниях сообщила, что компания использует алгоритмы для разжигания ненависти ради прибыли. Спустя неделю вице-президент компании по глобальным связям Ник Клегг заявил, что Facebook готова открыть регуляторам доступ к алгоритмам, чтобы доказать их безвредность. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Loe lahtiütlusest : Kogu meie veebisaidi, hüperlingitud saitide, seotud rakenduste, foorumite, ajaveebide, sotsiaalmeediakontode ja muude platvormide ("Sait") siin esitatud sisu on mõeldud ainult teie üldiseks teabeks, mis on hangitud kolmandate isikute allikatest. Me ei anna meie sisu osas mingeid garantiisid, sealhulgas täpsust ja ajakohastust, kuid mitte ainult. Ükski meie poolt pakutava sisu osa ei kujuta endast finantsnõustamist, õigusnõustamist ega muud nõustamist, mis on mõeldud teie konkreetseks toetumiseks mis tahes eesmärgil. Mis tahes kasutamine või sõltuvus meie sisust on ainuüksi omal vastutusel ja omal äranägemisel. Enne nende kasutamist peate oma teadustööd läbi viima, analüüsima ja kontrollima oma sisu. Kauplemine on väga riskantne tegevus, mis võib põhjustada suuri kahjusid, palun konsulteerige enne oma otsuse langetamist oma finantsnõustajaga. Meie saidi sisu ei tohi olla pakkumine ega pakkumine