Cryptos Platform logo Cryptos Platform logo
Forklog 2021-10-18 09:30:31

WSJ: алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы

Инженеры Facebook обнаружили, что алгоритмы удаляют лишь часть контента, нарушающего правила платформы. Об этом говорится в новом расследовании The Wall Street Journal, основанном на внутренней документации соцсети. Согласно отчету, два года назад Facebook сократила количество времени, в течение которого командам специалистов-рецензентов приходилось сосредотачиваться на жалобах пользователей на разжигание ненависти, и уменьшила общее их количество. Вместо этого компания переключилась на применение ИИ в модерации постов. По словам сотрудников, это способствовало преувеличению успеха технологии в публичной статистике. Согласно другому документу, в марте 2021 года внутренняя исследовательская группа обнаружила, что автоматизированные системы Facebook удаляли сообщения, которые генерировали от 3% до 5% просмотров разжигающих ненависть высказываний в соцсети. Эти же системы отметили и удалили примерно 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства. Вице-президент по добросовестности Facebook Гай Розен опроверг результаты расследования и заявил, что благодаря алгоритмам распространенность языка вражды в соцсети снизилась на 50% за последние три года. «Данные из просочившихся документов используются для создания нарратива о том, что используемая нами технология для борьбы с языком ненависти неадекватна и что мы намеренно искажаем наш прогресс. Это неправда», — сказал он. По словам Розена, компания не приемлет использования платформы для разжигания вражды и прозрачна в своей работе по ее устранению. «Эти документы демонстрируют, что наша работа по обеспечению добросовестности — многолетний путь. Хотя мы никогда не добьемся совершенства, наши команды постоянно работают над развитием систем, выявлением проблем и поиском решений», — добавил он. Розен также утверждает, что «неправильно» судить об успехе Facebook в борьбе с разжиганием ненависти, основываясь исключительно на удалении постов. По его словам, снижение видимости этого контента является более важным показателем. За последние три квартала просмотры подобных постов упали до 0,05% или примерно пяти просмотров из каждых 10 000, сказал Розен. Напомним, в начале октября информатор Facebook на сенатских слушаниях сообщила, что компания использует алгоритмы для разжигания ненависти ради прибыли. Спустя неделю вице-президент компании по глобальным связям Ник Клегг заявил, что Facebook готова открыть регуляторам доступ к алгоритмам, чтобы доказать их безвредность. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Feragatnameyi okuyun : Burada sunulan tüm içerikler web sitemiz, köprülü siteler, ilgili uygulamalar, forumlar, bloglar, sosyal medya hesapları ve diğer platformlar (“Site”), sadece üçüncü taraf kaynaklardan temin edilen genel bilgileriniz içindir. İçeriğimizle ilgili olarak, doğruluk ve güncellenmişlik dahil ancak bunlarla sınırlı olmamak üzere, hiçbir şekilde hiçbir garanti vermemekteyiz. Sağladığımız içeriğin hiçbir kısmı, herhangi bir amaç için özel bir güvene yönelik mali tavsiye, hukuki danışmanlık veya başka herhangi bir tavsiye formunu oluşturmaz. İçeriğimize herhangi bir kullanım veya güven, yalnızca kendi risk ve takdir yetkinizdedir. İçeriğinizi incelemeden önce kendi araştırmanızı yürütmeli, incelemeli, analiz etmeli ve doğrulamalısınız. Ticaret büyük kayıplara yol açabilecek yüksek riskli bir faaliyettir, bu nedenle herhangi bir karar vermeden önce mali danışmanınıza danışın. Sitemizde hiçbir içerik bir teklif veya teklif anlamına gelmez