Социальная сеть Facebook намерена внести изменения в концепцию управления и контроля за контентом.

Об этом сообщил глава Facebook Марк Цукерберг в своем блоге.

В частности, в посте Цукерберг рассказал о том, как соцсеть намерена бороться с проблемным контентом в дальнейшем.

“Важным вопросом, с которым мы сталкиваемся, является то, как сбалансировать идеал, чтобы обеспечить безопасность людей. Какими должны быть пределы того, что люди могут выразить? Какой контент следует распространять и что следует блокировать? Кто должен решать эту политику и принимать принудительные решения? Кто должен привлекать этих людей к ответственности?” – говорится в сообщении.

В связи с этим Facebook разработал несколько механизмов, чтоб решить выше названные проблемы.

Заблаговременное определение пагубного контента

“Единственное самое важное улучшение в обеспечении соблюдения наших политик – использование искусственного интеллекта для оперативного представления потенциально проблемного контента нашей команде рецензентов, а в некоторых случаях также для принятия мер по контенту автоматически”, – отметил Цукерберг.

Ожидается, что этот подход поможет Facebook выявлять и удалять гораздо больший процент вредоносного контента.

“В ходе нашей трехлетней дорожной карты в конце 2019 года мы ожидаем, что наши системы будут активно отслеживать подавляющее большинство проблемного контента”, – пишет глава Facebook.

Отказ от неоднозначного контента

Цукерберг называет кликбейт “неоднозначным” контентом. Он не нарушает правила сети, но приводит к худшему опыту использования для пользователей.

По его словам, пользователи проводят больше времени с таким типом контентом. В качестве решения Facebook будет понижать такой тип контента в ленте.

“В категории, на которой мы больше всего сосредоточены, есть приманка и дезинформация. Люди постоянно говорят нам, что эти типы контента ухудшают наши услуги, даже если они взаимодействуют с ними. Как я упоминал выше, наиболее эффективным способом остановить распространение дезинформации является удаление поддельных учетных записей, которые его генерируют”, – пишет Цукерберг.

По мнению Цукерберга, уменьшение охвата кликбейтных материалов является лучшим решением, чем изменение правил по постингу в сети. В связи с этим издателям следует предоставлять контент, который будет отвечать пожеланиям пользователей после прочтения заголовка.

Предоставление людям контроля и предоставление большего количества контента

“Первый элемент управления, который мы разрабатываем, – это обеспечение более безопасного опыта. Он будет включен по умолчанию, и это означает, что вы увидите меньше контента, даже если это фактически не нарушает наши стандарты. Для тех, кто хочет самим принять эти решения, мы считаем, что у них должен быть такой выбор, поскольку этот контент не нарушает наши стандарты. Со временем эти меры контроля также могут позволить нам иметь более гибкие стандарты в таких категориях, как нагота, где культурные нормы очень разные по всему миру, а личные предпочтения различаются”, – подчеркнул разработчик.

Адресация алгоритмической необъективности

“Основной вопрос заключается в том, как мы можем обеспечить то, чтобы наши системы не были предвзятыми. На стыке этики и искусственного интеллекта появляется новая научная область, которая демонстрирует алгоритмическую справедливость, и в этом году мы приступили к работе над этими проблемами. Наша цель – разработать строгую аналитическую структуру и вычислительные инструменты для обеспечения того, чтобы изменения вписывались в четкое определение справедливости”, – анонсирует Цукерберг.

Создание апелляционного процесса

По его словам, в этом году Facebook начал развертывать процесс подачи апелляций.

“Мы начали с разрешения обжаловать решения, в результате которых ваш контент был снят. Теперь мы работаем над расширением этого, чтобы вы могли обжаловать любое решение по отчету, который вы подали. Мы также работаем над тем, чтобы обеспечить большую прозрачность в отношении того, как политика была либо нарушена, либо нет”, – пишет глава соцсети.

Независимое управление и надзор

Цукерберг пришел к выводу, что Facebook не должна в одиночку принимать решения по поводу допустимости того или иного контента.

По его словам, в связи с этим он видит необходимость в создании независимого надзорного органа при Facebook, который бы самостоятельно изучал случаи удаления определенного контента.

Такая комиссия, как ожидается, будет сформирована к концу 2019 года. Кто будет в нее входит, пока неизвестно, однако ее члены будут действовать независимо от команды Facebook.

Решения, принимаемые данной комиссией, будут “транспарантными и обязательными к выполнению”. Это, по мнению Цукерберга, исключит возможность излишнего контроля над контентом со стороны работников соцсети и позволит убедиться, что решения об удалении каких-либо сообщений не принимаются по коммерческим соображениям.

Создание прозрачности и стимулирующих исследований

“Помимо формального контроля, более широкий способ создания подотчетности заключается в обеспечении прозрачности в том, как наши системы работают, поэтому ученые, журналисты и другие эксперты могут проанализировать наш прогресс и помочь нам улучшиться. Мы сосредоточены на двух усилиях: ежеквартальной отчетности о прозрачности и соблюдении требований, а также в предоставлении независимых исследований”, – объяснил глава Facebook.

Совместная работа по регулированию

“Идеальная долгосрочная нормативная база будет сосредоточена на управлении распространением вредного контента посредством активного принуждения. Хорошей отправной точкой было бы требование, чтобы интернет-компании сообщали о распространенности вредного контента на свои услуги, а затем работали над тем, чтобы уменьшить эту распространенность. Как только все основные службы сообщают об этих показателях, мы будем лучше понимать общество, и с какими пределами мы должны работать”, – резюмировал Цукерберг.

Ранее в Facebook активизировали функцию удаления обобщений в приложении Messenger в тестовом режиме. Функция доступна в течение 10 минут после отправки в четырех странах мира: Польше, Литве, Боливии и Колумбии.
16 ноября Фонд Джорджа Сороса “Открытое общество” обвинил Facebook в действиях, которые являются угрозой демократическим ценностям, и клевете против Сороса.