Обычно мы заходим в интернет чтобы пообщаться, почитать что-то интересное, послушать музыку или узнать свежие новости. Посмотреть на смешных котиков в конце концов. Но где-то в глубине за всем этим прячется мрачная и страшная сторона интернета. И самого человечества.
Ежедневно пользователи со всего мира загружают на платформы жестокий, шокирующий и незаконный контент. Это фото и видео с насилием, преступлениями, казнями, терроризмом, издевательствами над людьми и животными.
Блокировать такой контент помогают модераторы — десятки и сотни тысяч человек, работа которых — отсеивать нежелательный контент, чтобы он не попал в ленты пользователей.
Большинство из нас, вероятно, никогда не задумывалось о существовании такой работы. Модерацию часто называют худшей профессией в сфере технологий. И, возможно, это вообще одна из самых тяжелых работ на свете.
Бесконечный поток кошмара
Сегодня многие пользователи требуют от технологических компаний как можно быстрее удалять шокирующие и опасные материалы. И это понятно: даже взрослого человека такой контент может привести в ужас и выбить из колеи. А ребенку такое видео и вовсе может нанести серьезную травму.
Многие думают, что от ужасающего контента нас защищает искусственный интеллект. Но нет, в значительной степени это по-прежнему люди.
Их работа — просматривать и, если нужно, удалять опасный контент. Иногда это видео или посты, на который пожаловались другие пользователи. Иногда — контент, который алгоритмы ИИ пометили как спорный. Несмотря на многочисленные исследования и инвестиции в ИИ, пока что решающее слово по-прежнему остается за модераторами.
Модераторы часто нанимаются сторонними компаниями, хотя работают с контентом, размещенным в крупных социальных сетях, включая Instagram, Facebook (принадлежат компании Meta, признанной экстремистской и запрещенной на территории РФ), TikTok. Часто модераторов заставляют подписывать соглашение о неразглашении. Но в последние годы мир стал узнавать истории этих людей. Некоторые из них подали в суд из-за того, что работа разрушила их психическое здоровье.
Выяснилось, что условия работы модераторов были очень тяжелыми. Компании никак не компенсировали психологические трудности, с которыми сталкивались их сотрудники. Более того, работодатели относились к ним с пренебрежением, заставляя выполнять строгие квоты и контролируя даже перерывы на туалет. Модераторы были вынуждены сутками просматривать ужасные видео, не имея свободной минуты, чтобы оправиться от ужасных кадров.
ПТСР, депрессия и угрозы
Что делать, когда люди отказываются работать на такой травмирующей работе да еще и в ужасных условиях? У корпораций есть ответ на этот вопрос. Идти туда, где у людей нет выбора.
Аутсорсинговые компании открылись в таких странах как Кения, Индия, Филиппины. В бедных странах у многих людей мало возможностей для заработка, и они готовы браться за любую работу. Вскоре модераторы начали сталкиваться с последствиями — тревожностью, депрессиями, эмоциональным истощением.
Бывшие модераторы контента из Кении подали иск против аутсорсинговой компании Samasource Kenya. У более чем 140 человек диагностировали тяжелое посттравматическое стрессовое расстройство, вызванное воздействием шокирующего контента в социальных сетях, включая убийства, самоубийства, сексуальное насилие над детьми и терроризм.
Одна из сотрудниц рассказала экспертам-психиатрам, что когда она работала над видео с особо жестоким убийством, она заплакала и отошла от своего своего рабочего места, пытаясь прийти в себя. Но руководитель группы последовал за ней и попросил вернуться к работе. Также ей пришлось работать с видео казней без суда во время гражданской войны в Эфиопии. У женщины появились мигрени и кошмары. Раньше она была «приятной и счастливой», теперь «она грустит и плачет большую часть времени даже без повода», — говорится в психиатрической оценке.
Некоторые молодые модераторы раньше не смотрели сексуальный контент, и извращения и насилие, которое им приходилось проверять, было их первым знакомством с таким контентом. Некоторые из них стали нечувствительными или начали испытывать отвращение к своим своимсексуальным партнерам; другие стали зависимы от секса и порнографии. Религиозные модераторы стыдились того, что им приходилось смотреть сексуальный контент.
Некоторые модераторы и вовсе оказывались в физической опасности. Например, модераторам из Эфиопии было поручено обрабатывать контент с войны в их родной стране.
Они стали подвергаться нападкам со стороны одной из воюющих сторон и получили угрозы расправы, если они продолжат удалять посты из одной из радикальных групп.
Надежда на искусственный интеллект?
Кажется, что эта работа настолько тяжелая эмоционально, что ее не должен выполнять ни один человек. Возможно, это тот случай, когда искусственный интеллект мог бы принести огромную пользу. Специалисты активно ведут работу над автоматизацией этого процесса, и совершенствуют инструменты ИИ. Некоторые из разработчиков считают, что уже скоро ИИ сможет полностью заменить людей в этой сфере.
Но уверены в этом далеко не все. Доктор Пол Рейлли, старший преподаватель по медиа и демократии в Университете Глазго, настроен скептически:
«ИИ может быть довольно грубым, бинарным способом модерирования контента. Это может привести к чрезмерному блокированию вопросов свободы слова. И, конечно, это может упустить нюансы, которые могли бы определить модераторы-люди».
Представители крупнейших интернет-платформ обещают создать благоприятную рабочую среду для модераторов, предоставлять им психологическую помощь и создавать программы, которые будут поддерживать их благополучие. Например, размывать графический контент и улучшать предварительную фильтрацию контента искусственным интеллектом.
Многие модераторы ценят свою работу, и гордятся тем, что защищают пользователей платформ от ужасных сцен. Но они призывают ввести человечные стандарты и признать трудности этой работы. Создать профсоюзы, ввести обучение и протоколы по охране труда и технике безопасности, как в любой другой профессии.
Действительно, ограничения шокирующего контента связаны со сложной темой свободы слова. На многие из возникающих вопросов нам еще предстоит искать ответы. Какая информация распространяется ради разжигания ненависти, а какая, наоборот, осуждает насилие и является общественно важной?
Даже если мы сможем удалить шокирующий контент из интернета, это не значит, что мы удалим его из жизни.
К сожалению, это до сих пор часть нашего мира. Военные преступления, жестокость властей и полицейский беспредел, нарушения прав человека, казни невинных людей — все это происходит прямо сейчас.
Не знать об этом — значит формировать идеализированную и нереалистичную картину мира. Закрываться от страшной и негативной информации иногда может даже быть опасно.
Сегодня не только интернет-платформам, но и каждому из нас приходится искать баланс. Как сохранить психическое здоровье, но оставаться информированным и не закрывать глаза на беды других людей? Как не выгореть, но и не очерстветь? Похоже, искать ответы на эти вопросы нам придется еще долго.
Автор: Екатерина Радчикова