Соцсети умиляются — на видео случайно попал момент, как собака спасает ребенка от падающего шкафа, благородно закрывая его своим телом. Вот только этот ролик — один из тысяч подобных трогательных роликов с миллионами просмотров и лайков — сгенерирован искусственным интеллектом.
СМИ массово публикуют видео снежного апокалипсиса на Камчатке: сугробы поднимаются выше домов, и дети скатываются на санках и лыжах с гигантских горок прямо из окон. «Когда снег растает, он вызовет наводнение?!» — переживают комментаторы. «Зато не нужно платить за горнолыжный курорт» — подбадривают другие. Правда, любой житель Камчатки подтвердит, что там нет таких девятиэтажек из-за сейсмоопасности.

«Ты такая красивая и уникальная», «Я хочу на тебе жениться» — пишут сотни пользователей под постами ИИ-моделей. Причем верить в реальность девушек поклонникам не мешают даже такие особенности, как наличие двух голов (слабонервным не смотреть).
Интернета, каким мы его знали, больше нет. И общество явно оказалось к этому не готово.
Давайте обсудим, каким стало наше инфополе сегодня, почему эти изменения опасны, и как мы можем им противостоять.
Когнитивная перегруженность и ИИ-слоп
В последнее десятилетие мы постоянно чувствуем себя перегруженными информацией. Миллионы сайтов, бесконечные ленты социальных сетей, кричащая реклама, постоянные уведомления и потоки сообщений формируют среду, в которой мозг оказывается под непрерывной нагрузкой.
Но в последние годы к этому добавилась новая волна контента, огромная часть которого — это ИИ-слоп (AI slop). Так называют созданный с помощью ИИ контент, которому явно не хватает качества или смысла. Скорость и количество важнее содержания — вместо того, чтобы придумывать что-то особенное, производителям такого контента проще загрузить миллион видео и надеяться, что что-то выстрелит. Реальные люди, которые стараются качественно подбирать информацию, теряются в этом потоке. Некоторые даже предполагают, что ИИ-слоп поможет людям победить интернет-зависимость, потому что сидеть в сети станет настолько неприятно, что люди вернутся в реальный мир.

При словах «цифровой мусор» или ИИ-слоп обычно вспоминается что-то вроде брейнрот-контента (от англ. brainrot — «гниение/разложение мозга»). Это интернет-контент крайне низкого качества — такой как бессмысленные короткие видео, которые вызывают привыкание. Например, сюда можно отнести тик-ток сериалы про антропоморфных котов или Балерину Капучино.

Но проблема гораздо шире и глубже. ИИ-контент проникает в статьи, результаты поиска, искусство, музыку, книги, социальные сети.
И увы, за весь этот некачественный контент, о котором мы даже не просили, мы платим нашей природой и будущим планеты.
Стремительно разрастаются центры обработки данных, где размещены серверы ИИ. Для их работы нужны редкие полезные ископаемые, добыча которых часто приводит к разрушению и загрязнению природы. А еще они производят опасные электронные отходы.

Кроме того, они потребляют огромное количество электроэнергии, что приводит к выбросам парниковых газов, вызывающих изменение климата. А еще дата-центры являются крупными потребителями водных ресурсов, которые и так сильно истощены во многих регионах.
Читайте также: Выпить планету до капли: как ИИ истощает водные ресурсы
Чему теперь верить?
Мы все больше полагаемся на ответы ИИ — теперь готовые короткие сводки от нейронок автоматически всплывают даже в поисковиках. Это отучает людей от более глубокого поиска и сравнения информации из разных источников. И далеко не всегда эти ответы точны и правдивы. ИИ может галлюцинировать, поддакивать и льстить пользователю в ущерб точности и многосторонности ответа.
Да и сайты теперь — не гарантия безопасности. Уже сегодня на некоторых популярных сайтах более половины длинных постов созданы ИИ. И этот непроверенный контент часто путает и дезинформирует людей. Например, в поисковиках выпадают фотографии несуществующих грибов, и специалисты опасаются, что отличить съедобные грибы от несъедобных теперь будет сложнее.
Под ударом оказались и тематические сайты, которые публикуют статьи реальных пользователей. Вместо привычного потока текстов, которые получает редакция, модераторов стали забрасывать ИИ-статьями. Они не справляются с таким количеством заявок, и статьи реальных людей теряются в этом потоке.

ИИ-контент проникает повсюду.
Музыкальные платформы заполонили ИИ-песни. Они набирают миллионы прослушиваний, оказываются на вершинах музыкальных чартов и даже звучат по телевидению. И многие слушатели даже не подозревают, что их любимый исполнитель — не человек.
Соцсети наполнились профилями несуществующих людей. Иногда это просто невероятно красивые люди, которые всегда выглядят идеально. Такие модели могут «работать» круглосуточно, потрясающе смотрятся в любой одежде и за одну секунду могут продемонстрировать, как очередной чудо-крем исцеляет морщины или акне.

Криэйторы также создают моделей с особенностями, например, витилиго, альбинизмом или протезами. Многие пользователи искренне верят, что это реальные люди, и выражают ИИ-моделям свое восхищение и поддержку.
К сожалению, такие модели не создают репрезентацию особенностей внешности и здоровья, а наоборот, подкрепляют нереалистичные стандарты красоты и забирают работу у реальных людей.

Большинство создателей контента никак не помечают ИИ.
Многие пользователи уже сегодня не могут отличить работу нейросети от реальности, и скоро эта грань полностью сотрется. Это создает огромные возможности для мошенничества. На смену душещипательным историям о принятии себя могут прийти истории о больных детях и срочных сборах денег. Своим контентом беспринципные мошенники могут дискредитировать реальные благотворительные проекты. А мы начнем получать максимально реалистичные поддельные видео и голосовые от родственников, попавших в беду и нуждающихся в деньгах.
Мы можем посмеиваться с людей, которые перевели деньги Брэду Питту и Дженнифер Энистон (которые, конечно, оказались фейковыми), но на каждого из нас найдется мошенническая схема, перед которой будет очень сложно устоять.
К тому же рост числа дип-фейков еще больше усугубляет проблему недостоверности, которая и так остро стоит перед нами в эпоху постправды.
Больше эмоций, ненависти и поляризации
Как выделиться и зацепить ускользающее внимание пользователя в бесконечном потоке контента? Один из приемов — постоянно «повышать ставки», добавляя драмы и хайпа. Такое происходило и раньше, но сейчас усилилось в разы. Ведь теперь не нужно искать громкую новость, придумывать семейную драму для сторис или ломать голову над кликбейтным заголовком — все пугающие или душещипательные истории можно сгенерировать за несколько секунд.
Апофеоз такого подхода — рейдж-бейтинг. Так называют публикацию заведомо спорного контента, с целью спровоцировать у людей острую негативную реакцию. Это заставляет аудиторию взаимодействовать с контентом, увеличивая трафик и принося доход от монетизации или рекламы.
Рейдж-бейт может приобретать форму непопулярных мнений («хот-тейков») или заведомо недостоверной информации (фейков). Эффект усугубляется современными алгоритмами социальных сетей, ведь они отдают приоритет контенту, вызывающему большую вовлеченность пользователей. Психологи отмечают, что постоянное потребление рейдж-бейта может негативно сказываться на ментальном здоровье, усиливая ощущения тревоги и способствуя эмоциональному выгоранию.

Но рейдж-бейтинг не просто бесит — он может быть опасен.
Например, он усугубляет проблему эхо-камер — явления, когда интернет-пользователи получают контент от определенной группы источников, теряя связь с другими людьми и реальностью. Из-за алгоритмов персонализации и радикализации мнений пользователи оказываются в изолированном информационном поле, где подвергаются воздействию только той информации, которая подтверждает их существующие предпочтения и убеждения. Это снижает уровень доверия в обществе и приводит к политической поляризации и трайбализму.
Эффект эхо-камер не просто сужает мышление, он может вести к реальным конфликтам в жизни и напрямую влияет на то, что теперь нам бывает очень сложно разговаривать с людьми со взглядами, которые отличаются от наших.
Эффективность рейдж-бейтинга в привлечении аудитории создает стимулы для распространения ксенофобских материалов и языка ненависти, укрепления предрассудков, основанных на принадлежности человека к той или иной группе. Мы можем оказаться в одном шаге от погромов, вызванных фейковыми новостями.
Но как ИИ влияет на самого себя? Ученые заметили, что если генеративные модели обучаются на данных, созданных другими нейросетями, они начинают деградировать. Уже на пятом цикле «самообучения» ИИ-ответы становятся заметно хуже, а к девятому — полностью теряют смысл. Алгоритм засоряет сам себя и перестает распознавать даже базовые закономерности. Это особенно опасно, учитывая, что уже сегодня огромная часть контента создается нейросетями.
Безусловно, ИИ делает массу полезных вещей, помогает науке и медицине, упрощает работу многим людям. Но вместе с этим нам нужно осознать, что мы попали в новую информационную реальность, к которой наше общество не готово.
Сегодня нам как никогда прежде нужно развивать критическое мышление, привыкать опираться на проверенные источники информации, не поддерживать недобросовестных создателей контента и учить близких, детей и самих себя цифровой гигиене.
Автор: Екатерина Радчикова