Созданный искусственным интеллектом «некачественный» контент меняет социальные сети, недовольство пользователей растет.

Поток созданного с помощью ИИ «хлама», который он определяет как фальшивые, неубедительные видео и фотографии, создаваемые быстро и массово, теперь кажется неостановимым, поскольку технологические компании в полной мере внедряют искусственный интеллект.

3368 просмотров 0 комментариев
Фото: Би-би-си
Фото: Би-би-си
Отказ от ответственности: переводы в основном выполняются с помощью переводчика AI и могут быть не на 100% точными.

Теодор отчетливо помнит тот "хлам" из контента, сгенерированного искусственным интеллектом, который стал последней каплей.

На фотографии изображены двое худых, крайне бедных детей из Южной Азии.

По какой-то причине, несмотря на юношескую внешность, у них густые бороды.

У одного ребёнка нет рук, а только одна нога.

Другой держит в руках кусок картона с надписью «У него день рождения» и просит поставить лайки под фотографией.

По совершенно необъяснимой причине они сидят посреди оживленной улицы, под проливным дождем, а перед ними стоит именинный торт.

На изображении много очевидных признаков того, что оно было создано с использованием искусственного интеллекта (ИИ).

Однако пост быстро распространился в Facebook и собрал почти миллион лайков и смайликов в форме сердечек.

Затем что-то сломалось в Теодоре.

«Я был ошеломлён».

«Абсурдные изображения, созданные с помощью ИИ, заполонили Facebook и привлекли огромное внимание, при этом никто не задавался вопросом, насколько они правдивы».

«Это было для меня безумием», — говорит 20-летний студент из Парижа.

Вот почему Теодор завел аккаунт на X (ранее Twitter) под названием Insane AI Slop, где начал высмеивать и критиковать контент, вводящий людей в заблуждение.

Другие это заметили, и вскоре его почтовый ящик был завален сообщениями от людей, присылавших ему примеры популярного, так называемого «халтурного» контента, созданного с помощью ИИ.

«Некачественный контент» — это цифровой контент очень низкого качества, массово производимый с использованием искусственного интеллекта, который обычно абсурден, странен и фальшив, и очень быстро распространяется в интернете.

В фильме освещаются привычные темы: религия, армия и бедные дети, совершающие трогательные поступки.

«Дети в странах третьего мира, которые совершают что-то впечатляющее, всегда добиваются успеха».

«Допустим, бедный ребёнок из Африки создаёт невероятную скульптуру из мусора».

«Я думаю, людям это кажется искренним и душевным, поэтому создатели думают: „Отлично, давайте придумаем больше подобных вещей“», — говорит Теодор.

Вскоре его аккаунт набрал более 133 000 подписчиков.

Поток созданного с помощью ИИ «хлама», который он определяет как фальшивые, неубедительные видео и фотографии, создаваемые быстро и массово, теперь кажется неостановимым, поскольку технологические компании в полной мере внедряют искусственный интеллект.

Некоторые из этих компаний заявляют, что начали бороться с определенными видами «некачественного» контента, созданного с помощью ИИ, хотя социальные сети по-прежнему переполнены подобными изображениями и видео.

Всего за несколько лет опыт использования социальных сетей сильно изменился.

Как это произошло и какое влияние это окажет на общество?

И, пожалуй, самое важное: насколько это действительно волнует миллиарды пользователей социальных сетей?

«Третья фаза» социальных сетей

В октябре, во время очередной восторженной речи о результатах компании, Марк Цукерберг, генеральный директор Meta, с радостью заявил, что социальная сеть вступила в третью фазу, которая сосредоточена на применении искусственного интеллекта.

«Первый этап заключался в том, что весь контент создавался друзьями, родственниками и аккаунтами, на которые вы были подписаны напрямую».

«Второй случай произошел, когда мы добавили контент от авторов».

«Теперь, когда искусственный интеллект упростит создание и отбор контента, мы добавим еще один огромный объем контента», — заявил он акционерам.

Компания Meta, управляющая Facebook, Instagram и Threads, не только позволяет публиковать контент, созданный с помощью ИИ, но и предлагает продукты, которые помогают создавать больше подобного контента.

Теперь пользователям по всему миру предлагаются генераторы изображений и видео, а также все более мощные фильтры.

В ответ на запрос BBC о комментарии Мета напомнил о выступлении Цукерберга в январе.

Затем миллиардер заявил, что компания еще активнее внедряет искусственный интеллект, и не упомянул о борьбе с некачественным контентом.

«Вскоре мы станем свидетелями взрыва новых медиаформатов, которые будут более привлекательными и интерактивными и станут возможными исключительно благодаря достижениям в области искусственного интеллекта», — сказал Цукерберг.

Генеральный директор YouTube Нил Мохан в своем блоге, посвященном прогнозам на 2026 год, написал, что только в декабре более миллиона каналов YouTube использовали доступные на платформе инструменты искусственного интеллекта для создания контента.

«Подобно тому, как синтезатор, Photoshop и компьютерная графика (CGI) произвели революцию в сфере звука и визуального выражения, искусственный интеллект станет благом для творческих людей, готовых его принять», — написал он.

В то же время он признал, что растет обеспокоенность по поводу «низкокачественного контента, известного как „хлам“, созданного с помощью искусственного интеллекта».

Он сказал, что его команда работает над улучшением системы поиска и удаления «повторяющегося, низкокачественного контента».

Reuters

Однако он отверг возможность того, что компания выносит суждения о том, что должно быть популярным, а что нет.

Он напомнил, что контент, который когда-то создавался для узкой целевой аудитории, например, ASMR (автономная сенсорная меридианная реакция — ощущение приятного покалывания, щекотки, жжения, вызванное определенными аудиовизуальными стимулами) или прямая трансляция видеоигр, теперь стал мейнстримом.

Согласно исследованию компании Kapwing, занимающейся разработкой искусственного интеллекта, до 20 процентов контента, отображаемого сегодня на новых аккаунтах YouTube, составляют «видео низкого качества, созданные с помощью искусственного интеллекта».

Особенно популярными оказались короткие видеоролики, и, как обнаружил Капвинг, такой контент присутствовал в 104 из первых 500 просмотренных видеороликов на YouTube с нового аккаунта, созданного исследователями.

По всей видимости, основным фактором является доход от авторских прав, поскольку отдельные лица и каналы могут зарабатывать деньги за счет вовлеченности аудитории и просмотров.

Судя по количеству просмотров на некоторых каналах и видеороликах, созданных с использованием искусственного интеллекта, действительно ли аудитория привлекается таким контентом, или же алгоритмы сами решают, что мы смотрим?

Капвинг утверждает, что среди каналов, использующих сгенерированный ИИ контент, наибольшее количество просмотров (2,07 миллиарда) имеет индийский канал Bandar Apna Dost, что, по оценкам, приносит создателям годовой доход около четырех миллионов долларов.

Однако подобный контент также вызывает негативные реакции.

Сегодня под многими вирусными видеороликами, созданными с помощью ИИ, часто можно увидеть лавину гневных комментариев, осуждающих подобный контент.

Гигантские монстры и смертельно опасные паразиты в желудке

Теодор, студент из Парижа, помог разжечь это сопротивление.

Используя своё новообретённое влияние в сети Сюй, он пожаловался на YouTube на поток странных мультфильмов, созданных искусственным интеллектом, которые набирают огромное количество просмотров.

По его мнению, они были тревожными и вредными, а в некоторых случаях он считал, что они предназначены для детей.

Названия видеороликов были примерно такими: «Кошка-мама спасает котенка от смертельно опасных желудочных паразитов», и в них содержались кровавые сцены.

В другом коротком ролике женщина в ночной рубашке ест паразитов и превращается в огромное, злобное чудовище, которое в итоге исцеляет Иисус.

YouTube заявил, что видеоролики были удалены за нарушение правил сообщества.

Они заявили, что «сосредоточены на том, чтобы предоставлять пользователям доступ к высококачественному контенту, независимо от способа его создания», и что они работают над «снижением распространения некачественного контента, созданного с использованием искусственного интеллекта».

BBC

Это явление затрагивает даже, казалось бы, приятные платформы, посвященные образу жизни, такие как Pinterest, где делятся рецептами и идеями дизайна интерьера.

Пользователи настолько разочаровались в потоке «халтуры» контента, сгенерированного ИИ, что компания внедрила новую систему, позволяющую пользователям отказаться от контента, генерируемого ИИ.

Но эта система основана на признании самими пользователями того факта, что изображения их идеального дома были созданы с помощью искусственного интеллекта.

Гнев в комментариях

В моей ленте (и я понимаю, что у всех разные ленты и, следовательно, комментарии) постоянно появляются негативные реакции на «ерунду», созданную с помощью VI.

Похоже, в TikTok, Threads, Instagram и X наметилось некое движение против подобного контента.

Иногда количество лайков под комментариями, критикующими сгенерированную искусственным интеллектом «ерунду», намного превышает популярность самого поста.

Так было и с недавним видео, на котором сноубордист якобы спасает волка от медведя.

Само видео набрало 932 лайка, а комментарий: «Поднимите руку, если вам надоела эта сгенерированная ИИ чушь», получил 2.400 лайков.

Но, разумеется, всё это лишь подпитывает зверя.

Для социальных сетей любое взаимодействие — это хорошее взаимодействие, поскольку крайне важно удерживать пользователей на своих платформах как можно дольше.

Так имеет ли вообще значение, реально ли это потрясающее, трогательное или шокирующее видео в вашей ленте или нет?

Эффект «разложения мозга»

Эмили Торсон, доцент Сиракузского университета в США, изучающая политику, дезинформацию и заблуждения, говорит, что все зависит от того, что люди делают в социальных сетях.

«Если кто-то использует платформу, предлагающую короткие видеоролики исключительно в развлекательных целях, то критерий оценки того, стоит ли что-то смотреть, очень прост – „интересно ли это?“», – говорит она.

«Но если кто-то использует платформу для изучения конкретной темы или для общения с членами сообщества, то контент, созданный с помощью ИИ, будет восприниматься им как гораздо более проблематичный».

На то, как люди воспринимают созданный ИИ «хлам», также влияет способ представления такого контента.

Если что-то преподносится как шутка, это обычно воспринимается именно так.

Но когда создается «ерундовый» контент с целью обмана людей, это может вызвать возмущение.

Хороший пример — видео, созданное с помощью ИИ, которое я недавно видел: невероятно реалистичные кадры в стиле документального фильма о природе, запечатлевшие потрясающую охоту на леопарда.

Комментарии показывают, что некоторые зрители были обмануты, а другие усомнились в подлинности контента.

«Из какого документального фильма это взято?» — спросил один из пользователей.

«Пожалуйста, это единственный способ доказать, что это не создано искусственным интеллектом».

BBC

Алессандро Галеацци из Падуанского университета в Италии занимается исследованием поведения пользователей в социальных сетях и феномена «эхо-камер».

Он говорит, что проверка того, было ли видео создано с помощью ИИ, требует умственных усилий, и опасается, что люди просто перестанут это проверять.

«У меня сложилось впечатление, что поток бессмысленного, низкокачественного контента, создаваемого ИИ, может еще больше сократить продолжительность концентрации внимания людей», — говорит он.

Он различает контент, предназначенный для обмана, и комичный, явно фальшивый «халтурный» контент, созданный с помощью ИИ, например, рыбы в обуви или гориллы, поднимающие тяжести в спортзале.

Но даже подобный, казалось бы, безобидный и юмористический контент может иметь пагубные последствия.

Галеачи говорит о риске так называемого «разложения мозга» — предположении, что наше постоянное воздействие социальных сетей наносит вред нашим интеллектуальным способностям.

«Я бы сказал, что контент, созданный искусственным интеллектом, способствует деградации мозга, заставляя людей быстро потреблять контент, который, как они знают, не только, вероятно, не является правдой, но и, вероятно, не имеет смысла или интереса», — говорит он.

Сокращение числа модераторов

Помимо некачественного контента, создание подобного контента с помощью ИИ может иметь гораздо более серьезные последствия.

Компании Илона Маска, xAI и платформа Xu, недавно были вынуждены изменить свои правила после того, как чат-бот Grok был использован для цифрового «раздевания» женщин и детей в сети Xu.

А после нападения США на Венесуэлу распространились фейковые видеоролики, на которых люди плачут на улицах и благодарят США.

Подобный контент может формировать общественное мнение и создавать впечатление, что действия американцев были более популярны, чем на самом деле.

Аналитики отмечают, что это вызывает особую тревогу, поскольку для многих социальные сети являются единственным источником информации.

Доктор Мани Ахмед, генеральный директор компании OpenOrigins, которая проверяет, созданы ли изображения с участием реальных людей, говорит, что нам нужен новый способ для создателей аутентичного контента доказать подлинность своих видео- и фотоматериалов.

«Мы уже достигли той точки, когда нельзя с уверенностью сказать, что реально, основываясь только на визуальном осмотре», — говорит он.

«Вместо того чтобы пытаться выявлять подделки, нам нужна инфраструктура, которая позволит подлинному контенту публично подтверждать свою аутентичность».

Можно подумать, что этим должны заниматься сами платформы социальных сетей.

Однако многие из них, включая Meta и X, сократили количество модераторов и теперь полагаются на пользователей, которые сами отмечают контент как ложный или вводящий в заблуждение.

Социальные сети без «ерунды»?

Если существующие технологические гиганты в целом позволяют свободно публиковать и распространять «некачественный» контент, будет ли появление новой социальной сети, предлагающей альтернативу без такого контента, созданного ИИ, представлять угрозу для крупных сетей?

Это кажется маловероятным, поскольку обнаружение контента, созданного искусственным интеллектом, становится все более сложной задачей.

Машины больше не могут с достаточной точностью определить, является ли видео или изображение подделкой, и им стало бы еще сложнее субъективно оценить, относится ли тот или иной контент к категории «халтуры».

Однако, если возникает новая социальная сеть и люди предпринимают определенные действия, например, покидают конкретную сеть, это может привести к определенным результатам.

Это напоминает мне о взлете популярности социальной сети BeReal, французского приложения, которое приобрело популярность во время пандемии коронавируса и призывает пользователей показывать себя настоящих, делясь неотфильтрованными селфи в различных ситуациях.

Birial пока не достиг уровня Facebook или Snapchat и, вероятно, никогда не достигнет.

Но это заставило некоторые платформы содрогнуться, а в отдельных случаях и скопировать эту идею.

Возможно, то же самое могло бы произойти, если бы появилась сеть, открыто выступающая против «некачественного» контента, созданного с помощью ИИ.

Но Теодор считает, что битва проиграна и что контент, созданный с помощью ИИ и представляющий собой «ерунду», выживет.

Несмотря на то, что он по-прежнему получает сообщения от примерно 130 000 подписчиков в свой почтовый ящик, он публикует посты все реже и реже и в значительной степени смирился с новой реальностью в интернете.

«В отличие от многих моих последователей, я не являюсь догматическим противником искусственного интеллекта», — говорит он.

«Я против загрязнения интернета низкокачественным контентом, созданным с помощью ИИ для быстрого развлечения и просмотра».

Источник первого изображения: BBC; создано с помощью модели генерации изображений на основе искусственного интеллекта Adobe Firefly.

Подпишитесь на нас в Фейсбук, Твиттер, Instagram, YouTube i Вайбер. Если у вас есть предложение по теме для нас, напишите по адресу bbcnasrpskom@bbc.co.uk.

Бонусное видео: