В последнее время все крупные игроки на рынке генеративных ИИ-технологий ударились в маркировку ИИ-контента — изображений, видео, текста и даже музыки. На картинки и ролики добавляются водяные знаки, в метаинформацию записывается, кто и где этот контент создал, отмечается даже краткое содержание статей, написанное алгоритмами.
Я решил разобраться, почему явная маркировка ИИ-контента набирает такие внушительные обороты, и обнаружил, что это скорее необходимость, вызванная сложившейся на рынке ситуацией, чем забота о конечном пользователе.
ИИ-контент отпугивает аудиторию
Первая причина, по которой крупные компании стараются явно маркировать на своих платформах и сервисах контент, сгенерированный искусственным интеллектом, очень даже банальная — ИИ-контент на сегодняшний день отпугивает аудиторию и снижает общее доверие пользователя к площадке. Учитывая, что крупные компании со всего мира так активно стремятся в сторону ИИ, это звучит как некий парадокс, но сейчас я всё объясню.
Для понимания ситуации предлагаю рассмотреть очень простой пример — представьте, что есть некая социальная сеть, куда пользователи каждый день выкладывают свои фото из отпуска, путешествий, какие-то кадры из повседневной жизни, фото красивых блюд и всё в таком духе. Другие пользователи активно заходят в ленту этой социальной сети, чтобы получить свежий контент — узнать, куда слетали друзья, кто и где отдыхал субботним вечером, какой автомобиль приобрёл дальний родственник.
А теперь представьте, что в ленте этой социальной сети появляются фотографии, сгенерированные искусственным интеллектом — и они никак не промаркированы, подаются как совершенно обычный контент. Отличить генерацию от реальных снимков может быть очень сложно — продвинутые генеративные модели создают «фотографии» с невероятным уровнем детализации и фотореализма даже по очень сложным инструкциям.
Но со временем пользователь, который зашёл посмотреть на фото знакомых, так или иначе начнёт подозревать, что у него в ленте не фото друзей или родственников, а сгенерированные картинки, за которыми стоят нейросети. Тогда у него с огромной долей вероятности резко снизится доверие к этой социальной сети — какой интерес скроллить ленту, напичканную, фактически, рандомными картинками из интернета?
Пользователи хотят прозрачности — им нужно понимать, когда перед ними ИИ-контент, а когда — фото, сделанное человеком. И если крупные сервисы не начнут отмечать «нейрослоп» в поисковой выдаче, ленте новостей, карточках товаров, списке музыкальных треков на стриминговых платформах и прочих площадках, они просто лишатся самого ценного — пользователей, приносящих деньги, напрямую или косвенно.
Впрочем, даже явная маркировка ИИ-контента не является гарантией того, что сервис не загнётся из-за потока «нейрослопа». Думаю, читатели нашего сайта слышали о сервисе генерации видеороликов Sora, который был запущен ИИ-гигантом OpenAI. Сначала у проекта была какая-то запредельная популярность — в месяц релиза платформа зафиксировала свыше одного миллиона активных пользователей. Но довольно скоро онлайн обрушился ровно вдвое, а затем в OpenAI сервис вовсе закрыли — он лишь сжигал деньги компании, но не приносил никакой реальной пользы или прибыли. Потому что аудитории не особо интересно тратить время на ленту сгенерированного алгоритмами контента, даже пусть он очень качественный.
Маркировка как защита от исков
Впрочем, существует и иная, куда более практичная причина, по которой крупные сервисы и платформы остро желают помечать любой контент, сгенерированный искусственным интеллектом. Всё дело в дипфейках, которые в последние годы буквально заполонили социальные сети — при большом желании пользователь может без особого труда сгенерировать забавный ролик, на котором какая-то очень известная личность будет, например, танцевать в сомбреро на берегу океана. Это, безусловно, вызовет общественный резонанс, шумиху в интернете, да и реальному человеку, вероятно, будет не очень приятно, что его внешность используют для подобных шуток.
Но проблема ещё и в том, что сгенерировать можно не только забавные ролики, но и что-то куда более острое, противоречивое или даже незаконное. Например, пару лет назад в сети часто возникали дипфейки с политическим подтекстом, якобы снятые в США, которые было невозможно отличить от обычных снятых на камеру смартфона видео. Естественно, это вызвало бурю негодования в интернете, так как многие действительно поверили, что тот или иной известный человек именно это и сказал — всё же генеративные ИИ довольно точно воспроизводят черты лица, да и голос сгенерировать, имея примеры, не очень трудно. Естественно, подобные ролики или изображения способны существенно навредить репутации компании, известной личности или политического деятеля.
Чтобы таких ситуаций не возникало, подавляющее большинство генераторов видео активно борются с дипфейками, вводят различного рода запреты на генерацию контента (хотя, конечно, многие запреты алгоритмов рано или поздно удаётся обойти), тем самым перекладывая ответственность на пользователей. И, конечно, весь графический контент маркируют водяными знаками (как видимыми, так и вшитыми, которые так просто не стереть), дабы в случае чего его можно было легко идентифицировать и удалить.
Новый глобальный стандарт
Вероятно, ни у кого нет сомнений относительно того, что ИИ-технологии и сгенерированный алгоритмами контент в обозримом будущем никуда не денется — это новая реальность, с которой стоит смириться. И в правительстве многих стран это тоже прекрасно понимают, принимая достаточно серьёзные меры в отношении ИИ-контента на законодательном уровне. Например, в Европейском союзе ещё в 2024 году приняли AI Act — это новый закон, который обязует компании маркировать абсолютно весь deepfake-контент, будь то видео, аудио или изображения, а также помечать сгенерированные искусственным интеллектом тексты, если они выпускаются в формате информационных публикаций.
В Испании на базе AI Act решили выпустить свою более «хардкорную» версию закона — здесь компании, которые не отметили ИИ-контент, планируют штрафовать на 7% от годового оборота (до 35 миллионов евро). По мнению местных властей, это поможет в борьбе с дипфейками и дезинформацией, которая генерируется искусственным интеллектом.
Похожий подход применяется в Китае — закон, который вступил в силу в ноябре 2025 года, требует от компаний, официально работающих на местном рынке, в обязательном порядке маркировать любой ИИ-контент посредством водяных знаков и метаданных (вшитой в файл информации, по которой можно понять, что это за контент и кем он создан). Более того, закон предусматривает серьёзную ответственность за немаркированный ИИ-контент, которую несёт платформа.
Примечательно, что в США, которые являются одним из лидеров на рынке искусственного интеллекта, до сих пор нет единого федерального закона, который бы вынуждал компании маркировать ИИ-контент. Безусловно, в некоторых штатах реализованы локальные законы, связанные с дипфейками и использованием ИИ в рекламных кампаниях, но в большинстве своём это очень узконаправленные ограничения. Впрочем, с огромной долей вероятности можно сказать, что на американском рынке похожие законы рано или поздно тоже разработают.
Соответственно, у компаний, занимающихся ИИ-технологиями, банально нет выбора — они не могут уйти с рынка ЕС и Китая, так как это огромная аудитория платежеспособных пользователей. А если уж маркировать контент для этих двух регионов, то почему бы не маркировать его по всему миру, обезопасив себя от нарушений в случае принятия новых законов в других странах мира в обозримом будущем.
Произошла парадоксальная ситуация
Как я уже говорил в другой статье на тему искусственного интеллекта, на этом рынке без забавных парадоксов не обойтись. В течение прошлых трёх-пяти лет крупнейшие компании мира бежали впереди паровоза, пытаясь втиснуть ИИ во все свои сервисы, продукты и платформы, так как были абсолютно уверены в том, что за этим будущее.
А теперь эти же компании в спешке делают алгоритмы и инструменты маркировки всего ИИ-контента, чтобы не отпугнуть свою же аудиторию, уставшую от «нейрослопа», и не попасть в суд с многомиллионным штрафом за дипфейк, который разлетелся по сети.



