Ещё пару лет назад сгенерированное нейросетью изображение можно было распознать за секунду — шесть пальцев на руке, расплывшийся текст на вывеске, глаза, глядящие в разные стороны. Сейчас ситуация изменилась до неузнаваемости. Midjourney, вышедшая на пятую версию движка, научилась выдавать настолько реалистичные кадры, что даже опытные фотографы порой не могут с ходу отличить синтетическую картинку от живого снимка. Поддельные фото льются рекой в социальных сетях, новостных лентах и на стоковых площадках, а доверие к визуальному контенту тает на глазах. Но инструменты для проверки всё-таки существуют, и разобраться в них стоит каждому, кто дорожит подлинностью информации.
Почему вообще стоит проверять изображения?
Вопрос кажется риторическим, однако львиная доля пользователей до сих пор принимает любую красивую картинку за чистую монету. Дело в том, что сгенерированный контент уже давно вышел за рамки безобидных иллюстраций к постам. Фейковые фотографии политиков, несуществующие репортажи из зон бедствий, поддельные товарные снимки на маркетплейсах — всё это бьёт и по репутации, и по кошельку. К слову, в 2023 году вирусное фото «Папы Римского в пуховике Balenciaga» облетело планету за считаные часы, и далеко не все догадались, что перед ними — продукт Midjourney. А ведь подобные махинации с визуалом могут обернуться вполне реальными последствиями: от биржевой паники до судебных исков. Тем более что юридическая база в отношении ИИ-контента пока находится в зачаточном состоянии, и ответственность за распространение фейка часто ложится именно на того, кто его опубликовал.
Визуальные признаки генерации в Midjourney
Начать стоит с самого доступного метода — внимательного осмотра. Да, нейросеть стала умнее, но подводные камни всё ещё всплывают, если знать, куда смотреть. Первое, на что стоит обратить внимание, — руки и пальцы. Midjourney пятой версии справляется с ними заметно лучше предшественниц, но в сложных ракурсах проблемы остаются: фаланги могут сливаться, ногти — выглядеть размазанными, а количество пальцев изредка всё ещё «гуляет» между четырьмя и шестью. Второй щепетильный момент — текст и надписи. Любые буквы, цифры, вывески на заднем плане нейросеть по-прежнему воспроизводит с ошибками: символы перетекают друг в друга, слова содержат несуществующие буквы, а шрифт «плывёт» при увеличении.
Отдельно стоит упомянуть фон. Довольно часто именно задний план выдаёт синтетику: деревья без логичной структуры ветвей, окна зданий разного размера на одном этаже, перила, уходящие в никуда. И ведь эти нюансы бросаются в глаза только при скрупулёзном рассмотрении — на маленьком экране смартфона всё кажется идеальным. Ещё один тревожный сигнал — чрезмерная «глянцевость» кожи на портретах. Midjourney тяготеет к эстетике журнальной обложки: поры сглажены, освещение безупречно равномерное, а блики на зрачках порой выглядят одинаково на обоих глазах, чего в реальной фотографии практически не бывает. Но полагаться лишь на глаз — затея неоднозначная. Ведь с каждым обновлением модели этих артефактов становится меньше.
Все топовые нейросети в одной подписке! 🚀
Устали оплачивать десятки сервисов отдельно и постоянно включать VPN? Появилась платформа, которая объединяет более 90 передовых ИИ в одном окне. Пишите тексты с новейшими версиями GPT и Claude, создавайте шедевры в Midjourney и генерируйте видео в Sora и Kling. Тексты, изображения, видео и музыка — всё работает на любых устройствах без «танцев с бубном».
Попробуйте бесплатно прямо сейчас! Переходите по ссылке и получите бонусные токены для старта 👉 https://clck.ru/3RNCRL
Метаданные и EXIF — первый технический рубеж
Задача не из лёгких. Настоящая фотография, снятая камерой или телефоном, почти всегда содержит метаданные EXIF: модель устройства, выдержку, ISO, фокусное расстояние, GPS-координаты. У сгенерированного изображения ничего подобного нет. Стоит загрузить подозрительную картинку в любой просмотрщик EXIF — например, Jeffrey’s EXIF Viewer или встроенный инструмент в свойствах файла на компьютере — и проверить, что скрывается «под капотом». Если метаданных нет совсем или в поле «Software» указано что-то вроде «Midjourney» или «Discord», вывод напрашивается сам собой.
Впрочем, есть ложка дёгтя. Метаданные элементарно удаляются при загрузке в социальные сети, мессенджеры и даже при простом пересохранении файла. Instagram, Telegram, ВКонтакте — все они обрезают EXIF автоматически. Так что отсутствие метаданных само по себе ещё не доказательство генерации. Это лишь повод копнуть глубже. А вот наличие полного набора EXIF с указанием конкретной камеры (например, Canon EOS R5 с объективом 85 мм) — довольно весомый аргумент в пользу подлинности. Хотя и тут нельзя не упомянуть, что особо изобретательные фальсификаторы научились «вшивать» поддельные метаданные с помощью специализированных скриптов.
Онлайн-детекторы ИИ-изображений
Сервисы для распознавания синтетических картинок — настоящий спасательный круг для тех, кто не горит желанием разглядывать пиксели вручную. Один из самых известных — Hive Moderation. Этот инструмент анализирует загруженное изображение и выдаёт процент вероятности генерации, причём отдельно для каждой популярной модели: Midjourney, DALL·E, Stable Diffusion. Точность у Hive довольно высокая — по независимым тестам, около 95–98 процентов для изображений Midjourney версий 4 и 5. Работает бесплатно, интерфейс интуитивный, результат появляется за несколько секунд.
Следующий важный инструмент — AI or Not (aiornot.com). Сервис заточен именно под бинарный ответ: сгенерировано или нет. Он хорошо справляется с портретами и пейзажами, хотя иллюстрации в стилизованной манере (например, «в стиле Ван Гога») иногда ставят его в тупик. К тому же стоит обратить внимание на Illuminarty — этот детектор не просто даёт вердикт, а показывает тепловую карту: подсвечивает области, которые с наибольшей вероятностью были сгенерированы. Это удобно в ситуациях, когда реальное фото лишь частично отредактировано нейросетью. Ну и, конечно же, нельзя пройти мимо Hugging Face, где размещено несколько открытых моделей-классификаторов. Порог входа чуть выше — интерфейс не такой «дружелюбный», зато и гибкости больше.
Обратный поиск по изображению
Старый добротный метод, который многие незаслуженно игнорируют. Google Images, Yandex Images, TinEye — все они позволяют загрузить картинку и посмотреть, где она встречалась раньше. Если снимок впервые появился на Reddit или в Discord-канале, посвящённом генеративному искусству, — подозрения крепнут. А вот если тот же кадр обнаруживается в портфолио конкретного фотографа с привязкой к дате съёмки, месту и камере — скорее всего, перед вами настоящая работа.
Нужно отметить, что Yandex в ряде случаев справляется с обратным поиском лучше Google: он точнее находит визуально похожие, но не идентичные изображения. Это пригодится, когда генерацию слегка обработали фильтрами, обрезали или зеркально отразили. К тому же некоторые площадки — например, Behance или ArtStation — уже маркируют работы тегом «AI generated», и при обратном поиске вы можете наткнуться именно на такую помеченную версию. Безусловно, метод не идеален: совершенно новое изображение, нигде ранее не опубликованное, просто не найдётся в индексе. Но в связке с другими инструментами обратный поиск вносит серьёзную лепту в расследование.
Как работает C2PA и встроенная маркировка?
Буквально пару лет назад о стандарте C2PA знали единицы, а сегодня он на слуху у всего технологического бомонда. Суть проста: C2PA (Coalition for Content Provenance and Authenticity) — это протокол, встраивающий в файл цифровой «паспорт», который фиксирует всю цепочку создания и редактирования контента. Камера записала снимок — в метаданных появилась подпись. Фото обработали в Photoshop — добавилась ещё одна отметка. Сгенерировали картинку в Midjourney — движок оставил свой маркер.
С конца 2024 года Midjourney начала внедрять невидимые водяные знаки (так называемые steganographic watermarks) в свои изображения. Проверить их можно через сервис Content Credentials (contentcredentials.org), разработанный Adobe совместно с партнёрами. Загружаете файл — получаете полную историю: когда, кем и с помощью какого инструмента он создан. Разумеется, на сегодняшний день система далека от совершенства. Водяной знак можно «сбить» серьёзной обработкой — конвертацией формата, многократным сжатием, наложением шума. И всё же это самый перспективный путь верификации. Тем более что к стандарту подключаются всё новые игроки: Google, Microsoft, Leica, Nikon.
Стоит ли доверять одному инструменту?
Короткий ответ — нет. Ни один детектор не даёт стопроцентной гарантии. Это связано с тем, что генеративные модели обновляются быстрее, чем классификаторы успевают к ним адаптироваться. Сегодня Hive уверенно ловит Midjourney v5, а завтра выходит v6 с другой архитектурой шума — и точность проседает до 80 процентов. Кроме того, существует целая экосистема инструментов «анти-детекта»: фильтры, добавляющие в сгенерированное изображение шум, имитирующий матрицу реальной камеры, скрипты для подмены метаданных, утилиты, «перерисовывающие» картинку через второй проход нейросети.
Именно поэтому скрупулёзный подход предполагает комбинацию методов. Сначала — визуальный осмотр: руки, текст, фон, симметрия бликов. Затем — проверка EXIF. После этого — загрузка в два-три онлайн-детектора для перекрёстной верификации. И, наконец, обратный поиск по изображению. Если три из четырёх этапов указывают на генерацию — вероятность синтетического происхождения крайне высока. А вот если детекторы противоречат друг другу, а визуальных артефактов не видно, — тут стоит задуматься и, возможно, связаться с автором напрямую.
Практический алгоритм проверки
Допустим, вам попалась подозрительная фотография в новостной ленте. С чего начать? С самого простого — приблизить изображение до максимума и внимательно рассмотреть мелкие детали: украшения, пуговицы, волосы на границе с фоном, надписи на заднем плане. Если хоть что-то выглядит «не так» — переходим ко второму шагу. Скачиваем картинку (а не делаем скриншот — это важно, ведь скриншот уничтожит остатки метаданных) и проверяем EXIF. Пусто? Не критично, но подозрительно.
Далее загружаем файл на Hive Moderation и AI or Not. Если оба сервиса показывают вероятность генерации выше 90 процентов — картина вырисовывается довольно чёткая. Но если результат колеблется в районе 50–70 процентов, не стоит торопиться с выводами. Параллельно запускаем обратный поиск: Yandex, Google, TinEye. Обнаружилась ли эта картинка на профильных форумах по генеративному искусству? Есть ли у неё «близнецы» — похожие по композиции, но отличающиеся деталями (типичный признак генерации по одному промпту с разным seed)? Ну, а если файл свежий и нигде не индексирован — последний рубеж: Content Credentials. Даже отсутствие водяного знака C2PA — косвенный сигнал, что снимок не прошёл через «легальную» камеру или редактор.
Нюансы проверки стилизованных изображений
С фотореалистичными генерациями всё более-менее понятно — детекторы заточены именно под них. Но Midjourney ведь умеет создавать и стилизованные работы: акварель, масло, аниме, пиксель-арт. И вот тут начинаются сложности. Дело в том, что нейросеть, обученная на фотографиях, при генерации «живописных» работ оставляет совсем другие следы — и классификаторы, натренированные на фотореализме, их пропускают. Hive, к примеру, на стилизованных картинках выдаёт заметно больше ложноотрицательных результатов.
Что же делать? В подобных случаях на первый план выходит контекстный анализ. Откуда взялась картинка? Кто автор? Есть ли у него портфолио с другими работами в том же стиле? Живой художник, как правило, публикует процесс: этапы наброска, промежуточные варианты, фотографии мольберта или планшета. У генерации же «процесса» нет — есть лишь готовый результат, появившийся из ниоткуда. Впрочем, некоторые авторы прямо указывают «made with Midjourney» — и это, пожалуй, самый честный способ маркировки. Да и этически верный.
Что ждёт нас дальше?
Гонка между генераторами и детекторами напоминает вечное противостояние щита и меча. С одной стороны, нейросети будут выдавать всё более безупречные изображения — без артефактов, с корректными руками, реалистичным текстом и идеальными метаданными. С другой — растёт и арсенал проверяющей стороны: нейросетевые классификаторы нового поколения, блокчейн-верификация авторства, обязательная маркировка ИИ-контента на законодательном уровне (Евросоюз уже движется в этом направлении с AI Act). К тому же крупные платформы — от Getty Images до Adobe Stock — вводят жёсткие внутренние политики по маркировке синтетического контента, и этот тренд будет только крепнуть.
Навык распознавания сгенерированных изображений — это новая грамотность, сравнимая по важности с умением проверять источники новостей. Буквально десятилетие назад обыватель верил каждой строчке в газете, а сегодня даже школьник знает, что стоит сверить информацию хотя бы в двух независимых источниках. С визуальным контентом всё идёт ровно к тому же. Не стоит гнаться за одним «волшебным» инструментом — гораздо разумнее освоить весь арсенал и применять методы в связке. Тогда ни одна, даже самая изящная генерация Midjourney, не введёт в заблуждение. Удачи в этом по-настоящему важном деле — цифровая честность того стоит.

