Ещё пару лет назад сама идея генерации картинок по текстовому описанию казалась чем-то из разряда научной фантастики, а сегодня нейросети выдают результаты, от которых у профессиональных иллюстраторов порой перехватывает дыхание. Midjourney среди прочих инструментов занимает особое место — ведь именно этот сервис первым показал массовой аудитории, что машина способна творить не просто «картинки», а настоящий визуальный арт. Однако у новичка, впервые открывшего интерфейс, глаза разбегаются: версий несколько, параметры у каждой свои, а разница в результате бывает колоссальной. Поэтому перед тем, как вводить первый промт, стоит разобраться, чем же одна модель отличается от другой и какую выбрать под конкретную задачу.
Зачем вообще менять версию модели?
Казалось бы, логика проста: бери самую свежую и работай. Но не всё так однозначно. Дело в том, что каждая новая версия Midjourney — это не просто «улучшение» предыдущей, а зачастую совершенно иной подход к интерпретации текста и построению изображения. Одна модель тяготеет к фотореализму, другая лучше справляется с абстракциями, третья выдаёт потрясающую стилизацию под живопись маслом. А ведь ещё существуют экспериментальные ответвления — Niji для аниме-стилистики, например. И получается, что «лучшей» модели не существует в принципе. Есть подходящая под задачу.
К тому же старые версии никуда не делись. Midjourney сохраняет доступ к предыдущим моделям через параметр —v, и многие опытные пользователи сознательно откатываются на ранние итерации ради специфического «сырого» эффекта, который новые алгоритмы уже не воспроизводят. Это немного похоже на выбор плёночного фотоаппарата вместо цифрового — технически устаревший инструмент, но атмосфера совершенно другая.
Версии с первой по третью: где всё начиналось
Первая версия Midjourney появилась в феврале 2022 года, и результат, мягко говоря, впечатлял далеко не всех. Изображения получались размытыми, с характерными артефактами, а лица людей превращались в нечто из ночных кошмаров. Но была в этом своя изюминка — та самая «нейросетевая эстетика», которую потом начали копировать дизайнеры и арт-директоры. Вторая версия, вышедшая буквально через пару месяцев, подтянула детализацию и научилась чуть лучше работать с композицией. Впрочем, до реализма ей было как до Луны пешком.
Все лучшие нейросети мира теперь в твоём кармане! ⚡
Тексты, топовое видео, картинки и аудио. Самые мощные версии GPT, Claude, Midjourney, Sora, Kling и еще 90+ ИИ-моделей собраны в одном месте. Работает невероятно быстро: через удобный сайт или прямо в Telegram. Больше никаких блокировок, VPN, иностранных карт и переплат.
Жми на ссылку ниже и забирай свои бесплатные генерации для тест-драйва платформы 👉 https://clck.ru/3RNCRL
Третья версия стала первым по-настоящему заметным шагом вперёд. Вот где бросалось в глаза качество: текстуры стали плотнее, цветовые переходы — мягче, а общая «читаемость» изображения выросла в разы. Именно на V3 львиная доля пользователей впервые осознала, что перед ними не просто игрушка, а серьёзный рабочий инструмент. Нужно отметить, что третья модель всё ещё довольно слабо понимала сложные промты — нанизывание деталей приводило к хаосу на картинке. И всё же для своего времени результат поражал.
Что принесла четвёртая версия?
Переломный момент. V4 вышла в ноябре 2022-го, и разница с предшественницей была настолько очевидной, что в сообществе заговорили о «новом поколении». Алгоритм научился гораздо точнее следовать текстовому описанию, причём не только в плане объектов, но и в плане стиля, настроения, освещения. Раньше пользователь мог написать «закат над горами в стиле Каспара Давида Фридриха», а получить что-то отдалённо напоминающее пейзаж с розовым небом. Четвёртая же версия начала ловить нюансы — и атмосферу романтизма, и характерную палитру, и даже композиционные приёмы.
Ложка дёгтя всё-таки нашлась. V4 имела склонность к «глянцевости»: изображения выглядели чересчур отполированными, словно пропущенными через десяток фильтров Instagram. Для коммерческих иллюстраций это скорее плюс, а вот для тех, кто искал живую текстуру с характером, — не совсем то. Да и с руками у людей дела обстояли по-прежнему скверно (шесть пальцев на одной ладони — классика жанра тех времён).
Пятая версия и модель 5.2: прорыв в фотореализме
Март 2023-го. Выход V5 произвёл эффект разорвавшейся бомбы. Сгенерированные фотографии стало довольно сложно отличить от настоящих — настолько точно модель воспроизводила текстуры кожи, ткани, металла. Пальцы на руках, наконец, стали похожи на пальцы (хотя промахи ещё случались). Но главное — изменился сам принцип взаимодействия. Если раньше Midjourney «додумывала» за пользователя и щедро добавляла декоративных деталей, то V5 стала куда сдержаннее. Написал «кот на подоконнике» — получил именно кота на подоконнике, без лишних цветочных горшков и занавесок, которых никто не просил.
Многие в сообществе восприняли это неоднозначно. Ведь прежняя «щедрость» нейросети нередко приводила к неожиданным находкам — случайная деталь превращала банальный промт в произведение искусства. С пятой версией такие счастливые случайности стали редкостью. Зато контроль возрос в разы. Тем более, что появился параметр —stylize (или —s), позволяющий регулировать степень «творческой свободы» нейросети — от минимальной стилизации до полного безумия.
Отдельно стоит упомянуть обновление V5.2, выпущенное летом того же года. Добавился режим High Variation Mode, при котором четыре варианта в сетке отличались друг от друга куда сильнее. А ещё появилась команда /shorten, помогавшая оптимизировать промт — сервис сам подсказывал, какие слова в описании реально влияют на результат, а какие нейросеть по сути игнорирует. Инструмент щепетильных перфекционистов, одним словом.
Шестая версия: текст и точность
Декабрь 2023-го ознаменовался выходом V6, и первое, что бросилось в глаза — нейросеть научилась генерировать читаемый текст на изображениях. До этого момента любая надпись на картинке превращалась в нечитаемую абракадабру, напоминающую инопланетные письмена. Теперь же стало возможным вписать в промт фразу в кавычках, и модель старательно воспроизводила буквы — не идеально, но уже вполне сносно для черновых макетов и концептов.
Помимо работы с текстом, V6 сильно прибавила в понимании пространственных отношений. «Кошка под столом» и «кошка на столе» — раньше разница между этими промтами могла запросто потеряться, теперь же модель отрабатывала предлоги куда точнее. К слову, стилистически шестая версия стала ещё более «чистой» и фотографичной, что порадовало коммерческих дизайнеров, но огорчило любителей художественной «грязи» и артефактов ранних моделей.
Niji: отдельная вселенная для аниме
Не стоит забывать про линейку Niji — модель, разработанную совместно с командой Spellbrush и заточенную под аниме-эстетику. Она существует параллельно основным версиям и развивается по собственному расписанию. Самая свежая итерация на середину 2025-го — Niji 6, и результат впечатляет даже тех, кто к аниме равнодушен. Чистые линии, выразительные персонажи, грамотная работа с динамичными позами — всё это Niji выдаёт заметно лучше, чем основная модель.
Стоит ли использовать Niji для не-аниме целей? Довольно спорный вопрос. Некоторые иллюстраторы намеренно подают через неё промты в стиле реализма, чтобы получить характерную «мягкость» рендера и тёплую палитру. Результат бывает неожиданно хорош — особенно для книжных иллюстраций и обложек. Но если нужен строгий фотореализм, Niji — это не тот спасательный круг. Она всё-таки тяготеет к иллюстративности, и скрыть это сложно даже хитрым промтом.
Как переключаться между моделями?
Механика довольно проста. В конце промта добавляется параметр —v с указанием номера версии. Написал —v 5.2 — получил результат на движке V5.2. Указал —niji 6 — перешёл в аниме-режим. Ну, а если не указывать версию вообще, сервис по умолчанию задействует самую свежую модель, которая на момент написания этих строк — V6. Кроме того, через команду /settings можно выбрать версию «по умолчанию» для всех последующих генераций, что экономит время тем, кто работает преимущественно с одной моделью.
Важный нюанс: не все параметры совместимы со всеми версиями. Например, —chaos (степень разброса вариаций) работает начиная с V4, а —style raw появился только в V5.1 и выше. Если попытаться применить несовместимый параметр, сервис либо проигнорирует его, либо выдаст ошибку. Поэтому при экспериментах с ранними моделями нет смысла перегружать промт продвинутыми ключами — они попросту не сработают.
Стоит ли возвращаться к старым версиям?
Безусловно, но с оговоркой. Ранние модели — это не про качество в привычном понимании, а про настроение и характер. V3, к примеру, генерирует изображения с ярко выраженной «сюрреалистической» ноткой: пропорции плывут, цвета кислотные, а общая атмосфера напоминает обложку прог-рок альбома семидесятых. Для арт-проектов, концептов и стилизаций под ретро — кладезь возможностей. А вот для рекламного баннера или презентации такой результат, мягко говоря, не годится.
V4 тоже сохраняет свою нишу. Её «глянцевый» рендер до сих пор отлично подходит для фэнтезийных иллюстраций с обилием деталей — доспехи, замки, магические эффекты прорисовываются с приятной декоративностью, которую более поздние версии слегка «пригладили». И ведь дело не только в стилистике. Каждая модель по-разному реагирует на одни и те же слова в промте, так что иногда переключение версии — это самый быстрый способ добиться нужного эффекта вместо мучительного переписывания описания.
Что стоит учитывать при выборе?
Первый и главный критерий — конечная цель генерации. Если нужна фотография, максимально приближённая к реальности (для мокапов, рекламных материалов или стоковых изображений), оптимальный выбор — V6 или V5.2. Они лучше прочих работают с естественным освещением, текстурами и анатомией человеческого тела. Для концепт-арта в игровой индустрии многие до сих пор предпочитают V4 — и не потому что ленятся обновляться, а потому что результат ближе к тому, что ожидает арт-директор.
Второй нюанс — сложность промта. Чем новее модель, тем лучше она понимает длинные многослойные описания с уточнениями стиля, композиции и цветовой гаммы. Ранние версии (V3 и ниже) на такие «полотна» реагируют хаотично — хватаются за случайные слова и игнорируют остальные. Так что для коротких эмоциональных промтов вроде «одиночество, туман, заброшенный маяк» годится практически любая версия, а вот для скрупулезного технического описания — только свежие.
Ну и, конечно же, стоит учитывать скорость генерации и расход минут подписки. Более тяжёлые модели (V6 с параметром —quality 2) съедают ресурсы заметно быстрее, чем лёгкая V4. Для тех, кто работает на базовом тарифе (около двухсот минут GPU-времени в месяц), это может серьёзно ударить по бюджету творческих экспериментов.
Параметр —style raw и его влияние
Небольшая, но важная деталь, которую многие упускают. Режим —style raw отключает встроенную «эстетическую надстройку» Midjourney — ту самую, которая автоматически делает картинки красивее, насыщеннее, драматичнее. Результат с raw выглядит грубее, но зато гораздо честнее по отношению к промту. Вместо кинематографического освещения и идеальной цветокоррекции получаешь сухой, «документальный» снимок.
Этот режим — настоящий подводный камень для новичков. Человек включает raw, видит невзрачный результат и решает, что модель «сломалась». На самом деле всё работает как задумано. Дело в том, что привычный «вау-эффект» Midjourney во многом создаётся именно встроенными стилистическими алгоритмами, а без них ответственность за красоту полностью ложится на промт. Но для профессионалов, которые потом доводят изображение в Photoshop или Lightroom, raw — незаменимая вещь.
Что дальше: версия 7 и перспективы
На момент написания этих строк команда Midjourney активно тестирует модель V7, и утечки из закрытых альфа-тестов выглядят впечатляюще. Судя по всему, акцент сделан на генерации видео и трёхмерных объектов — то есть сервис постепенно выходит за рамки статичных изображений. Впрочем, конкретных дат релиза никто не называет, да и обещания в индустрии нейросетей — штука довольно ненадёжная.
Одна тенденция прослеживается чётко: с каждым обновлением грань между «нарисованным» и «сфотографированным» стирается всё сильнее. Буквально пару лет назад отличить генерацию от реального снимка мог даже обыватель — по шестипалым рукам и «плавленому» фону. Сейчас без специальных инструментов анализа это удаётся далеко не всегда. И этот прогресс не стоит на месте.
А главный совет для тех, кто только осваивает Midjourney — не стоит зацикливаться на одной версии. Пробовать разные модели, сравнивать результаты на одном и том же промте, искать свою «рабочую лошадку» под каждый тип задачи — вот что отличает продвинутого пользователя от новичка. Инструмент мощный, гибкий и с каждым месяцем всё более колоритный. Удачи в экспериментах — результаты наверняка порадуют.

