Львиная доля пользователей, впервые открывших для себя Midjourney, грезит о кинематографичных картинках с первого же запроса. В голове рисуется идеальный кадр — с выверенным светом, глубокой детализацией и тем самым неуловимым настроением, которое отличает посредственную иллюстрацию от работы, приковывающей внимание. На деле же первые результаты довольно часто разочаровывают: нейросеть выдаёт что-то размытое, перегруженное деталями или попросту далёкое от задуманного. Многие списывают это на ограничения самого инструмента, хотя вся суть в другом — в непонимании того, как именно работает процесс генерации и какие рычаги управления им доступны прямо «из коробки». Но чтобы не тратить сотни попыток впустую, стоит разобраться в механике generation от и до.
Что вообще скрывается за словом «generation»?
Термин «generation» в контексте Midjourney — это не просто нажатие кнопки и ожидание картинки. За каждой генерацией стоит сложнейшая цепочка: текстовый промпт переводится в числовой вектор, затем диффузионная модель шаг за шагом убирает шум из случайного набора пикселей, постепенно формируя изображение. Каждый такой шаг — это микрорешение нейросети, и от количества этих шагов, от версии модели и от параметров, заданных пользователем, результат зависит колоссально. К слову, именно поэтому два абсолютно одинаковых промпта могут дать совершенно разные картинки — случайное зерно (seed) каждый раз отличается. Понимание этой механики не делает из обывателя инженера, но даёт ту самую точку опоры, от которой можно оттолкнуться.
Версия модели и почему она решает многое
Выбор модели. Вот с чего начинается любая скрупулёзная настройка. Midjourney за время своего существования прошла путь от довольно грубых ранних версий до впечатляющей шестой модели (v6.1 на момент написания), а параллельно появилась ещё и Niji — ветка, заточенная под аниме и иллюстративный стиль. Каждая версия тяготеет к определённой эстетике: пятая модель выдавала более «фотографичные» результаты с выраженной контрастностью, тогда как шестая научилась куда лучше понимать длинные текстовые описания и работать с мелкими деталями вроде надписей на вывесках или текстуры ткани. Не стоит гнаться за самой свежей версией вслепую — иногда для конкретной задачи старшая модель справляется лучше. Переключение между версиями происходит через параметр —v в конце промпта (например, —v 6.1) или через команду /settings.
Нюанс неочевидный, но важный: при смене версии модели стоит пересмотреть и сам промпт. Дело в том, что шестая версия воспринимает естественный язык гораздо тоньше, чем пятая, которая лучше реагировала на короткие «телеграфные» наборы слов через запятую. А вот Niji вообще живёт по своим правилам — ей ближе описания в духе аниме-тегов. Это как говорить с разными людьми: одному нужно объяснять подробно, другой схватывает с полуслова.
Ваш личный ИИ-отдел маркетинга, который работает 24/7 📈
Ускорьте создание контента в 10 раз! Этот мульти-ИИ сервис позволяет писать безупречные продающие посты, генерировать уникальные фото для соцсетей, создавать рекламные промо-ролики с нуля и писать для них музыку в пару кликов. Идеальное решение для предпринимателей, маркетологов и SMM-специалистов. Всё в едином удобном интерфейсе — больше не нужно переключаться между десятком вкладок.
Делегируйте рутину искусственному интеллекту и увеличивайте продажи. Начните работу здесь 👉 https://clck.ru/3RNCRL
Как работает параметр quality?
Добротный результат невозможен без понимания параметра —quality (или сокращённо —q). Многие считают, что этот параметр напрямую влияет на разрешение картинки. На самом деле механика тоньше. Quality определяет, сколько вычислительных ресурсов нейросеть потратит на одну генерацию. При значении —q 0.25 модель «думает» вчетверо меньше, чем при стандартном —q 1, и результат получается более грубым, эскизным. А при —q 2 (доступном не во всех версиях) время обработки удваивается, но картинка обретает дополнительную глубину проработки — особенно заметную на сложных текстурах и мелких элементах. Впрочем, разница между единицей и двойкой не всегда бросается в глаза, и тут уж каждому стоит самому поэкспериментировать.
Есть ещё один подводный камень: повышение quality расходует больше GPU-минут из подписки. Для пользователя с базовым тарифом это довольно ощутимо бьёт по бюджету доступных генераций. Поэтому на этапе поиска идеи и композиции разумнее работать на пониженном качестве, а финальную «чистовую» версию прогонять уже на максимуме. Это экономия не ради экономии — это стратегия.
Соотношение сторон и его влияние на композицию
Задача не из лёгких — угадать формат с первого раза. Параметр —ar (aspect ratio) задаёт пропорции выходного изображения, и влияние его на итоговую картинку куда глубже, чем может показаться. Квадратный формат —ar 1:1 Midjourney использует по умолчанию, и в нём нейросеть чувствует себя «комфортнее» всего — меньше пустот, композиция стремится к центру. Но стоит переключиться на панорамное —ar 16:9 или вертикальное —ar 9:16, и модель начинает заполнять пространство иначе: появляется воздух, горизонтальные линии растягиваются, персонажи смещаются ближе к правилу третей.
Кстати, многие забывают, что соотношение сторон неразрывно связано с назначением изображения. Для обложки YouTube-ролика подойдёт —ar 16:9, для сторис в соцсетях — —ar 9:16, для книжной иллюстрации — —ar 2:3. И выбор этот стоит делать ещё до написания промпта, потому что композицию нейросеть выстраивает именно под заданные пропорции. Менять формат постфактум — значит терять удачно найденную раскладку элементов.
Стоит ли углубляться в stylize?
Безусловно. Параметр —stylize (или —s) — это, пожалуй, самый неоднозначный рычаг в арсенале Midjourney. Он определяет, насколько сильно нейросеть привнесёт собственное «видение» в результат. При низком значении (скажем, —s 50) модель максимально точно следует тексту промпта, жертвуя эстетикой ради буквальности. При высоком (—s 750 или даже —s 1000) картинка становится до нельзя «красивой» и кинематографичной, но промпт при этом может быть интерпретирован весьма вольно.
Тут срабатывает принцип качелей: хотя высокий stylize и даёт визуально впечатляющий результат, контроль над содержанием при этом ослабевает. Ведь нейросеть начинает «фантазировать», добавляя драматичное освещение, глубину резкости и цветовые акценты, которых в промпте не было. Для абстрактных арт-проектов это настоящий кладезь возможностей. А вот для коммерческих задач, где важна точность (логотип на упаковке, конкретный ракурс продукта), лучше держать stylize на уровне двухсот-трёхсот. Золотая середина — где-то около стандартных ста, с которых и стоит начинать знакомство с этим параметром.
Chaos и weird — контролируемая непредсказуемость
Два довольно необычных параметра, о которых реже говорят, но которые вносят существенную лепту в разнообразие генераций. Параметр —chaos (от 0 до 100) управляет тем, насколько сильно четыре превью-варианта будут отличаться друг от друга внутри одной сетки. При нулевом chaos все четыре картинки выглядят почти одинаково. При значении около пятидесяти-шестидесяти разброс становится ощутимым — как будто промпт интерпретировали четыре разных художника. Это удобно. Ведь на раннем этапе творческого поиска такое разнообразие помогает наткнуться на неожиданное решение, которое сам бы никогда не придумал.
Параметр —weird (от 0 до 3000) работает иначе — он сдвигает эстетику в сторону чего-то странного, сюрреалистичного, иногда откровенно гротескного. Даже при скромном значении в двести-триста результат приобретает налёт «инаковости»: необычные цветовые сочетания, деформированные пропорции, нестандартная перспектива. Для коммерческих проектов weird лучше вообще не трогать, но для личных экспериментов — это настоящая песочница. Тем более, что эффект weird довольно сильно зависит от содержания промпта: на простых сценах он срабатывает мягче, а на сложных многофигурных композициях творит совершенно непредсказуемые вещи.
Промпт-инжиниринг: как формулировать запросы
Сам промпт — это ведь главный инструмент, и от его структуры зависит львиная доля результата. Начать стоит с простого принципа: Midjourney читает промпт слева направо, постепенно снижая «вес» каждого последующего слова. То, что стоит в начале фразы, влияет на генерацию сильнее, чем хвост описания. Поэтому самые важные элементы — объект, действие, настроение — нужно выносить вперёд. А стилистические уточнения, технические параметры съёмки (вроде «shot on Hasselblad» или «cinematic lighting») лучше оставлять для финала промпта.
Отдельно стоит упомянуть систему весов через двойное двоеточие. Конструкция вида forest::2 river::1 говорит нейросети, что лес в два раза важнее реки. Это спасательный круг в ситуациях, когда модель упорно игнорирует какой-то элемент или, наоборот, делает его чересчур доминирующим. И обратная сторона — отрицательные веса или параметр —no, позволяющий исключить нежелательные элементы. Написав —no text, watermark, blurry, можно избавиться от случайных надписей и размытия, которые иногда всплывают на готовых изображениях.
Ну и, конечно же, длина промпта играет роль. Буквально пару лет назад оптимальными считались лаконичные запросы из пяти-десяти слов. Сейчас, с приходом шестой версии, модель научилась переваривать и довольно развёрнутые описания — вплоть до целого абзаца. Но перебарщивать всё-таки не стоит: нейросеть начинает «путаться» в приоритетах, если в промпте больше пятидесяти-шестидесяти слов. Золотая середина для большинства задач — от пятнадцати до тридцати пяти слов, скомпонованных по убыванию важности.
Что насчёт seed и воспроизводимости?
Каждая генерация в Midjourney привязана к случайному числу — seed. По умолчанию оно меняется при каждом запуске, и именно поэтому один и тот же промпт выдаёт разные картинки. Но если добавить —seed 12345 (любое число от 0 до 4294967295), результат при идентичном промпте и тех же параметрах будет воспроизводиться с высокой точностью. Это бесценно в нескольких ситуациях: когда нужно создать серию стилистически единообразных изображений, когда хочется аккуратно менять один параметр и сравнивать результаты, или когда удачная генерация потерялась в потоке экспериментов.
Нужно отметить, что абсолютной идентичности seed не гарантирует. При смене версии модели или даже при серверном обновлении Midjourney результат может слегка «поплыть». Но внутри одной версии и одного временного периода воспроизводимость остаётся довольно надёжной. Узнать seed уже сгенерированного изображения можно через реакцию-конверт (✉️) к сообщению бота — он пришлёт номер в личных сообщениях.
Upscale и варианты — финальная доводка
Генерация не заканчивается на первой сетке из четырёх превью. Дальше начинается тонкая работа. Кнопки U1–U4 увеличивают выбранный вариант до полного разрешения, а V1–V4 создают четыре новые вариации на основе понравившегося изображения (с небольшими отклонениями в деталях и композиции). Кроме того, в шестой версии появились режимы Subtle и Strong для вариаций — первый меняет картинку едва заметно, второй — ощутимо.
А ещё есть функция Vary (Region), позволяющая выделить кистью конкретную область изображения и перегенерировать только её, оставив остальное нетронутым. Это довольно мощный инструмент для точечной коррекции: убрать лишний элемент фона, изменить выражение лица персонажа, поправить неудачную руку (извечная боль нейросетевых картинок). К тому же, при использовании Vary Region можно дописать дополнительный текст, уточняющий, что именно должно появиться в выделенной зоне. По сути, это аналог inpainting в Stable Diffusion, только встроенный прямо в экосистему Midjourney.
Стоит ли использовать изображение-референс?
Однозначно да — если знать меру. Midjourney умеет принимать ссылку на изображение прямо в начале промпта, и нейросеть будет ориентироваться на визуальный стиль, цветовую палитру и общую композицию этого референса. Параметр —iw (image weight) регулирует, насколько сильно «образец» повлияет на результат: при значении 0.5 промпт доминирует, при 2.0 — изображение-референс берёт верх.
Подводные камни тут тоже имеются. Во-первых, модель не копирует референс, а извлекает из него «эмоцию» и «атмосферу». Ожидать точного воспроизведения цветов или ракурса не стоит. Во-вторых, при слишком высоком image weight промпт фактически игнорируется, и нейросеть выдаёт слегка изменённую копию загруженной картинки — а это редко бывает полезно. Оптимальный диапазон для большинства задач — от 0.75 до 1.25. И ещё один нюанс: ссылка на референс должна вести на прямой URL изображения (заканчивающийся на .jpg или .png), иначе бот её просто не распознает.
Мультипромпты и пермутации для массовых экспериментов
Когда базовые параметры освоены, изюминкой рабочего процесса становятся продвинутые техники. Мультипромпт — разделение запроса двойным двоеточием без пробела (hot::dog вместо hot dog) — заставляет нейросеть воспринимать части промпта как отдельные концепции. В первом случае получится что-то горячее и что-то собачье (или вообще абстракция), во втором — хот-дог. Разница колоссальная, и осознание этого механизма открывает дверь к сложным концептуальным композициям.
Пермутации — ещё один грандиозный инструмент для массового тестирования. Синтаксис с фигурными скобками позволяет в одном запросе создать сразу несколько генераций с разными переменными. Например, промпт a {red, blue, green} car —ar {16:9, 1:1} запустит шесть генераций: красная машина в двух форматах, синяя в двух форматах, зелёная — аналогично. Это экономит время и позволяет за считанные минуты сравнить десяток вариантов, которые вручную пришлось бы вбивать по одному. Да и самому рабочему процессу пермутации придают системность, которой так не хватает при хаотичном «тыканье наугад».
Типичные ошибки и как их избежать
Самая распространённая ловушка — перегруженность промпта. Новички пытаются впихнуть в один запрос всё: и объект, и фон, и настроение, и стиль, и техническую камеру, и время суток, и ещё пару прилагательных на всякий случай. В результате нейросеть не может расставить приоритеты, и картинка превращается в невнятное месиво. Лучше начинать с минимума и добавлять элементы по одному, отслеживая, как меняется результат.
Следующий важный промах — игнорирование отрицательных промптов. Без параметра —no модель сама решает, чем заполнить пустоты, и довольно часто этот выбор оказывается неудачным: появляются случайные буквы, лишние персонажи, артефакты. Тем более, что —no работает не идеально и не гарантирует стопроцентного исключения элемента — но вероятность его появления снижает заметно. Ну, а третья ошибка — работа только с дефолтными настройками. Стандартные значения quality, stylize и chaos подобраны под «среднестатистического» пользователя, но для конкретной задачи они могут оказаться совершенно неоптимальными. И пока эти ползунки не начнёшь крутить, потенциал инструмента остаётся нераскрытым.
Рабочий процесс: от черновика до финала
Опытные пользователи Midjourney выстраивают генерацию как последовательность этапов, а не как лотерею. Сначала — грубый поиск на пониженном quality и повышенном chaos: здесь важно не качество отдельной картинки, а широта охвата идей. На этом этапе за десять-пятнадцать генераций можно просмотреть сорок-шестьдесят вариантов и выбрать направление, которое цепляет. Далее — сужение: chaos снижается до нуля, quality возвращается к единице, промпт уточняется деталями, добавляются конкретные стилистические референсы.
Третий этап — доводка через вариации (V-кнопки) и региональную перегенерацию. И финальный штрих — upscale до максимального разрешения, при необходимости с последующей обработкой во внешних редакторах. Весь цикл, от первой идеи до готового изображения, у сноровистого пользователя занимает от десяти до тридцати минут. Но именно системность этого процесса — а не удача — отличает профессиональный результат от случайного попадания.
Midjourney — инструмент с обманчиво простым интерфейсом, за которым прячется внушительный арсенал настроек. Каждый параметр — маленький рычаг, сдвигающий результат в ту или иную сторону, и магия начинается тогда, когда эти рычаги работают согласованно. Не стоит бояться экспериментов: худшее, что может случиться — одна неудачная картинка, а лучшее — изображение, которое удивит даже своего создателя. Удачи в освоении этой творческой машины — пусть каждая генерация приближает к тому самому идеальному кадру.

