Как пользоваться командой imagine на официальном сайте Midjourney

Ещё пару лет назад генерация картинок при помощи нейросети казалась чем-то из области фантастики — инструментом для избранных, владеющих Python и умеющих настраивать серверные окружения. Сегодня же ситуация перевернулась с ног на голову: Midjourney открыл собственный веб-интерфейс, и теперь любой обыватель, далёкий от программирования, может создавать впечатляющие изображения прямо в браузере. Но вот незадача — львиная доля руководств в сети до сих пор описывает работу через Discord, а про команду /imagine на официальном сайте информации довольно мало. А начать разбираться стоит именно с неё, потому что от грамотного промта зависит буквально всё.

Все топовые нейросети в одном месте

Что изменилось после переезда на сайт?

Долгое время Midjourney жил исключительно внутри Discord. Это накладывало массу ограничений: и хаос в чатах, и неудобная навигация по сгенерированным картинкам, и необходимость разбираться в самом мессенджере, который далеко не каждому по душе. К слову, именно жалобы пользователей на неудобство подтолкнули разработчиков к созданию полноценного веб-приложения. Теперь на midjourney.com доступен удобный интерфейс с историей генераций, галереей и — самое главное — строкой ввода промта, которая по сути выполняет ту же роль, что и старая добрая команда /imagine в Discord. Разница в том, что здесь всё нагляднее: результат появляется тут же, на странице, без необходимости скроллить бесконечную ленту чужих запросов. И это, безусловно, шаг вперёд.

Регистрация и первый вход

Тонкий нюанс, о котором многие забывают. Без активной подписки воспользоваться генерацией на сайте не получится — бесплатного тарифа на момент написания статьи у Midjourney нет. Стоимость начинается примерно от 10 долларов в месяц за базовый план (около 200 генераций). После оплаты достаточно войти на сайт через аккаунт Discord или через Google — и перед глазами откроется рабочее пространство. В верхней части экрана бросается в глаза строка ввода. Это и есть то самое поле, куда вводится текстовый запрос. По сути — прямой аналог /imagine prompt: из Discord, только без слэша и без лишних махинаций с ботом.

Как устроена строка промта?

Выглядит она обманчиво просто. Белое поле, курсор мигает — вводи текст и жми Enter. Но за этой минималистичностью скрывается довольно мощный инструмент. Дело в том, что Midjourney воспринимает не просто слова, а целую систему указаний: стиль, настроение, соотношение сторон, степень детализации и даже то, чего на картинке быть не должно. Всё это задаётся через параметры, дописываемые в конце промта через двойное тире. Например, если после описания сцены добавить —ar 16:9, изображение получится широкоформатным. А параметр —stylize 750 усилит художественную стилизацию, сделав результат более «живописным». Не стоит пугаться этих конструкций — привыкаешь к ним буквально за пару сеансов.

Все топовые нейросети в одной подписке! 🚀

Устали оплачивать десятки сервисов отдельно и постоянно включать VPN? Появилась платформа, которая объединяет более 90 передовых ИИ в одном окне. Пишите тексты с новейшими версиями GPT и Claude, создавайте шедевры в Midjourney и генерируйте видео в Sora и Kling. Тексты, изображения, видео и музыка — всё работает на любых устройствах без «танцев с бубном».

Попробуйте бесплатно прямо сейчас! Переходите по ссылке и получите бонусные токены для старта 👉 https://clck.ru/3RNCRL

Из чего складывается хороший промт?

Задача не из лёгких. Ведь от формулировки запроса результат зависит порой сильнее, чем от выбранной модели или версии алгоритма. Первое, на что стоит обратить внимание, — это субъект, то есть главный объект будущей картинки. Далее идёт окружение: где этот объект находится, какой вокруг антураж. Следующий важный критерий — стиль: фотореализм, акварель, комикс, кинематографичный кадр, цифровая живопись. Ну и, наконец, настроение и освещение — тёплый закатный свет, холодные неоновые блики, туманная дымка. Всё это вписывается в одну строку через запятые и пробелы, без каких-либо специальных тегов. Чем конкретнее описание, тем ближе результат к задуманному. Абстрактные формулировки вроде «красивый пейзаж» выдадут что-то усреднённое и довольно скучное.

Пример промта: A lonely lighthouse on a rocky cliff, stormy ocean, dramatic clouds, golden hour lighting, cinematic composition, photorealistic —ar 16:9 —v 6.1

Обратите внимание — промт написан на английском. Midjourney понимает и русский язык, однако результаты на английском стабильно точнее. Это связано с тем, что нейросеть обучалась преимущественно на англоязычных описаниях. Кстати, смешивать языки в одном запросе тоже не стоит: алгоритм путается, и на выходе получается нечто неоднозначное.

Параметры и их влияние на результат

Отдельно стоит упомянуть набор параметров, без которых работа с Midjourney теряет львиную долю гибкости. Первый и самый популярный — —ar (aspect ratio). Он задаёт пропорции изображения. По умолчанию генерируется квадрат 1:1, но для обложек, баннеров или фонов рабочего стола куда лучше подходят 16:9 или даже 21:9. Следующий параметр, приковывающий внимание опытных пользователей, — —stylize (или сокращённо —s). Его значение варьируется от 0 до 1000, и чем оно выше, тем больше «творческой свободы» получает нейросеть. При нуле результат максимально буквально следует за промтом, при тысяче — может уйти в совершенно неожиданную сторону. Золотая середина обычно где-то между 250 и 500.

Ещё один добротный инструмент — параметр —chaos. Он отвечает за разнообразие между четырьмя вариантами, которые нейросеть выдаёт за одну генерацию. При значении 0 все четыре картинки будут похожи друг на друга, при 100 — разброс окажется максимальным. Это удобно на этапе поиска идеи, когда ещё нет чёткого понимания, чего именно хочется. А вот для финальной доводки хаос лучше убавить. К тому же, есть параметр —no, который работает как «негативный промт»: всё, что указано после него, нейросеть постарается исключить из картинки. Например, —no text, watermark, people уберёт надписи, водяные знаки и случайных прохожих.

Стоит ли указывать версию модели?

Многие считают, что нейросеть сама «знает лучше» и менять версию не нужно. Но на самом деле разница между версиями бывает колоссальной. Параметр —v позволяет выбрать конкретную итерацию алгоритма. На момент написания актуальна версия 6.1, однако для некоторых задач (особенно если нужен более «рисованный», иллюстративный стиль) старая версия 5.2 всё ещё творит чудеса. Впрочем, если параметр не указан вовсе, сайт по умолчанию использует самую свежую модель. Нужно отметить, что при переключении версий результат одного и того же промта может измениться до неузнаваемости — так что экспериментировать определённо стоит.

Интерфейс после генерации

Картинка появилась. Что дальше? На сайте Midjourney результат отображается в виде сетки из четырёх вариантов — точно так же, как это было в Discord. Под каждым вариантом располагаются кнопки действий. Первая группа — U1, U2, U3, U4 — отвечает за апскейл, то есть увеличение выбранного варианта до полного разрешения. Вторая группа — V1, V2, V3, V4 — создаёт новые вариации на основе понравившегося изображения. И есть ещё кнопка с круговыми стрелками, которая перезапускает генерацию с тем же промтом, но выдаёт совершенно новый набор. Да и сам процесс работы на сайте ощущается приятнее: ни тебе лишних уведомлений, ни путаницы с каналами.

После апскейла открываются дополнительные возможности. Можно, например, дорисовать изображение за пределами текущих границ — функция называется Zoom Out. Или сдвинуть «камеру» в сторону при помощи Pan. Особый интерес вызывает опция Vary (Subtle) и Vary (Strong): первая чуть-чуть видоизменяет картинку, сохраняя общую композицию, а вторая даёт более радикальные перемены. Все эти инструменты доступны прямо на странице, без единой строчки кода.

Подводные камни для новичков

Самая распространённая ошибка — слишком короткий промт. Написать «cat» и ожидать шедевр — путь в никуда. Нейросеть выдаст что-то усреднённое, без характера и настроения. Другая крайность — перегрузка запроса десятками деталей. В таком случае алгоритм начинает «теряться», и часть указаний попросту игнорируется. Идеальная длина промта — от пятнадцати до сорока слов. Этого хватает, чтобы передать и сюжет, и атмосферу, и стиль.

Ещё одна ложка дёгтя — текст на изображениях. Midjourney пока довольно плохо справляется с генерацией букв: слова искажаются, буквы «плывут», а иногда появляются совершенно бессмысленные символы. Версия 6.1 значительно улучшила ситуацию по сравнению с предшественницами, но до идеала далеко. Если на картинке критически важна надпись, лучше добавить её потом, в графическом редакторе. И не стоит забывать про ограничения по количеству генераций — на базовом тарифе их около двухсот в месяц, а каждая «вариация» или «апскейл» тоже расходует лимит. Тем более, что увлечься процессом проще простого.

Как использовать референсные изображения?

Мало кто из новичков знает, но в строку промта на сайте Midjourney можно вставить ссылку на изображение. Это мощнейший приём, позволяющий задать нейросети визуальный ориентир. Механика простая: ссылка на картинку (прямой URL, заканчивающийся на .jpg или .png) ставится в самое начало промта, перед текстовым описанием. Нейросеть проанализирует цветовую палитру, композицию и настроение референса, а затем сгенерирует нечто вдохновлённое этим образом. К тому же, через параметр —iw (image weight) можно регулировать степень влияния референса: значение от 0,5 до 2, где двойка означает максимальное следование за исходником.

На практике этот инструмент выручает дизайнеров, которым нужно выдержать единую стилистику в серии иллюстраций. Загрузил первую удачную картинку как референс, дописал новый сюжет — и получил визуально связанный результат. Разумеется, стопроцентного совпадения ожидать не стоит, ведь нейросеть всё-таки не копирует, а интерпретирует. Но общий колорит и настроение сохраняются довольно точно.

Сравнение работы через сайт и через Discord

Стоит ли окончательно отказываться от Discord в пользу сайта? Вопрос неоднозначный. С одной стороны, веб-интерфейс удобнее в десятки раз: история генераций хранится в профиле, поиск по собственным работам занимает секунды, а сам процесс создания изображений интуитивно понятен даже человеку, который впервые столкнулся с нейросетями. С другой стороны, в Discord по-прежнему работают некоторые продвинутые функции, которые на сайт ещё не перенесли. Например, команда /blend для смешивания нескольких изображений в одно или /describe, которая генерирует текстовое описание загруженной картинки (полезно для обратного инжиниринга промтов). Впрочем, разработчики активно переносят функционал, и разрыв между двумя платформами сокращается с каждым обновлением.

Скрупулёзная настройка через меню

Помимо параметров в строке промта, на сайте Midjourney есть визуальное меню настроек. Находится оно рядом с полем ввода и позволяет выбрать версию модели, соотношение сторон, режим стилизации и скорость генерации (обычная или «расслабленная», которая не расходует лимит быстрых часов). Это спасательный круг для тех, кто не хочет запоминать параметры и каждый раз вписывать их вручную. Достаточно один раз задать нужные значения в меню — и они будут применяться ко всем последующим генерациям автоматически. А при необходимости параметры из промта всегда перекроют настройки меню.

Отдельно стоит упомянуть режим Raw. Он появился относительно недавно и снижает степень «приукрашивания», которое Midjourney по умолчанию добавляет к каждому результату. Буквально год-два назад все картинки нейросети отличались характерной «глянцевостью», а Raw-режим делает результат суше, реалистичнее, ближе к фотографии. Для коммерческих задач — например, превью товаров или архитектурных концептов — это настоящий кладезь возможностей.

Несколько хитростей от практиков

Опытные пользователи Midjourney со временем вырабатывают собственный почерк, набор «фирменных» приёмов. Один из самых популярных — использование имён конкретных фотографов или художников в промте. Упоминание, скажем, стиля Грегори Крюдсона придаст снимку кинематографичную театральность, а отсылка к Хаяо Миядзаки превратит любую сцену в кадр из аниме. Однако не стоит перебарщивать с количеством стилевых ориентиров в одном запросе — нейросеть попытается совместить всё сразу, и результат окажется скорее сумбурным, чем изысканным.

Все топовые нейросети в одном месте

Ещё одна хитрость — добавление технических терминов фотографии: shallow depth of field, 35mm lens, ISO 400, f/1.4. Нейросеть обучена на миллионах подписей к фотографиям и прекрасно понимает такие указания. В результате изображение приобретает характерное боке, зернистость плёнки или специфическую перспективу широкоугольного объектива. К слову, для портретов отлично работает связка 85mm portrait lens, Rembrandt lighting — даёт мягкий, объёмный рисунок лица с классическим треугольником света на щеке.

Что делать, если результат не устраивает?

Бывает. И довольно часто. Нейросеть — не телепат, и с первого раза угадать желаемый результат получается далеко не всегда. В таком случае стоит действовать итерационно. Сначала — переформулировать промт: заменить абстрактные слова на конкретные, добавить описание освещения или убрать лишние детали. Далее — попробовать другие значения —stylize и —chaos. Ну, а если общая композиция нравится, но хочется поправить детали, на помощь приходят вариации (кнопки V) и функция Vary (Region), позволяющая перегенерировать отдельный фрагмент картинки, не трогая остальное. Эта функция работает как «локальная перерисовка»: выделяешь кистью нужную область, дописываешь промт для неё — и нейросеть дорабатывает только выбранный участок.

Коммерческое использование и права

Вопрос щепетильный, но обойти его стороной нельзя. Согласно условиям Midjourney, подписчики платных планов получают полные коммерческие права на сгенерированные изображения. Это значит, что картинки можно использовать для рекламы, товаров, обложек книг, контента в соцсетях — без ограничений. Но есть нюанс: если годовой доход компании превышает миллион долларов, необходим тариф не ниже Pro. Да и само по себе авторское право на ИИ-изображения пока находится в правовой серой зоне — в разных странах к этому вопросу относятся по-разному. Тем более, что судебные прецеденты множатся.

Midjourney на своём сайте сделал всё, чтобы генерация изображений перестала быть уделом технически подкованных энтузиастов и превратилась в рутинный рабочий инструмент. Строка ввода промта, интуитивные кнопки, визуальное меню настроек — всё это снижает порог входа практически до нуля. А глубина параметров и возможность тонкой настройки не дадут заскучать даже опытным пользователям. Так что смело регистрируйтесь, пишите первый промт и не бойтесь экспериментировать — удачных генераций и вдохновения в каждом пикселе!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *