Любой, кто хоть раз генерировал картинки в Midjourney, знает это чувство: результат почти идеальный, но одна досадная мелочь портит всё впечатление. Лишний палец на руке, странный узор на ткани, неуместный предмет на заднем плане — и вот уже хочется перегенерировать изображение с нуля. Раньше именно так и приходилось поступать. Ведь нейросеть выдавала картинку «как есть», а любые правки требовали сторонних графических редакторов вроде Photoshop или даже ручной дорисовки. Буквально пару лет назад об этом можно было лишь мечтать, но сейчас у Midjourney появился собственный встроенный редактор, и разобраться в его тонкостях стоит каждому, кто работает с нейрогенерацией всерьёз.
Что за редактор и зачем он нужен?
Встроенный редактор Midjourney — это инструмент локальной правки внутри уже сгенерированного изображения. Вся суть в том, что вместо повторной генерации с нуля пользователь выделяет конкретный фрагмент картинки и задаёт нейросети новую инструкцию именно для этого участка. Остальная часть изображения при этом остаётся нетронутой. Довольно элегантное решение, если вдуматься. Ведь раньше даже минимальное изменение — скажем, цвет глаз персонажа или форма облака — запускало полный цикл генерации, и результат мог кардинально отличаться от исходника. А теперь точечная правка доступна прямо в веб-интерфейсе на сайте midjourney.com, без каких-либо сторонних приложений.
Нужно отметить, что этот инструмент компания запустила не сразу. Долгое время Midjourney работала исключительно через Discord-бота, и все манипуляции с картинками сводились к кнопкам Vary и Upscale. Первая позволяла создать вариации всей картинки целиком, вторая — увеличить разрешение. Но тонкая, щепетильная работа с деталями оставалась за пределами возможностей системы. И вот появился веб-редактор с функцией Inpainting (иногда встречается термин Editor), который закрыл эту брешь. Впрочем, назвать его полноценным Photoshop было бы преувеличением — он заточен именно под точечные исправления.
Как добраться до редактора?
Путь к инструменту довольно прост, хотя обывателю, привыкшему к Discord-ботам, может показаться непривычным. Первым делом нужно перейти на сайт midjourney.com и авторизоваться через свой аккаунт. Все ранее сгенерированные изображения хранятся в личной галерее — её видно сразу после входа. Достаточно найти нужную картинку, кликнуть по ней и в появившемся меню выбрать опцию Editor. А вот из Discord попасть в редактор напрямую нельзя — это исключительно веб-функция. К слову, для доступа к инструменту требуется активная подписка. Бесплатные пробные генерации, которые компания периодически раздаёт, тут не помогут.
Ваш личный ИИ-отдел маркетинга, который работает 24/7 📈
Ускорьте создание контента в 10 раз! Этот мульти-ИИ сервис позволяет писать безупречные продающие посты, генерировать уникальные фото для соцсетей, создавать рекламные промо-ролики с нуля и писать для них музыку в пару кликов. Идеальное решение для предпринимателей, маркетологов и SMM-специалистов. Всё в едином удобном интерфейсе — больше не нужно переключаться между десятком вкладок.
Делегируйте рутину искусственному интеллекту и увеличивайте продажи. Начните работу здесь 👉 https://clck.ru/3RNCRL
Интерфейс и инструменты выделения
Окно редактора выглядит лаконично. Центральную часть занимает само изображение, а слева расположена панель с инструментами. Главный из них — кисть выделения. Ею пользователь «закрашивает» тот участок картинки, который хочет изменить. Размер кисти регулируется ползунком, и это важный нюанс: слишком маленькая кисть потребует долгой и скрупулёзной работы, а слишком большая захватит лишние фрагменты, которые менять совсем не хотелось. Золотая середина — выделить область чуть больше, чем сам объект правки. Так нейросети проще «состыковать» новый фрагмент с окружением.
Под кистью есть ластик. Если рука дрогнула и выделение зацепило, допустим, край лица персонажа при работе с фоном — ластиком можно аккуратно подчистить маску. Выделенная зона отображается полупрозрачным цветом, и на экране сразу видно, какой именно участок пойдёт на переработку. Дополнительно предусмотрена кнопка сброса выделения, чтобы начать с чистого листа, если что-то пошло не так. И всё же, несмотря на минимализм, этих инструментов вполне хватает для подавляющего большинства задач.
Как правильно формулировать промт для правки?
Вот здесь начинаются подводные камни. Многие считают, что достаточно выделить зону и написать «сделай красиво». На самом деле редактор требует довольно точного текстового описания того, что должно появиться на месте выделенного участка. Причём описывать нужно не то, что нужно убрать, а то, что должно оказаться взамен. Это принципиальная разница. Например, если на столе стоит лишняя кружка, не стоит писать «убери кружку» — лучше выделить её и написать «деревянная поверхность стола» или «пустой участок стола с текстурой дерева». Нейросеть тогда заполнит выделенную зону именно этим.
Ещё один совет от практиков — промт для Inpainting должен учитывать стиль и контекст всей картинки. Если исходное изображение сгенерировано в стилистике масляной живописи, а в промте для правки написать просто «красная роза» без уточнения стиля, новый фрагмент может выглядеть инородно. Как заплатка из другой ткани. Тем более что нейросеть в режиме редактирования работает локально и не всегда «помнит» общий стилистический контекст оригинального промта. Поэтому не стоит лениться и добавлять стилистические маркеры: «красная роза, масляная живопись, импрессионизм» — и результат получится куда гармоничнее.
Какие детали можно менять?
Спектр правок впечатляет. Самое очевидное — удаление нежелательных объектов. Лишний человек на фоне, случайный артефакт, странная тень — всё это довольно легко убирается за одну-две итерации. Следующий важный сценарий — замена элементов одежды или аксессуаров. Допустим, персонаж сгенерировался в синей рубашке, а нужна белая. Выделяем рубашку, пишем в промте «белая хлопковая рубашка, расстёгнутый воротник» — и нейросеть перерисовывает именно этот участок, сохраняя позу и пропорции фигуры.
Отдельно стоит упомянуть работу с лицами. Задача не из лёгких. Midjourney и без того славится качественной генерацией лиц, но иногда выражение получается не совсем тем, что задумывалось. С помощью редактора можно скорректировать мимику, изменить направление взгляда или поправить причёску. Однако тут есть ложка дёгтя: лица — самый «чувствительный» элемент, и даже небольшое выделение может привести к заметному изменению черт. Поэтому при работе с лицевыми деталями стоит делать выделение минимальным и не захватывать лишнее. А если результат первой попытки не устроил — нейросеть генерирует несколько вариантов правки, и среди них обычно находится подходящий.
Работа с фоном и окружением
Фон менять проще всего. Это связано с тем, что фоновые элементы, как правило, менее детализированы и нейросети легче «вписать» новый фрагмент в окружающую текстуру. Хочется заменить городской пейзаж за окном на горный? Выделяем всё, что видно за рамой, и описываем желаемый вид. «Заснеженные горные вершины, туман в долине, мягкий утренний свет» — и через несколько секунд картинка преображается. К тому же при работе с фоном допустимо более крупное выделение, что ускоряет процесс.
Но есть один нюанс, о котором часто забывают: освещение. Если на оригинальном изображении свет падает слева, а новый фон подразумевает закат справа, возникнет визуальный диссонанс. Тени на объектах переднего плана будут конфликтовать с новым фоном. Midjourney иногда справляется с этим сама, подстраивая освещение нового фрагмента, но не всегда. Поэтому стоит учитывать направление света при составлении промта для правки и, если нужно, явно указывать его: «освещение слева, тёплый дневной свет».
Сколько итераций обычно требуется?
Честный ответ — зависит от сложности правки. Простые операции вроде удаления мелкого объекта или смены цвета зачастую «садятся» с первого раза. Но чем амбициознее задача, тем больше попыток понадобится. Замена сложного элемента (например, музыкального инструмента в руках персонажа на другой) может потребовать трёх-пяти итераций. И каждая из них расходует минуты генерации из вашей подписки. Ведь редактор работает по тому же принципу, что и обычная генерация, — ресурсы тратятся одинаково. Поэтому нет смысла бездумно «кликать» — лучше потратить лишнюю минуту на точную формулировку промта.
Кстати, каждая итерация выдаёт сразу несколько вариантов (обычно четыре). Среди них можно выбрать наиболее удачный и при необходимости продолжить правку уже на его основе. Это удобно. Ведь если один из вариантов решил проблему с объектом, но создал новый артефакт на границе выделения, следующей итерацией можно «подчистить» именно эту границу.
Типичные ошибки при использовании редактора
Львиная доля неудачных правок связана с тремя вещами. Во-первых, слишком размытый промт. Фразы вроде «сделай лучше» или «поправь руку» нейросеть интерпретирует непредсказуемо. Во-вторых, неправильный размер выделения — когда маска либо слишком мала и обрезает объект, либо слишком велика и захватывает соседние элементы, которые тоже перерисовываются. Ну и, наконец, третья распространённая ошибка — попытка изменить слишком большую часть изображения за один раз. Редактор заточен под локальные правки. Если нужно переделать половину картинки, проще запустить новую генерацию с откорректированным промтом.
Ещё одна неочевидная проблема — игнорирование масштаба. Допустим, пользователь хочет добавить бабочку на цветок на переднем плане. Если выделение слишком крупное, бабочка может получиться непропорционально большой. Обратная ситуация — выделение мизерное, и нейросеть просто не может втиснуть туда узнаваемое насекомое, превращая его в цветное пятно. Золотое правило: размер выделенной области должен примерно соответствовать желаемому размеру нового объекта в масштабе изображения.
Inpainting или Vary Region?
Многие путают встроенный редактор с функцией Vary (Region), доступной в Discord. И это объяснимо — обе функции позволяют менять часть изображения. Но разница всё-таки существует. Vary (Region) — это более ранняя и упрощённая версия. Она позволяет выделить область прямоугольником или лассо и перегенерировать её, но возможности формулировки промта там ограничены. Веб-редактор же даёт более точную кисть, лучший контроль над маской и, по субъективным ощущениям многих пользователей, более аккуратный результат «склейки» нового фрагмента с оригиналом.
Стоит ли пользоваться обоими инструментами? Безусловно. Для быстрых грубых правок Vary (Region) в Discord вполне годится — не нужно даже переключаться на сайт. Но для тонкой работы, где каждый пиксель на счету, веб-редактор незаменим. Тем более что в нём видно маску выделения в реальном времени, и можно точно контролировать границы будущей правки.
Практические приёмы для точной правки
Добротный результат начинается с подготовки. Прежде чем лезть в редактор, стоит внимательно рассмотреть изображение и определить, какие именно детали нуждаются в корректировке. Иногда бросается в глаза одно, а при увеличении всплывают ещё два-три мелких дефекта. Разумнее исправить все проблемные участки последовательно, от крупных к мелким, чем кидаться на первую попавшуюся деталь.
Один из практических приёмов — так называемая «послойная правка». Сначала меняем самый заметный элемент, сохраняем результат, затем открываем обновлённое изображение в редакторе снова и корректируем следующую деталь. Это занимает больше времени, но итоговое качество существенно выше, чем при попытке поправить всё одним махом. К тому же такой подход позволяет на каждом этапе оценивать промежуточный результат и, если нужно, откатиться на шаг назад. Ведь в галерее сохраняются все версии изображения.
Ещё один совет, который творит чудеса — использование «негативного промта» (параметр —no) в связке с текстом для редактора. Если, допустим, при замене фона постоянно появляются нежелательные элементы вроде людей или животных, в основном промте можно добавить —no people, animals. Это существенно снижает вероятность появления «сюрпризов» в зоне правки.
Ограничения, о которых стоит знать
При всей удобности инструмент имеет свои рамки. Самое заметное ограничение — редактор не работает с изображениями, загруженными извне. Корректировать можно только те картинки, которые были сгенерированы внутри Midjourney. Это логично с технической точки зрения: нейросеть оперирует латентным пространством собственных генераций и «понимает» их структуру гораздо лучше, чем случайную фотографию из интернета.
Кроме того, существует ограничение по количеству правок — каждая итерация расходует ресурсы подписки. На тарифе Basic (примерно 10 долларов в месяц) генерационных минут и без того немного, а активное использование редактора съедает их довольно быстро. Для тех, кто работает с Midjourney профессионально, имеет смысл задуматься о тарифе Standard или Pro. Не то чтобы разница в цене критически била по бюджету, но экономить на основном рабочем инструменте — затея сомнительная.
Альтернативы и комбинации со сторонними инструментами
Может возникнуть вопрос: а стоит ли вообще возиться со встроенным редактором, если есть Photoshop с его генеративной заливкой? На самом деле эти инструменты отлично дополняют друг друга. Midjourney-редактор хорош тем, что правка выполняется в том же стилистическом пространстве, что и оригинальная генерация. Результат получается «родной», органичный. А вот Photoshop (с модулем Adobe Firefly) даёт больше контроля над маской, слоями, цветокоррекцией — всем тем, чего в минималистичном интерфейсе Midjourney просто нет.
Популярная рабочая схема среди дизайнеров выглядит так: сначала генерация и основные правки в Midjourney, затем экспорт изображения в Photoshop для финальной полировки — цветокоррекции, резкости, мелких ретушей. Такой конвейер позволяет выжать максимум из обоих инструментов, не переплачивая за лишние генерации в Midjourney там, где справится обычная ретушь.
Несколько слов о будущем редактора
Команда Midjourney активно развивает веб-платформу, и редактор — далеко не финальная версия. В сообществе ходят разговоры о скором появлении инструментов вроде перетаскивания объектов (drag-and-move), контроля глубины резкости и даже анимации отдельных фрагментов. Сложно сказать, какие из этих функций появятся первыми, но направление развития приковывает внимание. Ведь если нейросеть научится не просто заменять фрагменты, а перемещать объекты внутри сцены с автоматической перерисовкой теней и отражений — это будет настоящий грандиозный скачок.
Встроенный редактор Midjourney уже сейчас экономит массу времени и нервов. Да, он не заменит профессиональный графический пакет, и от некоторых правок результат может быть неоднозначным. Но сама возможность точечно корректировать нейрогенерацию, не теряя общий замысел картинки — это настоящий спасательный круг для всех, кто работает с визуальным контентом. Стоит потратить вечер на эксперименты с кистью и промтами, разобраться в логике инструмента — и дальнейшая работа с Midjourney станет заметно продуктивнее. Удачи в творческих экспериментах, ведь лучший учитель здесь — практика.

