Функция edit в Midjourney: как правильно редактировать сгенерированные изображения

Кто хоть раз генерировал картинки в Midjourney, наверняка знает это чувство: результат почти идеален, но какая-то мелочь всё портит. Лишний объект на заднем плане, не тот цвет неба, странная рука с шестью пальцами — знакомо, правда? Раньше приходилось либо перегенерировать изображение десятки раз, надеясь на удачу, либо тащить файл в Photoshop и доводить там вручную. Времени на такие махинации уходило немало. Но с появлением встроенной функции edit ситуация изменилась довольно ощутимо — теперь локальные правки можно вносить прямо внутри Midjourney, не покидая привычной среды. А чтобы этот инструмент действительно творил чудеса, а не плодил артефакты, стоит разобраться в его нюансах поглубже.

Все топовые нейросети в одном месте

Что такое функция edit и зачем она нужна?

По сути, edit — это встроенный редактор, позволяющий точечно менять фрагменты уже сгенерированного изображения. Дело в том, что нейросеть при создании картинки оперирует всем холстом целиком, и повторная генерация по тому же промпту никогда не даст идентичного результата. Каждый новый запуск — это рулетка. А функция редактирования позволяет «заморозить» те участки, которые устраивают, и перерисовать только проблемную зону. Звучит просто? На практике подводных камней хватает. Ведь нейросеть должна не просто вставить новый элемент, а органично вписать его в существующую композицию — с учётом освещения, перспективы и цветовой палитры. И всё-таки инструмент работает, причём довольно стабильно, если знать, как к нему подступиться.

Как вызвать редактор?

Тонкий момент. Многие новички натыкаются на проблему уже на этом этапе. Чтобы активировать функцию edit, нужно сначала сгенерировать изображение и выбрать одну из четырёх вариаций через кнопку U (upscale). Только после увеличения конкретной картинки под ней появляется набор дополнительных инструментов, среди которых и заветная кнопка. В веб-интерфейсе Midjourney процесс выглядит интуитивнее — достаточно кликнуть по изображению и выбрать соответствующий пункт в контекстном меню. А вот в Discord всё чуть менее очевидно, да и интерфейс редактора открывается в отдельном окне браузера. К слову, функция доступна не на всех тарифных планах, так что не стоит удивляться, если кнопка просто отсутствует — возможно, пора обновить подписку.

Принцип работы: маска и промпт

Сердце всего процесса. Редактор предлагает два основных инструмента: кисть для «замазывания» области и текстовое поле для нового промпта. Логика довольно прозрачная — сначала пользователь выделяет кистью ту часть изображения, которую хочет изменить, а затем описывает словами, что именно должно появиться на этом месте. Замазанная область по факту превращается в маску, и нейросеть перерисовывает только её содержимое, стараясь сохранить контекст окружающих пикселей. Это очень похоже на inpainting в Stable Diffusion, но реализовано проще и без необходимости разбираться в настройках денойзинга.

Нереальный визуал и кинематографичное видео в пару кликов 🎬

Нужен крутой концепт-арт, реалистичная анимация или профессиональный апскейл? Теперь у вас есть единый доступ к лучшим визуальным нейросетям планеты: Midjourney, Runway, Kling и Sora. Улучшайте качество готовых роликов до максимума с помощью встроенных ИИ-инструментов. Никаких сложных настроек, мощного ПК или зарубежных карт. Всё работает прямо в браузере или в Telegram-боте!

Откройте новые горизонты для творчества. Жмите на ссылку, регистрируйтесь и создавайте шедевры 👉 https://clck.ru/3RNCRL

Нужно отметить, что размер кисти регулируется. И это критически важная деталь. Слишком маленькая кисть не даст нейросети достаточно пространства для манёвра — результат будет выглядеть «вклеенным», с заметными границами перехода. Слишком большая кисть, наоборот, захватит лишние элементы, и вместо локальной правки получится почти полная перегенерация фрагмента. Золотая середина — выделять область с небольшим запасом, примерно на 10–15% больше того объекта, который нужно убрать или заменить. Тогда нейросети хватает контекста для плавного сращивания.

Стоит ли писать длинный промпт для редактирования?

Вопрос неоднозначный. Многие считают, что чем детальнее описание, тем лучше результат. Но на самом деле для функции edit действует обратное правило. Короткий, точный промпт работает куда эффективнее развёрнутого описания на три строки. Дело в том, что нейросеть уже «видит» окружающий контекст изображения и сама достраивает стилистику. А вот избыточные инструкции могут вступить в конфликт с тем, что уже нарисовано. Допустим, на картинке изображён средневековый замок в туманном утреннем свете, и нужно заменить дерево на переднем плане на фонтан. Достаточно написать «stone fountain with water» — и нейросеть сама подберёт освещение, текстуру камня и общую атмосферу. А если начать уточнять «ancient grey stone fountain with splashing water in foggy morning light near medieval castle», результат может оказаться перегруженным деталями, которые будут конфликтовать друг с другом.

Удаление лишних объектов

Одна из самых востребованных задач. Убрать случайного человека с фона, стереть логотип, избавиться от артефакта — всё это edit делает довольно уверенно. Тут хитрость в следующем: при удалении объекта поле промпта лучше оставить пустым или вписать описание того, что должно быть вместо объекта. Нельзя не упомянуть распространённую ошибку: пользователи пишут что-то вроде «remove the person» — и получают совершенно непредсказуемый результат. Ведь нейросеть не понимает команду «удалить» в привычном нам смысле. Она воспринимает промпт как описание желаемого содержания. Поэтому вместо «удалить человека» стоит написать «empty grass field» или «stone wall» — в зависимости от того, что находится вокруг. Тогда нейросеть заполняет маску окружающей текстурой, и результат выглядит естественно.

Замена фрагментов: одежда, лица, предметы

Тут начинается самое интересное. Допустим, сгенерирован портрет персонажа, и всё прекрасно, кроме головного убора. Или на натюрморте одна ваза совершенно не вписывается в колоритный восточный антураж. Функция edit позволяет замазать конкретный предмет и описать новый. Но есть нюанс — и довольно существенный. Чем сложнее заменяемый объект, тем важнее точно подобрать размер маски. Для замены головного убора стоит захватить кистью не только саму шляпу, но и часть волос, линию лба, может быть, даже немного фона вокруг головы. Иначе новый элемент «повиснет» в воздухе или будет криво обрезан по краям.

Отдельно стоит упомянуть работу с лицами. Это, пожалуй, самый щепетильный момент во всём редактировании. Midjourney генерирует лица с впечатляющей детализацией, и любое вмешательство в эту область чревато эффектом «зловещей долины». Если нужно слегка скорректировать выражение лица — скажем, сделать улыбку чуть заметнее — маску лучше рисовать минимальной, затрагивая только область рта и щёк. А в промпте достаточно указать «gentle smile». Впрочем, честно скажу: результат не всегда удовлетворяет с первого раза. Порой приходится делать три-четыре попытки, прежде чем нейросеть попадёт в нужное настроение.

Работа с фоном и атмосферой

Смена сезона. Буквально двумя действиями можно превратить летний пейзаж в зимний, а дневную сцену — в ночную. Для этого маской выделяется весь фон (или его львиная доля), а в промпте указывается желаемая атмосфера. Тем более что Midjourney всегда тяготел к выразительному освещению, и такие глобальные правки нейросети даются на удивление хорошо. Но вот что стоит учитывать: при смене фона персонаж или центральный объект может получить новое освещение, которое не совпадает с оригинальным. Человек, освещённый тёплым закатным светом, будет странно смотреться на фоне заснеженного леса под пасмурным небом. Поэтому в таких случаях разумнее делать редактирование в два этапа — сначала поменять фон, а потом отдельной маской подкорректировать освещение на самом объекте.

Какие ошибки всплывают чаще всего?

Главная — слишком агрессивное редактирование за один проход. Новички пытаются переделать сразу несколько элементов, рисуя маску по всему холсту. Результат, как правило, удручающий. Нейросеть теряет контекст, и вместо точечной коррекции получается хаотичная каша из стилей. Каждая правка — это отдельная итерация. Сначала одна зона, потом другая. Да, это дольше. Но качество несопоставимо.

Следующая распространённая ошибка — использование промпта на русском языке. Хотя Midjourney формально понимает русский, точность интерпретации сильно проседает. Английские промпты нейросеть обрабатывает гораздо увереннее, тем более в контексте локального редактирования, где каждое слово на счету. К тому же многие стилистические термины вроде «cinematic lighting» или «bokeh background» просто не имеют столь же ёмких русских аналогов. Ну и, конечно же, не стоит забывать про параметры. Если оригинальное изображение было сгенерировано с определёнными настройками (скажем, —style raw или конкретная версия модели), при редактировании желательно их сохранять — иначе стилистика заплатки будет отличаться от остального холста.

Расширение холста через edit

Функцию редактирования можно использовать не только для замены элементов, но и для расширения границ изображения. Это так называемый outpainting — приём, когда нейросеть «дорисовывает» картинку за пределами оригинальных рамок. В Midjourney для этого нужно воспользоваться инструментом pan или zoom out, а затем уже доводить результат через edit. К слову, расширенные области часто выглядят чуть менее детализированными, чем центральная часть. Это связано с тем, что нейросеть вынуждена «додумывать» контекст без чётких ориентиров. Спасательный круг в такой ситуации — последующая точечная правка проблемных зон через ту же функцию edit. Получается своеобразный итеративный процесс: расширил, подправил, расширил ещё, снова подправил.

Сколько итераций нужно для хорошего результата?

Однозначного ответа нет. Простая замена фона или удаление мелкого объекта может удасться с первой попытки. А вот сложные композиционные правки — замена позы персонажа, добавление нового крупного объекта, изменение перспективы — порой требуют пяти-семи итераций. И это нормально. Не стоит гнаться за идеалом с первого клика. Ведь даже добротный фотошоп-мастер тратит на ретушь не одну минуту. Нейросеть работает быстрее (каждая итерация занимает секунд двадцать-тридцать), но принцип тот же: терпеливый последовательный подход бьёт хаотичные попытки наудачу.

Кстати, каждая итерация расходует ресурсы подписки. На базовом тарифе количество генераций ограничено, и бездумное спамление кнопкой edit довольно быстро съедает месячный лимит. Поэтому перед каждым запуском редактирования стоит задуматься: точно ли маска нарисована правильно? Верно ли сформулирован промпт? Не захватила ли кисть лишнего? Пара секунд рефлексии экономит десятки минут ожидания и сотни «быстрых часов» подписки.

Сравнение с внешними инструментами

Многие считают, что проще перетащить изображение в Photoshop и сделать всё там. И доля правды в этом есть — Adobe Generative Fill даёт больше контроля, особенно если речь идёт о скрупулёзной коррекции цвета или сложной работе со слоями. Однако у встроенного редактора Midjourney есть неоспоримое преимущество: он рисует в том же стиле, что и оригинальное изображение. Внешняя нейросеть (будь то DALL-E внутри Photoshop или Stable Diffusion) может выдать результат в слегка отличной манере, и несоответствие бросается в глаза. А Midjourney редактирует «своей рукой», сохраняя характерную пластику, фактуру и цветовой профиль. Для тех, кому важна стилистическая целостность конечного изображения, это серьёзный аргумент.

Впрочем, ложка дёгтя тоже присутствует. Встроенный редактор не умеет работать с текстом на изображении (надписи он корёжит почти всегда), плохо справляется с геометрически точными объектами вроде архитектурных чертежей и иногда «забывает» мелкие детали при перерисовке крупных областей. Для таких задач внешний инструмент по-прежнему незаменим. Идеальный рабочий процесс — это комбинация: грубую генерацию и основные правки делать в Midjourney, а финальную шлифовку проводить в графическом редакторе.

Все топовые нейросети в одном месте

Практические советы для продвинутого редактирования

С чего начать? С самой маленькой правки. Даже если нужно изменить несколько элементов, всегда стоит начинать с наименее значимого — например, с фоновой детали или с цвета мелкого аксессуара. Это позволяет «прощупать» реакцию нейросети на конкретное изображение и понять, насколько агрессивно она вмешивается в окружающие области. Бывает, что одна и та же маска на разных картинках ведёт себя по-разному — на одной результат безупречный, на другой нейросеть зачем-то перекрашивает небо, хотя его никто не трогал.

Ещё один изящный приём — «мягкое наведение» через отрицательные промпты. Если в промпте указать параметр —no с нежелательным элементом, нейросеть будет активнее избегать его при перерисовке маски. Допустим, при замене фона постоянно появляются облака, которые совсем не нужны. Добавление —no clouds к промпту заметно снижает вероятность их появления. Этот нюанс знают далеко не все пользователи, а между тем он способен сэкономить внушительное количество итераций.

Ну, а для тех, кто работает с персонажами, настоящая изюминка — совмещение edit с функцией —cref (character reference). Сначала генерируется персонаж, затем через edit корректируются детали, а при последующих генерациях с тем же персонажем используется ссылка на отредактированное изображение. Так можно постепенно «вылепить» именно того героя, который задуман, без необходимости описывать каждую деталь в промпте. Процесс не быстрый, но кропотливый — и результат заслуживает потраченного времени.

Функция edit в Midjourney — инструмент, который меняет сам подход к генеративному искусству. Вместо бесконечного перебора вариаций появляется возможность осмысленной, пошаговой работы над изображением. Да, он не заменяет полноценный графический редактор и не лишён недостатков. Но для большинства задач — от удаления мелких артефактов до серьёзных композиционных правок — этого инструмента хватает с лихвой. Удачи в экспериментах, и пусть каждая итерация приближает картинку к тому образу, который живёт у вас в голове.