Как изменить своё фото в Midjourney: инструкция по обработке изображений

Нейросети за последние пару лет перевернули привычное отношение к фотографии. Буквально вчера для качественной ретуши портрета требовался Photoshop, многочасовое ковыряние в слоях и хотя бы минимальное знание кривых с масками. А сегодня достаточно грамотно составленного текстового запроса — и искусственный интеллект выдаёт результат, от которого челюсть отвисает даже у бывалых дизайнеров. Midjourney в этом смысле стоит особняком: инструмент не просто генерирует картинки «из головы», но и умеет работать с реальными фотографиями, превращая обычный снимок со смартфона в нечто совершенно иное. Однако подводных камней тут хватает, и без понимания механики легко получить нечто среднее между карикатурой и ночным кошмаром. Поэтому перед первым экспериментом со своим лицом стоит разобраться в нюансах.

Все топовые нейросети в одном месте

Что умеет Midjourney с реальными фотографиями?

Многие считают, что Midjourney — это исключительно генератор фантастических иллюстраций, но на самом деле спектр возможностей куда шире. Нейросеть способна принять пользовательское изображение в качестве референса и отталкиваться от него при создании нового кадра. Дело в том, что алгоритм анализирует композицию, цветовую гамму, черты лица и общее настроение снимка, а затем «перерисовывает» всё это с учётом текстового промта. Хочется увидеть себя в образе персонажа эпохи Возрождения? Пожалуйста. Грезите о кинематографичном портрете в стиле нуар? Без проблем. А вот точное воспроизведение лица — штука капризная, и тут важен каждый нюанс.

Стоит отметить, что Midjourney не редактирует фото в привычном понимании этого слова. Инструмент не убирает прыщи и не отбеливает зубы — он создаёт новое изображение, вдохновлённое исходником. Это принципиальная разница, которую многие новички упускают. Загрузив свой снимок, вы получаете не ретушь, а скорее художественную интерпретацию. Иногда потрясающую. Иногда — довольно спорную. Всё зависит от качества исходника, точности промта и выбранной версии модели.

Подготовка исходного снимка

Мусор на входе — мусор на выходе. Это правило работает везде, и нейросети не исключение. Прежде чем загружать фотографию в Midjourney, стоит позаботиться о её качестве. Разрешение желательно не ниже 1024 на 1024 пикселей, хотя и с меньшим размером алгоритм справится — просто результат окажется менее детализированным. Лицо на снимке должно быть хорошо освещено, без резких теней, закрывающих половину физиономии. Ведь нейросеть «достраивает» то, чего не видит, и зачастую достраивает весьма вольно.

Ваш личный ИИ-отдел маркетинга, который работает 24/7 📈

Ускорьте создание контента в 10 раз! Этот мульти-ИИ сервис позволяет писать безупречные продающие посты, генерировать уникальные фото для соцсетей, создавать рекламные промо-ролики с нуля и писать для них музыку в пару кликов. Идеальное решение для предпринимателей, маркетологов и SMM-специалистов. Всё в едином удобном интерфейсе — больше не нужно переключаться между десятком вкладок.

Делегируйте рутину искусственному интеллекту и увеличивайте продажи. Начните работу здесь 👉 https://clck.ru/3RNCRL

Отдельно стоит упомянуть фон. Чем он проще и однороднее, тем точнее алгоритм «вычленит» именно вашу фигуру и черты. Замусоренный задний план с толпой людей, пёстрыми вывесками и случайными предметами сбивает модель с толку. И ещё один щепетильный момент — ракурс. Фронтальный портрет или лёгкий поворот в три четверти дают наилучший результат. А вот фото в профиль или снятое снизу вверх нейросеть нередко интерпретирует совершенно непредсказуемо. Да и пересвеченные участки алгоритм может превратить во что угодно — от светящегося ореола до странных артефактов на коже.

Как загрузить своё фото в Midjourney?

Процесс не сложный, но кропотливый в деталях. Работа с Midjourney по-прежнему ведётся через Discord (или через веб-интерфейс на официальном сайте, если вы оформили подписку). Первым делом нужно перейти в чат с ботом — личные сообщения подойдут лучше всего, чтобы не засорять общие каналы. Далее фотографию следует загрузить прямо в чат, просто перетащив файл в окно диалога или нажав на значок вложения. После загрузки Discord присвоит изображению прямую ссылку.

Вот тут начинается самое интересное. Нужно кликнуть по загруженной картинке, открыть её в полном размере и скопировать URL. Эта ссылка и станет «якорем» для промта. Команда строится по схеме: сначала /imagine, затем вставляется скопированная ссылка на фото, а после неё — текстовое описание желаемого результата. Между ссылкой и текстом стоит оставить пробел. Казалось бы, мелочь, но без неё бот иногда отказывается понимать запрос. К слову, загрузить можно и несколько фотографий одновременно — нейросеть попытается «смешать» их в одном результате, что открывает совершенно безумные возможности для экспериментов.

Составление промта — львиная доля успеха

Промт решает всё. Без преувеличения. Вы можете загрузить идеальное студийное фото, но если текстовое описание составлено небрежно, результат разочарует. Начать стоит с определения стиля. Хотите реалистичный портрет — так и пишите: realistic portrait photo, soft lighting, 85mm lens. Тяготеете к живописи — добавляйте oil painting, baroque style, dramatic chiaroscuro. Midjourney прекрасно понимает отсылки к конкретным художникам, фотографам и даже кинооператорам.

Следующий важный критерий — детализация описания лица и окружения. Если хочется сохранить максимальное сходство с оригиналом, стоит добавить параметр —iw (image weight). Значение этого параметра варьируется от 0 до 2, где двойка заставляет алгоритм сильнее опираться на загруженный снимок. При значении 0.5 нейросеть возьмёт от фото лишь общее настроение, а при 1.5–2 постарается максимально точно передать черты. Впрочем, даже с высоким весом стопроцентного попадания ждать не стоит — Midjourney всё-таки не копировальный аппарат. Ну и, конечно же, не стоит забывать про параметр —s (stylize), который контролирует степень «художественности» результата. Низкое значение (около 50–100) даст более «честный» результат, а высокое (750 и выше) превратит ваш портрет в настоящее арт-произведение — правда, ценой сходства.

Стоит ли использовать режим /describe?

А вот это настоящий кладезь для тех, кто не дружит с составлением промтов на английском. Команда /describe работает в обратном направлении: вы загружаете изображение, а Midjourney сама генерирует четыре варианта текстового описания того, что «видит» на картинке. Эти описания можно использовать как основу для собственного промта, слегка подредактировав формулировки под свои нужды. Довольно удобный спасательный круг, особенно на первых порах.

Однако есть ложка дёгтя. Описания, которые выдаёт бот, зачастую перегружены деталями или, наоборот, упускают что-то важное. Нейросеть может «увидеть» в вашем повседневном фото отсылки к конкретному фотографу, о котором вы слышите впервые, или приписать снимку стиль, от которого вы далеки. Поэтому слепо копировать результат /describe — не лучшая стратегия. Разумнее взять из описания самые точные фрагменты и скомбинировать их со своими пожеланиями. Тем более что такой «гибридный» подход обычно даёт куда более предсказуемый результат.

Режим Vary и доработка результата

Первая генерация редко попадает в точку. Это нормально. Midjourney выдаёт сетку из четырёх вариантов, и среди них нужно выбрать наиболее удачный. Под сеткой располагаются кнопки U1–U4 (upscale, то есть увеличение конкретного варианта) и V1–V4 (variations — создание новых вариаций на основе выбранного). Кнопки V — это, по сути, тонкая настройка. Нажав V на понравившемся результате, вы получите четыре его «родственника», слегка отличающихся деталями, ракурсом или цветовой палитрой.

Нужно отметить, что в пятой версии Midjourney появилась функция Vary (Subtle) и Vary (Strong). Первая вносит минимальные коррективы — пригодится, когда результат уже почти идеален и хочется лишь чуть-чуть подправить выражение глаз или расположение тени. Вторая — перерабатывает картинку более радикально, сохраняя лишь общую концепцию. Между ними есть ещё Vary (Region), и вот эта штука заслуживает отдельного внимания. С её помощью можно выделить конкретную область изображения (например, фон или одежду) и перегенерировать только её, не трогая остальное. Безусловно, для работы с собственным фото это бесценный инструмент: лицо осталось удачным, а вот костюм не устроил — выделяешь область, дописываешь промт, и нейросеть перерисовывает только выбранный фрагмент.

Какими бывают подводные камни?

Самая распространённая проблема — потеря сходства. Даже с высоким —iw Midjourney порой выдаёт лицо, лишь отдалённо напоминающее оригинал. Это связано с тем, что модель не «запоминает» конкретного человека, а работает с общими паттернами. Глаза могут стать чуть больше, нос — чуть тоньше, а скулы — острее. Для художественного портрета это вполне допустимо, но если цель — получить узнаваемое лицо, придётся повозиться.

Ещё один неоднозначный момент — руки и пальцы. Буквально пару версий назад с этим была полная катастрофа: шесть пальцев на одной руке считались «нормой» для нейросети. Сейчас ситуация улучшилась, однако при полной фигуре артефакты всё ещё всплывают. Не стоит забывать и про этические ограничения. Midjourney отказывается генерировать откровенно неприемлемый контент и может заблокировать запрос, если промт содержит определённые слова. К тому же использование чужих фотографий без разрешения — территория, на которую лучше не ступать. Да и с собственными снимками стоит быть аккуратнее: результат генерации может оказаться в открытом доступе на сайте Midjourney, если у вас базовая подписка без режима Stealth.

Параметры, на которые стоит обратить внимание

Помимо уже упомянутых —iw и —s, есть несколько других тонкостей, способных кардинально повлиять на результат. Во-первых, параметр —ar задаёт соотношение сторон итогового изображения. Для портрета оптимально подойдёт 2:3 или 3:4, а для аватарки в социальных сетях — 1:1. Во-вторых, —q (quality) определяет количество вычислительных ресурсов, затрачиваемых на генерацию. Значение 2 даст максимально проработанное изображение, но и времени потребует больше. Ну и, наконец, —no позволяет исключить нежелательные элементы из картинки: —no glasses, —no beard, —no hat — и нейросеть постарается убрать из результата очки, бороду или шляпу соответственно.

Кстати, параметр —c (chaos) — довольно недооценённый инструмент. При низком значении (0–20) все четыре варианта в сетке будут похожи друг на друга. А вот при значении 50–100 разброс окажется колоссальным: от фотореалистичного портрета до абстрактной живописи. Для первых экспериментов лучше держать chaos на минимуме, но когда захочется чего-то неожиданного — смело крутите вверх. Иногда самые удачные результаты рождаются именно из хаоса.

Сравнение с другими инструментами

Midjourney — далеко не единственный добротный инструмент для работы с фотографиями через нейросети. DALL-E 3 от OpenAI неплохо справляется с генерацией по описанию, но с пользовательскими фото работает иначе и менее гибко. Stable Diffusion, развёрнутый локально, даёт полный контроль над процессом, включая модели для точной передачи лица (вроде IP-Adapter или InstantID), однако порог входа там значительно выше — нужны мощная видеокарта и готовность разбираться в настройках. А вот онлайн-сервисы типа Lensa или Remini хороши для быстрой стилизации, но глубина кастомизации у них минимальна.

С Midjourney дело обстоит где-то посередине: не так сложно, как Stable Diffusion, но куда гибче, чем мобильные приложения. Тем более что интерфейс через Discord, при всей его непривычности, со временем оказывается даже удобным — история промтов всегда под рукой, а результаты можно пересматривать и дорабатывать спустя дни и недели. И всё же для максимально точной передачи лица Midjourney пока уступает специализированным решениям на базе Stable Diffusion. Это та самая обе стороны медали: простота против точности.

Как добиться максимального сходства?

Главная хитрость — многоступенчатый подход. Не стоит надеяться, что одного промта хватит. Опытные пользователи генерируют десятки вариаций, выбирают лучшую и запускают новый цикл уже на её основе. Первый «проход» задаёт общую композицию и стиль. Второй — уточняет детали через Vary (Region). Третий — финальная доводка с минимальными корректировками через Vary (Subtle). Процесс напоминает работу скульптора: сначала грубая форма, потом мелкая проработка.

К тому же стоит задуматься о так называемых «негативных промтах» через параметр —no. Если нейросеть упорно добавляет вашему лицу веснушки, которых у вас нет, — прямо прописывайте —no freckles. Если глаза из карих превращаются в голубые — —no blue eyes. Такой скрупулёзный подход отнимает время, но результат того стоит. Ведь именно в мелочах кроется разница между «похоже на меня» и «это точно я». Нельзя не упомянуть и приём с несколькими ракурсами: загрузив два-три фото одного человека (анфас и полупрофиль), можно повысить шансы на узнаваемость. Нейросеть получает больше информации о геометрии лица, и «достраивать» ей приходится меньше.

Этика и авторские права

Вопрос неоднозначный и довольно горячий. С юридической точки зрения ситуация до сих пор не урегулирована в большинстве стран. Midjourney в своих условиях использования оговаривает, что коммерческие права на сгенерированное изображение принадлежат пользователю — при наличии платной подписки. Но вот насчёт изображений, созданных на основе фотографий других людей, всё гораздо туманнее. Использовать чужое лицо без согласия — потенциальная зона конфликта, даже если пока судебной практики по таким случаям немного.

Все топовые нейросети в одном месте

С собственными фотографиями проще, но и тут есть нюансы. Изображения, сгенерированные через Midjourney на бесплатном тарифе (когда он был доступен) или на базовой подписке, попадают в публичную галерею на сайте. Это значит, что ваш стилизованный портрет может увидеть кто угодно. Режим Stealth, скрывающий генерации от посторонних глаз, доступен только на Pro-подписке (60 долларов в месяц). Не сильно ударит по кошельку, если инструмент используется для работы, но для разовых экспериментов — серьёзное вложение.

Практические советы из личного опыта

За месяцы экспериментов накопилось несколько наблюдений, которые сэкономят время. Во-первых, фото на однотонном фоне (даже обычная белая стена) работают в разы лучше, чем снимки на природе или в кафе. Во-вторых, естественное дневное освещение без вспышки — залог того, что нейросеть корректно передаст тон кожи и не «нарисует» лишних теней. Ну, а в-третьих, промт на английском языке по-прежнему даёт более предсказуемый результат, чем на русском, хотя Midjourney формально поддерживает оба варианта.

Отдельно хочется сказать про версии модели. На момент написания актуальна шестая версия (v6), и именно она лучше всего справляется с фотореалистичной обработкой портретов. Пятая версия тяготеет к более «иллюстративному» результату, а четвёртая — и вовсе антиквариат. Переключение между версиями происходит через параметр —v 6 в конце промта или через настройки командой /settings. Не стоит лениться и проверять, на какой именно модели вы работаете — разница бросается в глаза с первого взгляда.

Экспериментировать с собственными фотографиями в Midjourney — занятие, которое затягивает с головой. Первый удачный результат вызывает восторг, второй — азарт, а к десятому начинаешь понимать внутреннюю логику нейросети и чувствовать, какие формулировки «заходят», а какие — нет. Процесс творческий, местами непредсказуемый, но именно в этой непредсказуемости и кроется изюминка. Удачи в экспериментах — пусть каждая новая генерация приближает вас к тому самому идеальному портрету, который захочется поставить на аватарку во всех социальных сетях разом.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *