Ещё пару лет назад сама идея подмены лица на сгенерированном изображении казалась уделом профессионалов с лицензионным Photoshop и парой свободных часов. Нейросети всё изменили — причём стремительно. Midjourney ворвалась в мир генеративного искусства, породив целую экосистему сторонних инструментов, ботов и хитроумных команд, которые позволяют буквально за минуту «пересадить» одно лицо на другое. Звучит просто, однако подводных камней здесь хватает: от кривого освещения до жутковатых артефактов вокруг линии волос. А потому перед тем как бросаться экспериментировать, стоит разобраться, какие решения действительно работают, а какие — лишь красивая обёртка.
Зачем вообще менять лицо на нейрокартинке?
Вопрос не праздный. Казалось бы, Midjourney и без того генерирует впечатляющие портреты — зачем же вмешиваться? Дело в том, что нейросеть каждый раз создаёт случайное лицо, и повторить его в другой генерации практически невозможно. Для коммерческих проектов — рекламных баннеров, обложек книг, презентаций — нужна консистентность: один и тот же персонаж в разных ракурсах и сценах. Вот тут-то замена лица и становится спасательным кругом. К тому же блогеры, дизайнеры мерча и даже разработчики настольных игр всё чаще прибегают к этому трюку, чтобы создать узнаваемый визуальный стиль без найма фотографа и модели. Ну и, конечно же, простое человеческое любопытство — увидеть себя в образе рыцаря или киберпанк-героя — никто не отменял.
InsightFace — главный инструмент сообщества
Настоящая рабочая лошадка. Бот InsightFace (в Discord он фигурирует под именем Midjourney /saveid и дружественным тегом INSwapper) завоевал львиную долю рынка face-swap среди пользователей Midjourney. Принцип работы довольно прозрачен: сначала пользователь загружает в бота своё фото командой /saveid, присваивая ему короткое имя (скажем, «myface»), а затем, когда Midjourney сгенерирует подходящее изображение, достаточно вызвать команду /swapid с указанием этого имени — и бот подставит сохранённое лицо на место сгенерированного. Весь процесс занимает секунд тридцать–сорок, что по меркам ручной ретуши — молниеносно.
Но есть нюанс. Бесплатная версия InsightFace ограничена количеством подмен в сутки — около пятидесяти. Для коммерческого использования кошелёк станет легче: подписка стартует примерно от десяти долларов в месяц, хотя точные цифры периодически меняются. Качество же результата зависит от исходного фото. Снимок с ровным освещением, без резких теней на скулах и с нейтральным выражением — вот идеальный «донор». А если загрузить селфи с пересветом на лбу, артефакты вокруг бровей всплывут почти гарантированно.
Все топовые нейросети в одной подписке! 🚀
Устали оплачивать десятки сервисов отдельно и постоянно включать VPN? Появилась платформа, которая объединяет более 90 передовых ИИ в одном окне. Пишите тексты с новейшими версиями GPT и Claude, создавайте шедевры в Midjourney и генерируйте видео в Sora и Kling. Тексты, изображения, видео и музыка — всё работает на любых устройствах без «танцев с бубном».
Попробуйте бесплатно прямо сейчас! Переходите по ссылке и получите бонусные токены для старта 👉 https://clck.ru/3RNCRL
Стоит ли пробовать Picsi.AI?
Отдельно стоит упомянуть онлайн-сервис Picsi.AI, который позиционирует себя как добротный автономный инструмент для замены лиц, работающий в связке с любыми генеративными моделями. В отличие от InsightFace, привязанного к Discord, Picsi функционирует через веб-интерфейс. Загрузил сгенерированное в Midjourney изображение, загрузил фото-донор — получил результат. Всё интуитивно. Впрочем, на скорость обработки жаловаться тоже не приходится: среднее время — около двадцати секунд на одно изображение разрешением 1024×1024.
Ложка дёгтя — бесплатный тариф крайне скромный (пять–десять замен в день), а на выходе картинка иногда получает едва заметный водяной знак. Для личных экспериментов это не критично, но для коммерческих задач придётся раскошелиться. Тем более что расширенная подписка включает пакетную обработку, а это экономит время при работе с серией из двадцати–тридцати изображений для одного проекта.
Reactor и ReFace: расширения для комфортной работы
Мир нейросетевого фейс-свопа не ограничивается одним лишь Discord. Для тех, кто работает через Stable Diffusion в связке с Midjourney (а таких, кстати, немало — многие генерируют основу в MJ, а доводку делают в SD), существует расширение Reactor. Это наследник знаменитого Roop, который в своё время наделал шума и был удалён с GitHub по этическим соображениям. Reactor подхватил эстафету, сохранив ядро технологии, но добавив более гибкие настройки: регулировку степени смешения лиц, выбор модели распознавания и даже возможность замены нескольких лиц на одном изображении одновременно. Процесс не сложный, но кропотливый — каждый параметр влияет на финальный результат.
Если же хочется чего-то попроще, внимание приковывает мобильное приложение ReFace. Да, оно не встроено в Midjourney напрямую, но схема использования элементарна: сохранил картинку из Midjourney на телефон, открыл ReFace, загрузил изображение и своё фото — готово. Качество на удивление приличное для мобильного решения, хотя на крупных планах (особенно в профиль) огрехи всё-таки бросаются в глаза. И ведь именно мелкие детали — тени под подбородком, текстура кожи на висках — выдают подмену опытному зрителю.
Какие команды Midjourney помогают при замене лица?
Сама Midjourney не имеет встроенной функции face swap — это стоит понимать сразу. Однако набор её нативных команд способен серьёзно упростить жизнь тому, кто планирует подмену через сторонние инструменты. Начать нужно с параметра —cref (character reference), появившегося в пятой и шестой версиях модели. Он позволяет «привязать» к генерации эталонное изображение персонажа, и нейросеть попытается воспроизвести его черты. Это не полноценный face swap, но довольно близко к нему — лицо на выходе сохраняет около семидесяти–восьмидесяти процентов сходства с оригиналом.
Далее следует параметр —cw (character weight), который управляет «силой» влияния эталонного изображения. Значение 100 (максимальное) заставляет модель копировать и лицо, и одежду, и позу. А вот при значении 0 модель перенимает только лицо, игнорируя остальное. На практике золотая середина — где-то между 30 и 60: достаточно, чтобы сохранить узнаваемость, но не настолько много, чтобы изображение потеряло креативность. Ну, а если к этому добавить ещё и —sref (style reference), то можно одновременно контролировать и персонажа, и общий визуальный стиль генерации.
Нельзя не упомянуть и базовую функцию загрузки изображения через ссылку прямо в промт. Схема такая: пользователь вставляет URL фотографии лица перед текстовым описанием, и Midjourney воспринимает его как ориентир. Способ грубоватый, результат менее предсказуемый, чем через —cref, но иногда он срабатывает даже лучше — особенно когда нужен не точный портрет, а общее впечатление «похожести». К слову, многие опытные пользователи комбинируют оба подхода: сначала генерируют базу с вставленной ссылкой, затем дорабатывают через —cref, а финальную подмену делают уже в InsightFace.
Подготовка исходных фотографий
Мелочь, которая решает всё. От качества фото-донора зависит девяносто процентов успеха, и не стоит этим пренебрегать. Идеальный исходник — фронтальный портрет с мягким рассеянным светом, без очков, без челки, закрывающей лоб, и с закрытым ртом (нейтральная улыбка допускается). Разрешение — не менее 512×512 пикселей, хотя 1024×1024 работает заметно лучше. Дело в том, что алгоритмы распознавания опираются на контрольные точки — глаза, нос, уголки губ, линия челюсти. Если какая-то из этих зон скрыта или искажена, результат получается, мягко говоря, неоднозначный.
Ещё один щепетильный момент — цветовая температура. Если донорское фото снято при тёплом лампочном свете, а сгенерированное изображение выполнено в холодных голубых тонах, то лицо после подмены будет «выбиваться» из общей палитры. Хороший совет — предварительно обработать фото-донор, приведя его к нейтральному балансу белого (около 5500 кельвин). Это легко делается в любом бесплатном редакторе за пару кликов. Да и сам Midjourney охотнее «принимает» нейтрально освещённые изображения через параметр —cref.
Этические и правовые нюансы
Тема скользкая. Многие грезят о возможности вставить чьё угодно лицо в любую сцену, однако правовая сторона вопроса тут же охлаждает пыл. В большинстве юрисдикций использование чужого изображения без согласия — прямое нарушение права на приватность. И речь идёт не только о знаменитостях: даже коллега по работе может подать жалобу, обнаружив своё лицо в рекламном коллаже. Midjourney, к слову, с версии 5.2 ужесточила политику и блокирует промты, содержащие имена реальных людей в связке с визуальными запросами.
А вот для самого себя — полная свобода. Хочешь увидеть себя в роли ренессансного дворянина или персонажа киберпанк-вселенной? Никаких препятствий. Тем более что коммерческое использование собственных «аватаров» (для авторских блогов, обложек подкастов, NFT-коллекций) — вполне легитимная практика. Главное — не стоит забывать, что при публикации сгенерированных изображений на маркетплейсах или в рекламе в отдельных странах уже требуется маркировка «создано с помощью ИИ».
Как добиться максимального сходства?
Секрет кроется в итерациях. С первого раза идеальную замену получают единицы — и то скорее по счастливому стечению обстоятельств. Опытные пользователи прогоняют один и тот же сет через InsightFace по три–четыре раза, каждый раз слегка корректируя промт в Midjourney. Во-первых, стоит экспериментировать с ракурсом: если донорское фото строго фронтальное, а сгенерированный персонаж повёрнут на тридцать градусов, результат будет хуже. Во-вторых, совпадение пропорций лица играет огромную роль — попытка натянуть узкое вытянутое лицо на широкоскулый персонаж даст нелепый эффект.
Кроме того, творит чудеса параметр —stylize (или —s) в Midjourney. При высоких значениях (от 500 до 1000) нейросеть сильнее стилизует изображение, отдаляя его от фотореализма — и, как ни парадоксально, в таких случаях замена лица выглядит естественнее. Это связано с тем, что зритель не ожидает фотографической точности от стилизованной картинки и «прощает» мелкие несовпадения. А вот при значении —s 50 (минимальная стилизация) любой огрех бросается в глаза моментально. Безусловно, всё зависит от задачи: для мемов и развлекательного контента стилизация — верный друг, а для портретов «как настоящие» придётся повозиться.
Сравнение популярных решений
Начнём с самого востребованного. InsightFace (INSwapper) тяготеет к реалистичной подмене с минимальным вмешательством в фон и освещение. Его сильная сторона — скорость и интеграция прямо в Discord, что избавляет от необходимости переключаться между приложениями. Слабая сторона — довольно ограниченные настройки: нельзя тонко подкрутить степень смешения или выбрать, какую именно часть лица заменять. По сути, это «всё или ничего».
Reactor для Stable Diffusion — полная противоположность. Здесь настроек хватает с избытком, но и порог входа выше: потребуется локальная установка SD, знание интерфейса AUTOMATIC1111 или ComfyUI, а иногда и возня с зависимостями Python. Для обывателя это может показаться чем-то пугающим, но для продвинутого пользователя такой добротный набор функций — настоящий кладезь возможностей. Picsi.AI занимает промежуточную нишу: удобнее Reactor, гибче InsightFace, но привязан к облаку, а значит — к стабильности интернет-соединения и к серверу стороннего сервиса.
Ну, а ReFace — скорее инструмент для развлечения. Быстро, мобильно, весело. Но для серьёзных задач с крупноформатной печатью или детализированной графикой его возможностей, откровенно говоря, маловато. Да и разрешение на выходе оставляет желать лучшего — максимум 1024 пикселя по длинной стороне, что для печатного макета категорически недостаточно.
Типичные ошибки новичков
Задача не из лёгких — признать собственные промахи, но именно на них строится прогресс. Первая и самая распространённая ошибка — загрузка группового фото в качестве донора. Алгоритм теряется, не понимая, чьё именно лицо брать за основу, и результат получается, мягко говоря, удручающий. Вторая типичная оплошность — попытка заменить лицо на изображении со слишком сложным фоном (перья, маски, шлемы, закрывающие часть лица). В таких случаях InsightFace начинает «съедать» элементы декора вокруг лица, заменяя их размытыми пятнами.
Третий подводный камень — несоответствие возраста. Ведь если донор — тридцатилетний мужчина, а сгенерированный персонаж — глубокий старик с морщинами, то ни один алгоритм не сгладит эту пропасть красиво. Текстура кожи, глубина складок, даже форма бровей — всё это привязано к возрасту, и при резком несовпадении лицо «плывёт». Совет прост: стоит генерировать в Midjourney персонажа, максимально близкого по возрасту и типажу к донору. А уже потом, при необходимости, состарить или омолодить результат через отдельные инструменты вроде FaceApp.
Что насчёт видео?
Отдельная история. Midjourney пока работает только со статичными изображениями, но мир не стоит на месте. Для тех, кто хочет анимировать полученную после face swap картинку, существуют инструменты вроде D-ID, HeyGen и Runway Gen-2. Схема такая: сначала генерируется идеальный портрет в Midjourney, затем через InsightFace подставляется нужное лицо, и только после этого готовое изображение загружается в видеоплатформу, где «оживает» — начинает говорить, моргать, поворачивать голову. Выглядит впечатляюще, хотя и немного жутковато, если присмотреться к движению губ.
С другой стороны, стоимость таких экспериментов не сильно ударит по кошельку: D-ID, например, предлагает несколько бесплатных генераций в месяц, а HeyGen — пробный период на пять минут видео. Для демонстрации клиенту или забавного поздравления коллеге — вполне достаточно. А вот для полноценного рекламного ролика хронометражем хотя бы в минуту придётся оформлять подписку, которая начинается от двадцати пяти долларов в месяц.
Перспективы технологии
Буквально год назад параметр —cref ещё не существовал, а InsightFace работал заметно грубее. Сейчас же темп развития такой, что каждое обновление Midjourney (а выходят они примерно раз в два–три месяца) приносит улучшения в консистентности персонажей. Многие ждут, что в седьмой версии модели появится нативный face swap без сторонних костылей. Слухи об этом ходят по тематическим форумам с начала 2025 года, но официального подтверждения пока нет.
Впрочем, даже без встроенной функции экосистема уже сейчас позволяет решать практически любую задачу — от мемов до профессиональной иллюстрации. Главное — не стоит гнаться за самым дорогим инструментом и не стоит пренебрегать подготовкой исходников. Скрупулезный подход к выбору донорского фото, грамотный промт в Midjourney и пара итераций в InsightFace — вот рецепт результата, который порадует и заказчика, и самого автора. Удачи в экспериментах — перевоплощение ещё никогда не было настолько доступным.

