Ещё пару лет назад генерация изображений по текстовому описанию казалась чем-то из области научной фантастики — нейросети выдавали размытые пятна с шестью пальцами на руках, а на лица персонажей без содрогания смотреть было невозможно. Но технологии стремительно набирали обороты, и вот уже целое сообщество художников, дизайнеров и просто любопытных обывателей ежедневно создаёт тысячи картинок, от которых захватывает дух. Львиная доля этого визуального потока приходится на Midjourney — сервис, который с каждым обновлением всё сильнее стирает границу между машинным творчеством и работой живого иллюстратора. И вот в 2025 году команда Дэвида Хольца выкатила седьмую версию модели, а вместе с ней — внушительный набор нововведений. Но чтобы разобраться, стоит ли весь этот ажиотаж потраченного времени, нужно разложить каждую новую функцию по полочкам.
Что изменилось в самой модели?
Главная новость, которая приковывает внимание с первых минут знакомства с v7, — это колоссальный скачок в понимании промтов. Раньше нейросеть довольно вольно интерпретировала запросы: просишь «старый кирпичный дом на краю обрыва с видом на море», а получаешь замок посреди пустыни. Ну, почти. В седьмой версии дело обстоит иначе — модель научилась куда точнее разбирать сложные текстовые конструкции, улавливая пространственные отношения между объектами. Кстати, это касается и абстрактных описаний: если раньше фраза «тоска по утраченному детству» порождала нечто невразумительное, то теперь результат выглядит впечатляюще — с эмоциональной глубиной, продуманной композицией и цветовой палитрой, которая действительно передаёт настроение. Связано это с тем, что архитектуру модели существенно переработали, увеличив количество параметров и изменив подход к обучению на размеченных наборах изображений.
Отдельно стоит упомянуть реалистичность. Ведь именно фотореализм всегда был козырной картой Midjourney. В v7 детализация вышла на совершенно новый уровень — текстура кожи, блики на мокром асфальте, мельчайшие ворсинки на ткани. Всё это нейросеть прорабатывает с такой скрупулёзностью, что отличить сгенерированный портрет от студийной фотографии с первого взгляда получится далеко не у каждого. А вот руки — вечная ложка дёгтя генеративных моделей — наконец-то выглядят анатомически корректно. Не всегда, конечно. Но процент «косяков» сократился настолько, что на профильных форумах эту тему обсуждают всё реже.
Персонализация и запоминание стиля
Грандиозное нововведение. Именно так хочется охарактеризовать функцию, которую команда назвала Style Memory. Вся суть в том, что теперь Midjourney способна «запоминать» предпочтения конкретного пользователя — от цветовой гаммы и стилистических приёмов до излюбленных ракурсов и настроения. Если на протяжении нескольких десятков генераций вы тяготеете к мрачной кинематографической эстетике с приглушёнными тонами, модель это учтёт. И при следующем запросе без дополнительных уточнений выдаст результат именно в этом ключе. По сути, нейросеть формирует цифровой слепок вашего художественного вкуса. Разумеется, эту функцию можно отключить — достаточно добавить к промту специальный параметр —no-memory, и генерация пойдёт «с чистого листа».
Ваш личный ИИ-отдел маркетинга, который работает 24/7 📈
Ускорьте создание контента в 10 раз! Этот мульти-ИИ сервис позволяет писать безупречные продающие посты, генерировать уникальные фото для соцсетей, создавать рекламные промо-ролики с нуля и писать для них музыку в пару кликов. Идеальное решение для предпринимателей, маркетологов и SMM-специалистов. Всё в едином удобном интерфейсе — больше не нужно переключаться между десятком вкладок.
Делегируйте рутину искусственному интеллекту и увеличивайте продажи. Начните работу здесь 👉 https://clck.ru/3RNCRL
Многие считают, что такой подход лишает творчества, — мол, машина навязывает вам ваш же собственный стиль, и вырваться из этого круга становится сложнее. Но на самом деле всё ровно наоборот. Style Memory — это спасательный круг для тех, кто работает над серией иллюстраций в едином визуальном стиле: книжные обложки, раскадровки, брендбуки. Раньше приходилось каждый раз заново прописывать длинные конструкции вроде «cinematic lighting, muted tones, film grain, shallow depth of field», а сейчас нейросеть подхватывает контекст автоматически. Да и для обычного пользователя это удобно. Ведь не каждый готов тратить по двадцать минут на оттачивание промта.
Стоит ли переходить с шестой версии?
Вопрос неоднозначный. С одной стороны, v6 и сегодня прекрасно справляется с большинством задач — от концепт-арта до фотореалистичных портретов. С другой, разрыв между версиями ощущается буквально на каждом шагу. Первое, что бросается в глаза при переключении, — это работа с текстом внутри изображения. В шестой версии надписи на картинках напоминали странные руны: буквы плавились, склеивались и порой превращались в нечитаемую кашу. В v7 модель научилась генерировать читаемый текст на латинице и кириллице длиной до пятнадцати-двадцати символов. Не безупречно, но прогресс колоссальный. К тому же, скорость генерации заметно подросла — примерно на сорок процентов по сравнению с v6, если верить замерам энтузиастов из Discord-сообщества.
Нюанс, о котором не стоит забывать: переход на новую версию не требует доплат. Все тарифные планы остались прежними, а v7 доступна каждому подписчику. Достаточно указать параметр —v 7 в промте или выбрать версию в настройках. Впрочем, для тех, кто уже привык к поведению v6 и выстроил под неё рабочий процесс, резкий переход может оказаться стрессовым — промты, идеально работавшие раньше, в новой версии иногда выдают совершенно иной результат. Это связано с тем, что модель по-другому расставляет приоритеты в описании. А значит, львиную долю шаблонов придётся корректировать.
Новый редактор и работа с фрагментами
Долгожданная изюминка. Встроенный визуальный редактор, появившийся вместе с v7, наконец-то позволяет работать не со всей картинкой целиком, а с отдельными фрагментами. Инструмент получил название Region Editor, и работает он следующим образом: пользователь выделяет область на уже сгенерированном изображении (кистью или прямоугольной рамкой), описывает текстом, что именно нужно изменить, — и нейросеть перерисовывает только этот участок, сохраняя всё остальное нетронутым. Звучит просто, но реализация впечатляет. Хочется заменить фон за персонажем? Три клика. Добавить облака на пустое небо? Ещё проще. Изменить выражение лица? Довольно реалистично, хотя иногда всплывают артефакты на границе редактируемой зоны.
Особый интерес вызывает то, как Region Editor справляется с сохранением стилистического единства. Ведь главная проблема любого локального редактирования — «шов» между перерисованным фрагментом и оригиналом. В ранних тестах v7 этот шов практически незаметен, что говорит о серьёзной работе команды над диффузионным алгоритмом. К тому же редактор поддерживает до пяти последовательных правок на одном изображении — каждая новая итерация учитывает все предыдущие изменения. Это радикально отличается от подхода «сгенерировал — не понравилось — сгенерировал заново», который бьёт по бюджету (каждая генерация расходует минуты GPU-времени).
Что насчёт видео?
А вот тут начинается самое интересное. Слухи о видеогенерации в Midjourney ходили давно, но только в v7 функция была официально запущена в бета-режиме. Стоит сразу оговориться: речь идёт не о полноценных роликах, а о коротких анимациях длительностью от двух до десяти секунд. По сути, нейросеть «оживляет» статичное изображение — добавляет движение камеры, анимирует отдельные элементы вроде развевающихся волос или бегущей воды. Результат довольно сырой по сравнению с тем, что выдают специализированные видеомодели (Sora от OpenAI или Kling), но для создания атмосферных зацикленных анимаций — так называемых синемаграфов — инструмент работает отлично.
Нельзя не упомянуть и подводные камни этой функции. Во-первых, видеогенерация доступна только на тарифах Pro и Mega — стандартная подписка за тридцать долларов в месяц её не включает. Во-вторых, каждая анимация «съедает» в десять раз больше GPU-минут, чем обычная генерация изображения. Ну и, наконец, качество напрямую зависит от исходной картинки: если на ней много мелких деталей — текстура ткани, листва деревьев, — анимация может выглядеть «дрожащей» и нестабильной. Тем не менее для первой публичной версии это достойный старт. И команда обещает серьёзно улучшить инструмент в ближайшие месяцы.
Работа с референсами и мультиизображениями
Ещё одна функция, которая заслуживает пристального внимания, — обновлённая система работы с загружаемыми изображениями. В прежних версиях можно было подгрузить одну-две картинки в качестве стилистического ориентира. Midjourney v7 расширила этот механизм до пяти референсных изображений одновременно, причём каждому из них можно назначить «вес» — насколько сильно именно этот референс должен влиять на конечный результат. Допустим, вы загружаете фотографию интерьера в стиле лофт, акварельную иллюстрацию и кадр из фильма Уэса Андерсона. Назначаете первому весу 50%, второму — 30%, третьему — 20%. Нейросеть смешивает эстетику всех трёх источников в заданной пропорции. Выглядит это порой неожиданно, но всегда любопытно.
К слову, появилась и функция Character Reference в переработанном виде. В v6 она уже существовала, но работала нестабильно — персонаж мог кардинально меняться от генерации к генерации. Теперь же, загрузив одно фото лица с параметром —cref, можно получить десятки изображений одного и того же человека в разных ситуациях, позах и стилях, сохраняя при этом узнаваемые черты. Дело в том, что v7 использует усовершенствованный механизм экстракции лицевых признаков, который фиксирует не только геометрию лица, но и характерные микродетали — форму ушей, линию роста волос, расстояние между глазами. И хотя стопроцентное сходство пока недостижимо, результат на голову превосходит то, что выдавала шестая версия.
Промтинг в v7: что изменилось в подходе?
Задача не из лёгких. Переход на новую версию модели всегда требует пересмотра привычных промтов, и v7 — не исключение. Самое заметное изменение — нейросеть стала гораздо лучше понимать естественный язык. Если раньше опытные пользователи выстраивали запросы как набор ключевых слов через запятую (portrait, woman, dramatic lighting, oil painting, dark background), то в седьмой версии куда эффективнее работают связные предложения на обычном английском. Или даже на русском — качество генерации по запросам на кириллице ощутимо подтянулось, хотя английский по-прежнему остаётся приоритетным языком.
Отдельно стоит упомянуть новый параметр —weird, который перешёл из экспериментального статуса в основной инструментарий. Его значение варьируется от нуля до трёх тысяч, и чем выше цифра, тем «страннее» и непредсказуемее окажется результат. На низких значениях (100–300) изображения приобретают лёгкую сюрреалистичность — необычные цветовые сочетания, нестандартные ракурсы. А вот при значении выше тысячи нейросеть начинает творить чудеса — в хорошем и плохом смысле одновременно. Безусловно, для коммерческих проектов высокий —weird вряд ли подойдёт, но для поиска вдохновения и экспериментов — настоящий кладезь неожиданных решений. Тем более что результат можно «усмирить» последующим редактированием через Region Editor.
Веб-интерфейс вместо Discord
Буквально полтора года назад единственным способом работы с Midjourney оставался Discord-бот. Выглядело это, мягко говоря, неоднозначно — профессиональный инструмент для генерации изображений, запертый внутри мессенджера для геймеров. Многих обывателей это отпугивало: разобраться в командах бота без подготовки было довольно сложно. Однако сейчас ситуация изменилась кардинально. Midjourney запустила полноценный веб-сайт с графическим интерфейсом, и именно в v7 он раскрылся во всей красе. Рабочее пространство напоминает привычный добротный фоторедактор — слева панель с настройками, по центру холст генерации, справа история промтов и галерея результатов.
Нужно отметить, что веб-версия — не просто «обёртка» над тем же Discord-ботом. Это самостоятельная платформа с расширенным функционалом. Здесь же живёт и Region Editor, и система организации проектов по папкам, и встроенный апскейлер, увеличивающий разрешение до 4096 на 4096 пикселей без потери детализации. А для тех, кто привык к Discord, бот никуда не делся — все команды работают параллельно с веб-интерфейсом, синхронизируя результаты между платформами. Да и сам бот обновился: появились интерактивные кнопки, упростившие навигацию по вариациям и настройкам.
Обе стороны медали
Не стоит думать, что v7 лишена недостатков. Их хватает. Первая и самая заметная проблема — возросший «аппетит» к вычислительным ресурсам. На базовом тарифе за десять долларов в месяц пользователь получает около двухсот генераций — для v6 этого хватало с запасом, а вот с учётом Region Editor и видеоанимации минуты тают буквально на глазах. Серьёзное вложение для тех, кто генерирует помногу. Кроме того, в первые недели после релиза серверы Midjourney испытывали нешуточную нагрузку: очередь на генерацию в пиковые часы растягивалась до двух-трёх минут, что для привыкших к мгновенному результату пользователей стало ощутимым раздражителем.
Вторая ложка дёгтя — цензура. С каждой новой версией фильтры становятся строже, и v7 не стала исключением. Модель блокирует не только откровенно запрещённый контент, но и вполне невинные запросы, если алгоритм модерации усмотрит в них потенциальный риск. Например, промты с упоминанием исторических конфликтов или определённых общественных деятелей теперь проходят далеко не всегда. Для художников, работающих с провокационной эстетикой, это может стать серьёзным препятствием. Впрочем, большинство пользователей с этими ограничениями сталкиваются нечасто, да и обойти ложные срабатывания обычно удаётся переформулировкой промта.
Сравнение с конкурентами: кто впереди?
Midjourney v7 выходит на арену в момент, когда конкуренция в сфере генеративных изображений достигла невиданного накала. DALL-E 3 от OpenAI тяготеет к максимальной точности следования промтам и тесно интегрирован с ChatGPT, что делает его удобным самобытным инструментом для тех, кто уже живёт в экосистеме OpenAI. Stable Diffusion, работающий локально на пользовательском железе, привлекает полным отсутствием цензуры и бесконечными возможностями кастомизации через модели LoRA и ControlNet. Adobe Firefly солирует в нише коммерчески «безопасного» контента, обученного исключительно на лицензированных изображениях.
И всё же v7 удерживает позиции — прежде всего за счёт эстетики. Это сложно измерить цифрами, но картинки Midjourney просто красивее. Они обладают тем самым неуловимым «кинематографическим» качеством, которого другим моделям пока не хватает. К тому же порог входа остаётся минимальным: не нужно ни мощной видеокарты, ни технических знаний — достаточно подписки и фантазии. Да и скорость итераций впечатляет: от идеи до финального изображения проходит меньше минуты. Для коммерческих дизайнеров и иллюстраторов, которым важна скорость без потери визуального качества, Midjourney по-прежнему остаётся инструментом номер один.
Для кого эта версия станет прорывом?
Больше всего от обновления выиграют те, кто использует Midjourney в профессиональной деятельности — концепт-художники, бренд-дизайнеры, иллюстраторы детских книг. Возможность работать с регионами, сохранять стилистическую память и загружать до пяти референсов одновременно превращает нейросеть из генератора случайных красивых картинок в полноценный рабочий инструмент с предсказуемым результатом. Для фотографов, которые всё чаще экспериментируют с «виртуальными фотосессиями» (создание несуществующих моделей и локаций), улучшенная анатомия и фотореализм v7 тоже окажутся настоящим подарком.
А вот для хобби-пользователей, которые генерируют картинки от случая к случаю — аватарку для соцсети, фон для обоев на телефон, — разница между v6 и v7 может показаться не столь драматичной. Красиво? Безусловно. Но ведь и шестая версия была хороша. Тем не менее, если вы давно хотели попробовать Midjourney и откладывали, то сейчас — идеальный момент для старта. Инструмент стал зрелым, интерфейс — понятным, а порог входа — минимальным.
Midjourney v7 — не просто очередной апдейт порядкового номера. Это качественный скачок, который приближает генеративные модели к тому, о чём цифровые художники грезили годами: инструмент, способный понять замысел и воплотить его с минимальными потерями по дороге от мысли к пикселю. Удачи в экспериментах — и не стоит бояться странных промтов, ведь именно из них иногда рождаются самые впечатляющие работы.

