Главные новости о Midjourney на русском языке: последние обновления и фишки

Ещё пару лет назад генерация изображений по текстовому описанию казалась чем-то из области научной фантастики — инструментом для горстки энтузиастов, возившихся с командной строкой и непонятными латинскими промтами. А сегодня нейросети вроде Midjourney превратились в рабочий инструмент дизайнеров, маркетологов, архитекторов и даже школьных учителей, которым нужна колоритная иллюстрация к уроку за пять минут. Новости об обновлениях сыплются с такой скоростью, что уследить за всеми нюансами довольно сложно, тем более если львиная доля информации разбросана по англоязычным Discord-каналам и Twitter-лентам. Но разобраться всё-таки стоит — хотя бы для того, чтобы не пропустить действительно важные фишки и не тратить время на устаревшие приёмы.

Все топовые нейросети в одном месте

Что изменилось в последних версиях Midjourney?

Темп обновлений впечатляет. Команда Дэвида Хольца — основателя и бессменного идеолога проекта — за последний год выпустила сразу несколько крупных релизов, каждый из которых заметно сдвинул планку качества. Версия 6.1, появившаяся ещё в середине 2024-го, наконец-то научилась генерировать руки без шести пальцев и текст на изображениях — проблема, над которой бились месяцами. А вот с выходом V7 в начале 2025 года дело обстоит ещё интереснее: нейросеть стала понимать контекст промта глубже, различая тонкие стилистические оттенки между «кинематографичный кадр» и «документальное фото». Раньше такие нюансы попросту игнорировались, и на выходе пользователь получал нечто усреднённое. Сейчас же разница между двумя похожими запросами бросается в глаза.

Отдельно стоит упомянуть работу с разрешением. В ранних итерациях максимальный размер картинки составлял 1024 на 1024 пикселя, и для печати этого откровенно не хватало. Апскейл через сторонние сервисы спасал ситуацию лишь отчасти — детали «замыливались», текстуры теряли фактуру. Теперь же встроенный апскейлер тянет изображение до 4096 пикселей по длинной стороне, причём с сохранением мелких деталей вроде ресниц, пор кожи и швов на ткани. Это серьёзное вложение в качество, которое оценили прежде всего те, кто работает с полиграфией.

Веб-интерфейс вместо Discord

Пожалуй, самая долгожданная новость для русскоязычного сообщества. Годами Midjourney существовала исключительно внутри Discord — мессенджера, который в России то блокировался, то работал через раз. Обывателю, далёкому от геймерской культуры, разобраться в каналах, ботах и slash-командах было мучительно. И вот наконец появился полноценный сайт с графическим интерфейсом. Панель генерации, история запросов, галерея сохранённых работ — всё собрано в одном месте. К тому же веб-версия автоматически подтягивает привычные настройки из аккаунта Discord, так что переезд проходит безболезненно.

Все лучшие нейросети мира теперь в твоём кармане! ⚡

Тексты, топовое видео, картинки и аудио. Самые мощные версии GPT, Claude, Midjourney, Sora, Kling и еще 90+ ИИ-моделей собраны в одном месте. Работает невероятно быстро: через удобный сайт или прямо в Telegram. Больше никаких блокировок, VPN, иностранных карт и переплат.

Жми на ссылку ниже и забирай свои бесплатные генерации для тест-драйва платформы 👉 https://clck.ru/3RNCRL

Стоит ли полностью отказываться от Discord? Вовсе нет. Ведь именно там кипит живое общество: люди делятся промтами, критикуют результаты друг друга, устраивают тематические челленджи. Да и некоторые экспериментальные функции — вроде режима «remix» — сначала появляются в боте и лишь потом мигрируют на сайт. Впрочем, для тех, кто использует Midjourney сугубо как рабочий инструмент, а не как социальную платформу, веб-интерфейс стал настоящим спасательным кругом.

Как изменилась работа с промтами?

Промт-инжиниринг — вещь неоднозначная. Многие считают, что достаточно написать «красивый закат над морем», и нейросеть сама разберётся. На самом деле результат напрямую зависит от структуры запроса, и с каждой новой версией правила игры немного меняются. В V7 заметно усилилась роль так называемых «весов» — числовых модификаторов, позволяющих акцентировать внимание на конкретных элементах сцены. Допустим, если в промте указать golden hour lighting::2 foggy atmosphere::0.5, нейросеть отдаст приоритет тёплому освещению и лишь слегка затуманит фон. Буквально полгода назад подобная точность казалась недостижимой.

Нельзя не упомянуть и появление мультимодальных промтов. Теперь к текстовому описанию можно прикрепить референсное изображение — фотографию, скетч, даже скриншот из фильма — и указать, какие именно черты нейросети стоит позаимствовать. Цветовую палитру? Композицию? Стиль освещения? Всё это регулируется отдельными параметрами. Дело в том, что раньше функция —iw (image weight) работала грубо: либо нейросеть копировала референс почти дословно, либо полностью его игнорировала. Сейчас же диапазон значений расширили, и тонкая настройка стала действительно тонкой.

Персонализация и стилевые профили

Неожиданная фишка. В конце 2024-го Midjourney запустила систему «Style Tuner» — генератор стилевых профилей, который позволяет пользователю «обучить» нейросеть своим вкусам. Работает это довольно просто: система генерирует пару десятков вариаций на заданную тему, а пользователь выбирает те, что нравятся больше. На основе этих предпочтений формируется персональный код стиля, который можно вставлять в любой промт. По сути, каждый получает свою маленькую версию Midjourney, заточенную под конкретную эстетику.

Особый интерес вызывает то, как этим инструментом пользуются бренды. Несколько крупных рекламных агентств (имена, разумеется, под NDA) уже создали фирменные стилевые профили, чтобы весь визуальный контент — от баннеров до постов в соцсетях — выглядел единообразно. А вот для фрилансеров и частных иллюстраторов изюминка кроется в другом: можно создать несколько профилей под разные проекты и переключаться между ними за секунду. Ни один ручной пресет в Photoshop такой гибкости не даст.

Стоит ли платить за подписку?

Вопрос, который всплывает с завидной регулярностью. Midjourney никогда не славилась щедрым бесплатным тарифом — ещё в 2023-м пробный период свернули из-за массовых злоупотреблений. Сейчас ценовая модель включает три основных плана. Базовый стоит около десяти долларов в месяц и даёт примерно двести генераций — для хобби вполне хватит, но для рабочего потока маловато. Стандартный план за тридцать долларов снимает жёсткие ограничения и добавляет режим «stealth» (приватная генерация, которую не увидят другие пользователи). Ну и, наконец, Pro-подписка за шестьдесят долларов — это про скорость: приоритетная очередь, двенадцать параллельных генераций и расширенный доступ к экспериментальным моделям.

Бьёт ли это по бюджету? Зависит от масштаба. Для дизайн-студии, которая раньше тратила сотни долларов на стоковые фотографии, тридцатка в месяц — сущие копейки. А вот для начинающего блогера, который генерирует пару обложек в неделю, базового тарифа хватит с головой. Не стоит гнаться за максимальным планом, если реальная потребность укладывается в двести картинок. К слову, в русскоязычном сегменте довольно часто натыкаешься на «перекупщиков» — людей, продающих доступ к чужим аккаунтам за полцены. Это нарушение правил сервиса, и такие махинации чреваты моментальным баном.

Что нового в генерации видео?

Вот где настоящий прорыв. В начале 2025 года Midjourney анонсировала функцию преобразования статичных изображений в короткие видеоролики — пока длительностью до пяти секунд, но с поразительной плавностью движений. Конкуренция с Sora от OpenAI и Runway Gen-3 подстёгивает развитие, и это заметно. Первые тесты показали, что камера может медленно облетать объект, создавая эффект «живой» фотографии. Ветер шевелит волосы, вода рябит, свечи мерцают — мелочи, но именно они творят чудеса с восприятием.

Однако подводные камни тоже присутствуют. Сложные сцены с несколькими персонажами пока обрабатываются плохо: фигуры «плывут», пропорции скачут от кадра к кадру. Дело в том, что модель обучалась преимущественно на статичных изображениях, и физика движения для неё — территория довольно новая. Команда Хольца честно признаёт эти ограничения и обещает существенные улучшения ко второй половине года. Тем более что конкуренты не дремлют — Runway уже выпускает десятисекундные клипы с разрешением 4K. Гонка нешуточная.

Редактирование внутри платформы

Раньше процесс выглядел так: сгенерировал картинку, скачал, открыл Photoshop, поправил мелочи, загрузил обратно для дальнейших итераций. Круг утомительный. Теперь же Midjourney обзавелась встроенным инструментом inpainting — выделяешь область кистью, описываешь текстом, что хочешь изменить, и нейросеть перерисовывает фрагмент, сохраняя стиль и освещение оригинала. Хочется заменить пасмурное небо на закатное? Пара кликов. Убрать лишний элемент на заднем плане? Ещё проще.

К этому же направлению тяготеет функция «vary region», появившаяся ещё в шестой версии, но существенно доработанная в седьмой. Суть в том, что пользователь может выделить любой фрагмент готовой генерации и попросить нейросеть предложить альтернативы — только для этого участка, не трогая остальное. Скажем, лицо персонажа устраивает, а вот причёска — нет. Выделил область головы, написал «short curly hair», получил четыре варианта. Это удобно. Ведь раньше приходилось перегенерировать всю картинку целиком и молиться, чтобы удачная композиция не развалилась.

Как обстоят дела с русским языком в промтах?

Больная тема. Midjourney до сих пор заточена под английский, и писать промты на русском — затея рискованная. Нейросеть, конечно, не выдаёт ошибку, но результат зачастую получается непредсказуемым. Русскоязычный запрос «уютная кухня в стиле прованс» может сработать, а может выдать нечто абсурдное, напоминающее смесь скандинавского минимализма с советской столовой. Это связано с тем, что обучающая выборка текстов на русском несоизмеримо меньше англоязычной, и семантические связи между словами расплывчаты.

Что делать? Самый надёжный добротный способ — использовать английский как основной язык промта, а для перевода держать под рукой словарь визуальных терминов. В сети можно найти целые таблицы, где для каждого русского описания (вроде «мрачная атмосфера» или «невесомая ткань») подобран наиболее точный англоязычный эквивалент с пометками, какой именно стиль генерации он активирует. Да, это требует времени. Но результат того стоит — качество изображений при грамотном английском промте выше на порядок. К тому же сообщество русскоязычных пользователей в Telegram-каналах активно делится шпаргалками и готовыми конструкциями.

Авторские права и этические нюансы

Вопрос щепетильный. С юридической точки зрения ситуация до сих пор остаётся туманной — причём не только в России, но и в США, где Midjourney зарегистрирована. В 2023 году Бюро авторских прав США вынесло прецедентное решение: изображения, полностью сгенерированные нейросетью без существенного человеческого вмешательства, не подлежат копирайтной защите. Но тут же оговорилось, что если автор скрупулёзно выстраивает промт, редактирует результат и вносит творческий вклад на каждом этапе, то защита возможна. Грань размыта, и юристы до сих пор спорят, где именно она проходит.

В России ситуация ещё сложнее. Гражданский кодекс признаёт автором только физическое лицо, а нейросеть, само собой, таковым не считается. Но и пользователь, нажавший кнопку «Generate», с трудом может претендовать на роль автора в классическом понимании. Впрочем, для коммерческого использования — баннеров, иллюстраций к статьям, концептов для презентаций — это пока не создаёт серьёзных проблем. Стоит лишь помнить: воспроизведение стиля конкретного живого художника (например, через промт in the style of [имя]) — территория этически минирована. Многие художники активно борются с подобной практикой, и Midjourney постепенно вводит ограничения, блокируя имена ныне живущих авторов в промтах.

Скрытые возможности, о которых мало говорят

Кладезь неочевидных трюков. Первый из них — параметр —chaos. По умолчанию его значение равно нулю, и нейросеть выдаёт четыре довольно похожих варианта. Но стоит выкрутить хаос до пятидесяти или даже ста — и результаты становятся дикими, непредсказуемыми, иногда гениальными. Для коммерческой работы такой подход, конечно, рискован, однако для поиска вдохновения — бесценен. Следующий интересный момент — параметр —weird, добавленный в V6 и усиленный в V7. Он сдвигает эстетику в сторону сюрреализма и нарочитой странности, что бывает полезно при создании обложек для музыкальных альбомов или арта для инди-игр.

Все топовые нейросети в одном месте

Отдельно стоит упомянуть режим «pan» — возможность расширить изображение в любую сторону. Допустим, сгенерирован портрет, но хочется видеть, что находится за спиной персонажа. Нажатие стрелки вправо или влево «дорисовывает» сцену, сохраняя освещение и палитру оригинала. Для создания панорамных фонов — настоящий спасательный круг. Ну, а если совместить «pan» с последующим апскейлом до 4K, на выходе получается внушительное полотно, пригодное для печати на холсте или баннере шириной в пару метров.

Что ждёт Midjourney в ближайшем будущем?

Слухи множатся. Дэвид Хольц в нескольких интервью обмолвился о работе над полноценным 3D-режимом — возможностью генерировать не плоское изображение, а трёхмерную модель, которую затем можно повернуть, осветить под другим углом и даже экспортировать в формате, совместимом с Blender или Unity. Звучит грандиозно, хотя сроков никто не называет. Также ведётся разработка аудиомодели: предположительно Midjourney хочет научиться генерировать звуковые эффекты и эмбиент-музыку, подходящую к созданным изображениям. Насколько реальны эти планы — покажет время.

Конкуренция между тем ужесточается с каждым кварталом. Adobe Firefly глубоко интегрирована в Photoshop, DALL-E 3 от OpenAI доступна бесплатно через ChatGPT, Stable Diffusion привлекает открытым исходным кодом и возможностью запуска на собственном железе. Но Midjourney всё-таки держит марку — прежде всего за счёт визуального вкуса. Ведь именно «красивость по умолчанию», тот самый изысканный добротный стиль, который не требует от пользователя двадцати строк промта, и приковывает внимание новичков. И вряд ли эта позиция пошатнётся в ближайший год.

Тем, кто только начинает осваивать нейросетевую графику или давно работает с Midjourney, но не следит за обновлениями, стоит выделить хотя бы полчаса в неделю на мониторинг изменений. Новые параметры, режимы и тарифные планы появляются стремительно, и каждый из них способен существенно сэкономить время или улучшить конечный результат. А ещё — не стоит бояться экспериментов. Самые интересные генерации рождаются именно из «неправильных» промтов, нестандартных комбинаций стилей и щедрой порции параметра —chaos. Удачи в творческих экспериментах — нейросеть ещё не раз удивит.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *