Последние новости Midjourney: актуальные обновления, функции и слухи

Ещё пару лет назад генерация картинок по текстовому описанию казалась чем-то из области фантастики — забавной игрушкой для гиков, не более того. А сейчас нейросети вроде Midjourney всерьёз потеснили стоковые фотобанки, изменили подход дизайнеров к мудбордам и даже заставили понервничать иллюстраторов по всему миру. Инструмент развивается с такой скоростью, что уследить за всеми нововведениями довольно непросто: только привыкнешь к одной версии — на горизонте уже маячит следующая, с совершенно иной логикой работы. Но разобраться во всём этом потоке обновлений всё-таки стоит, и начать лучше с самого свежего.

Все топовые нейросети в одном месте

Что изменилось в шестой версии модели?

Версия 6.1 появилась ещё в конце 2024 года, однако именно в первой половине 2025-го команда Midjourney довела её до ума. Главное, что бросается в глаза, — качество текстур. Ткани, кожа, металл, мокрый асфальт после дождя — всё это модель теперь прорабатывает с пугающей детализацией. Раньше, к слову, текст на изображениях был настоящей ахиллесовой пятой: буквы «плыли», слова превращались в бессмысленный набор символов. Сейчас же нейросеть довольно уверенно справляется с надписями до пяти-шести слов на английском языке. Не идеально, но прогресс внушительный. Ведь ещё в пятой версии даже слово «hello» генерировалось через раз с ошибками.

Отдельно стоит упомянуть работу с человеческими руками. Это была ложка дёгтя в бочке мёда практически для каждой генеративной модели: шесть пальцев, сросшиеся фаланги, ногти, растущие из запястья. Зрелище, мягко говоря, удручающее. И вот в обновлённой версии команда серьёзно поработала над анатомической корректностью. Полностью проблему это не решило — нет-нет, да и всплывут артефакты. Но процент «чистых» генераций вырос, по субъективным ощущениям пользователей, раза в три.

Веб-интерфейс вместо Discord

Долгожданный переезд. Многие об этом грезили с первых дней существования сервиса, и вот наконец веб-версия Midjourney работает в полноценном режиме. Раньше вся генерация происходила через Discord-бота, что создавало довольно высокий порог входа для обывателя. Нужно было разобраться в командах, понять логику каналов, не потерять свои результаты в потоке чужих картинок. Сейчас же на сайте midjourney.com доступен лаконичный добротный интерфейс с галереей, историей промптов и возможностью организовать свои работы по папкам.

Все лучшие нейросети мира теперь в твоём кармане! ⚡

Тексты, топовое видео, картинки и аудио. Самые мощные версии GPT, Claude, Midjourney, Sora, Kling и еще 90+ ИИ-моделей собраны в одном месте. Работает невероятно быстро: через удобный сайт или прямо в Telegram. Больше никаких блокировок, VPN, иностранных карт и переплат.

Жми на ссылку ниже и забирай свои бесплатные генерации для тест-драйва платформы 👉 https://clck.ru/3RNCRL

Удобно ли это? Безусловно. Но есть нюанс. Discord-канал никуда не делся, и часть продвинутых пользователей по-прежнему предпочитает работать именно там. Дело в том, что некоторые экспериментальные функции сначала появляются в боте и лишь потом мигрируют на сайт. К тому же в Discord проще отслеживать, что генерируют другие участники, — а это настоящий кладезь вдохновения для тех, кто только осваивает промпт-инжиниринг.

Новые параметры и «персонализация стиля»

Весной 2025 года Midjourney тихо внедрила функцию, которая приковывает внимание не меньше, чем сама генерация. Речь о параметре —personalize (сокращённо —p). Суть в следующем: нейросеть анализирует, какие именно изображения пользователь выбирал и лайкал на протяжении всего времени работы с сервисом, а затем подстраивает стилистику выдачи под эти предпочтения. Иными словами, у каждого формируется свой «вкусовой профиль». И чем дольше человек пользуется Midjourney, тем точнее модель угадывает его эстетические предпочтения.

Стоит отметить, что персонализация — вещь неоднозначная. С одной стороны, она экономит время: не нужно каждый раз прописывать в промпте «cinematic lighting, muted tones, film grain» и прочие стилистические костыли. С другой — возникает риск застрять в «пузыре» собственного вкуса, когда все генерации начинают выглядеть похоже. Впрочем, параметр легко отключить, так что катастрофы тут нет.

Кстати, ещё одна изюминка — параметр —style raw, который в обновлённом виде работает гораздо честнее. Раньше Midjourney активно «приукрашивала» изображения, добавляя драматичное освещение и насыщенные цвета даже там, где этого не просили. Теперь же в режиме raw модель тяготеет к более сдержанной, почти документальной эстетике. Для коммерческих задач вроде мокапов, каталожной съёмки и референсов — это настоящий спасательный круг.

Что насчёт генерации видео?

Вот тут начинается территория слухов. Ещё в конце 2024 года Дэвид Хольц, основатель Midjourney, обмолвился в интервью, что команда экспериментирует с видео. Но конкретных сроков не назвал. В марте 2025-го в закрытом Discord-канале появились загадочные тизеры — короткие трёхсекундные ролики, якобы сгенерированные внутренним прототипом. Качество, судя по утечкам, довольно сырое: движения рваные, текстуры «плывут» при смене ракурса. Но сам факт работы в этом направлении говорит о многом.

Конкуренция здесь нешуточная. Sora от OpenAI, Runway Gen-3, Kling от китайских разработчиков — все они уже предлагают генерацию видео, пусть и с оговорками. И Midjourney явно не хочет оставаться в стороне. Нужно отметить, что компания традиционно предпочитает выпустить продукт позже, но качественнее — вместо того чтобы гнаться за первенством. Эта стратегия, к слову, себя оправдывала: каждая новая версия модели выглядела на голову выше конкурентов именно благодаря скрупулёзной доработке.

Редактор изображений и inpainting

Хорошая новость для тех, кто устал от бесконечных реролов. В веб-интерфейсе появился встроенный редактор, позволяющий выделить кистью конкретную область изображения и перегенерировать только её. Хочется заменить фон, не трогая персонажа? Пожалуйста. Нужно убрать лишний объект из кадра? Тоже не проблема. Технология называется inpainting, и для конкурентов вроде DALL-E 3 она давно стала нормой, но в Midjourney её ждали особенно долго.

Работает инструмент не без огрехов. Иногда стыки между отредактированной областью и оригиналом заметны — особенно на сложных текстурах вроде волос или меха. Тем более что разрешение отредактированного фрагмента порой чуть отличается от окружения. И всё же для быстрой «косметики» — вещь незаменимая. Да и сами разработчики признают, что это лишь первая итерация, и доработки будут прилетать регулярно.

Стоит ли ждать седьмую версию?

Слухи множатся. На форумах и в Telegram-каналах обсуждают утечку из внутренней переписки команды, согласно которой Midjourney V7 может появиться уже летом 2025 года. Среди предполагаемых нововведений — поддержка 3D-генерации (не просто плоская картинка, а полноценная трёхмерная сцена, которую можно вращать), улучшенная работа с промптами на языках, отличных от английского, и принципиально новый подход к «пониманию» пространственных отношений между объектами.

Насколько этим слухам можно доверять? Довольно сложный вопрос. Дэвид Хольц известен тем, что анонсирует масштабные планы, а потом корректирует сроки — иногда на месяцы. Буквально год назад он обещал полноценный 3D-режим «до конца года», но воз и ныне там. Впрочем, сама по себе технология 3D-генерации уже существует у нескольких стартапов (Meshy, Tripo3D), и для Midjourney интегрировать нечто подобное — скорее вопрос амбиций, чем технической невозможности.

Ценовая политика: бьёт ли по кошельку?

Тарифы в 2025 году остались прежними: от 10 долларов в месяц за базовый план (около 200 генераций) до 120 долларов за корпоративный безлимит с приоритетным доступом. Не то чтобы сумма неподъёмная, но и бюджетной её не назовёшь — особенно для фрилансеров из стран с невысоким средним доходом. К тому же оплата по-прежнему принимается только иностранными картами, что для российских пользователей создаёт дополнительные махинации с виртуальными картами и посредниками.

Многие считают, что бесплатный тариф вернётся. Но на самом деле Midjourney отказалась от пробного доступа ещё в 2023 году из-за массовых злоупотреблений (генерация дипфейков политиков, «клубничный» контент), и пока ничто не указывает на его возвращение. Ну, а для тех, кто хочет попробовать перед покупкой, остаётся только один путь — посмотреть чужие работы в открытой галерее на сайте и решить, стоит ли овчинка выделки.

Конкуренты наступают на пятки

Было бы наивно говорить о Midjourney в вакууме. DALL-E 3 от OpenAI, встроенный прямо в ChatGPT, отбирает львиную долю казуальной аудитории — тех, кому нужна «быстрая картинка» без разбирательств в промптах. Stable Diffusion 3 привлекает энтузиастов, готовых возиться с локальной установкой и тонкой настройкой моделей. А Flux от Black Forest Labs, появившийся относительно недавно, удивляет фотореализмом, который местами не уступает Midjourney.

И всё же у Midjourney есть то, чем другие пока не могут похвастать в полной мере, — узнаваемый «почерк». Изображения, созданные этой нейросетью, обладают характерной кинематографичностью, особым колоритным настроением. Дизайнеры и арт-директора, с которыми мне доводилось общаться, говорят примерно одно: «Midjourney делает красиво by default». И это не комплимент вслепую — за этим стоит гигантская работа по кураторской фильтрации обучающего датасета.

Этические подводные камни

Тема щепетильная. Midjourney до сих пор не раскрыла полный состав своей обучающей выборки, и судебные иски от художников, чьи работы якобы использовались без разрешения, по-прежнему висят в воздухе. В январе 2025-го группа иллюстраторов подала коллективный иск в Калифорнии, и пока дело движется медленно — как, впрочем, и все подобные процессы по всему миру. Разумеется, Midjourney — не единственная компания под прицелом. Но репутационные риски нарастают.

Отдельно стоит сказать про модерацию контента. Команда довольно жёстко фильтрует промпты, связанные с насилием, политическими фигурами и откровенным контентом. Иногда эти фильтры срабатывают чересчур рьяно: безобидный запрос на «девушку в купальнике на пляже» может быть отклонён, а вот стилизованное средневековое побоище — пропущено. Логика модерации порой неочевидна, и это раздражает пользователей. Но лучше уж перебдеть, чем потом разгребать скандалы.

Промпт-инжиниринг в 2025 году: что поменялось?

Ещё одна грань, которую нельзя не упомянуть. С каждой новой версией модели старые «трюки» промпт-инжиниринга частично теряют актуальность. То, что творило чудеса в пятой версии — бесконечные перечисления стилей, конкретные имена фотографов в качестве референса, приписки вроде «8K, hyperdetailed, award-winning» — теперь работает иначе. Модель стала лучше «понимать» естественный язык, и многословные нагромождения в промпте ей скорее мешают.

Все топовые нейросети в одном месте

Сейчас опытные пользователи тяготеют к коротким ёмким описаниям, делая ставку на точность формулировки, а не на количество ключевых слов. Вместо «a beautiful woman standing in a field of sunflowers, golden hour, cinematic, dramatic lighting, 8K resolution, masterpiece» — достаточно написать «woman in sunflower field, warm evening light». И результат зачастую лучше. Вся суть в том, что модель V6 обучена на более качественных данных и сама «дотягивает» изображение до высокого уровня, если ей не мешать избыточными инструкциями.

Чего ждать дальше?

Помимо видео и 3D, в сообществе обсуждают ещё несколько интересных направлений. Во-первых, мобильное приложение — Хольц упоминал его неоднократно, и по некоторым данным, бета-версия для iOS уже тестируется внутри команды. Во-вторых, интеграция с профессиональными инструментами вроде Adobe Photoshop и Figma, чтобы генерация происходила прямо внутри рабочего пространства дизайнера. Ну и, наконец, возможность обучать персональные модели (LoRA) на собственных изображениях — функция, которая у Stable Diffusion существует давно, а вот у Midjourney её пока нет.

Скептики скажут: Midjourney просто догоняет конкурентов по функционалу. И доля правды в этом есть. Но стоит вспомнить, что компания насчитывает меньше пятидесяти сотрудников, не привлекала венчурного финансирования и при этом, по слухам, генерирует сотни миллионов долларов годовой выручки. Такой самобытный подход к бизнесу в мире ИИ-стартапов — редкость. А значит, и продукт будет развиваться по собственным правилам, без оглядки на модные тренды квартала.

Midjourney остаётся инструментом, за которым интересно наблюдать — и ещё интереснее с ним работать. Не стоит бояться экспериментов: пробовать новые параметры, ломать привычные промпты, смешивать стили, которые на первый взгляд не сочетаются. Именно в таких экспериментах рождаются самые неожиданные и впечатляющие результаты. Удачи в творческих поисках — впереди ещё много обновлений, и каждое из них обещает новые возможности для тех, кто не боится нажать «Generate».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *