Тестируем Midjourney v 6.1: что нового добавили разработчики

Нейросети для генерации картинок за последние пару лет из забавной игрушки превратились в полноценный рабочий инструмент — дизайнеры, маркетологи и даже архитекторы всё чаще к ним обращаются, и ничего удивительного в этом уже нет. Midjourney среди подобных сервисов давно занимает особое место: именно этот генератор ещё в 2022 году приковал внимание широкой публики фотореалистичными результатами, когда конкуренты выдавали нечто скорее комичное. Но индустрия не стоит на месте, и каждое крупное обновление вызывает у сообщества одновременно и восторг, и скепсис — мол, опять маркетинговый шум или на самом деле шаг вперёд? А чтобы разобраться, стоит протестировать версию 6.1 на практике и сравнить результаты с тем, что выдавала «шестёрка».

Все топовые нейросети в одном месте

Чем версия 6.1 отличается от предшественницы?

Прежде всего бросается в глаза работа с мелкими деталями. Ведь именно на них прежняя версия довольно часто спотыкалась — лишний палец на руке, размытые надписи, странная текстура кожи вблизи. В 6.1 разработчики из команды Дэвида Хольца сделали акцент на когерентности изображения, то есть на внутренней логической связности всех элементов в кадре. Руки теперь прорисовываются заметно аккуратнее, хотя назвать результат безупречным пока нельзя — при сложных позах с переплетёнными пальцами артефакты всё ещё всплывают. Однако прогресс по сравнению с версией 6.0 ощутимый. К тому же текстуры стали более натуральными: кожа, ткань, металл — всё это выглядит так, словно снято на добротную камеру, а не сгенерировано алгоритмом.

Текст на изображениях — наконец-то читаемый?

Вот это, пожалуй, самое заметное улучшение. Раньше попытка вписать в промт слово или фразу на английском заканчивалась плачевно: буквы расплывались, менялись местами, а порой превращались в какой-то собственный «язык» нейросети. Зрелище, честно говоря, удручающее. В версии 6.1 текстовый рендеринг переработали основательно. Короткие надписи из двух-трёх слов теперь генерируются почти без ошибок, причём не только на вывесках и плакатах, но и на одежде, упаковке, экранах. Стоит отметить, что с длинными фразами дела обстоят сложнее — четыре-пять слов подряд по-прежнему могут дать сбой. Но для рекламных мокапов и концептов этого уже вполне достаточно. Да и само качество шрифтовой отрисовки стало ближе к тому, что ожидаешь от профессионального макета.

Что насчёт фотореализма?

Главная изюминка Midjourney всегда заключалась в умении выдавать «фотографии», которые довольно сложно отличить от настоящих. И версия 6.1 в этом направлении шагнула дальше. Особый интерес вызывает работа со светом — мягкие переходы теней, рефлексы на глянцевых поверхностях, рассеянное освещение в интерьерных сценах. Всё это нейросеть теперь обрабатывает с почти пугающей точностью. Портреты людей, сгенерированные в новой версии, при беглом взгляде легко спутать с профессиональной студийной съёмкой. Но есть нюанс. При внимательном рассмотрении иногда замечаешь странности в области ушей или линии роста волос — мелочь, а выдаёт искусственное происхождение. Впрочем, для большинства задач такой уровень детализации — уже с запасом.

Все лучшие нейросети мира теперь в твоём кармане! ⚡

Тексты, топовое видео, картинки и аудио. Самые мощные версии GPT, Claude, Midjourney, Sora, Kling и еще 90+ ИИ-моделей собраны в одном месте. Работает невероятно быстро: через удобный сайт или прямо в Telegram. Больше никаких блокировок, VPN, иностранных карт и переплат.

Жми на ссылку ниже и забирай свои бесплатные генерации для тест-драйва платформы 👉 https://clck.ru/3RNCRL

Скорость генерации и оптимизация

Быстрее стало. Это чувствуется сразу, без секундомера. На практике среднее время генерации одного изображения в режиме «fast» сократилось примерно на 20–25 процентов по сравнению с шестой версией. Дело в том, что разработчики оптимизировали архитектуру модели, не раздувая при этом требования к серверным мощностям. Для обычного пользователя с подпиской «Standard» это означает, что за то же количество минут GPU удаётся получить больше результатов. К слову, режим «relax» тоже стал пошустрее, хотя тут улучшения менее очевидные — очередь в часы пик по-прежнему растягивается.

Стоит ли менять промты?

А вот здесь кроются подводные камни. Многие считают, что старые промты, заточенные под версию 6.0, должны работать и в 6.1 без изменений. На самом деле это не совсем так. Новая модель стала лучше «понимать» контекст и меньше нуждаться в костылях вроде принудительного указания стиля через двойное тире. Если раньше для получения кинематографичного кадра приходилось прописывать что-то вроде «cinematic lighting, shot on Arri Alexa, shallow depth of field, 35mm», то сейчас хватает более лаконичного описания — нейросеть сама «дотягивает» атмосферу. Однако старые громоздкие промты иногда дают результат хуже, чем в предыдущей версии. Это связано с тем, что модель 6.1 интерпретирует избыточные инструкции по-другому: она начинает «путаться» в приоритетах, и на выходе получается каша. Поэтому не стоит лениться — пересмотр библиотеки промтов себя окупит.

Работа с отрицательными промтами

Параметр —no в Midjourney всегда работал, скажем так, неоднозначно. Просишь «no text» — а текст всё равно появляется. Просишь «no people» — а на фоне маячит силуэт. В 6.1 с этим стало получше. Нельзя сказать, что отрицательные промты теперь срабатывают безупречно, но процент «послушания» модели заметно вырос. Особенно это касается простых исключений: убрать водяные знаки, логотипы, конкретные цвета. Со сложными запретами — например, «без отражений в зеркале» — нейросеть по-прежнему справляется через раз. Тем не менее прогресс налицо, и для коммерческого применения этот момент довольно существенный.

Новые стилистические возможности

Разнообразие стилей. Вот что всегда привлекало в Midjourney творческую публику. И в 6.1 палитра визуальных направлений расширилась. Нейросеть стала увереннее работать с референсами на конкретных художников и фотографов, хотя команда по-прежнему официально не раскрывает, чьи работы вошли в обучающую выборку. Кстати, появился заметный прирост в качестве генерации иллюстраций в духе акварели и масляной живописи — мазки выглядят органичнее, а переходы цветов мягче. Раньше акварельные работы часто грешили «пластмассовостью», и эту ложку дёгтя многие иллюстраторы отмечали на форумах. Теперь же результат тяготеет к тому, что действительно вышло из-под живой кисти. Ну и, конечно же, стиль «аниме» доработали — пропорции лиц стали точнее, а фоны детальнее.

Как обстоят дела с пейзажами и архитектурой?

Пейзажи в Midjourney всегда получались на высоте, и версия 6.1 эту планку подняла ещё выше. Горные панорамы, морские закаты, городские виды с высоты — всё это нейросеть теперь выдаёт с кинематографическим размахом. Особый интерес вызывает генерация архитектурных объектов: фасады зданий, интерьеры, ландшафтный дизайн. Раньше при генерации сложных архитектурных сцен нейросеть допускала грубые ошибки — лестницы вели в никуда, окна «плавали» по фасаду без всякой логики, а перспектива время от времени ломалась так, что Эшер бы позавидовал. В новой версии с перспективой дело обстоит значительно лучше. Геометрическая точность выросла, и для архитектурных визуализаций на раннем этапе проекта Midjourney 6.1 вполне подходит. Разумеется, до полноценного рабочего рендера из ArchiCAD или Lumion ей далеко, но для концепт-арта и презентаций — самое то.

Параметр —style raw и контроль «художественности»

Этот параметр появился ещё в пятой версии и позволял снизить «приукрашивание», которое Midjourney автоматически добавляла к каждому изображению. В 6.1 —style raw стал работать тоньше. Если раньше переключение в этот режим делало картинку заметно «суше» и скучнее, то теперь модель сохраняет определённую живость даже в сыром режиме. Вся суть в том, что разработчики переработали алгоритм стилизации, и грань между «обработанным» и «сырым» результатом стала менее резкой. Для фотографов и дизайнеров, которым нужна нейтральная база для дальнейшей обработки в Photoshop, это грандиозное улучшение. А вот для тех, кто привык получать готовый «вау-кадр» одним нажатием, разница может показаться незначительной.

Сравнение с конкурентами: DALL·E 3 и Stable Diffusion XL

Нельзя не упомянуть контекст, в котором вышла версия 6.1. Буквально полгода назад DALL·E 3 от OpenAI наделал шуму своей интеграцией с ChatGPT, а Stable Diffusion продолжает развивать открытую экосистему с десятками кастомных моделей. Каждый из этих инструментов тяготеет к своей нише. DALL·E 3 берёт удобством — промт можно писать обычным разговорным языком, и результат будет вполне приличным. Stable Diffusion привлекает тех, кто хочет полного контроля: собственные LoRA-модели, тонкая настройка через ControlNet, запуск на локальном железе. Midjourney же в версии 6.1 по-прежнему солирует в области эстетики. Ни один из конкурентов пока не выдаёт настолько «вкусную» картинку из коробки, без дополнительных манипуляций. Однако закрытость платформы (работа только через Discord, отсутствие API для широкого круга пользователей) — это ложка дёгтя, которая многих отталкивает. Веб-интерфейс, кстати, уже тестируется, но на момент выхода 6.1 он по-прежнему в стадии альфа-версии.

Все топовые нейросети в одном месте

Ценообразование — бьёт ли по бюджету?

Тарифы после обновления не изменились, и это хорошая новость. Базовый план за 10 долларов в месяц (около 200 генераций) подойдёт для экспериментов и личных нужд. Стандартный за 30 долларов уже вполне рабочий вариант для фрилансера — 15 часов в режиме «fast» и безлимитный «relax». А профессиональный за 60 долларов даёт 30 часов «fast» и возможность генерировать изображения в скрытом режиме, что довольно важно для коммерческих клиентов. Не стоит забывать и про годовую подписку, которая снижает стоимость примерно на двадцать процентов. Для серьёзного вложения в рабочий инструмент это не так уж много — тем более что аналогичный объём стоковых фотографий на Shutterstock обошёлся бы значительно дороже.

Какие проблемы остались?

Идеализировать не стоит. У 6.1 хватает шероховатостей. Во-первых, групповые портреты с большим количеством людей (от пяти и больше) по-прежнему выдают артефакты: лица сливаются, конечности «делятся» между персонажами, а одежда иногда срастается в единое целое. Во-вторых, точный контроль над композицией всё ещё ограничен — нет инструмента, аналогичного ControlNet из мира Stable Diffusion, который бы позволял задавать точные позы через скелетную разметку. Ну, а кириллица в текстах на изображениях остаётся головной болью: латиницу модель научилась рендерить сносно, но русские буквы до сих пор превращаются в бессмысленный набор символов. Это досадное ограничение для русскоязычных дизайнеров, и когда оно будет исправлено — большой вопрос.

Практические советы по работе с новой версией

Начать стоит с упрощения промтов. Если раньше длинный скрупулёзный запрос на двести слов давал лучший результат, то в 6.1 краткость — друг генерации. Три-четыре ёмких предложения с описанием сцены, настроения и стиля работают лучше, чем простыня из технических терминов. К тому же имеет смысл чаще пользоваться функцией vary (subtle) — она позволяет слегка варьировать удачный результат, не теряя общей композиции. Это удобно. Ведь ручная «подгонка» через переписывание промта занимает куда больше времени. Отдельно стоит упомянуть параметр —chaos: в новой версии его влияние стало более предсказуемым, и значения от 20 до 40 дают интересное разнообразие без полного хаоса в результатах.

Midjourney 6.1 — не революция, а добротная эволюция инструмента, который и без того стоит на ногах крепко. Улучшения в детализации, текстовом рендеринге и скорости работы накапливаются и в сумме дают ощутимую разницу. Да, недостатки остаются, и до идеала ещё далеко — но какая нейросеть в 2025 году может похвастаться безупречностью? Тем, кто уже работает с Midjourney, переход на 6.1 точно себя оправдает. А тем, кто только присматривается к генеративному ИИ, эта версия станет отличной точкой входа — результат впечатлит даже скептиков. Удачи в экспериментах и творческих открытиях.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *