Нейросеть Midjourney v 6.1: обзор обновлений и способы бесплатного доступа

Ещё пару лет назад сама идея о том, что нейросеть сможет нарисовать фотореалистичный портрет по текстовому описанию из двадцати слов, казалась если не фантастикой, то уж точно чем-то из разряда «это доступно лишь единицам». Генеративные модели тогда выдавали скорее забавные, нежели впечатляющие результаты — искажённые пальцы, расплывшиеся лица, странная геометрия предметов. А сейчас? Сейчас нейросети творят чудеса, и львиная доля заслуг в сфере изображений принадлежит именно Midjourney. Проект, стартовавший в 2022 году как закрытая бета-версия внутри Discord-сервера, за три года превратился в мощный инструмент для дизайнеров, иллюстраторов и просто людей, которым хочется визуализировать свои задумки без навыков рисования. Но с каждым крупным обновлением всплывают новые нюансы, и версия 6.1 — не исключение, поэтому стоит разобрать её по косточкам.

Все топовые нейросети в одном месте

Что изменилось в шестой версии и почему 6.1 — не просто «патч»

Путаница вокруг нумерации. Многие обыватели, далёкие от генеративного ИИ, полагают, что переход с v6 на v6.1 — это нечто косметическое, вроде исправления пары багов. На самом деле команда Дэвида Хольца (основателя Midjourney) вложила в промежуточное обновление довольно серьёзный объём доработок, затронувших саму «кухню» модели — от архитектуры диффузионного процесса до постобработки финального изображения. Дело в том, что v6 при всей своей мощи страдала от нескольких хронических проблем: текстуры на крупных планах порой выглядели «мыльными», а мелкий текст на изображениях генерировался с ошибками чаще, чем хотелось бы. И если раньше с подобными артефактами приходилось мириться, то в 6.1 разработчики взялись за них вплотную.

Первое, что бросается в глаза, — работа с текстом на картинке. Ведь именно генерация надписей всегда была ахиллесовой пятой всех моделей. В v6.1 точность отрисовки латинских символов выросла примерно на 25–30 процентов (по оценкам самого Хольца в его публикациях на X). Кириллица, к сожалению, всё ещё хромает, но прогресс заметен даже тут. Второй крупный сдвиг — детализация кожи и тканей. Портреты в v6.1 стали выглядеть пугающе реалистично: поры, тонкие морщинки, фактура льняной ткани — всё это модель теперь передаёт с такой скрупулёзностью, что отличить результат от студийной фотографии становится по-настоящему непросто.

Когерентность промптов и «послушность» модели

Отдельная история. В предыдущих версиях длинные, многослойные промпты часто приводили к тому, что нейросеть «забывала» часть инструкций. Написал, допустим, «женщина в красном пальто стоит на мосту на фоне заката, в руке зонт, на мосту мокрые листья» — а на выходе получал закат без моста или мост без листьев. Модель как бы выбирала, на что ей обратить внимание, а что проигнорировать. В 6.1 с когерентностью дело обстоит ощутимо лучше. Разработчики переработали механизм взвешивания токенов в промпте, благодаря чему нейросеть теперь цепляется за каждый элемент описания куда надёжнее. Конечно, полного послушания ждать всё ещё не стоит — всё-таки это генеративная модель, а не послушный исполнитель, — однако разница с v6 ощущается.

Нереальный визуал и кинематографичное видео в пару кликов 🎬

Нужен крутой концепт-арт, реалистичная анимация или профессиональный апскейл? Теперь у вас есть единый доступ к лучшим визуальным нейросетям планеты: Midjourney, Runway, Kling и Sora. Улучшайте качество готовых роликов до максимума с помощью встроенных ИИ-инструментов. Никаких сложных настроек, мощного ПК или зарубежных карт. Всё работает прямо в браузере или в Telegram-боте!

Откройте новые горизонты для творчества. Жмите на ссылку, регистрируйтесь и создавайте шедевры 👉 https://clck.ru/3RNCRL

К тому же появился доработанный параметр —style raw, который в обновлённой версии работает иначе. Раньше он просто «приглушал» фирменную эстетику Midjourney, делая картинки менее «глянцевыми». Теперь же raw-режим стал более гибким инструментом: он не просто убирает стилистические наложения, а позволяет модели точнее следовать текстовой инструкции без собственных «творческих додумок». Для коммерческих дизайнеров, которым нужен контроль над каждой деталью, это настоящий спасательный круг.

Как обстоят дела со скоростью генерации?

Быстрее. Но не кардинально. По замерам сообщества на Reddit, среднее время генерации четырёх вариантов изображения в стандартном режиме сократилось примерно на 15 процентов по сравнению с v6. Это связано с оптимизацией серверной инфраструктуры и частичным переходом на более эффективные вычислительные ноды. Впрочем, в часы пиковой нагрузки (вечернее время по EST) разница почти стирается, и ожидание может растянуться до минуты-полутора. Да и стоит учитывать, что скорость напрямую зависит от выбранного тарифного плана — в «быстром» режиме картинки появляются за 20–30 секунд, а в «расслабленном» (relax mode) очередь способна растянуться до пяти-семи минут.

Параметр —personalize и тонкая настройка стиля

Изюминка обновления. В v6 функцию персонализации уже начали внедрять, но работала она, мягко говоря, неоднозначно. Суть проста: пользователь оценивает пары изображений (нравится / не нравится), и на основе этих данных модель формирует индивидуальный стилевой профиль. В 6.1 алгоритм обучения на предпочтениях переработали — теперь достаточно оценить около 200 пар (раньше для внятного результата требовалось минимум 500), чтобы Midjourney начала генерировать картинки «в вашем вкусе». А можно ведь и чужой код персонализации подключить — достаточно добавить в промпт чей-нибудь опубликованный стилевой хеш. Это открывает довольно интересные возможности для совместной работы в команде, когда все участники генерируют визуал в едином стиле.

Сколько стоит подписка и что вообще дают за эти деньги?

Кошелёк станет легче. Не сильно, если сравнивать с другими профессиональными инструментами, но и не символически. Базовый план начинается с десяти долларов в месяц и включает примерно 200 минут быстрой генерации. Стандартный тариф — тридцать долларов — даёт уже 15 часов «быстрого» режима плюс неограниченный relax mode. Ну, а профессиональный пакет за шестьдесят долларов включает 30 часов быстрой генерации, stealth mode (ваши изображения не попадают в общую галерею) и приоритет в очереди. Существует ещё «мега-план» за 120 долларов, но он нужен скорее студиям с большими объёмами. Нужно отметить, что оплата возможна только картами, привязанными к аккаунту Discord или к веб-интерфейсу на официальном сайте Midjourney.

Можно ли пользоваться Midjourney v 6.1 бесплатно?

Вопрос, который задаёт себе практически каждый новичок. Ответ — да, но с оговорками. Midjourney периодически открывает бесплатные пробные периоды, обычно приуроченные к выходу новых версий или к маркетинговым кампаниям. Во время таких окон каждому зарегистрированному пользователю дают 25 бесплатных генераций — этого хватает, чтобы «пощупать» возможности модели и понять, готов ли ты платить дальше. Но поймать такое окно — задача не из лёгких. Ведь официальных анонсов заранее не бывает, и узнать о начале бесплатного периода можно лишь из новостных каналов сообщества или из публикаций Хольца в социальных сетях.

Второй легальный путь — тестирование через веб-интерфейс. В 2024 году Midjourney запустила собственный сайт с генератором, и время от времени новым пользователям при регистрации предоставляется ограниченное количество пробных генераций (обычно те же 25 штук). К слову, именно веб-версия стала более удобной точкой входа, нежели Discord-бот, потому что не нужно разбираться в командах и серверных каналах. Интерфейс довольно интуитивный: поле для промпта, настройки параметров справа, галерея результатов внизу.

Обходные тропинки: стоит ли искать «бесплатный Midjourney»?

В сети натыкаешься на десятки сайтов, обещающих «Midjourney бесплатно без ограничений». Тут стоит задуматься. Львиная доля таких ресурсов — либо откровенные подделки, генерирующие изображения совсем другими моделями (чаще всего Stable Diffusion или DALL-E), либо фишинговые ловушки, собирающие логины и пароли. Некоторые Telegram-боты действительно подключены к API Midjourney, но работают через чужие взломанные или «расшаренные» аккаунты, а это прямое нарушение условий сервиса. Если такой аккаунт заблокируют — а его рано или поздно заблокируют, — все созданные через него изображения формально могут быть удалены вместе с правами на их использование.

Однако есть и честные альтернативы. Первый вариант — использовать аналоги, которые действительно работают бесплатно или по модели freemium. К таким относится, например, Leonardo AI с его 150 бесплатными токенами в день (обновляются ежедневно), а также Microsoft Designer, встроенный в экосистему Bing и работающий на базе DALL-E 3. Качество, конечно, отличается от Midjourney — у каждой модели своя эстетика, свои сильные стороны. Но для экспериментов и первого знакомства с генеративным ИИ подобные решения вполне годятся. Ну и, наконец, Stable Diffusion — полностью открытая модель, которую можно запустить локально на своём компьютере. Правда, для комфортной работы понадобится видеокарта с минимум 8 гигабайтами видеопамяти, а процесс настройки довольно кропотливый.

Веб-интерфейс против Discord: что удобнее?

Буквально год назад этого вопроса не существовало — Discord был единственным окном в мир Midjourney. Сейчас же выбор стоит между двумя полноценными платформами, и у каждой свои плюсы. Discord-бот даёт больше контроля: сложные промпты с несколькими параметрами (—ar, —chaos, —stylize, —weird) проще набирать текстовой командой, чем кликать по ползункам. К тому же в Discord удобнее отслеживать чужие генерации — это настоящий кладезь вдохновения и готовых промптов, которые можно адаптировать под себя.

С другой стороны, веб-интерфейс подкупает визуальной наглядностью. Все твои генерации собраны в одном месте, фильтрация по дате и стилю работает без нареканий, а функция «описать изображение» (describe) позволяет загрузить любую картинку и получить промпт, который теоретически мог бы её создать. Для обывателя, не знакомого с экосистемой Discord, веб-версия — очевидный выбор. А для профессионала, которому нужна скорость и гибкость, Discord всё ещё остаётся рабочим инструментом. Впрочем, никто не мешает использовать обе платформы одновременно — аккаунт-то один и тот же.

Что насчёт авторских прав?

Щепетильная тема. И довольно запутанная. На момент выхода v6.1 позиция Midjourney не изменилась: подписчики платных планов получают коммерческие права на все свои генерации, а бесплатные пользователи — только некоммерческие. Но тут есть подводные камни. Во-первых, законодательство большинства стран (включая Россию и США) пока не определилось с правовым статусом изображений, сгенерированных нейросетью. Бюро авторских прав США в 2023 году отказало в регистрации авторских прав на полностью ИИ-генерированные работы, и с тех пор этот постулат не пересматривался. Во-вторых, если в промпте использовались имена реальных людей или отсылки к защищённым торговым маркам, юридические последствия могут всплыть в самый неподходящий момент. Поэтому для коммерческих проектов не стоит пренебрегать консультацией с юристом — тем более что прецедентная база только начинает формироваться.

Практические советы для тех, кто только начинает

С чего начать? С самого простого — с короткого промпта на два-три слова. Не нужно сразу выстраивать сложносочинённые инструкции на пять строк. Midjourney v6.1 неплохо справляется даже с лаконичными запросами, потому что внутренняя модель сама достраивает контекст, опираясь на обученную базу. Набрав, скажем, «autumn forest path» (осенняя лесная тропа), вы получите вполне приличный результат, от которого можно отталкиваться. А дальше — постепенно добавлять детали: освещение, ракурс, стилистику, настроение.

Следующий важный нюанс — соотношение сторон. По умолчанию Midjourney генерирует квадратные изображения (1:1), но для разных задач требуются разные форматы. Для обложки блога подойдёт 16:9, для сторис — 9:16, для Pinterest — 2:3. Задаётся это параметром —ar в конце промпта. Казалось бы, мелочь, но именно правильный формат зачастую превращает «просто красивую картинку» в готовый визуал для конкретной площадки. Не стоит забывать и про параметр —stylize (сокращённо —s), который регулирует степень художественной обработки — от минимальной (ближе к фотографии) до максимальной (ближе к цифровой живописи).

Промпт-инжиниринг: искусство или ремесло?

И то, и другое. Многие считают, что составление промптов — это просто «описал, что хочешь, и получил». Но на самом деле грамотный промпт-инжиниринг тяготеет скорее к ремеслу с элементами интуиции. Есть вполне конкретные закономерности. Например, слова, стоящие ближе к началу промпта, имеют больший вес для модели. Упоминание конкретного художника или фотографа (например, «in the style of Annie Leibovitz») даёт более предсказуемый стилистический результат, чем абстрактные определения вроде «beautiful» или «cinematic». А двойные двоеточия (::) позволяют разбить промпт на независимые смысловые блоки с разным весом — это довольно мощный инструмент, о котором новички часто не подозревают.

Отдельно стоит упомянуть негативные промпты. В Midjourney они работают через параметр —no: указываешь то, чего на изображении быть не должно. «—no text, watermark, blur» — и модель старается избежать надписей, водяных знаков и размытия. Инструмент не идеальный — иногда нейросеть всё равно «протаскивает» нежелательные элементы, — но в большинстве случаев помогает ощутимо. Кстати, именно в v6.1 негативные промпты стали работать заметно точнее, что подтверждают тесты энтузиастов на тематических форумах.

Все топовые нейросети в одном месте

Конкуренты на горизонте

Midjourney — не единственный игрок на поле. И об этом не стоит забывать, выбирая инструмент для своих задач. DALL-E 3 от OpenAI интегрирован в ChatGPT и отлично понимает сложные текстовые инструкции, хотя визуальный стиль у него совсем другой — более «чистый», иллюстративный. Stable Diffusion 3 от Stability AI привлекает полной открытостью и возможностью тонкой настройки (fine-tuning) под свои нужды, но порог входа тут выше — нужно разбираться в установке, настройке ComfyUI или Automatic1111. Adobe Firefly делает ставку на коммерческую безопасность: модель обучена только на лицензионных изображениях из стоков, что снимает вопросы об авторских правах. А ещё есть Ideogram, который пока малоизвестен в русскоязычном сегменте, но уже удивляет точной генерацией текста на изображениях — в этой конкретной задаче он порой обходит даже Midjourney.

Конкуренция в итоге играет на руку пользователю. Именно давление со стороны конкурентов заставляет команду Midjourney выпускать обновления чаще и работать над слабыми местами. Да и цены на подписку, вероятнее всего, будут корректироваться — рынок генеративного ИИ ещё молод, ценовая политика не устоялась, а новые игроки появляются буквально каждый квартал.

Перспективы: чего ждать от следующих версий?

Дэвид Хольц уже намекнул в нескольких интервью, что команда работает над v7, и среди приоритетов — генерация видео (по аналогии с Sora от OpenAI и Runway Gen-3), улучшенная 3D-генерация и более глубокая интеграция с профессиональными инструментами вроде Photoshop и Figma. Конкретных сроков, разумеется, никто не называет, но судя по темпу выхода предыдущих версий, v7 может появиться в конце 2025 — начале 2026 года. Тем более что инфраструктура для этого уже готовится: переход на собственный веб-интерфейс — первый шаг к экосистеме, которая рано или поздно выйдет за рамки простого генератора картинок.

Midjourney v6.1 — это не революция, но очень добротная эволюция. Модель стала послушнее, детализированнее, быстрее. Бесплатный доступ ограничен пробными периодами и 25 генерациями, но даже этого достаточно, чтобы оценить возможности. Ну, а для тех, кто хочет использовать инструмент регулярно, тридцатидолларовая подписка — не самое серьёзное вложение по меркам современного рынка цифровых инструментов. Так что не стоит откладывать знакомство с нейросетевой графикой «на потом» — технологии развиваются стремительно, и через год то, что сегодня кажется впечатляющим, может стать обыденностью. Удачи в творческих экспериментах.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *