Многие, кто впервые открывает для себя Midjourney, грезят о кинематографичных кадрах с драматичной перспективой — таких, чтобы дух захватывало. Ведь нейросеть умеет рисовать практически всё: от минималистичных портретов до грандиозных городских пейзажей, от нежных акварелей до фотореалистичных сцен. Но довольно часто результат разочаровывает не качеством прорисовки, а банальным углом обзора. Человек на картинке стоит ровно по центру, камера смотрит на него «в лоб», никакой динамики и глубины. А ведь в профессиональной фотографии и кино львиная доля выразительности приходится именно на ракурс — тот самый нюанс, который отличает любительский снимок от шедевра. Поэтому перед тем, как жаловаться на нейросеть, стоит разобраться, как «камерой» в Midjourney управлять.
Зачем вообще менять ракурс?
Вопрос кажется наивным. Но на самом деле очень мало кто задумывается, почему одна и та же сцена, снятая с разных точек, вызывает совершенно разные эмоции. Дело в том, что человеческий мозг привык считывать пространственные отношения на автомате — ещё с тех времён, когда от умения оценить расстояние до хищника зависела жизнь. Нижний ракурс подсознательно делает объект внушительнее и мощнее, потому что мы привыкли смотреть снизу вверх на то, что больше нас. Верхний, наоборот, уменьшает фигуру, вызывает чувство уязвимости или хрупкости. Ну, а фронтальная съёмка — это разговор «на равных», спокойный и нейтральный. Midjourney воспринимает текстовые подсказки и превращает их в визуальный язык, поэтому от формулировки промта зависит, какую эмоцию зритель получит от готовой картинки.
Базовые параметры камеры в промте
Начать стоит с простого. Midjourney не имеет привычного интерфейса 3D-редактора, где камеру можно двигать мышкой. Всё управление — текстовое. И вот тут всплывает главный подводный камень: нейросеть понимает фотографическую терминологию, но далеко не все пользователи ею владеют. Между тем именно профессиональные термины из мира кино и фотографии дают самый точный контроль над результатом.
Первое, с чего всё начинается, — высота камеры. Если в промт добавить фразу low angle shot, нейросеть расположит виртуальный объектив ниже объекта и направит его вверх. Классический приём, которым кинематографисты пользуются уже больше столетия: именно так снимали злодеев в нуарных фильмах сороковых, чтобы подчеркнуть их доминирование. Обратный вариант — high angle shot — размещает камеру выше точки интереса. Взгляд сверху вниз сразу создаёт ощущение масштаба или, наоборот, беззащитности персонажа. К слову, этим приёмом активно пользовался Хичкок в своих триллерах, добиваясь нервного напряжения буквально одним положением объектива.
Все лучшие нейросети мира теперь в твоём кармане! ⚡
Тексты, топовое видео, картинки и аудио. Самые мощные версии GPT, Claude, Midjourney, Sora, Kling и еще 90+ ИИ-моделей собраны в одном месте. Работает невероятно быстро: через удобный сайт или прямо в Telegram. Больше никаких блокировок, VPN, иностранных карт и переплат.
Жми на ссылку ниже и забирай свои бесплатные генерации для тест-драйва платформы 👉 https://clck.ru/3RNCRL
Совсем другая история — bird’s eye view, то есть «вид с высоты птичьего полёта». Это не просто верхний ракурс, а практически вертикальный взгляд вниз. Результат впечатляет: города превращаются в геометрические узоры, люди — в крохотные фигурки, а природные ландшафты обретают почти абстрактную красоту. Противоположность этому — worm’s eye view, «глаз червяка». Камера в этом случае лежит буквально на земле, а все объекты над ней вырастают до невероятных пропорций. Деревья тянутся в бесконечность, здания пронзают облака. Зрелище впечатляющее, хотя и довольно специфическое — подходит не для каждого сюжета.
Как управлять расстоянием до объекта?
Ракурс без контроля дистанции — половина дела. Ведь одно и то же «снизу вверх» выглядит совершенно иначе с расстояния в полметра и с двадцати шагов. Midjourney откликается на стандартные фотографические термины планов. Extreme close-up — это максимальное приближение, когда в кадре остаётся только деталь: глаз, текстура ткани, капля росы на лепестке. Добротный способ передать эмоцию или фактуру материала.
Далее следует close-up shot, чуть более широкий план. Лицо целиком, ладонь с кольцом, механизм часов. Нельзя не упомянуть medium shot — поясной план, который чаще всего используют в диалоговых сценах кино. Человек виден примерно от бёдер и выше, фон присутствует, но не отвлекает. Ну и, наконец, wide shot и extreme wide shot — общие планы, где персонаж либо занимает небольшую часть кадра, либо практически растворяется в окружении. Именно на общих планах раскрывается антураж: архитектура, пейзаж, атмосфера места.
Перспектива и фокусное расстояние
Тонкий инструмент. Многие считают, что перспектива зависит только от позиции камеры, но на самом деле колоссальную роль играет фокусное расстояние объектива. И Midjourney это понимает — достаточно указать конкретное значение в промте. Если написать shot on 24mm lens, нейросеть сгенерирует широкоугольную картинку с характерным искажением: объекты на переднем плане станут крупнее, перспектива «растянется», а пространство в кадре будет казаться глубже, чем оно есть. Такой приём здорово работает для интерьеров (маленькая комната покажется просторной) и для драматических портретов, хотя с последними стоит быть осторожнее — широкоугольник безжалостно искажает пропорции лица.
Обратная ситуация — shot on 85mm lens или даже 200mm telephoto lens. Длиннофокусная оптика «сжимает» пространство, делает фон ближе к объекту, а перспективу — более плоской. Портретисты обожают 85 мм именно за мягкое, «маслянистое» размытие заднего плана, которое в фотографии называют боке. К тому же телеобъектив сохраняет естественные пропорции лица, не раздувая нос и не уменьшая уши. Если в промте написать shallow depth of field, 85mm portrait lens, f/1.4, Midjourney с высокой вероятностью выдаст тот самый кинематографичный результат с размытым фоном и чётким объектом в фокусе.
Стоит ли полагаться только на английские термины?
Вопрос неоднозначный. Midjourney обучалась преимущественно на англоязычных описаниях, поэтому английская терминология до сих пор работает надёжнее всего. Но есть нюанс: нейросеть довольно неплохо реагирует на описательные фразы, даже если конкретный фотографический термин пользователю незнаком. Вместо low angle shot можно написать camera looking up at the subject from below — результат будет похожим, хотя и менее предсказуемым. Вся суть в том, что чем точнее и профессиональнее формулировка, тем меньше «фантазии» нейросеть проявит от себя. А фантазия у неё бывает весьма своеобразной.
Кстати, не стоит забывать и про стилистические привязки. Фраза cinematic still мгновенно переключает нейросеть в «киношный» режим с характерным соотношением сторон, драматичным освещением и глубокой цветокоррекцией. Добавление имени конкретного оператора (скажем, cinematography by Roger Deakins) ещё больше сужает стилистику — тени станут мягче, контраст деликатнее, а каждый кадр словно снят на плёнку. Впрочем, тут уже начинается территория экспериментов, и без скрупулёзного перебора вариантов обойтись вряд ли получится.
Динамические ракурсы и необычные точки съёмки
Статичная камера — не единственный вариант. В кинематографе существуют десятки приёмов, которые передают движение или нестандартную перспективу, и Midjourney многие из них «знает». Один из самых популярных — Dutch angle (он же «голландский угол» или «немецкий угол», как его иногда называют по исторической путанице). Камера наклоняется вбок, горизонт заваливается, и вся сцена сразу приобретает тревожный, дезориентирующий характер. Этим приёмом активно пользовались экспрессионисты в двадцатых годах прошлого века, а потом он перекочевал в комиксы и супергеройское кино.
Отдельно стоит упомянуть over-the-shoulder shot — взгляд из-за плеча персонажа. Приём, который моментально вовлекает зрителя в сцену, превращая его из наблюдателя в участника. Midjourney справляется с ним довольно уверенно, особенно если уточнить, на что именно «смотрит» персонаж. А вот с POV shot (вид от первого лица) дело обстоит сложнее. Иногда нейросеть рисует именно то, что нужно, — руки персонажа в нижней части кадра, перспектива «от глаз». Но бывает и так, что вместо вида от первого лица она выдаёт просто крупный план чьего-то лица. Тем более что понятие «от первого лица» само по себе довольно размытое.
Нужно отметить, что aerial shot и drone shot — это не одно и то же в языке Midjourney. «Aerial» даёт более абстрактный вид сверху, иногда с лёгким художественным искажением. «Drone» — конкретнее и современнее, результат часто напоминает реальное фото с квадрокоптера, снятое где-нибудь на высоте сорока-пятидесяти метров. Если нужна именно фотореалистичная съёмка города или ландшафта, второй вариант предпочтительнее.
Комбинирование параметров в одном промте
Самое интересное начинается, когда несколько параметров камеры встречаются в одном промте. Допустим, задача — сгенерировать портрет воина в фэнтезийных доспехах, который выглядит величественно и мощно. Достаточно совместить нижний ракурс с небольшой фокусной длиной и драматичным освещением: low angle shot, 35mm wide lens, dramatic rim lighting, cinematic. Нейросеть «прочитает» эту комбинацию и с большой вероятностью выдаст фигуру, нависающую над зрителем, с подсвеченным контуром и ощущением настоящей мощи.
Но есть и ложка дёгтя. Чем больше параметров камеры впихивается в один промт, тем сложнее нейросети всё одновременно учесть. Иногда она жертвует ракурсом ради стиля или забывает про фокусное расстояние, увлёкшись текстурами. Поэтому опытные пользователи идут другим путём: сначала генерируют базовое изображение с правильным ракурсом и композицией, а уже потом через —sref или vary (subtle) шлифуют детали. Это кропотливый процесс, но он даёт куда более предсказуемый результат, чем попытка впихнуть десяток инструкций в одну строку.
Типичные ошибки новичков
Задача не из лёгких — описать камеру словами. И ошибки тут закономерны. Первая и самая распространённая — избыточная конкретика в ущерб композиции. Человек указывает «камера расположена на высоте 1,7 метра, повёрнута на 15 градусов влево, объектив 50 мм с диафрагмой 2,8» — и ждёт фотографическую точность. Но Midjourney не 3D-движок. Она интерпретирует промт ассоциативно, а не математически. Поэтому вместо точных цифр угла наклона лучше работают образные описания и устоявшиеся термины.
Вторая ошибка — противоречащие друг другу инструкции. Написать одновременно bird’s eye view и close-up portrait — всё равно что попросить художника нарисовать круглый квадрат. Нейросеть не откажется выполнять запрос, но результат окажется странным компромиссом, не похожим ни на одно, ни на другое. Не стоит забывать и про то, что слово photo или photograph в промте автоматически тянет за собой определённую эстетику — реалистичное освещение, естественные пропорции, «плёночную» цветопередачу. Если ракурс задуман необычный, фантастический, эту привязку к фотореализму лучше убрать, заменив на illustration или concept art.
Работа с параметром —ar и его влияние на ракурс
Об этом нюансе забывают удивительно часто. Соотношение сторон изображения (—ar) напрямую влияет на то, как Midjourney выстраивает композицию и, соответственно, ракурс. Вертикальный формат —ar 9:16 естественным образом подталкивает нейросеть к портретной ориентации, где доминируют вертикальные линии — башни, деревья, фигуры в полный рост. Горизонтальный —ar 16:9 провоцирует панорамные решения: широкие пейзажи, «киношные» кадры с большим количеством воздуха по бокам.
Кинематографический формат —ar 21:9 — настоящий кладезь возможностей для тех, кто хочет добиться эпического ощущения. Этот сверхширокий формат автоматически «раздвигает» пространство кадра, и даже простой нижний ракурс в таком соотношении смотрится внушительнее. К тому же в широком формате Midjourney чаще добавляет элементы переднего плана — размытые ветки, силуэты, архитектурные детали, — что усиливает глубину и создаёт эффект присутствия. Да и само слово cinematic в связке с —ar 21:9 творит чудеса.
Как повторить удачный ракурс?
Нашёл идеальный кадр. Экспортировал. Обрадовался. А потом понадобилось сделать такой же ракурс, но с другим персонажем или в другом окружении. И тут выясняется, что повторить случайную удачу в нейросети — та ещё махинация. Midjourney по своей природе генеративна: каждый результат содержит элемент случайности, и даже один и тот же промт с тем же —seed в разных версиях модели может выдать разные композиции.
Спасательный круг тут — функция —cref (character reference) в связке с —sref (style reference). Если загрузить в качестве референса изображение с нужным ракурсом, нейросеть постарается воспроизвести аналогичную композицию. Но стоит понимать: это «старание», а не гарантия. Иногда приходится генерировать пять-десять вариаций, прежде чем камера встанет туда, куда нужно. К слову, в последних версиях Midjourney (начиная с v6) контроль над перспективой стал заметно точнее — буквально пару лет назад о таком приходилось только мечтать.
Полезные связки для промтов
За годы экспериментов сообщество Midjourney наработало немало проверенных связок, которые стабильно дают нужный эффект. Для эпических сцен великолепно работает комбинация heroic low angle, wide shot, golden hour lighting — нижний ракурс с общим планом и тёплым вечерним светом. Результат тяготеет к голливудскому блокбастеру, и это не преувеличение. Для интимных, камерных портретов лучше всего себя показывает close-up, eye-level shot, soft natural light, shallow depth of field — камера на уровне глаз, мягкий свет, размытый фон.
Особый интерес вызывают «невозможные» ракурсы, которых в реальной фотографии добиться было бы крайне трудно. Например, macro shot from inside a flower looking outward — взгляд изнутри цветка наружу. Или camera placed on the surface of water, half submerged — полуподводная съёмка, где верхняя часть кадра показывает мир над водой, а нижняя — подводный мир. Midjourney такие штуки любит и обычно выдаёт довольно зрелищный результат (хотя иногда с анатомическими казусами, если в кадре есть люди).
Что насчёт версий Midjourney?
Разные версии модели по-разному реагируют на одни и те же команды камеры. В v5 контроль над ракурсом был довольно грубым — нейросеть часто игнорировала указания на перспективу, если они конфликтовали с основным описанием сцены. Версия v6 совершила ощутимый скачок: модель стала гораздо лучше понимать пространственные отношения, и фразы типа shot from below или overhead view начали давать куда более стабильный результат. Ну, а в самых свежих итерациях (v6.1 и выше) появилась возможность тонко настраивать композицию через —style raw, который убирает «приукрашивание» и даёт более честную интерпретацию промта.
И всё же идеального контроля пока нет. Это связано с тем, что генеративная модель работает не с 3D-сценой, а с вероятностным пространством пикселей — она «угадывает», как должен выглядеть кадр, на основе миллионов примеров из своей обучающей выборки. Иногда угадывает безупречно. Иногда — нет. Тем более что само понятие «правильный ракурс» субъективно и зависит от контекста. Поэтому главный навык, который стоит развивать, — умение итерировать, то есть быстро оценивать результат и корректировать промт.
Камера в Midjourney — инструмент невидимый, но мощный. Да, он работает через слова, а не через мышку, и это непривычно. Да, требует знания фотографической терминологии, которая для обывателя может показаться птичьим языком. Но стоит потратить пару вечеров на эксперименты, и результат приятно удивит. Каждый освоенный ракурс — это новый изобразительный инструмент в арсенале, а их комбинации открывают практически бесконечный простор для творчества. Удачи в поисках идеального кадра — он ведь всегда где-то между точным промтом и счастливой случайностью.

