Подробная инструкция: как оживить фото через нейросеть Runway

Ещё лет пять назад идея «оживить» старую фотографию бабушки или превратить статичный кадр из отпуска в маленький фильм казалась чем-то из разряда голливудских спецэффектов с бюджетом в миллионы долларов. Сегодня же ситуация поменялась радикально — достаточно браузера, пары долларов на счету и десяти минут свободного времени. Нейросети взяли на себя львиную долю работы, которую раньше делали целые студии моушн-дизайна. И среди всего этого многообразия особняком стоит сервис Runway — пожалуй, самый дружелюбный к новичку инструмент с по-настоящему кинематографичным результатом. Но чтобы получить на выходе не дёргающуюся карикатуру, а плавный живой ролик, нужно знать несколько неочевидных нюансов.

Все топовые нейросети в одном месте

Что такое Runway и почему именно он

Runway ML — это не одна нейросеть, а целая платформа, в которой собрано несколько десятков инструментов для работы с изображением и видео. Создана она была ещё в 2018 году, тогда о генеративных моделях слышали единицы, а сегодня её используют монтажёры крупных студий и блогеры с миллионной аудиторией. Главная гордость сервиса — модели семейства Gen, которые умеют превращать статичную картинку в видео. Сейчас доступна третья версия (Gen-3 Alpha), и качество там ушло далеко вперёд по сравнению с первыми экспериментами. К слову, именно Runway приложил руку к визуальным эффектам фильма «Всё везде и сразу», получившего «Оскар». Так что инструмент проверен. Большим кино.

С чего начинается работа?

С регистрации, разумеется. Заходим на сайт runwayml.com, жмём кнопку Sign Up и проходим стандартную процедуру — почта, пароль, подтверждение. Можно зайти и через гугл-аккаунт, так даже быстрее. После входа сервис подкинет вам бесплатные кредиты — около 125 штук на стартовом тарифе. Этого хватит на 3-4 коротких ролика, чтобы понять, нравится вам результат или нет. Интерфейс полностью англоязычный, но пугаться не стоит — браузерный переводчик справляется с ним без потерь смысла. Главное — не переводить названия самих моделей, иначе можно запутаться в кнопках.

Тарифы и подводные камни оплаты

Вот тут начинается самое интересное. Бесплатный план — это, скорее, демо-режим. Кредиты заканчиваются быстро, водяной знак Runway прилеплен к каждому ролику, а длительность ограничена пятью секундами. Standard-тариф обойдётся в 15 долларов в месяц (при оплате за год — дешевле), и за эти деньги вы получаете 625 кредитов ежемесячно, отсутствие водяного знака и доступ к Gen-3. Есть и Pro за 35 долларов — там кредитов уже 2250, плюс открываются продвинутые настройки камеры. Серьёзное вложение? Для разового баловства — пожалуй. А вот для тех, кто планирует регулярно делать контент, цена вполне адекватная. Из России оплата напрямую не проходит, и это, пожалуй, главная ложка дёгтя. Выручают зарубежные виртуальные карты или сервисы-посредники, благо их сейчас хватает.

Зачем переплачивать за нейросети? Экономьте сотни долларов каждый месяц 💸

Оплачивать Midjourney, премиум-версии ChatGPT, видео- и аудио-генераторы по отдельности — это безумно дорого и неудобно. Этот сервис решает проблему! Получите полный пакет премиум-моделей (более 90 топовых нейросетей) по цене одной доступной подписки. Безлимитные возможности, никаких скрытых платежей и сгорающих токенов при активном тарифе.

Перестаньте платить за 10 разных сайтов. Выбирайте выгоду и творите без ограничений 👉 https://clck.ru/3RNCRL

Подготовка фотографии

Загрузить можно практически любой снимок, но качество исходника напрямую определяет качество результата. Это аксиома. Размытое селфи десятилетней давности нейросеть «оживить», конечно, попробует, но вместо плавного движения вы получите мерцающее месиво. Идеальный кадр — чёткий, с хорошим освещением, разрешением хотя бы 1280 на 720 пикселей и понятной композицией. Чем меньше мелких деталей и хаоса в фоне — тем лучше. Если планируете оживить старое фото, желательно сначала прогнать его через апскейлер (тот же Topaz Photo AI или встроенный в Runway инструмент Image Upscale). Восстановили резкость, убрали царапины, подтянули контраст — и только потом несём в генератор. Ведь чудес не бывает: модель работает с тем, что ей дали.

Загрузка и выбор модели

Залогинившись, на главной странице вы увидите раздел Generative Video. Внутри — выбор между Gen-2 и Gen-3 Alpha. Старшая версия даёт более кинематографичный результат, но и кредитов жрёт больше (примерно вдвое). Для первых экспериментов вполне сойдёт Gen-2, особенно если бюджет ограничен. Жмём Image to Video, и перед нами открывается рабочая область. Слева — окно загрузки, справа — поле для текстового описания и настройки. Перетаскиваем фотографию мышкой прямо в окно или выбираем через проводник. Файл подгружается за пару секунд, после чего сервис показывает превью.

Как написать хороший промпт?

Самая распространённая ошибка новичков — оставить поле промпта пустым, понадеявшись, что нейросеть «сама догадается». Не догадается. Точнее, догадается, но по-своему — и результат вас, скорее всего, разочарует. Промпт здесь работает как режиссёрская подсказка: вы говорите модели, что именно должно двигаться и в какую сторону.

Писать нужно по-английски, короткими ясными фразами. Например, для портрета подойдёт что-то вроде «the woman slowly smiles, gentle wind moves her hair, soft cinematic lighting». Для пейзажа — «slow camera push in, clouds drifting across the sky, leaves trembling».

Чем конкретнее — тем точнее результат. А вот перегружать описание десятками прилагательных не стоит, модель начнёт путаться и выдавать кашу. Оптимально — две-три ёмкие фразы.

Настройки движения камеры

Особый интерес вызывает блок Camera Motion, который появился в Gen-3. Здесь можно вручную задать траекторию движения виртуальной камеры: панорама влево или вправо, наезд (push in), отъезд (pull out), поворот, наклон. Каждое движение настраивается ползунком от 0 до 10 — чем больше число, тем интенсивнее. Для оживления портрета хватит значения 2-3, иначе лицо начнёт «плыть». А вот для пейзажа можно смело ставить 5-7, получится эффект дрона. Есть и режим Motion Brush — настоящая изюминка сервиса. Кистью прямо на фотографии вы выделяете области, которые должны двигаться: волосы, воду, листву, дым. Остальное останется статичным. Звучит просто, но работает почти волшебно.

Генерация и ожидание результата

Все настройки выставлены, промпт написан, кисточкой помечены нужные зоны. Жмём Generate. Процесс занимает от 30 секунд до пары минут в зависимости от загруженности серверов и выбранной модели. В пиковые часы (вечер по европейскому времени) ждать приходится чуть дольше. По окончании сервис покажет превью ролика — обычно длительностью 4 или 10 секунд. Понравилось? Скачиваем кнопкой Download в формате MP4. Не понравилось? Жмём Regenerate, и нейросеть выдаст новый вариант с теми же настройками. Каждая попытка, к сожалению, списывает кредиты — поэтому есть смысл сначала продумать, чего вы хотите, а уже потом нажимать заветную кнопку.

Все топовые нейросети в одном месте

Типичные ошибки и как их избежать

Разберём самые частые промахи. Во-первых, слишком резкие движения — когда человек на фото начинает поворачивать голову на 90 градусов, лицо неизбежно искажается. Лучше задавать минимальные значения интенсивности. Во-вторых, попытка оживить групповое фото с большим количеством людей — здесь модель почти гарантированно «слипает» лица или перепутывает руки. Оптимум — один-два героя в кадре. В-третьих, забытый промпт. Без текстового описания результат превращается в лотерею. Ну и, конечно, не стоит ожидать от 5-секундного ролика голливудского качества каждый раз — иногда нужно сделать пять-шесть генераций, прежде чем получится по-настоящему удачный дубль.

Что делать с готовым видео?

Скачанный ролик — это полноценный MP4-файл, который можно использовать где угодно. Загружать в сторис, склеивать в большой клип через CapCut или DaVinci Resolve, добавлять музыку, накладывать титры. Многие используют такие оживлённые фото для видеооткрыток на день рождения близких — эффект получается трогательный, особенно если речь о старых семейных снимках. А ещё это отличный способ сделать необычное превью для блога или ютуб-канала. Главное — не злоупотреблять. Когда каждая фотография в ленте начинает шевелиться, эффект новизны быстро притупляется.

Альтернативы и сравнение

Runway — не единственный игрок на этом поле. Конкуренцию ему составляют Pika Labs, Kling, Luma Dream Machine и совсем свежий китайский MiniMax. У каждого свои сильные стороны: Kling, например, лучше справляется с реалистичной анимацией людей, а Luma даёт более длинные ролики бесплатно. Но именно Runway пока удерживает первенство по совокупности факторов: удобство, стабильность, качество, постоянные обновления. Тестировать имеет смысл несколько сервисов параллельно — благо у большинства есть бесплатные пробники. У одного и того же фото в разных нейросетях движение может получиться кардинально разным. Вкусовщина? Отчасти да.

Эксперименты с оживлением фотографий — это та редкая область, где порог входа минимальный, а удовольствие от процесса огромное. Достаточно одного удачного ролика, чтобы захотелось сделать ещё десяток. Так что пара вечеров за Runway точно не будут потрачены впустую, а первый по-настоящему классный результат запомнится надолго. Удачных вам кадров и плавных движений!