Ожидаемые функции и дата выхода нейросети Runway 4

Мир генеративных нейросетей за последние пару лет изменился до неузнаваемости — буквально вчера создание видеоролика по текстовому описанию казалось фантастикой, а сегодня этим никого не удивишь. Львиная доля заслуг в этой гонке принадлежит компании Runway, чьи модели Gen-1 и Gen-2 в своё время произвели настоящий фурор среди креативщиков и режиссёров. Потом появился Gen-3 Alpha, и планка поднялась ещё выше — ролики стали длиннее, движения камеры плавнее, а физика объектов перестала вызывать нервный смех. Но технологический бомонд не привык останавливаться, и слухи о четвёртом поколении модели уже несколько месяцев будоражат профессиональное сообщество. А потому стоит разобраться, чего именно ждать от Runway Gen-4 и когда эта нейросеть наконец станет доступна широкой публике.

Все топовые нейросети в одном месте

Что известно о сроках релиза?

Точной даты на момент написания этого текста Runway официально не называла. Впрочем, компания и раньше не баловала аудиторию длинными дорожными картами — обычно между первыми утечками и полноценным запуском проходило от нескольких недель до пары месяцев. Ещё в конце весны 2025-го CEO Кристобаль Валенсуэла в нескольких интервью довольно прозрачно намекнул, что «следующее большое обновление» находится на финальной стадии внутреннего тестирования. К слову, инсайдеры из числа бета-тестеров уже делились в соцсетях короткими роликами, созданными якобы на новой архитектуре, хотя достоверность таких утечек всегда под вопросом. Большинство аналитиков сходятся во мнении, что публичный релиз Gen-4 стоит ожидать летом 2025 года — ориентировочно в июне-июле. Но не стоит забывать, что Runway традиционно выпускает сначала «альфу» для подписчиков Premium-тарифа, и лишь спустя время модель становится доступна всем остальным.

Генерация видео нового уровня

Главная интрига. Ведь именно качество выходного видео определяет, насколько серьёзно инструмент воспримут профессионалы. В Gen-3 Alpha длительность одного ролика ограничивалась десятью секундами, и хотя потом добавили возможность «продления» клипа, результаты не всегда получались связными — персонаж мог потерять руку или забыть о собственной причёске между фрагментами. От четвёртого поколения ждут совершенно иного подхода к временной когерентности. Дело в том, что Runway, по слухам, перешла на трансформерную архитектуру нового типа, где модель оперирует не отдельными кадрами, а целыми сценами как единым пространственно-временным блоком. Это должно решить застарелую проблему «морфинга» — того самого раздражающего эффекта, когда лицо актёра плывёт, а фон начинает жить своей жизнью.

Нужно отметить, что конкуренты не дремлют. Sora от OpenAI, Kling от Kuaishou, Veo 2 от Google — все они наступают на пятки. Но у Runway есть козырь: компания изначально строилась вокруг кинопроизводства, а не вокруг чат-ботов или поисковых систем. Этот фокус на творческом процессе ощущается в каждой мелочи интерфейса. И Gen-4, судя по всему, ещё глубже погрузится в логику профессионального монтажа.

Зачем переплачивать за нейросети? Экономьте сотни долларов каждый месяц 💸

Оплачивать Midjourney, премиум-версии ChatGPT, видео- и аудио-генераторы по отдельности — это безумно дорого и неудобно. Этот сервис решает проблему! Получите полный пакет премиум-моделей (более 90 топовых нейросетей) по цене одной доступной подписки. Безлимитные возможности, никаких скрытых платежей и сгорающих токенов при активном тарифе.

Перестаньте платить за 10 разных сайтов. Выбирайте выгоду и творите без ограничений 👉 https://clck.ru/3RNCRL

Стоит ли ждать понимания физики?

Один из самых болезненных нюансов нынешних видеомоделей — «пластилиновая» физика. Вода течёт не туда, мяч отскакивает под невозможным углом, волосы прилипают к лицу, а ткань ведёт себя так, словно действие происходит в невесомости. Довольно часто эти артефакты превращают красивый замысел в комичный абсурд. И вот тут Gen-4 обещает совершить, пожалуй, самый ощутимый скачок.

По информации из закрытых презентаций, новая модель обучалась на колоссальном датасете физических симуляций — не только реальных видеозаписей, но и синтетических роликов, созданных движками, где каждый объект подчиняется настоящим ньютоновским законам. Это же отличает подход Runway от конкурентов, которые в массе своей тренируются исключительно на видео из интернета. Результат? Жидкости должны наконец литься, а не «проступать». Ткань — драпироваться складками, а не растворяться в воздухе. А мелкие частицы вроде пыли или искр — разлетаться именно так, как подсказывает интуиция зрителя.

Управление камерой и мультисценарная режиссура

Камера. Вот что отделяет «видео из нейросети» от «кадра из фильма». В Gen-3 Alpha уже появились базовые команды для панорамирования, наезда и облёта объекта. Но режиссёры жаловались: контроль оставался довольно грубым, а сложные траектории (вроде крана или стедикама) модель интерпретировала непредсказуемо. Иногда натыкаешься на ролик, где вместо плавного отъезда камера просто «телепортируется» в другую точку. Зрелище, мягко говоря, удручающее.

Gen-4, если верить утечкам, получит продвинутый модуль режиссёрского управления. Суть в том, что пользователь сможет задавать ключевые точки камеры (так называемые keyframes) с указанием угла, фокусного расстояния и скорости перемещения — примерно так, как это делают в профессиональных пакетах вроде After Effects или DaVinci Resolve. Ну и, конечно же, главная мечта — мультисценарная генерация. Это когда из одного развёрнутого промта модель создаёт не один десятисекундный клип, а целую последовательность из трёх-пяти сцен с логичными переходами и единым визуальным стилем. По сути, мы говорим о первом шаге к автоматическому созданию короткометражек. Звучит грандиозно? Безусловно. Но и скепсис тут уместен — между демонстрацией в тепличных условиях и стабильной работой «в поле» пролегает пропасть.

Консистентность персонажей — извечная проблема

Вот где действительно кроется ложка дёгтя всех существующих видеомоделей. Сгенерировать красивый кадр с человеком — не проблема. А вот добиться того, чтобы этот же человек в следующей сцене выглядел так же — с тем же лицом, той же одеждой и теми же пропорциями — задача куда более щепетильная. Многие считают, что нейросети уже решили эту проблему. На самом деле — нет. Даже Sora грешит тем, что герой между кадрами меняет цвет глаз или «отращивает» лишний палец.

Runway, судя по патентным заявкам, опубликованным в начале 2025-го, работает над механизмом «идентификационных якорей». Вся суть в том, что модель формирует внутреннее скрытое представление персонажа — этакий цифровой слепок, который сохраняется между сценами и не позволяет генератору «забыть», как выглядит герой. Тем более что подобный подход уже показал впечатляющие результаты в статичных изображениях — вспомнить хотя бы Character Reference у Midjourney. Перенести эту логику на видео — задача на порядок сложнее, но от Gen-4 именно этого и ждут.

Что насчёт звука и аудиодорожки?

Тихое кино. Вот чем пока остаются все AI-видео. Ни одна крупная модель до сих пор не умеет генерировать синхронный звук вместе с картинкой — максимум можно наложить музыку или эффекты постфактум, используя отдельные аудионейросети. Изменит ли это Gen-4? Скорее всего, лишь частично. По отрывочным сведениям из технического блога Runway, компания экспериментирует с мультимодальным выходом, где модель одновременно генерирует и видеопоток, и аудиоряд. Но на старте эта функция, вероятно, ограничится базовыми звуковыми эффектами: шум ветра, плеск воды, шаги. До полноценной генерации диалогов с синхронизацией губ ещё далеко. Впрочем, даже добротный эмбиент, автоматически подогнанный под происходящее на экране, — уже колоссальный шаг вперёд. Да и самим видеографам это упростит жизнь: не нужно тратить часы на подбор библиотечных звуков.

Бьёт ли по кошельку подписка на Runway?

Ценовая политика. Тема болезненная. Нынешний тариф Runway Standard стоит около двенадцати долларов в месяц, а Premium — порядка двадцати восьми. И это при том, что выделенных «кредитов» хватает, мягко говоря, ненадолго: десять секунд видео в Gen-3 Alpha сжигают примерно сотню кредитов, и подписку среднего уровня можно исчерпать за пару вечеров экспериментов. Серьёзное вложение для фрилансера, и ещё более ощутимое — для студии, которая хочет внедрить AI-генерацию в конвейер.

С выходом Gen-4, по прогнозам, кошелёк станет легче ещё заметнее. Более тяжёлая модель потребует больше вычислительных ресурсов, а значит, стоимость генерации одной секунды видео вырастет. Многие ожидают появление нового тарифного плана — условно «Pro» — в районе пятидесяти-шестидесяти долларов в месяц. Не стоит гнаться за максимальным тарифом с первого дня: разумнее дождаться отзывов первых пользователей и понять, насколько Gen-4 действительно оправдывает разницу в цене.

Интеграция с существующими инструментами

Отдельно стоит упомянуть экосистему. Runway — это ведь не только генерация видео «с нуля». Платформа уже сейчас включает инструменты для удаления фона, замены объектов, ретуши и колоризации. И Gen-4, по всей видимости, глубже интегрируется с этими модулями. К примеру, появилась информация о функции «Re-style scene», где пользователь загружает готовый видеоролик, а нейросеть перерисовывает его в заданной стилистике — допустим, превращает любительскую съёмку смартфона в кинематографичный кадр с тональной коррекцией и анаморфным боке. Это не просто фильтр поверх картинки, а полноценная перегенерация каждого кадра с сохранением движений и мимики актёров.

К тому же Runway активно развивает API. Для разработчиков игр, приложений и рекламных платформ программный доступ к Gen-4 может стать настоящим спасательным кругом — вместо заказа дорогостоящей CG-анимации достаточно отправить текстовый запрос и получить готовый видеоряд за считаные минуты.

Конкуренция: кто наступает на пятки?

Рынок генеративного видео перегрет. И это мягко сказано. Буквально каждый месяц появляется новый игрок или обновление старого, и за лидерством Runway закрепиться всё сложнее. Sora от OpenAI обладает колоссальным бюджетом и базой пользователей ChatGPT, через которую модель продвигается практически без рекламы. Google со своим Veo 2 тяготеет к интеграции с YouTube, что потенциально открывает доступ к миллиардной аудитории. А китайские решения — Kling и Hailuo — берут агрессивной ценовой политикой и, прямо скажем, внушительной скоростью итераций.

Все топовые нейросети в одном месте

Но у Runway есть изюминка, которую сложно скопировать: репутация «инструмента для кинематографистов». Не случайно именно технологии Runway использовались при создании визуальных эффектов для нашумевшего фильма «Всё везде и сразу». Этот кредит доверия со стороны Голливуда — не пустой звук. Он означает, что модели тестируются и шлифуются с участием людей, которые отличают хороший кадр от просто красивой картинки. И Gen-4, по идее, должен закрепить это преимущество.

Подводные камни, о которых молчат

Хайп льётся рекой. Но за каждым красочным промороликом скрываются нюансы, о которых разработчики предпочитают не распространяться. Во-первых, вопрос авторских прав по-прежнему висит в воздухе. На каких видео обучалась модель? Были ли получены разрешения от правообладателей? Runway уже сталкивалась с претензиями со стороны крупных медиакомпаний, и с ростом возможностей Gen-4 давление наверняка усилится. Во-вторых, генерация реалистичных лиц открывает колоссальный простор для дипфейков. Да, компания внедряет водяные знаки и метаданные, но любой скрупулёзный злоумышленник способен их удалить.

Ну, а третий подводный камень — банальное разочарование. Демоверсии всегда показывают лучшие результаты, отобранные вручную из сотен попыток. Реальный опыт обывателя часто оказывается куда скромнее. Не стоит ожидать, что Gen-4 с первого промта выдаст идеальную сцену уровня голливудского блокбастера. Придётся экспериментировать, переформулировать запросы и мириться с артефактами. Такова реальность на текущем этапе развития технологии.

Генеративное видео — одна из самых стремительно развивающихся областей искусственного интеллекта, и каждое новое поколение моделей буквально переписывает правила игры. Runway Gen-4, даже если реализует лишь половину того, что ему приписывают, способен стать тем самым инструментом, который окончательно стирает грань между «сделано нейросетью» и «снято на площадке». А для креативных профессионалов это означает одно: появится больше времени на идеи и меньше — на рутину. Ну, а пока остаётся следить за новостями, копить кредиты на подписку и готовиться к тому, что лето 2025-го подарит индустрии очередной повод для восторга.