Виртуальные коллаборации: как был создан хит Таллис feat Suno

Ещё пару лет назад идея записать дуэт с нейросетью казалась сюжетом из второсортной фантастики, чем-то уровня «робот поёт в караоке». А сегодня треки, где живой артист делит строчки с алгоритмом, собирают миллионы прослушиваний и залетают в чарты стриминговых площадок. История певицы Таллис, выпустившей совместную композицию с генеративной моделью Suno, — как раз тот самый случай, когда технология перестала быть аттракционом и превратилась в полноценного соавтора. И чтобы понять, как вообще рождаются такие проекты, стоит разложить всю кухню по полочкам.

Все топовые нейросети в одном месте

С чего всё началось?

Самое забавное, что первая демка родилась буквально в дороге. Таллис ехала в такси, слушала черновую инструменталку на телефоне и напевала мелодию поверх — ни о каком дуэте с ИИ речи тогда и не шло. Идею подкинул её саунд-продюсер, заметивший, что вокальная линия получается слишком плотной для одного исполнителя. Нужен был второй голос — контрастный, необычный, с другой фактурой. Живого фичеринга под рукой не оказалось, а сроки поджимали. Ведь релиз был привязан к сезонной кампании лейбла. Тогда и всплыла мысль — подключить Suno, сервис, который к тому моменту уже довольно уверенно стоял на ногах среди генеративных музыкальных платформ. Риск? Безусловно. Но и любопытство подгоняло не меньше дедлайна.

Что такое Suno и почему именно он

Suno — это генеративная нейросеть, умеющая создавать законченные музыкальные фрагменты вместе с вокалом по текстовому описанию. Работает она не как привычный автотюн и не как сэмплер. Пользователь задаёт промт, стиль, настроение, иногда — референсные строки, а модель выдаёт трек, который можно крутить дальше, резать, пересобирать. На рынке подобных решений хватает (Udio, Riffusion, AIVA), однако именно Suno выделяется тембральной правдоподобностью вокала.

Голоса получаются с дыханием, шероховатостями, живыми призвуками. Для поп-баллады, а именно такой и задумывался трек Таллис, это критично.

Электронный «пластиковый» вокал ту атмосферу, что нужна была команде, попросту не вытянул бы.

Все лучшие нейросети мира теперь в твоём кармане! ⚡

Тексты, топовое видео, картинки и аудио. Самые мощные версии GPT, Claude, Midjourney, Sora, Kling и еще 90+ ИИ-моделей собраны в одном месте. Работает невероятно быстро: через удобный сайт или прямо в Telegram. Больше никаких блокировок, VPN, иностранных карт и переплат.

Жми на ссылку ниже и забирай свои бесплатные генерации для тест-драйва платформы 👉 https://clck.ru/3RNCRL

Как строился рабочий процесс

Начать нужно с того, что никто не нажимал одну волшебную кнопку. Процесс занял около трёх недель — с учётом правок, пересведений и согласований с юристами. Первым делом Таллис со своей командой написала текст целиком, от первого куплета до финального припева. Затем определили, какие строки отдать «виртуальному фиту», а какие оставить за живой солисткой. Распределение шло по принципу контраста: Таллис солирует в припевах и во втором куплете, Suno подхватывает первый куплет и бридж. Получился такой диалог, где каждая сторона тянет одеяло ровно столько, чтобы не перекрыть собеседника. К слову, именно распределение партий занимает у подобных проектов львиную долю времени.

Промты и настройка тембра

А вот тут начинается самое интересное. Чтобы нейросеть выдала голос, который органично ляжет рядом с живым вокалом, пришлось перебрать десятки формулировок. Первый блин, естественно, вышел комом — Suno предложил что-то похожее на шепчущего робота из инди-игры. Инженер проекта переписал промт, добавив референсы по настроению («тёплый грудной тембр», «лёгкая хрипотца на согласных», «манера, близкая к исполнителям нулевых»). Температуру генерации снизили (параметр, отвечающий за предсказуемость модели), и уже с седьмой попытки получилось то самое звучание. Всего инженер зафиксировал порядка сорока вариантов, из которых в финал прошло три. И да, каждый из них потом ещё дополнительно обрабатывался.

Запись живого вокала

Таллис писалась в небольшой студии на северо-западе Москвы — той самой, где когда-то делала свой дебютник. Работали на ламповом преампе и конденсаторном микрофоне с большой диафрагмой, без лишних плагинов на записи. Звукорежиссёр настоял на «сухом» тракте, чтобы потом было проще сшивать живые партии с генерируемыми. Почему это важно? Дело в том, что ИИ-вокал обычно идёт уже с «вшитой» реверберацией и лёгким компрессором. Если на живую дорожку навалить эффектов, голоса начнут драться за пространство в миксе. Такой приём, кстати, сэкономил команде часов восемь работы на этапе сведения.

Юридические нюансы

Нельзя не упомянуть и подводные камни правовой стороны. Генеративная музыка — территория, где законодательство пока догоняет практику. Команда Таллис прописала в договоре с Suno отдельный пункт о коммерческом использовании выходного материала, получила лицензию на релиз и зарегистрировала трек как совместное произведение.

Интересный момент: в метаданных релиза «Suno» указан как фичеринг-артист, а в авторах значатся живые люди — автор текста, композитор и саунд-продюсер. Сама модель прав на композицию не имеет.

Довольно тонкий баланс, но именно он позволил трек выложить на всех площадках без единой претензии.

Свели ли всё с первого раза?

Конечно, нет. Первая версия микса звучала так, будто два человека поют в разных комнатах через закрытую дверь. Проблема вылезла на этапе эквализации — частоты живого и синтезированного голосов конфликтовали в диапазоне двух-трёх килогерц. Свёл всё воедино приглашённый инженер, который вручную «подрезал» по паре децибел в нужных местах и добавил лёгкий сайд-чейн. После четвёртой итерации голоса наконец-то начали звучать как дуэт, а не как коллаж. Ложка дёгтя — финальный мастеринг пришлось делать дважды, потому что стриминги по-разному нормализуют громкость, и первая версия теряла плотность на Apple Music.

А как реагирует публика?

По-разному, и это честно. Часть слушателей восприняла трек с восторгом — мол, свежо, смело, наконец-то кто-то не боится экспериментировать. Другая часть возмутилась: дескать, живой артист «продался алгоритму», а настоящая музыка так не делается. Интересно, что критики, послушавшие композицию вслепую, чаще всего не угадывали, где поёт человек, а где машина. Это же говорит о многом. Ведь именно слепой тест — самый честный арбитр в подобных спорах. А статистика стриминга показала, что досматриваемость клипа держится выше средней по жанру на тринадцать процентов. Для дебютного эксперимента результат внушительный.

Плюсы и минусы формата

Хотя и выглядит вся затея футуристично, но обе стороны медали видны невооружённым глазом. С одной стороны — скорость, доступность, возможность сделать дуэт без логистических махинаций и согласований с графиком второго артиста. Бюджет тоже ощутимо легче: гонорар живому фичу мог бы съесть половину сметы проекта. С другой — отсутствие живого химического взаимодействия между артистами, риск того, что через полгода звучание модели устареет, плюс постоянные вопросы от журналистов о «душе» в музыке. Многие считают, что ИИ-вокал лишён эмоций, но на самом деле эмоция считывается с текста, аранжировки и подачи — а это всё делают живые люди.

Все топовые нейросети в одном месте

Стоит ли повторять такой опыт другим артистам?

Короткий ответ — да, если подходить с головой. Не стоит бросаться в нейросетевые коллаборации только ради хайпа, иначе трек превратится в техно-демонстрацию, а не в песню. Нужно чётко понимать, зачем в композиции второй голос, какую драматургию он вытягивает, какую задачу решает. Тем более, что сам инструмент развивается стремительно — то, что сегодня требует сорока попыток, через год будет получаться с третьей. К слову, Таллис уже анонсировала второй совместный проект, но теперь с другой моделью и в совершенно ином жанре. Говорят, будет что-то на стыке фолка и электроники.

Технические мелочи, о которых забывают

Есть несколько бытовых моментов, о которых новички в таких проектах узнают уже по ходу пьесы. Во-первых, генеративные треки нужно сохранять в максимально возможном качестве сразу — пересгенерировать идентичный результат потом невозможно, даже с тем же промтом. Во-вторых, темп живой записи стоит подгонять под сетку ИИ, а не наоборот, потому что модель не умеет «свинговать» так же гибко, как человек. Ну и, наконец, всегда держите под рукой запасной вариант живого вокалиста — вдруг площадка внезапно изменит правила и снимет трек с ротации. Такие случаи уже всплывали у коллег по цеху.

Что дальше?

Индустрия меняется на глазах. Буквально три года назад подобный релиз вызвал бы скандал и разбирательства в профильных пабликах, а сейчас — живое обсуждение и приглашения на подкасты.

Виртуальные коллаборации перестают быть экзотикой и встраиваются в обычный продюсерский арсенал наравне с автотюном, вокодером и сэмплером.

Кто-то ворчит, кто-то восторгается, но процесс уже не остановить. История Таллис и Suno — лишь первая ласточка, а значит, впереди ещё десятки таких экспериментов, и далеко не все они будут удачными. Тем интереснее наблюдать. Удачи всем, кто решится повторить этот путь, — пусть ваш первый виртуальный дуэт запомнится надолго и откроет дорогу новым звуковым находкам.