Ещё пару лет назад идея записать дуэт с нейросетью казалась сюжетом из второсортной фантастики, чем-то уровня «робот поёт в караоке». А сегодня треки, где живой артист делит строчки с алгоритмом, собирают миллионы прослушиваний и залетают в чарты стриминговых площадок. История певицы Таллис, выпустившей совместную композицию с генеративной моделью Suno, — как раз тот самый случай, когда технология перестала быть аттракционом и превратилась в полноценного соавтора. И чтобы понять, как вообще рождаются такие проекты, стоит разложить всю кухню по полочкам.
С чего всё началось?
Самое забавное, что первая демка родилась буквально в дороге. Таллис ехала в такси, слушала черновую инструменталку на телефоне и напевала мелодию поверх — ни о каком дуэте с ИИ речи тогда и не шло. Идею подкинул её саунд-продюсер, заметивший, что вокальная линия получается слишком плотной для одного исполнителя. Нужен был второй голос — контрастный, необычный, с другой фактурой. Живого фичеринга под рукой не оказалось, а сроки поджимали. Ведь релиз был привязан к сезонной кампании лейбла. Тогда и всплыла мысль — подключить Suno, сервис, который к тому моменту уже довольно уверенно стоял на ногах среди генеративных музыкальных платформ. Риск? Безусловно. Но и любопытство подгоняло не меньше дедлайна.
Что такое Suno и почему именно он
Suno — это генеративная нейросеть, умеющая создавать законченные музыкальные фрагменты вместе с вокалом по текстовому описанию. Работает она не как привычный автотюн и не как сэмплер. Пользователь задаёт промт, стиль, настроение, иногда — референсные строки, а модель выдаёт трек, который можно крутить дальше, резать, пересобирать. На рынке подобных решений хватает (Udio, Riffusion, AIVA), однако именно Suno выделяется тембральной правдоподобностью вокала.
Голоса получаются с дыханием, шероховатостями, живыми призвуками. Для поп-баллады, а именно такой и задумывался трек Таллис, это критично.
Электронный «пластиковый» вокал ту атмосферу, что нужна была команде, попросту не вытянул бы.
Все топовые нейросети в одной подписке! 🚀
Устали оплачивать десятки сервисов отдельно и постоянно включать VPN? Появилась платформа, которая объединяет более 90 передовых ИИ в одном окне. Пишите тексты с новейшими версиями GPT и Claude, создавайте шедевры в Midjourney и генерируйте видео в Sora и Kling. Тексты, изображения, видео и музыка — всё работает на любых устройствах без «танцев с бубном».
Попробуйте бесплатно прямо сейчас! Переходите по ссылке и получите бонусные токены для старта 👉 https://clck.ru/3RNCRL
Как строился рабочий процесс
Начать нужно с того, что никто не нажимал одну волшебную кнопку. Процесс занял около трёх недель — с учётом правок, пересведений и согласований с юристами. Первым делом Таллис со своей командой написала текст целиком, от первого куплета до финального припева. Затем определили, какие строки отдать «виртуальному фиту», а какие оставить за живой солисткой. Распределение шло по принципу контраста: Таллис солирует в припевах и во втором куплете, Suno подхватывает первый куплет и бридж. Получился такой диалог, где каждая сторона тянет одеяло ровно столько, чтобы не перекрыть собеседника. К слову, именно распределение партий занимает у подобных проектов львиную долю времени.
Промты и настройка тембра
А вот тут начинается самое интересное. Чтобы нейросеть выдала голос, который органично ляжет рядом с живым вокалом, пришлось перебрать десятки формулировок. Первый блин, естественно, вышел комом — Suno предложил что-то похожее на шепчущего робота из инди-игры. Инженер проекта переписал промт, добавив референсы по настроению («тёплый грудной тембр», «лёгкая хрипотца на согласных», «манера, близкая к исполнителям нулевых»). Температуру генерации снизили (параметр, отвечающий за предсказуемость модели), и уже с седьмой попытки получилось то самое звучание. Всего инженер зафиксировал порядка сорока вариантов, из которых в финал прошло три. И да, каждый из них потом ещё дополнительно обрабатывался.
Запись живого вокала
Таллис писалась в небольшой студии на северо-западе Москвы — той самой, где когда-то делала свой дебютник. Работали на ламповом преампе и конденсаторном микрофоне с большой диафрагмой, без лишних плагинов на записи. Звукорежиссёр настоял на «сухом» тракте, чтобы потом было проще сшивать живые партии с генерируемыми. Почему это важно? Дело в том, что ИИ-вокал обычно идёт уже с «вшитой» реверберацией и лёгким компрессором. Если на живую дорожку навалить эффектов, голоса начнут драться за пространство в миксе. Такой приём, кстати, сэкономил команде часов восемь работы на этапе сведения.
Юридические нюансы
Нельзя не упомянуть и подводные камни правовой стороны. Генеративная музыка — территория, где законодательство пока догоняет практику. Команда Таллис прописала в договоре с Suno отдельный пункт о коммерческом использовании выходного материала, получила лицензию на релиз и зарегистрировала трек как совместное произведение.
Интересный момент: в метаданных релиза «Suno» указан как фичеринг-артист, а в авторах значатся живые люди — автор текста, композитор и саунд-продюсер. Сама модель прав на композицию не имеет.
Довольно тонкий баланс, но именно он позволил трек выложить на всех площадках без единой претензии.
Свели ли всё с первого раза?
Конечно, нет. Первая версия микса звучала так, будто два человека поют в разных комнатах через закрытую дверь. Проблема вылезла на этапе эквализации — частоты живого и синтезированного голосов конфликтовали в диапазоне двух-трёх килогерц. Свёл всё воедино приглашённый инженер, который вручную «подрезал» по паре децибел в нужных местах и добавил лёгкий сайд-чейн. После четвёртой итерации голоса наконец-то начали звучать как дуэт, а не как коллаж. Ложка дёгтя — финальный мастеринг пришлось делать дважды, потому что стриминги по-разному нормализуют громкость, и первая версия теряла плотность на Apple Music.
А как реагирует публика?
По-разному, и это честно. Часть слушателей восприняла трек с восторгом — мол, свежо, смело, наконец-то кто-то не боится экспериментировать. Другая часть возмутилась: дескать, живой артист «продался алгоритму», а настоящая музыка так не делается. Интересно, что критики, послушавшие композицию вслепую, чаще всего не угадывали, где поёт человек, а где машина. Это же говорит о многом. Ведь именно слепой тест — самый честный арбитр в подобных спорах. А статистика стриминга показала, что досматриваемость клипа держится выше средней по жанру на тринадцать процентов. Для дебютного эксперимента результат внушительный.
Плюсы и минусы формата
Хотя и выглядит вся затея футуристично, но обе стороны медали видны невооружённым глазом. С одной стороны — скорость, доступность, возможность сделать дуэт без логистических махинаций и согласований с графиком второго артиста. Бюджет тоже ощутимо легче: гонорар живому фичу мог бы съесть половину сметы проекта. С другой — отсутствие живого химического взаимодействия между артистами, риск того, что через полгода звучание модели устареет, плюс постоянные вопросы от журналистов о «душе» в музыке. Многие считают, что ИИ-вокал лишён эмоций, но на самом деле эмоция считывается с текста, аранжировки и подачи — а это всё делают живые люди.
Стоит ли повторять такой опыт другим артистам?
Короткий ответ — да, если подходить с головой. Не стоит бросаться в нейросетевые коллаборации только ради хайпа, иначе трек превратится в техно-демонстрацию, а не в песню. Нужно чётко понимать, зачем в композиции второй голос, какую драматургию он вытягивает, какую задачу решает. Тем более, что сам инструмент развивается стремительно — то, что сегодня требует сорока попыток, через год будет получаться с третьей. К слову, Таллис уже анонсировала второй совместный проект, но теперь с другой моделью и в совершенно ином жанре. Говорят, будет что-то на стыке фолка и электроники.
Технические мелочи, о которых забывают
Есть несколько бытовых моментов, о которых новички в таких проектах узнают уже по ходу пьесы. Во-первых, генеративные треки нужно сохранять в максимально возможном качестве сразу — пересгенерировать идентичный результат потом невозможно, даже с тем же промтом. Во-вторых, темп живой записи стоит подгонять под сетку ИИ, а не наоборот, потому что модель не умеет «свинговать» так же гибко, как человек. Ну и, наконец, всегда держите под рукой запасной вариант живого вокалиста — вдруг площадка внезапно изменит правила и снимет трек с ротации. Такие случаи уже всплывали у коллег по цеху.
Что дальше?
Индустрия меняется на глазах. Буквально три года назад подобный релиз вызвал бы скандал и разбирательства в профильных пабликах, а сейчас — живое обсуждение и приглашения на подкасты.
Виртуальные коллаборации перестают быть экзотикой и встраиваются в обычный продюсерский арсенал наравне с автотюном, вокодером и сэмплером.
Кто-то ворчит, кто-то восторгается, но процесс уже не остановить. История Таллис и Suno — лишь первая ласточка, а значит, впереди ещё десятки таких экспериментов, и далеко не все они будут удачными. Тем интереснее наблюдать. Удачи всем, кто решится повторить этот путь, — пусть ваш первый виртуальный дуэт запомнится надолго и откроет дорогу новым звуковым находкам.

