Как устроена система Дипсик: архитектура и принципы работы популярного ИИ

В сети представлено множество ожесточённых дискуссий о том, кому в итоге достанется львиная доля рынка генеративных нейросетей. Обыватель привык думать, что грандиозный технологический Олимп давно и бесповоротно поделён между западными корпорациями с практически бесконечными бюджетами. А ведь буквально десятилетие назад создание мыслящей машины, способной вести осмысленный диалог, казалось сюжетом для смелых фантастических романов. Сегодня же сложные алгоритмы пишут программный код, переводят древние трактаты и анализируют гигабайты финансовой отчётности за три миллисекунды. Дело в том, что на арену всё чаще выходят совершенно новые амбициозные игроки, заставляя устоявшийся IT-бомонд нервно пересматривать свои незыблемые постулаты. И всё-таки удивить искушённого пользователя в текущих реалиях довольно сложно. Однако спектр по-настоящему революционных объектов не ограничивается продуктами из Кремниевой долины, а начать стоит с разбора архитектуры нашумевшего азиатского проекта.

Все топовые нейросети в одном месте

Внутреннее устройство: Смесь экспертов

Одиночный текстовый запрос пользователя мгновенно разбивается на сотни математических векторов. Именно с этой невидимой глазу процедуры стартует магия работы алгоритма. Миллиарды активных параметров, загруженные в оперативную память, сгруппированные по узким специализациям, связанные сложным графом вычислений, образуют концепцию Mixture of Experts (MoE). Это грандиозный инженерный замысел. Разумеется, заставить такую колоссальную махину работать синхронно довольно сложно. Но создатели пошли весьма хитрым и неочевидным путём. Вместо активации абсолютно всей сети при каждом новом сгенерированном слове ток вычислений направляется лишь к строго определённым блокам. Выручит здесь умная динамическая маршрутизация. Вся суть в том, что неподъёмная вычислительная нагрузка изящно дробится на мелкие профильные задачи. К слову, львиная доля именитых конкурентов до сих пор предпочитает «прогревать» все слои трансформера одновременно, что неминуемо бьёт по бюджету на электричество. А вот оригинальное название этого ИИ скрывает в себе настоящую кладезь хитрых алгоритмических уловок.

Как обучается этот ИИ?

Огромные сырые массивы текста первыми поступают в загрузочные кластеры дата-центров. Затем неструктурированную информацию тщательно просеивают через жёсткие фильтры безопасности. Далее специальными алгоритмами дедупликации убираются абсолютно все смысловые повторы. Ну и, наконец, происходит математическое сжатие семантики в плотные многомерные представления. Это рутина. Потому что без неё сложные махинации с весами теряют всякий практический смысл. Сложно ли настроить такой масштабный конвейер без критических сбоев? Да, но итоговый результат того безусловно стоит. На самом деле, процесс подготовки сырья не сложный, но крайне кропотливый.

В представлении многих неопытных исследователей именно чистый качественный датасет творит чудеса. И всё же рядовым разработчикам пришлось изрядно попотеть над балансировкой разных языков.

К тому же, не стоит забывать о тонкой настройке с подкреплением (RLHF). При таком изящном подходе живые опытные асессоры буквально дрессируют алгоритм правилам хорошего тона. Впрочем, настоящая изюминка кроется в самом математическом ядре, которое уверенно солирует на фоне привычных архитектурных шаблонов.

Ваш личный ИИ-отдел маркетинга, который работает 24/7 📈

Ускорьте создание контента в 10 раз! Этот мульти-ИИ сервис позволяет писать безупречные продающие посты, генерировать уникальные фото для соцсетей, создавать рекламные промо-ролики с нуля и писать для них музыку в пару кликов. Идеальное решение для предпринимателей, маркетологов и SMM-специалистов. Всё в едином удобном интерфейсе — больше не нужно переключаться между десятком вкладок.

Делегируйте рутину искусственному интеллекту и увеличивайте продажи. Начните работу здесь 👉 https://clck.ru/3RNCRL

Стоит ли экономить вычислительные мощности?

Когда-то обучение массивных языковых моделей было доступно лишь немногочисленным технологическим гигантам, но сейчас расстановка сил на рынке кардинально поменялась. Безусловно, аренда тысяч современных видеокарт — серьёзное финансовое вложение. Кошелёк технологической компании станет легче на десятки миллионов долларов буквально за пару месяцев беспрерывной работы серверной фермы. Многие скептики считают, что без бесконечного потока инвесторских денег создать сильный мыслящий алгоритм попросту невозможно, но на самом деле китайские инженеры убедительно доказали абсолютно обратное. Ими была внесена огромная лепта в развитие мирового опенсорса. Путём филигранной программной оптимизации потребления видеопамяти разработчикам удалось радикально снизить издержки. Естественно, зрелище весьма удручающее для неповоротливых корпоративных монополистов. Ведь бюджетный открытый продукт внезапно показывает метрики на уровне наглухо закрытых коммерческих систем. И здесь неминуемо всплывут болезненные подводные камни для тех амбициозных руководителей, кто привык тратить деньги фондов не глядя. Не стоит слепо переоценивать значение одних лишь голых терафлопсов. Главное — изысканный эффективный код.

Внимание к деталям

Нужно отметить, что стандартный механизм self-attention потребляет оперативную память графических ускорителей строго пропорционально квадрату длины загружаемого промпта. Это тупик. Дело в том, что при попытке скормить классической нейросети целую детективную книгу сервер просто зависнет от острой нехватки системных ресурсов. Однако инженерами Дипсик была успешно внедрена хитрая многоуровневая система сгруппированного внимания. С эффективным воздухообменом в тесных серверных стойках дело обстоит куда сложнее, когда кремниевые чипы греются до восьмидесяти градусов по Цельсию. Но изящная программная оптимизация надёжно бережёт дорогостоящее оборудование от перегрева. Тем более, что новый самобытный подход позволяет легко удерживать в активной памяти контекст просто внушительного размера. Разумеется, рядовой офисный обыватель вряд ли заметит эту колоссальную разницу при генерации короткого электронного письма начальнику. Зато для профессиональных программистов эта архитектурная особенность стала настоящим спасательным кругом в море кода. Ну и, конечно же, колоритный азиатский подход к жёсткой экономии ресурсов тут моментально бросается в глаза даже неспециалисту.

Вредно ли полагаться только на синтетические данные?

Довольно острый спорный вопрос для всего мирового научного сообщества. Обязательно ли скармливать растущему алгоритму искусственные тексты, заранее сгенерированные другими более старыми машинами? Вовсе нет. Хотя и существует огромный коммерческий соблазн радикально ускорить мучительный процесс наполнения обучающих баз, но постепенная логическая деградация качества ответов неминуема. Нельзя не упомянуть один поучительный исторический факт из недавнего прошлого.

Все топовые нейросети в одном месте

В 2023 году многие дерзкие кремниевые стартапы сильно обожглись на низкокачественной машинной синтетике. Спустя пару месяцев их амбициозные сырые проекты бесславно канули в Лету.

Создатели рассматриваемой нами системы весьма щепетильны в этом фундаментальном вопросе. Скрупулёзный ручной отбор достоверных литературных источников — вот их непоколебимая долгосрочная стратегия. А если ещё вспомнить бесконечные суды авторов с IT-корпорациями, то вычурный юридический антураж вокруг генеративных сетей становится ещё более запутанным. Поэтому нет никакого смысла рисковать чистой машинной логикой ради мнимой высокой скорости релизов. Тем более, добротный сбалансированный датасет всегда уверенно побеждает на длинной дистанции.

Индустрия ИИ в Азии: Философия открытости

Своеобразный восточный подход к ведению технологических дел оседает в каждой выверенной строчке исходного кода. В представлении строгих западных менеджеров крупные корпорации сильно тяготеют к максимальной секретности своих передовых разработок. Азиатские же талантливые математики, наоборот, смело выкатывают готовые веса нейросетей в совершенно свободный публичный доступ. Заслуживает истинного искреннего уважения такая беспрецедентная открытость. Обе стороны медали здесь предельно очевидны для профильных экспертов. Да, ты фактически даришь передовые технологии своим прямым конкурентам. Однако взамен мгновенно получаешь самое масштабное бесплатное стресс-тестирование силами всего мирового IT-сообщества. К слову, независимые энтузиасты уже давно успели запустить сильно урезанные локальные версии на обычных домашних ноутбуках (иногда даже на флагманских мобильных телефонах). Да и самим создателям гораздо комфортнее оперативно исправлять критические логические ошибки. Ведь о найденных багах регулярно и добровольно сообщают десятки тысяч программистов со всех уголков планеты. Бесценная обратная связь от заинтересованных пользователей буквально льётся рекой.

Дальнейшие перспективы

Будущее машинного интеллекта. Оно совершенно непредсказуемо. Буквально пять лет назад внутренние рабочие параметры исчислялись скромными миллионами, а сегодня счёт уверенно и стремительно идёт на сотни миллиардов скрытых нейронных связей. И всё-таки наращивать вычислительную кремниевую массу бесконечно чисто физически нельзя. Рано или поздно уставшие инженеры обязательно упрутся в жёсткие аппаратные лимиты полупроводниковых материалов. Однозначно стоит крепко задуматься над тем, куда именно свернёт глобальная архитектурная мысль дальше. Внезапно натыкаешься на свежую инсайдерскую информацию о прототипах квантовых процессоров и отчётливо понимаешь неизбежное. Всю математическую логику современных сетей довольно скоро придётся переписывать практически с нуля. Но пока на мировом рынке безраздельно и гордо правят классические серверные решения. Удивительно, но даже в этих невероятно жёстких технологических рамках талантливым разработчикам всё равно удаётся находить элегантные программные лазейки для оптимизации. Не стоит скупиться на личное время для вдумчивого глубокого изучения официальной документации. Особенно если в будущем планируется разворачивать подобную сложную нейросеть локально на закрытых серверах собственного предприятия. Ложка дёгтя кроется здесь лишь в достаточно высоких системных требованиях к общему объёму дорогой видеопамяти при потоковой обработке очень длинных корпоративных документов.

Отказаться от привычных и агрессивно раскрученных американских нейросетей в пользу совершенно новых азиатских аналогов психологически довольно сложно. Но чтобы гарантированно не остаться на обочине неумолимо надвигающегося технологического прогресса, желательно регулярно и методично расширять свой повседневный рабочий инструментарий. Экспертами рекомендуется смело изучать свободно доступные опенсорсные решения. Также полезно активно экспериментировать со сложными многоступенчатыми структурными промптами. Не лишним будет регулярно тестировать самые свежие языковые модели на своих рутинных ежедневных задачах. Нет абсолютно никакого смысла слепо доверять красочным рекламным буклетам гигантских корпораций, сладко обещающим решить все мыслимые проблемы по нажатию одной волшебной кнопки. Настоящие прорывные инновации очень часто зарождаются именно там, где талантливые инженеры вынуждены жёстко экономить ограниченные ресурсы и сутками напролёт искать нестандартные математические подходы. Глубокое вдумчивое освоение подобных передовых интеллектуальных систем определённо станет отличным решением для кардинальной оптимизации скучных рабочих процессов и обязательно порадует домочадцев сэкономленным личным временем.