Есть вопросы по курсу?

напишите нам в Telegram, ответим на все вопросы

LLM Pro

Cтарт — 22 мая
Онлайн-курс
Соберёте полноценные LLM-системы с учётом требований к качеству и нагрузке, разберёте сложные кейсы и дизайны NLP-решений

Этот курс для вас, если вы:

NLP-инженер, дата-сайентист или разработчик, решающий практические задачи с текстами
Уже умеете обучать модели, но хотите научиться собирать из них полноценные системы
Работаете в продуктовой команде или стартапе и хотите запустить надёжное NLP-решение в сжатые сроки
Хотите профессионально вырасти: увереннее проходить интервью и решать более сложные задачи
Чувствуете, что одной prompt-инженерии и API уже не хватает — и надо строить собственные решения

Что вы получите от курса:

Научитесь проектировать и запускать NLP-системы под реальные продуктовые задачи
Освоите адаптацию LLM и эмбеддингов под специфичный домен и «живые» данные
Построите AI-агентов с нуля — на основе сценариев, функций и взаимодействия с внешней средой
Поймёте, как собирать и размечать датасеты — даже если данных изначально почти нет
Сможете собрать свою RAG-систему: от ретривера и реранкера до генератора и оценки качества
Разберёте реальные кейсы и научитесь применять похожие подходы в своих проектах
Получите фундамент для уверенного прохождения NLP system design интервью и перехода на следующий грейд
Разберётесь, как решать задачи классификации, поиска, кластеризации и NER — с ограничениями продакшн-среды

Программа

Лекция каждую неделю. После каждой темы — домашнее задание с фидбеком от лектора. Раз в 4−5 недель — Q&A-сессия для разбора вопросов. В середине курса есть перерыв на каникулы.
3 месяца
9 лекций
9 заданий с фидбеком от преподавателей

01. Архитектура систем текстовой классификации

Разберём ключевые архитектурные паттерны современных систем текстовой классификации. Вспомним, как использовать BERT и его альтернативы, обсудим подходы с дообучаемыми головами и дистилляцией больших моделей. Поговорим о способах работы с меняющимся распределением данных и техниках, которые помогают строить более устойчивые модели
  • Эвристики и итеративное улучшение
  • Работа с данными при их дефиците
  • Генеративный классификатор с reasoning
  • Дистилляция LLM в компактную модель
  • Дообучаемые головы
  • BERT и альтернативы
Основные темы:

02. Построение доменных текстовых эмбеддингов

Углубимся в работу с эмбеддингами: от дообучения собственного BERT под специфичный домен до использования triplet loss и contrastive learning. Рассмотрим практики, как строить эмбеддинги для сложных структур. Обсудим, когда и как адаптировать эмбеддеры к новым распределениям данных
  • Существующие открытые эмбеддеры
  • Доменная адаптация эмбеддеров
  • Matching задач через эмбеддинги
  • Профили и последовательности
  • Triplet loss, contrastive learning
  • BERT и альтернативы
Основные темы:

03. Кластеризация текстов: в оффлайне и в реальном времени

Изучим, как кластеризовать тексты в офлайне и в потоке. Обсудим популярные методы визуализации и алгоритмы кластеризации, включая нейросетевые. Разберём решения на примере кейсов
  • Архитектура и инфраструктура онлайн-кластеризации
  • Бинарные автоэнкодеры
  • Онлайн кластеризация
  • UMAP, T-SNE, LSH
Основные темы:

04. Сбор данных и разметка: от формулировки задачи до крауда

Разберёмся, как правильно ставить задачи и собирать датасеты под реальные задачи. Поговорим про активное обучение, разметку через кластеризацию и LLM, а также про лучшие практики работы с краудплатформами
  • Крауд: Toloka, MTurk
  • Инструкции, ханипоты, проверка качества
  • Selfinstruct, LIMA
  • Active learning
  • Разметка через LLM и кластеризацию
  • Критичность и массовость ошибок
  • Постановка задач и требования к данным
Основные темы:

05. Named Entity Recognition: от BERT до генеративных моделей

Рассмотрим подходы к извлечению сущностей из текста: от эвристик до BERT и генеративных моделей. Научимся мерить качество, решать проблемы со смещением данных и использовать LLM как инструмент для разметки и обучения
  • Разбор кейсов
  • Метрики качества
  • LLM в разметке и дообучении
  • Дообучение и адаптация под домен
  • BERT vs генеративные подходы
  • Постановка задачи и проблемы NER
Основные темы:

06. Адаптация LLM под домен

Углубимся в методы адаптации LLM под специфические задачи и домены. Обсудим посттрейнинг, SFT, настройку токенизатора, а также принципы alignment’а. На реальных кейсах разберём, как подходить к адаптации системно.
  • Работа с галлюцинациями
  • Разбор кейсов
  • Чистка и генерация датасетов
  • Alignment через данные
  • Supervised Fine-tuning (SFT)
  • Токенизаторы и continious pretrain
  • Посттрейнинг на домен
Основные темы:

07. Проектирование систем текстового поиска

Научимся проектировать поисковые системы от базовых принципов до продвинутых техник. Обсудим dense retrieval, hybrid search, построение индексов, персонализацию и мультимодальный поиск
  • Мультимодальный поиск
  • Факт-чекинг
  • Персонализация, расширение запросов
  • Elasticsearch, FAISS
  • Sentence-BERT, DPR
  • TF-IDF, BM25
Основные темы:

08. Advanced RAG: создание и тюнинг продакшн-систем

Разберём продвинутые подходы к созданию и улучшению RAG-систем. От ретривера и реранкера до генератора и архитектуры всего пайплайна. Покажем, как бороться с галлюцинациями, ускорять работу и планировать нагрузку
  • Предсказание качества до генерации
  • Оптимизация под железо
  • Достоверность, краткость, ссылки
  • Кеш, дистилляция, стриминг
  • Память и сложные базы знаний
  • Генерация ответов, SFT, posttraining
  • Подстройка эмбеддера и реранкера
  • RAG: структура и этапы
Основные темы:

09. AI-агенты: как построить рабочего ассистента с нуля

Разберёмся, как построить AI-агента, даже если вначале нет ничего. Поговорим про сбор данных, дообучение моделей под function calls, использование text2sql, а также alignment и обучение через среду с критериями успеха
  • Alignment для агентов
  • Кейсы и подходы к обучению
  • Критерии успешности
  • Генерация траекторий через среду
  • Сценарии взаимодействия
  • Text2SQL
  • Function calls
Основные темы:

Как именно вы освоите каждый навык

Онлайн-лекции, где можно задавать вопросы, обсуждать сложные кейсы и дискутировать. В конце — анонимный тест для закрепления материала

Изучите теорию на zoom-лекции

1.

1/5
2/5
После каждой лекции — домашнее задание для закрепления материала

Сделаете практическое задание

2.

3/5
Каждое домашнее задание проверит лектор и даст исчерпывающий фидбэк

Получите разбор домашнего задания

3.

4/5
Обсуждайте домашние задания, рабочие задачи или просто общайтесь. Кураторы курса всегда помогут решить проблемы и поделятся советом

Если возникнут трудности, мы оперативно поможем в чате

4.

5/5
Раз в 4−5 недель спикеры и кураторы собираются в zoom, чтобы ответить на ваши вопросы, помочь с практикой, обсудить задачи

Или приходите на онлайн-встречи с кураторами, чтобы обсудить вопрос голосом

5.

Кто будет преподавать

Опытные инженеры будут вести Zoom-лекции и семинары, отвечать на ваши вопросы и ревьюить код
Yandex /
Занимается обучением Multimodal Large Language Models. Работал в команде претрейна в Яндекс, до этого в Abby и Сбер
Илья Димов
Yandex, ex. VK /
Улучшает качество быстрых генеративных ответов в Нейро-Поиске
Дмитрий Калашников
Масштабирует обучение LLM. Ускоряет эксперименеты и улучшает инфрастуктуру в задчах NLP
Сергей Воробьёв
ecom.tech /
DS в поиске Самоката и Мегамаркета, занимается задачами построения текстовых векторных моделей ранжирования и отбора кандидатов
Василий Висков
AliExpress Russia
Разрабатывает и внедряет модели в ML команде Поиска AliExpress
Егор Смирнов
Yandex, ex. VK /
Работает над генеративными моделями и RAG — отвечает за систему, когда и какие модели должны отвечать на запросы пользователей
Алексей Яндутов

После обучения

Чат выпускников

Сертификат о прохождении обучения

Вы попадаете в чат выпускников — чат с опытными инженерами, где мы проводим литклубы, random coffee и обсуждаем вопросы с работы

Доступ к материалам курса на один год

Стоимость курса

137 000 ₽
9 лекций и практических заданий
Проверка заданий от опытных инженеров
Поддержка в чате и на семинарах

Полная оплата

от 25 585 ₽ / мес
При рассрочке на 6 месяцев

Рассрочка

9 300 ₽ / мес

старт 22 мая

Скидки только для физ. лиц
До 21 мая
* Скидки действуют только для физ. лиц
145 000 ₽
от 27 080 ₽

Что говорят наши выпускники

Истории глазами тех, кто успешно прошел обучение
«Мои ожидания оправдались на 120% и я смог закрепить уже имевшиеся знания и пополнить новыми!
Михаил Пузицкий
(LLM)
«Прекрасно подобранные темы, прекрасно выстроена дорожка обучения, начиная с собери сам до использования инструментов»
Александр Петров
(LLM)
(LLM)
«Хороший курс! Рассказываются крутые и не супер-очевидные вещи, на паре технических собесов (формат «ML и LLM…)»
Александр Логинов
Виталий Проценко
«Получил огромный пласт знаний и практический опыт, который уже применяю на работе»
(LLM)
«Все мои вопросы подробно разобрали. Самым интересным был RAG, потому что применил в работе»
Роман Рютин
«Крутой курс! Многое узнал и прокачал навыки. Постоянное общение с авторами курса мотивировало в учебе»
(LLM)
Евгений Макаров
(LLM)
(LLM)
LinkedIn
Максим Гольцов
«Курс позволил получить теоретические и практические навыки работы с LLM. Благодаря ему получил первый оффер)»
«Узнал много нового в тех областях LLM, где не хватало опыта. Сразу придумал, как использовать агенты в рабочих проектах»
Петр Матюков
LinkedIn
(LLM)
(LLM)
Елизавета Носова
«Курс полезный, помог наверстать упущенное в понимании современных llm»
«Ожидания оправдались более чем! Готовность отвечать практически в любое время и настолько развернуто»
Никита Довидченко
LinkedIn
(LLM)
(LLM)
(LLM)
LinkedIn
Дмитрий Махортов
«Осознание как работает function caling под капотом это было настоящим открытием»
Павел Думин
«Отличный курс, было интересно и полезно. Но некоторые темы требуют чуть большего времени»
«Хороший обзор по теме LLM с практикой, после которого можно дальше погружаться вглубь»
Алексей Глотов
(LLM)

FAQs

Когда проходят лекции и Q&A-сессии?

Лекции проходят по будням в 19:00 по московскому времени и длятся 1,5−2 часа. Q&A-сессии проходят после каждой 5-й лекции, время определяется индивидуально для каждого потока.

Смогу ли я оформить налоговый вычет?

Да, вы сможете оформить налоговый вычет за обучение, если вы являетесь налоговым резидентом России и оплачиваете подоходный налог. Подать документы на вычет можно в году, следующем за годом оплаты обучения. Подробнее о налоговом вычете за обучение можно прочитать на сайте ФНС

Может ли моя компания оплатить курс?

Моя компания может оплатить курс?
Да, мы подготовим счёт на полную или частичную оплату для юридического лица. Напишите на hello@deepschool.ru
Скидки не распространяются на оплату курса юр. лицами, поэтому при заполнении заявки указывайте полную стоимость.

Если у вас остались вопросы по курсу, напишите нам в Telegram

Наши программы

Поможем освоить востребованные на рынке знания, передав секреты и опыт практикующих инженеров и исследователей
Наведите порядок в репозиториях, научитесь создавать и деплоить DL-сервисы

Деплой DL-сервисов

Март 2025 • 4 месяца
Научитесь ускорять модели и адаптировать инференс под CPU, GPU и NPU

Ускорение нейросетей

Июнь 2025 • 3 месяца
Узнайте, как решают задачи в VR/AR, беспилотниках и цифровых двойниках

3D Computer Vision

Июль 2025 • 3 месяца
Подробнее
Подробнее
Подробнее
/
Погрузитесь в продвинутый Computer Vision
Освойте теорию генеративных моделей и их обучение на практике

Generative Computer Vision

Лист ожидания • 3 месяца
Теория, инференс, ускорение и актуальные подходы в LLM

LLM

Подробнее
/
Подробнее
Июнь 2025 • 4 месяца

CV Rocket 2.0

Подробнее
13 мая 2025

Телеграм-канал
DeepSchool

Короткие посты по теории ML/DL, полезные библиотеки и фреймворки, вопросы с собеседований и советы, которые помогут в работе