Есть вопросы по курсу?

напишите нам в Telegram, ответим на все вопросы

Курс LLM Pro

Cтарт — {{start_date}}
Продолжительность — 3 месяца
Скидка 15% на открытой лекции
Соберёте полноценные LLM-системы с учётом требований к качеству и нагрузке, разберёте сложные кейсы и дизайны NLP-решений
вы NLP-инженер, дата-сайентист или разработчик
Работает с текстами

Этот курс для тех, кто:

Хочет расти
решать более сложные задачи, уверенно проходить интервью
но не собирал из них полноценные системы
Умеет обучать модели
и хочет быстро запустить надёжное NLP-решение
Делает продукт или стартап
Понимает: prompt-инженерии и API уже недостаточно
пора строить своё
Важны базовые знания по NLP и опыт работы с LLM
1. Математика для ML и понимание устройства DL
Необходимо знать, что такое производная, матричное умножение, скалярное произведение, градиентный спуск, дифференцируемость, как работают оптимизаторы SGD/Adam, что такое кроссэнтропийная функция потерь, как работает backpropagation
Будем писать функции и классы на Python. Нужно уметь использовать базовые pytorch-классы, такие как nn.Linear, nn.Dropout, torch.softmax, оптимизаторы из torch.optim, уметь написать training loop
2. Базовое знание Python и PyTorch
5. Понимание базовых NLP-задач
Токенизация, классификация, генерация текста, оценка близости текстов через вектора
Self-attention, positional encoding, механизмы кодирования/декодирования, на какие задачи учится BERT и GPT
6. Знание архитектуры трансформеров
7. Базовое знание того, как обучаются LLM
8. Базовое представление об устройстве AI-агентов
Предобучение, supervised fine-tuning, алайнмент (включая метод DPO)
3. Знание основ NLP
4. Знание архитектуры LLM

Что вы получите от курса:

Научитесь проектировать и запускать NLP-системы под реальные продуктовые задачи
Освоите адаптацию LLM и эмбеддингов под специфичный домен и «живые» данные
Построите AI-агентов с нуля — на основе сценариев, функций и взаимодействия с внешней средой
Поймёте, как собирать и размечать датасеты, даже если данных почти нет
Сможете собрать свою RAG-систему: от ретривера и реранкера до генератора и оценки качества
Разберёте реальные кейсы и научитесь применять похожие подходы в своих проектах
Получите фундамент для уверенного прохождения NLP system design интервью и перехода на следующий грейд
Разберётесь, как решать задачи классификации, поиска, кластеризации и NER — с ограничениями продакшн-среды

Программа

Лекция каждую неделю. После каждой темы — домашнее задание с фидбеком от лектора. Раз в 4−5 недель — Q&A-сессия для разбора вопросов. В середине курса есть перерыв на каникулы.
3 месяца
9 лекций
9 заданий с фидбеком от преподавателей

01. Архитектура систем текстовой классификации

Разберём ключевые архитектурные паттерны современных систем текстовой классификации. Вспомним, как использовать BERT и его альтернативы, обсудим подходы с дообучаемыми головами и дистилляцией больших моделей. Поговорим о способах работы с меняющимся распределением данных и техниках, которые помогают строить более устойчивые модели
  • Эвристики и итеративное улучшение
  • Работа с данными при их дефиците
  • Генеративный классификатор с reasoning
  • Дистилляция LLM в компактную модель
  • Дообучаемые головы
  • BERT и альтернативы
Основные темы:

02. Построение доменных текстовых эмбеддингов

Углубимся в работу с эмбеддингами: от дообучения собственного BERT под специфичный домен до использования triplet loss и contrastive learning. Рассмотрим практики, как строить эмбеддинги для сложных структур. Обсудим, когда и как адаптировать эмбеддеры к новым распределениям данных
  • Существующие открытые эмбеддеры
  • Доменная адаптация эмбеддеров
  • Matching задач через эмбеддинги
  • Профили и последовательности
  • Triplet loss, contrastive learning
  • BERT и альтернативы
Основные темы:

03. Кластеризация текстов: в офлайне и в реальном времени

Изучим, как кластеризовать тексты в офлайне и в потоке. Обсудим популярные методы визуализации и алгоритмы кластеризации, включая нейросетевые. Разберём решения на примере кейсов
  • Архитектура и инфраструктура онлайн-кластеризации
  • Бинарные автоэнкодеры
  • Онлайн кластеризация
  • UMAP, T-SNE, LSH
Основные темы:

04. Сбор данных и разметка: от формулировки задачи до крауда

Разберёмся, как правильно ставить задачи и собирать датасеты под реальные задачи. Поговорим про активное обучение, разметку через кластеризацию и LLM, а также про лучшие практики работы с краудплатформами
  • Крауд: Toloka, MTurk
  • Инструкции, ханипоты, проверка качества
  • Selfinstruct, LIMA
  • Active learning
  • Разметка через LLM и кластеризацию
  • Критичность и массовость ошибок
  • Постановка задач и требования к данным
Основные темы:

05. Named Entity Recognition: от BERT до генеративных моделей

Рассмотрим подходы к извлечению сущностей из текста: от эвристик до BERT и генеративных моделей. Научимся мерить качество, решать проблемы со смещением данных и использовать LLM как инструмент для разметки и обучения
  • Разбор кейсов
  • Метрики качества
  • LLM в разметке и дообучении
  • Дообучение и адаптация под домен
  • BERT vs генеративные подходы
  • Постановка задачи и проблемы NER
Основные темы:

06. Адаптация LLM под домен

Углубимся в методы адаптации LLM под специфические задачи и домены. Обсудим посттрейнинг, SFT, настройку токенизатора, а также принципы alignment’а. На реальных кейсах разберём, как подходить к адаптации системно
  • Работа с галлюцинациями
  • Разбор кейсов
  • Чистка и генерация датасетов
  • Alignment через данные
  • Supervised Fine-tuning (SFT)
  • Токенизаторы и continious pretrain
  • Посттрейнинг на домен
Основные темы:

07. Проектирование систем текстового поиска

Научимся проектировать поисковые системы от базовых принципов до продвинутых техник. Обсудим dense retrieval, hybrid search, построение индексов, персонализацию и мультимодальный поиск
  • Мультимодальный поиск
  • Фактчекинг
  • Персонализация, расширение запросов
  • Elasticsearch, FAISS
  • Sentence-BERT, DPR
  • TF-IDF, BM25
Основные темы:

08. Advanced RAG: создание и тюнинг продакшн-систем

Разберём продвинутые подходы к созданию и улучшению RAG-систем. От ретривера и реранкера до генератора и архитектуры всего пайплайна. Покажем, как бороться с галлюцинациями, ускорять работу и планировать нагрузку
  • Предсказание качества до генерации
  • Оптимизация под железо
  • Достоверность, краткость, ссылки
  • Кэш, дистилляция, стриминг
  • Память и сложные базы знаний
  • Генерация ответов, SFT, posttraining
  • Подстройка эмбеддера и реранкера
  • RAG: структура и этапы
Основные темы:

09. AI-агенты: как построить рабочего ассистента с нуля

Разберёмся, как построить AI-агента, даже если вначале нет ничего. Поговорим про сбор данных, дообучение моделей под function calls, использование text2sql, а также alignment и обучение через среду с критериями успеха
  • Alignment для агентов
  • Кейсы и подходы к обучению
  • Критерии успешности
  • Генерация траекторий через среду
  • Сценарии взаимодействия
  • Text2SQL
  • Function calls
Основные темы:

Как именно вы освоите каждый навык

Онлайн-лекции, где можно задавать вопросы, обсуждать сложные кейсы и дискутировать. В конце — анонимный тест для закрепления материала

Изучите теорию на zoom-лекции

1.

1/5
2/5
После каждой лекции — домашнее задание для закрепления материала

Сделаете практическое задание

2.

3/5
Каждое домашнее задание проверит лектор и даст исчерпывающий фидбэк

Получите разбор домашнего задания

3.

4/5
Обсуждайте домашние задания, рабочие задачи или просто общайтесь. Кураторы курса всегда помогут решить проблемы и поделятся советом

Если возникнут трудности, мы оперативно поможем в чате

4.

5/5
Раз в 4−5 недель спикеры и кураторы собираются в zoom, чтобы ответить на ваши вопросы, помочь с практикой, обсудить задачи

Или приходите на онлайн-встречи со спикерами, чтобы обсудить вопрос голосом

5.

Кто будет преподавать

Опытные инженеры будут вести Zoom-лекции и семинары, отвечать на ваши вопросы и ревьюить код
Ensec
Адаптирует мультимодальные LLM под задачи пользователей. Разрабатывает платформу на базе RAG и LLM-агентов

Сергей Трубецкой
Yandex, ex. VK /
Улучшает качество быстрых генеративных ответов в Нейро-Поиске
Дмитрий Калашников
Егор Смирнов
Разрабатывает и внедряет модели в ML команде Поиска AliExpress
AliExpress Russia
Yandex /
Старший разработчик в команде распознавания текста VLM
Василий Висков
Yandex, ex. VK /
Работает над генеративными моделями и RAG — отвечает за систему, когда и какие модели должны отвечать на запросы пользователей
Алексей Яндутов
Сергей Воробьёв
Масштабирует обучение LLM. Ускоряет эксперименты и улучшает инфраструктуру в задачах NLP
Сергей Воробьёв
Масштабирует обучение LLM. Ускоряет эксперименты и улучшает инфраструктуру в задачах NLP
Ensec
Сергей Трубецкой
Адаптирует мультимодальные LLM под задачи пользователей. Разрабатывает платформу на базе RAG и LLM-агентов
Yandex
Василий Висков
Старший разработчик в команде распознавания текста VLM
Yandex, ex. VK /
Дмитрий Калашников
Улучшает качество быстрых генеративных ответов в Нейро-Поиске
AliExpress Russia
Егор Смирнов
Разрабатывает и внедряет модели в ML команде Поиска AliExpress
Улучшает качество быстрых генеративных ответов в Нейро-Поиске
Алексей Яндутов
Yandex, ex. VK /

После обучения

Чат выпускников

Сертификат о прохождении обучения

Вы попадаете в чат выпускников — чат с опытными инженерами, где мы проводим литклубы, random coffee и обсуждаем вопросы с работы

Доступ к материалам курса на один год

Комфортные условия для вашей учёбы

Полный возврат стоимости в первые 14 дней,
если поймёте, что программа вам не подходит. Если примете решение позже, вернём деньги за вычетом уже пройденных занятий
Налоговый вычет
получите 13% от стоимости курса после обучения
Оплата из-за рубежа
картой иностранного банка или другими удобными способами
Может оплатить компания. мы принимаем оплату от юрлиц, если хотите, чтобы работодатель оплатил ваше обучение, пусть ваши представители напишут нам на b2b@deepschool.ru для оформления документов и оплаты
Мы обучаем по лицензии Л035-01199-54/00734237 ↗

Откроем продажи на лекции

Что делать, если ванильный RAG не работает

почему ванильная схема «ретривер + генератор» почти никогда не даёт нужного качества

с чего начинать улучшения: эмбеддер, поиск, реранкер, генератор, данные или что-то ещё

какие задачи приходится решать, чтобы RAG действительно работал

как из разрозненных компонент собрать надежный RAG-продукт

Регистрируйтесь и до встречи в эфире

презентация нового курса LLM Pro и скидки на обучение

6 ноября (четверг)
19:00 МСК

Что говорят наши выпускники

Истории глазами тех, кто успешно прошел обучение
Денис Успенский
«Курс произвёл очень хорошее впечатление. Ребята реальные эксперты-практики, которые делятся реальным прикладным опытом»
«Кейсы — это одна из главных ценностей llm pro, сильно выделяет от доступной в интернете информации или аналогов»
Максим Морозов
«Курс помог перейти с мидла на синьора и пройти собес.
Сложно сказать, что было полезнее всего. В каждой теме, что-то новое узнал»
LinkedIn
Егор Ведерников
LinkedIn
Михаил Тетерин
«Очень много полезного узнал про агентов и RAG. Активно использую полученные знания на работе Все было хорошо! Спасибо что вы есть!»
(LLM Pro)
(LLM Pro)
(LLM Pro)
(LLM Pro)
«Впечатление хорошее, много новых знаний. Курс оказался как раз тем, что я искал»
Валентин Пальшин
(LLM Pro)
Дмитрий Ярцев
«Захватывает множество тем помимо LLM. Очень понравилось, что в каждой лекции был отдельный раздел с бизнес-кейсами. Очень ценный и редкий материал»
(LLM Pro)
Мария Старцева
LinkedIn
«Общее впечатление о курсе и программе хорошее. Самым полезным были Best practices других специалистов. Спасибо!»
(LLM Pro)
«Восторг! Мне очень понравилось, и я получила много полезного!»
Гузель Фейзханова
(LLM Pro)
«Все понравилось. Главный плюс — максимальный фокус на практике, рассмотрение кейсов, структура ДЗ»
Сергей Пересыпкин
LinkedIn
(LLM Pro)
Игорь
«Хороший курс, плотная насыщенная программа с большим охватом направлений по LLM»
(LLM)
LinkedIn
Денис Успенский
«Курс произвёл очень хорошее впечатление. Ребята реальные эксперты-практики, которые делятся реальным прикладным опытом»
«Кейсы — это одна из главных ценностей llm pro, сильно выделяет от доступной в интернете информации или аналогов»
Максим Морозов
«Курс помог перейти с мидла на синьора и пройти собес. Сложно сказать, что было полезнее всего. В каждой теме, что-то новое узнал»
LinkedIn
Егор Ведерников
LinkedIn
Мария Старцева
LinkedIn
«Общее впечатление о курсе и программе хорошее. Самым полезным были Best practices других специалистов. Спасибо!»
(LLM Pro)
«Восторг! Мне очень понравилось, и я получила много полезного!»
Гузель Фейзханова
(LLM Pro)
«Хороший курс, плотная насыщенная программа с большим охватом направлений по LLM»
Сергей Пересыпкин
LinkedIn
(LLM Pro)
Михаил Тетерин
«Очень много полезного узнал про агентов и RAG. Активно использую полученные знания на работе Все было хорошо! Спасибо что вы есть!»
(LLM Pro)
(LLM Pro)
(LLM Pro)
(LLM Pro)
«Впечатление хорошее, много новых знаний. Курс оказался как раз тем, что я искал»
Валентин Пальшин
(LLM Pro)
Игорь
LinkedIn
«Хороший курс, плотная насыщенная программа с большим охватом направлений по LLM»
(LLM Pro)
Дмитрий Ярцев
«Захватывает множество тем помимо LLM. Очень понравилось, что в каждой лекции был отдельный раздел с бизнес-кейсами. Очень ценный и редкий материал»
(LLM Pro)

FAQs

Когда проходят лекции и Q&A-сессии?

Лекции проходят по будням в 19:00 по московскому времени и длятся 1,5−2 часа. Q&A-сессии проходят после каждой 5-й лекции, время определяется индивидуально для каждого потока.

Смогу ли я оформить налоговый вычет?

Да, вы сможете оформить налоговый вычет за обучение, если вы являетесь налоговым резидентом России и оплачиваете подоходный налог. Подать документы на вычет можно в году, следующем за годом оплаты обучения. Подробнее о налоговом вычете за обучение можно прочитать на сайте ФНС

Может ли моя компания оплатить курс?

Моя компания может оплатить курс?
Да, мы подготовим счёт на полную или частичную оплату для юридического лица. Напишите на hello@deepschool.ru
Скидки не распространяются на оплату курса юрлицами, поэтому при заполнении заявки указывайте полную стоимость.

Если у вас остались вопросы по курсу, напишите нам в Telegram

Наши программы

Поможем освоить востребованные на рынке знания, передав секреты и опыт практикующих инженеров и исследователей
Наведите порядок в репозиториях, научитесь создавать и деплоить DL-сервисы

Деплой DL-сервисов

{{start_date:deploy}} • 4 месяца
Научитесь ускорять модели и адаптировать инференс под CPU, GPU и NPU

Ускорение нейросетей

{{start_date:speedup}} • 3 месяца
Узнайте, как решают задачи в VR/AR, беспилотниках и цифровых двойниках

3D Computer Vision

{{start_date:3dcv}} • 3 месяца
Подробнее
Подробнее
Подробнее
/
Погрузитесь в продвинутый Computer Vision
Освойте теорию генеративных моделей и их обучение на практике

Generative Computer Vision

{{start_date:gencv}} • 3 месяца
Теория, инференс, ускорение и актуальные подходы в LLM

LLM

Подробнее
/
Подробнее
{{start_date:llm}} • 4 месяца

CV Rocket 2.0

Подробнее
{{start_date:cvrocket}}
Погрузитесь в продвинутый Computer Vision
Наведите порядок в репозиториях, научитесь создавать и деплоить DL-сервисы

Деплой DL-сервисов

{{start_date:deploy}} • 4 месяца
Научитесь ускорять модели и адаптировать инференс под CPU, GPU и NPU

Ускорение нейросетей

{{start_date:speedup}} • 3 месяца
Узнайте, как решают задачи в VR/AR, беспилотниках и цифровых двойниках

3D Computer Vision

{{start_date:3dcv}}
Освойте теорию генеративных моделей и их обучение на практике

Generative Computer Vision

{{start_date:gencv}}
Теория, инференс, ускорение и актуальные подходы в LLM

LLM

Подробнее
Подробнее
Подробнее
Подробнее
Подробнее
{{start_date:llm}} • 4 месяца

CV Rocket 2.0

Подробнее
{{start_date:cvrocket}}

Телеграм-канал
DeepSchool

Короткие посты по теории ML/DL, полезные библиотеки и фреймворки, вопросы с собеседований и советы, которые помогут в работе