Соберёте полноценные LLM-системы с учётом требований к качеству и нагрузке, разберёте сложные кейсы и дизайны NLP-решений
вы NLP-инженер, дата-сайентист или разработчик
Работает с текстами
Этот курс для тех, кто:
Хочет расти
решать более сложные задачи, уверенно проходить интервью
но не собирал из них полноценные системы
Умеет обучать модели
и хочет быстро запустить надёжное NLP-решение
Делает продукт или стартап
Понимает: prompt-инженерии и API уже недостаточно
пора строить своё
Важны базовые знания по NLP и опыт работы с LLM
1. Математика для ML и понимание устройства DL
Необходимо знать, что такое производная, матричное умножение, скалярное произведение, градиентный спуск, дифференцируемость, как работают оптимизаторы SGD/Adam, что такое кроссэнтропийная функция потерь, как работает backpropagation
Будем писать функции и классы на Python. Нужно уметь использовать базовые pytorch-классы, такие как nn.Linear, nn.Dropout, torch.softmax, оптимизаторы из torch.optim, уметь написать training loop
2. Базовое знание Python и PyTorch
5. Понимание базовых NLP-задач
Токенизация, классификация, генерация текста, оценка близости текстов через вектора
Self-attention, positional encoding, механизмы кодирования/декодирования, на какие задачи учится BERT и GPT
6. Знание архитектуры трансформеров
7. Базовое знание того, как обучаются LLM
8. Базовое представление об устройстве AI-агентов
Предобучение, supervised fine-tuning, алайнмент (включая метод DPO)
3. Знание основ NLP
4. Знание архитектуры LLM
Что вы получите от курса:
Научитесь проектировать и запускать NLP-системы под реальные продуктовые задачи
Освоите адаптацию LLM и эмбеддингов под специфичный домен и «живые» данные
Построите AI-агентов с нуля — на основе сценариев, функций и взаимодействия с внешней средой
Поймёте, как собирать и размечать датасеты, даже если данных почти нет
Сможете собрать свою RAG-систему: от ретривера и реранкера до генератора и оценки качества
Разберёте реальные кейсы и научитесь применять похожие подходы в своих проектах
Получите фундамент для уверенного прохождения NLP system design интервью и перехода на следующий грейд
Разберётесь, как решать задачи классификации, поиска, кластеризации и NER — с ограничениями продакшн-среды
Программа
Лекция каждую неделю. После каждой темы — домашнее задание с фидбеком от лектора. Раз в 4−5 недель — Q&A-сессия для разбора вопросов. В середине курса есть перерыв на каникулы.
3 месяца
9 лекций
9 заданий с фидбеком от преподавателей
01. Архитектура систем текстовой классификации
Разберём ключевые архитектурные паттерны современных систем текстовой классификации. Вспомним, как использовать BERT и его альтернативы, обсудим подходы с дообучаемыми головами и дистилляцией больших моделей. Поговорим о способах работы с меняющимся распределением данных и техниках, которые помогают строить более устойчивые модели
Эвристики и итеративное улучшение
Работа с данными при их дефиците
Генеративный классификатор с reasoning
Дистилляция LLM в компактную модель
Дообучаемые головы
BERT и альтернативы
Основные темы:
02. Построение доменных текстовых эмбеддингов
Углубимся в работу с эмбеддингами: от дообучения собственного BERT под специфичный домен до использования triplet loss и contrastive learning. Рассмотрим практики, как строить эмбеддинги для сложных структур. Обсудим, когда и как адаптировать эмбеддеры к новым распределениям данных
Существующие открытые эмбеддеры
Доменная адаптация эмбеддеров
Matching задач через эмбеддинги
Профили и последовательности
Triplet loss, contrastive learning
BERT и альтернативы
Основные темы:
03. Кластеризация текстов: в офлайне и в реальном времени
Изучим, как кластеризовать тексты в офлайне и в потоке. Обсудим популярные методы визуализации и алгоритмы кластеризации, включая нейросетевые. Разберём решения на примере кейсов
Архитектура и инфраструктура онлайн-кластеризации
Бинарные автоэнкодеры
Онлайн кластеризация
UMAP, T-SNE, LSH
Основные темы:
04. Сбор данных и разметка: от формулировки задачи до крауда
Разберёмся, как правильно ставить задачи и собирать датасеты под реальные задачи. Поговорим про активное обучение, разметку через кластеризацию и LLM, а также про лучшие практики работы с краудплатформами
Крауд: Toloka, MTurk
Инструкции, ханипоты, проверка качества
Selfinstruct, LIMA
Active learning
Разметка через LLM и кластеризацию
Критичность и массовость ошибок
Постановка задач и требования к данным
Основные темы:
05. Named Entity Recognition: от BERT до генеративных моделей
Рассмотрим подходы к извлечению сущностей из текста: от эвристик до BERT и генеративных моделей. Научимся мерить качество, решать проблемы со смещением данных и использовать LLM как инструмент для разметки и обучения
Разбор кейсов
Метрики качества
LLM в разметке и дообучении
Дообучение и адаптация под домен
BERT vs генеративные подходы
Постановка задачи и проблемы NER
Основные темы:
06. Адаптация LLM под домен
Углубимся в методы адаптации LLM под специфические задачи и домены. Обсудим посттрейнинг, SFT, настройку токенизатора, а также принципы alignment’а. На реальных кейсах разберём, как подходить к адаптации системно
Работа с галлюцинациями
Разбор кейсов
Чистка и генерация датасетов
Alignment через данные
Supervised Fine-tuning (SFT)
Токенизаторы и continious pretrain
Посттрейнинг на домен
Основные темы:
07. Проектирование систем текстового поиска
Научимся проектировать поисковые системы от базовых принципов до продвинутых техник. Обсудим dense retrieval, hybrid search, построение индексов, персонализацию и мультимодальный поиск
Мультимодальный поиск
Фактчекинг
Персонализация, расширение запросов
Elasticsearch, FAISS
Sentence-BERT, DPR
TF-IDF, BM25
Основные темы:
08. Advanced RAG: создание и тюнинг продакшн-систем
Разберём продвинутые подходы к созданию и улучшению RAG-систем. От ретривера и реранкера до генератора и архитектуры всего пайплайна. Покажем, как бороться с галлюцинациями, ускорять работу и планировать нагрузку
Предсказание качества до генерации
Оптимизация под железо
Достоверность, краткость, ссылки
Кэш, дистилляция, стриминг
Память и сложные базы знаний
Генерация ответов, SFT, posttraining
Подстройка эмбеддера и реранкера
RAG: структура и этапы
Основные темы:
09. AI-агенты: как построить рабочего ассистента с нуля
Разберёмся, как построить AI-агента, даже если вначале нет ничего. Поговорим про сбор данных, дообучение моделей под function calls, использование text2sql, а также alignment и обучение через среду с критериями успеха
Улучшает качество быстрых генеративных ответов в Нейро-Поиске
Алексей Яндутов
Yandex, ex. VK /
После обучения
Чат выпускников
Сертификат о прохождении обучения
Вы попадаете в чат выпускников — чат с опытными инженерами, где мы проводим литклубы, random coffee и обсуждаем вопросы с работы
Доступ к материалам курса на один год
Комфортные условия для вашей учёбы
Полный возврат стоимости в первые 14 дней, если поймёте, что программа вам не подходит. Если примете решение позже, вернём деньги за вычетом уже пройденных занятий
Налоговый вычет получите 13% от стоимости курса после обучения
Оплата из-за рубежа картой иностранного банка или другими удобными способами
Может оплатить компания. мы принимаем оплату от юрлиц, если хотите, чтобы работодатель оплатил ваше обучение, пусть ваши представители напишут нам на b2b@deepschool.ru для оформления документов и оплаты
Старт — в октябре 2025. Мы свяжемся, когда начнем собирать группу, расскажем о тарифах и подарим скидки на обучение первым участникам. Количество мест ограничено
Доступен налоговый вычет
Может оплатить компания
Полный возврат в первые 14 дней
Принимаем оплату из-за рубежа
Что говорят наши выпускники
Истории глазами тех, кто успешно прошел обучение
«Мои ожидания оправдались на 120% и я смог закрепить уже имевшиеся знания и пополнить новыми!
Лекции проходят по будням в 19:00 по московскому времени и длятся 1,5−2 часа. Q&A-сессии проходят после каждой 5-й лекции, время определяется индивидуально для каждого потока.
Смогу ли я оформить налоговый вычет?
Да, вы сможете оформить налоговый вычет за обучение, если вы являетесь налоговым резидентом России и оплачиваете подоходный налог. Подать документы на вычет можно в году, следующем за годом оплаты обучения. Подробнее о налоговом вычете за обучение можно прочитать на сайте ФНС
Может ли моя компания оплатить курс?
Моя компания может оплатить курс?
Да, мы подготовим счёт на полную или частичную оплату для юридического лица. Напишите на hello@deepschool.ru Скидки не распространяются на оплату курса юрлицами, поэтому при заполнении заявки указывайте полную стоимость.
Крутой курс! Многое узнал и прокачал навыки. Из того, что оказалось для меня особенно полезным – RAG, агенты, ускорение, инференс при малом бюджете, промпт инжиниринг и немного деплой. Постоянное общение с авторами курса мотивировало в учебе.
Роман Рютин
Хороший курс! Рассказываются крутые и не супер-очевидные вещи, на паре технических собесов (формат "ML и LLM в глубину") удалось рассказать то, о чем собеседующий эксперт не знал, это прикольно
Александр Логинов
Прекрасно подобранные темы, прекрасно выстроена дорожка обучения, начиная с собери сам до использования инструментов. Интересные д/з. Ваши программы надо в универах запускать
Александр Петров
Очень доволен, тем что прошел курс. На мой взгляд, в нем наиболее полный источник знаний о современных LLM моделях. Затронули очень много тем и дали кучу дополнительных материалов.
Домашние задания на каждую тему помогли пощупать руками то, что изучали.
Все мои вопросы подробно разобрали, на лекции хватало времени на каждого человека.
Самым интересным был RAG, потому что применил в работе.
Евгений Макаров
Крайне положительное впечатление осталось, очень понравились и лекции, и практические задания.
Получил огромный пласт знаний и практический опыт, который уже применяю на работе.
Очень интересно было кодить части трансформера, всегда любил программирование больше, чем промптинг.
Виталий Проценко
Мощная и достаточно высоко нагруженная программа. Особенно хороша при совпадении с тематикой своей работы.
Мои ожидания оправдались на 120% и я смог закрепить уже имевшиеся знания и пополнить новыми! Расширил и углубил понимание.
LLMMultimodal models — самая интересная тема, так как это мое направление и в ней собраны и отчасти ранее полученные знания по LLM.
Удачи и развития других программ на вашей платформе!
Михаил Пузицкий
Очень интересный курс! Позволил получить теоретические и практические навыки работы с LLM.
На рынке множество курсов, и каждый предлагает свою «уникальную» программу. Но была уверенность в deepschool, поэтому сомнения быстро ушли)) Курс познакомил меня с необходимыми знаниями для развития в интересующей меня области.
Интереснее всего были Основы LLM. Преподаватель смог простым языком разобрать сложную тему.
Большое спасибо всем за курс! Благодаря ему получил первый оффер)
Максим Гольцов
Отлично. Узнал много нового в тех областях LLM, где не хватало опыта. Особенно с деплоймент, ускорение, агенты, многими гпу.
Самой интересной темой оказались Агенты, потому что сразу придумал как их использовать в рабочих проектах.
Стала более понятна архитектура трансформеров и LLM. Подтвердил, что стек ИИ на работе соответствует лучшим практикам.
Петр Матюков
Курс полезный, помог наверстать упущенное в понимании современных llm.
Систематизировала знания об llm, узнала про специфичные для llm принципы деплоя и ускорения
Елизавета Носова
Очень хороший курс, оправдал ожидания.
Хороший обзор по теме LLM с практикой, после которого можно дальше погружаться вглубь.
Все супер, буду ждать обновленных лекций второго запуска. Ну и в целом, курс нужно просматривать 2 раза.
Алексей Глотов
Отличный курс, было интересно и полезно. Но некоторые темы требуют чуть большего времени.
Павел Думин
Что курс, что программа — огонь! Пришел по наводке:) ожидания оправдались более чем!
Изначально хотелось побольше узнать о файнтюнинге (по работе) так что очень ждал этот раздел, но неожиданно для себя тема с агентами и RAG взорвала мозг — когда научная фантастика становится реальностью!
Самое полезное и в общих словах — более глубокое понимание донастройки моделей под собственные нужды (фактически весь третий раздел) — сложно выделить из этого что-то одно. Ну и переспектива на то в какую сторону область развивается.
Команде курса огромное спасибо за четкую организацию процесса, также отдельно хочу выразить благодарность лекторам за их терпение и упрямство в том чтобы даже ребенок все понял и осознал! Готовность отвечать практически в любое время и настолько развернуто насколько только можно — это просто вне всяких оценок, без этого солидный кусок курса точно остался бы непонятым!
Никита Довидченко
Положительные впечатления о программе. Все темы были интересными. Хотя если выбирать что-то одно, то осознание как работает function caling под капотом это было настоящим открытием.
Большое спасибо всей команде курса, особенно хочу отметить Илью. Умеет держать интерес и рассказывать сложные вещи простым языком.
Дмитрий Махортов
Есть вопросы, на которые вы не нашли ответы? Напишите нам в Telegram, ответим на все интересующие вопросы