Курс

Нейронные сети и глубокое обучение

Продвинутый курс по архитектурам deep learning: от перцептрона до современных Transformer-моделей с миллиардами параметров.

О курсе

Глубокое обучение произвело революцию в компьютерном зрении, обработке языка, медицинской диагностике и десятках других областей. Этот курс даёт систематическое понимание архитектур нейронных сетей: как они устроены, почему работают и как их обучать эффективно.

Курс охватывает теоретические основы и детальный разбор реальных архитектур — от LeNet до GPT-4. Особое внимание уделяется практическим аспектам: инициализации весов, выбору функции потерь, регуляризации и стратегиям оптимизации.

Ключевые темы

Прямое и обратное распространение ошибки

Сверточные сети (CNN): ResNet, EfficientNet, ViT

Рекуррентные сети: LSTM, GRU, Seq2Seq

Механизм внимания и архитектура Transformer

Генеративные модели: VAE, GAN, Diffusion

Transfer Learning и Fine-Tuning

Программа — 16 модулей

01
Перцептрон и многослойные сети: математические основы
5 ч 00 мин
02
Функции активации: ReLU, Sigmoid, GELU и другие
4 ч 30 мин
03
Backpropagation: вычислительные графы и автодифференцирование
5 ч 45 мин
04
Оптимизаторы: SGD, Adam, AdamW, Lion
5 ч 15 мин
05
Регуляризация: Dropout, BatchNorm, WeightDecay
4 ч 50 мин
06
Сверточные сети: архитектура и инварианты
6 ч 20 мин
07
Современные CNN: ResNet, DenseNet, EfficientNet
5 ч 40 мин
08
Рекуррентные сети и задачи с последовательностями
5 ч 30 мин
09
LSTM и GRU: долгосрочные зависимости
5 ч 00 мин
10
Механизм внимания (Attention): от Bahdanau до Self-Attention
6 ч 10 мин
11
Transformer: архитектура от начала до конца
7 ч 00 мин
12
Предобученные модели: BERT, GPT, T5
6 ч 30 мин
13
Vision Transformer (ViT) и мультимодальные модели
5 ч 20 мин
14
Генеративные модели: VAE, GAN и Diffusion Models
6 ч 45 мин
15
Transfer Learning, Fine-Tuning и LoRA
5 ч 15 мин
16
Оптимизация инференса: квантизация, pruning, distillation
5 ч 30 мин