Глубокое обучение — наиболее мощный и сложный раздел машинного обучения. Этот курс обеспечивает полное понимание того, как устроены нейронные сети: от математических основ до современных архитектур, применяемых в GPT-4, Stable Diffusion и автономных системах.
Понять принцип работы перцептрона и многослойных сетей
Разобрать обратное распространение ошибки и градиентный спуск
Изучить свёрточные нейронные сети (CNN) и их применение
Понять рекуррентные сети (RNN, LSTM, GRU)
Разобрать механизм внимания и архитектуру трансформера
Изучить генеративные модели: GAN и диффузионные модели
01Перцептрон: первый нейрон28 мин›
02Многослойные сети и функции активации36 мин›
03Обратное распространение ошибки45 мин›
04Градиентный спуск и оптимизаторы38 мин›
05Регуляризация: Dropout, Batch Norm30 мин›
06Свёрточные сети (CNN): архитектура42 мин›
07CNN в задачах компьютерного зрения35 мин›
08Transfer Learning и предобученные модели32 мин›
09Рекуррентные сети (RNN): обработка последовательностей36 мин›
10LSTM и GRU: борьба с исчезающим градиентом40 мин›
11Механизм внимания (Attention)44 мин›
12Архитектура трансформера48 мин›
13BERT, GPT и семейство языковых моделей42 мин›
14Fine-tuning и RLHF38 мин›
15Генеративно-состязательные сети (GAN)36 мин›
16Диффузионные модели: Stable Diffusion34 мин›
17Мультимодальные модели30 мин›
18Интерпретируемость: XAI методы28 мин›
19Нейронные сети на периферии (Edge AI)26 мин›
20Кейс: система распознавания речи40 мин›
21Кейс: рекомендательный движок стриминга38 мин›
22Итоговый экзамен и карта развития22 мин›