Глоссарий

Ключевые термины ИИ

Чёткие определения без воды — для справки и освежения памяти.

К курсам →
Искусственный интеллект (AI)

Широкая область компьютерных наук, направленная на создание систем, способных выполнять задачи, требующие человекоподобного интеллекта: восприятие, рассуждение, обучение, принятие решений.

Машинное обучение (ML)

Подраздел ИИ, где алгоритмы улучшают свою производительность за счёт опыта (данных) без явного программирования каждого правила. Включает обучение с учителем, без учителя и с подкреплением.

Нейронная сеть (Neural Network)

Вычислительная модель, вдохновлённая строением мозга. Состоит из слоёв взаимосвязанных «нейронов» (математических функций), которые поочерёдно преобразуют входные данные в выходные.

Глубокое обучение (Deep Learning)

Подраздел ML, использующий нейронные сети с множеством скрытых слоёв. Позволяет автоматически извлекать сложные иерархические представления из сырых данных — изображений, текста, звука.

Трансформер (Transformer)

Архитектура нейронной сети, основанная на механизме внимания (attention). Предложена в 2017 году, стала основой для GPT, BERT и большинства современных LLM. Обрабатывает данные параллельно, а не последовательно.

Большая языковая модель (LLM)

Языковая модель с десятками или сотнями миллиардов параметров, обученная на огромных текстовых корпусах. Способна генерировать связный текст, отвечать на вопросы, переводить и многое другое.

Градиентный спуск

Алгоритм оптимизации, используемый для обучения моделей. Итеративно корректирует параметры модели в направлении, уменьшающем ошибку (функцию потерь). Стохастический вариант (SGD) применяется для больших датасетов.

Переобучение (Overfitting)

Ситуация, когда модель слишком хорошо «запоминает» обучающую выборку и плохо обобщает на новые данные. Один из ключевых рисков в ML, борьба с которым включает регуляризацию, dropout и кросс-валидацию.

Рекомендуемое чтение

Первоисточники и ключевые работы

Статьи, книги и исследования, которые сформировали современную область ИИ. Обязательный список для серьёзного изучения.

«Attention Is All You Need»

Vaswani et al., 2017. Оригинальная статья, представившая архитектуру трансформера. Основа для всех современных LLM. Обязательна к прочтению с нашим модулем по нейронным сетям.

К курсу по нейросетям →

«Deep Learning» — Goodfellow, Bengio, Courville

Классический учебник по глубокому обучению. Охватывает теоретические основы от линейной алгебры до регуляризации и оптимизации. Доступен бесплатно на официальном сайте.

К курсу по ML →

«Computing Machinery and Intelligence» — Alan Turing, 1950

Статья, положившая начало философии ИИ. Тест Тьюринга, машины и мышление. Читается в одном из первых модулей курса по основам ИИ.

К курсу по основам ИИ →

Stanford CS229: Machine Learning

Открытый курс Стэнфордского университета, конспекты лекций которого считаются эталонным введением в ML. Совместимы с нашим курсом по машинному обучению.

Сопоставить с нашим курсом →

State of AI Report (ежегодный)

Ежегодный аналитический доклад о состоянии отрасли ИИ. Исследования, инвестиции, политика, безопасность. Лучший способ отслеживать макротенденции.

К аналитическим материалам →

arXiv — cs.AI / cs.LG

Репозиторий препринтов, где публикуются актуальные исследования ещё до официального рецензирования. Необходим для отслеживания фронтира науки об ИИ.

Обзоры последних исследований →

Инструменты для обучения

Шпаргалки и справочные материалы

Краткие справочники по ключевым темам — для быстрого повторения и ориентации в терминах.

Справочник

Алгоритмы ML: сравнительная таблица

Когда применять линейную регрессию, а когда — случайный лес? Таблица с типом задачи, предположениями и типичными областями применения.

Открыть в курсе
Справочник

Архитектуры нейронных сетей

CNN, RNN, LSTM, Transformer, GAN — визуальный справочник с описанием назначения и типичных задач для каждой архитектуры.

Открыть в курсе
Справочник

Метрики качества моделей

Accuracy, Precision, Recall, F1, AUC-ROC — когда и зачем использовать каждую метрику, и почему «точность» в одиночку почти всегда обманчива.

Открыть в курсе
Справочник

Хронология ИИ: ключевые моменты

От перцептрона Розенблатта (1958) до GPT-4 и Gemini. Хронология поворотных событий в истории искусственного интеллекта.

Открыть в курсе
Справочник

Основы линейной алгебры для ML

Векторы, матрицы, транспонирование, скалярное произведение, собственные значения — только то, что реально нужно для понимания алгоритмов.

Открыть в курсе
Справочник

Этика ИИ: ключевые проблемы

Предвзятость алгоритмов, объяснимость, конфиденциальность, авторское право. Обзор актуальных этических вопросов с примерами из реальных судебных дел в США.

Открыть в курсе

Оставаться в курсе

Новые материалы каждую неделю

Подпишитесь на дайджест Trenqilix, чтобы получать анонсы новых курсов, обзоры последних исследований и полезные материалы напрямую на почту.