A - Z
Activation Function (Функция активации)
Определение: Математическая функция, применяемая к выходным данным нейрона в нейронной сети, которая определяет, должен ли нейрон "активироваться" (передать сигнал) и с какой интенсивностью. Она вводит нелинейность в модель, что позволяет нейронной сети изучать сложные закономерности.
Примеры использования:
- ReLU (Rectified Linear Unit): $f(x) = \max(0, x)$. Одна из самых популярных функций активации, простая и эффективная, помогает решить проблему исчезающего градиента.
- Sigmoid (Сигмоида): $f(x) = 1 / (1 + e^{-x})$. Используется для задач бинарной классификации, так как ее выход находится в диапазоне от 0 до 1.
- Softmax: Часто используется в выходном слое для многоклассовой классификации, преобразуя вектор чисел в распределение вероятностей.
Область использования: Общее машинное обучение, глубокое обучение, нейронные сети (NLP, Computer Vision, Generative AI).
Adversarial Attack (Состязательная атака)
Определение: Специально разработанные входные данные, которые незначительно изменены человеком таким образом, что они почти неразличимы для человеческого восприятия, но вызывают ошибочное предсказание у модели машинного обучения. Цель - обмануть модель.
Примеры использования:
- Добавление небольшого шума к изображению знака "СТОП", чтобы заставить систему распознавания изображений классифицировать его как знак "Уступи дорогу".
- Изменение нескольких символов в тексте, чтобы обойти спам-фильтр.
Область использования: Безопасность AI, Computer Vision, NLP, машинное обучение.
Attention Mechanism (Механизм внимания)
Определение: Техника в нейронных сетях, которая позволяет модели динамически фокусироваться на наиболее релевантных частях входных данных при обработке последовательностей. Это помогает модели взвешивать важность различных элементов входных данных для принятия решения.
Примеры использования:
- В задачах машинного перевода, механизм внимания позволяет модели определить, на какие слова во входном предложении следует обратить внимание при генерации каждого слова в выходном предложении.
- В архитектуре Transformer, внимание является ключевым компонентом, позволяющим модели обрабатывать зависимости на больших расстояниях в последовательностях.
Область использования: NLP (особенно Transformer-модели), Computer Vision (например, Vision Transformers), обработка аудио, рекомендательные системы.
Autoencoder (Автокодировщик)
Определение: Тип нейронной сети, предназначенный для обучения эффективному представлению (кодированию) данных без учителя. Он состоит из двух частей: кодировщика, который сжимает входные данные в скрытое представление, и декодировщика, который восстанавливает данные из этого скрытого представления.
Примеры использования:
- Уменьшение размерности: Сжатие изображений или других данных в более компактное представление.
- Удаление шума (Denoising Autoencoder): Обучение восстановлению оригинальных данных из зашумленной версии.
- Генерация данных: В вариационных автокодировщиках (VAE) для генерации новых образцов, похожих на обучающие данные.
Область использования: Уменьшение размерности, генерация данных, обнаружение аномалий, шумоподавление, Computer Vision, NLP.
Backpropagation (Обратное распространение ошибки)
Определение: Алгоритм, используемый для эффективного обучения нейронных сетей путем вычисления градиентов функции потерь по отношению к весам сети. Он распространяет ошибку от выходного слоя обратно к входному слою, позволяя корректировать веса.
Примеры использования:
- Основной алгоритм обучения для большинства нейронных сетей, от многослойных перцептронов до сверточных и рекуррентных сетей.
Область использования: Обучение нейронных сетей, глубокое обучение.
Batch Normalization (Пакетная нормализация)
Определение: Техника, используемая для стабилизации обучения глубоких нейронных сетей путем нормализации входных данных каждого слоя до среднего значения 0 и дисперсии 1. Это помогает бороться с проблемой сдвига внутренних ковариат (internal covariate shift), позволяя использовать более высокие скорости обучения и ускоряя сходимость.
Примеры использования:
- Применение слоя пакетной нормализации после сверточных или полносвязных слоев в архитектуре нейронной сети.
Область использования: Глубокое обучение, Computer Vision, NLP.
Bidirectional Encoder Representations from Transformers (BERT) (Двунаправленные кодировщики из Трансформеров)
Определение: Революционная языковая модель, разработанная Google, которая использует архитектуру Transformer для предварительного обучения глубоких двунаправленных представлений из неразмеченного текста. BERT способен понимать контекст слова на основе всех других слов в предложении, а не только предшествующих.
Примеры использования:
- Вопросы и ответы: Использование BERT для понимания вопросов и извлечения ответов из текста.
- Классификация текста: Определение тональности или категории текста.
- Распознавание именованных сущностей (NER): Идентификация имен людей, организаций, мест и т.д. в тексте.
Область использования: NLP, обработка текста.
Bias (Смещение)
Определение:
- В контексте нейронных сетей: Дополнительный параметр в нейроне, который добавляется к взвешенной сумме входных данных перед применением функции активации. Он позволяет сдвигать выходное значение функции активации без изменения входных данных.
- В контексте машинного обучения: Систематическая ошибка в предсказаниях модели, которая приводит к тому, что модель постоянно отклоняется от истинного значения в одном направлении (например, всегда занижает или завышает).
- В контексте данных: Неравномерное или предвзятое представление определенных групп или характеристик в обучающих данных, что может привести к несправедливым или некорректным предсказаниям модели.
Примеры использования:
- Bias в нейронной сети: Уравнение нейрона может быть $y = f(\sum(w_i x_i) + b)$, где $b$ - это смещение.
- Смещение модели: Модель, обученная на данных, где преобладают мужчины, может плохо работать при предсказании для женщин (смещение по полу).
- Смещение данных: Обучающий набор данных для распознавания лиц, содержащий в основном фотографии людей светлой кожи, может привести к тому, что модель будет хуже распознавать людей с темной кожей.
Область использования: Нейронные сети, машинное обучение, этика AI, Computer Vision, NLP.
Callback (Колбэк)
Определение: Функция, которая передается в другую функцию в качестве аргумента и вызывается (или "обратно вызывается") этой функцией в определенный момент времени или при наступлении определенного события во время выполнения процесса обучения модели.
Примеры использования:
- ModelCheckpoint: Колбэк, который сохраняет веса модели (или всю модель) в конце каждой эпохи, если производительность улучшилась.
- EarlyStopping: Колбэк, который останавливает обучение, если производительность на валидационном наборе данных перестает улучшаться в течение определенного количества эпох (терпение).
- ReduceLROnPlateau: Колбэк, который уменьшает скорость обучения, если метрика валидации перестает улучшаться.
Область использования: Обучение нейронных сетей, фреймворки глубокого обучения (TensorFlow, Keras, PyTorch).
CLIP (Contrastive Language-Image Pre-training) (Контрастное предварительное обучение языка и изображения)
Определение: Мультимодальная модель, разработанная OpenAI, которая обучается на большом наборе данных изображений и текстовых описаний, чтобы сопоставлять их. CLIP может понимать визуальное содержимое, связывая его с естественным языком, что позволяет ему выполнять задачи с нулевым выстрелом (zero-shot) для классификации изображений или генерации подписей.
Примеры использования:
- Zero-shot классификация изображений: Классификация изображений по текстовым запросам, даже если эти классы не были представлены во время обучения.
- Поиск изображений по тексту: Поиск изображений, соответствующих текстовому описанию.
- Основа для генерации изображений: Использование CLIP для направления процесса генерации изображений (например, в DALL-E 2).
Область использования: Computer Vision, NLP, мультимодальный AI, генеративный AI.
Computer Vision (Компьютерное зрение)
Определение: Область искусственного интеллекта, которая позволяет компьютерам и системам получать, обрабатывать, анализировать и понимать визуальные данные (изображения и видео) так же, как это делает человеческое зрение.
Примеры использования:
- Распознавание лиц.
- Обнаружение объектов на изображениях и видео.
- Автономное вождение (распознавание дорожных знаков, пешеходов).
- Медицинская диагностика (анализ рентгеновских снимков, МРТ).
Область использования: Беспилотные автомобили, робототехника, медицина, безопасность, AR/VR, розничная торговля.
Convolutional Neural Network (CNN) (Сверточная нейронная сеть)
Определение: Класс глубоких нейронных сетей, специально разработанных для обработки данных, имеющих сеточную структуру, таких как изображения. Они используют слои свертки, пулинга и полносвязные слои для автоматического извлечения признаков из входных данных.
Примеры использования:
- Классификация изображений (распознавание кошек, собак, людей).
- Обнаружение объектов (определение местоположения объектов на изображении).
- Сегментация изображений (разметка каждого пикселя изображения по принадлежности к определенному объекту).
- Обработка видео, медицинская визуализация.
Область использования: Computer Vision, обработка видео, обработка аудио, рекомендательные системы.
Cross-Entropy Loss (Кросс-энтропийная функция потерь)
Определение: Функция потерь, часто используемая в задачах классификации, которая измеряет расхождение между предсказанным распределением вероятностей и истинным распределением (однократным кодированием). Чем больше разница, тем выше значение потерь.
Примеры использования:
- В задачах бинарной классификации используется бинарная кросс-энтропия (Binary Cross-Entropy Loss).
- В задачах многоклассовой классификации используется категориальная кросс-энтропия (Categorical Cross-Entropy Loss).
Область использования: Классификация (NLP, Computer Vision, общее машинное обучение).
Cut-off Date (Дата среза)
Определение: Конкретная дата, до которой была собрана и использована информация для обучения модели искусственного интеллекта. Информация, появившаяся после этой даты, не была включена в обучающий набор и, следовательно, не известна модели.
Примеры использования:
- "Моя база знаний обновлена до **даты среза** - июнь 2024 года."
- Если модель ИИ была обучена до **даты среза** 2023 года, она не будет знать о событиях, произошедших в 2024 или 2025 году.
Область использования: Генеративный AI, большие языковые модели (LLM), информационные системы.
Deepfake (Дипфейк)
Определение: Технология, использующая глубокое обучение (часто с использованием генеративных состязательных сетей - GAN) для создания или изменения изображений, аудио или видео таким образом, что они выглядят, как реальные, но являются полностью или частично сгенерированными или подделанными. Чаще всего используется для замены лиц или имитации голоса.
Примеры использования:
- Создание видео, где один человек говорит слова другого человека.
- Подделка голоса известной личности.
- Изменение выражения лица на видео.
Область использования: Генеративный AI, Computer Vision, обработка аудио, безопасность AI (как объект обнаружения).
Diffusion Models (Диффузионные модели)
Определение: Класс генеративных моделей, которые обучаются путем последовательного добавления шума к данным, а затем обучения нейронной сети инвертировать этот процесс, удаляя шум и восстанавливая исходные данные. Этот процесс позволяет им генерировать высококачественные и разнообразные образцы данных.
Примеры использования:
- Генерация изображений по текстовому описанию (Text-to-Image, например, DALL-E 2, Stable Diffusion, Midjourney).
- Редактирование изображений.
- Генерация аудио.
Область использования: Генеративный AI, Computer Vision, обработка аудио.
Encoder-Decoder Architecture (Архитектура кодировщик-декодировщик)
Определение: Общая архитектура нейронной сети, состоящая из двух основных частей: кодировщика, который преобразует входную последовательность в вектор фиксированного размера (или контекстное представление), и декодировщика, который генерирует выходную последовательность на основе этого контекстного представления. Часто используется с механизмом внимания.
Примеры использования:
- Машинный перевод (перевод предложений с одного языка на другой).
- Суммирование текста (генерация краткого содержания длинного текста).
- Генерация изображений по описанию.
Область использования: NLP, Computer Vision, машинный перевод, генерация текста, генерация изображений.
Epoch (Эпоха)
Определение: Один полный проход всего обучающего набора данных через алгоритм обучения нейронной сети (т.е. один полный цикл прямого распространения и обратного распространения ошибки). В течение одной эпохи модель видит каждый пример из обучающего набора ровно один раз.
Примеры использования:
- "Модель обучалась в течение 100 **эпох**."
- Если обучающий набор данных состоит из 1000 изображений и размер пакета (batch size) равен 100, то в одной эпохе будет 10 итераций (1000 / 100).
Область использования: Обучение нейронных сетей, глубокое обучение.
Fine-tuning (Дообучение / Тонкая настройка)
Определение: Процесс дальнейшего обучения предварительно обученной модели (обычно на большом общем наборе данных) на меньшем, специфичном для задачи наборе данных. Это позволяет модели адаптироваться к новой задаче или домену, сохраняя при этом общие знания, полученные во время предварительного обучения.
Примеры использования:
- Дообучение большой языковой модели, такой как GPT-3, на корпусе медицинских текстов для создания чат-бота для здравоохранения.
- Дообучение предварительно обученной модели для классификации изображений (например, ResNet) на наборе данных, содержащем только изображения кошек и собак.
Область использования: Transfer Learning, NLP, Computer Vision, Generative AI.
Foundation Model (Базовая модель)
Определение: Большая модель, которая была предварительно обучена на очень обширном и разнообразном наборе данных (часто неразмеченных) таким образом, что она может быть адаптирована (путем дообучения, промптинга и т.д.) для широкого спектра последующих задач. Эти модели демонстрируют emergent abilities (появление новых способностей) и универсальность.
Примеры использования:
- Большие языковые модели (LLM) вроде GPT-3/4, PaLM, LLaMA.
- Большие модели компьютерного зрения, обученные на огромных наборах изображений.
- Мультимодальные модели, такие как CLIP.
Область использования: Генеративный AI, NLP, Computer Vision, мультимодальный AI.
Generative Adversarial Network (GAN) (Генеративно-состязательная сеть)
Определение: Тип генеративной модели, состоящий из двух конкурирующих нейронных сетей: генератора и дискриминатора. Генератор пытается создать новые данные, похожие на обучающие, а дискриминатор пытается отличить реальные данные от сгенерированных. Они обучаются в "игре" друг против друга, улучшаясь со временем.
Примеры использования:
- Генерация фотореалистичных изображений (например, лиц, не существующих в реальности).
- Преобразование изображений из одного домена в другой (например, лошади в зебру - CycleGAN).
- Увеличение разрешения изображений (Super-resolution).
Область использования: Генеративный AI, Computer Vision, обработка изображений, обработка аудио.
Generative AI (Генеративный ИИ)
Определение: Область искусственного интеллекта, которая фокусируется на создании новых, оригинальных данных (текст, изображения, аудио, видео, код), которые похожи на данные, на которых модель обучалась, но не являются их точными копиями. Эти модели учатся скрытым закономерностям в данных, чтобы генерировать новые образцы.
Примеры использования:
- Создание изображений по текстовому описанию (Midjourney, DALL-E).
- Написание статей, стихов или программного кода (ChatGPT, Bard).
- Генерация музыки.
- Создание синтетических голосов.
Область использования: Создание контента, дизайн, искусство, развлечения, разработка ПО, образование.
Gradient Descent (Градиентный спуск)
Определение: Итеративный оптимизационный алгоритм, используемый для поиска минимума функции (в машинном обучении - функции потерь) путем выполнения шагов, пропорциональных отрицательному значению градиента функции в текущей точке. Это основной алгоритм для обучения большинства моделей машинного обучения и глубокого обучения.
Примеры использования:
- Обновление весов нейронной сети во время обучения, чтобы минимизировать ошибку предсказания.
- Нахождение оптимальных параметров для линейной регрессии.
Область использования: Оптимизация, машинное обучение, глубокое обучение.
Hallucination (Галлюцинация)
Определение: Явление, при котором модель искусственного интеллекта (особенно большие языковые модели) генерирует информацию, которая кажется правдоподобной и релевантной, но фактически является вымышленной, неверной или не имеет под собой фактической основы. Это происходит, когда модель "придумывает" данные, а не извлекает их из своих знаний или обучающих данных.
Примеры использования:
- Языковая модель придумывает несуществующие факты или даты.
- Модель генерирует цитату, которая никогда не была сказана.
- Модель создает нереалистичные или логически невозможные объекты на изображении.
Область использования: Генеративный AI, NLP, Computer Vision (в меньшей степени), большие языковые модели (LLM), безопасность AI, этика AI.
Hyperparameters (Гиперпараметры)
Определение: Параметры, которые устанавливаются до начала процесса обучения модели машинного обучения, а не изучаются самой моделью из данных. Они определяют структуру модели или параметры алгоритма обучения.
Примеры использования:
- Скорость обучения (learning rate): Насколько сильно изменяются веса при каждом обновлении.
- Размер пакета (batch size): Количество примеров, обрабатываемых за одну итерацию обучения.
- Количество эпох (number of epochs): Сколько раз весь обучающий набор будет пройден.
- Количество слоев/нейронов в сети: Архитектурные параметры.
Область использования: Обучение нейронных сетей, машинное обучение, оптимизация моделей.
Intelligent Guess (Интеллектуальное предположение)
Определение: Предположение или догадка, основанная на имеющихся данных, знаниях или контексте, которая имеет под собой рациональное обоснование или вероятность быть правильной, в отличие от случайной догадки. В контексте ИИ это может означать вывод, сделанный моделью, даже если у нее нет полной уверенности, но есть достаточно сигналов для формирования обоснованного ответа.
Примеры использования:
- Когда языковая модель завершает предложение, основываясь на грамматике, семантике и общем смысле текста, даже если она "не знает" следующего слова наверняка, она делает **интеллектуальное предположение**.
- Система рекомендаций фильмов может предложить фильм, основываясь на вашем предыдущем просмотре и оценках, даже если у нее нет явных данных о ваших предпочтениях для этого конкретного фильма.
Область использования: Генеративный AI, NLP, рекомендательные системы, системы принятия решений.
Large Language Model (LLM) (Большая языковая модель)
Определение: Нейронная сеть (обычно на основе архитектуры Transformer) с огромным количеством параметров (миллиарды), предварительно обученная на гигантских объемах текстовых данных. LLM способны понимать, генерировать и обрабатывать человеческий язык на беспрецедентном уровне, выполняя широкий спектр задач NLP.
Примеры использования:
- Генерация текста (статьи, письма, стихи).
- Машинный перевод.
- Ответы на вопросы.
- Суммирование текста.
- Чат-боты и виртуальные ассистенты.
Область использования: NLP, Generative AI, разработка чат-ботов, информационные системы.
Latent Space (Скрытое пространство)
Определение: Многомерное векторное пространство, в которое модель кодирует или преобразует входные данные. Каждая точка в скрытом пространстве соответствует уникальному представлению входных данных. Оно позволяет модели изучать скрытые закономерности и связи в данных.
Примеры использования:
- В автокодировщике, кодировщик отображает входные данные в точку в скрытом пространстве.
- В генеративных моделях, таких как GANs или диффузионные модели, случайные векторы из скрытого пространства могут быть преобразованы в новые образцы данных (например, изображения).
Область использования: Генеративный AI, уменьшение размерности, обнаружение аномалий, представление данных.
Mamba (Мамба)
Определение: Новая архитектура глубокого обучения, которая представляет собой State Space Model (SSM) и призвана быть альтернативой Transformer-архитектуре, особенно для длинных последовательностей. Она фокусируется на эффективной обработке последовательных данных, предлагая линейную сложность по длине последовательности и возможность обработки контекста, что делает ее перспективной для длинных последовательностей в NLP и других областях.
Примеры использования:
- Обработка очень длинных текстов, где Transformer может столкнуться с вычислительными ограничениями.
- Генерация длинных последовательностей (текст, аудио).
Область использования: NLP, обработка последовательностей, аудио, видео.
Natural Language Processing (NLP) (Обработка естественного языка)
Определение: Область искусственного интеллекта, которая занимается взаимодействием между компьютерами и человеческим (естественным) языком, фокусируясь на том, чтобы дать компьютерам возможность понимать, интерпретировать, генерировать и манипулировать человеческим языком.
Примеры использования:
- Машинный перевод (Google Translate).
- Анализ тональности (определение эмоциональной окраски текста).
- Чат-боты и виртуальные ассистенты (Siri, Alexa, ChatGPT).
- Суммирование текста, распознавание речи.
Область использования: Поиск информации, автоматизация, здравоохранение, финансы, образование.
Overfitting (Переобучение)
Определение: Явление в машинном обучении, когда модель слишком хорошо обучается на обучающем наборе данных, захватывая шум и специфические особенности, которые не являются обобщающими для новых, невидимых данных. Это приводит к плохой производительности модели на тестовых данных.
Примеры использования:
- Модель идеально классифицирует все изображения из обучающего набора, но совершает много ошибок на новых изображениях.
- При построении графика потерь, потери на обучающем наборе продолжают снижаться, в то время как потери на валидационном наборе начинают расти.
Область использования: Машинное обучение, глубокое обучение.
Prompt Engineering (Промпт-инжиниринг)
Определение: Искусство и наука создания оптимальных "подсказок" или "запросов" (prompts) для моделей искусственного интеллекта, особенно для больших языковых моделей, чтобы получить от них желаемый и высококачественный результат. Это включает формулирование запросов, предоставление контекста и примеров.
Примеры использования:
- "Напиши стихотворение о закате в стиле Хайку."
- "Сгенерируй изображение сюрреалистичного кота, играющего на пианино, в стиле Сальвадора Дали."
- "Переведи следующий текст на испанский, сохраняя официальный тон: [текст]."
Область использования: Генеративный AI, большие языковые модели (LLM), NLP, Computer Vision (Text-to-Image).
Reinforcement Learning from Human Feedback (RLHF) (Обучение с подкреплением на основе обратной связи от человека)
Определение: Метод обучения моделей искусственного интеллекта (особенно больших языковых моделей), при котором модель обучается с использованием человеческих предпочтений в качестве сигнала обратной связи. Люди оценивают качество ответов модели, и эти оценки используются для обучения модели вознаграждения, которая затем используется для тонкой настройки модели через обучение с подкреплением.
Примеры использования:
- Использование RLHF для улучшения способности чат-бота давать полезные, безопасные и этичные ответы.
- Настройка моделей генерации текста для получения более релевантных и связных результатов.
Область использования: Генеративный AI, NLP, большие языковые модели (LLM), этика AI, обучение с подкреплением.
RetNet (Retention Network) (Сеть с удержанием)
Определение: Новая архитектура глубокого обучения, разработанная Microsoft, которая является альтернативой Transformer для последовательных данных. RetNet использует механизм "удержания" (retention) для эффективного моделирования длинных зависимостей, предлагая преимущества в параллелизации обучения, скорости инференса и потребляемой памяти по сравнению с Transformer, особенно для очень длинных последовательностей.
Примеры использования:
- Обработка длинных текстов в NLP.
- Генерация последовательностей в реальном времени.
Область использования: NLP, обработка последовательностей, большие языковые модели (LLM).
Self-Attention (Само-внимание)
Определение: Механизм внимания, который позволяет модели взвешивать важность различных частей одной и той же входной последовательности при обработке каждого элемента этой последовательности. Каждый элемент входной последовательности взаимодействует со всеми другими элементами, что позволяет модели захватывать глобальные зависимости независимо от расстояния между ними.
Примеры использования:
- Ключевой компонент архитектуры Transformer, используемый в каждом слое как для кодировщика, так и для декодировщика.
- В задачах обработки текста, позволяет слову "bank" понять, относится ли оно к финансовому учреждению или берегу реки, анализируя другие слова в предложении.
Область использования: NLP (Transformer-модели), Computer Vision (Vision Transformers), обработка последовательностей.
Supervised Learning (Обучение с учителем)
Определение: Парадокс машинного обучения, при котором алгоритм обучается на размеченных данных (входные данные и соответствующие им желаемые выходные данные). Цель состоит в том, чтобы модель научилась сопоставлять входные данные с правильными выходными данными и затем могла делать точные предсказания на новых, невидимых данных.
Примеры использования:
- Классификация изображений (предсказание, что на изображении кошка или собака).
- Прогнозирование цен на жилье (предсказание числового значения).
- Распознавание спама в электронной почте.
Область использования: Классификация, регрессия, большинство практических задач машинного обучения.
Synthetic Data (Синтетические данные)
Определение: Искусственно сгенерированные данные, которые имитируют статистические свойства реальных данных, но не содержат никакой информации из оригинальных реальных данных. Они могут быть созданы алгоритмами машинного обучения и используются для увеличения объема обучающих данных, защиты конфиденциальности или тестирования систем.
Примеры использования:
- Генерация синтетических изображений лиц для обучения системы распознавания лиц, чтобы избежать использования реальных данных о людях.
- Создание синтетических финансовых транзакций для тестирования систем обнаружения мошенничества без использования конфиденциальных данных клиентов.
- Использование синтетических данных для обучения автономных транспортных средств в условиях, которые трудно или опасно воспроизвести в реальном мире.
Область использования: Машинное обучение, глубокое обучение, безопасность AI, приватность данных, компьютерное зрение, NLP.
Temperature (Температура)
Определение: Гиперпараметр, используемый в моделях генерации текста (особенно в больших языковых моделях), который контролирует случайность или креативность сгенерированного вывода.
- Низкая температура (близко к 0): Делает выход более детерминированным и предсказуемым, модель будет выбирать наиболее вероятные токены.
- Высокая температура (больше 1): Увеличивает случайность, делая выход более разнообразным и креативным, позволяя модели выбирать менее вероятные, но потенциально интересные токены.
Примеры использования:
- При генерации фактической информации или кода, устанавливается низкая **температура** (например, 0.1-0.5) для обеспечения точности.
- При написании креативного текста или мозговом штурме, может быть установлена более высокая **температура** (например, 0.7-1.0) для получения более разнообразных идей.
Область использования: Генеративный AI, NLP, большие языковые модели (LLM), Text-to-Image.
Tensor (Тензор)
Определение: Фундаментальная структура данных в глубоком обучении, представляющая собой многомерный массив. Тензоры используются для представления всех типов данных (изображения, текст, аудио) и всех параметров (веса, смещения) в нейронной сети.
Примеры использования:
- Изображение может быть представлено как 3D-тензор (высота x ширина x каналы цвета).
- Пакет текстов может быть представлен как 2D-тензор (количество примеров x длина последовательности).
- Веса нейронной сети хранятся в тензорах.
Область использования: Глубокое обучение, машинное обучение, вычислительные фреймворки (TensorFlow, PyTorch).
Text-to-Image (Текст в изображение)
Определение: Область генеративного ИИ, где модель способна генерировать изображения из текстовых описаний или "подсказок". Модели учатся понимать взаимосвязь между словами и визуальными концепциями, чтобы создавать соответствующие изображения.
Примеры использования:
- Генерация изображения "астронавта, скачущего на лошади в стиле поп-арт".
- Создание концепт-арта для дизайнеров или художников.
- Визуализация идей без необходимости вручную рисовать или искать изображения.
Область использования: Генеративный AI, Computer Vision, дизайн, искусство, реклама.
Transformer (Трансформер)
Определение: Революционная архитектура нейронной сети, представленная в 2017 году, которая полностью опирается на механизм внимания (особенно self-attention) и отказывается от рекуррентных и сверточных слоев. Transformer-модели способны эффективно обрабатывать длинные последовательности, захватывать глобальные зависимости и допускают высокую степень параллелизации, что делает их очень мощными для задач с последовательными данными.
Примеры использования:
- Большие языковые модели (BERT, GPT, T5).
- Машинный перевод, суммирование текста.
- Vision Transformers (ViT) для компьютерного зрения.
Область использования: NLP (доминирующая архитектура), Computer Vision, обработка аудио, обработка последовательностей.
Transfer Learning (Перенос обучения)
Определение: Методика машинного обучения, при которой модель, предварительно обученная на одной задаче (обычно на большом общем наборе данных), используется в качестве отправной точки для решения другой, но связанной задачи. Вместо обучения модели "с нуля", используются уже изученные веса и признаки, что позволяет достичь лучшей производительности с меньшим количеством данных и вычислительных ресурсов.
Примеры использования:
- Использование предварительно обученной CNN (например, ResNet, VGG) для классификации новых изображений с небольшим количеством специфических данных.
- Дообучение большой языковой модели на специфическом домене.
Область использования: Машинное обучение, глубокое обучение, Computer Vision, NLP.
Unsupervised Learning (Обучение без учителя)
Определение: Тип машинного обучения, при котором алгоритм обучается на неразмеченных данных, то есть без заранее определенных выходных меток. Цель состоит в том, чтобы найти скрытые закономерности, структуры или представления в данных.
Примеры использования:
- Кластеризация (группировка похожих точек данных).
- Уменьшение размерности (снижение количества переменных в данных при сохранении важной информации).
- Обнаружение аномалий.
Область использования: Анализ данных, рекомендательные системы, генеративные модели, обнаружение аномалий.
Weight (Вес)
Определение: Параметр в нейронной сети, который определяет силу связи между двумя нейронами. Каждый входной сигнал в нейроне умножается на соответствующий ему вес, а затем все эти взвешенные входы суммируются. Веса корректируются в процессе обучения модели для минимизации ошибки.
Примеры использования:
- В простой линейной регрессии уравнение может быть $y = w_1 x_1 + w_2 x_2 + b$, где $w_1$ и $w_2$ - это веса.
- Во время обучения нейронной сети, алгоритм обратного распространения изменяет веса, чтобы модель давала более точные предсказания.
Область использования: Нейронные сети, машинное обучение.
Zero-shot Learning (Обучение с нулевым выстрелом)
Определение: Способность модели ИИ выполнять задачу или распознавать классы, которые она никогда не видела во время обучения. Модель полагается на предварительные знания или информацию о классах (например, текстовые описания), чтобы сделать предсказание для совершенно новых категорий.
Примеры использования:
- Классификация изображений нового вида животного, который не был представлен в обучающем наборе, но о котором модель имеет текстовое описание.
- Языковая модель отвечает на вопрос о концепции, о которой она не была явно обучена, но которую может вывести из своих обширных знаний.
Область использования: Computer Vision, NLP, мультимодальный AI, генеративный AI.
Толковый Словарь по Нейросетям и Искусственному Интеллекту
А - Я
Автокодировщик (Autoencoder)
Определение: Тип нейронной сети, предназначенный для обучения эффективному представлению (кодированию) данных без учителя. Он состоит из двух частей: кодировщика, который сжимает входные данные в скрытое представление, и декодировщика, который восстанавливает данные из этого скрытого представления.
Примеры использования:
- Уменьшение размерности: Сжатие изображений или других данных в более компактное представление.
- Удаление шума (Denoising Autoencoder): Обучение восстановлению оригинальных данных из зашумленной версии.
- Генерация данных: В вариационных автокодировщиках (VAE) для генерации новых образцов, похожих на обучающие данные.
Область использования: Уменьшение размерности, генерация данных, обнаружение аномалий, шумоподавление, Computer Vision, NLP.
Архитектура кодировщик-декодировщик (Encoder-Decoder Architecture)
Определение: Общая архитектура нейронной сети, состоящая из двух основных частей: кодировщика, который преобразует входную последовательность в вектор фиксированного размера (или контекстное представление), и декодировщика, который генерирует выходную последовательность на основе этого контекстного представления. Часто используется с механизмом внимания.
Примеры использования:
- Машинный перевод (перевод предложений с одного языка на другой).
- Суммирование текста (генерация краткого содержания длинного текста).
- Генерация изображений по описанию.
Область использования: NLP, Computer Vision, машинный перевод, генерация текста, генерация изображений.
Базовая модель (Foundation Model)
Определение: Большая модель, которая была предварительно обучена на очень обширном и разнообразном наборе данных (часто неразмеченных) таким образом, что она может быть адаптирована (путем дообучения, промптинга и т.д.) для широкого спектра последующих задач. Эти модели демонстрируют emergent abilities (появление новых способностей) и универсальность.
Примеры использования:
- Большие языковые модели (LLM) вроде GPT-3/4, PaLM, LLaMA.
- Большие модели компьютерного зрения, обученные на огромных наборах изображений.
- Мультимодальные модели, такие как CLIP.
Область использования: Генеративный AI, NLP, Computer Vision, мультимодальный AI.
Безопасность AI (AI Safety)
Определение: Область исследований, посвященная обеспечению того, чтобы системы искусственного интеллекта работали надежно, предсказуемо и в соответствии с человеческими ценностями и намерениями, минимизируя при этом непреднамеренные негативные последствия. Включает в себя борьбу с галлюцинациями, состязательными атаками, смещением и создание систем, которые остаются под контролем человека.
Примеры использования:
- Разработка методов обнаружения и предотвращения дипфейков.
- Создание механизмов, ограничивающих генерацию вредоносного контента большими языковыми моделями.
- Исследование устойчивости моделей к состязательным атакам.
Область использования: Все области ИИ, особенно Генеративный AI, этика AI, Computer Vision, NLP.
Бинарная классификация (Binary Classification)
Определение: Тип задачи машинного обучения, при котором целью является предсказание одной из двух возможных категорий или классов для данного входного объекта.
Примеры использования:
- Определение, является ли электронное письмо спамом или нет.
- Классификация медицинского снимка на наличие/отсутствие заболевания.
- Прогнозирование, уйдет ли клиент или останется (отток клиентов).
Область использования: Машинное обучение, NLP, Computer Vision, бизнес-аналитика.
Большая языковая модель (БЯМ / LLM) (Large Language Model)
Определение: Нейронная сеть (обычно на основе архитектуры Transformer) с огромным количеством параметров (миллиарды), предварительно обученная на гигантских объемах текстовых данных. БЯМ способны понимать, генерировать и обрабатывать человеческий язык на беспрецедентном уровне, выполняя широкий спектр задач NLP.
Примеры использования:
- Генерация текста (статьи, письма, стихи).
- Машинный перевод.
- Ответы на вопросы.
- Суммирование текста.
- Чат-боты и виртуальные ассистенты.
Область использования: NLP, Generative AI, разработка чат-ботов, информационные системы.
Вес (Weight)
Определение: Параметр в нейронной сети, который определяет силу связи между двумя нейронами. Каждый входной сигнал в нейроне умножается на соответствующий ему вес, а затем все эти взвешенные входы суммируются. Веса корректируются в процессе обучения модели для минимизации ошибки.
Примеры использования:
- В простой линейной регрессии уравнение может быть $y = w_1 x_1 + w_2 x_2 + b$, где $w_1$ и $w_2$ - это веса.
- Во время обучения нейронной сети, алгоритм обратного распространения изменяет веса, чтобы модель давала более точные предсказания.
Область использования: Нейронные сети, машинное обучение.
Видеоаналитика (Video Analytics)
Определение: Процесс автоматического анализа видеопотоков для обнаружения, классификации и отслеживания объектов, событий и поведения. Использует алгоритмы компьютерного зрения и машинного обучения для извлечения значимой информации из видео.
Примеры использования:
- Системы видеонаблюдения для обнаружения вторжений или подозрительной активности.
- Подсчет людей или автомобилей на перекрестках для управления трафиком.
- Анализ поведения покупателей в розничных магазинах.
Область использования: Computer Vision, безопасность, ритейл, транспорт, спорт.
Визуализация (Visualization)
Определение: Процесс графического представления данных, моделей или их внутренних состояний для облегчения понимания, анализа и интерпретации. В контексте ИИ может включать визуализацию архитектур сетей, карт признаков, распределения весов или результатов работы модели.
Примеры использования:
- Отображение активаций нейронов в сверточной сети для понимания, на что она "смотрит".
- Построение графиков функции потерь и метрик качества во время обучения.
- Визуализация скрытого пространства, чтобы увидеть, как модель группирует похожие данные.
Область использования: Все области ИИ, анализ данных, интерпретируемость AI (XAI).
Галлюцинация (Hallucination)
Определение: Явление, при котором модель искусственного интеллекта (особенно большие языковые модели) генерирует информацию, которая кажется правдоподобной и релевантной, но фактически является вымышленной, неверной или не имеет под собой фактической основы. Это происходит, когда модель "придумывает" данные, а не извлекает их из своих знаний или обучающих данных.
Примеры использования:
- Языковая модель придумывает несуществующие факты или даты.
- Модель генерирует цитату, которая никогда не была сказана.
- Модель создает нереалистичные или логически невозможные объекты на изображении.
Область использования: Генеративный AI, NLP, Computer Vision (в меньшей степени), большие языковые модели (LLM), безопасность AI, этика AI.
Генеративно-состязательная сеть (ГСМ / GAN) (Generative Adversarial Network)
Определение: Тип генеративной модели, состоящий из двух конкурирующих нейронных сетей: генератора и дискриминатора. Генератор пытается создать новые данные, похожие на обучающие, а дискриминатор пытается отличить реальные данные от сгенерированных. Они обучаются в "игре" друг против друга, улучшаясь со временем.
Примеры использования:
- Генерация фотореалистичных изображений (например, лиц, не существующих в реальности).
- Преобразование изображений из одного домена в другой (например, лошади в зебру - CycleGAN).
- Увеличение разрешения изображений (Super-resolution).
Область использования: Генеративный AI, Computer Vision, обработка изображений, обработка аудио.
Генеративный ИИ (Generative AI)
Определение: Область искусственного интеллекта, которая фокусируется на создании новых, оригинальных данных (текст, изображения, аудио, видео, код), которые похожи на данные, на которых модель обучалась, но не являются их точными копиями. Эти модели учатся скрытым закономерностям в данных, чтобы генерировать новые образцы.
Примеры использования:
- Создание изображений по текстовому описанию (Midjourney, DALL-E).
- Написание статей, стихов или программного кода (ChatGPT, Bard).
- Генерация музыки.
- Создание синтетических голосов.
Область использования: Создание контента, дизайн, искусство, развлечения, разработка ПО, образование.
Гиперпараметры (Hyperparameters)
Определение: Параметры, которые устанавливаются до начала процесса обучения модели машинного обучения, а не изучаются самой моделью из данных. Они определяют структуру модели или параметры алгоритма обучения.
Примеры использования:
- Скорость обучения (learning rate): Насколько сильно изменяются веса при каждом обновлении.
- Размер пакета (batch size): Количество примеров, обрабатываемых за одну итерацию обучения.
- Количество эпох (number of epochs): Сколько раз весь обучающий набор будет пройден.
- Количество слоев/нейронов в сети: Архитектурные параметры.
Область использования: Обучение нейронных сетей, машинное обучение, оптимизация моделей.
Градиентный спуск (Gradient Descent)
Определение: Итеративный оптимизационный алгоритм, используемый для поиска минимума функции (в машинном обучении - функции потерь) путем выполнения шагов, пропорциональных отрицательному значению градиента функции в текущей точке. Это основной алгоритм для обучения большинства моделей машинного обучения и глубокого обучения.
Примеры использования:
- Обновление весов нейронной сети во время обучения, чтобы минимизировать ошибку предсказания.
- Нахождение оптимальных параметров для линейной регрессии.
Область использования: Оптимизация, машинное обучение, глубокое обучение.
Дата среза (Cut-off Date)
Определение: Конкретная дата, до которой была собрана и использована информация для обучения модели искусственного интеллекта. Информация, появившаяся после этой даты, не была включена в обучающий набор и, следовательно, не известна модели.
Примеры использования:
- "Моя база знаний обновлена до **даты среза** - июнь 2024 года."
- Если модель ИИ была обучена до **даты среза** 2023 года, она не будет знать о событиях, произошедших в 2024 или 2025 году.
Область использования: Генеративный AI, большие языковые модели (LLM), информационные системы.
Дипфейк (Deepfake)
Определение: Технология, использующая глубокое обучение (часто с использованием генеративных состязательных сетей - GAN) для создания или изменения изображений, аудио или видео таким образом, что они выглядят, как реальные, но являются полностью или частично сгенерированными или подделанными. Чаще всего используется для замены лиц или имитации голоса.
Примеры использования:
- Создание видео, где один человек говорит слова другого человека.
- Подделка голоса известной личности.
- Изменение выражения лица на видео.
Область использования: Генеративный AI, Computer Vision, обработка аудио, безопасность AI (как объект обнаружения).
Диффузионные модели (Diffusion Models)
Определение: Класс генеративных моделей, которые обучаются путем последовательного добавления шума к данным, а затем обучения нейронной сети инвертировать этот процесс, удаляя шум и восстанавливая исходные данные. Этот процесс позволяет им генерировать высококачественные и разнообразные образцы данных.
Примеры использования:
- Генерация изображений по текстовому описанию (Text-to-Image, например, DALL-E 2, Stable Diffusion, Midjourney).
- Редактирование изображений.
- Генерация аудио.
Область использования: Генеративный AI, Computer Vision, обработка аудио.
Дообучение / Тонкая настройка (Fine-tuning)
Определение: Процесс дальнейшего обучения предварительно обученной модели (обычно на большом общем наборе данных) на меньшем, специфичном для задачи наборе данных. Это позволяет модели адаптироваться к новой задаче или домену, сохраняя при этом общие знания, полученные во время предварительного обучения.
Примеры использования:
- Дообучение большой языковой модели, такой как GPT-3, на корпусе медицинских текстов для создания чат-бота для здравоохранения.
- Дообучение предварительно обученной модели для классификации изображений (например, ResNet) на наборе данных, содержащем только изображения кошек и собак.
Область использования: Transfer Learning, NLP, Computer Vision, Generative AI.
Двунаправленные кодировщики из Трансформеров (BERT) (Bidirectional Encoder Representations from Transformers)
Определение: Революционная языковая модель, разработанная Google, которая использует архитектуру Transformer для предварительного обучения глубоких двунаправленных представлений из неразмеченного текста. BERT способен понимать контекст слова на основе всех других слов в предложении, а не только предшествующих.
Примеры использования:
- Вопросы и ответы: Использование BERT для понимания вопросов и извлечения ответов из текста.
- Классификация текста: Определение тональности или категории текста.
- Распознавание именованных сущностей (NER): Идентификация имен людей, организаций, мест и т.д. в тексте.
Область использования: NLP, обработка текста.
Изображение (Image)
Определение: Визуальная информация, представленная в цифровом виде (например, как массив пикселей). В контексте ИИ изображения являются основным типом данных для задач компьютерного зрения.
Примеры использования:
- Фотографии, рисунки, сканы документов.
- Входные данные для классификации, обнаружения объектов, сегментации.
Область использования: Computer Vision, Generative AI.
Искусственный интеллект (ИИ) (Artificial Intelligence / AI)
Определение: Широкая область информатики, посвященная созданию машин, способных имитировать человеческий интеллект, выполнять задачи, которые обычно требуют человеческого мышления, такие как обучение, рассуждение, решение проблем, восприятие и понимание языка.
Примеры использования:
- Автономные автомобили, медицинская диагностика, системы рекомендаций, голосовые помощники, распознавание лиц.
Область использования: Все сферы человеческой деятельности.
Интеллектуальное предположение (Intelligent Guess)
Определение: Предположение или догадка, основанная на имеющихся данных, знаниях или контексте, которая имеет под собой рациональное обоснование или вероятность быть правильной, в отличие от случайной догадки. В контексте ИИ это может означать вывод, сделанный моделью, даже если у нее нет полной уверенности, но есть достаточно сигналов для формирования обоснованного ответа.
Примеры использования:
- Когда языковая модель завершает предложение, основываясь на грамматике, семантике и общем смысле текста, даже если она "не знает" следующего слова наверняка, она делает **интеллектуальное предположение**.
- Система рекомендаций фильмов может предложить фильм, основываясь на вашем предыдущем просмотре и оценках, даже если у нее нет явных данных о ваших предпочтениях для этого конкретного фильма.
Область использования: Генеративный AI, NLP, рекомендательные системы, системы принятия решений.
Классификация (Classification)
Определение: Задача машинного обучения, при которой модель обучается на размеченных данных для присвоения входным данным одной или нескольких предопределенных категорий или классов.
Примеры использования:
- Классификация изображений (кошка/собака/машина).
- Классификация текста (позитивный/негативный отзыв).
- Определение типа заболевания на основе симптомов.
Область использования: Computer Vision, NLP, медицина, финансы, маркетинг.
Колбэк (Callback)
Определение: Функция, которая передается в другую функцию в качестве аргумента и вызывается (или "обратно вызывается") этой функцией в определенный момент времени или при наступлении определенного события во время выполнения процесса обучения модели.
Примеры использования:
- ModelCheckpoint: Колбэк, который сохраняет веса модели (или всю модель) в конце каждой эпохи, если производительность улучшилась.
- EarlyStopping: Колбэк, который останавливает обучение, если производительность на валидационном наборе данных перестает улучшаться в течение определенного количества эпох (терпение).
- ReduceLROnPlateau: Колбэк, который уменьшает скорость обучения, если метрика валидации перестает улучшаться.
Область использования: Обучение нейронных сетей, фреймворки глубокого обучения (TensorFlow, Keras, PyTorch).
Компьютерное зрение (Computer Vision)
Определение: Область искусственного интеллекта, которая позволяет компьютерам и системам получать, обрабатывать, анализировать и понимать визуальные данные (изображения и видео) так же, как это делает человеческое зрение.
Примеры использования:
- Распознавание лиц.
- Обнаружение объектов на изображениях и видео.
- Автономное вождение (распознавание дорожных знаков, пешеходов).
- Медицинская диагностика (анализ рентгеновских снимков, МРТ).
Область использования: Беспилотные автомобили, робототехника, медицина, безопасность, AR/VR, розничная торговля.
Контрастное предварительное обучение языка и изображения (CLIP) (Contrastive Language-Image Pre-training)
Определение: Мультимодальная модель, разработанная OpenAI, которая обучается на большом наборе данных изображений и текстовых описаний, чтобы сопоставлять их. CLIP может понимать визуальное содержимое, связывая его с естественным языком, что позволяет ему выполнять задачи с нулевым выстрелом (zero-shot) для классификации изображений или генерации подписей.
Примеры использования:
- Zero-shot классификация изображений: Классификация изображений по текстовым запросам, даже если эти классы не были представлены во время обучения.
- Поиск изображений по тексту: Поиск изображений, соответствующих текстовому описанию.
- Основа для генерации изображений: Использование CLIP для направления процесса генерации изображений (например, в DALL-E 2).
Область использования: Computer Vision, NLP, мультимодальный AI, генеративный AI.
Кросс-энтропийная функция потерь (Cross-Entropy Loss)
Определение: Функция потерь, часто используемая в задачах классификации, которая измеряет расхождение между предсказанным распределением вероятностей и истинным распределением (однократным кодированием). Чем больше разница, тем выше значение потерь.
Примеры использования:
- В задачах бинарной классификации используется бинарная кросс-энтропия (Binary Cross-Entropy Loss).
- В задачах многоклассовой классификации используется категориальная кросс-энтропия (Categorical Cross-Entropy Loss).
Область использования: Классификация (NLP, Computer Vision, общее машинное обучение).
Латентное пространство (Latent Space)
Определение: Многомерное векторное пространство, в которое модель кодирует или преобразует входные данные. Каждая точка в скрытом пространстве соответствует уникальному представлению входных данных. Оно позволяет модели изучать скрытые закономерности и связи в данных.
Примеры использования:
- В автокодировщике, кодировщик отображает входные данные в точку в скрытом пространстве.
- В генеративных моделях, таких как GANs или диффузионные модели, случайные векторы из скрытого пространства могут быть преобразованы в новые образцы данных (например, изображения).
Область использования: Генеративный AI, уменьшение размерности, обнаружение аномалий, представление данных.
Мамба (Mamba)
Определение: Новая архитектура глубокого обучения, которая представляет собой State Space Model (SSM) и призвана быть альтернативой Transformer-архитектуре, особенно для длинных последовательностей. Она фокусируется на эффективной обработке последовательных данных, предлагая линейную сложность по длине последовательности и возможность обработки контекста, что делает ее перспективной для длинных последовательностей в NLP и других областях.
Примеры использования:
- Обработка очень длинных текстов, где Transformer может столкнуться с вычислительными ограничениями.
- Генерация длинных последовательностей (текст, аудио).
Область использования: NLP, обработка последовательностей, аудио, видео.
Машинное обучение (Machine Learning)
Определение: Подраздел искусственного интеллекта, который предоставляет системам способность автоматически обучаться и улучшаться на основе опыта без явного программирования. Он фокусируется на разработке алгоритмов, которые могут анализировать данные, делать предсказания или принимать решения.
Примеры использования:
- Системы рекомендаций (Netflix, Amazon).
- Распознавание речи, спам-фильтры.
- Прогнозирование фондовых рынков.
Область использования: Все области ИИ, анализ данных, робототехника, финансы, медицина, маркетинг.
Машинный перевод (Machine Translation)
Определение: Задача NLP, которая заключается в автоматическом переводе текста или речи с одного естественного языка на другой с помощью компьютерной программы.
Примеры использования:
- Google Translate, DeepL.
- Перевод веб-страниц, документов, сообщений в реальном времени.
Область использования: NLP, международное общение, туризм.
Механизм внимания (Attention Mechanism)
Определение: Техника в нейронных сетях, которая позволяет модели динамически фокусироваться на наиболее релевантных частях входных данных при обработке последовательностей. Это помогает модели взвешивать важность различных элементов входных данных для принятия решения.
Примеры использования:
- В задачах машинного перевода, механизм внимания позволяет модели определить, на какие слова во входном предложении следует обратить внимание при генерации каждого слова в выходном предложении.
- В архитектуре Transformer, внимание является ключевым компонентом, позволяющим модели обрабатывать зависимости на больших расстояниях в последовательностях.
Область использования: NLP (особенно Transformer-модели), Computer Vision (например, Vision Transformers), обработка аудио, рекомендательные системы.
Метрики качества (Quality Metrics)
Определение: Количественные показатели, используемые для оценки производительности модели машинного обучения на различных задачах. Они позволяют понять, насколько хорошо модель выполняет свою цель.
Примеры использования:
- Для классификации: Точность (Accuracy), Полнота (Recall), Точность (Precision), F1-мера, AUC-ROC.
- Для регрессии: Среднеквадратичная ошибка (MSE), Средняя абсолютная ошибка (MAE), Коэффициент детерминации ($R^2$).
- Для генерации текста: BLEU, ROUGE.
- Для генерации изображений: FID (Fréchet Inception Distance), Inception Score.
Область использования: Обучение нейронных сетей, оценка моделей, все области машинного обучения.
Многоклассовая классификация (Multiclass Classification)
Определение: Тип задачи машинного обучения, при котором целью является предсказание одной из более чем двух возможных категорий или классов для данного входного объекта.
Примеры использования:
- Классификация изображений рукописных цифр от 0 до 9.
- Определение породы собаки на изображении.
- Классификация новостных статей по категориям (спорт, политика, экономика).
Область использования: Машинное обучение, NLP, Computer Vision.
Мультимодальный ИИ (Multimodal AI)
Определение: Область искусственного интеллекта, которая занимается моделями, способными обрабатывать и связывать информацию из нескольких типов данных или "модальностей" (например, текст, изображения, аудио, видео) одновременно.
Примеры использования:
- CLIP, который связывает текст и изображения.
- Системы, которые могут генерировать видео по текстовому описанию.
- Чат-боты, которые могут понимать голосовые команды и отвечать текстом или изображениями.
Область использования: Генеративный AI, робототехника, AR/VR, интерактивные системы, Computer Vision, NLP, обработка аудио.
Нейронная сеть (Neural Network)
Определение: Вычислительная модель, вдохновленная структурой и функционированием биологического мозга. Состоит из взаимосвязанных узлов (нейронов), организованных в слои. Каждый нейрон принимает входные данные, обрабатывает их и передает результат следующим нейронам. Нейронные сети способны обучаться сложным закономерностям в данных.
Примеры использования:
- Распознавание образов, классификация данных, прогнозирование.
Область использования: Основа глубокого обучения, применяется во всех областях ИИ.
Обработка естественного языка (ОЕЯ / NLP) (Natural Language Processing)
Определение: Область искусственного интеллекта, которая занимается взаимодействием между компьютерами и человеческим (естественным) языком, фокусируясь на том, чтобы дать компьютерам возможность понимать, интерпретировать, генерировать и манипулировать человеческим языком.
Примеры использования:
- Машинный перевод (Google Translate).
- Анализ тональности (определение эмоциональной окраски текста).
- Чат-боты и виртуальные ассистенты (Siri, Alexa, ChatGPT).
- Суммирование текста, распознавание речи.
Область использования: Поиск информации, автоматизация, здравоохранение, финансы, образование.
Обработка аудио (Audio Processing)
Определение: Область, связанная с анализом, синтезом и манипуляцией звуковыми данными с использованием методов ИИ и машинного обучения.
Примеры использования:
- Распознавание речи (Speech Recognition).
- Генерация речи (Text-to-Speech).
- Классификация звуков (определение шума, музыки, голоса).
- Музыкальная генерация, шумоподавление.
Область использования: Голосовые помощники, музыкальная индустрия, безопасность (аудиомониторинг), медицина (анализ голоса для диагностики).
Обработка видео (Video Processing)
Определение: Процесс анализа, манипуляции и улучшения видеоданных с использованием компьютерных алгоритмов, часто включающий методы компьютерного зрения и глубокого обучения.
Примеры использования:
- Отслеживание объектов в видео.
- Сегментация видео (выделение движущихся объектов).
- Улучшение качества видео (повышение разрешения, стабилизация).
- Анализ активности в реальном времени.
Область использования: Безопасность, развлечения, спорт, медицина, автономные системы.
Обратное распространение ошибки (Backpropagation)
Определение: Алгоритм, используемый для эффективного обучения нейронных сетей путем вычисления градиентов функции потерь по отношению к весам сети. Он распространяет ошибку от выходного слоя обратно к входному слою, позволяя корректировать веса.
Примеры использования:
- Основной алгоритм обучения для большинства нейронных сетей, от многослойных перцептронов до сверточных и рекуррентных сетей.
Область использования: Обучение нейронных сетей, глубокое обучение.
Обучение без учителя (Unsupervised Learning)
Определение: Тип машинного обучения, при котором алгоритм обучается на неразмеченных данных, то есть без заранее определенных выходных меток. Цель состоит в том, чтобы найти скрытые закономерности, структуры или представления в данных.
Примеры использования:
- Кластеризация (группировка похожих точек данных).
- Уменьшение размерности (снижение количества переменных в данных при сохранении важной информации).
- Обнаружение аномалий.
Область использования: Анализ данных, рекомендательные системы, генеративные модели, обнаружение аномалий.
Обучение с подкреплением (Reinforcement Learning)
Определение: Область машинного обучения, где агент учится принимать решения в среде, чтобы максимизировать кумулятивное вознаграждение. Агент не получает прямых указаний, а учится методом проб и ошибок, взаимодействуя со средой.
Примеры использования:
- Обучение игровых ИИ (например, AlphaGo, шахматы).
- Робототехника (обучение роботов выполнять задачи).
- Управление ресурсами, автономные системы.
Область использования: Игровой ИИ, робототехника, автономные системы, оптимизация.
Обучение с подкреплением на основе обратной связи от человека (RLHF) (Reinforcement Learning from Human Feedback)
Определение: Метод обучения моделей искусственного интеллекта (особенно больших языковых моделей), при котором модель обучается с использованием человеческих предпочтений в качестве сигнала обратной связи. Люди оценивают качество ответов модели, и эти оценки используются для обучения модели вознаграждения, которая затем используется для тонкой настройки модели через обучение с подкреплением.
Примеры использования:
- Использование RLHF для улучшения способности чат-бота давать полезные, безопасные и этичные ответы.
- Настройка моделей генерации текста для получения более релевантных и связных результатов.
Область использования: Генеративный AI, NLP, большие языковые модели (LLM), этика AI, обучение с подкреплением.
Обучение с учителем (Supervised Learning)
Определение: Парадокс машинного обучения, при котором алгоритм обучается на размеченных данных (входные данные и соответствующие им желаемые выходные данные). Цель состоит в том, чтобы модель научилась сопоставлять входные данные с правильными выходными данными и затем могла делать точные предсказания на новых, невидимых данных.
Примеры использования:
- Классификация изображений (предсказание, что на изображении кошка или собака).
- Прогнозирование цен на жилье (предсказание числового значения).
- Распознавание спама в электронной почте.
Область использования: Классификация, регрессия, большинство практических задач машинного обучения.
Обнаружение объектов (Object Detection)
Определение: Задача компьютерного зрения, которая включает не только идентификацию объектов на изображении или видео, но и определение их точного местоположения путем рисования ограничивающих рамок вокруг каждого обнаруженного объекта.
Примеры использования:
- Обнаружение пешеходов и автомобилей для беспилотных автомобилей.
- Подсчет товаров на полке магазина.
- Идентификация лиц на фотографии.
Область использования: Computer Vision, автономные системы, робототехника, безопасность, розничная торговля.
Пакетная нормализация (Batch Normalization)
Определение: Техника, используемая для стабилизации обучения глубоких нейронных сетей путем нормализации входных данных каждого слоя до среднего значения 0 и дисперсии 1. Это помогает бороться с проблемой сдвига внутренних ковариат (internal covariate shift), позволяя использовать более высокие скорости обучения и ускоряя сходимость.
Примеры использования:
- Применение слоя пакетной нормализации после сверточных или полносвязных слоев в архитектуре нейронной сети.
Область использования: Глубокое обучение, Computer Vision, NLP.
Переобучение (Overfitting)
Определение: Явление в машинном обучении, когда модель слишком хорошо обучается на обучающем наборе данных, захватывая шум и специфические особенности, которые не являются обобщающими для новых, невидимых данных. Это приводит к плохой производительности модели на тестовых данных.
Примеры использования:
- Модель идеально классифицирует все изображения из обучающего набора, но совершает много ошибок на новых изображениях.
- При построении графика потерь, потери на обучающем наборе продолжают снижаться, в то время как потери на валидационном наборе начинают расти.
Область использования: Машинное обучение, глубокое обучение.
Перенос обучения (Transfer Learning)
Определение: Методика машинного обучения, при которой модель, предварительно обученная на одной задаче (обычно на большом общем наборе данных), используется в качестве отправной точки для решения другой, но связанной задачи. Вместо обучения модели "с нуля", используются уже изученные веса и признаки, что позволяет достичь лучшей производительности с меньшим количеством данных и вычислительных ресурсов.
Примеры использования:
- Использование предварительно обученной CNN (например, ResNet, VGG) для классификации новых изображений с небольшим количеством специфических данных.
- Дообучение большой языковой модели на специфическом домене.
Область использования: Машинное обучение, глубокое обучение, Computer Vision, NLP.
Промпт-инжиниринг (Prompt Engineering)
Определение: Искусство и наука создания оптимальных "подсказок" или "запросов" (prompts) для моделей искусственного интеллекта, особенно для больших языковых моделей, чтобы получить от них желаемый и высококачественный результат. Это включает формулирование запросов, предоставление контекста и примеров.
Примеры использования:
- "Напиши стихотворение о закате в стиле Хайку."
- "Сгенерируй изображение сюрреалистичного кота, играющего на пианино, в стиле Сальвадора Дали."
- "Переведи следующий текст на испанский, сохраняя официальный тон: [текст]."
Область использования: Генеративный AI, большие языковые модели (LLM), NLP, Computer Vision (Text-to-Image).
Распознавание речи (Speech Recognition)
Определение: Технология, которая преобразует человеческую речь в текстовый формат. Это позволяет компьютерам "понимать" устную речь.
Примеры использования:
- Голосовые помощники (Siri, Google Assistant, Alexa).
- Транскрибация аудиозаписей.
- Голосовое управление устройствами.
Область использования: NLP, обработка аудио, пользовательские интерфейсы, колл-центры.
Регрессия (Regression)
Определение: Задача машинного обучения, при которой модель обучается предсказывать непрерывное числовое значение на основе входных данных, а не категориальный класс.
Примеры использования:
- Прогнозирование цен на жилье на основе характеристик дома.
- Предсказание температуры воздуха в зависимости от времени суток.
- Прогнозирование продаж продукта.
Область использования: Финансы, экономика, метеорология, инженерия, бизнес-аналитика.
Рекуррентная нейронная сеть (РНН / RNN) (Recurrent Neural Network)
Определение: Тип нейронной сети, специально разработанный для обработки последовательных данных, таких как текст или временные ряды. РНН имеют "память", что позволяет им использовать информацию из предыдущих шагов последовательности при обработке текущего шага.
Примеры использования:
- Прогнозирование следующего слова в предложении.
- Машинный перевод.
- Анализ временных рядов (например, прогнозирование цен акций).
Область использования: NLP, обработка аудио, временные ряды, предсказание.
Ретнет (RetNet) (Retention Network)
Определение: Новая архитектура глубокого обучения, разработанная Microsoft, которая является альтернативой Transformer для последовательных данных. RetNet использует механизм "удержания" (retention) для эффективного моделирования длинных зависимостей, предлагая преимущества в параллелизации обучения, скорости инференса и потребляемой памяти по сравнению с Transformer, особенно для очень длинных последовательностей.
Примеры использования:
- Обработка длинных текстов в NLP.
- Генерация последовательностей в реальном времени.
Область использования: NLP, обработка последовательностей, большие языковые модели (LLM).
Само-внимание (Self-Attention)
Определение: Механизм внимания, который позволяет модели взвешивать важность различных частей одной и той же входной последовательности при обработке каждого элемента этой последовательности. Каждый элемент входной последовательности взаимодействует со всеми другими элементами, что позволяет модели захватывать глобальные зависимости независимо от расстояния между ними.
Примеры использования:
- Ключевой компонент архитектуры Transformer, используемый в каждом слое как для кодировщика, так и для декодировщика.
- В задачах обработки текста, позволяет слову "bank" понять, относится ли оно к финансовому учреждению или берегу реки, анализируя другие слова в предложении.
Область использования: NLP (Transformer-модели), Computer Vision (Vision Transformers), обработка последовательностей.
Сверточная нейронная сеть (СНС / CNN) (Convolutional Neural Network)
Определение: Класс глубоких нейронных сетей, специально разработанных для обработки данных, имеющих сеточную структуру, таких как изображения. Они используют слои свертки, пулинга и полносвязные слои для автоматического извлечения признаков из входных данных.
Примеры использования:
- Классификация изображений (распознавание кошек, собак, людей).
- Обнаружение объектов (определение местоположения объектов на изображении).
- Сегментация изображений (разметка каждого пикселя изображения по принадлежности к определенному объекту).
- Обработка видео, медицинская визуализация.
Область использования: Computer Vision, обработка видео, обработка аудио, рекомендательные системы.
Сегментация изображений (Image Segmentation)
Определение: Задача компьютерного зрения, при которой изображение делится на несколько сегментов или областей (на уровне пикселей), каждый из которых соответствует определенному объекту или части объекта. Это более детализировано, чем обнаружение объектов.
Примеры использования:
- Выделение опухолей на медицинских снимках.
- Разделение переднего плана и фона в видеоконференциях.
- Создание масок для редактирования изображений.
Область использования: Computer Vision, медицина, автономные автомобили, AR/VR, фото/видео редактирование.
Синтетические данные (Synthetic Data)
Определение: Искусственно сгенерированные данные, которые имитируют статистические свойства реальных данных, но не содержат никакой информации из оригинальных реальных данных. Они могут быть созданы алгоритмами машинного обучения и используются для увеличения объема обучающих данных, защиты конфиденциальности или тестирования систем.
Примеры использования:
- Генерация синтетических изображений лиц для обучения системы распознавания лиц, чтобы избежать использования реальных данных о людях.
- Создание синтетических финансовых транзакций для тестирования систем обнаружения мошенничества без использования конфиденциальных данных клиентов.
- Использование синтетических данных для обучения автономных транспортных средств в условиях, которые трудно или опасно воспроизвести в реальном мире.
Область использования: Машинное обучение, глубокое обучение, безопасность AI, приватность данных, компьютерное зрение, NLP.
Смещение (Bias)
Определение:
- В контексте нейронных сетей: Дополнительный параметр в нейроне, который добавляется к взвешенной сумме входных данных перед применением функции активации. Он позволяет сдвигать выходное значение функции активации без изменения входных данных.
- В контексте машинного обучения: Систематическая ошибка в предсказаниях модели, которая приводит к тому, что модель постоянно отклоняется от истинного значения в одном направлении (например, всегда занижает или завышает).
- В контексте данных: Неравномерное или предвзятое представление определенных групп или характеристик в обучающих данных, что может привести к несправедливым или некорректным предсказаниям модели.
Примеры использования:
- Bias в нейронной сети: Уравнение нейрона может быть $y = f(\sum(w_i x_i) + b)$, где $b$ - это смещение.
- Смещение модели: Модель, обученная на данных, где преобладают мужчины, может плохо работать при предсказании для женщин (смещение по полу).
- Смещение данных: Обучающий набор данных для распознавания лиц, содержащий в основном фотографии людей светлой кожи, может привести к тому, что модель будет хуже распознавать людей с темной кожей.
Область использования: Нейронные сети, машинное обучение, этика AI, Computer Vision, NLP.
Словарь (Vocabulary / Dictionary)
Определение: В NLP, это набор всех уникальных слов или токенов, которые встречаются в обучающем корпусе текста. Каждому слову в словаре присваивается уникальный числовой идентификатор.
Примеры использования:
- Для обучения языковой модели сначала создается **словарь** из всех уникальных слов в обучающем тексте.
- При обработке нового текста, слова, не входящие в **словарь**, могут быть помечены как "неизвестные" (UNK).
Область использования: NLP, обработка текста, токенизация.
Скрытое пространство (Latent Space)
Определение: Многомерное векторное пространство, в которое модель кодирует или преобразует входные данные. Каждая точка в скрытом пространстве соответствует уникальному представлению входных данных. Оно позволяет модели изучать скрытые закономерности и связи в данных.
Примеры использования:
- В автокодировщике, кодировщик отображает входные данные в точку в скрытом пространстве.
- В генеративных моделях, таких как GANs или диффузионные модели, случайные векторы из скрытого пространства могут быть преобразованы в новые образцы данных (например, изображения).
Область использования: Генеративный AI, уменьшение размерности, обнаружение аномалий, представление данных.
Суммирование текста (Text Summarization)
Определение: Задача NLP, при которой модель генерирует более короткое, связное и информативное резюме из более длинного текстового документа, сохраняя при этом ключевую информацию и смысл оригинала.
Примеры использования:
- Создание краткого изложения новостных статей.
- Генерация рефератов научных работ.
- Суммирование длинных электронных писем или переписок.
Область использования: NLP, обработка текста, информационный поиск.
Сценарий использования (Use Case)
Определение: Конкретная ситуация или задача, в которой система или модель искусственного интеллекта применяется для достижения определенной цели или решения проблемы.
Примеры использования:
- "Одним из **сценариев использования** компьютерного зрения является автоматическое распознавание дефектов на производственной линии."
- "Чат-боты — это популярный **сценарий использования** больших языковых моделей для обслуживания клиентов."
Область использования: Разработка ИИ-систем, бизнес-анализ, проектирование решений.
Температура (Temperature)
Определение: Гиперпараметр, используемый в моделях генерации текста (особенно в больших языковых моделях), который контролирует случайность или креативность сгенерированного вывода.
- Низкая температура (близко к 0): Делает выход более детерминированным и предсказуемым, модель будет выбирать наиболее вероятные токены.
- Высокая температура (больше 1): Увеличивает случайность, делая выход более разнообразным и креативным, позволяя модели выбирать менее вероятные, но потенциально интересные токены.
Примеры использования:
- При генерации фактической информации или кода, устанавливается низкая **температура** (например, 0.1-0.5) для обеспечения точности.
- При написании креативного текста или мозговом штурме, может быть установлена более высокая **температура** (например, 0.7-1.0) для получения более разнообразных идей.
Область использования: Генеративный AI, NLP, большие языковые модели (LLM), Text-to-Image.
Тензор (Tensor)
Определение: Фундаментальная структура данных в глубоком обучении, представляющая собой многомерный массив. Тензоры используются для представления всех типов данных (изображения, текст, аудио) и всех параметров (веса, смещения) в нейронной сети.
Примеры использования:
- Изображение может быть представлено как 3D-тензор (высота x ширина x каналы цвета).
- Пакет текстов может быть представлен как 2D-тензор (количество примеров x длина последовательности).
- Веса нейронной сети хранятся в тензорах.
Область использования: Глубокое обучение, машинное обучение, вычислительные фреймворки (TensorFlow, PyTorch).
Текст (Text)
Определение: Последовательность символов, слов или предложений на естественном языке. В контексте ИИ текст является основным типом данных для задач обработки естественного языка.
Примеры использования:
- Документы, статьи, электронные письма, сообщения в чатах.
- Входные данные для классификации, перевода, генерации.
Область использования: NLP, Generative AI.
Текст в изображение (Text-to-Image)
Определение: Область генеративного ИИ, где модель способна генерировать изображения из текстовых описаний или "подсказок". Модели учатся понимать взаимосвязь между словами и визуальными концепциями, чтобы создавать соответствующие изображения.
Примеры использования:
- Генерация изображения "астронавта, скачущего на лошади в стиле поп-арт".
- Создание концепт-арта для дизайнеров или художников.
- Визуализация идей без необходимости вручную рисовать или искать изображения.
Область использования: Генеративный AI, Computer Vision, дизайн, искусство, реклама.
Токен (Token)
Определение: Базовая единица текста, которая обрабатывается языковой моделью. Токены могут быть словами, частями слов, символами или даже целыми предложениями, в зависимости от метода токенизации.
Примеры использования:
- В предложении "Я люблю AI" токенами могут быть "Я", "люблю", "AI".
- Большие языковые модели обучаются на миллиардах токенов.
Область использования: NLP, большие языковые модели (LLM), обработка текста.
Трансформер (Transformer)
Определение: Революционная архитектура нейронной сети, представленная в 2017 году, которая полностью опирается на механизм внимания (особенно self-attention) и отказывается от рекуррентных и сверточных слоев. Transformer-модели способны эффективно обрабатывать длинные последовательности, захватывать глобальные зависимости и допускают высокую степень параллелизации, что делает их очень мощными для задач с последовательными данными.
Примеры использования:
- Большие языковые модели (BERT, GPT, T5).
- Машинный перевод, суммирование текста.
- Vision Transformers (ViT) для компьютерного зрения.
Область использования: NLP (доминирующая архитектура), Computer Vision, обработка аудио, обработка последовательностей.
Функция активации (Activation Function)
Определение: Математическая функция, применяемая к выходным данным нейрона в нейронной сети, которая определяет, должен ли нейрон "активироваться" (передать сигнал) и с какой интенсивностью. Она вводит нелинейность в модель, что позволяет нейронной сети изучать сложные закономерности.
Примеры использования:
- ReLU (Rectified Linear Unit): $f(x) = \max(0, x)$. Одна из самых популярных функций активации, простая и эффективная, помогает решить проблему исчезающего градиента.
- Sigmoid (Сигмоида): $f(x) = 1 / (1 + e^{-x})$. Используется для задач бинарной классификации, так как ее выход находится в диапазоне от 0 до 1.
- Softmax: Часто используется в выходном слое для многоклассовой классификации, преобразуя вектор чисел в распределение вероятностей.
Область использования: Общее машинное обучение, глубокое обучение, нейронные сети (NLP, Computer Vision, Generative AI).
Эпоха (Epoch)
Определение: Один полный проход всего обучающего набора данных через алгоритм обучения нейронной сети (т.е. один полный цикл прямого распространения и обратного распространения ошибки). В течение одной эпохи модель видит каждый пример из обучающего набора ровно один раз.
Примеры использования:
- "Модель обучалась в течение 100 **эпох**."
- Если обучающий набор данных состоит из 1000 изображений и размер пакета (batch size) равен 100, то в одной эпохе будет 10 итераций (1000 / 100).
Область использования: Обучение нейронных сетей, глубокое обучение.
Этика ИИ (AI Ethics)
Определение: Область исследований, которая изучает моральные и этические вопросы, возникающие при разработке, развертывании и использовании систем искусственного интеллекта. Фокусируется на справедливости, прозрачности, подотчетности, приватности и предотвращении вреда.
Примеры использования:
- Разработка этических принципов для автономных систем.
- Изучение и минимизация смещений в алгоритмах распознавания лиц.
- Обеспечение прозрачности в принятии решений ИИ в критически важных областях (например, медицина, юриспруденция).
Область использования: Все области ИИ, безопасность AI, социология, философия.
Обучение с нулевым выстрелом (Zero-shot Learning)
Определение: Способность модели ИИ выполнять задачу или распознавать классы, которые она никогда не видела во время обучения. Модель полагается на предварительные знания или информацию о классах (например, текстовые описания), чтобы сделать предсказание для совершенно новых категорий.
Примеры использования:
- Классификация изображений нового вида животного, который не был представлен в обучающем наборе, но о котором модель имеет текстовое описание.
- Языковая модель отвечает на вопрос о концепции, о которой она не была явно обучена, но которую может вывести из своих обширных знаний.
Область использования: Computer Vision, NLP, мультимодальный AI, генеративный AI.