В следующий раз, когда вы будете обсуждать ИИ за ужином или в баре, эти термины помогут вам блеснуть эрудицией.

Искусственный интеллект (ИИ) стал частью нашей повседневной жизни.
Искусственный интеллект (ИИ) стал частью нашей повседневной жизни. От невероятной популярности ChatGPT до коротких ИИ-сводок, которые Google теперь показывает вверху поисковой выдачи, — ИИ стремительно захватывает интернет. С его помощью можно получить мгновенные ответы практически на любой вопрос. Это как будто разговариваешь с человеком, у которого есть докторская степень по всем наукам сразу.
Но общение с чат-ботами — это лишь одна сторона медали. Конечно, здорово, когда ChatGPT помогает делать домашнее задание или когда Midjourney создаёт завораживающие изображения роботов в стилистике разных стран. Однако потенциал генеративного ИИ может полностью перестроить целые экономики. По оценкам McKinsey Global Institute, это может приносить мировой экономике до 4,4 триллиона долларов ежегодно, и именно поэтому мы будем слышать об искусственном интеллекте всё чаще.
ИИ появляется в головокружительном множестве продуктов — вот лишь краткий список: Google Gemini, Microsoft Copilot, Anthropic Claude и Perplexity. Новости, обзоры и обучающие статьи об этих и других продуктах вы всегда можете найти на авторитетных технологических ресурсах.
По мере того как люди привыкают к миру, тесно связанному с ИИ, повсюду появляются новые термины. Так что, если вы хотите блеснуть знаниями в компании друзей или произвести впечатление на собеседовании, вот несколько важных терминов из мира ИИ, которые стоит знать.
Этот глоссарий регулярно обновляется.
artificial general intelligence, or AGI (общий искусственный интеллект, или ОИИ): Это концепция продвинутой версии ИИ, которая пока не существует. Предполагается, что такой интеллект сможет выполнять любые задачи намного лучше человека, а также самостоятельно учиться и совершенствовать себя.
agentive (агентивный): Так говорят о системах или моделях, которые могут действовать самостоятельно для достижения цели, без постоянного контроля со стороны человека. Представьте себе полностью автономный автомобиль — это хороший пример агентивной системы. Она сама принимает решения, чтобы довезти вас из точки А в точку Б.
AI ethics (этика ИИ): Набор принципов, призванных не допустить, чтобы ИИ причинил вред людям. Эти принципы определяют, например, как системы должны собирать данные или как бороться с предвзятостью.
AI safety (безопасность ИИ): Область исследований, изучающая долгосрочные риски, связанные с ИИ. Главный вопрос — как предотвратить внезапное появление сверхинтеллекта, который может оказаться враждебным к человечеству.
algorithm (алгоритм): Набор инструкций, который позволяет компьютерной программе анализировать данные определённым образом, например, находить в них закономерности, чтобы затем учиться на них и самостоятельно выполнять задачи.
alignment (настройка, или выравнивание): Процесс «тонкой настройки» ИИ, чтобы он лучше выдавал желаемый результат. Это может включать в себя что угодно: от модерации контента до поддержания дружелюбного тона в общении с людьми.
anthropomorphism (антропоморфизм): Наша человеческая склонность приписывать неодушевлённым объектам человеческие черты. В контексте ИИ это может проявляться в вере, что чат-бот более «человечен», чем есть на самом деле, — например, что он может радоваться, грустить или даже обладает сознанием.
artificial intelligence, or AI (искусственный интеллект, или ИИ): Использование технологий для имитации человеческого разума в компьютерных программах или роботах. Это целая область в информатике, цель которой — создавать системы, способные выполнять задачи, как человек.
autonomous agents (автономные агенты): Модель ИИ, у которой есть все необходимые возможности, программы и инструменты для выполнения конкретной задачи. Например, беспилотный автомобиль — это автономный агент, потому что у него есть датчики, GPS и алгоритмы вождения, чтобы самостоятельно двигаться по дороге.
bias (предвзятость, или систематическая ошибка): Ошибки в работе языковых моделей, возникающие из-за данных, на которых они обучались. Это может приводить к тому, что модель будет ошибочно приписывать определённые характеристики разным расам или группам людей на основе стереотипов.
chatbot (чат-бот): Компьютерная программа, которая общается с людьми с помощью текста, имитируя человеческую речь.
ChatGPT (чат-джипити): Популярный чат-бот от компании OpenAI, работающий на основе технологии больших языковых моделей.
cognitive computing (когнитивные вычисления): Другое название для искусственного интеллекта.
data augmentation (аугментация данных): Процесс «размножения» существующих данных или добавления более разнообразной информации для улучшения обучения ИИ.
dataset (набор данных, или датасет): Коллекция цифровой информации (текстов, изображений, звуков), которая используется для обучения, тестирования и проверки модели ИИ.
deep learning (глубокое обучение): Метод искусственного интеллекта и подраздел машинного обучения. Он использует множество слоёв для распознавания сложных закономерностей в изображениях, звуке и тексте. Этот процесс вдохновлён работой человеческого мозга и использует искусственные нейронные сети. Подробнее можно почитать в статье на Хабре.
diffusion (диффузия): Метод машинного обучения, при котором берётся существующий объект (например, фотография) и к нему добавляется случайный «шум». Диффузионные модели обучаются восстанавливать исходное изображение из этого «зашумлённого» варианта. Именно так работают многие генераторы изображений.
emergent behavior (эмерджентное поведение): Ситуация, когда модель ИИ демонстрирует способности, которые не были заложены в неё изначально.
end-to-end learning, or E2E (сквозное обучение): Процесс глубокого обучения, при котором модель получает инструкцию выполнить задачу от начала и до конца целиком. Она не обучается выполнять шаги по порядку, а вместо этого учится на входных данных и решает задачу за один проход.
ethical considerations (этические соображения): Понимание этических последствий развития ИИ, включая вопросы конфиденциальности, использования данных, справедливости, злоупотреблений и других проблем безопасности.
foom (фум): Также известно как «быстрый взлёт». Это гипотеза о том, что если кто-то создаст настоящий общий ИИ (AGI), то спасать человечество может быть уже слишком поздно, так как его развитие будет молниеносным.
generative adversarial networks, or GANs (генеративно-состязательные сети): Модель генеративного ИИ, состоящая из двух нейросетей: генератора и дискриминатора. Генератор создаёт новый контент (например, изображение), а дискриминатор проверяет, выглядит ли он настоящим. Они как бы соревнуются, что позволяет создавать очень реалистичный контент.
generative AI (генеративный ИИ): Технология, которая использует ИИ для создания нового контента: текста, видео, программного кода или изображений. ИИ обучается на огромных объёмах данных, находит в них закономерности и на их основе генерирует свои уникальные ответы.
Google Gemini (гугл джемини): Чат-бот от Google, который работает похоже на ChatGPT, но может получать информацию из интернета в реальном времени.
guardrails (ограничители, или «защитные ограждения»): Правила и ограничения, установленные для моделей ИИ, чтобы гарантировать, что данные обрабатываются ответственно, а модель не создаёт неприемлемый или опасный контент.
hallucination (галлюцинация): Так называют ошибку, когда нейросеть выдает неверную информацию, но подает ее с полной уверенностью, как будто это факт. Например, если спросить чат-бота, когда да Винчи нарисовал «Мону Лизу», он может уверенно ответить, что в 1815 году (хотя на самом деле это произошло на 300 лет раньше).
inference (логический вывод): Процесс, который модель ИИ использует для генерации текста, изображений и другого контента в ответ на новые данные, делая выводы на основе своих обучающих данных.
large language model, or LLM (большая языковая модель, или БЯМ): Модель ИИ, обученная на огромных объёмах текстовых данных, чтобы понимать человеческий язык и генерировать новый, уникальный контент.
latency (задержка): Время, которое проходит с момента, когда система ИИ получает запрос (промпт), до момента, когда она выдаёт ответ.
machine learning, or ML (машинное обучение): Важная часть ИИ, которая позволяет компьютерам учиться и делать более точные прогнозы без прямого программирования.
Microsoft Copilot (майкрософт копайлот): Поисковая система от Microsoft, которая использует технологию, лежащую в основе ChatGPT, для предоставления ответов, сгенерированных ИИ. Как и Google Gemini, она подключена к интернету.
multimodal AI (мультимодальный ИИ): Тип ИИ, который может обрабатывать несколько видов входных данных одновременно, включая текст, изображения, видео и речь.
natural language processing (обработка естественного языка): Раздел ИИ, который с помощью машинного и глубокого обучения даёт компьютерам способность понимать человеческий язык.
neural network (нейронная сеть): Вычислительная модель, которая по своей структуре напоминает человеческий мозг и предназначена для распознавания закономерностей в данных. Она состоит из взаимосвязанных узлов, или «нейронов».
overfitting (переобучение): Ошибка в машинном обучении, когда модель слишком хорошо «заучивает» обучающие данные. В результате она отлично работает с примерами, которые уже видела, но не может справиться с новыми, незнакомыми данными.
paperclips (скрепки): Мысленный эксперимент, предложенный философом Ником Бостромом. Представьте, что вы дали ИИ простую цель: произвести как можно больше канцелярских скрепок. В своём стремлении к цели ИИ может гипотетически начать превращать в скрепки всё вокруг, включая ресурсы, нужные людям, и в конечном счёте — само человечество. Это иллюстрация того, как узко поставленная цель может привести к катастрофическим последствиям.
parameters (параметры): Числовые значения, которые определяют структуру и поведение языковой модели, позволяя ей делать предсказания. Чем больше параметров, тем сложнее и «умнее» модель.
Perplexity (перплексити): Название ИИ-поисковика, который использует большие языковые модели для предоставления точных ответов со ссылками на источники в интернете.
prompt (промпт, или запрос): Вопрос или инструкция, которые вы вводите в чат-бот, чтобы получить от него ответ.
prompt chaining (цепочка запросов): Способность ИИ использовать информацию из предыдущих взаимодействий для формирования ответов в текущем диалоге.
quantization (квантование): Процесс, который делает большую языковую модель меньше и эффективнее (хотя и немного менее точной) за счёт снижения точности её вычислений. Это можно сравнить с уменьшением разрешения фотографии с 16 до 8 мегапикселей: оба изображения чёткие, но у первого больше деталей при увеличении.
stochastic parrot (стохастический попугай): Аналогия, которая описывает большие языковые модели. Она подчёркивает, что программа, подобно попугаю, может лишь имитировать человеческую речь, не понимая её истинного смысла, как бы убедительно ни звучали её ответы.
style transfer (перенос стиля): Способность ИИ адаптировать стиль одного изображения к содержанию другого. Например, можно взять автопортрет Рембрандта и «перерисовать» его в стиле Пикассо.
temperature (температура): Параметр, который контролирует степень случайности и «креативности» ответов языковой модели. Чем выше «температура», тем больше рисков и неожиданных идей в ответе модели.
text-to-image generation (генерация изображений по тексту): Процесс создания изображений на основе текстовых описаний (промптов).
tokens (токены): Небольшие фрагменты текста (слоги, слова или части слов), на которые ИИ-модель разбивает ваш запрос, чтобы его обработать и сформулировать ответ. Для английского языка один токен — это примерно 4 символа или ¾ слова.
training data (обучающие данные): Наборы данных (тексты, изображения, код), которые используются для «тренировки» моделей ИИ.
transformer model (трансформер): Архитектура нейронной сети, которая научилась понимать контекст, отслеживая связи между данными, например, между словами в предложении. Вместо того чтобы анализировать предложение слово за словом, она смотрит на него целиком.
Turing test (тест Тьюринга): Назван в честь знаменитого математика Алана Тьюринга. Это тест на способность машины вести себя как человек. Машина проходит тест, если человек, общаясь с ней, не может отличить её ответы от ответов другого человека.
unsupervised learning (обучение без учителя): Вид машинного обучения, при котором модели не предоставляют размеченные данные. Вместо этого модель должна сама находить скрытые закономерности и структуру в информации.
weak AI, aka narrow AI (слабый ИИ, или узкий ИИ): Искусственный интеллект, который сфокусирован на выполнении одной конкретной задачи и не может научиться чему-то за пределами своего «профиля». Большинство современных ИИ относятся именно к этому типу.
zero-shot learning (обучение с нулевым примером): Тест, в котором модель должна выполнить задачу, не имея для этого специальных обучающих данных. Например, распознать льва, если её обучали только на тиграх.