Перейти к содержимому

Краткая история ИИ: как мы к этому пришли и куда идем

  • автор:

Учитывая нынешнюю шумиху вокруг искусственного интеллекта (ИИ), было бы легко предположить, что это недавнее новшество. На самом деле ИИ существует в той или иной форме уже более 70 лет. Чтобы понять нынешнее поколение инструментов ИИ и то, куда они могут привести, полезно понять, как мы к этому пришли.

Каждое поколение инструментов ИИ можно рассматривать как улучшение предыдущих, но ни один из инструментов не направлен на сознание.

Математик и пионер вычислительной техники Алан Тьюринг опубликовал статью в 1950 году со следующим вступительным предложением: «Я предлагаю рассмотреть вопрос: «Могут ли машины мыслить?»». Далее он предлагает так называемую имитационную игру, теперь обычно называемую тестом Тьюринга, в которой машина считается разумной, если ее нельзя отличить от человека в слепом разговоре.

Пять лет спустя впервые было опубликовано использование фразы «искусственный интеллект» в предложении для Дартмутского летнего исследовательского проекта по искусственному интеллекту.

С тех ранних зародышей, с 1960-х годов развивалась ветвь ИИ, которая стала известна как экспертные системы. Эти системы были разработаны для захвата человеческого опыта в специализированных областях. Они использовали явные представления знаний и, следовательно, являются примером того, что называется символическим ИИ.

Было много хорошо известных ранних успехов, включая системы для идентификации органических молекул, диагностики инфекций крови и разведки полезных ископаемых. Одним из самых ярких примеров была система под названием R1, которая в 1982 году, как сообщается, экономила Digital Equipment Corporation 25 миллионов долларов США в год за счет разработки эффективных конфигураций ее миникомпьютерных систем.

Главное преимущество экспертных систем заключалось в том, что специалист по предметной области без каких-либо знаний в области кодирования мог, в принципе, создавать и поддерживать базу знаний компьютера. Затем программный компонент, известный как механизм вывода, применял эти знания для решения новых задач в предметной области, а след доказательств предоставлял форму объяснения.

Они были в моде в 1980-х годах, когда организации требовали создания собственных экспертных систем, и они остаются полезной частью ИИ сегодня.

Входит машинное обучение

Человеческий мозг содержит около 100 миллиардов нервных клеток, или нейронов, соединенных между собой дендритной (ветвящейся) структурой. Таким образом, в то время как экспертные системы были направлены на моделирование человеческих знаний, также появилась отдельная область, известная как коннекционизм, которая была направлена ​​на моделирование человеческого мозга более буквальным образом. В 1943 году два исследователя, Уоррен Маккалок и Уолтер Питтс, создали математическую модель для нейронов, в которой каждый из них производил двоичный выход в зависимости от своих входов.

Одна из самых ранних компьютерных реализаций связанных нейронов была разработана Бернардом Уидроу и Тедом Хоффом в 1960 году. Такие разработки были интересны, но они имели ограниченное практическое применение до разработки алгоритма обучения для программной модели, называемой многослойным персептроном (MLP) в 1986 году.

Схема многослойного персептрона (MLP). Адриан Хопгуд

MLP представляет собой расположение, как правило, трех или четырех слоев простых моделируемых нейронов, где каждый слой полностью взаимосвязан со следующим. Алгоритм обучения для MLP стал прорывом. Он позволил создать первый практический инструмент, который мог обучаться на наборе примеров (обучающие данные), а затем обобщать, чтобы он мог классифицировать ранее не виданные входные данные (тестовые данные).

Он достиг этого, прикрепляя числовые веса к связям между нейронами и корректируя их для получения наилучшей классификации с обучающими данными, прежде чем использовать для классификации ранее невиданных примеров.

MLP мог обрабатывать широкий спектр практических приложений, при условии, что данные были представлены в формате, который он мог использовать. Классическим примером было распознавание рукописных символов, но только если изображения были предварительно обработаны для выделения ключевых особенностей.

Новые модели ИИ

После успеха MLP начали появляться многочисленные альтернативные формы нейронных сетей. Важной из них была сверточная нейронная сеть (CNN) в 1998 году, которая была похожа на MLP, за исключением дополнительных слоев нейронов для определения ключевых особенностей изображения, тем самым устраняя необходимость в предварительной обработке.

И MLP, и CNN были дискриминативными моделями, то есть они могли принимать решения, как правило, классифицируя свои входные данные для получения интерпретации, диагноза, прогноза или рекомендации. Между тем, разрабатывались другие модели нейронных сетей, которые были генеративными, то есть они могли создавать что-то новое после обучения на большом количестве предыдущих примеров.

Генеративные нейронные сети могли создавать текст, изображения или музыку, а также генерировать новые последовательности для содействия научным открытиям.

Выделились две модели генеративных нейронных сетей: генеративно-состязательные сети (GAN) и сети-трансформеры. GAN достигают хороших результатов, потому что они частично «состязательны», что можно рассматривать как встроенного критика, который требует улучшенного качества от «генеративного» компонента.

Сети-трансформеры стали известны благодаря таким моделям, как GPT4 (Generative Pre-trained Transformer 4) и его текстовой версии ChatGPT. Эти модели с большим количеством языков (LLM) были обучены на огромных наборах данных, взятых из Интернета. Обратная связь от людей еще больше улучшает их производительность с помощью так называемого обучения с подкреплением.

Помимо впечатляющей генеративной способности, обширный обучающий набор означает, что такие сети больше не ограничиваются специализированными узкими областями, как их предшественники, а теперь обобщены для охвата любой темы.

Куда движется ИИ?

Возможности LLM привели к мрачным прогнозам о том, что ИИ захватит мир. На мой взгляд, такое запугивание неоправданно. Хотя современные модели, очевидно, мощнее своих предшественников, траектория остается твердой в сторону большей емкости, надежности и точности, а не в сторону какой-либо формы сознания.

Как заметил профессор Майкл Вулдридж в своих показаниях Палате лордов парламента Великобритании в 2017 году, «голливудская мечта о сознательных машинах не является неизбежной, и я действительно не вижу пути, который приведет нас к этому». Семь лет спустя его оценка по-прежнему верна.

Существует множество позитивных и захватывающих потенциальных применений ИИ, но взгляд на историю показывает, что машинное обучение — не единственный инструмент. Символический ИИ все еще играет свою роль, поскольку он позволяет включать известные факты, понимание и человеческие перспективы.

Например, беспилотный автомобиль может быть снабжен правилами дорожного движения, а не изучать их на примерах. Медицинскую диагностическую систему можно проверить на основе медицинских знаний, чтобы обеспечить проверку и объяснение выходных данных системы машинного обучения.

Общественные знания можно применять для фильтрации оскорбительных или предвзятых результатов. Будущее светло, и оно будет включать использование ряда методов ИИ, включая некоторые, которые существуют уже много лет.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *