Galamart46

Учим оставаться модными, стильным и привлекательными!

Искусственный интеллект: определение, примеры и применение

76Buzzy

Искусственный интеллект (ИИ), это способность цифрового компьютера или управляемого компьютером робота выполнять задачи и действия, сравнимые с уровнем разумных существ.

Термин часто применяется к проектам в сфере разработки систем, наделенных интеллектуальными процессами характерными для людей, такими как способность рассуждать, мыслить, обобщать или учиться на основе прошлого опыта. Со времен разработки цифрового компьютера в 1940-х годах, было продемонстрировано, что компьютеры могут быть запрограммированы для выполнения очень сложных задач, таких как, обнаружение доказательств для математических теорем или игра в шахматы, на самом высоком уровне.

Тем не менее, несмотря на постоянный прогресс в скорости компьютерной обработки и объеме памяти, пока еще нет программ, которые могли бы соответствовать уровню человека в более широких областях или задачах, требующих больших ежедневных знаний. С другой стороны, некоторые программы достигли производительности, уровня человеческих экспертов и специалистов при выполнении определенных конкретных задач, так что искусственный интеллект можно найти в таких направлениях, как медицинская диагностика , компьютеры, поисковые системы, распознавание голоса или почерка.

Что такое интеллект?

Все, кроме простейшего человеческого поведения, приписывается интеллекту, в то время как даже самое сложное поведение насекомых никогда не рассматривается как признак интеллекта. В чем же разница? Рассмотрим поведение роющих ос — сфексов (Sphex ichneumoneus).

Когда самка осы возвращается в свою нору с пищей, она сначала кладет ее на порог, проверяет, нет ли злоумышленников внутри ее норы и только потом, несет свою пищу внутрь. Истинная природа инстинктивного поведения осы обнаруживается, если во время ее пребывания в норе пищу отодвинуть на несколько сантиметров от входа в нору. При выходе из нее она повторит всю процедуру заново, это будет происходить столько же раз, сколько раз вы отодвинете ее пищу. Интеллект — явно отсутствует в случае с осой сфексом, так как отсутствует способность адаптироваться к новым обстоятельствам.

Психологи обычно характеризуют человеческий интеллект не одной чертой, а сочетанием множества разнообразных способностей. Исследования в области искусственного интеллекта были сосредоточены главным образом на следующих компонентах интеллекта: обучение, рассуждение, решение проблем, восприятие и использование языка.

Обучение

Существует целый ряд различных форм обучения применительно к искусственному интеллекту. Самое простое, это обучение методом проб и ошибок.

Например, простая компьютерная программа для решения шахматных задач может делать случайные ходы до тех пор, пока не поставит мат. Затем программа может сохранить это решение, чтобы в следующий раз, когда компьютер столкнется с той же ситуацией, вспомнить его и применить. Это простое запоминание отдельных элементов и процедур, известное как механическое обучение, относительно легко реализовать на компьютере.

Более сложной является проблема реализации так называемого обобщения. Оно предполагает применение прошлого опыта к аналогичным новым ситуациям. Например, программа, которая изучает обычные глаголы в прошедшем времени, не сможет воспроизвести в прошедшем времени такое слово, как «прыгать», если ранее слово «прыгал» не использовалось, тогда как программа, способная обобщать, может выучить правило “добавлять/редактировать” и с помощью него сформировать слово в прошедшем времени, используя опыт работы с подобными глаголами.

Рассуждение

Рассуждать — значит делать выводы, соответствующие ситуации. Выводы классифицируются как дедуктивные или индуктивные.

Пример первого: «Виктор должен быть либо в музее, либо в кафе. Его нет в кафе, следовательно, он находится в музее”, а во втором случае «предыдущие несчастные случаи такого рода были вызваны отказом инструмента; поэтому эта авария была вызвана неисправностью прибора.» Самое существенное различие между этими формами рассуждения состоит в том, что в дедуктивном случае истинность посылок гарантирует истинность вывода, тогда как в индуктивном случае истинность посылок поддерживает вывод, не давая абсолютной уверенности.

Индуктивные рассуждения широко распространены в науке, где собираются данные и разрабатываются предварительные модели для описания и прогнозирования будущего поведения — до тех пор, пока появление аномальных данных не заставит модель быть пересмотренной. Дедуктивные рассуждения распространены в математике и логике, где сложные структуры неопровержимых теорем построены из небольшого набора основных аксиом и правил.

Был достигнут значительный успех в программировании компьютеров для вывода умозаключений, особенно дедуктивных. Однако истинное рассуждение включает в себя нечто большее, чем просто умозаключения; оно включает в себя выводы, относящиеся к решению конкретной задачи или ситуации. Это одна из самых сложных проблем, стоящих перед искусственным интеллектом.

Решение проблем

Решение проблем, особенно в искусственном интеллекте, может быть охарактеризовано как систематический поиск через ряд возможных действий для достижения некоторой предопределенной цели или решения.

Методы решения задач делятся на специальные и общецелевые. Специальный метод, специально разработан для конкретной проблемы и часто использует очень специфические особенности ситуации, в которую она встроена. Метод общего назначения напротив, применим к широкому кругу проблем.

Одним из методов общего назначения, используемых в ИИ, является анализ «средства-цель» — пошаговое или постепенное уменьшение разницы между текущим состоянием и конечной целью. Программа выбирает действия из списка средств — в случае простого робота это может быть PICKUP, PUTDOWN, MOVEFORWARD, MOVEBACK, MOVELEFT и MOVERIGHT, до тех пор, пока цель не будет достигнута.

Многие разнообразные проблемы были решены с помощью программ искусственного интеллекта. Например, поиск выигрышного хода (или последовательности ходов) в настольной игре, разработка математических доказательств и манипулирование «виртуальными объектами» в компьютерном мире.

Восприятие

При восприятии окружающая среда сканируется с помощью различных органов чувств, реальных или искусственных и сцена разлагается на отдельные объекты в различных пространственных отношениях. Анализ осложняется тем, что объект может выглядеть по-разному в зависимости от угла, с которого он виден, направления и интенсивности освещения сцены, а также от того, насколько объект контрастирует с окружающим полем.

В настоящее время искусственное восприятие достаточно развито, чтобы позволить оптическим датчикам идентифицировать людей, автономным транспортным средствам ездить на умеренных скоростях по открытой дороге, а роботам бродить по зданиям, собирая пустые банки из-под содовой.

Одной из первых систем, интегрировавших восприятие и действие, был Фредди, неподвижный робот с подвижным телевизионным глазом и клешней, сконструированный в Эдинбургском университете (Шотландия) в период с 1966 по 1973 годы под руководством Дональда Мичи. Фредди умел распознавать самые разнообразные предметы и мог получать инструкции по сборке простых изделий, например игрушечную машинку, из случайной кучи компонентов.

Язык

Язык — это система знаков, имеющих условное значение. В этом смысле язык не должен ограничиваться только произносимым словом. Дорожные знаки, например, образуют миниязык, поскольку в некоторых странах ⚠ означает «опасность впереди».

Для языков характерно то, что лингвистические единицы обладают значением по условию, и лингвистическое значение очень отличается от того, что называется естественным значением, например, в таких утверждениях как «эти облака означают дождь» и «падение давления означает, что клапан неисправен.»

Важной характеристикой полноценного человеческого языка — в отличие от птичьих криков и дорожных знаков, является его продуктивность. Продуктивный язык может формулировать неограниченное разнообразие предложений.

Относительно легко писать компьютерные программы, которые способны в строго ограниченных контекстах свободно отвечать на вопросы и утверждения на человеческом языке. Хотя ни одна из этих программ на самом деле не понимает языка, хотя в принципе они могут достичь уровня, когда их владение языком не отличается от владения языком нормального человека.

Что же тогда означает подлинное понимание, если даже компьютер, который использует язык на уровне носителя, не признается понимающим? На этот трудный вопрос нет общепринятого ответа. Согласно одной из теорий, понимание зависит не только от поведения человека, но и от его истории: для того, чтобы можно было сказать, что человек понимает, он должен был выучить язык и научиться занимать свое место в языковом сообществе посредством взаимодействия с другими пользователями языка.

Методы и цели в искусственном интеллекте

Исследования ИИ следуют двум различным и до некоторой степени конкурирующим методам: символическому (или «нисходящему») подходу и коннекционистскому (или «восходящему») подходу.

Нисходящий подход стремится воспроизвести интеллект, анализируя познание независимо от биологической структуры мозга, в терминах обработки символов, отсюда и символическая метка. С другой стороны, подход «снизу вверх» предполагает создание искусственных нейронных сетей, имитирующих структуру мозга, отсюда и название коннекционизма.

Чтобы проиллюстрировать разницу между этими подходами, рассмотрим задачу построения системы, оснащенной оптическим сканером, распознающим буквы алфавита. Подход снизу вверх обычно включает в себя обучение искусственной нейронной сети, представляя ей буквы одну за другой, постепенно повышая производительность путем «настройки» сети (настройка регулирует чувствительность различных нервных путей к разным раздражителям).

В отличие от этого, нисходящий подход обычно включает в себя написание компьютерной программы, которая сравнивает каждую букву с геометрическими описаниями. Проще говоря, нейронная деятельность лежит в основе восходящего подхода, в то время как символические описания лежат в основе нисходящего подхода.

В книге «Основы обучения» (1932 г.) Эдвард Торндайк, психолог из Колумбийского университета (Нью-Йорк), впервые предположил, что человеческое обучение состоит из некоего неизвестного свойства связей между нейронами мозга. В книге «Организация поведения» (1949 г.) Дональд Хебб, психолог из Университета Макгилла (Монреаль, Канада), предположил, что обучение включает в себя усиление определенных паттернов нейронной активности путем увеличения вероятности (веса) индуцированного возбуждения нейронов между ассоциированными связями. Понятие взвешенных связей описано в более позднем разделе «Коннекционизм».

В 1957 году два энергичных сторонника символического искусственного интеллекта — Аллен Ньюэлл, исследователь из Корпорации «РЭНД (Калифорния), и Герберт Саймон, психолог и компьютерщик из Университета Карнеги-Меллона (Питтсбург, Пенсильвания), подвели итог нисходящему подходу в том, что они назвали гипотезой физической системы символов. Эта гипотеза утверждает, что обработка структур символов в принципе достаточна для создания искусственного интеллекта в цифровом компьютере и человеческий интеллект является результатом того же типа символических манипуляций.

В 1950-х и 60-х годах одновременно применялись подходы «сверху вниз» и «снизу вверх», оба они дали заметные, хотя и ограниченные результаты. Однако в 1970-х годах ИИ «снизу вверх» игнорировался и лишь в 1980-х годах этот подход вновь стал заметным. В настоящее время используется два подхода и оба признают, что сталкиваются с трудностями.

Символические методы работают в упрощенных сферах, но как правило, ломаются при столкновении с реальным миром; между тем, исследователи метода «снизу вверх» не смогли воспроизвести нервную систему даже самых простых живых существ.

Caenorhabditis elegans, широко изученный червь, имеет около 300 нейронов, структура взаимосвязей которых прекрасно известна. Однако коннекционистские модели не смогли подражать даже этому червю. Очевидно, нейроны коннекционистской теории являются грубым упрощением реальной вещи.

Сильный ИИ, прикладной ИИ и когнитивное моделирование

Используя методы, описанные выше, исследования ИИ пытаются достичь одной из трех целей: сильного ИИ, прикладного ИИ или когнитивного моделирования.

Сильный искусственный интеллект

Сильный ИИ стремится создавать машины, которые думают (термин «сильный ИИ» был введен для этой категории исследований в 1980 году философом Джоном Серлом из Калифорнийского университета в Беркли). Конечная цель сильного ИИ, создать машину, чьи общие интеллектуальные способности неотличимы от человеческих. Эта цель вызвала большой интерес в 1950-х и 60-х годах, но такой оптимизм уступил место пониманию связанных с этим экстремальных трудностей.

На сегодняшний день прогресс весьма скудный. Некоторые критики сомневаются в том, что в обозримом будущем исследования дадут хотя бы систему с общими интеллектуальными способностями муравья. Некоторые исследователи, работающие в двух других отраслях ИИ и вовсе считают, что не стоит преследовать идею сильного ИИ.

Прикладной искусственный интеллект

Прикладной ИИ, также известный как усовершенствованная обработка информации, нацелен на создание коммерчески жизнеспособных «умных» систем — например, «экспертных» систем медицинской диагностики и систем биржевой торговли. Прикладной ИИ на сегодняшний день пользуется значительным успехом.

Когнитивное моделирование

В когнитивном моделировании компьютеры используются для проверки теорий о том, как работает человеческий разум — например, теорий о том, как люди узнают лица или вспоминают прошлое. Когнитивное моделирование уже является мощным инструментом как в нейробиологии, так и в когнитивной психологии.

Алан Тьюринг и зарождение искусственного интеллекта

Самая ранняя существенная работа в области искусственного интеллекта была сделана в середине 20-го века британским логиком и пионером компьютерных технологий Аланом Мэтисоном Тьюрингом.

В 1935 году Тьюринг описал абстрактную вычислительную машину, состоящую из безграничной памяти и сканера, который перемещается взад и вперед по памяти, символ за символом, считывая то, что он находит и записывая дальнейшие символы. Действия сканера диктуются программой инструкцией, которая также хранится в памяти в виде символов.

Это концепция хранимой программы Тьюринга и в ней подразумевается возможность машины работать над своей собственной программой и таким образом изменять или улучшать ее. Концепция Тьюринга теперь известная как — универсальная машина Тьюринга. Все современные компьютеры, по сути, являются универсальными машинами Тьюринга.

1595683800-alan-turing-6063153

Во время Второй мировой войны Тьюринг был ведущим криптоаналитиком в правительственной школе кодов и шифров в Блетчли-Парке (графство Бакингемшир, Англия). Тьюринг не мог обратиться к проекту создания электронной вычислительной машины с сохраненной программой вплоть до прекращения военных действий в Европе в 1945 году.

Тем не менее во время войны он много размышлял над проблемой машинного интеллекта. Один из коллег Тьюринга по Блетчли-парку, Дональд Мичи (который позже основал кафедру машинного интеллекта и восприятия в Эдинбургском университете), позднее вспоминал, что Тьюринг часто обсуждал, как компьютеры могут учиться на опыте, а также решать новые проблемы с помощью руководящих принципов — процесс, известный теперь как эвристическое решение проблем.

Тьюринг, в своей самой ранней публичной лекции (Лондон, 1947) упомянул компьютерный интеллект, сказав: «Нам нужна машина, которая может учиться на опыте», и «обеспечить механизм, который позволит машине изменять свои собственные инструкции».

В 1948 году он представил многие из центральных концепций искусственного интеллекта в докладе, под названием «Интеллектуальные машины». Однако Тьюринг не опубликовал эту статью и многие из его идей были позже использованы другими. Например, одной из оригинальных идей Тьюринга было обучение сети искусственных нейронов для выполнения конкретных задач, подход известный как «коннекционизм».

Шахматы

В Блетчли-Парке Тьюринг проиллюстрировал свои идеи о машинном интеллекте, обратившись к шахматам — полезному источнику сложных и четко определенных задач, против которых можно было бы протестировать предложенные методы решения.

В принципе, компьютер играющий в шахматы, мог бы играть путем исчерпывающего перебора всех доступных ходов, но на практике это невозможно, потому что это потребовало бы изучения астрономически большого числа ходов.

Хотя Тьюринг экспериментировал с разработкой шахматных программ, он был вынужден довольствоваться теорией из-за отсутствия компьютера для запуска своей шахматной программы. Первые настоящие программы искусственного интеллекта должны были ждать появления электронно-цифровых вычислительных машин с возможностью сохранять программы.

В 1945 году Тьюринг предсказал, что компьютеры однажды будут играть в очень хорошие шахматы и чуть более 50 лет спустя, в 1997 году, шахматный компьютер Deep Blue, построенный международной корпорацией бизнес-машин (IBM), победил действующего чемпиона мира Гарри Каспарова в матче из 6 партий.

Предсказание Тьюринга сбылось, но его ожидания, что шахматное программирование будет способствовать пониманию того, как люди думают, не оправдались. Огромное улучшение в компьютерных шахматах со времен Тьюринга объясняется скорее достижениями в компьютерной инженерии, чем достижениями в области искусственного интеллекта — 256 параллельных процессоров Deep Blue позволили ему исследовать 200 миллионов возможных ходов в секунду и заглядывать вперед на целых 14 ходов игры.

Многие согласны с Ноамом Хомским, лингвистом из Массачусетского технологического института (MIT), который высказал мнение, что компьютер победивший гроссмейстера в шахматах, примерно так же интересен, как бульдозер выигравший олимпийские соревнования по тяжелой атлетике.

Тест Тьюринга

В 1950 году Тьюринг ввел практический тест для компьютерного интеллекта, который теперь известен как тест Тьюринга.

В тесте Тьюринга участвуют трое: компьютер и два человека. Смысл теста заключается в том, что человек одновременно взаимодействует с другим человеком и компьютером. Он задает им одни и те же вопросы и должен по ответам определить, кто из них является компьютером. Вопросы задаются письменно и осуществляется с помощью клавиатуры и экрана.

Спрашивающий может задавать абсолютно любые вопросы, а компьютер по сути, должен сделать все возможное, чтобы его приняли за человека (например, на вопрос: «Ты компьютер?”, компьютер может ответить «Нет»). Много разных людей выступают в роли «спрашивающего» и если достаточное количество из них не в состоянии отличить компьютер от человека, то (согласно сторонникам теста Тьюринга) компьютер считается разумным, мыслящим существом.

В 1991 году американский филантроп Хью Лебнер начал ежегодный конкурс на премию Лебнера, пообещав выплатить $100 000 сразу и $2000 долларов ежегодно тому, чей компьютер сможет пройти тест Тьюринга. Однако ни одна программа искусственного интеллекта не приблизилась к прохождению чистого теста Тьюринга.

Ранние вехи развития искусственного интеллекта

Самая ранняя успешная программа искусственного интеллекта была написана в 1951 году Кристофером Стрейчи, впоследствии директором исследовательской группы по программированию Оксфордского университета. Программа Стрейчи по шашкам работала на компьютере Ferranti Mark I в Манчестерском университете (Англия). К лету 1952 года эта программа могла играть полную партию в шашки на разумной скорости.

Информация о самой ранней успешной демонстрации машинного обучения была опубликована в 1952 году. «Программа покупок» (или Shopper), написанная Энтони Эттингером в Кембриджском университете, работала на компьютере EDSAC.

Моделируемый мир Shopper представлял собой торговый центр из восьми магазинов. Получив указание купить товар, Shopper будет искать его, посещая магазины наугад, пока товар не будет найден. Во время поиска Shopper запоминал несколько предметов, хранящихся в каждом посещенном магазине (так же, как и обычный человек-покупатель). В следующий раз, когда Shopper будет отправлен за тем же самым товаром или за каким-то другим товаром, который он уже нашел, он сразу же отправится в нужный магазин. Эта простая форма обучения, о которой мы говорили выше в разделе «Что такое интеллект?«, называемая механическим обучением.

1551025573-banner-468x60-4149418

Первой программой искусственного интеллекта, запущенной в США, была программа checkers (шашки), написанная в 1952 году Артуром Сэмюэлем для прототипа IBM 701. Сэмюэл взял за основу шашечную программу Кристофера Стрейчи и в течение нескольких лет значительно расширил ее.

В 1955 году он добавил функции, которые позволили программе учиться на собственном опыте. Сэмюэл включил механизмы как для механического обучения, так и для обобщения. Эти усовершенствования, которые в конечном итоге привели к тому, что его программа выиграла одну игру против бывшего чемпиона Коннектикута по шашкам в 1962 году.

Эволюционные вычисления

Программа Сэмюэля «шашки» была также примечательна тем, что стала одной из первых попыток эволюционных вычислений (его программа «эволюционировала», противопоставляя модифицированную копию текущей лучшей версии своей программы, а победитель становился новым стандартом). Эволюционные вычисления обычно включают использование некоторого автоматического метода генерации и оценки последовательных «поколений» программы, пока не будет разработано высокопрофессиональное решение.

Ведущий сторонник эволюционных вычислений Джон Холланд также написал тестовое программное обеспечение для прототипа компьютера IBM 701. В частности, он помог разработать нейросетевую ”виртуальную » крысу, которую можно было бы обучить ориентироваться в лабиринте. Эта работа убедила Холланда в эффективности подхода «снизу вверх».

Продолжая консультировать IBM, Холланд в 1952 году переехал в Мичиганский университет, чтобы получить докторскую степень по математике. Однако вскоре он переключился на новую междисциплинарную программу в области компьютеров и обработки информации (позже известную как communications science), созданную Артуром Берксом, одним из создателей ENIAC и его преемника EDVAC.

В своей диссертации 1959 года, скорее всего, первой в мире докторской диссертации по информатике, Холланд предложил новый тип компьютера — многопроцессорный компьютер, который будет присваивать каждому искусственному нейрону в сети отдельный процессор (в 1985 году Дэниел Хиллис решил инженерные трудности, чтобы построить первый такой компьютер, суперкомпьютер корпорации Thinking Machines с 65 536 процессорами).

Холланд поступил на Мичиганский факультет после окончания университета и в течение следующих четырех десятилетий руководил многими исследованиями методов автоматизации эволюционных вычислений, процесса, известного теперь под названием генетический алгоритм.

В лаборатории Холланда были реализованны такие системы как шахматная программа, модели одноклеточных биологических организмов и классификаторная система для управления моделируемой сетью газопроводов. Однако генетические алгоритмы больше не ограничивались «академическими» демонстрациями, его впервые использовали при работе со свидетелем преступления, чтобы создать портрет преступника.

Логические рассуждения и решение проблем

Способность рассуждать логически является важным аспектом интеллекта и всегда была главным фокусом исследований ИИ. Важной вехой в этой области стала программа доказательства теорем, написанная в 1955-56 годах Алленом Ньюэллом, Дж. Клиффордом Шоу из корпорации РЭНД и Гербертом Саймоном из Университета Карнеги-Меллона.

Программа «Логик-теоретик», была разработана для доказательства теорем из Principia Mathematica (1910-13), трехтомного труда британских философов-математиков Альфреда Норта Уайтхеда и Бертрана Рассела. В одном случае доказательство, разработанное программой, было более элегантным, чем доказательство, приведенное в книгах.

Затем Ньюэлл, Саймон и Шоу написали более мощную программу — General Problem Solver или GPS. Первая версия GPS была запущена в 1957 году и работа над проектом продолжалась около десяти лет.

GPS может решить впечатляющее разнообразие головоломок, используя метод проб и ошибок. Тем не менее, в адрес GPS и аналогичных программ неоднократно звучала критика, из-за того, что в них отсутствуют какие-либо способности к обучению. Факт заключался в том, что интеллект программы целиком и полностью основан на информации, которая явно указана программистом.

Английский диалог

Две из самых известных ранних программ искусственного интеллекта, Eliza и Parry, создавали жуткое подобие интеллектуального разговора (подробности обоих были впервые опубликованы в 1966 году).

Eliza, написанная Джозефом Вайценбаумом из лаборатории искусственного интеллекта Массачусетского технологического института, имитировала человека-терапевта. Parry, написанный психиатром Стэнфордского университета Кеннетом Колби, имитировал человека-параноика.

Психиатры, которых просили догадаться с кем они общаются, с Parry или реальным человеком, часто не могли этого сказать. Тем не менее ни Parry, ни Eliza нельзя было назвать разумными людьми. Вклад Parry в разговор был законсервирован — заранее сконструирован программистом и сохранен в памяти компьютера. Eliza тоже полагалась на законсервированные фразы и простые программные трюки.

Языки программирования ИИ

В ходе своей работы над теорией логики и GPS Ньюэлл, Саймон и Шоу разработали свой язык обработки информации (IPL), компьютерный язык, адаптированный для программирования искусственного интеллекта.

В основе IPL лежала очень гибкая структура данных, которую они называли списком. Список — это просто упорядоченная последовательность элементов данных. Некоторые или все элементы в списке могут сами быть списками. Эта схема приводит к богато разветвленным структурам.

В 1960 году Джон Маккарти объединил элементы IPL с лямбда-исчислением (формальной математико-логической системой) для создания языка программирования LISP (List Processor), который остается основным языком для работы ИИ в Соединенных Штатах (само лямбда-исчисление было изобретено в 1936 году Принстонским логиком Алонсо Черчем, когда он исследовал абстрактную Entscheidungsproblem или «проблему разрешения» для логики предикатов — ту же самую проблему, которую исследовал Тьюринг, когда изобрел универсальную машину Тьюринга).

Язык логического программирования PROLOG (Programmation en Logique) был задуман Аленом Кольмерауэром в Университете Экс-Марселя (Франция), где этот язык был впервые реализован в 1973 году. PROLOG получил дальнейшее развитие у логика Роберта Ковальски, члена группы ИИ в Эдинбургском университете.

Этот язык использует мощный метод доказательства теорем, известный как «правило резолюций», изобретенный в 1963 году в Аргоннской национальной лаборатории комиссии по атомной энергии США в Иллинойсе британским логиком Аланом Робинсоном.

PROLOG может определить, следует ли данное утверждение логически из других данных утверждений. Например, если взять утверждения «все логики рациональны» и «Робинсон-логик», программа утвердительно отвечает на вопрос «Робинсон рационален?». Пролог широко используется для работы с ИИ, особенно в Европе и Японии.

Исследователи из Института компьютерных технологий нового поколения в Токио использовали PROLOG в качестве основы для сложных логических языков программирования. Известные как языки пятого поколения, они используются на нечисловых параллельных компьютерах, разработанных в институте.

Другая недавняя работа включает в себя разработку языков для рассуждений о зависящих от времени данных, таких как «счет был оплачен вчера». Эти языки основаны на напряженной логике, которая позволяет высказываниям находиться в потоке времени. (Напряженная логика была изобретена в 1953 году философом Артуром Прайором в Университете Кентербери, Новая Зеландия).

Программы микромира

Чтобы справиться с ошеломляющей сложностью реального мира, ученые часто игнорируют менее важные детали; например, физики часто игнорируют трение и упругость в своих моделях.

В 1970 году Марвин Мински и Сеймур Паперт из лаборатории искусственного интеллекта Массачусетского технологического института предложили, чтобы аналогичное исследование ИИ было сосредоточено на разработке программ, способных к интеллектуальному поведению в более простых искусственных средах, известных как микромиры. Многие исследования были сосредоточены на так называемом мире блоков, который состоит из цветных блоков различных форм и размеров, расположенных на плоской поверхности.

Ранним успехом подхода к микромиру стала программа SHRDLU, написанная Терри Виноградом из Массачусетского технологического института (подробности программы были опубликованы в 1972 году).

SHRDLU управлял роботизированной рукой, которая работала над плоской поверхностью, усыпанной игровыми блоками. И рука, и блоки были виртуальными. SHRDLU отвечал на команды, набранные на естественном английском языке, например: «пожалуйста, сложите оба красных блока и либо зеленый куб, либо пирамиду». Программа также может ответить на вопросы о своих собственных действиях.

Хотя SHRDLU изначально считали крупным прорывом, вскоре Виноград объявил, что программа фактически зашла в тупик. Методы, впервые использованные в программе, оказались непригодными для применения в более широких и интересных мирах. Более того, видимость, которую SHRDLU придавал пониманию микромира блоков и английские высказывания относительно него, на самом деле были иллюзией. SHRDLU понятия не имел, что такое зеленый блок.

Еще одним продуктом подхода к микромиру был мобильный робот Shakey, разработанный в Стэнфордском исследовательском институте Бертрамом Рафаэлем, Нильсом Нильссоном и другими в период с 1968 по 1972 года. Робот занимал специально построенный микромир, состоящий из стен, дверных проемов и нескольких деревянных блоков простой формы. У каждой стены был тщательно прорисован плинтус, чтобы робот мог «видеть», где стена встречается с полом (упрощение реальности, типичное для подхода к микромиру). У Shakey было около десятка базовых способностей, таких как TURN, PUSH и CLIMB-RAMP.

1595746780-shakey-robot-5541769Робот Shakey был разработан (1966-72) в Стэнфордском исследовательском институте, Менло-Парк, Калифорния. Робот оснащен телевизионной камерой, дальномером и датчиками столкновения, которые позволяют миникомпьютеру дистанционно управлять его действиями. Робот Шейки может выполнять несколько основных действий, таких как движение вперед или поворот, хотя и в очень медленном темпе. Контрастные цвета, особенно темный плинтус на каждой стене, помогают роботу различать отдельные поверхности.

Критики указывали на чрезвычайно упрощенную природу окружения Shakey и подчеркивали, что несмотря на эти упрощения, Шейки действовал мучительно медленно; ряд действий, которые человек мог спланировать и выполнить за считанные минуты, занимал у Shakey дни.

Наибольшим успехом при подходе к микромиру стал тип программы, известный как экспертная система.

Экспертная система

Экспертные системы занимают тип микромира — например, модель трюма корабля и его груза, который является автономным и относительно несложным.

Для таких систем искусственного интеллекта предпринимаются усилия, чтобы включить всю информацию о какой-то узкой области, которую знал бы эксперт (или группа экспертов), так что хорошая экспертная система часто может превзойти любого отдельного эксперта-человека.

Существует множество коммерческих экспертных систем, включая программы для медицинской диагностики, химического анализа, авторизации кредитов, финансового менеджмента, корпоративного планирования, маршрутизации финансовых документов, разведки нефти и полезных ископаемых, генной инженерии, проектирования и производства автомобилей, проектирования объективов камер, проектирования компьютерных установок, планирования полетов, размещения грузов и автоматических справочных служб для владельцев домашних компьютеров.

Знания и умозаключения

Основными компонентами экспертной системы являются база знаний (или БЗ) и механизм вывода.

Информация, которая будет храниться в БЗ, получена путем опроса людей, которые являются экспертами в данной области. Интервьюер или инженер знаний, организует информацию полученную от экспертов в набор правил, обычно имеющих структуру «if-then» (если-то). Правила этого типа называются производственными правилами.

Механизм вывода позволяет экспертной системе делать выводы из правил в БЗ. Например, если база знаний содержит производственные правила «если X, то Y» и «если Y, то Z», механизм вывода способен вывести «если X, то Z». Экспертная система может затем запросить своего пользователя: «является ли X истинным в рассматриваемой ситуации?» Если ответ утвердительный, система сделает вывод о Z.

Некоторые экспертные системы используют нечеткую логику. В стандартной логике есть только два условия, истина и ложь. Эта абсолютная точность делает неопределенные атрибуты или ситуации трудными для характеристики (когда именно редеющая голова становится лысой?). Часто правила, используемые человеческими экспертами, содержат расплывчатые выражения и поэтому для механизма вывода экспертной системы полезно использовать нечеткую логику.

DENDRAL

В 1965 году исследователи искусственного интеллекта Эдвард Фейгенбаум и генетик Джошуа Ледерберг, оба из Стэнфордского университета, начали работу над Эвристической Дендральной (позже сокращенной до DENDRAL) экспертной системой химического анализа.

Анализируемое вещество может представлять собой сложное соединение (как пример) углерода, водорода и азота. Отталкиваясь от спектрографических данных, полученных из вещества, DENDRAL выдвинул бы гипотезу о молекулярной структуре вещества. Производительность DENDRAL могла соперничать с работой химиков-экспертов в этой области. Программа использовалась не только в промышленности, но и в научных кругах.

MYCIN

Работа над MYCIN, экспертной системой для лечения инфекций крови, началась в Стэнфордском университете в 1972 году. MYCIN будет пытаться диагностировать пациентов на основе сообщенных симптомов и результатов медицинских тестов.

Программа может запросить дополнительную информацию о пациенте, а также предложить дополнительные лабораторные исследования, чтобы прийти к вероятному диагнозу, после чего она порекомендует курс лечения. Если его попросят, MYCIN приведет доводы, которые привели его к этому диагнозу и предложит рекомендации.

Используя около 500 производственных правил, MYCIN действовал примерно на том же уровне квалификации, что и специалисты по инфекциям крови и гораздо лучше, чем врачи общей практики.

Тем не менее, экспертные системы не имеют здравого смысла или понимания границ своей квалификации. Например, если бы MYCIN сказали, что пациент, получивший огнестрельное ранение истекает кровью, программа попыталась бы диагностировать бактериальную причину симптомов пациента. Экспертные системы могут допускать абсурдные ошибки, такие как назначение заведомо неправильной дозы лекарства пациенту, чьи данные о весе и возрасте были случайно перемещены.

Проект CYC

CYC — это большой эксперимент в области символического искусственного интеллекта. Проект начался в 1984 году под эгидой корпорации «Microelectronics and Computer Technology Corporation», консорциума производителей компьютеров, полупроводников и электроники.

В 1995 году Дуглас Ленат, директор проекта CYC, свернул проект под названием Cycorp, Inc., базирующегося в Остине (штат Техас). Самой амбициозной целью Cyc была разработка базы знаний (БЗ), содержащей значительный процент знаний здравого смысла человека.

Миллионы утверждений здравого смысла или правил, были закодированы в CYC. Ожидалось, что эта «критическая масса» позволит самой системе извлекать дальнейшие правила и в конечном итоге послужит основой для будущих поколений экспертных систем.

Скомпилировав лишь небольшую часть своей базы знаний, CYC мог делать выводы, которые были лучше более простых системы. Например, CYC мог сделать вывод: «Наталья мокрая» из заявления «Наталья заканчивает марафонский бег», используя свои правила, что марафонский бег влечет за собой высокую нагрузку, а люди при высокой нагрузке потеют, а когда что-то потеет, оно мокрое.

Среди нерешенных проблем остались вопросы поиска — например, как автоматически искать в базе знаний информацию, имеющую отношение к данной проблеме. Исследователи искусственного интеллекта называют проблему обновления, поиска и других манипуляций с большой структурой символов в реалистичные промежутки времени проблемой фреймов.

Некоторые критики символического ИИ считали, что проблема фреймов в значительной степени неразрешима и утверждали, что символический подход никогда не приведет к действительно интеллектуальным системам. Вполне возможно, что CYC поддастся проблеме фрейма задолго до того, как система достигнет человеческого уровня знаний.

Коннекционизм

Коннекционизм или нейроноподобные вычисления, развился из попыток понять, как работает человеческий мозг на нейронном уровне и в частности, как люди учатся и запоминают.

В 1943 году нейрофизиолог Уоррен Мак-Каллок из Иллинойского и математик Уолтер Питтс из Чикагского университетов опубликовали научный труд о нейронных сетях и машинах, согласно которому каждый нейрон в мозге является простым цифровым процессором, а мозг в целом — формой вычислительной машины. Как впоследствии выразился Мак-Каллок, «мы думали и делали (и я думаю, что нам это удалось довольно успешно), рассматривая мозг как машину Тьюринга».

Создание искусственной нейронной сети

Однако только в 1954 году Белмонту Фарли и Уэсли Кларку из Массачусетского технологического института удалось запустить первую искусственную нейронную сеть, хотя память компьютера ограничивалась не более 128 нейронами.

Они смогли обучить свои сети распознавать простые паттерны. Кроме того, они обнаружили, что случайное разрушение до 10% нейронов в обученной сети не влияет на её производительность — особенность, напоминающая способность мозга переносить небольшие повреждения, причиненные хирургией, несчастным случаем или болезнью.

Простая нейронная сеть, изображенная на рисунке ниже, иллюстрирует основные идеи коннекционизма.

Четыре из пяти нейронов сети предназначены для ввода, а пятый — к которому подключены все остальные — для вывода. Каждый из нейронов либо срабатывает (1), либо не срабатывает (0). Каждое соединение, ведущее к N, выходному нейрону, имеет «вес». То, что называется суммарным взвешенным входом в N, вычисляется путем сложения весов всех связей, ведущих к N нейронов.

Например, предположим, что срабатывают только два входных нейрона, X и Y. Поскольку вес соединения от X до N равен 1,5, а вес соединения от Y до N равен 2, из этого следует, что общий взвешенный входной сигнал для N равен 3,5. Как показано на рисунке, N имеет порог срабатывания 4. Другими словами, если суммарный взвешенный входной сигнал N равен или превышает 4, то N срабатывает; в противном случае N не срабатывает. Получается, что при срабатывании только X и Y, выходной нейрон N не сработает, но если будут задействованы (например) X, Y и Z, либо все входящие нейроны, то N сработает. Думаю с этим понятно.

1595761924-nejronnaya-set-konnekcionizm-3987367

Обучение сети включает в себя два этапа. Во-первых, внешний агент вводит паттерн и наблюдает за поведением N. Во-вторых, агент корректирует веса соединений в соответствии с правилами:

  1. Если фактический выход равен 0, а желаемый выход равен 1, увеличьте на небольшую фиксированную величину вес каждого соединения, ведущего к N от срабатывающих нейронов (таким образом, повышая вероятность того, что N сработает в следующий раз, когда сеть получит тот же паттерн);
  2. Если фактический выход равен 1, а желаемый выход равен 0, уменьшите на ту же небольшую величину вес каждого соединения, ведущего к выходному нейрону (таким образом, делая менее вероятным, что выходной нейрон сработает в следующий раз, когда сеть получит этот паттерн в качестве входного).

Внешний агент — фактически компьютерная программа, проходит через эту двухэтапную процедуру с каждым шаблоном в обучающем образце, которая затем повторяется несколько раз. Во время этих многочисленных повторений формируется шаблон весов соединений, который позволяет сети правильно реагировать на каждый шаблон. Поразительно то, что процесс обучения полностью механичен и не требует человеческого вмешательства или корректировки. Веса соединений автоматически увеличиваются или уменьшаются на постоянную величину и точно такая же процедура обучения применяется к другим задачам.

Персептроны

В 1957 году Фрэнк Розенблатт из авиационной лаборатории Корнельского университета в Итаке (Нью-Йорк, США) начал исследовать искусственные нейронные сети, которые он назвал персептронами. Он внес большой вклад в область искусственного интеллекта, как путем экспериментальных исследований свойств нейронных сетей (с использованием компьютерного моделирования), так и путем детального математического анализа.

Розенблатт был харизматичным коммуникатором и вскоре в США появилось много исследовательских групп, изучающих перцептроны. Розенблатт и его последователи назвали свой подход коннекционистским, чтобы подчеркнуть важность в обучении создания и модификации связей между нейронами. Современные исследователи приняли этот термин.

Одним из вкладов Розенблатта было обобщение процедуры обучения (которую Фарли и Кларк применили только к двухслойным сетям), чтобы эту процедуру можно было применить к многослойным сетям.

Розенблатт использовал выражение «исправление ошибок с обратным распространением» для описания своего метода. Этот метод, значительно усовершенствовали и расширили многие ученые и термин «обратное распространение» в настоящее время широко используются в коннекционизме.

Спряжение глаголов

В одном известном коннекционистском эксперименте, проведенном в Калифорнийском университете в Сан-Диего (опубликованном в 1986 году), Дэвид Румельхарт и Джеймс Макклелланд обучили сеть из 920 искусственных нейронов, расположенных в два слоя по 460 нейронов, формировать прошлые времена английских глаголов.

Корневые формы глаголов, такие как «приходить, смотреть и спать», были представлены одному (входному) слою нейронов. Супервизорная компьютерная программа наблюдала разницу между фактическим откликом на уровне выходных нейронов и желаемым откликом — «пришел», а затем механически корректировала соединения по всей сети в соответствии с процедурой, описанной выше, чтобы дать сети небольшой толчок в направлении правильного отклика.

Около 400 различных глаголов были представлены в сеть и скорректированы после каждого представления. Вся эта процедура была повторена около 200 раз с использованием одних и тех же глаголов, после чего сеть смогла правильно сформировать прошедшее время многих незнакомых глаголов, а также исходных глаголов.

Например, когда сеть была представлена в первый раз: с защита, она ответила защищать; плачь, ответила плакать; цепляться, цеплялась; и тд. Это яркий пример обучения, включающего обобщение.

Другое название коннекционизма — параллельная распределенная обработка данных, которая подчеркивает две важные особенности. Во-первых, большое количество относительно простых процессоров — нейронов, работают параллельно. Во-вторых, нейронные сети хранят информацию распределенным образом, причем каждое отдельное соединение участвует в хранении множества различных элементов информации.

Информация распространяется по всему шаблону весов соединений. Человеческий мозг также хранит информацию распределенным образом и коннекционистские исследования способствуют попыткам понять, как он это делает.

Другие нейронные сети

Другие работы по нейроноподобным вычислениям:

Зрительное восприятие

Сети могут распознавать лица и другие объекты по визуальным данным. Нейронная сеть, разработанная Джоном Хаммелом и Ирвингом Бидерманом из университета Миннесоты, может идентифицировать около 10 объектов по простым линейным чертежам. Сеть способна распознавать объекты, в том числе (например) кружку и сковороду, даже если они нарисованы под разными углами.

Сети, исследованные Томазо Поджио из Массачусетского технологического института, способны распознавать изогнутые проволочные фигуры, нарисованные под разными углами, лица, сфотографированные под разными углами и показывающие разные выражения, а также объекты из мультяшных рисунков.

Языковая обработка

Нейронные сети способны преобразовывать рукописный и машинописный материал в электронный текст. Налоговая служба США ввела в эксплуатацию нейроноподобную систему, которая будет автоматически считывать налоговые декларации и корреспонденцию. Нейронные сети также преобразуют речь в печатный текст и печатный текст в речь.

Финансовый анализ

Нейронные сети все чаще используются для оценки кредитного риска, оценки недвижимости, прогнозирования банкротства, прогнозирования цены акций и других бизнес приложений.

Медицина

Медицинские приложения имеют возможность обнаруживать солитарные лёгочные узелки и сердечную аритмию, а также прогнозировать побочные реакции на лекарства.

Телекоммуникации

Телекоммуникационные приложения нейронных сетей имеют возможность управлять телефонными коммутационными сетями, подавлять эхо в модемах и на спутниковых линиях связи.

Новый искусственный интеллект (Nouvelle AI)

Подход, ныне известный как nouvelle AI, был впервые предложен в лаборатории искусственного интеллекта Массачусетского технологического института австралийцем Родни Бруксом во второй половине 1980-х гг.

Nouvelle AI отдаляется от сильного ИИ (искусственный интеллект на уровне разумного человека) и ставит перед собой более скромные цели, а именно разработать искусственный интеллект на уровне насекомых.

На очень фундаментальном уровне новый ИИ отвергает символическую зависимость ИИ от построения внутренних моделей реальности, таких как мы описывали выше, в разделе «Программы микромира». Последователи нового искусственного интеллекта утверждают, что истинный интеллект предполагает способность функционировать в реальной среде, а не виртуальной.

Главная идея нового ИИ состоит в том, что интеллект, выраженный сложным поведением, «возникает» из взаимодействия нескольких простых форм поведения.

Например, робот, чье простое поведение включает в себя предотвращение столкновения и движение за другим движущимся объектом, будет его преследовать, притормаживая каждый раз, когда он подходит слишком близко.

Одним из известных примеров нового искусственного интеллекта является робот Брукса — Герберт (названный в честь Герберта Саймона), чье окружение, это офисы и лаборатории искусственного интеллекта MIT (Массачусетского Технологического Института).

Робот Герберт обыскивает столы в поисках пустых банок из-под содовой, которые он поднимает и уносит. Кажущееся целенаправленным поведение робота возникает из взаимодействия примерно 15 простых форм поведения. Совсем недавно Брукс сконструировал прототипы мобильных роботов для исследования поверхности Марса (см. фото).

Тот самый робот Брукса по имени Герберт

Разработанный Родни Бруксом и нежно названный в честь пионера искусственного интеллекта Герберта Саймона, Герберт использовал 30 инфракрасных датчиков, лазерный сканер и магнитный компас, чтобы находить пустые банки от безалкогольных напитков и ориентироваться в пространстве, когда он бродил по лабораториям Массачусетского технологического института. Он брал роботизированной рукой пустую банку и отвозил ее в мусорное ведро.

1595770800-herbert-simon-robot-1987-5788691

Мобильные роботы для исследовательского проекта Марсоход

Три этапа разработки мобильного робота для исследовательского проекта марсоход: (a) Genghis, (b) Attila и (c) Pebbles, показанные в разработке Массачусетским Технологическим институтом мобильного робота для разведки поверхности Марса.

1595770897-mars-rover-research-project-three-stages-robot-4003512

Робот Attila

Аттила был построен в Массачусетском технологическом институте (1989-91) в рамках исследовательского проекта по разработке автономных роботов для исследования планет. Аттила, является маленьким шестиногим роботом, который был оснащен солнечными батареями для подзарядки.

1595771327-robot-attila-hannibal-robots-exploration-research-project-4543768

Робот Pebbles

Pebbles, гусеничный робот, использующий систему управления на основе видения, разработанную в конце 1990-х годов в рамках исследовательского проекта Марсоход. Робот Pebbles размером примерно с домашнюю кошку, огибает препятствия с помощью единственной камеры-сенсора. С помощью прикрепленной руки Pebbles может собирать образцы или обрабатывать опасные предметы.

1595772377-pebbles-robot-control-system-size-part-obstacles-2389526

Новый искусственный интеллект обходит стороной проблему фрейма, которую мы обсуждали в разделе «Проект CYC». Новые системы не содержат сложной символической модели своего окружения. Вместо этого информация остается «в мире» до тех пор, пока она не понадобится системе. Новая система постоянно обращается к своим датчикам, а не к внутренней модели мира: она «считывает» с внешнего окружения любую информацию, которая ей необходима именно сейчас (как говорил Брукс, мир — это лучшая модель окружения, которая всегда точная и полна во всех деталях).

Локализованный подход

Традиционный ИИ по большому счету пытался создать бестелесные интеллекты, чье взаимодействие с миром было косвенным (как пример CYC). С другой стороны, новый ИИ пытается построить интеллект, находящийся в реальном мире — метод, который стал известен как подход, основанный на расположении или локализованный подход.

Брукс с одобрением процитировал краткие наброски, сделанные Тьюрингом в 1948 и 1950 годах, о локализованном подходе. Тьюринг писал, что снабдив машину «самыми лучшими органами чувств, какие только можно купить за деньги», ее можно было бы научить «понимать и говорить по-английски» с помощью процесса, который «следовал бы обычному обучению ребенка».

Тьюринг сравнил это с подходом к искусственному интеллекту, который фокусируется на абстрактной деятельности, такой как игра в шахматы. Он высказался за применение обоих подходов, но до недавнего времени мало внимания уделялось подходу, основанному на расположении.

Подобный подход был также предвосхищен в трудах философа Берта Дрейфуса из Калифорнийского университета в Беркли. Начиная с начала 1960-х годов Дрейфус выступал против гипотезы физической системы символов, утверждая, что интеллектуальное поведение не может быть полностью охвачено символическими описаниями.

Дрейфус считал, что интеллект должен иметь тело, которое могло бы двигаться и взаимодействовать с материальными физическими объектами. Когда-то осуждаемый за такие высказывания Дрейфус, теперь считается предсказателем локализованного подхода.

Критики нового искусственного интеллекта указывали на невозможность создать систему, которая демонстрировала бы хоть что-то похожее на поведения реальных насекомых.

Возможен ли сильный искусственный интеллект?

Постоянный успех прикладного ИИ и когнитивного моделирования, описанный в предыдущих разделах этой статьи, кажется гарантированным. Однако сильный ИИ — то есть искусственный интеллект, который стремился бы дублировать интеллектуальные способности человека, остается спорным.

Преувеличенные заявления об успехе, как в профессиональных журналах, так и в популярной прессе, нанесли ущерб его репутации. В настоящее время даже система, демонстрирующая общий интеллект таракана практически неуловима, не говоря уже о системе, которая может соперничать с человеческим существом.

Сложность масштабирования скромных достижений ИИ трудно переоценить. Пять десятилетий исследований символического ИИ не дали никаких твердых доказательств того, что он может проявлять человеческий уровень общего интеллекта; коннекционисты неспособны моделировать нервные системы даже простейших беспозвоночных; а критики нового ИИ считают просто мистическим мнение, что высокоуровневое поведение, включающее понимание языка, планирование и рассуждение, каким-то образом возникнет из взаимодействия базовых видов поведения, таких как избегание препятствий, контроль взгляда и манипулирование объектами.

Однако это отсутствие существенного прогресса может быть просто свидетельством сложности сильного ИИ, а не его невозможности. Обратимся к самой идее сильного искусственного интеллекта. Может ли компьютер думать? Уместно ли вообще говорить, что компьютеры мыслят? Если да, то каким условиям должен удовлетворять компьютер, чтобы его можно было считать думающим?

Некоторые специалисты предлагают тест Тьюринга в качестве определения интеллекта. Однако сам Тьюринг указывал, что компьютер, который можно назвать интеллектуальным, так же может провалить его тест, если он не будет способен успешно имитировать человеческое существо.

Например, почему разумный робот, предназначенный для наблюдения за добычей полезных ископаемых на Луне, обязательно должен уметь выдавать себя в разговоре за человека? Если интеллектуальная сущность может провалить тест, то тест уже не может использоваться как определение интеллекта.

Даже сомнительно, что прохождение теста действительно покажет, что компьютер разумен. Как отмечали в 1956 году теоретик информации Клод Шеннон и пионер искусственного интеллекта Джон Маккарти, что в принципе можно сконструировать машину, содержащую полный набор законсервированных ответов на все вопросы, которые допрашивающий мог бы задать в течение фиксированного промежутка времени теста.

Как и программа Parry, эта машина давала бы ответы на вопросы, просматривая соответствующие ответы в гигантской таблице. Это высказывание показывает, что даже если система вообще не будет обладать интеллектом, она сможет пройти тест Тьюринга.

На самом деле, у ИИ нет реального определения интеллекта, даже в случае нечеловеческого. Крысы разумны, но чего именно должен достичь искусственный интеллект, прежде чем исследователи смогут претендовать на такой уровень успеха?

В отсутствие достаточно точного критерия того, когда искусственная система считается разумной, нет объективного способа сказать, была ли исследовательская программа ИИ успешной или провалилась. Одним из результатов неспособности ИИ дать удовлетворительный критерий интеллекта является то, что всякий раз, когда исследователи достигают одной из целей ИИ — например, программы, которая может обобщить газетные статьи или победить чемпиона мира по шахматам, — критики могут сказать: «это не интеллект!»

Ответ Марвина Мински на проблему определения интеллекта состоит в том, чтобы утверждать, подобно Тьюрингу до него — что интеллект, это наше название любого мыслительного процесса решающего проблемы, которого мы еще не понимаем. Мински сравнивает интеллект с понятием «неизведанные регионы Африки»: он исчезает, как только мы его обнаруживаем.

Вернуться наверх