Довод, исходящий из неформализуемости

Одно из наиболее важных и трудно оспоримых критических замечаний в адрес искусственного интеллекта как сферы приложения человеческих усилий было сформулировано Тьюрингом как довод, основанный на "неформализуемости поведения". По сути это критическое замечание сводится к утверждению, что человеческое поведение является слишком сложным для того, чтобы его можно было описать с помощью какого-либо простого набора правил, а поскольку компьютеры не способны ни на что, кроме выполнения множества правил, они не способны и проявлять такое же интеллектуальное поведение, как люди. В искусственном интеллекте неспособность выразить все, что потребуется, в виде множества логических правил называют проблемой спецификации (см. главу 10).
Основными сторонниками этих взглядов были философы Хьюберт Дрейфус, который написал ряд влиятельных критических статей против искусственного интеллекта, в том числе "What Computers Cant Do" (Что не способны делать компьютеры) [414] и 11 What Computers Still Can't Do" [415], и его брат Стюарт, совместно с которым Хьюберт написал статью 11 Mind Over Machine" [416].
Положение дел, которое критиковали эти ученые, получило известность как "добрый старый искусственный интеллект", или сокращенно GOFAI (Good Old-Fashioned AI); этот термин был предложен Хоглендом [631]. При этом предполагается, что в основе GOFAI лежит утверждение, будто все интеллектуальное поведение может быть представлено с помощью системы, которая формирует логические рассуждения на основании множества фактов и правил, описывающих рассматриваемую проблемную область. Поэтому GOFAI соответствует простейшему логическому агенту, описанному в главе 7. Дрейфус был прав, утверждая, что логические агенты действительно имеют слабое место, поскольку не позволяют решить проблему спецификации. Но как было показано в главе 13, для использования в открытых проблемных областях в большей степени подходят вероятностные системы формирования рассуждений. Поэтому критические замечания Дрейфуса относятся не к компьютерам как к таковым, а скорее к одному конкретному способу их программирования. Однако, вполне можно предположить, что более правильное название для статьи Дрейфуса, " What First-Order Logical Rule-Based Systems Without Learning Can't Do" (Что не способны делать системы на основе правил логики первого порядка, в которых не применяются средства обучения), было бы гораздо менее впечатляющим.
Согласно взглядам Дрейфуса, человеческий опыт подразумевает наличие знаний о некоторых правилах, но лишь в качестве "целостного контекста" (или "основы"), в рамках которого действуют люди. Он приводит пример корректного социального поведения при вручении и получении подарков: "Обычно люди, вручая подходящий к случаю подарок, действуют в рамках сложившихся в данном случае обстоятельств". Очевидно, что люди обладают "непосредственным пониманием того, как следует действовать и чего следует ожидать". Такое же утверждение он выдвигает в контексте игры в шахматы: "Шахматисту среднего уровня может потребоваться обдумать следующий ход, а гроссмейстер просто видит, что положение на доске само требует определенного хода ...правильный ответ сам складывается в его голове". Безусловно, нельзя отрицать, что основная часть мыслительных процессов лица, готовящего подарок, или гроссмейстера, выбирающего ход, осуществляется на уровне, недоступном для самоанализа со стороны пытливого разума. Но из этого не следует, что сами эти мыслительные процессы не происходят. Важный вопрос, на который не отвечает Дрейфус, состоит в том, как правильный ход появляется в голове гроссмейстера. Напомним читателю один из комментариев Дэниела Деннета [389], приведенный ниже.
Создается впечатление, будто философы взяли на себя роль толкователей приемов фокусников. Когда их спрашивают, как фокусник ставит свой трюк с распиливанием ассистентки пополам, они объясняют, что в этом нет ничего сложного: фокусник фактически никого не распиливает; он просто заставляет людей верить, что он это делает. Если же философов спрашивают: "Но как ему удается создать такое впечатление?", они отвечают: "Мы в этом не компетентны".
В статье братьев Дрейфус [416] предложен пятиэтапный процесс приобретения опыта, который начинается с обработки полученной информации на основе правил (осуществляемой по такому же принципу, как в GOFAI) и заканчивается приобретением способности мгновенно выбирать правильные ответы. Но внося свое предложение, братья Дрейфус по сути перешли из разряда критиков искусственного интеллекта в разряд его теоретиков — они предложили архитектуру нейронной сети, организованную в виде огромной "библиотеки примеров", указав при этом на несколько проблем. К счастью, все указанные ими проблемы полностью решены, причем некоторые частично, а другие полностью. Упомянутые братьями Дрейфус проблемы перечислены ниже.
1. Качественное обобщение на основании примеров не может быть достигнуто без фоновых знаний. Дрейфусы утверждают, что не существует способа, позволяющего использовать фоновые знания в процессе обучения нейронной сети. А в действительности, как было описано в главе 19, уже разработаны такие методы, которые позволяют использовать априорные знания в алгоритмах обучения. Тем не менее эти методы основаны на том, что в наличии имеются знания, представленные в явной форме, а этот подход братья Дрейфус упорно отрицают. По мнению авторов настоящей книги, взгляды этих ученых являются основательной причиной для серьезного перепроектирования современных моделей нейронной обработки информации, для того чтобы в них можно было воспользоваться знаниями, полученными ранее в процессе обучения, по такому же принципу, как такие знания используются в других алгоритмах обучения.
2. Обучение нейронной сети представляет собой одну из разновидностей контролируемого обучения (см. главу 18), для которой требуется заблаговременное выявление релевантных входных данных и правильных выходных данных. Поэтому, по утверждению братьев Дрейфус, система обучения нейронной сети не может действовать автономно, без помощи учителя-человека. В действительности обучение без учителя может осуществляться с помощью методов неконтролируемого обучения (см. главу 20) и обучения с подкреплением (см. главу 21).
3. Производительность алгоритмов обучения снижается при использовании большого количества характеристик, а если выбрано лишь подмножество характеристик, то, по словам этих ученых, "не существует способа введения новых характеристик в том случае, если будет обнаружено, что текущее множество не позволяет учитывать некоторые факты, усваиваемые в процессе обучения". В действительности с большими множествами характеристик очень успешно справляются такие новые методы, как машины поддерживающих векторов. Как было показано в главе 19, существует также принципиальная возможность вырабатывать новые характеристики, хотя для этого требуется гораздо больше усилий.
4. Мозг способен направлять свои сенсоры на поиск релевантной информации и обрабатывать ее для извлечения аспектов, релевантных для текущей ситуации. Но Дрейфусы утверждают, что "в настоящее время неизвестны детали этого механизма и нет даже таких гипотез о его работе, которые направили бы исследования искусственного интеллекта по правильному пути". В действительности проблеме выбора правильной ориентации сенсоров посвящена область активного зрения, основанная на теории стоимости информации (см. главу 16), а полученные теоретические результаты уже были применены при создании некоторых роботов.
В конечном итоге многие проблемы, на которых сосредоточились братья Дрейфус (фоновые обыденные знания, проблема спецификации, неопределенность, обучение, компилированные формы средств принятия решений, важность применения агентов, реагирующих на текущую ситуацию, а не бестелесных машин логического вывода), уже были решены, а достигнутые результаты воплощены в стандартных проектах интеллектуальных агентов. По мнению авторов настоящей книги, это — свидетельство прогресса искусственного интеллекта, а не подтверждение неосуществимости поставленной перед ним цели.







Материалы

Яндекс.Метрика