СЛАБЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: МОГУТ ЛИ МАШИНЫ ДЕЙСТВОВАТЬ ИНТЕЛЛЕКТУАЛЬНО?

Некоторые философы пытались доказать, что создать искусственный интеллект невозможно, т.е. что машины никогда не смогут действовать интеллектуально. Некоторые из них даже использовали свою эрудицию, чтобы призвать всех прекратить исследования искусственного интеллекта, приводя следующие доводы.
Искусственный интеллект, создаваемый в рамках культа компьютероцентризма, не дает даже ни малейшего шанса на то, что с его помощью удастся добиться долговременных результатов ...настало время направить усилия исследователей искусственного интеллекта (и значительные средства, выделяемые на их поддержку) в области, отличные от этого компьютеризированного подхода [1355].
Очевидно, что ответ на вопрос о том, возможно или невозможно создание искусственного интеллекта, зависит от того, как определено само понятие искусственного интеллекта. По существу создание искусственного интеллекта — это борьба за разработку наилучшей возможной программы агента в данной конкретной архитектуре. При использовании такой формулировки создание искусственного интеллекта возможно по определению, поскольку для любой цифровой архитектуры, состоящей из к битов памяти, существует точно 2к программ агентов, и для того чтобы найти наилучшую из них, достаточно просто последовательно проверить их все. Такой подход может оказаться неосуществимым при больших значениях к, но философы оперируют с теоретическими, а не практическими конструкциями.
Приведенное выше определение искусственного интеллекта вполне подходит для решения технической проблемы поиска приемлемой программы агента при наличии некоторой заданной архитектуры. Поэтому вполне можно было бы закончить этот раздел прямо сейчас, ответив положительно на вопрос, приведенный в его названии. Но философов интересует также проблема сравнения двух вычислительных архитектур — человека и машины. К тому же в философии существует давняя традиция поиска ответа на вопрос: Могут ли машины мыслить? К сожалению, сам этот вопрос определен неправильно. Для того чтобы понять, почему это так, рассмотрим приведенные ниже вопросы.
• Могут ли машины совершать полеты?
• Могут ли машины заниматься плаванием?
Большинство людей согласятся, что ответ на первый вопрос является положительным, поскольку самолеты предназначены именно для того, чтобы совершать полеты, но ответят на второй вопрос отрицательно; корабли и подводные лодки движутся над водой и под водой, но это мы не называем занятиями плаванием. Тем не менее ни приведенные вопросы, ни ответы не оказывают никакого влияния на повседневную деятельность специалистов по аэронавтике и судоходству, а также на пользователей тех машин, которыми они управляют. К тому же ответы на эти вопросы никак не могут помочь лучше проектировать или расширять возможности самолетов и подводных лодок и в большей степени касаются выбора правильных способов словоупотребления. Слово "заниматься плаванием" (swim) в английском языке постепенно приняло смысл "продвигаться в воде за счет движений частей тела", а слово "совершать полеты" (fly) не налагает таких ограничений на выбор способов передвижения. Практическая возможность пользоваться услугами "мыслящих машин" предоставляется человеку в течение всего лишь 50 лет, а этого еще недостаточно для того, чтобы толкование слова "мыслить" распространилось и на машины.
Алан Тьюринг в своей знаменитой статье "Computing Machinery and Intelligence" [1520] указал, что вместо поиска ответа на вопрос, могут ли машины мыслить, мы должны интересоваться тем, могут ли машины пройти поведенческий тест интеллектуальности, который в дальнейшем получил название теста Тьюринга. Этот тест заключается в том, что программа в течение 5 минут участвует в разговоре (складывающемся из сообщений, которые передаются в оперативном режиме) с некоторым собеседником. Затем этот собеседник должен определить, проводился ли этот разговор с программой или с другим человеком; программа успешно проходит тест, если ей удается обмануть собеседника в 30% случаев. Тьюринг предсказал, что к 2000 году компьютер с объемом памяти в 109 единиц удастся запрограммировать настолько успешно, чтобы он прошел этот тест, но оказался неправ. Некоторых людей еще раньше удавалось водить за нос в течение 5 минут; например, программа Eliza и чатбот (робот-собеседник) Mgonz, действующий в Internet, не раз обманывали людей, которые так и не могли понять, что они общаются с программой, а программа Alice смогла даже одурачить судью на соревнованиях за приз Лёбнера (Loebner Prize) 2001 года. Но ни одной программе не удалось приблизится к 30%-ному критерию в борьбе против специально обученных судей, да и в самой области искусственного интеллекта тесту Тьюринга уделяют все меньше внимания.
Тьюринг также исследовал широкий перечень вероятных возражений против самой возможности создания интеллектуальных машин, в том числе сумел предвидеть практически все возражения, которые были выдвинуты в течение полувека, прошедшего со времени появления его статьи. В этой главе будут рассмотрены некоторые из них.







Материалы

Яндекс.Метрика