Проект "Кибернетика и сознание"


Содержание
1. Кибернетика
2. Кибернетика и сознание
3. Конкретизация понятия “искусственный интеллект”
4. Проблема искусственного интеллекта
5. Заключение
Кибернетика
Кибернетика возникла на стыке многих областей знания: математики, логики,
семиотики, биологии и социологии.
Обобщающий характер кибернетических идей и методов сближает науку об
управлении, каковой является кибернетика, с философией.
Задача обоснования исходных понятий кибернетики, особенно таких, как информация,
управление, обратная связь и др. требуют выхода в более широкую, философскую
область знаний, где рассматриваются атрибуты материи - общие свойства движения,
закономерности познания.
Сама кибернетика как наука об управлении многое дает современному философскому
мышлению. Она позволяет более глубоко раскрыть механизм самоорганизации
материи, обогащает содержание категории связей, причинности, позволяет более
детально изучить диалектику необходимости и случайности, возможности и
действительности. Открываются пути для разработки "кибернетической" гносеологии,
которая не подменяет диалектический материализм теорией познания, но позволяет
уточнить, детализировать и углубить в свете науки об управлении ряд существенно
важных проблем.
Возникнув в результате развития и взаимного стимулирования ряда, в недалеком
прошлом слабо связанных между собой, дисциплин технического, биологического и
социального профиля кибернетика проникла во многие сферы жизни.
Столь необычная "биография" кибернетики объясняется целым рядом причин, среди
которых надо выделить две.
Во-первых, кибернетика имеет необычайный, синтетический характер. В связи с этим
до сих пор существуют различия в трактовке некоторых ее проблем и понятий.
Во-вторых, основополагающие идеи кибернетики пришли в нашу страну с Запада, где
они с самого начала оказались под влиянием идеализма и метафизики, а иногда и
идеологии. То же самое, или почти то же самое происходило и у нас. Таким образом
становится очевидной необходимость разработки философских основ кибернетики,
освещение ее основных положений с позиции философского познания.
Осмысление кибернетических понятий с позиции философии будет способствовать
более успешному осуществлению теоретических и практических работ в этой области,
создаст лучшие условия для эффективной работы и научного поиска в этой области
познания.
Кибернетика как перспективная область научного познания привлекает к себе все
большее внимание философов. Положения и выводы кибернетики включаются в их
области знания, которые в значительной степени определяют развитие современной
теории познания. Как справедливо отмечают отечественные исследователи,
кибернетика, достижения которой имеет громадное значение для исследования
познавательного процесса, по своей сущности и содержанию должна входить в теорию
познания.
Исследование методологического и гносеологического аспектов кибернетики
способствует решению многих философских проблем. В их числе - проблемы
диалектического понимания простого и сложного, количества и качества,
необходимости и случайности, возможности и действительности, прерывности и
непрерывности, части и целого. Для развития самих математики и кибернетики важное
значение имеет применение к материалу этих наук ряда фундаментальных
философских принципов и понятий, применение, обязательно учитывающее специфику
соответствующих областей научного знания. Среди этих принципов и понятий следует
особо выделить положение отражения, принцип материального единства мира
конкретного и абстрактного, количества и качества, нормального и содержательного
подхода к познанию и др.
Философская мысль уже много сделала в анализе аспектов и теоретико-познавательной
роли кибернетики. Было показано, сколь многообещающим в философском плане
является рассмотрение в свете кибернетики таких вопросов и понятий, как природа
информации, цель и целенаправленность, соотношение детерминизма и теологии,
соотношение дискретного и непрерывного, детерминистского и вероятностного
подхода к науке.
Нужно сказать и о большом значении кибернетики для построения научной картины
мира. Собственно предмет кибернетики - процессы, протекающие в системах
управления, общие закономерности таких процессов.
Кибернетика и сознание
Явления, которые отображаются в таких фундаментальных понятиях кибернетики, как
информация и управление, имеют место в органической природе и общественной
жизни. Таким образом, кибернетику можно определить как науку об управлении и
связи с живой природой в обществе и технике.
Один из важнейших вопросов, вокруг которого идут философские дискуссии - это
вопрос о том, что такое информация, какова ее природа? Для характеристики природы
информационных процессов необходимо кратко рассмотреть естественную основу
всякой информации, а таковой естественной основой информации является присущее
материи объективное свойство отражения.
Положение о неразрывной связи информации и отражения стало одним из важнейших
в изучении информации и информационных процессов и признается абсолютным
большинством отечественных философов.
Информация в живой природе в отличие от неживой играет активную роль, так как
участвует в управлении всеми жизненными процессами.
Материалистическая теория отражения видит решение новых проблем науки и, в
частности, такой кардинальной проблемы естествознания как переход от
неорганической материи к органической, в использовании методологической основы
диалектического материализма. Проблема заключается в том, что существует материя,
способная ощущать, и материя, созданная из тех же атомов и в тоже время не
обладающая этой способностью. Вопрос, таким образом поставлен вполне конкретно и,
тем самым, толкает проблему к решению. Кибернетика вплотную занялась
исследованием механизмов саморегуляции и самоуправления. Вместе с тем, оставаясь
методически ограниченными, эти достижения оставили открытыми ряд проблем к
рассмотрению которых привела внутренняя ломка кибернетики.
Сознание является не столько продуктом развития природы, сколько продуктом
общественной жизни человека, общественного труда предыдущих поколений людей.
Оно является существенной частью деятельности человека, посредством которой
создается человеческая природа и не может быть принята вне этой природы.
Если в машинах и вообще в неорганической природе отражение есть пассивный,
мертвый физико-химический, механический акт без обобщения и проникновения в
сущность обобщаемого явления, то отражение в форме сознания есть, то мнению
Ф.Энгельса "познание высокоорганизованной материей самой себя, проникновение в
сущность, закон развития природы, предметов и явлений объективного мира".
В машине же отражение не осознанно, так как оно осуществляется без образования
идеальных образов и понятий, а происходит в виде электрических импульсов, сигналов
и т.п. Поскольку машина не мыслит, эта не есть та форма отражения, которая имеет
место в процессе познания человеком окружающего мира. Закономерности процесса
отражения в машине определяются, прежде всего, закономерностями отражения
действительности в сознании человека, так как машину создает человек в целях более
точного отражения действительности, и не машина сама по себе отражает
действительность, а человек отражает ее с помощью машины. Поэтому отражение
действительности машиной является составным элементом отражения
действительности человеком. Появление кибернетических устройств приводит к
возникновению не новой формы отражения, а нового звена, опосредующего отражение
природы человеком.
Конкретизация понятия «искусственный интеллект»
В понятие «искусственный интеллект» вкладывается различный смысл - от признания
интеллекта у ЭВМ, решающих логические или даже любые вычислительные задачи, до
отнесения к интеллектуальным лишь тех систем, которые решают весь комплекс задач,
осуществляемых человеком, или еще более широкую их совокупность. Мы постараемся
вычленить тот смысл понятия «искусственный интеллект», который в наибольшей
степени соответствует реальным исследованиям в этой области.
Как отмечалось, в исследованиях по искусственному интеллекту ученые отвлекаются
от сходства процессов, происходящих в технической системе или в реализуемых ею
программах, с мышлением человека. Если система решает задачи, которые человек
обычно решает посредством своего интеллекта, то мы имеем дело с системой
искусственного интеллекта.
Однако это ограничение недостаточно. Создание традиционных программ для ЭВМ -
работа программиста - не есть конструирование искусственного интеллекта. Какие же
задачи, решаемые техническими системами, можно рассматривать как
конституирующие искусственный интеллект?
Чтобы ответить на этот вопрос, надо уяснить прежде всего, что такое задача. Как
отмечают психологи , этот термин тоже не является достаточно определенным. По-
видимому, в качестве исходного можно принять понимание задачи как мыслительной
задачи, существующее в психологии. Они подчеркивают, что задача есть только тогда,
когда есть работа для мышления, т. е. когда имеется некоторая цель, а средства к ее
достижению не ясны; их надо найти посредством мышления. Хорошо по этому поводу
сказал Д. Пойа: «...трудность решения в какой-то мере входит в самопонятие задачи:
там, где нет трудности, нет и задачи». Если человек имеет очевидное средство, с
помощью которого наверное можно осуществить желание, поясняет он, то задачи не
возникает. Если человек обладает алгоритмом решения некоторой задачи и имеет
физическую возможность его реализации, то задачи в собственном смысле уже не
существует.
Так понимаемая задача в сущности тождественна проблемной ситуации, и решается она
посредством преобразования последней. В ее решении участвуют не только условия,
которые непосредственно заданы. Человек использует любую находящуюся в его
памяти информацию, «модель мира», имеющуюся в его психике и включающую
фиксацию разнообразных законов, связей, отношений этого мира.
Если задача не является мыслительной, то она решается на ЭВМ традиционными
методами и, значит, не входит в круг задач искусственного интеллекта. Ее
интеллектуальная часть выполнена человеком. На долю машины осталась часть работы,
которая не требует участия мышления, т. е. «безмысленная», неинтеллектуальная.
Под словом «машина» здесь понимается машина вместе с ее совокупным
математическим обеспечением, включающим не только программы, но и необходимые
для решения задач «модели мира». Недостатком такого понимания является главным
образом его антропоморфизм. Задачи, решаемые искусственным интеллектом,
целесообразно определить таким образом, чтобы человек по крайней мере в
определении отсутствовал. При характеристике мышления мы отмечали, что его
основная функция заключается в выработке схем целесообразных внешних действий в
бесконечно варьирующих условиях. Специфика человеческого мышления (в отличие от
рассудочной деятельности животных) состоит в том, что человек вырабатывает и
накапливает знания, храня их в своей памяти. Выработка схем внешних действий
происходит не по принципу «стимул - реакция», а на основе знаний, получаемых
дополнительно из среды, для поведения в которой вырабатывается схема действия.
Этот способ выработки схем внешних действий не просто действия по командам,
пусть даже меняющимся как функции от времени или как однозначно определенные
функции от результатов предшествующих шагов), на наш взгляд, является
существенной характеристикой любого интеллекта. Отсюда следует, что к системам
искусственного интеллекта относятся те, которые, используя заложенные в них правила
переработки информации, вырабатывают новые схемы целесообразных действий на
основе анализа моделей среды, хранящихся в их памяти. Способность к перестройке
самих этих моделей в соответствии с вновь поступающей информацией является
свидетельством более высокого уровня искусственного интеллекта.
Большинство исследователей считают наличие собственной внутренней модели мира у
технических систем предпосылкой их «интеллектуальности». Формирование такой
модели, как мы покажем ниже, связано с преодолением синтаксической
односторонности системы, т.е. с тем, что символы или та их часть, которой оперирует
система, интерпретированы, имеют семантику.
Характеризуя особенности систем искусственного интеллекта, Л. Т. Кузин указывает
на: 1) наличие в них собственной внутренней модели внешнего мира; эта модель
обеспечивает индивидуальность, относительную самостоятельность системы в оценке
ситуации, возможность семантической и прагматической интерпретации запросов к
системе; 2) способность пополнения имеющихся знаний; 3) способность к
дедуктивному выводу, т.е. к генерации информации, которая в явном виде не
содержится в системе; это качество позволяет системе конструировать
информационную структуру с новой семантикой и практической направленностью; 4)
умение оперировать в ситуациях, связанных с различными аспектами нечеткости,
включая «понимание» естественного языка; 5) способность к диалоговому
взаимодействию с человеком; 6) способность к адаптации.
На вопрос, все ли перечисленные условия обязательны, необходимы для признания
системы интеллектуальной, ученые отвечают по-разному. В реальных исследованиях,
как правило, признается абсолютно необходимым наличие внутренней модели
внешнего мира, и при этом считается достаточным выполнение хотя бы одного из
перечисленных выше условий.
П. Армер выдвинул мысль о «континууме интеллекта»: различные системы могут
сопоставляться не только как имеющие и не имеющие интеллекта, но и по степени его
развития. При этом, считает он, желательно разработать шкалу уровня интеллекта,
учитывающую степень развития каждого из его необходимых признаков. Известно, что
в свое время А.Тьюринг предложил в качестве критерия, определяющего, может ли
машина мыслить, «игру в имитацию». Согласно этому критерию, машина может быть
признана мыслящей, если человек, ведя с ней диалог по достаточно широкому кругу
вопросов, не сможет отличить ее ответов от ответов человека.
Критерий Тьюринга в литературе был подвергнут критике с различных точек зрения.
На наш взгляд, действительно серьезный аргумент против этого критерия заключается
в том, что в подходе Тьюринга ставится знак тождества между способностью мыслить
и способностью к решению задач переработки информации определенною типа.
Успешная «игра в имитацию» не может без предварительного тщательного анализа
мышления как целостности бытъ признана критерием ее способности к мышлению.
Однако этот аргумент бьет мимо цели, если мы говорим не о мыслящей машине, а об
искусственном интеллекте, который должен лишь продуцировать физические тела
знаков, интерпретируемые человеком в качестве решений определенных задач.
Поэтому прав В. М. Глушков, утверждая, что наиболее естественно, следуя Тьюрингу,
считать, что некоторое устройство, созданное человеком, представляет собой
искусственный интеллект, если, ведя с ним достаточно долгий диалог по более или
менее широкому кругу вопросов, человек не сможет различить, разговаривает он с
разумным живым существом или с автоматическим устройством. Если учесть
возможность разработки программ, специально рассчитанных на введение в
заблуждение человека, то, возможно, следует говорить не просто о человеке, а о
специально подготовленном эксперте. Этот критерий, на наш взгляд, не противоречит
перечисленным выше особенностям системы искусственного .интеллекта.
Но что значит по «достаточно широкому кругу вопросов», о котором идет речь в
критерии Тьюринга и в высказывании В. М. Глушкова? На начальных этапах
разработки проблемы искусственного интеллекта ряд исследователей, особенно
занимающихся эвристическим программированием, ставили задачу создания
интеллекта, успешно функционирующего в любой сфере деятельности. Это можно
назвать разработкой «общего интеллекта». Сейчас большинство работ направлено на
создание «профессионального искусственного интеллекта», т. е. систем, решающих
интеллектуальные задачи из относительно ограниченной области (например,
управление портом, интегрирование функций, доказательство теорем геометрии и т.п.).
В этих случаях «достаточно широкий круг вопросов» должен пониматься как
соответствующая область предметов.
Исходным пунктом наших рассуждений об искусственном интеллекте было
определение такой системы как решающей мыслительные задачи. Но перед нею
ставятся и задачи, которые люди обычно не считают интеллектуальными, поскольку
при их решении человек сознательно не прибегает к перестройке проблемных
ситуаций. К их числу относится, например, задача распознания зрительных образов.
Человек узнает человека, которого видел один-два раза, непосредственно в процессе
чувственного восприятия. Исходя из этого кажется, что эта задача не является
интеллектуальной. Но в процессе узнавания человек не решает мыслительных задач
лишь постольку, поскольку программа распознания не находится в сфере осознанного.
Но так как в решении таких задач на неосознанном уровне участвует модель среды,
хранящаяся в памяти, то эти задачи в сущности являются интеллектуальными.
Соответственно и система, которая ее решает, может считаться интеллектуальной. Тем
более это относится к «пониманию» машиной фраз на естественном языке, хотя
человек в этом не усматривает обычно проблемной ситуации.
Теория искусственного интеллекта при решении многих задач сталкивается с
гносеологическими проблемами.
Одна из таких проблем состоит в выяснении вопроса, доказуема ли теоретически
(математически) возможность или невозможность искусственного интеллекта. На этот
счет существуют две точки зрения. Одни считают математически доказанным, что ЭВМ
в принципе может выполнить любую функцию, осуществляемую естественным
интеллектом. Другие полагают в такой же мере доказанным математически, что есть
проблемы, решаемые человеческим интеллектом, которые принципиально недоступны
ЭВМ. Эти взгляды высказываются как кибернетиками, так и философами.
Проблема искусственного интеллекта
Гносеологический анализ проблемы искусственного интеллекта вскрывает роль таких
познавательных орудий, как категории, специфическая семиотическая система,
логические структуры, ранее накопленное знание. Они обнаруживаются не
посредством исследования физиологических или психологических механизмов
познавательного процесса, а выявляются в знании, в его языковом выражении. Орудия
познания, формирующиеся в конечном счете на основе практической деятельности,
необходимы для любой системы, выполняющей функции абстрактного мышления,
независимо от ее конкретного материального субстрата и структуры. Поэтому, чтобы
создать систему, выполняющую функции абстрактного мышления, т. е. в конечном
счете формирующую адекватные схемы внешних действий в существенно меняющихся
средах, необходимо наделить такую систему этими орудиями.
Развитие систем искусственного интеллекта за последние десятилетия идет по этому
пути. Однако степень продвижения в данном направлении в отношении каждого из
указанных познавательных орудий неодинакова и в целом пока незначительна.
1. В наибольшей мере системы искусственного интеллекта используют формально-
логические структуры, что обусловлено их неспецифичностью для мышления и в
сущности алгоритмическим характером. Это дает возможность относительно легкой их
технической реализации. Однако даже здесь кибернетике предстоит пройти большой
путь. В системах искусственного интеллекта еще слабо используются модальная,
императивная, вопросная и иные логики, которые функционируют в человеческом
интеллекте и не менее необходимы для успешных познавательных процессов, чем
давно освоенные логикой, а затем и кибернетикой формы вывода. Повышение
«интеллектуального» уровня технических систем, безусловно, связано не только с
расширением применяемых логических средств, но и с более интенсивным их
использованием (для проверки информации на непротиворечивость, конструирования
планов вычислений и т. д.).
2. Намного сложнее обстоит дело с семиотическими системами, без которых
интеллект невозможен. Языки, используемые в ЭВМ, еще далеки от семиотических
структур, которыми оперирует мышление.
Прежде всего для решения ряда задач необходимо последовательное приближение
семиотических систем, которыми