ли результаты "машинного мышления" превзойти уровень интеллектуальных
возможностей человека? По-видимому, следует перечислить возможные ответы.
При этом мы не знаем, исчерпаны ли в_с_е возможные варианты, так же как не
знаем, какой из них истинен.
А. Машинное мышление по некоторым принципиальным причинам не может
превысить "потолок человеческого интеллекта". Например, потому, что
никакая система не может быть "разумнее" человека; мы сами уже достигли
потолка, но просто не знаем об этом. Либо потому, что к мыслящим системам
типа "человек" ведет единственный путь - путь естественной эволюции,
который можно в лучшем случае "пройти вновь", используя как
экспериментальный полигон всю планету; либо, наконец, потому, что
небелковые системы в интеллектуальном отношении (то есть как
преобразователи информации) всегда хуже белковых и т.п.
Все это звучит весьма неправдоподобно, хотя исключить такую
возможность пока нельзя. Я говорю это, опираясь на эвристику, которая
подсказывает, что человек как разумное существо вполне зауряден, коль
скоро его сформировал отбор по сравнительно малому числу параметров на
протяжении всего лишь миллиона лет; что могут существовать и более
"разумные" существа; что процессы Природы воспроизводимы и что к тем
состояниям, к которым Природа пришла одной цепочкой шагов, можно прийти и
другими путями.
Б. Машинное мышление способно превзойти человеческий интеллектуальный
потолок, подобно тому как учитель математики "умнее", чем его ученики. Но
так как человек способен понимать то, к чему не может прийти
самостоятельно (например, дети понимают евклидову геометрию, хотя и не
придумывают ее сами), то человеческому интеллекту не грозит потеря
контроля над "познавательной стратегией машин"; он всегда будет понимать,
что они делают, как они это делают и почему делают. Эта позиция также
представляется мне неприемлемой.
Собственно говоря, что означает фраза: "Машинное мышление способно
превзойти интеллектуальный потолок человека"? Неправильно понимать это
превосходство как превосходство учителя над учениками; это ложное
понимание - ведь учитель тоже не создал геометрии. Речь идет об отношении
творцов науки ко всем остальным людям - вот что является аналогом
отношения "машина - человек". А это значит, что машины могут создавать
теории, то есть выделять инварианты тех или иных классов явлений в более
широком диапазоне, чем человек. "Усилитель интеллекта" Эшби 5, в его
первоначальном замысле, не заменил бы ученого, ибо этот усилитель -
простой селектор информации, тогда как труд ученого к отбору несводим.
Разумеется, машина Эшби могла бы охватить в качестве элементов выбора
значительно большее число альтернатив, чем на это способен человек. Это
устройство вполне реально и полезно, если мы остановились на распутье и
должны избрать дальнейшую дорогу. Оно оказывается бесполезным, если нам
лишь предстоит догадаться, что какой-то путь вообще существует, например
путь "квантования процессов". Поэтому такой усилитель нельзя считать и
первым приближением к машине, автоматизирующей творческий труд ученого.
Пока что мы не в состоянии начертить хотя бы приближенный эскиз того, что
нам нужно. Однако мы знаем, по крайней мере в грубых чертах, что должна
уметь такая "гностическая" машина: для создания теории сложных систем она
должна учитывать огромное количество параметров - такое количество, с
которым алгоритмы современной науки справиться не могут.
В физике отдельные уровни явлений можно рассматривать изолированно
(атомная физика, ядерная физика, физика твердого тела, механика). В
социологии это невозможно: различные уровни (сингулярно-единичный,
плюрально-массовый) попеременно оказываются ведущими, то есть определяют
динамическую траекторию системы. Основное препятствие как раз в количестве
переменных, подлежащих учету. "Гностическая" машина, способная создать
"теорию общественной системы" 6, должна была бы принять во внимание очень
большое число переменных и этим отличалась бы от известных нам физических
формализмов. Итак, на выходе "гностического творца" мы получаем теорию,
закодированную, скажем, в виде целой системы уравнений. Смогут ли люди
как-либо подступиться к этим уравнениям?
Создавшуюся ситуацию, может быть, легче понять на примере,
почерпнутом из биологии. Если информационная емкость яйцеклетки совпадает
с количеством информации, содержащейся в энциклопедии, и если заполнить
расшифровкой генотипа тома энциклопедии, то и тогда подобную энциклопедию
можно будет прочесть, однако лишь потому, что читателю известны физика,
химия, биохимия, теория эмбриогенеза, теория самоорганизующихся систем и
т.д. Одним словом, ему известны соответствующий язык и правила его
использования. В случае же теории, которую "породит" машина, он не будет
знать предварительно ни ее языка, ни законов его применения, всему этому
он должен будет еще учиться. Вопрос в его окончательном виде ставится,
следовательно, так: может ли читатель этому научиться?
В этом месте в наши рассуждения входит фактор времени. Ведь, пожалуй,
вполне очевидно, что бактериальной клетке при делении нужно гораздо меньше
времени, чем нам, для того, чтобы прочитать содержащуюся в ней информацию,
закодированную на языке аминокислот и нуклеотидов. Пока мы "глазами и
мозгом" один раз прочтем текст "формализованной и перекодированной
бактерии", она успеет претерпеть сотни делений, потому что она-то при
каждом своем делении "читает сама себя" несравненно быстрее. А в случае
"теории общества" - или вообще какой-либо чрезвычайно сложной системы -
время чтения может оказаться таким, что читателю не под силу будет ничего
понять. Хотя бы потому, что он не сможет мысленно оперировать членами
уравнений: из-за своей огромной длины они ускользают из его поля зрения,
превышают возможности его памяти; такое чтение станет поистине сизифовым
трудом. Но тогда вопрос прозвучит так: можно ли свести теорию, выданную
машиной, к такой достаточно простой форме, чтобы человек мог эту теорию
охватить? Боюсь, что это будет невозможно. Разумеется, упрощение само по
себе возможно, но только всякая следующая форма теории после очередного
упрощения окажется, с одной стороны, беднее оригинала за счет каких-то
утраченных элементов, а с другой стороны, - все еще слишком сложной для
человека.
Таким образом, производя упрощение, машина будет заниматься тем же,
что делает физик, когда на публичной лекции излагает теорию гравитационных
волн, обходясь скудным арсеналом школьной математики. Или тем, что делал
мудрец из восточной сказки, который принес властелину, жаждавшему знаний,
сначала библиотеку, занявшую целый караван верблюдов, потом сотню томов,
навьюченную на мула, и, наконец, толстые фолианты, которые нес один раб, -
ибо для властелина эти последовательные "упрощения" все еще были "слишком
пространны".
Из сказанного видно, что уже нет надобности рассматривать такую
(третью) возможность: машина способна превзойти интеллектуальный потолок
человека как в том, что человек еще может, так и в том, чего он уже не
может понять. Эта возможность появилась как следствие в ходе опровержения
второй.
Там, куда человек сможет дойти своим умом, машина, вероятно,
понадобится только в качестве "раба", который будет выполнять трудоемкие
вспомогательные операции (расчеты, доставка нужной информации), то есть
будет играть роль "ассистента" при "поэтапных операциях", роль
"вспомогательной памяти" и т.п. Там, где разум человека будет уже
недостаточен, машина представит готовые модели явлений, готовые теории.
Тогда возникает вопрос-антиномия: "Как можно контролировать то, чего
контролировать нельзя?" Может быть, следует создать машины-"антагонисты",
которые взаимно контролировали бы результаты своих действий? Но что
предпринять, если они дадут на выходе противоречивые результаты? В
конце-то концов судьба теорий, порожденных машинами, зависит от нас; в
особо конфликтной ситуации мы можем даже предать теорию огню. Иначе
обстоит дело с управляющими машинами - такими машинами, которые являются
наиболее вероятным воплощением усилителя умственных способностей Эшби.
Роботов с квазичеловеческой индивидуальностью вряд ли кто-либо станет
создавать. Зато, несомненно, возникнут и будут разрастаться
кибернетические центры, управляющие производством, товарооборотом,
распределением, а также научными исследованиями (координация усилий
ученых, которым на начальной стадии работ "симбиотически" помогают
вспомогательные машины).
Но очевидно, что подобные локальные координаторы нуждаются в
сверхкоординаторах в масштабе, например, государства или континента.
Возможны ли между ними конфликты? Как нельзя более возможны. Конфликты
будут возникать в связи с капиталовложениями, исследованиями,
энергозатратами. Ведь всякий раз будет необходимо установить приоритет тех
или иных действий и шагов с учетом целого "муравейника" взаимосвязанных
факторов. Такие конфликты необходимо будет разрешать. Мы, разумеется,
спешим сказать: это будут делать люди. Отлично. Вспомним, что конфликты
будут касаться проблем огромной сложности и людям - контролерам
Координатора, чтобы обрести ориентировку в открывшемся перед ними
математическом море, придется прибегнуть к помощи других машин - машин,
оптимизирующих решение. Над всем этим высится глобальный аспект экономики
- ее тоже нужно координировать. Всепланетный Координатор - тоже машина, со
своим "консультативным советом", состоящим из людей, которые проверяют
локальные решения системы "машин-контролеров" на отдельных континентах. Но
как будут проводить такую проверку члены "консультативного совета"? Для
этого у них будут собственные машины, оптимизирующие решения. Тогда
возникает вопрос: возможно ли, что их машины при контрольном дублировании
работы континентальных машин дадут иные результаты? Это вполне возможно:
ведь каждая машина при выполнении определенной цепочки шагов, из которых
слагается решение задачи (например, по методу последовательных приближений
из-за огромного числа переменных), становится в каком-то смысле
"пристрастной" - тем, что на английском философском жаргоне выражается
словом "biased". Известно, что человек в принципе не может не быть
пристрастным; но почему должна быть пристрастной машина? Дело в том, что
пристрастность отнюдь не обязана вытекать только из эмоционального
предубеждения, она возникает в машине уже тогда, когда конфликтующим
членам альтернативы машина придает различный "вес". Возможно ли, что при
расстановке оценок несколько независимо работающих машин дадут результаты,
отличные друг от друга? Конечно же, ведь эти машины будут по объективным
причинам вероятностными устройствами и поэтому не смогут действовать
одинаково. С алгоритмической точки зрения процесс управления представляет
собой "дерево решений" или целый класс таких "деревьев"; нужно
согласовывать противоречивые потребности, различные стремления, интересы,
нужды и невозможно ввести заранее такой "ценник" для всех мыслимых
конфликтных ситуаций, чтобы эти "оценки в баллах" сами по себе, несмотря
на применение статистических методов, приводили к одинаковым результатам
при повторных решениях одной и той же проблемы. При этом очевидно, что
степень различия результатов есть функция сложности решаемых задач.
Ситуация, возможно, станет более выразительной, если мы заметим, что