logo search
Наука и философия науки

Математика

Рассмотрим некоторые проблемы современной математики на примере гипотезы Пуанкаре (одна из семи математических проблем тысячелетия), решение которой предложил русский математик Григорий Перельман. Воспользуемся прекрасной статьей Грэхема Коллинза, редактора журнала Scientific American. (Коллинз Г. Формы пространства// В мире науки, №10, 2004, с. 53 – 61). Материал статьи изложен так, что может служить хорошим введением в математику для нематематиков.

Окружающие нас предметы, как и мы сами, представляют собой набор частиц, перемещающихся в трехмерном пространстве, которое протирается во всех направлениях на многие миллиарды световых лет. Многообразия – это математические построения. Физики считают, что все на свете происходит в трехмерном пространстве и положение любой частицы можно задать тремя числами, например, широтой, долготой и высотой, хотя теория струн настаивает на большем числе измерений. В отличие от классической и традиционной квантовой физике в общей теории относительности пространство является активным участником событий: расстояние между двумя точками зависит от проходящих гравитационных волн и от того, сколько вещества и энергии расположено вблизи. Тем не менее, пространство трехмерно.

Свойствами трехмерного пространства занимается топология (наука о местах), которая рассматривает три фундаментальных вопроса:

-каков самый простой тип трехмерного пространства?

-есть ли у него столь же простые аналоги или он уникален?

-какие вообще бывают трехмерные пространства?

Ответ на первый вопрос известен давно: самым простым компактным трехмерным пространством является пространство, называемое 3-сферой. Некомпактные многообразия бесконечны и не имеют края. В статье Г.Коллинза рассматриваются только компактные многообразия.

Ответ на два других вопроса дал Г.Перельман, предложивший решение теоремы великого французского математика Анри Пуанкаре.

Еще в 1904 году А.Пуанкаре предположил, что любой трехмерный объект, обладающий определенными свойствами трехмерной сферы, можно преобразовать в 3-сферу. Следует иметь в виду, что трехмерная сфера – это не то, что многие люди обычно вкладывают в понимание этого понятия.

Потребуется изрядное воображение, чтобы представить себе 3-сферу. Дело в том, что математикам, доказывающим теоремы о многомерных пространствах, не приходится воображать себе объект изучения: они обращаются с абстрактными свойствами, руководствуясь интуитивными представлениями, основанными на аналогиях с меньшим числом измерений (к таким аналогиям нужно относиться с осторожностью и не принимать их буквально). Рассмотрим 3-сферу, исходя из свойств объектов с меньшим числом измерений.

Во-первых, начнем с рассмотрения круга и ограничивающей его окружности. Для математика круг – это двумерный шар, а окружность – одномерная сфера. Далее, шар любой размерности – это заполненный объект, напоминающий арбуз, а сфера – это его поверхность, больше похожая на воздушный шарик. Окружность одномерна, потому что положение точки на ней можно задать одним числом.

Во-вторых, из двух кругов мы можем построить двумерную сферу, превратив один из них в одно, а второй во второе полушарие (южное и северное, например). Осталось их склеить и 2-сфера готова.

В-третьих, представим себе муравья, ползущего с северного полюса по большому кругу, образованному нулевым и 180-м меридианом. Если мы отобразим его путь на два исходных круга, то увидим, что муравей движется по прямой линии к краю северного круга, затем пересекает границу, попадает в соответствующую точку на южном круге и продолжает следовать по прямой линии. Затем муравей снова достигает края, переходит его и снова оказывается на северном круге, устремляясь к исходной точке – северному полюсу. Во время путешествия муравья по 2-сфере направление его движения сменяется на противоположное при переходе с одного круга на другой.

В-четвертых, рассмотрим 2-сферу и содержащийся в ней объем (трехмерный шар) и сделаем с ними то же самое, что с окружностью и кругом: возьмем две копии шара и склеим их границы вместе. Наглядно показать, как шары искажаются в четырех измерениях и превращаются в аналог полушарий, невозможно, да и не нужно. Достаточно знать, что соответствующие точки на поверхности, т.е. 2-сферах, соединены между собой так же, как в случае с окружностями. Результат соединения двух шаров представляет собой 3-сферу – поверхность четырехмерного шара. (В четырех измерениях, где существует 3-сфера и 4-шар, поверхность объекта трехмерна). Назовем один шар северным полушарием, а другой – южным. По аналогии с кругами, полюса теперь находятся в центрах шаров.

В-пятых, вообразите, что рассмотренные шары – большие пустые области пространства. Допустим, из северного полюса отправляется космонавт на ракете. Со временем он достигает экватора, которым теперь является сфера, окружающая северный шар. Пересекая ее, ракета попадает в южное полушарие и движется по прямой линии через его центр – южный полюс – к противоположной стороне экватора. Там снова происходит переход в северное полушарие, и космонавт возвращается в северный полюс, т.е. в исходную точку. Именно таков сценарий кругосветного путешествия по поверхности четырехмерного шара. Рассмотренная трехмерная сфера и есть то пространство, о котором идет речь в гипотезе Пуанкаре. Возможно, наша вселенная представляет собой именно 3-сферу.

Рассуждения можно распространить на пять измерений, и построить 4-сферу, но вообразить это чрезвычайно сложно. Если склеить два n-шара по окружающим их (n-1)-сферам, то получится n-сфера, ограничивающая (n+1)-шар.

В топологии точная форма объекта, т.е. геометрия, не имеет значения. Объекты рассматриваются так, как будто они сделаны из теста, которое можно как угодно растягивать, сжимать, изгибать. Однако резать и склеивать ничего нельзя. Таким образом, любой объект с одним отверстием, например, чайная чашка, эквивалентен бублику или тору. Любое двумерное многообразие или поверхность, ограничиваясь компактными ориентируемыми объектами, можно изготовить, добавляя к сфере ручки: прилепим одну – сделаем поверхность 1 рода, т.е. тор или бублик; добавим вторую – получим поверхность 2 рода.

Уникальность 2-сферы среди поверхностей заключается в том, что любую вложенную в нее замкнутую петлю можно стянуть в точку. На торе этому может препятствовать среднее отверстие. У любой поверхности кроме 2-сферы, есть ручки, препятствующие стягиванию петли. А.Пуанкаре предположил, что 3-сфера уникальная среди трехмерных многообразий, ибо только на ней любую петлю можно стянуть в точку.

Внимание математиков привлечено к такого рода объектам в связи с тем, что точная форма объекта – расстояние между всеми его точками – относится к структурному уровню, который называют геометрией. Рассматривая объект из теста, топологи выявляют его фундаментальные свойства, не зависящие от геометрической структуры. Изучение топологии похоже на поиск наиболее общих черт, присущих людям, методом рассмотрения «пластилинового человека», которого можно превратить в любого конкретного индивида.

С точки зрения топологии, чашка ничем не отличается от бублика. Чашку из теста можно превратить в бублик, просто сминая материал, а вот бублик из шара можно сделать, лишь проткнув дыру или раскатав в трубку, соединить концы. Поэтому шар – это вовсе не бублик. Топологов больше всего интересуют поверхности шара и бублика. Поэтому вместо сплошных тел следует представлять себе воздушные шарики.

Топология шариков по-прежнему различна, поскольку сферический воздушный шарик невозможно преобразовать в кольцевой, который называется тором. Сначала ученые решили разобраться, сколько вообще существует объектов с различной топологией и как их можно охарактеризовать. Для 2- многообразий (это поверхности) ответ таков: все определяется количеством дырок, или что тоже самое, количеством ручек.

Что касается 3-мерного пространства, то здесь все сложнее. В 1900 году А.Пуанкаре сформулировал топологическую характеристику объекта, названную гомотопией. Чтобы определить гомотопию многообразия, нужно мысленно погрузить в него замкнутую петлю. Затем следует выяснить, всегда ли можно стянуть петлю точку, перемещая ее внутри многообразия. Для тора ответ будет отрицательным: если расположить петлю по окружности тора, то стянуть ее в точку не удастся, т.к. будет мешать дырка бублика. Гомотопия – это количество различных путей, которые могут воспрепятствовать стягиванию петли.

На n-сфере любую, даже замысловато закрученную петлю всегда можно распутать и стянуть в точку. Петле разрешается проходить через саму себя. А.Пуанкаре предполагал, что 3-сфера – это единственное 3-многообразие, на котором в точку можно стянуть любую петлю. Но доказать это он не смог.

Г.Перельман обратился к методам геометризации. Геометрия имеет дело с физической формой объектов и многообразий, сделанных уже не из теста, а из керамики. Например, чашка и бублик геометрически различны, поскольку их поверхности изогнуты по-разному. Чашка и бублик – два примера топологического тора, которому приданы разные геометрические формы.

Каждой топологической поверхности назначена уникальная геометрия, искривление которой распределено по многообразию равномерно. Например, для сферы – идеально сферическая поверхность. Другая возможная геометрия для топологической сферы – яйцо, но его кривизна не везде распределена равномерно: острый конец изогнут сильнее, чем тупой.

2-многообразия образуют три геометрических типа. Сфера характеризуется положительной кривизной. Геометризированный тор – плоский, и ему свойственна нулевая кривизна. Все остальные 2-многообразия с двумя или более дырками имеют отрицательную кривизну. Им соответствует поверхность, похожая на седло, которое спереди и сзади изгибается вверх, а слева и справа – вниз. Такую геометрическую классификацию разработал А.Пуанкаре. Возникает желание применить данный подход и к 3-многообразию. Однако они гораздо сложнее двумерных, они имеют части, к которым применим разные методики. Например, когда часть объекта имеет форму гантели, трубка между сферами может оказаться пережатой до точечного сечения, нарушая свойства многообразия. Также не исключено появление так называемой сигарообразной особенности.

Г.Перельман показал, что над особенностями можно проводить некие хирургические операции. Когда многообразие начинает пережиматься, следует вырезать небольшие участки по обе стороны от точек сужения, места среза закрыть небольшими сферами, а затем использовать «поток Риччи» (1890-е годы). (Наподобие уравнения теплопроводности, которое описывает тепловые потоки, протекающие в неравномерно нагретом теле до тех пор, пока его температура не станет везде одинаковой, уравнение математика Грегорио Риччи-Курбастро задает такое многообразие кривизны многообразия, которое ведет к выравниванию всех выступов и углублений. Например, если начинать с яйца, то оно постепенно станет сферическим). Г.Перельман добавил к «потоку Риччи» важное изменение, которое позволило провести гораздо более глубокий анализ. Если пережим возникает снова, процедуру нужно повторить. Г.Перельман показал также, что сигарообразная особенность никогда не появляется. Таким образом, любое 3-многообразие можно свести к набору частей с однородной геометрией.

Выяснилось также, что «поток Риччи» связан с так называемой группой перенормировки, которая определяет, как изменяется сила взаимодействий в зависимости от энергии столкновения частиц.

Не без некоторого умысла автор настоящего пособия разместил текст по математике, не пояснив его рисунками. Если читатель испытывает серьезные затруднения в том, чтобы представить и путь муравья и объемные фигуры, значит, школа лишила его чего-то важного, сделав крен в начальных классах на развитии механической памяти в ущерб таким важным качествам, как умение сохранять живость восприятия окружающего мира и воображение. В хорошо известной сказке о том, как муравей под порывом ветра улетел на листке березы далеко от родного дома и вынужден был добираться обратно, используя самые разные способы передвижения, содержатся все необходимые элементы для математического моделирования расстояния, времени и скорости движения того или иного объекта. Однако в школьном учебнике мы видим лишь холодные строчки примеров и заданий для решения. Есть то, что напоминает математику, но нет объектов, которые действуют, создавая ситуации для моделирования. Не понимают этой проблемы учителя – слепые машины для обучения, но не понимают и те, кто обязан понимать, разработчики учебных пособий. Компьютеры усложнятся, люди упрощаются.

Математика и физика

На стыке физики и математики возникла экспериментальная математика: открытие новых математических закономерностей путем компьютерной обработки большого числа примеров. Такой подход не столь убедителен, как короткое доказательство, но может быть убедительнее длинного, сложного доказательства и в некоторых случаях вполне приемлем. Данную концепцию отстаивали Д.Пойа, И.Лакатос, которые были убежденными сторонниками эвристических методов и квазиэмпирической природы математики. Они применяются и обосновываются в книге Стивена Вольфрама «Новы вид науки».

Принято считать, что математика и физика абсолютно не похожи. Физика описывает мир, исходя из результатов экспериментов и наблюдений. Законы, управляющие вселенной (законы Ньютона, Стандартная модель физики элементарных частиц) должны устанавливаться эмпирически и затем приниматься за аксиомы, которые невозможно доказать логическим путем, а можно лишь проверить экспериментально.

Математики независимы от мира. Их выводы и теоремы (свойства целых или вещественных чисел) никак не зависят от реальности. Математические истины должны быть верны в любом мире.

И все же некоторое сходство есть. В физике, и вообще в естественных науках, ученые формулируют законы, сублимируя результаты наблюдений. Затем они показывают, как результаты наблюдений могут быть выведены из получившихся законов. В математике происходит нечто подобное: математики сжимают результаты вычислительных экспериментов в аксиомы, а затем выводят из них теоремы. И.Лакатос, один из немногих, полагал, что физика и математика весьма схожие между собой. Он ввел понятие квазиэмпиричности, чтобы показать, что и математике не чужды эксперименты.

Столетиями геометры ломали голову, пытаясь доказать пятый постулат Евклида: через выбранную точку, лежащую вне прямой, можно провести только одну прямую, параллельную данной. Наконец, они поняли, что пятую аксиому можно заменить и получить неевклидову геометрию криволинейных пространств, в частности физического и седлообразного.

Другим примером может служить закон исключенного среднего в логике и аксиома выбора в теории множеств. Есть ученые, которые их не признают и исследуют так называемую интуиционистскую логику и конструктивистскую математику. Отсюда следует, что математика пока не превратилась в монолитную систему абсолютных истин.

Нам следует здесь вспомнить Г.Лейбница с его работой 1686 года «Рассуждения о метафизике», в котором оставлен вопрос о том, как отличить факты, которые можно описать, от фактов, никаким законам не подчиняющихся. Лейбниц говорит о том, что теория должна быть проще данных, которые она объясняет, иначе она не объясняет ничего. (Лейбниц Г.-В. Сочинения в четырех томах: Т. 1. – М.: Мысль, 1982. – 636с.).

Концепция научного закона становится бессмысленной, если допускает неограниченный уровень математической сложности, потому что в таком случае всегда можно сформулировать закон независимо от того, насколько случайны и беспорядочны факты. И наоборот, если единственный закон, объясняющий какие-то данные, оказывается слишком сложным, то рассматриваемые данные на самом деле не подчиняются никакому закону.

Современная математическая теория алгоритмической информации позволила дать точные количественные определения понятиям сложности и простоты. Обычная теория информации определяет объем информации числом битов, необходимых для ее кодирования. Например, для кодирования простого ответа да/нет нужен один бит. В отличие от этого, объем алгоритмической информации определяется длиной компьютерной программы, необходимой для генерации данных. Минимальное число битов, необходимых для хранения программы, называется количеством алгоритмической информации данных. Например, бесконечный ряд натуральных чисел 1, 2, 3, … содержит очень мало алгоритмической информации: все числа ряда можно получить с помощью короткой компьютерной программы. Не имеет значения, сколько времени понадобится для выполнения вычислений и какой объем памяти придется использовать, важна лишь длина программы в битах.

В качестве другого примера возьмем «число пи», равное 3, 14159… Количество алгоритмической информации в нем тоже невелико: для последовательного вычисления всех его знаков нужен довольно короткий алгоритм. А вот случайное число, содержащее всего миллион знаков, например, 1,341285…64, характеризуется гораздо большим количеством алгоритмической информации. Поскольку в таком числе нет определяющей структуры, длина самой короткой программы, необходимой для его написания, будет близка к длине самого числа:

-начать; напечатать 1,341285…64; конец.

Никакая более короткая программа не позволит рассчитать подобную последовательность цифр: ее невозможно сжать, в ней нет избыточности. Самое лучшее, что можно сделать – просто передать ее такой, как она есть. Такие последовательности называются неприводимыми или алгоритмически случайными. Если вернуться к законам, то идея заключается в следующем. Надо взглянуть на науку глазами программиста. Тогда мы увидим, что научная теория подобна компьютерной программе, предсказывающей результаты наблюдений, т.е. экспериментальные данные.

Такая точка зрения опирается на два фундаментальных принципа. Согласно первому (бритва Оккама), из двух теорий, объясняющих некоторые данные, следует предпочесть более простую. Иначе говоря, наилучшей теорий является самая короткая программа, позволяющая рассчитать результаты наблюдений.

Второй принцип, изложенный Г.Лейбницем звучит так: теория, объем которой в битах равен количеству объясняемых ею данных, бесполезна, поскольку теорией такого размера можно описать совершенно случайные данные. Полезная теория обеспечивает сокращение количества информации: осмысление данных – это их сжатие в краткие алгоритмические описания. Чем проще теория, тем лучше понимание сути явления.

Лейбниц очень близко подошел к современному нам понятию алгоритмической информации и если бы объединил все известные ему элементы, то усомнился бы в одном из устоев своей философии – принципе достаточной причины, согласно которому все происходящее имеет свою причину. А если мы не всегда можем увидеть причину, то виной тому очень длинная или запутанная цепочка рассуждений, но ее все равно видит бог.

Между тем существует бесконечное число неприводимых математических фактов, истинность которых нельзя объяснить никакой теорией. Они неприводимы не только вычислительно, но и логически. Доказать эти факты можно только одним путем: признать их аксиомами без всяких рассуждений.

Понятие «аксиома» тесно связано с логической непереводимостью. Аксиомы – это математические положения, которые мы считаем самоочевидными и не пытаемся доказать, исходя из более простых принципов. Все математические теории основаны на аксиомах, из которых выводятся следствия, называемые теоремами. Именно так поступал Евклид.

Метод логических рассуждений оказался плодотворным: с его помощью были созданы современная математика, математическая физика и все точные науки, включая технологию создания компьютеров – в высшей степени математических и логичных машин.

В 1936 году, когда Тьюринг впервые представил модель простой универсальной вычислительной машины, он задался вопросом о том, можно ли определить момент, когда остановится компьютерная программа? Так была сформулирована знаменитая проблема останова.

Разумеется, запустив программу, вы можете со временем обнаружить, что она остановилась. Фундаментальная проблема заключается в том, чтобы решить, когда вы сдадитесь и перестанете ждать, если программа не останавливается. Для множества частных случаев она может быть решена, но Тьюринг показал, что общего решения не существует. Никакой алгоритм и никакая математическая теория не позволяет определить, какая программа остановится, а какая нет.

Далее требуется рассмотреть множество всех возможных программ. Остановится ли когда-нибудь выбранная случайным образом программа? Вероятность останова заключается в числе омега.

Определим сначала, как осуществить случайный выбор программы. Программа представляет собой последовательность битов, поэтому для выбора значения каждого последующего бита будем просто бросать монету. Сколько битов должна содержать программа? Будем бросать монету до тех пор, пока компьютер не перестанет запрашивать следующий бит. Число омега есть вероятность того, что при введении такой случайной последовательности битов машина когда-нибудь остановится. При этом численное значение числа омега зависит от выбора языка программирования, но удивительные свойства этого числа с ним не связаны. Когда же язык выбран, число омега приобретает определенную величину, так же как «число пи» или число 5.

Поскольку число омега выражает вероятность, оно должно быть больше 0, но меньше 1, т.к. некоторые программы останавливаются, а некоторые нет. Число омега, записанное в двоичном коде будет иметь вид вроде 0, 1110100… Последовательность битов после запятой неприводима, а сами они оказываются неприводимыми математическими фактами (каждый факт состоит в том, является ли данный бит нулем или единицей).

Сложив все биты, соответствующие остановившимся программам, мы можем получить точное значение числа омега. Создается впечатление, что число омега можно вычислить точно, как корень из 2 или «число пи». Однако это не так: число омега строго определено и имеет вполне конкретное значение, но рассчитать его невозможно, поскольку это позволило бы решить проблему останова, у которой действительно нет решения.

Если говорить конкретнее, пишет научный сотрудник Исследовательского центра им. Томаса Уотсона корпорации IBM Грегори Чейтин знание первых N битов числа омега позволяет определить, остановится ли когда-нибудь любая программа длиной до N битов, из чего следует, что для нахождения N битов числа омега требуется программа длиной не менее N битов. (Чейтин Г. Пределы доказуемости// В мире науки, № 6, 2006, с. 38 – 45).

Зная, что компьютерные программы 0, 10 и 110 останавливаются, мы можем говорить, что с точностью до первых трех битов число омега имеет вид 0,111. Дело в том, что первые N битов числа омега нельзя вычислить с помощью программы, которая была бы существенно короче N битов. Самое главное, что число омега дает нам бесконечное число непереводимых битов. Любая программа конечной длины, сколько миллиардов битов она бы ни содержала, не поможет нам определить оставшиеся биты, которые бесконечно много.

Итак, при любом конечном наборе аксиом мы имеем бесконечное число истин, которые не могут быть доказаны с помощью этого набора.

Их неприводимости числа омега следует, что всеобъемлющей математической теории существовать не может.

Бесконечное множество битов числа омега составляет бесконечное множество математических фактов (является ли каждый выбранный бит 1 или 0), которые не могут быть выведены из каких бы то ни было принципов, более простых, чем сама последовательность битов. Значит, сложность математически бесконечна, тогда как любая отдельная «теория всего на свете» характеризуется конечной сложностью и, следовательно, не может охватить все богатство мира математических истин.

Отсюда вовсе не следует, что от доказательства нет никакого толка, что нет нужды в логических рассуждениях. На самом деле, неприводимые принципы (аксиомы) всегда составляли часть математики. Просто число омега показывает, что их гораздо больше, чем предполагалось ранее.

Эйнштейн и Гедель

Мало кто из ученых оказал такое мощное воздействие на развитие не только математики, но и физики, как Курт Гедель (1906 – 1978). Ситуация в математике была следующая. В учебниках того времени сначала приводились некоторые утверждения (аксиомы) о свойствах точек и прямых на плоскости, из них путем логического построения в соответствии с правилами логики Аристотеля выводилась справедливость разных важных и полезных геометрических фактов (теорем). Например, одна из аксиом утверждает, что через две точки проходит одна и только одна прямая, другое утверждение – пятый постулат, от которого отказался Лобачевский – касается параллельных прямых и так далее. Истинность аксиом принимается как нечто очевидное инее требующее доказательств. Заслуга Евклида состояла в том, что он постарался изложить всю науку о пространственном расположении фигур как набор следствий, вытекающих из нескольких базовых положений.

В конце 19 века некоторые пробелы, которые имелись у Евклида, были заполнены в «Основаниях геометрии» немецкого математика Давида Гильберта. Отсюда возникло мнение о построении арифметики на тех же началах. В 1889 году итальянский математик Джузеппе Пеано впервые сформулировал аксиомы арифметики, казавшиеся до смешного очевидными (существует нуль; за каждым числом следует еще число), но на самом деле абсолютно исчерпывающие. Они играли ту же роль, что и постулаты в геометрии. Вот исходя из подобных утверждений, с помощью логического рассуждения, и была сделана попытка получить основные арифметические теоремы.

Немецкий математик Готлиб Фреге в своих работах «Основные законы арифметики» (Т. 1 – 1983 год, Т. 2 – 1902 год) выдвинул еще боле амбициозную задачу. Он предложил не просто аксиоматически утвердить основные свойства исследуемых объектов, но и формализовать, кодифицировать сами методы рассуждений, что позволяло записать любое математическое рассуждение по определенным правилам в виде цепочки символов. Когда второй том был уже в печати, Г.Фреге получил письмо от молодого английского математика Бертрана Рассела, в котором тот задавал следующий вопрос: будет ли множество всех множеств, не являющихся своими элементами, своим элементом? Основания едва завершенной работы рухнули. Г.Фреге более не написал ни одной работы.

Появление парадокса Рассела, а затем и других парадоксов оказало на математический мир катастрофическое воздействие. Подумать только, писал Д.Гильберт, в математике, этом образце надежности и истинности, понятия и умозаключения приводят к нелепостям.

Таким образом, возникла довольно сложная ситуация. Математики научились четко объяснять, по каким правилам они ведут свои вычисления, им оставалось только доказать «законность» принятых ими оснований с тем, чтобы исключить любые сомнения, порождаемые парадоксами. Гильберт наметил план исследования в области оснований математики, получивший название «Геттингенской программы». Суть ее такова. Математику можно представить в виде набора следствий, выводимых из некоторой системы аксиом, и доказать, что:

-математика является полной, т.е. любое математическое утверждение можно доказать или опровергнуть, основываясь на правилах самой дисциплины;

-математика является непротиворечивой, т.е. нельзя доказать и одновременно опровергнуть какое-либо утверждение, не нарушая принятых правил рассуждения;

-математика является разрешимой, т.е., пользуясь правилами относительно любого математического утверждения, доказуемо оно или опровержимо.

Гильберт был уверен в утвердительном ответе на все три вопроса. Математика является полной, непротиворечивой и разрешимой, оставалось лишь доказать это. Более того он полагал, что аксиоматический метод может стать основой не только математики, но и науки в целом. В 1930 году в статье «Познание природы и логика» говорится, что над аксиомами чисто логическим путем надстраивается все здание той или иной теории, включая такие разделы знаний, как физика, химия, биология, наука о сознании. Отсюда искушение ввести эти основные положения в вычислительную машину и обосновать любое утверждение, вытекающее из исходных утверждений. Суперкомпьютер мог бы производить все новые теоремы.

Вселенская аксиоматизация не состоялась усилиями 25 летнего Курта Геделя. В 1930 году он формулирует теорему о неполноте. В ней утверждается, что для любой непротиворечивой системы аксиом существует утверждение, которое в рамках принятой аксиоматической системы не может быть ни доказано, ни опровергнуто. Оказалось, что математика неполна, неразрешима, и ее непротиворечивость нельзя доказать (в рамках же самой системы, непротиворечивость которой доказывается).

В оценке роли Геделя ученые разделись на две группы. Одни вслед за Расселом считают, что знаменитая теорема оказала весьма незначительное влияние на дальнейшую работу за пределами самой математики. Другие считают, что если считать умение логически рассуждать основной характеристикой человеческого разума, то теорема Геделя прямо указывает на ограниченность возможностей мозга. Развивая последнее положение, крупнейший специалист в области математики и теоретической физики Роджер Пенроуз пошел еще дальше: он предположил существование некоторых квантовых эффектов невычислительного характера, обеспечивающих реализацию творческих актов сознания. Отсюда недалеко до вывода о принципиальной невозможности создания искусственного интеллекта на основе современных вычислительных машин. Дело в том, что любой компьютер может лишь более или менее детально моделировать работу формально-логической деятельности человека, но невычислительные способности интеллекта ему недоступны. В обществе непредрешенность реализуется через феномен личной свободы человека, у которого есть свои механизмы. Работа Геделя позволила лучше понять принципы действия самого человеческого разума и оказала глубокое влияние на мировоззрение и культуру эпохи.