1979 – Язык вероятностных представлений



Автоматика № 1 Киев 1979

Часть 1. ВОЗНИКНОВЕНИЕ ВЕРОЯТНОСТЕЙ ПАРАДИГМЫ [1]

Теория вероятностей, или еще лучше, существующие сейчас теории вероятностей создают нечто большее, чем теорию для описания массовых, повторяющихся явлений – они порождают новую парадигму, позволяющую описывать наблюдаемый мир на языке более мягком, чем традиционно принятый в науке язык жестких детерминистических представлений.

Возникновение новой парадигмы всегда вызывает противодействия. В этом отношении очень интересна книга Т. Файна [2]. Он делает попытку рассмотреть почти все существующие теории вероятностей: классическую лапласовскую, частотную концепцию Мизеса, частотную теорию Рейхенбаха-Соломонофа, аксиоматику Колмогорова, аксиоматику сравнительных вероятностей, алгоритмический подход Чейтина, Колмогорова, Соломонофа к оценке случайности как сложности, логическую вероятность Карнапа и субъективные вероятности Севиджа и Финнети. Но пафос Файна состоит не столько в прояснении связи между отдельными теориями вероятностей, сколько в попытке ответить на вопрос, почему мы применяем вероятностные представления при описании внешнего мира. Заложены ли в теориях вероятностей достаточные основания для этого. И ответ на этот вопрос дается явно отрицательный. Глубоким скептицизмом пронизана книга В.Н. Тутубалина [3]. А критицизм Ю.И. Алимова [4] носит уже явно вызывающий характер.

Создалась любопытная ситуация. С одной стороны, происходит широкое и, видимо, плодотворное развитие статистических методов исследования, ведутся разговоры о вероятностном мышлении и его влиянии на мировоззрение ученого, с другой стороны – появляются разочаровывающие предостережения со стороны ряда математиков. Как можно это объяснить?

Нам представляется, что ответ здесь можно дать совсем простой. Теория вероятностей, или лучше теории вероятностей, способствовали созданию некоторого нового вероятностного языка. Собственно математическая составляющая этих теорий – их математическая структура, это грамматики диалектов вероятностного языка. И лишена всякого смысла задача поиска правомерности применения того или иного языка в грамматике этого языка. Грамматика – это просто правила построения грамотных, т.е. понимаемых фраз. Правомерность применения того или иного языка можно оценить только по гибкости и изящности тех текстов, которые могут быть на нем написаны при попытке описать явления внешнего мира. Повторяем здесь еще раз – этот язык оказывается значительно мягче, чем язык детерминистических связей.

Язык вероятностных представлений. Попробуем разъяснить эту мысль в деталях. Мы говорим, что случайная величина задана, если задана ее функция распределения. А это значит, что мы вполне сознательно отказываемся в рамках этого описания от причинно-следственной трактовки наблюдаемых явлений. Нас удовлетворяет чисто поведенческое описание явлений. Функция распределения – это описание поведения случайной величины, без всякой апелляции к тому, чем это поведение вызвано. Мы, наконец, получаем право описывать явление просто как оно есть. И более того – это описание мы даем несколько размазанным – неопределенным образом: вероятность попадания непрерывной случайной величины при ее реализации, скажем, в результате измерений в какую-либо фиксированную точку равна нулю. Мы можем говорить лишь о вероятности попадания значения случайной величины в некоторый интервал значений.

Разве все это не новый взгляд на мир, или хотя бы на возможность его описания, радикально отличный от традиционно детерминистического?

Рассмотрим пресловутый пример с падением монеты. Оставаясь на вероятностных позициях, мы допускаем, что в каждом отдельном падении монета может упасть так, как ей захочется, т.е., как об этом уже говорилось выше, мы приписываем монете в данном конкретном проявлении свободную волю, хотя и накладываем ограничение статистического характера на результаты массовых испытаний. Это значительно более мягкое описание явления, чем попытка предопределить, исходя из законов механики, как в данном случае монета должна была бы упасть. На первый взгляд кажется, что хотя бы в принципе возможно проследить всю цепочку причинно-следственных явлений, приводящих к данному результату в некоем конкретном акте бросания монеты. Но если попытаться это сделать, то мы немедленно должны будем включить в рассмотрение невероятно большое, может быть, бесконечно большое, количество фактов и обстоятельств, и нашу цепочку причинно-следственных связей придется продолжить до описания космических явлений, уходящих в какое-то неведомое нам необозримо далекое прошлое[2]. И вот что здесь любопытно: бросание монеты – это ведь, в сущности, тот же опыт, с которого Галилей начал развитие механики. Но при одной постановке вопроса эксперимент по бросанию оказывается инвариантным к окружающим явлениям, а при другом – нет. И если есть реальные задачи, в которых принципиально невозможно поставить опыт так, чтобы результат был инвариантен к состоянию всего мира, то нужно ли и можно ли говорить о всеобщей причинной обусловленности всех явлений? Какой смысл говорить о причинной обусловленности, если эта обусловленность принципиально неизмерима? Не носит ли такой подход явно теологический характер?

Все, что было выше сказано, относится не только к падению монеты или игральной кости. Это относится и к поведению ошибки в любом эксперименте, и, вообще, к поведению любой достаточно сложной системы. Дарвин, как это хорошо известно, считал недостаточно серьезной попытку объяснить случайностью изменчивость в биологии. Но сейчас есть все основания полагать, что происхождение видов нельзя рассматривать как результат жестко заложенной где-то программы. Мутации приходится связывать со случаем [6]. Из теоремы Гёделя о неполноте ясно следует, что всякая достаточно богатая логическая система неполна и любое сколь угодно большое, но финитное расширение ее аксиом не делает ее полной. На языке такой системы могут быть сформулированы истинные утверждения, которые из нее не будут следовать, и ложные, которые не будут опровергаться. А детерминистическое описание мира в целом, или хотя бы достаточно больших, входящих в него систем, таких как биосфера, должно предполагать принципиальную возможность существования достаточно богатых логических систем, внутренне непротиворечивых. Не есть ли размытое поведенческое описание, апеллирующее к случаю, скорее интуитивное, чем логически осознанное понимание этих трудностей?

Представление о невозможности точной локализации частицы, полученное в квантовой механике, приводит также к необходимости размытого описания наблюдаемых явлений с помощью волн вероятности. И как раз в результате этого ослабленного описания удается сохранить причинностный характер для развития системы. М. Борн об этом говорит так [5, стр. 151]: «В квантовой механике мы встречаемся с парадоксальной ситуацией – наблюдаемые явления повинуются закону случая, но вероятность этих событий сама по себе эволюционирует в соответствии с уравнениями, которые, судя по всем своим существенным особенностям, выражают причинные законы».

Введение волн вероятности в квантовую механику – это, если хотите, просто смягчение жестких причинно-следственных представлений классической физики. Развитие волны предсказуемо в течение всего наблюдения, но само предсказание носит недетерминированный характер, к которому мы привыкли в повседневной жизни, в таких наблюдениях, как, скажем, бросание игральных костей, и, если хотите, мы можем говорить, что в квантовой механике описывается просто процент электронов, попавших в среднем в заданную область экрана, хотя и для одного электрона можно говорить о потенциальной возможности поведения в заданных макроусловиях. Логика суждений строится так, что причинное развитие событий не доводится до своего полного завершения – оно где-то обрывается и заменяется вероятностным описанием поведения.

Алгоритмическое определение случайности как сложности некоторого сообщения также может быть интерпретировано как поведенческое описание. Если мы имеем дело с последовательностью чисел, состоящих из нулей и единиц, то, грубо говоря, сложность здесь будет характеризоваться минимальным числом двоичных знаков, необходимых для того, чтобы заменить эту последовательность при передаче ее по каналам связи. Согласно А.Н. Колмогорову, случайными будем называть элементы большой конечной совокупности знаков, для которых сложность максимальна. Представление о случайности здесь возникает в результате наблюдения за поведением последовательности знаков. Если нельзя найти алгоритма генерирования чисел, который записывался бы проще, чем сама последовательность, то это значит, что всю последовательность надо передавать по каналам связи, и такую последовательность естественно назвать случайной.

Алгоритмическое определение случайной последовательности носит явно языковый характер. Случайным, грубо говоря, мы называем то, что не можем коротко описать. И здесь немедленно проявляется языковый релятивизм. Представьте себе, скажем, что мы имеем дело с числами π и e. Ясно, что нет необходимости передавать на канал связи непосредственно все вычисленное сейчас множество цифровых знаков, задающее приближенное значение этих чисел – достаточно передать алгоритм их вычисления. В этом смысле знаковые последовательности, задающие приближенно числа π и e, не являются случайными. В то же время известно, что эти последовательности чисел иногда применялись как случайные в задачах моделирования по методу Монте-Карло. И действительно, имеющиеся в нашем распоряжении статистические критерии не позволяют отличить эти последовательности чисел от последовательностей, задаваемых счетчиком, регистрирующим радиоактивный распад. Представьте теперь, что записана усеченная спереди знаковая последовательность, задающая число π, т.е. попросту первые цифры этого числа стерты – кто сможет догадаться, что это не случайная последовательность знаков? Хотя эта неприятность и не носит принципиального характера. Но в алгоритмическом подходе все же возникает трудность, связанная с произволом в выборе программы вычисления. Вся концентрация в целом далека от завершения. Для бесконечных последовательностей, кроме определения случайностей, данного А.Н. Колмогоровым, имеются еще определения, данные Лавландом и Мартин-Лёфем, а также Чейтином. Имеется несколько определений вероятности, основанных на оценке сложности, предложенных Соломонофом. Известны высказывания А.Н. Колмогорова по этому вопросу. Подробнее о трудностях, связанных с развитием алгоритмической случайности, см. в [2], там приведена и обстоятельная библиография.

Аксиоматика теории вероятностей как грамматика. Если теорию вероятностей, в ее прикладном проявлении, рассматривать как язык, то структура ее, задаваемая ее аксиоматикой, будет просто грамматикой этого языка. При таком подходе теряют смысл все сетования Файна [2] о том, что из оснований теории вероятностей ничего не следует о возможности ее применения. Ведь грамматика любого языка, как это следует из смысла самого понятия грамматики, имеет своей целью только построение грамотных и понимаемых – осмысленных, содержательных и непротиворечивых, или хотя бы грубо непротиворечивых фраз. Но из грамматики того или иного языка никогда ничего не следует о применимости этого языка.

Можно показать, что аксиоматика теории вероятностей – мы будем здесь рассматривать общепринятую аксиоматику А.Н. Колмогорова – действительно используется как грамматика, т.е. на нее приходится опираться при построении понятных фраз. Прежде всего, когда делается какое-нибудь вероятностное высказывание, то нужно всегда отдавать себе отчет о том пространстве элементарных событий, на котором эти вероятности задаются. Иначе мы сможем получить сколь угодно нелепые результаты – скажем, значения вероятности, большие единицы[3].

Представление о ϭ-алгебре дает четкую интерпретацию рассматриваемого множества элементарных событий.

Одно из требований здесь формулируется так: если A принадлежит множеству событий, то ему принадлежит и Ā (т.е. не A), что означает, что грамматически правильная система высказываний строится так, что все возможные логические операции не выводят из ϭ -алгебры. И это важно для понимания текстов, содержащих вероятностные суждения. Очень большое значение для понимания смысла вероятностных высказываний имеют аксиомы нормировки и неотрицательности. Если мы где-то встретим высказывание, в котором будет фигурировать отрицательная вероятность, то такое высказывание останется просто непонятным.

Файн [2], критикуя аксиоматику Колмогорова, обращает внимание на то, что два фундаментальных представления теории вероятностей – независимость случайных величин и условная вероятность остаются не связанными с аксиоматическим построением – они даются отдельными определениями, и он считает, что в этом смысле аксиоматика оказывается неполной. Если структуру теории вероятностей рассматривать как грамматику языка, то это замечание Файна, интересное само по себе, какого-либо существенного значения не имеет. Если аксиоматику теории вероятностей рассматривать в ее грамматическом преломлении, то вопрос о ее непротиворечивости существенной роли не играет и мы его рассматривать здесь не будем[4] (о смягченном отношении к непротиворечивости в математике, в ее прикладных проявлениях, см., например в [8]).

Заканчивая наше рассмотрение аксиоматики теории вероятностей, мы должны все же признать, что далеко не все богатство ее содержания, эксплицируемое в теоремах, доказываемых в теории вероятностей, используется в качестве грамматических структур. Многие весьма существенные теоремы теории вероятностей, например закон повторного логарифма, не имеют очевидного грамматического истолкования. Математические структуры, в практическом их использовании, задают грамматику языка, но не сводятся к ней.

Физическая интерпретация понятия «вероятность». Если теорию вероятностей рассматривать с языковых позиций, то непонятными оказываются и сетования Т.Р.Файна [2], поддерживаемые и В.Н.Тутубалиным [3], на то, что из аксиоматического построения не следует интерпретация физического смысла понятия вероятности. Естественно считать, – и сейчас это считается общепринятым, – что грамматика – логическая грамматика, имеет дело со знаковыми системами вне зависимости от того, как они интерпретируются в терминах внешнего мира. Интерпретация возникает потом – при использовании языка для формулировки конкретных высказываний. И такая интерпретация может быть неоднозначной – размытой. А.Н. Колмогоров [10], после убийственной критики концепции Мизеса, все же дает частотную интерпретацию вероятности, но, конечно, уже без предельного перехода. Достаточно, – пишет он, – говорить о вероятности как о числе, вокруг которого группируется частота при определенным образом сформулированных условиях, так что эта тенденция к группированию проявляется со все большей отчетливостью и точностью с ростом (до разумного предела) числа испытаний.

Такое определение вероятности вошло и в учебники. Например, у В.Н.Тутубалина [3, стр. 6] читаем: «Число, около которого колеблется частота события A, называется вероятностью события A и обозначается через P{A}».

Здесь немедленно возникает вопрос: можно ли такую интерпретацию вероятности считать единственно возможной? Вряд ли физики – специалисты по квантовой механике согласятся с ней (скажем, у Д.И. Блохинцева вероятность – это мера потенциальной возможности того или иного события). И совсем непонятно, почему надо исключать возможность рассмотрения вероятности как меры неопределенности в наших суждениях. Если ввести представление о субъективной вероятности, как это делают Сэвидж, Финнети и другие представители этого направления, то дальше оказывается возможным для этого понятия применять все обычные правила исчисления вероятностей.

Требование статистической устойчивости. При частотной интерпретации вероятности немедленно возникает проблема устойчивости, введенная в рассмотрение со всей остротой еще Мизесом. Эта проблема, если хотите, есть камень преткновения при обсуждении всех вопросов, связанных с применимостью вероятностных представлений для описания явлений внешнего мира. У В.Н.Тутубалина мы читаем по этому поводу следующее [3, стр. 144]:

«По современным представлениям, область применения теоретико-вероятностных методов ограничена явлениями, которым присуща статистическая устойчивость. Однако проверка статистической устойчивости трудна и всегда неполна; к тому же, она часто дает отрицательные выводы. В результате в целых областях знания, например, в геологии, нормой стал такой подход, при котором статистическая устойчивость вовсе не проверяется, что неизбежно приводит к серьезным ошибкам».

В книге Файна [2] мы находим грустные рассуждения о том, что устойчивость частот, на которую должно опираться применение теории вероятностей в задачах прогноза, никак не следует из аксиоматики А.Н. Колмогорова. В некоторых руководствах по теории вероятностей устойчивости частот приписывается чуть ли не статус закона природы. Например, в книге Е.С. Вентцель читаем [11, стр. 29]:

«...свойство „устойчивости частот“, многократно проверенное экспериментально и подтверждающееся всем опытом практической деятельности человечества, есть одна из наиболее характерных закономерностей, наблюдаемых в случайных явлениях».

У Б.В.Гнеденко [9, стр. 41]:

«Длительные наблюдения над появлением или непоявлением события A при большом числе повторных испытаний, происходящих при неизменном комплексе условий о, показывают, что для широкого круга явлений число появлений или непоявлений события A подчиняется устойчивым закономерностям».

Нам представляется, что все эти суждения об устойчивости частот все же в какой-то мере являются результатом недоразумения. Представление об устойчивости частот есть не более чем некоторая логическая конструкция. Без этого утверждения просто невозможно дать предельно-частотную интерпретацию понятию вероятности. Математически утверждение об устойчивости частот – это просто проявление закона больших чисел.

В системе вероятностных представлений закон больших чисел играет громадную роль (подробнее см. об этом, например, в книге Б.В. Гнеденко [9]). Этот закон позволяет нам понять, правда, в чисто логическом плане, почему мы можем применять теорию вероятностей к решению проблем реального мира, но он никоим образом не может служить достаточным основанием для оправдания широкого применения теоретико-вероятностных методов, ибо трудно дать безупречное физическое толкование условиям, которым должны удовлетворять случайные величины, чтобы для них имел место закон больших чисел. (О некоторых нападках на толкование закона больших чисел см., например, в [4].)

Но вот об устойчивости частот в явлениях внешнего мира все же ничего определенного сказать нельзя, так же, как ничего нельзя сказать и о статистической устойчивости в более широком смысле. Есть много разных реальных задач, в которых статистическая устойчивость является просто объектом исследования. Скажем, в метрологических задачах мы применяем дисперсионный анализ для того, чтобы выявить рассеяние результатов однотипных измерений, выполненных разными исследователями в разное время в разных лабораториях... Правда, сама возможность применения дисперсионного анализа основана на некоторых практически непроверяемых предпосылках.

Любое вероятностное суждение строится, как и всякое логическое рассуждение, исходя из некоторых предпосылок. Грамматика вероятностных высказываний – это, вообще говоря, не больше чем правила построения грамотных, в некоторой системе представлений, фраз над исходными посылками. Если, скажем, мы изучаем какие-то повторяющиеся массовые явления, то мы можем сделать грамотные, в системе наших представлений, высказывания о будущем. Но эта экстраполяция будет правомерна только в том случае, если мы постулируем постоянство частот. Информацию о постоянстве частот в будущем мы принципиально не можем получить из нашего прошлого опыта. И естественно, что мы не можем ее вывести из аксиоматики теории вероятностей. Аксиоматика дает нам грамматику, позволяющую сказать, что будет, если мы примем определенные предпосылки.

Рассмотрим теперь несколько иную задачу. Допустим, что по результатам наблюдений мы хотим предсказать будущее значение зависимой переменной, пользуясь уравнением прямой. В этом случае, пользуясь методом наименьших квадратов, мы оцениваем параметры прямой, затем строим доверительные границы в виде двух сопряженных гипербол и делаем прогноз на нужное нам время. Но при этом мы исходим из следующих предпосылок:

1) ошибки в измерении зависимой переменной есть независимые случайные величины, выбранные из нормально-распределенной генеральной совокупности с некоторой неизвестной нам, но остающейся постоянной, дисперсией и с математическим ожиданием, равным нулю;
2) независимые переменные измеряются без ошибки;
3) оба параметра уравнения регрессии не имеют временного дрейфа.

Прогноз в этом случае есть фраза, грамотно построенная над этими предпосылками. Не все эти предпосылки имеют одинаково серьезное значение. Некоторые из них можно слегка нарушить. Иногда мы даже знаем, как надо изменить грамматику построения фразы, если изменяются предпосылки. Если, скажем, не выполняется требование 2), то можно от регрессионного анализа перейти к конфлюэнтному. Самым важным является требование 3), и как-то не очень ясно, можно ли его отнести к тем требованиям, которые входят в понятие «статистической устойчивости». Ясно одно – или требование «статистической устойчивости» надо рассматривать очень широко, и тогда его нельзя ввести в грамматику языка в виде какой-то четкой категории, или узко, ограничиваясь, скажем, только посылкой 1), и тогда мы должны будем сказать, что вероятностные высказывания должны опираться не только на «статистическую устойчивость» в некоем узком общеграмматическом смысле, но еще и на устойчивость в каком-то очень общем смысле, которая в разных задачах реализуется самым различным образом.

Построение понятия вероятностного языка. Имеется очень много высказываний о том, что есть математическая статистика. Эти определения любопытно коллекционировать. Одна из таких, конечно, неполных коллекций приведена в приложении к нашей книге [21]. Здесь уместно было бы дать такое определение: математическая статистика – это язык для построения высказываний над реально наблюдаемыми величинам, которые мы хотим рассматривать как случайные. Как удалось построить такой язык?

Случайность нельзя ввести непосредственно в систему логических суждений – система немедленно окажется отягченной грубыми противоречиями. Пришлось создать систему теоретических построений, порождающих понятия, в рамках которых возможно логически четкое описание случайных явлений. Такими понятиями оказались: «генеральная совокупность», «выборка», «вероятность», «функция распределения», «независимые наблюдения», «спектральная плотность»... Это четко определенные понятия, и логические высказывания, построенные над ними, лишены противоречий. Собственно случайность из системы логических построений оказалась исключенной. Она проявляется лишь при интерпретации этих построений на языке эксперимента, когда отдельным понятиям, скажем, математическому ожиданию, оцененному по выборке, приписывается размытое числовое значение, и эта размытость как-то ограничивается с помощью другого понятия – доверительных границ. Теория вероятностей, а вслед за ней и математическая статистика, свели изучение случайности к описанию поведения случайной величины в вероятностных терминах. В результате оказалось возможным описывать случай средствами формальной логики. Язык такого описания оказался мягче языка причинно-следственных представлений, т.к. он позволяет вводить размытость хотя бы на стадии интерпретации.

Нужно отдавать себе отчет в том, что понятия теории вероятностей – это некоторые абстрактно построенные конструкты, а отнюдь не зеркальное отображение того, что есть на самом деле в реальном Мире. И совсем не просто показать, как эти конструкты соотносятся с тем, что мы наблюдаем в реальном Мире. Понятию «генеральная совокупность» – одному из основных понятий математической статистики – в реальном Мире просто ничего не соотносится: это понятие – продукт глубокой абстракции. Понятию вероятности, как мы уже говорили выше, в реальном Мире может быть соотнесена частота, если число наблюдений большое, но не слишком большое – что это значит, для придирчивого читателя не очень ясно. Понятие статистической независимости легко определяется математически, но совсем не легко рассказать экспериментатору, как надо ставить опыты, чтобы их результаты оказались статистически независимыми. Трудность, связанная с интерпретацией понятия «выборка», может быть охарактеризована блестящим софизмом В.Н.Тутубалина [3, стр. 196]:

«Мы говорим, что выборку образуют результаты нескольких независимых измерений, проводимых в одинаковых условиях. Однако если мы контролируем все условия опыта, то у нас будет получаться одно и то же число (не будет никакой неопределенности), а если мы контролируем не все условия опыта, то откуда мы знаем, что они остаются одинаковыми».

Эта нечеткость основных представлений, в смысле их соотнесения с действительностью, о которой можно было бы говорить и дальше, иногда служит поводом для появления негодующих статей такого типа, как, скажем, уже упоминавшаяся нами статья Ю.А.Алимова [4]. Такие нападки нам представляются совсем неправомерными. Надо иметь в виду, что и язык вероятностных представлений дает только приближенное описание мира.

Возьмем всем хорошо известное соотношение: st-yazik-veroyat-predst-1.gif .

В практическом его преломлении это, конечно, только приближенное соотношение, и степень приближения нам никогда не бывает известна. Приближенность этого соотношения задается, с одной стороны, тем, что реальные наблюдения никогда не могут быть абсолютно независимыми, с другой стороны – тем, что при каком-то большом N условия проведения эксперимента уже не могут оставаться постоянными. И мы считаем экспериментатора статистически грамотным, если он умеет пользоваться этой формулой. Чтобы грамотно пользоваться математической статистикой, надо уметь ограничения, сформулированные на математическом языке, перевести на язык эксперимента. Правил перевода, строго говоря, никто не знает.

Требования, которые пришлось наложить на поведение случайных величин при построении основных понятий теории вероятностей, оказались весьма жесткими. Может быть, кто-то захочет даже сказать, что реальный мир более случаен, чем это допускает тот язык, на котором мы пытаемся случайность описывать. Иногда эти требования можно немного ослабить. Данная А.Н.Колмогоровым частотная интерпретация вероятности, о которой мы говорили выше (см. [10, стр. 37]), – это уже смягченное, по сравнению с Мизесом, представление о статистической устойчивости – и действительно, ведь реально нельзя себе представить таких бесконечных последовательностей испытаний, где все условия проведения опыта сохранялись бы постоянными. При оценивании параметров распределения по выборкам введение робастных оценок, т.е. оценок, нечувствительных к исходным предпосылкам, вместо эффективных оценок Р. Фишера – это также смягчение требований, налагаемых на поведение случайных величин. Правда, грамматика робастных оценок не может быть построена теоретически – здесь при выборе рекомендаций приходится уже прибегать к моделированию задач на ЭВМ. Правда и то, что концепцию робастных оценок нельзя понять, не поняв представления об эффективных оценках. И еще один пример – спектральная теория случайных процессов построена только для стационарных процессов, а все или почти все реально наблюдаемые процессы нестационарны. Если нестационарность нельзя устранить алгоритмически, то, как это следует из алгоритмической теории случайности, сама нестационарность носит случайный характер. Но случайность этого типа описывать никто не умеет – не созданы понятия, в рамках которых можно было бы ее описывать. Здесь мы имеем дело с явлением, которое генерируется механизмом более сложным, чем те алгоритмы, которые мы можем построить для его описания. Конечно, можно попытаться и нестационарные процессы как-то описать в рамках спектральной теории, как это делают, например, К.Гренджер и М.Хатанака [12], но описание оказывается уже топорным.

Всякая попытка смягчить требования, налагаемые грамматикой языка статистики на поведение случайных величин, вызывает раздражение у многих математиков-вероятностников. Лаплас, внесший в свое время громадный вклад в развитие теории вероятностей, оставался убежденным детерминистом. И сейчас профессионалы – вероятностники и статистики – могут оставаться на позициях глубокого и бескомпромиссного формализма.

В одном из серьезных университетов нашей страны лекции по математической статистике начинаются примерно такими словами:

«...80% применения статистики неверно, т.к. ее пытаются применить там, где нет случайных величин». А в цитировавшейся уже неоднократно книге В.Н.Тутубалина [3, стр. 166] говорится: «Чрезвычайно важно искоренить заблуждение, встречающееся иногда у недостаточно знакомых с теорией вероятностей инженеров и естествоиспытателей, что результат любого эксперимента можно рассматривать как случайную величину».

Какие же величины здесь рассматриваются как случайные – те, которые описываются в рамках причинно-следственных представлений? Оказывается, нет. В разряд неслучайных величин попадают результаты такого эксперимента, как это отчетливо сказано у В.Н.Тутубалина, для которого не выполняется требование статистической устойчивости. Неслучайным оказывается то, что ведет себя случайнее, чем это допускает язык традиционных вероятностных представлений. Не находится ли такое понимание случайности в явном противоречии с алгоритмическим определением случайности?

Нельзя сказать, как в каждом конкретном случае интерпретировать требование статистической устойчивости. Если уж быть очень педантичным, то, наверное, придется ограничить применение математической статистики экспериментом с бросанием монеты, а теорию вероятностей – моделями с шарами в урнах. Известно, что уже с бросанием костей не всегда все обстоит благополучно – не так-то легко приготовить идеальную кость.

Искусство статистического анализа как раз и заключается в том, чтобы на языке вероятностных представлений описать поведение реального мира, который устроен случайнее, чем допускается грамматикой этого языка. И такое описание, конечно, далеко не всегда оказывается удачным.

Когда язык вероятностных представлений оказывается неприемлемым. Иногда высказывания, сделанные в привычных построениях вероятностного языка, оказываются неуклюжими просто из-за того, что на этом языке пытаются описать явления, действительно связанные с замаскированной причинно-следственной упорядоченностью. Иллюстрируем это одним примером [13]:

нужно было статистически обосновать процедуру измерения дислокаций на поверхности шлифа полупроводникового материала. Измерения производились следующим образом: на шлиф накладывалась сетка, и подсчитывалось число точек, попадающих в клетки этой сетки. Результаты подобных измерений, конечно, можно представить функциями распределений. Но функции распределения здесь оказываются смешанными. Их параметрическое представление требует вычисления моментов высокого порядка, что уже явно неудобно – для этого нужно иметь очень много измерений. К тому же все описание в терминах функций распределения оказывается уж очень громоздким. Объясняется это тем, что точки на поверхности шлифа располагаются преимущественно не случайно, образуя отчетливые фигуры – звезды, копья или просто облака сгущений. Было замечено, что металловеды очень хорошо могут проранжировать шлифы по качеству материала, связывая фигуры травления непосредственно с физико-химическими свойствами материала. Таким образом, оказалось, что задача здесь носит явно не метрический, а топологический характер – исследователя интересует не расстояние между точками, а вхождение точек в определенные множества, образующие фигуры. Когда это стало понятно, то было предложено изменить методику оценки качества материала. Лаборантам были розданы альбомы реальных и отчетливо выраженных фигур травления и их просили, глядя на новые шлифы, относить их к тому или иному типу, представленному в альбоме. В этой видоизмененной методике возникла своя статистическая задача – нужно было оценить, как часто разные лаборанты в разное время относят один и тот же шлиф к одному и тому же типу.

В этом примере действительно обнаружилась некая, хотя и не очень четко выраженная, причинно-следственная связь между фигурой травления и качеством материала, и ее не нужно было разрушать статистическим описанием явлений.

Кто же может сказать, когда язык вероятностных представлений применим и когда неприменим? Здесь нельзя предложить какого-то общего критерия. Этот язык применим, когда полученное с его помощью описание нас удовлетворяет.

Часть 2. ОНТОЛОГИЯ СЛУЧАЯ

В чем физический смысл случая? На этот вопрос ответить сейчас, по-видимому, нельзя.

Напомним о том, как представление о случае вводится в математической литературе. Во многих руководствах по теории вероятностей (см., например [9] повторяется одна и та же фраза, идущая еще от Аристотеля: событие называется случайным, если при определенном комплексе условий оно может произойти, а может и не произойти. Эта фраза, конечно, ничего не дает нам для прояснения физического смысла этого понятая. Иногда представление о случае пытаются связать с генераторами случая. Но любой генератор случая выдает среди других и достаточно упорядоченные серии чисел.

В известной книге А.Хальда [14] делается попытка вывести представление о случайности из понятия о стохастической независимости. Вот что там говорится по этому поводу:

«...Выборка из n наблюдений значений х1 , х2, …, хn из генеральной совокупности с плотностью распределения p{x} называется случайной выборкой из этой совокупности, если:

st-yazik-veroyat-predst-2.gif        (2.1)

Отсюда следует, что если выборка случайна, то все п! различных возможных порядков расположения n заданных выборочных значений равновероятны. Действительно, в силу того, что удовлетворяется (2.1), вероятность Р{х1 , х2, …, хn}не зависит от перестановок x. Поэтому оказывается невозможным дать общее определение случайности последовательности и наблюденных значений из одной и той же генеральной совокупности посредством их величин и порядка» [15, стр. 291].

Таким образом, попытки определить случайность через стохастическую независимость оказывается в противоречии с тем представлением о случайности, которое следует из алгоритмической теории, рассматривающей случайность как максимальный беспорядок.

Здесь интересно обратить внимание на парадокс случайности в задачах планирования эксперимента. Кажется естественным считать план эксперимента X случайно организованным, если он позволяет получить стохастически независимые оценки коэффициентов регрессии, т.е. такие оценки, для которых cos{bi,bj} = 0. В этом случае все недиагональные элементы информационной матрицы XТX должны быть равны нулю. Но такой план можно построить, если, скажем, воспользоваться матрицей Адамара. Это квадратная матрица порядка N, состоящая из элементов +1 и –1, обладающая тем свойством, что ХТХ=NI. Из этого определения следует, что все недиагональные элементы равны нулю и, следовательно, равны нулю все ковариации для оценок коэффициентов регрессии. Если мы теперь попробуем построить план эксперимента той же размерности, разбрасывая случайным образом числа +1 и –1 по клеткам таблицы, то, как правило, будем получать планы, для которых недиагональные элементы будут хотя и сравнительно малыми, но не равными нулю. Оказывается, что, по крайней мере, в некоторых случаях регулярные способы построения дают возможность получать план эксперимента, порождающий оценки коэффициентов регрессии, организованные «более случайно», чем планы, построенные случайным образом.

Само представление о случайных числах – это лишь некоторая абстракция. Реально мы всегда имеем дело только с псевдослучайными числами, и все, кто занимается моделированием по методу Монте-Карло, знают, сколь осторожно надо относиться к случайности псевдослучайных чисел.

В аксиоматике А.Н.Колмогорова случайность явным образом не вводится. Там теория вероятностей строится в рамках общей теории меры с одним специальным допущением – мера всего пространства должна быть равна единице.

Алгоритмическое определение случайности, по-видимому, дает возможность глубоко осмыслить случайность с математических позиций, но вряд ли все это проясняет физический смысл этого понятия. Заметим здесь, что в философской интерпретации алгоритмический подход к пониманию случайности – это определение, данное через отрицание: случайность определяется здесь как то, что не может быть описано детерминистически. Важно хорошо осмыслить всю серьезность этого утверждения.

Если мы теперь обратимся к философской литературе, то здесь также не найдем интересных соображений об онтологии случая. В советской философской литературе случай сейчас возведен в ранг философской категории. Это, конечно, уже серьезная реабилитация этого понятия. Но посмотрим, к чему это реально приводит. В «Философской энциклопедии» [15, стр. 33]:

«Случайность – тип связи, определяемый внешними, побочными для данного явления, процесса, причинами. Случайные связи характеризуются неустойчивым, временным характером, относительным безразличием к форме его проявления, неопределенностью возникновения в пространстве. Категория случайности соотносительна с категорией необходимости».

Я думаю, что физики придут в ужас от такого определения случайности. Что же получается – движение частиц газа, ошибки измерений в эксперименте, радиоактивный распад, волны вероятности в микромире – все это определяется побочными для данного явления Причинами? Если убрать побочные причины, то эксперимент будет делаться без ошибок, радиоактивный распад будет происходить неслучайно, а представление о волнах вероятностей просто исчезнет! Еще больше будут возмущены математики-вероятностники – они требуют статистической устойчивости, а здесь говорится о том, что случайным связям свойственен неустойчивый характер.

Но оставим философов и обратимся к научно-популярной литературе. Эта литература интересна тем, что она отражает только то, что безусловно признано существующей парадигмой. В одной из популярных книг, имеющих прямое отношение к обсуждаемому вопросу – книге Л.А.Растригина «Этот случайный, случайный, случайный мир» – читаем [16, стр. 5]:

«В самом деле, всякое событие имеет вполне определенную причину, то есть является следствием этой причины. Такую причину имеет и всякое случайное событие»;

«...случайность – это прежде всего ...непредсказуемость, которая является результатом нашего невежества, результатом нашего незнания, нашей слабой осведомленности, результатом отсутствия необходимой информации» [там же, стр. 8].

Это все звучит как заклинание столетней давности: ...я не еретик и верю, верю в причинность! Хотя дальше автору приходится идти на уступки и говорить о принципе неопределенности, о неисчерпаемости вселенной, об ограниченности человеческих возможностей – короче, о том, что от случайности все же избавиться невозможно. Но что же такое случайность – это только невежество и что-то непонятное в микромире?

У М.Борна [5, стр. 141] читаем:

«Понятие причины и случая, о которых идет речь, являются не специфическими физическими понятиями, а имеют гораздо более широкий смысл и применение... Я не в силах дать обзор всех этих применений или проанализировать точное значение слов „причина“ и „случай“ в каждом из них... В самом деле, „причина“ служит для выражения идеи необходимости в отношениях между событиями, в то же время как „случай“ означает как раз противоположное – полную беспорядочность. Природа, как и дела человеческие, кажется подверженной как необходимостям, так и случайностям. И все же даже случайность не вполне произвольна, ибо имеются законы случайности, сформулированные в математической теории вероятностей... Литература по этой проблеме не содержит ни удовлетворительного решения, ни единогласия. Только в физике предпринята попытка систематического непротиворечивого использования понятия причины и случая».

А дальше Борн предпочитает говорить о том конкретном смысле, который вкладывается в понятие случая в различных задачах физики.

Из книги Д.Бома «Причинность и случайность в современной физике» мы так и не можем узнать, что же такое случайность. Там можно прочесть такие высказывания [17, стр. 48]:

«Фактические законы случая столь же необходимы, как и сами причинные законы[5]. Например, беспорядочный характер случайных флуктуаций в большом разнообразии ситуаций делается неизбежным за счет крайне сложного и многообразного характера внешних несущественных факторов, от которых зависят флуктуации... Более того, этот неупорядоченный характер флуктуаций очень часто является внутренне присущей и неотъемлемой частью нормального функционирования многих видов вещей и их способов бытия».

Итак, мы узнаем, что случайность внутренне присуща природе и является частью необходимости. Все это, может быть, и спасает нас от ереси, заставляя верить, что все равно все необходимо, но вряд ли что проясняет по существу.

А вот в книге Д.И.Блохинцева [18] просто и без всяких заклинаний вводится «Его Величество Случай» и рассказывается о его роли в квантовомеханическом представлении микромира. И, наверное, ничего лучшего сделать нельзя.

Всякие попытки осмыслить онтологию случая ведут к явно несерьезным высказываниям. Видимо, лучше говорить о том, что случайность – это не онтологическая, а гносеологическая категория. Или, так же, как и причинность, это есть просто одна из двух категорий, порождающих два разных языка для описания мира. В обоих случаях мы имеем дело не с представлениями, возникшими как зеркальное отражение реальности, а с некоторыми абстракциями, построенными над наблюдениями о внешнем мире. Абстракциями, порождающими две разных грамматики для упорядочивания и осмысливания результатов наших наблюдений. Как здесь не вспомнить о принципе дополнительности Бора! Если признать такую языковую точку зрения, то мы сразу вылезем из болота размышлений об онтологии случая и освободимся от необходимости произносить заклинания.

Интересно написанный сборник статей [19] является хорошим примером тех трудностей, с которыми приходится сталкиваться при попытке придать онтологический смысл понятиям причинности и случайности.

Ущербность всех попыток осмысливания бытия случая объясняется очень просто: здесь хотят сделать невозможное – осмыслить случай в привычных рамках детерминистических представлений.

Представление об онтологическом смысле понятия «случай» удается хорошо обосновать только в рамках тех крайних философских проявлений мысли, которые уже принято относить к иррационализму. Любопытно отметить, что признание бытия случая сопровождается здесь и отрицанием бытия причинности. В качестве иллюстрации приведем здесь высказывание из [20]:

«Случайность – вот что существенно. Я хочу сказать, что, по определению, существование не есть необходимость. Существовать – значит просто находиться там; сущности проявляются, с ними можно столкнуться, но их нельзя вывести дедуктивно. Я думаю, существуют люди, которые это понимают. Просто они пытаются преодолеть эту случайность, объявляя бытие необходимостью и причиной самого себя. Между тем, никакое необходимое бытие не может объяснить существование; случайность не правдоподобная подделка, не видение, которое может исчезнуть; это абсолют, и, следовательно, отсутствие причинности в совершенном его проявлении».

Это изящное высказывание выглядит очень уместно в системе сартровского экзистенциализма. Но мы здесь остаемся в рамках научного анализа представления о случае.

Кажется, что описание явлений в терминах случая делает мир более таинственным, чем он представляется детерминисту. На самом деле это чисто психологический эффект, он исчезает при вспомогательном логическом анализе. Действительно, последовательный детерминизм заставляет нас признать некие первопричины, скажем, законы природы, которые возникли без причины. Таинственность в детерминизме просто отодвигается в далекое прошлое. В системе детерминистических представлений беспричинно возникший мир теперь оказывается упорядоченно-причинным, вероятностные представления разрушают упорядоченность, вводя беспричинность в описание нашего повседневного опыта.

ЗАКЛЮЧИТЕЛЬНЫЕ ЗАМЕЧАНИЯ

Попробуем подвести итоги.

Детерминизм уходит своими корнями глубоко в историю и предысторию человеческого мышления. Представление о случае возникло, видимо, значительно позже, когда было осознано, что поиск причинного объяснения всех явлений неизбежно приводит к построению фантастических концепций. Но случайность долго не удавалось согласовать с формально-логическим построением суждений, и европейская философская мысль – научная и религиозная (они шли в этом вопросе рука об руку)[6] – потратила столетия на борьбу со случайностью, пытаясь соотнести его просто с недостаточным знанием. Теория вероятностей, наложив существенные ограничения на проявления случая, создала язык, позволяющий описывать случайность в рамках строго логических построений. Этот язык оказался богаче языка жестокого детерминизма, давая возможность описывать явления размыто, без упорядочивания их в системе жестких причинно-следственных связей. Позиции детерминизма стали смягчаться. Из всех проявлений вероятностной мысли самое крайнее положение занимает школа субъективных вероятностей, опирающаяся на необейесовский подход. Здесь, если хотите, априорную функцию распределения можно рассматривать как систему размытых (вероятностно-взвешенных) аксиом, а апостериорное распределение – как размытое суждение. Борьба с признанием случая продолжается не только у философов, но и среди математиков-вероятностников, часть из них стремится ограничить вероятностные представления крайним формализмом.

Философски настроенные авторы любят ставить вопрос о том, есть ли прогресс в истории человеческого мышления. Конкретные достижения науки вряд ли можно признать за проявление прогресса – в прагматическом плане они облегчили жизнь людей, но поставили человечество перед угрозой экологической катастрофы, в познавательном плане все результаты науки можно интерпретировать не более как овладение природой, ибо все сегодняшнее знание, с позиций завтрашнего дня, это только парадигматически закрепленное незнание. Реально можно говорить только о прогрессе в мышлении – важна не смена идей, а эволюция мышления – это мы теперь, кажется, стали понимать. Нужно признать, что с развитием науки мышление становится шире. Рушатся рамки отупляющего детерминизма, хотя время от времени и вспыхивают попытки его спасти, скажем, в открытом или скрыто признаваемом логическом позитивизме. Признание случая – не единственная попытка расширить мышление. Можно указать и на другие попытки проявления свободы мышления – на принцип дополнительности Бора, которому он сам пытался придать некий всеобщий характер, на попытки построения многозначной логики, и, в частности, трехзначной логики Рейхенбаха, предназначенной для формализации физических теорий. Не все это и далеко не у всех находит какое-то признание.

Здесь не идет речь об обращении к иррационализму. Все сводится просто к смягчению формальной логики. Не пользуясь логикой, мы не можем сказать ничего вразумительного. В [21] я пытался использовать необейесовский подход для объяснения иррегулярности нашего речевого поведения. И вдумчивые читатели заметили, что, развивая свою концепцию, я все время опираюсь на обычную логику. Точно то же замечание делает Борн в адрес Рейхенбаха, когда последний развивает свою концепцию трехзначной логики. Борн пишет [5, стр. 156]: «Этот факт может послужить, между прочим, и для отказа от метода Рейхенбаха, и для его оправдания».

То же можно сказать и обо всем том, что было написано выше. Судите сами!

ЛИТЕРАТУРА

1. Кун Т. Структура научных революций. – М.: Прогресс, 1978. – 300 с. 

2. Fine Т.R. Theories of Probabilities. An Examination of Foundations. – New York – London: Academic Press, 1973. 263 p. 

3. Тутубалин В.Я. Теория вероятностей. Краткий курс и научно-методические замечания. – М.: Изд-во МГУ, 1972. – 229 с. 

4. Алiмов Ю.I. Про застосування математичноi статистики до обробки експериментальних даних. – Автоматика, 1974, № 2, с. 21–33. 

5. Борн М. Моя жизнь и взгляды. – М.: Прогресс, 1973. – 176 с. 

6. Налимов В.В., Мульченко З.М. Наука и биосфера: опыт сравнения двух систем. – Природа, 1970, № 11, с. 55–63. 

7. Налимов В.В. Логические основания прикладной математики. Препринт МЛСМ МГУ, № 24, 1971. – 57 с. 

8. Хао Ван. Процесс и существование в математике. – В кн.: Математическая логика и ее применение. – М.: Мир, 1965. – 341 с. 

9. Гнеденко Б.В. Курс теории вероятности. – М.: Наука, 1962. – 441 с. 

10. Колмогоров А.Н. Теория вероятностей. Гл. XI. – В кн.: Математика, ее содержание, методы и значение. Т. 2. – Д.: Изд-во АН СССР, 1956. – 395 с. 

11. Вентцель Е.С. Теория вероятностей. – М.: Физматгиз, 1962. – 564 с. 

12. Гррнджер К., Хатанака М. Спектральный анализ временных рядов экономике. – М.: Статистика, 1972. – 311 с. 

13. Маслов В.Н., Набатова Л.В., Налимов В.В. и др. Представление результатов исследования структурных эффектов германия. – Заводская лаборатория, 1963, № 10, с. 1206–1211. 

14. Хальд А. Математическая статистика с техническими приложениями. – М.: ИЛ, 1956. 

15. Яхонт С. Случайность. – Философская энциклопедия. Т. 5. – М.: Сов. энциклопедия, 1970. 

16. Растригин JI.А. Этот случайный, случайный, случайный мир. – М.: Молодая гвардия, 1969. 

17. Бом Д. Причинность и случайность в современной физике. – М.: ИЛ, 1959. 

18. Блохинцев Д.И. Принципиальные вопросы квантовой механики. – М.: Наука, 1966. 

19. Современный детерминизм. Законы природы. – М.: Мысль, 1973. 

20. Sartre /. P. La nausée. – Paris, 1964. 

21. Налимов В.В. Вероятностная модель языка. – М.: Наука, 1974. 

22. Kenny A. The Five Ways. St. Thomas Aquinas Proofs of god's Existance. – London, 1969.



[1] Представление о парадигме в науке введено Т. Куном [1]. Грубо говоря, это некоторое нечетко сформулированное поле аксиом, которыми определяется то, что в данное время считается допустимым в науке.

[2] Здесь интересно привести высказывания М. Борна [5] о трудности понимания идеи причинной цепочки: «Часто возникает идея „причинной цепи“: Аи А2, А3,..., где В зависит только от А1 непосредственно, А1 от А2 и т.д., так что В косвенно зависит от любого Ап. Поскольку такой ряд может оказаться бесконечным, то где искать „первопричину“? Число причин может быть и будет, вообще говоря, бесконечным? К тому же, нельзя привести ни малейшего довода в пользу предположения о единственности такой цепи или даже о некотором ограниченном числе таких цепей, ибо причины могут быть переплетены неким сложным образом, и более подходящей картиной мне представляется „сеть причин“ (причем даже сеть в многомерном пространстве). Мало того, почему множество причин должно быть всего лишь счетным? А не составлять континуум! «Множество всех причин данного события» кажется мне понятием столь же опасным, как и те понятия, которые ведут к логическим парадоксам типа Рассела. Я считаю, что понятие о «множестве всех причин» является метафизической идеей, вызывающей пустые споры».

[3] Эту мысль можно иллюстрировать парадоксом Мизеса. Вот как он выглядит в изложении В.Н. Тутубалина [3]: «...в классической теории вероятностей имеется определение: „Два события называются несовместимыми, если они не могут произойти вместе“ – и теорема: „Вероятность суммы двух несовместимых событий равна сумме вероятностей“. Р. Мизес придумал следующий парадокс. Пусть некий теннисист может поехать на турнир либо в Москву, либо в Лондон, причем турниры там происходят одновременно. Вероятность того, что он займет первое место в Москве, равна 0,9 (если, конечно, он туда поедет), а в Лондоне – 0,6. Чему равна вероятность того, что он займет где-либо первое место? Решение: согласно классической теории, события «выигрыш турнира в Москве» и «выигрыш турнира в Лондоне» несовместны, поэтому искомая вероятность есть 0,9+0,6=1,5».

Несмотря на очевидную нелепость этого рассуждения, в старой теории вероятностей не было ничего, что бы его запрещало.

[4] Интересно обратить внимание на то, как этот вопрос рассматривается, в учебниках по теории вероятностей. В.Н. Тутубалин [3] ставит его, но уклоняется от детального обсуждения, ссылаясь лишь на то, что понятие множества, в том виде как оно используется в построении аксиоматики, ведет к парадоксам, для преодоления которых нет еще удовлетворительного во всех отношениях решения. Б.В. Гнеденко дает следующие основания для утверждения о непротиворечивости аксиом Колмогорова [9, стр. 50]: «Система аксиом Колмогорова непротиворечива, так как существуют реальные объекты, которым все эти аксиомы удовлетворяют».

Такое распространенное в догильбертовское время обоснование непротиворечивости предполагает признание странно звучащего теперь постулата Фомы Аквинского (XIII век) о непротиворечивости мира.

[5] Таким образом, необходимость нельзя отождествлять с причинностью: она является более широкой категорией.

[6] Принятое в философской литературе соотнесение случайности с необходимостью восходит еще к Фоме Аквинскому, который утверждал, что не все имеет возможность существовать и не существовать, но должно существовать нечто, что необходимо для целостности всей системы [22].



Назад в раздел