Для установки нажмите кнопочку Установить расширение. И это всё.

Исходный код расширения WIKI 2 регулярно проверяется специалистами Mozilla Foundation, Google и Apple. Вы также можете это сделать в любой момент.

4,5
Келли Слэйтон
Мои поздравления с отличным проектом... что за великолепная идея!
Александр Григорьевский
Я использую WIKI 2 каждый день
и почти забыл как выглядит оригинальная Википедия.
Статистика
На русском, статей
Улучшено за 24 ч.
Добавлено за 24 ч.
Альтернативы
Недавние
Show all languages
Что мы делаем. Каждая страница проходит через несколько сотен совершенствующих техник. Совершенно та же Википедия. Только лучше.
.
Лео
Ньютон
Яркие
Мягкие

Логическая вероятность

Из Википедии — свободной энциклопедии

Логическая вероятность — логическое отношение между двумя предложениями, степень подтверждения гипотезы H свидетельством E.

Понятие логической вероятности является одной из интерпретаций понятия вероятности наряду с частотной вероятностью и субъективной вероятностью[1]. Формально логическая вероятность является функцией предложений какого-либо языка. Аналитическим предложениям (тавтологиям) приписывается единичное значение этой функции; противоречиям — нулевое; синтетическим предложениям — любое действительное число из интервала (0, 1)[2][3][4][5][6][7]. Конкретные значения логической вероятности для каждого её синтетического аргумента H зависят от другого предложения E, которое можно интерпретировать как описание знаний некоторого субъекта[7][8][9][10][11]. По этой причине логическую вероятность называют эпистемологической (зависящей от знаний) вероятностью. В некотором смысле её также можно трактовать и как разновидность субъективной вероятности. Однако значения логической вероятности однозначно определяются заданной системой знаний и, в этом смысле, имеют объективный характер[2]. В научной литературе принято различать логическую и субъективную вероятности[1].

Поскольку предложения языка описывают некоторые события или состояния, то логическую вероятность также можно рассматривать как функцию этих событий или состояний[12][13][14].

История

Понятие логической вероятности возникло и развивалось в работах Кейнса, Джонсона и Джеффри[2][3][4][5][6]. Наиболее систематическое изучение данного понятия было проведено Карнапом[7][8][9][10][11]. Его формулирование логической вероятности началась с конструирования формального языка. В 1950 году он рассмотрел класс очень простых языков, состоящих из конечного числа логически независимых одноместных предикатов, именуемых свойствами, и счетного количества констант. Для получения более сложных предложений использовались логические связки. Далее Карнап составил описания всех возможных состояний универсума.

Рассмотрим следующий пример, взятый из работы[1]. Пусть формальный язык содержит три индивидуальные константы a, b, c и предикат F. Для определенности примем, что константы обозначают конкретных людей: Алису, Боба и Цезаря, а предикату соответствует свойство: «быть молодым». Существуют восемь возможных описаний состояний для этого случая, которые представлены в табл. 1.

Таблица 1

N Описания состояний Вероятности 1 Вероятности 2
1
2
3
4
5
6
7
8

Символ «» обозначает логическую связку «И», а символ «» — логическую связку «НЕ». Первое предложение можно прочитать следующим образом: «Алиса, Боб и Цезарь — все молодые», второе — «Алиса и Боб — молодые, а Цезарь — нет», третье «Алиса и Цезарь — молодые, а Боб — нет» и т. д.

Карнап обозначал абсолютную логическую вероятность предложения A символом m(A). Её значение определяется как сумма вероятностей состояний, в которых предложение A является истинным. Предположим, что субъект не располагает фактическими знаниями и априори считает, что все состояния универсума одинаково вероятны. Тогда значения абсолютных логических вероятностей каждого состояния равны 1/8 (см. табл. 1). Следовательно, вероятности атомарных предложений равны 1/2, вероятность конъюнкции двух атомарных предложений — 1/4, вероятность дизъюнкции двух атомарных предложений — 3/4.

Карнап определяет функцию подтверждения c(H, E) предложения H предложением E следующим образом:

.

С точки зрения обычной теории вероятностей функция подтверждения является условной вероятностью. Когда описания состояний универсума равновероятны, как в данном случае, мы не можем использовать полученный опыт для предсказания дальнейших событий. Например, функция подтверждения гипотезы "Цезарь молодой" при отсутствии всякого свидетельства, при наличии свидетельства "Алиса молодая" и при наличии свидетельства "Алиса молодая и Боб молодой" принимает одинаковое значение, равное 1/2.

Карнапа интересовал вопрос индуктивного вывода. Он считал, что индуктивная логика — это вероятностная логика, и новые свидетельства в пользу гипотезы должны увеличивать степень её подтверждения[11]. В попытке согласовать свою модель с ожидаемыми результатами он обратился к структурным описаниям, которые можно получить, если все константы в языке считать неразличимыми (взаимозаменяемыми)[7]. В нашем примере имеем четыре структурных описания.

1). «три молодых человека»,

2). «два молодых человека и один старый»,

3). «один молодой и два старых»,

4). «трое стариков».

Первому структурному описанию соответствует состояние 1 (см. табл. 1); второму — состояния 2, 3 и 5; третьему — состояния 4, 6, 7; четвертому — состояние 8. Каждому структурному описанию назначают одинаковое значение вероятности (равное 1/4 в нашем примере). Поскольку второму структурному описанию соответствуют три описания состояний 2, 3 и 5, то значения вероятностей этих состояний будут в три раза меньше значения вероятности структурного описания (то есть 1/12). Такие же значения вероятностей будут иметь и состояния 4, 6 и 7. Теперь имеем новое распределение вероятностей состояний, в котором значения вероятностей различаются (см. последний столбец табл. 1).

Для этого случая Карнап использует специальные обозначения логических функций m* и c*. Их численные значения для разных предложений языка в общем случае отличаются от значений функций m и c. Теперь появляется возможность обучения на опыте. Предположим, мы идем по улице. Значение функции подтверждения c* гипотезы "нам встретится молодой человек" при отсутствии всякого свидетельства равно 1/2. После того как мы увидели молодую девушку (Алису), оно повысится до величины 2/3. А после новой встречи с молодым человеком (Бобом) увеличивается до величины 3/4. Наши наблюдения могут наводить на мысль, что где-то поблизости расположен университет и студенты спешат на занятия. Поэтому нам и встречаются одни только молодые люди.

Необходимо заметить, что значения логической вероятности зависят от свидетельства (то есть от предложения), а не от фактов реального мира. Гипотеза «Цезарь окажется молодым» в отношении свидетельства «Алиса оказалась молодой и Боб тоже оказался молодым» имеет вероятность 3/4, независимо от того, видели ли мы Алису и Боба в реальной жизни или только вообразили себе их.

Обратимся к другому примеру. Допустим, некий человек увидел однажды черную ворону и ожидает, что и следующая увиденная им ворона окажется черной. Если это подтвердилось, то ожидания снова встретить ворону черного цвета у него будут выше, чем прежде. Впрочем, это не значит, что ситуация не может измениться (бывают ведь и белые вороны). Европейцы привыкли видеть белых лебедей и были несказанно удивлены (и очарованы), когда в Австралии обнаружили черного лебедя.

Предположим, что мы встретили юную девушку Алису, а затем немолодого Боба (возможно, что это профессор нашего гипотетического университета). Какова вероятность того, что в дальнейшем нам встретится молодой Цезарь? Говоря формальным языком, нам нужно найти значение функции подтверждения c* для этого случая. Оно будет равно 1/2. Вполне ожидаемый результат. Любопытно, что при новом распределении вероятностей состояний универсума атомарные предложения начинают зависеть друг от друга. Однако это уже не логическая, а физическая зависимость. Изменения в распределении вероятностей состояний приводят к получению новой информации (изменению знаний субъекта). В нашем случае — это представление о взаимозаменяемости индивидуальных констант. Другой пример: предложения «идет дождь» и «земля мокрая» являются логически независимыми. Однако физически они зависят друг от друга, это можно проверить опытным путём.

Классификация логических вероятностей

Согласно Карнапу[7], логические вероятности делятся на два класса: дедуктивные и индуктивные. Дедуктивными являются функции m и c. Примером индуктивных вероятностей могут служить функции m* и c*. Последние имеют особое значение, поскольку с их помощью можно построить логику индуктивного вывода)[11][12][13][14][15].

Правило последовательности

Задолго до Карнапа Лаплас вывел формулу, позволяющую рассчитывать предсказывающую (индуктивную) вероятность. Рассмотрим последовательность случайных исходов некоторого эксперимента, каждый принимает одно значение из двух возможных: либо 1, либо 0 (единица означает успех, а ноль — неудачу). Пусть E обозначает предложение «в n испытаниях было k успехов», а H обозначает предложение «следующее испытание закончится успехом». Тогда вероятность того, что следующее испытание завершится успехом, равна:

,

Это знаменитое правило последовательности Лапласа.

Вернемся к нашему примеру. Пусть успех эксперимента заключается в том, что, двигаясь по улице, мы встречаем молодого человека, а неуспех — в том, что встречаем немолодого. Пока мы никого не встретили, и . Поэтому . После встречи с Алисой (), которая является юной девушкой (), предсказывающая вероятность увеличивается . А после встречи с Бобом (), который также имеет юный возраст (), она еще более увеличивается .

Карнап пошел дальше Лапласа. Он обобщил его формулу на случай исходов () различных типов. Пусть в результате испытаний из них закончились исходом -го типа. Тогда вероятность того, что следующее испытание завершится исходом -го типа, равна[7][14]:

В дальнейшем Карнап получил еще более общую формулу.

Континуум Джонсона — Карнапа

Ранний Карнап излагал свою теорию скорее как философ, а не как математик[14]. Позднее стиль его работ изменился, он стал использовать аксиомы и формальные доказательства[11]. Современный подход к определению индуктивной вероятности заключается в следующем. Индуктивная вероятность рассматривается в виде , где предложения и входят в некоторую алгебру предложений, а является фиксированным предложением, называемом «фоновым свидетельством»[15].

В нашем примере предложениями алгебры являются атомарные предложения , и и их отрицания, а также молекулярные предложения, составленные из данных атомов с помощью логических связок. Фоновым свидетельством является утверждение о том, что все структурные описания имеют одинаковые вероятности. Предположим, что алгебра содержит предложения , , и . Следующие пять аксиом гарантируют, что удовлетворяет законам вероятности.

Аксиома 1. .

Аксиома 2. .

Аксиома 3. .

Аксиома 4. .

Аксиома 5. Если и , то .

Здесь символ «» означает логическую эквивалентность. К этим пяти аксиомам следует добавить еще четыре аксиомы Карнапа[10].

Аксиома 6. (Регулярности) .

Аксиома 7. (Симметрии) не изменяется при перестановке индивидуальных констант.

Аксиома 8. (Текущей релевантности (англ. instantial relevance)) , где свидетельство содержит всю информацию, которая содержится в , плюс новые подтверждения гипотезы .

Аксиома 9. (Постулат достаточности) Индуктивная вероятность является функцией и .

На основании этих аксиом Карнап доказал следующую теорему[10]. Если имеется различных исходов испытаний, то существуют положительные действительные константы ,…, , такие что

где .

Позднее выяснилось, что задолго до Карнапа этот результат был получен Джонсоном[3][4], однако вследствие его ранней смерти оказался неизвестен широкой научной общественности[14]. Полученную формулу можно представить в виде:

Выражения в квадратных скобках имеют очевидную интерпретацию. Первое представляет собой эмпирическую частоту, а второе  — априорную вероятность исхода -го типа, полученную на основе анализа пространства возможных состояний. Выражения в круглых скобках — это относительные веса, которыми представлены эмпирические наблюдения и априорная информация в значении логической вероятности. При фиксированном , чем больше , тем большую роль играет априорная информация (и наоборот). При малых , когда выборка наблюдений является недостаточно представительной, логично отдавать предпочтение априорной вероятности; при большом числе наблюдений, напротив — эмпирической частоте. При значение индуктивной вероятности асимптотически стремится к значению частотной (независимо от конечной величины ).

Универсальное обобщение

Пусть объектом наблюдения являются ворон, и все они оказались черными (). На основании данного опыта можно выдвинуть гипотезу о том, что вороны — черные вообще. Какова вероятность такого утверждения? На этот вопрос теория Джонсона — Карнапа дает парадоксальный ответ — она равна нулю[1][14][15].

Сэнди Забелл решил этот парадокс, заменив постулат достаточности новым постулатом[13]. Пусть означает число исходов разных типов, наблюдаемых в серии из опытов. Новый постулат формулируется так: для всех предсказывающая вероятность является функцией и , за исключением случаев, когда и . В результате Забелл получил следующие формулы для индуктивной вероятности[13]:

для ,

для и .

для , и .

где ,

,

.

Здесь  — априорная и  — апостериорная вероятности того, что исход -го типа в данном эксперименте будет наблюдаться всегда.

Место логической вероятности в ряду вероятностей других типов

Согласно классическому определению, вероятность есть отношение числа избранных исходов некоторого эксперимента к числу всех мыслимых его исходов. При этом все они полагаются равновозможными. Как известно [1], критика недостатков этого определения привела к появлению понятия частотной вероятности. Логические теории возвращают нас к идее о том, что вероятность может быть определена априори путём исследования пространства возможностей, хотя теперь возможности могут быть заданы и с неравным весом.

Логическая вероятность имеет отношение к доступному свидетельству и не зависит от неизвестных фактов о мире, а частотная — является фактом о мире и не имеет отношения к доступному свидетельству[16]. Тем не менее, различие между этими вероятностями достаточно тонкое. Например, если известно, что при бросании игральной кости величина частотной вероятности выпадения шестерки равна q=0,18, то логическая вероятность гипотезы «выпадет шестерка» относительно свидетельства «брошена кость с заданной q» равна 0,18.

Существует мнение[1][14][15], что если знания субъекта можно представить в виде некого сложного предложения (total evidence), то логическая вероятность способна служить разумным обоснованием субъективной вероятности. Однако в работе[16] утверждается, что, субъективная вероятность — это смесь мистики, прагматизма и высокомерия, в которой лишь немного индуктивной вероятности.

Примечания

  1. 1 2 3 4 5 6 Hajek Alan. (2007). Interpretation of probability. In The Stanford Encyclopedia of Philosophy, ed. Edward N. Zalta, https://plato.stanford.edu/entries/probability-interpret/ Архивная копия от 17 февраля 2021 на Wayback Machine.
  2. 1 2 3 Keynes J.M. A Treatise on Probability. Macmillan, London, 1921.
  3. 1 2 3 Jonnson W.E. Logic, Part III: Logical Foundation of Science. Cambridge University Press, 1924.
  4. 1 2 3 Johnson W.E. Probability: The deductive and inductive problems. Mind, 41: 409-423, 1932.
  5. 1 2 Jeffrey R.C. Theory of Probability. Clarendon Press, Oxford, 3rd edition, 1961.
  6. 1 2 Jeffrey R.C. Subjective Probability: The Real Thing. Cambridge University Press, Cambridge, 2004.
  7. 1 2 3 4 5 6 Carnap R. Logical Foundation of Probability. University of Chicago Press, Chicago, 1950, Second edition, 1962.
  8. 1 2 Carnap R. The two concepts of probability. Phylosophy and Phenomeno logical Research, 5:513-532, 1945.
  9. 1 2 Carnap R. On inductive logic. Philosophy of Science, 12:72-97, 1945.
  10. 1 2 3 4 Carnap R. The Continuum of Inductive Methods. University of Chicago Press, Chicago, 1952.
  11. 1 2 3 4 5 Carnap R., Jeffrey R.C. Studies in Inductive Logic and Probability, volume I. University of California Press, Berkeley and Los Angeles, 1971.
  12. 1 2 Гастев Ю.А. Вероятностная логика/ Большая Советская Энциклопедия, 1971, Т. 4, с. 543.
  13. 1 2 3 4 Zabell S.L. (1996) Confirming universal generalizations. Erkenntnis, 45: 267-283.
  14. 1 2 3 4 5 6 7 Zabell S.L. (2004). Carnap and the Logic of Inductive Inference. In Dov M. Gabbay, John Woods & Akihiro Kanamori (eds.), Handbook of the History of Logic. Elsevier 265-309.
  15. 1 2 3 4 Maher Patrick, (2010). Explication of Inductive Probability. Journal of Philosophical Logic 39 (6): 593-616.
  16. 1 2 Maher Patrick, (2006) The Concept of Inductive Probability. Erkenntnis, 65: 185-206.
Эта страница в последний раз была отредактирована 6 декабря 2022 в 13:12.
Как только страница обновилась в Википедии она обновляется в Вики 2.
Обычно почти сразу, изредка в течении часа.
Основа этой страницы находится в Википедии. Текст доступен по лицензии CC BY-SA 3.0 Unported License. Нетекстовые медиаданные доступны под собственными лицензиями. Wikipedia® — зарегистрированный товарный знак организации Wikimedia Foundation, Inc. WIKI 2 является независимой компанией и не аффилирована с Фондом Викимедиа (Wikimedia Foundation).