Дайте определение вероятности. Классическая формула вычисления вероятности

"Случайности не случайны"... Звучит так, словно сказал философ, но на деле изучать случайности удел великой науки математики. В математике случайностями занимается теория вероятности. Формулы и примеры заданий, а также основные определения этой науки будут представлены в статье.

Что такое теория вероятности?

Теория вероятности - это одна из математических дисциплин, которая изучает случайные события.

Чтобы было немного понятнее, приведем небольшой пример: если подкинуть вверх монету, она может упасть «орлом» или «решкой». Пока монета находится в воздухе, обе эти вероятности возможны. То есть вероятность возможных последствий соотносится 1:1. Если из колоды с 36-ю картами вытащить одну, тогда вероятность будет обозначаться как 1:36. Казалось бы, что здесь нечего исследовать и предугадывать, тем более при помощи математических формул. Тем не менее, если повторять определенное действие много раз, то можно выявить некую закономерность и на ее основе спрогнозировать исход событий в других условиях.

Если обобщить все вышесказанное, теория вероятности в классическом понимании изучает возможность возникновения одного из возможных событий в числовом значении.

Со страниц истории

Теория вероятности, формулы и примеры первых заданий появились еще в далеком Средневековье, когда впервые возникли попытки спрогнозировать исход карточных игр.

Изначально теория вероятности не имела ничего общего с математикой. Она обосновывалась эмпирическими фактами или свойствами события, которое можно было воспроизвести на практике. Первые работы в этой сфере как в математической дисциплине появились в XVII веке. Родоначальниками стали Блез Паскаль и Пьер Ферма. Длительное время они изучали азартные игры и увидели определенные закономерности, о которых и решили рассказать обществу.

Такую же методику изобрел Христиан Гюйгенс, хотя он не был знаком с результатами исследований Паскаля и Ферма. Понятие «теория вероятности», формулы и примеры, что считаются первыми в истории дисциплины, были введены именно им.

Немаловажное значение имеют и работы Якоба Бернулли, теоремы Лапласа и Пуассона. Они сделали теорию вероятности больше похожей на математическую дисциплину. Свой теперешний вид теория вероятностей, формулы и примеры основных заданий получили благодаря аксиомам Колмогорова. В результате всех изменений теория вероятности стала одним из математических разделов.

Базовые понятия теории вероятностей. События

Главным понятием этой дисциплины является "событие". События бывают трех видов:

  • Достоверные. Те, которые произойдут в любом случае (монета упадет).
  • Невозможные. События, что не произойдут ни при каком раскладе (монета останется висеть в воздухе).
  • Случайные. Те, что произойдут или не произойдут. На них могут повлиять разные факторы, которые предугадать очень трудно. Если говорить о монете, то случайные факторы, что могут повлиять на результат: физические характеристики монеты, ее форма, исходное положение, сила броска и т. д.

Все события в примерах обозначаются заглавными латинскими буквами, за исключением Р, которой отведена другая роль. Например:

  • А = «студенты пришли на лекцию».
  • Ā = «студенты не пришли на лекцию».

В практических заданиях события принято записывать словами.

Одна из важнейших характеристик событий - их равновозможность. То есть, если подбросить монету, все варианты исходного падения возможны, пока она не упала. Но также события бывают и не равновозможными. Это происходит, когда кто-то специально воздействует на исход. Например, «меченые» игральные карты или игральные кости, в которых смещен центр тяжести.

Еще события бывают совместимыми и несовместимыми. Совместимые события не исключают появления друг друга. Например:

  • А = «студентка пришла на лекцию».
  • В = «студент пришел на лекцию».

Эти события независимы друг от друга, и появление одного из них не влияет на появление другого. Несовместимые события определяются тем, что появление одного исключает появление другого. Если говорить о той же монете, то выпадение «решки» делает невозможным появление «орла» в этом же эксперименте.

Действия над событиями

События можно умножать и складывать, соответственно, в дисциплине вводятся логические связки «И» и «ИЛИ».

Сумма определяется тем, что может появиться или событие А, или В, или два одновременно. В случае когда они несовместимы, последний вариант невозможен, выпадет или А, или В.

Умножение событий заключается в появлении А и В одновременно.

Теперь можно привести несколько примеров, чтобы лучше запомнились основы, теория вероятности и формулы. Примеры решения задач далее.

Задание 1 : Фирма принимает участие в конкурсе на получение контрактов на три разновидности работы. Возможные события, которые могут произойти:

  • А = «фирма получит первый контракт».
  • А 1 = «фирма не получит первый контракт».
  • В = «фирма получит второй контракт».
  • В 1 = «фирма не получит второй контракт»
  • С = «фирма получит третий контракт».
  • С 1 = «фирма не получит третий контракт».

С помощью действий над событиями попробуем выразить следующие ситуации:

  • К = «фирма получит все контракты».

В математическом виде уравнение будет иметь следующий вид: К = АВС.

  • М = «фирма не получит ни одного контракта».

М = А 1 В 1 С 1 .

Усложняем задание: H = «фирма получит один контракт». Поскольку не известно, какой именно контракт получит фирма (первый, второй или третий), необходимо записать весь ряд возможных событий:

Н = А 1 ВС 1 υ АВ 1 С 1 υ А 1 В 1 С.

А 1 ВС 1 - это ряд событий, где фирма не получает первый и третий контракт, но получает второй. Соответственным методом записаны и другие возможные события. Символ υ в дисциплине обозначает связку «ИЛИ». Если перевести приведенный пример на человеческий язык, то фирма получит или третий контракт, или второй, или первый. Подобным образом можно записывать и другие условия в дисциплине «Теория вероятности». Формулы и примеры решения задач, представленные выше, помогут сделать это самостоятельно.

Собственно, вероятность

Пожалуй, в этой математической дисциплине вероятность события - это центральное понятие. Существует 3 определения вероятности:

  • классическое;
  • статистическое;
  • геометрическое.

Каждое имеет свое место в изучении вероятностей. Теория вероятности, формулы и примеры (9 класс) в основном используют классическое определение, которое звучит так:

  • Вероятность ситуации А равняется отношению числа исходов, что благоприятствуют ее появлению, к числу всех возможных исходов.

Формула выглядит так: Р(А)=m/n.

А - собственно, событие. Если появляется случай, противоположный А, его можно записывать как Ā или А 1 .

m - количество возможных благоприятных случаев.

n - все события, которые могут произойти.

Например, А = «вытащить карту червовой масти». В стандартной колоде 36 карт, 9 из них червовой масти. Соответственно, формула решения задания будет иметь вид:

Р(А)=9/36=0,25.

В итоге вероятность того, что из колоды вытянут карту червовой масти, составит 0,25.

К высшей математике

Теперь стало немного известно, что такое теория вероятности, формулы и примеры решения заданий, которые попадаются в школьной программе. Однако теория вероятностей встречается и в высшей математике, которая преподается в вузах. Чаще всего там оперируют геометрическими и статистическими определениями теории и сложными формулами.

Очень интересна теория вероятности. Формулы и примеры (высшая математика) лучше начинать изучать с малого - со статистического (или частотного) определения вероятности.

Статистический подход не противоречит классическому, а немного расширяет его. Если в первом случае нужно было определить, с какой долей вероятности произойдет событие, то в этом методе необходимо указать, как часто оно будет происходить. Здесь вводится новое понятие «относительная частота», которую можно обозначить W n (A). Формула ничем не отличается от классической:

Если классическая формула вычисляется для прогнозирования, то статистическая - согласно результатам эксперимента. Возьмем, к примеру, небольшое задание.

Отдел технологического контроля проверяет изделия на качество. Среди 100 изделий нашли 3 некачественных. Как найти вероятность частоты качественного товара?

А = «появление качественного товара».

W n (A)=97/100=0,97

Таким образом, частота качественного товара составляет 0,97. Откуда взяли 97? Из 100 товаров, которые проверили, 3 оказались некачественными. От 100 отнимаем 3, получаем 97, это количество качественного товара.

Немного о комбинаторике

Еще один метод теории вероятности называют комбинаторикой. Его основной принцип состоит в том, что если определенный выбор А можно осуществить m разными способами, а выбор В - n разными способами, то выбор А и В можно осуществить путем умножения.

Например, из города А в город В ведет 5 дорог. Из города В в город С ведет 4 пути. Сколькими способами можно доехать из города А в город С?

Все просто: 5х4=20, то есть двадцатью разными способами можно добраться из точки А в точку С.

Усложним задание. Сколько существует способов раскладывания карт в пасьянсе? В колоде 36 карт - это исходная точка. Чтобы узнать количество способов, нужно от исходной точки «отнимать» по одной карте и умножать.

То есть 36х35х34х33х32…х2х1= результат не вмещается на экран калькулятора, поэтому его можно просто обозначить 36!. Знак «!» возле числа указывает на то, что весь ряд чисел перемножается между собой.

В комбинаторике присутствуют такие понятия, как перестановка, размещение и сочетание. Каждое из них имеет свою формулу.

Упорядоченный набор элементов множества называют размещением. Размещения могут быть с повторениями, то есть один элемент можно использовать несколько раз. И без повторений, когда элементы не повторяются. n - это все элементы, m - элементы, которые участвуют в размещении. Формула для размещения без повторений будет иметь вид:

A n m =n!/(n-m)!

Соединения из n элементов, которые отличаются только порядком размещения, называют перестановкой. В математике это имеет вид: Р n = n!

Сочетаниями из n элементов по m называют такие соединения, в которых важно, какие это были элементы и каково их общее количество. Формула будет иметь вид:

A n m =n!/m!(n-m)!

Формула Бернулли

В теории вероятности, так же как и в каждой дисциплине, имеются труды выдающихся в своей области исследователей, которые вывели ее на новый уровень. Один из таких трудов - формула Бернулли, что позволяет определять вероятность появления определенного события при независимых условиях. Это говорит о том, что появление А в эксперименте не зависит от появления или не появления того же события в ранее проведенных или последующих испытаниях.

Уравнение Бернулли:

P n (m) = C n m ×p m ×q n-m .

Вероятность (р) появления события (А) неизменна для каждого испытания. Вероятность того, что ситуация произойдет ровно m раз в n количестве экспериментов, будет вычисляться формулой, что представлена выше. Соответственно, возникает вопрос о том, как узнать число q.

Если событие А наступает р количество раз, соответственно, оно может и не наступить. Единица - это число, которым принято обозначать все исходы ситуации в дисциплине. Поэтому q - число, которое обозначает возможность ненаступления события.

Теперь вам известна формула Бернулли (теория вероятности). Примеры решения задач (первый уровень) рассмотрим далее.

Задание 2: Посетитель магазина сделает покупку с вероятностью 0,2. В магазин зашли независимым образом 6 посетителей. Какова вероятность того, что посетитель сделает покупку?

Решение: Поскольку неизвестно, сколько посетителей должны сделать покупку, один или все шесть, необходимо просчитать все возможные вероятности, пользуясь формулой Бернулли.

А = «посетитель совершит покупку».

В этом случае: р = 0,2 (как указано в задании). Соответственно, q=1-0,2 = 0,8.

n = 6 (поскольку в магазине 6 посетителей). Число m будет меняться от 0 (ни один покупатель не совершит покупку) до 6 (все посетители магазина что-то приобретут). В итоге получим решение:

P 6 (0) = C 0 6 ×p 0 ×q 6 =q 6 = (0,8) 6 = 0,2621.

Ни один из покупателей не совершит покупку с вероятностью 0,2621.

Как еще используется формула Бернулли (теория вероятности)? Примеры решения задач (второй уровень) далее.

После вышеприведенного примера возникают вопросы о том, куда делись С и р. Относительно р число в степени 0 будет равно единице. Что касается С, то его можно найти формулой:

C n m = n! / m!(n-m)!

Поскольку в первом примере m = 0, соответственно, С=1, что в принципе не влияет на результат. Используя новую формулу, попробуем узнать, какова вероятность покупки товаров двумя посетителями.

P 6 (2) = C 6 2 ×p 2 ×q 4 = (6×5×4×3×2×1) / (2×1×4×3×2×1) × (0,2) 2 × (0,8) 4 = 15 × 0,04 × 0,4096 = 0,246.

Не так уж и сложна теория вероятности. Формула Бернулли, примеры которой представлены выше, прямое тому доказательство.

Формула Пуассона

Уравнение Пуассона используется для вычисления маловероятных случайных ситуаций.

Основная формула:

P n (m)=λ m /m! × e (-λ) .

При этом λ = n х p. Вот такая несложная формула Пуассона (теория вероятности). Примеры решения задач рассмотрим далее.

Задание 3 : На заводе изготовили детали в количестве 100000 штук. Появление бракованной детали = 0,0001. Какова вероятность, что в партии будет 5 бракованных деталей?

Как видим, брак - это маловероятное событие, в связи с чем для вычисления используется формула Пуассона (теория вероятности). Примеры решения задач подобного рода ничем не отличаются от других заданий дисциплины, в приведенную формулу подставляем необходимые данные:

А = «случайно выбранная деталь будет бракованной».

р = 0,0001 (согласно условию задания).

n = 100000 (количество деталей).

m = 5 (бракованные детали). Подставляем данные в формулу и получаем:

Р 100000 (5) = 10 5 /5! Х е -10 = 0,0375.

Так же как и формула Бернулли (теория вероятности), примеры решений с помощью которой написаны выше, уравнение Пуассона имеет неизвестное е. По сути его можно найти формулой:

е -λ = lim n ->∞ (1-λ/n) n .

Однако есть специальные таблицы, в которых находятся практически все значения е.

Теорема Муавра-Лапласа

Если в схеме Бернулли количество испытаний достаточно велико, а вероятность появления события А во всех схемах одинакова, то вероятность появления события А определенное количество раз в серии испытаний можно найти формулой Лапласа:

Р n (m)= 1/√npq x ϕ(X m).

X m = m-np/√npq.

Чтобы лучше запомнилась формула Лапласа (теория вероятности), примеры задач в помощь ниже.

Сначала найдем X m , подставляем данные (они все указаны выше) в формулу и получим 0,025. При помощи таблиц находим число ϕ(0,025), значение которого 0,3988. Теперь можно подставлять все данные в формулу:

Р 800 (267) = 1/√(800 х 1/3 х 2/3) х 0,3988 = 3/40 х 0,3988 = 0,03.

Таким образом, вероятность того, что рекламная листовка сработает ровно 267 раз, составляет 0,03.

Формула Байеса

Формула Байеса (теория вероятности), примеры решения заданий с помощью которой будут приведены ниже, представляет собой уравнение, которое описывает вероятность события, опираясь на обстоятельства, которые могли быть связаны с ним. Основная формула имеет следующий вид:

Р (А|B) = Р (В|А) х Р (А) / Р (В).

А и В являются определенными событиями.

Р(А|B) - условная вероятность, то есть может произойти событие А при условии, что событие В истинно.

Р (В|А) - условная вероятность события В.

Итак, заключительная часть небольшого курса «Теория вероятности» - формула Байеса, примеры решений задач с которой ниже.

Задание 5 : На склад привезли телефоны от трех компаний. При этом часть телефонов, которые изготавливаются на первом заводе, составляет 25%, на втором - 60%, на третьем - 15%. Известно также, что средний процент бракованных изделий у первой фабрики составляет 2%, у второй - 4%, и у третьей - 1%. Необходимо найти вероятность того, что случайно выбранный телефон окажется бракованным.

А = «случайно взятый телефон».

В 1 - телефон, который изготовила первая фабрика. Соответственно, появятся вводные В 2 и В 3 (для второй и третьей фабрик).

В итоге получим:

Р (В 1) = 25%/100% = 0,25; Р(В 2) = 0,6; Р (В 3) = 0,15 - таким образом мы нашли вероятность каждого варианта.

Теперь нужно найти условные вероятности искомого события, то есть вероятность бракованной продукции в фирмах:

Р (А/В 1) = 2%/100% = 0,02;

Р(А/В 2) = 0,04;

Р (А/В 3) = 0,01.

Теперь подставим данные в формулу Байеса и получим:

Р (А) = 0,25 х 0,2 + 0,6 х 0,4 + 0,15 х 0,01= 0,0305.

В статье представлена теория вероятности, формулы и примеры решения задач, но это только вершина айсберга обширной дисциплины. И после всего написанного логично будет задаться вопросом о том, нужна ли теория вероятности в жизни. Простому человеку сложно ответить, лучше спросить об этом у того, кто с ее помощью не единожды срывал джек-пот.

Ясно, что каждое событие обладает той или иной степенью возможности своего наступления (своей реализации). Чтобы количественно сравнивать между собой события по степени их возможности, очевидно, нужно с каждым событием связать определенное число, которое тем больше, чем более возможно событие. Такое число называется вероятностью события.

Вероятность события – есть численная мера степени объективной возможности наступления этого события.

Рассмотрим стохастический эксперимент и случайное событие А, наблюдаемое в этом эксперименте. Повторим этот эксперимент n раз и пусть m(A) – число экспериментов, в которых событие А произошло.

Отношение (1.1)

называется относительной частотой события А в проведенной серии экспериментов.

Легко убедиться в справедливости свойств:

если А и В несовместны (АВ= ), то ν(А+В) = ν(А) + ν(В) (1.2)

Относительная частота определяется только после проведения серии экспериментов и, вообще говоря, может меняться от серии к серии. Однако опыт показывает, что во многих случаях при увеличении числа опытов относительная частота приближается к некоторому числу. Этот факт устойчивости относительной частоты неоднократно проверялся и может считаться экспериментально установленным.

Пример 1.19. . Если бросить одну монету, никто не сможет предсказать, какой стороной она упадет кверху. Но если бросить две тонны монет, то каждый скажет, что примерно одна тонна упадет кверху гербом, то есть относительная частота выпадения герба примерно равна 0,5.

Если при увеличении числа опытов относительная частота события ν(А) стремится к некоторому фиксированному числу, то говорят, что событие А статистически устойчиво , а это число называют вероятностью события А.

Вероятностью события А называется некоторое фиксированное число Р(А), к которому стремится относительная частота ν(А) этого события при увеличении числа опытов, то есть,

Это определение называют статистическим определением вероятности .

Рассмотрим некий стохастический эксперимент и пусть пространство его элементарных событий состоит из конечного или бесконечного (но счетного) множества элементарных событий ω 1 , ω 2 , …, ω i , … . предположим, что каждому элементарному событию ω i прописан некоторое число - р i , характеризующее степень возможности появления данного элементарного события и удовлетворяющее следующим свойствам:

Такое число p i называется вероятностью элементарного события ω i .

Пусть теперь А- случайное событие, наблюдаемое в этом опыте, и ему соответствует некоторое множество

В такой постановке вероятностью события А называют сумму вероятностей элементарных событий, благоприятствующих А (входящих в соответствующее множество А):


(1.4)

Введенная таким образом вероятность обладает теми же свойствами, что и относительная частота, а именно:

И если АВ= (А и В несовместны),

то P(А+В) = P(А) + P(В)

Действительно, согласно (1.4)

В последнем соотношении мы воспользовались тем, что ни одно элементарное событие не может благоприятствовать одновременно двум несовместным событиям.

Особо отметим, что теория вероятностей не указывает способов определения р i , их надо искать из соображений практического характера или получать из соответствующего статистического эксперимента.

В качестве примера рассмотрим классическую схему теории вероятностей. Для этого рассмотрим стохастический эксперимент, пространство элементарных событий которого состоит из конечного (n) числа элементов. Предположим дополнительно, что все эти элементарные события равновозможны, то есть вероятности элементарных событий равны p(ω i)=p i =p. Отсюда следует, что

Пример 1.20 . При бросании симметричной монеты выпадение герба и «решки» равновозможны, их вероятности равны 0,5.

Пример 1.21 . При бросании симметричного кубика все грани равновозможны, их вероятности равны 1/6.

Пусть теперь событию А благоприятствует m элементарных событий, их обычно называют исходами, благоприятствующими событию А . Тогда

Получили классическое определение вероятности : вероятность Р(А) события А равна отношению числа исходов, благоприятствующих событию А, к общему числу исходов

Пример 1.22 . В урне лежит m белых шаров и n черных. Чему равна вероятность вытащить белый шар?

Решение . Всего элементарных событий m+n. Они все равновероятны. Благоприятствующих событию А из них m. Следовательно, .

Из определения вероятности вытекают следующие ее свойства:

Свойство 1 . Вероятность достоверного события равна единице.

Действительно, если событие достоверно, то каждый элементарный исход испытания благоприятствует собы­тию. В этом случае т=п, следовательно,

P(A)=m/n=n/n=1. (1.6)

Свойство 2. Вероятность невозможного события равна нулю.

Действительно, если событие невозможно, то ни один из элементарных исходов испытания не благоприятствует событию. В этом случае т = 0, следовательно, P(A)=m/n=0/n=0. (1.7)

Свойство 3. Вероятность случайного события есть положительное число, заключенное между нулем и единицей.

Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных исходов испы­тания. То есть, 0≤m≤n, значит, 0≤m/n≤1, следовательно, вероятность любого события удовлетворяет двойному неравенству 0≤P(A) 1. (1.8)

Сопоставляя определения вероятности (1.5) и относительной частоты (1.1), заключаем: определение вероятности не требует, чтобы испытания производились в действительности; определение же относительной частоты предполагает, что испытания были произведены фактически . Другими словами, вероятность вычисляют до опыта, а относительную частоту - после опыта.

Однако, вычисление вероятности требует наличия предварительной информации о количестве или вероятностях благоприятствующих данному событию элементарных исходов. В случае отсутствия такой предварительной информации для определения вероятности прибегают к эмпирическим данным, то есть, по результатам стохастического эксперимента определяют относительную частоту события.

Пример 1.23 . Отдел технического контроля обнаружил 3 нестандартных детали в партии из 80 случайно отобранных деталей. Относительная частота появления нестандартных деталей r (А) = 3/80.

Пример 1.24 . По цели.произвели 24 выстрела, причем было зарегистрировано 19 попаданий. Относительная частота поражения цели. r (А) =19/24.

Длительные наблюдения показали, что если в одинаковых условиях производят опыты, в каждом из которых число испытаний достаточно велико, то относительная частота обнаруживает свойство устойчивости. Это свойство состоит в том, что в различных опытах относительная частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого постоянного числа. Оказалось, что это постоянное число можно принять за приближенное значение вероятности.

Подробнее и точнее связь между относительной частотой и вероятностью будет изложена далее. Теперь же проиллюстрируем свойство устойчивости на примерах.

Пример 1.25 . По данным шведской статистики, относительная частота рождения девочек за 1935 г. по месяцам характеризуется сле­дующими числами (числа расположены в порядке следования месяцев, начиная с января): 0,486; 0,489; 0,490; 0.471; 0,478; 0,482; 0.462; 0,484; 0,485; 0,491; 0,482; 0,473

Относительная частота колеблется около числа 0,481, которое можно принять за приближеннее значение вероятности рождения девочек.

Заметим, что статистические данные различных стран дают примерно то же значение относительной частоты.

Пример 1.26. Многократно проводились опыты бросания монеты, в которых подсчитывали число появление «герба». Результаты нескольких опытов приведены в таблице.

как онтологическая категория отражает меру возможности возникновения какого-либо сущего в каких-либо условиях. В отличие от математических и логической интерпретации этого понятия онтологическая В. не связывает себя с обязательностью количетвенного выражения. Значение В. раскрывается в контексте понимания детерминизма и характера развития в целом.

Отличное определение

Неполное определение ↓

ВЕРОЯТНОСТЬ

понятие, характеризующее количеств. меру возможности появления нек-рого события при определ. условиях. В науч. познании встречаются три интерпретации В. Классическая концепция В., возникшая из математич. анализа азартных игр и наиболее полно разработанная Б. Паскалем, Я. Бернулли и П. Лапласом, рассматривает В. как отношение числа благоприятствующих случаев к общему числу всех равновозможных. Напр., ири бросании игральной кости, имеющей 6 граней, выпадение каждой из них можно ожидать с В., равной 1/6, т. к. ни одна грань не имеет преимуществ перед другой. Подобная симметричность исходов опыта специально учитывается при организации игр, но сравнительно редко встречается при исследовании объективных событий в науке и практике. Классич. интерпретация В. уступила место статистич. концепции В., в основе к-рой лежат действит. наблюдения появления нек-рого события в ходе длит. опыта при точно фиксированных условиях. Практика подтверждает, что чем чаще происходит событие, тем больше степень объективной возможности его появления, или В. Поэтому статистич. интерпретация В. опирается на понятие относит. частоты, к-рое может быть определено опытным путем. В. как теоретич. понятие никогда не совпадает с эмпирически определяемой частотой, однако во мн. случаях она практически мало отличается от относит. частоты, найденной в результате длит. наблюдений. Многие статистики рассматривают В. как «двойник» относит. частоты, к-рая определяется при статистич. исследовании результатов наблюдений

или экспериментов. Менее реалистичным оказалось определение В. как предела относит. частот массовых событий, или коллективов, предложенное Р. Мизесом. В качестве дальнейшего развития частотного подхода к В. выдвигается диспозиционная, или пропенситивная, интерпретация В. (К. Поппер, Я. Хэккинг, М. Бунге, Т. Сетл). Согласно этой интерпретации, В. характеризует свойство порождающих условий, напр. эксперимент. установки, для получения последовательности массовых случайных событий. Именно такая установка порождает физич. диспозиции, или предрасположенности, В. к-рых может быть проверена с помощью относит. частот.

Статистич. интерпретация В. доминирует в науч. познании, ибо она отражает специфич. характер закономерностей, присущих массовым явлениям случайного характера. Во многих физич., биологич., экономич., демографич. и др. социальных процессах приходится учитывать действие множества случайных факторов, к-рые характеризуются устойчивой частотой. Выявление этой устойчивой частоты и количеств. ее оценка с помощью В. дает возможность вскрыть необходимость, к-рая прокладывает себе путь через совокупное действие множества случайностей. В этом находит свое проявление диалектика превращения случайности в необходимость (см. Ф. Энгельс, в кн.: Маркс К. и Энгельс Ф., Соч., т. 20, с. 535-36).

Логическая, или индуктивная, В. характеризует отношение между посылками и заключением недемонстративного и, в частности, индуктивного рассуждения. В отличие от дедукции, посылки индукции не гарантируют истинности заключения, а лишь делают его в той или иной степени правдоподобным. Это правдоподобие при точно сформулированных посылках иногда можно оценивать с помощью В. Значение этой В. чаще всего определяется посредством сравнит. понятий (больше, меньше или равно), а иногда и численным способом. Логич. интерпретацию часто используют для анализа индуктивных рассуждений и построения различных систем вероятностных логик (Р. Карнап, Р. Джефри). В семантич. концепции логич. В. часто определяется как степень подтверждения одного высказывания другими (напр., гипотезы ее эмпирич. данными) .

В связи с развитием теорий принятия решений и игр все большее распростраиение получает т. н. персоналистская интерпретация В. Хотя В. при этом выражает степень веры субъекта и появление нек-рого события, сами В. должны выбираться с таким расчетом, чтобы удовлетворялись аксиомы исчисления В. Поэтому В. при такой интерпретации выражает не столько степень субъективной, сколько разумной веры. Следовательно, решения, принимаемые на основе такой В., будут рациональными, ибо они не учитывают психологич. особенностей и склонностей субъекта.

С гносеологич. т. зр. различие между статистич., логич. и персоналистской интерпретациями В. состоит в том, что если первая дает характеристику объективным свойствам и отношениям массовых явлений случайного характера, то последние две анализируют особенности субъективной, познават. деятельности людей в условиях неопределенности.

ВЕРОЯТНОСТЬ

одно из важнейших понятий науки, характеризующее особое системное видение мира, его строения, эволюции и познания. Специфика вероятностного взгляда на мир раскрывается через включение в число базовых понятий бытия понятий случайности, независимости и иерархии (идеи уровней в структуре и детерминации систем).

Представления о вероятности зародились еще в древности и относились к характеристике нашего знания, при этом признавалось наличие вероятностного знания, отличающегося от достоверного знания и от ложного. Воздействие идеи вероятности на научное мышление, на развитие познания прямо связано с разработкой теории вероятностей как математической дисциплины. Зарождение математического учения о вероятности относится к 17 в., когда было положено начало разработке ядра понятий, допускающих. количественную (числовую) характеристику и выражающих вероятностную идею.

Интенсивные приложения вероятности к развитию познания приходятся на 2-ю пол. 19- 1-ю пол. 20 в. Вероятность вошла в структуры таких фундаментальных наук о природе, как классическая статистическая физика, генетика, квантовая теория, кибернетика (теория информации). Соответственно вероятность олицетворяет тот этап в развитии науки, который ныне определяется как неклассическая наука. Чтобы раскрыть новизну, особенности вероятностного образа мышления, необходимо исходить из анализа предмета теории вероятностей и оснований ее многочисленных приложений. Теорию вероятностей обычно определяют как математическую дисциплину, изучающую закономерности массовых случайных явлений при определенных условиях. Случайность означает, что в рамках массовости бытие каждого элементарного явления не зависит и не определяется бытием других явлений. В то же время сама массовость явлений обладает устойчивой структурой, содержит определенные регулярности. Массовое явление вполне строго делится на подсистемы, и относительное число элементарных явлений в каждой из подсистем (относительная частота) весьма устойчиво. Эта устойчивость сопоставляется с вероятностью. Массовое явление в целом характеризуется распределением вероятностей, т. е. заданием подсистем и соответствующих им вероятностей. Язык теории вероятностей есть язык вероятностных распределений. Соответственно теорию вероятностей и определяют как абстрактную науку об оперировании распределениями.

Вероятность породила в науке представления о статистических закономерностях и статистических системах. Последние суть системы, образованные из независимых или квазинезависимых сущностей, их структура характеризуется распределениями вероятностей. Но как возможно образование систем из независимых сущностей? Обычно предполагается, что для образования систем, имеющих целостные характеристики, необходимо, чтобы между их элементами существовали достаточно устойчивые связи, которые цементируют системы. Устойчивость статистическим системам придает наличие внешних условий, внешнего окружения, внешних, а не внутренних сил. Само определение вероятности всегда опирается на задание условий образования исходного массового явления. Еще одной важнейшей идеей, характеризующей вероятностную парадигму, является идея иерархии (субординации). Эта идея выражает взаимоотношения между характеристиками отдельных элементов и целостными характеристиками систем: последние как бы надстраиваются над первыми.

Значение вероятностных методов в познании заключается в том, что они позволяют исследовать и теоретически выражать закономерности строения и поведения объектов и систем, имеющих иерархическую, «двухуровневую» структуру.

Анализ природы вероятности опирается на частотную, статистическую ее трактовку. Вместе с тем весьма длительное время в науке господствовало такое понимание вероятности, которое получило название логической, или индуктивной, вероятности. Логическую вероятность интересуют вопросы обоснованности отдельного, индивидуального суждения в определенных условиях. Можно ли оценить степень подтверждения (достоверности, истинности) индуктивного заключения (гипотетического вывода) в количественной форме? В ходе становления теории вероятностей такие вопросы неоднократно обсуждались, и стали говорить о степенях подтверждения гипотетических заключений. Эта мера вероятности определяется имеющейся в распоряжении данного человека информацией, его опытом, воззрениями на мир и психологическим складом ума. Во всех подобных случаях величина вероятности не поддается строгим измерениям и практически лежит вне компетенции теории вероятностей как последовательной математической дисциплины.

Объективная, частотная трактовка вероятности утверждалась в науке со значительными трудностями. Первоначально на понимание природы вероятности оказали сильное воздействие те философско-методологические взгляды, которые были характерны для классической науки. Исторически становление вероятностных методов в физике происходило под определяющим воздействием идей механики: статистические системы трактовались просто как механические. Поскольку соответствующие задачи не решались строгими методами механики, то возникли утверждения, что обращение к вероятностным методам и статистическим закономерностям есть результат неполноты наших знаний. В истории развития классической статистической физики предпринимались многочисленные попытки обосновать ее на основе классической механики, однако все они потерпели неудачу. Основания вероятности состоят в том, что она выражает собою особенности структуры определенного класса систем, иного, чем системы механики: состояние элементов этих систем характеризуется неустойчивостью и особым (не сводящимся к механике) характером взаимодействий.

Вхождение вероятности в познание ведет к отрицанию концепции жесткого детерминизма, к отрицанию базовой модели бытия и познания, выработанных в процессе становления классической науки. Базовые модели, представленные статистическими теориями, носят иной, более общий характер: они включают в себя идеи случайности и независимости. Идея вероятности связана с раскрытием внутренней динамики объектов и систем, которая не может быть всецело определена внешними условиями и обстоятельствами.

Концепция вероятностного видения мира, опирающаяся на абсолютизацию представлений о независимости (как и прежде парадигма жесткой детерминации), в настоящее время выявила свою ограниченность, что наиболее сильно сказывается при переходе современной науки к аналитическим методам исследования сложноорганизованных систем и физико-математических основ явлений самоорганизации.

Отличное определение

Неполное определение ↓

При оценки вероятности наступления какого-либо случайного события очень важно предварительно хорошо представлять, зависит ли вероятность () наступления интересующего нас события от того, как развиваются остальные события.

В случае классической схемы, когда все исходы равновероятны, мы уже можем оценить значения вероятности интересующего нас отдельного события самостоятельно. Мы можем сделать это даже в том случае, если событие является сложной совокупностью нескольких элементарных исходов. А если несколько случайных событий происходит одновременно или последовательно? Как это влияет на вероятность реализации интересующего нас события?

Если я несколько раз кидаю игральную кость, и хочу, чтобы выпала "шестерка", а мне все время не везет, значит ли это, что надо увеличивать ставку, потому что, согласно теории вероятностей, мне вот-вот должно повезти? Увы, теория вероятности не утверждает ничего подобного. Ни кости, ни карты, ни монетки не умеют запоминать, что они продемонстрировали нам в прошлый раз. Им совершенно не важно, в первый раз или в десятый раз сегодня я испытываю свою судьбу. Каждый раз, когда я повторяю бросок, я знаю только одно: и на этот раз вероятность выпадения "шестерки" снова равна одной шестой. Конечно, это не значит, что нужная мне цифра не выпадет никогда. Это означает лишь то, что мой проигрыш после первого броска и после любого другого броска - независимые события.

События А и В называются независимыми , если реализация одного из них никак не влияет на вероятность другого события. Например, вероятности поражения цели первым из двух орудий не зависят от того, поразило ли цель другое орудие, поэтому события "первое орудие поразило цель" и "второе орудие поразило цель" независимы.

Если два события А и В независимы, и вероятность каждого из них известна, то вероятность одновременного наступления и события А, и события В (обозначается АВ) можно посчитать, воспользовавшись следующей теоремой.

Теорема умножения вероятностей для независимых событий

P(AB) = P(A)*P(B) - вероятность одновременного наступления двух независимых событий равна произведению вероятностей этих событий.

Пример. Вероятности попадания в цель при стрельбе первого и второго орудий соответственно равны: р 1 =0,7; р 2 =0,8. Найти вероятность попадания при одном залпе обоими орудиями одновременно.

Решение: как мы уже видели события А (попадание первого орудия) и В (попадание второго орудия) независимы, т.е. Р(АВ)=Р(А)*Р(В)=р 1 *р 2 =0,56.


Что произойдет, с нашими оценками, если исходные события не являются независимыми? Давайте немного изменим предыдущий пример.

Пример. Два стрелка на соревнованиях стреляют по мишеням, причем, если один из них стреляет метко, то соперник начинает нервничать, и его результаты ухудшаются. Как превратить эту житейскую ситуацию в математическую задачу и наметить пути ее решения? Интуитивно понятно, что надо каким-то образом разделить два варианта развития событий, составить по сути дела два сценария, две разные задачи. В первом случае, если соперник промахнулся, сценарий будет благоприятный для нервного спортсмена и его меткость будет выше. Во втором случае, если соперник прилично реализовал свой шанс, вероятность поразить мишень для второго спортсмена снижается.


Для разделения возможных сценариев (их часто называют гипотезами) развития событий мы будем часто использовать схему "дерева вероятностей". Эта схема похожа по смыслу на дерево решений, с которым Вам, наверное, уже приходилось иметь дело. Каждая ветка представляет собой отдельный сценарий развития событий, только теперь она имеет собственное значение так называемой условной вероятности (q 1 , q 2 , q 1 -1, q 2 -1).


Эта схема очень удобна для анализа последовательных случайных событий.

Остается выяснить еще один немаловажный вопрос: откуда берутся исходные значения вероятностей в реальных ситуациях ? Ведь не с одними же монетами и игральными костями работает теория вероятностей? Обычно эти оценки берутся из статистики, а когда статистические сведения отсутствуют, мы проводим собственное исследование. И начинать его нам часто приходится не со сбора данных, а с вопроса, какие сведения нам вообще нужны.

Пример. Допустим, нам надо оценить в городе с населением в сто тысяч жителей объем рынка для нового товара, который не является предметом первой необходимости, например, для бальзама по уходу за окрашенными волосами. Рассмотрим схему "дерева вероятностей". При этом значение вероятности на каждой "ветке" нам надо приблизительно оценить. Итак, наши оценки емкости рынка:

1) из всех жителей города женщин 50%,

2) из всех женщин только 30% красят волосы часто,

3) из них только 10% пользуются бальзамами для окрашенных волос,

4) из них только 10% могут набраться смелости попробовать новый товар,

5) из них 70% обычно покупает все не у нас, а у наших конкурентов.




Решение: По закону перемножения вероятностей, определяем вероятность интересующего нас события А ={житель города покупает у нас этот новый бальзам}=0,00045.

Умножим это значение вероятности на число жителей города. В результате имеем всего 45 потенциальных покупательниц, а если учесть, что одного пузырька этого средства хватает на несколько месяцев, не слишком оживленная получается торговля.

И все-таки польза от наших оценок есть.

Во-первых, мы можем сравнивать прогнозы разных бизнес-идей, на схемах у них будут разные "развилки", и, конечно, значения вероятности тоже будут разные.

Во-вторых, как мы уже говорили, случайная величина не потому называется случайной, что она совсем ни от чего не зависит. Просто ее точное значение заранее не известно. Мы знаем, что среднее количество покупателей может быть увеличено (например, с помощью рекламы нового товара). Так что имеет смысл сосредоточить усилия на тех "развилках", где распределение вероятностей нас особенно не устраивает, на тех факторах, на которые мы в состоянии повлиять.

Рассмотрим еще один количественный пример исследования покупательского поведения.

Пример. За день продовольственный рынок посещает в среднем 10000 человек. Вероятность того, что посетитель рынка заходит в павильон молочных продуктов, равна 1/2. Известно, что в этом павильоне в среднем продается в день 500 кг различных продуктов.

Можно ли утверждать, что средняя покупка в павильоне весит всего 100 г?

Обсуждение. Конечно, нельзя. Понятно, что не каждый, кто заходил в павильон, в результате что-то там купил.




Как показано на схеме, чтобы ответить на вопрос о среднем весе покупки, мы должны найти ответ на вопрос, какова вероятность того, что человек, зашедший в павильон, что-нибудь там купит. Если таких данных в нашем распоряжении не имеется, а нам они нужны, придется их получить самим, понаблюдав некоторое время за посетителями павильона. Допустим, наши наблюдения показали, что только пятая часть посетителей павильона что-то покупает.

Как только эти оценки нами получены, задача становится уже простой. Из 10000 человек, пришедших на рынок, 5000 зайдут в павильон молочных продуктов, покупок будет только 1000. Средний вес покупки равен 500 грамм. Интересно отметить, что для построения полной картины происходящего, логика условных "ветвлений" должна быть определена на каждом этапе нашего рассуждения так же четко, как если бы мы работали с "конкретной" ситуацией, а не с вероятностями.

Задачи для самопроверки

1. Пусть есть электрическая цепь, состоящая из n последовательно соединенных элементов, каждый из которых работает независимо от остальных.




Известна вероятность p невыхода из строя каждого элемента. Определите вероятность исправной работы всего участка цепи (событие А).

2. Студент знает 20 из 25 экзаменационных вопросов. Найдите вероятность того, что студент знает предложенные ему экзаменатором три вопроса.

3. Производство состоит из четырех последовательных этапов, на каждом из которых работает оборудование, для которого вероятности выхода из строя в течение ближайшего месяца равны соответственно р 1 , р 2 , р 3 и р 4 . Найдите вероятность того, что за месяц не случится ни одной остановки производства из-за неисправности оборудования.

Классическое и статистическое определение вероятности

Для практической деятельности необходимо уметь сравнивать события по степени возможности их наступления. Рассмотрим классический случай. В урне находится 10 шаров, 8 из них белого цвета, 2 черного. Очевидно, что событие «из урны будет извлечен шар белого цвета» и событие «из урны будет извлечен шар черного цвета» обладают разной степенью возможности их наступления. Поэтому для сравнения событий нужна определенная количественная мера.

Количественной мерой возможности наступления события является вероятность . Наиболее широкое распространение получили два определения вероятности события: классическое и статистическое.

Классическое определение вероятности связано с понятием благоприятствующего исхода. Остановимся на этом подробнее.

Пусть исходы некоторого испытания образуют полную группу событий и равновозможны, т.е. единственно возможны, несовместны и равновозможны. Такие исходы называют элементарными исходами , или случаями . При этом говорят, что испытание сводится к схеме случаев или «схеме урн », т.к. любую вероятностную задачу для подобного испытания можно заменить эквивалентной задачей с урнами и шарами разных цветов.

Исход называется благоприятствующим событию А , если появление этого случая влечет за собой появление события А .

Согласно классическому определению вероятность события А равна отношению числа исходов, благоприятствующих этому событию, к общему числу исходов , т.е.

, (1.1)

где Р(А) – вероятность события А ; m – число случаев благоприятствующих событию А ; n – общее число случаев.

Пример 1.1. При бросании игральной кости возможны шесть исходов – выпадение 1, 2, 3, 4, 5, 6 очков. Какова вероятность появления четного числа очков?

Решение. Все n = 6 исходов образуют полную группу событий и равновозможны, т.е. единственно возможны, несовместны и равновозможны. Событию А – «появление четного числа очков» – благоприятствуют 3 исхода (случая) – выпадение 2, 4 или 6 очков. По классической формуле вероятности события получаем

Р(А) = = .

Исходя из классического определения вероятности события, отметим ее свойства:

1. Вероятность любого события заключена между нулем и единицей, т.е.

0 ≤ Р (А ) ≤ 1.

2. Вероятность достоверного события равна единице.

3. Вероятность невозможного события равна нулю.

Как было сказано ранее, классическое определение вероятности применимо только для тех событий, которые могут появиться в результате испытаний, обладающих симметрией возможных исходов, т.е. сводящихся к схеме случаев. Однако существует большой класс событий, вероятности которых не могут быть вычислены с помощью классического определения.

Например, если допустить, что монета сплющена, то очевидно, что события «появление герба» и «появление решки» нельзя считать равновозможными. Поэтому формула для определения вероятности по классической схеме в данном случае неприменима.

Однако существует другой подход при оценке вероятности событий, основанный на том, насколько часто будет появляться данное событие в произведенных испытаниях. В этом случае используется статистическое определениевероятности.

Статистической вероятностью события А называется относительная частота (частость) появления этого события в n произведенных испытаниях, т.е.

, (1.2)

где Р * (А) – статистическая вероятность события А ; w(A) – относительная частота события А ; m – число испытаний, в которых появилось событие А ; n – общее число испытаний.

В отличие от математической вероятности Р(А) , рассматриваемой в классическом определении, статистическая вероятность Р * (А) является характеристикой опытной , экспериментальной . Иначе говоря, статистической вероятностью события А называется число, относительно которого стабилизируется (устанавливается) относительная частота w(А) при неограниченном увеличении числа испытаний, проводимых при одном и том же комплексе условий.

Например, когда про стрелка говорят, что он попадает в цель с вероятностью 0,95, то это означает, что из сотни выстрелов, произведенных им при определенных условиях (одна и та же цель на том же расстоянии, та же винтовка и т.д.), в среднем бывает примерно 95 удачных. Естественно, не в каждой сотне будет 95 удачных выстрелов, иногда их будет меньше, иногда больше, но в среднем при многократном повторении стрельбы в тех же условиях этот процент попаданий будет оставаться неизменным. Цифра 0,95, служащая показателем мастерства стрелка, обычно очень устойчива , т.е. процент попаданий в большинстве стрельб будет для данного стрелка почти один и тот же, лишь в редких случаях отклоняясь сколько-нибудь значительно от своего среднего значения.

Еще одним недостатком классического определения вероятности (1.1 ), ограничивающим его применение, является то, что оно предполагает конечное число возможных исходов испытания. В некоторых случаях этот недостаток можно преодолеть, используя геометрическое определение вероятности, т.е. находя вероятность попадания точки в некоторую область (отрезок, часть плоскости и т.п.).

Пусть плоская фигура g составляет часть плоской фигуры G (рис. 1.1). На фигуру G наудачу бросается точка. Это означает, что все точки области G «равноправны» в отношении попадания на нее брошенной случайной точки. Полагая, что вероятность события А – попадания брошенной точки на фигуру g – пропорциональна площади этой фигуры и не зависит ни от ее расположения относительно G , ни от формы g , найдем