Элементы теории вероятности - umotnas.ru o_O
Главная
Поиск по ключевым словам:
страница 1
Похожие работы
Название работы Кол-во страниц Размер
«Элементы теории вероятности» 1 127.81kb.
Учебно-методический комплекс для студентов заочной формы обучения... 1 72.02kb.
Элементы векторного анализа и теории поля, уравнения математической... 1 322.33kb.
Задачи по теории вероятности 1 13.76kb.
§ Аксиомы теории вероятностей 1 41.97kb.
Программа курса "Теория вероятностей и математическая статистика" 1 15.58kb.
Элементы теории вероятностей руководство к решению задач 6 687.85kb.
Элементы теории вероятностей руководство к решению задач 3 386.6kb.
Лекции 1 лекция. Предмет теории вероятностей. Пространство элементарных... 1 52.61kb.
Формальные грамматики и языки. Элементы теории трансляции. 5 1111.71kb.
Статистическая радиофизика Вопросы к экзамену 1 29.03kb.
Контрольные вопросы по теоретической части курса и описание индивидуальных... 1 347.51kb.
Викторина для любознательных: «Занимательная биология» 1 9.92kb.

Элементы теории вероятности - страница №1/1



Московский Экономико Финансовый Институт
Специальность: Менеджмент Организации

Учебная дисциплина: Математика


Курсовая работа

(на перезачет с повышением оценки)


на тему: Элементы теории вероятности


Студент: Сунько Александр Викторович.

г. Ростов на Дону 2005 г.


Содержание.

Введение 3



  1. Абстракция событий. 3

  2. Статистическое определение вероятности. 4

  3. Классическое определение вероятности. 5

  4. Алгебра событий. 5

  5. Полная группа событий. 6

  6. Независимость событий. 7

  7. Условность событий. 8

  8. Распределение вероятностей. 10

  9. Понятие случайной величины. 11

  10. Законы распределения дискретных случайных

величин. 12

  1. Законы распределения непрерывных случайных

величин. 13

  1. Характеристики случайных величин 14

Заключение 16

Список используемой литературы 17



Введение.

Важнейшим понятием математики является понятие функции, но почти всегда речь шла об однозначной функции, у которой одному значению аргумента соответствует только одно значение функции и функциональная связь между ними четко определенная. Однако в реальности происходят случайные явления и многие события имеют не определенный характер связей. Поиск закономерностей в случайных явлениях - это задача раздела математики теория вероятности.



1. Абстракция событий.

В математике событие – это любой объект или явление, которое может появиться или не появиться при определенных условиях. Причем создание этих условий не является обязательной причиной появления ожидаемого явления.

Различают невозможные, возможные и достоверные события.

Невозможные события – никогда не появляются при данных условиях (правильнее говорить, что вероятность появления такого события бесконечно мала).

Достоверные события – появляются всегда, если имеют место соответствующие условия. В данном случае между условиями и событиями однозначная причинно – следственная связь.

Возможные события – события, которые при одних и тех же условиях могут появляться, а могут не появляться, то есть создание условий в данном случае не гарантирует наступления события, что свидетельствует о неоднозначных или не прямых причинно – следственных связях между условиями и ожидаемыми событиями.

При изучении возможных событий возникает понятие частоты появления таких событий при многократном повторении наблюдений.



Частота события – это число случаев появления возможного события при определенных условиях. Очевидно, что это число f = 0,1,2,3…,n, где f – обозначение частоты, а n – ее максимально возможное значение. Также очевидно, что если f = n, то событие является достоверным, то есть наступает всегда.

Частота является простой малоточной мерой возможности. Более точной мерой возможности наступления события является относительная частоты (частость)p=f/n

Так как 0≤f≤n, то 0≤p≤1, в данном случае n – общее число наблюдений или испытаний (иногда говорят шансов), а f – число случаев наступления возможного события.

Например: общее число бросков монеты – 5, то есть n = 5, выпадение орла при этом наблюдалось 3 раза, то есть f = 3, тогда относительная частота выпадения орла p = f/n = 3/5.



2. Статистическое определение вероятности.

Наиболее точной мерой возможности является предел относительной частоты (частости) при неограниченном увеличении числа испытаний. Его называют статистической вероятностью.



Р = lim ( m/n )

n→∞
Такое определение является чисто теоретическим, так как на практике неограниченное увеличение числа испытаний не возможно.

3. Классическое определение вероятности.
Пусть производится некий опыт, результатом (исходом) которого могут быть равновозможные события А1, А2, …,Аn

Например, бросок игрального кубика, число выпадений любой из его граней с количеством точек от 1 до 6 при большом количестве бросков оказывается приблизительно равным. То есть можно сказать о равновозможности выпадения любой из граней кубика. Тем не менее, понятие равновозможности не является строго математическим, поэтому при его использовании оказывается заложенной некорректность, приводящая к ошибкам при расчетах.

Если принять общее количество бросков кубика за n, а количество выпадений одной из его граней (например с шестью точками) за m, то вероятность выпадения шестерки будет равна m/n.

То есть Вероятность события А – это отношение количества исходов опыта результатом которых явилось событие А, к общими числу равновозможных событий.



Р(А) ≈ m/n

зная что m≤n, то 0≤Р(А) ≤1


4. Алгебра событий.
Аксиоматическое определение вероятности.

Более верным математически определением вероятности, чем классическое, является аксиоматическое определение. Здесь события рассматриваются как элементы некоего конечного или бесконечного множества Ω. Для простоты возьмем конечное множество Ω=(w1,w2,…,wn), где wi это элементы множества Ω. Это множество Ω называют пространством элементарных событий, а его элементы wi – элементарными событиями.

Рассматривают такое подмножество F(Ω), которое обладает свойством ΩЄF. Событие Ө - пустое множество обозначим как невозможное событие ӨЄF(Ω). Тогда несовместимые события А и В будут определяться как

А ∩ В = Ө

( - знак объединения множеств, U – пресечение множеств)

Тогда если ӨЄF, для любых событий АЄF и ВЄF верно следующее соотношение АВЄF, АUВЄF

Такое множество F – называют алгебра событий.

Вероятностью события А называют такую числовую функцию Р(А), определенную на алгебре событий F, для которой справедливы следующие аксиомы:

1. Для любого АЄF верно Р(А)≥0 – аксиома неотрицательности.

2. Р(Ω)=1 – аксиома нормированности.

3. Если АЄF и ВЄF несовместимы (то есть А∩В=Ө), то Р(АUВ)=Р(А)+Р(В) – аксиома аддитивности.


5. Полная группа событий.
Несовместимые события – события, наступление которых одновременно при одном и том же опыте (испытании) невозможно. Например, выпадение двух граней кубика при одном броске невозможное событие.

Полная группа событий – совокупность однородных несовместимых событий, наступление одного из которых обязательно. Для примера с игральным кубиком полная группа событий будет выпадение каждой из шести граней.

И по классическому и по аксиоматическому определению вероятности очевидно, что вероятность наступления любого случайного события А будет равна 0неслучайные события – их делят на:



невозможные – ( Р(А)=0 или Р(Ө)=0) – наступление которых при данных условиях невозможно

достоверные – (Р(А)=1) – наступление которых при данных условиях обязательно.
Для несовместимых событий легко определить вероятность объединения (суммы) событий. Если Аi при i Є (1, n) несовместимые события, то вероятность суммы событий Аi равна сумме их частных вероятностей.

n n

Р ( Аi) = Р(Аi)

i=1 i=1
или

Р(А1+А2+,…,+Аn) = Р(А1)+Р(А2)+…+Р(Аn)
6. Независимость событий.
Событие А называется независимым от события В, если наступление события А не оказывает никакого влияния на вероятность наступления события В.

Вероятность одновременного наступления двух независимых событий равна произведению вероятностей этих событий.


Р(АВ) = Р(А)*Р(В)

или в общей форме


Р(А1,А2,…,Аn) = Р(А1)*Р(А2)*…*Р(Аn)
Учитывая независимость событий и возможность появления двух событий одновременно тогда вероятность суммы двух независимых событий А и В более точно находят следующим образом:

Р(А+В) = Р(А) + Р(В) – Р(АВ),

где Р(АВ) – вероятность их одновременного появления


7. Условность событий.
Безусловные события рассматриваются вне конкретных условий и обозначаются просто буквами А,В,С и т.д.

Условные события – рассматриваются при наступлении других событий. Они обозначаются например А/В – событие А при условии наступления события В и т.д.

Условную вероятность события А при наступлении события В находят следующим образом:


Р(А/В)=Р(АВ)/Р(В), если Р(В) ≠0
С помощью условных и безусловных вероятностей можно корректно определить зависимость или независимость событий.

События А,В и С называют независимыми если их безусловные вероятности равны их условным вероятностям:




Р(А)=Р(А/В)=Р(А/С)=Р(А/ВС)

Р(В)=Р(В/А)=Р(В/С)=Р(В/АС)

Р(С)=Р(С/А)=Р(С/В)=Р(С/АВ)
Это так называемое условие независимости событий. Если это условие нарушается, то события зависимы. Чем больше различия. Тем сильнее зависимость.

Если рассмотреть вероятность совмещения (произведения) двух событий с учетом условности, то есть если принять что событие А наступает при условии наступления события В, то вероятность совмещения можно записать двумя способами:


Р(АВ)=Р(А)*Р(В/А)

Р(АВ)=Р(В)*Р(А/В)
Если брать три события, то количество способов, которыми можно записать вероятность их совмещения возрастает до двенадцати и т.д.

Теперь рассмотрим полную вероятность событий с учетом их условностей. Допустим, имеется полная группа безусловных событий Вi, где i Є(1,n), которые выступают в качестве условий появления события А, тогда полная вероятность события А равна:



n n

Р(А)= ∑Р(АВi)= ∑Р(Вi)*Р(А/Вi)

i=1 i=1

8. Распределение вероятностей.
До сих пор рассматривались вероятности отдельных простых и сложных (сумма, произведение) событий однако для точности следует рассматривать вероятность всех событий входящих в полную группу. При рассмотрении полных групп вводят новое понятие распределение вероятностей событий- оно определяется в результате наблюдений повторяемости и подсчета частоты событий, образующих полную группу.

Распределение случайных величин описывается дифференциальной функцией.

Рассмотрим полную группу событий А=(Аi), где iЄ(1,n), а fi – соответствующие частоты событий, тогда функчия распределения частот будет иметь вид:
F(А)=(А1*f1,А2*f2,…,Аn*fn)=(Аn*fn)
Очевидно, что сумма частот событий равна числу наблюдений:
n

fi=n



i=1

Если разделить частоты распределения на число наблюдений, то получается распределение относительных частот событий, которое называют эмпирическим распределением вроятностей:



Р(А)=F(А)/n=(f1/n*А1,f2/n*А2,…,fn/nn)=

=(Р1*А1,Р2*А2,…,Рnn)

Также очевидно, что сумма вероятностей полной группы равна:



n

Рi=1



i=1


9. Понятие случайной величины.
Случайная величина – величина, значение которой получается в результате пересчета или измерений и не может быть однозначно определено условиями его возникновения.

То есть случайная величина представляет собой числовые случайные события.

Случайные величины подразделяют на два класса:

Дискретные случайные величины – значения этих величин представляют собой натуральные числа, которым как отдельным событиям сопоставляются частоты и вероятности.

Непрерывные случайные величины – могут принимать любые значения из некоторого промежутка (интервала). Учитывая, что на промежутке от Х1 до Х2 числовых значений бесконечное множество, то вероятность того, что случайная величина ХiЄ(Х1,Х2)

примет определенное значение, бесконечно мала. Учитывая, что невозможно перечислить все значения непрерывной случайной величины, на практике пользуются средним значением интервала (Х1,Х2).

Для дискретных случайных величин функция у=Р(х) - называется функцией распределения случайной величины и имеет график – его называют многоугольник распределения.

рис. 1


10. Законы распределения дискретных случайных величин.
Биноминальный закон распределения (закон Берноулли)

xi хi n-xi

Р(Хi)=Сn * р * q

где


Р(Хi) – вероятность того, что случайная величина примет некоторое значение Хi

n – количество опытов

р – вероятность наступления события Хi в рамках одного опыта и имеет постоянное значение

q – 1 – р – вероятность ненаступления события Хi или вероятность противоположного события

хi хi

Сn – число возможных комбинаций Сn = n!/n!*(n-хi)!,



где знак ! – означает 1*2*…*n

Этот закон используется для дискретных случайных величин в том случае, когда рассматривается заранее известное повторение опытов, при которых вероятность наступления события постоянно, то есть условия опыта не меняются (как в случае с кубиком или монетой).


Закон распределения Пуассона.
хi -(n*р)

{ (n*р) / хi! }*е
где р →0, n→∞, то есть вероятность стремиться к 0, а количество опытов к бесконечности. Распределение Пуассона является предельным для биноминального.

11. Законы распределения непрерывных случайных величин.
Равномерное распределение.
φ(х) = {0, 1/(а - в)} при ХЄ[а,в]
График равномерного распределения имеет вид

рис. 2


Показательное распределение.

-λ*хi

φ(х) = λ*е при х>0

График показательного распределения имеет вид:


рис. 3


12. Характеристики случайных величин.
Математическое ожидание m – некоторое усредненное значение случайной величины, которое она может принимать при повторении ряда опытов

дисперсия D мера отклонения (максимального) случайной величины от математического ожидания. Дисперсию можно рассматривать как степень рассеивания значений случайной величины.

среднеквадратичное отклонение σ область наибольшего сгущения значений случайной величины.

Формулы


Для дискретных величин

n

m=∑Xi*Pi

i=1

2

D=(Xi-m) *Pi
σ =√D
Для непрерывных величин


m =∫х* φ (х)dх

-∞
2

D =∫(х-m) * φ (х)dх

-∞
σ =√D

Заключение
Итак, теория вероятности является инструментом для изучения скрытых и неоднозначных связей различных явлений во многих отраслях науки, техники и экономики.

Теория вероятности позволяет достоверно вычислить колебания спроса, предложения, цен и других экономических показателей. Также теория вероятности является основой такой науки как статистика. На формулах этого раздела математики построено так называемая теория игр.



Список используемой литературы.


  1. Пехелецкий И. Д.”Математика учебник для студентов”-М. Академия, 2003г.

  2. Корн Г.,Корн Т. “Справочник по математике для научных работников и инженеров” СПБ:Издательство “Лань” 2003г.

  3. Суходольский В.Г. “Лекции по высшей математике для гуманитариев” СПБ Издательство Санктпетербургского государственного университета. 2003г