Від великої кількості факторів а. Закон великих чисел у формі чебишева. Слабкий закон великих чисел

Функція розподілу випадкової величини та її властивості.

Функцією розподілувипадкової величини Х називається функція F(Х), що виражає для кожного х ймовірність того, що випадкова величина Х прийме значення менше х: F(x)=P(X

Функцію F(x)іноді називають інтегральною функцієюрозподілу або інтегральним законом розподілу

Властивості функції розподілу:

1.Функція розподілу випадкової величини є невід'ємною функцією, укладеною між нулем і одиницею:

0 ≤ F(x) ≤ 1.

2. Функція розподілу випадкової величини є незменшуюча функція по всій числової осі.

3. На мінус нескінченності функція розподілу дорівнює нулю, плюс нескінченності дорівнює одиниці, тобто: F(-∞)= , F(+∞)= .

4.Вероятность потрапляння випадкової величини до інтервалу [х1,х2) (включаючи х1) дорівнює прирощенню її функції розподілу цьому інтервалі, тобто. Р(х 1 ≤ Х< х 2) = F(x 2) - F(x 1).


Нерівність Маркова та Чебишева

Нерівність Маркова

Теорема: Якщо випадкова величина Х приймає тільки невід'ємні значення і має математичне очікування, то для будь-якого позитивного числа А правильна рівність: P(x>A) ≤ .

Оскільки події Х > А та Х ≤ А протилежні, то замінюючи Р(Х >А) виражаємо 1 - Р(Х ≤ А), прийдемо до іншої форми нерівності Маркова: P(X ≥ A) ≥1 - .

Нерівність Маркова застосовується до будь-яких невід'ємних випадкових величин.

Нерівність Чебишева

Теорема:Для будь-якої випадкової величини, яка має математичне очікування та дисперсію, справедлива нерівність Чебишева:

Р (|Х – a| > ε) ≤ D(X)/ε 2 або Р (|Х – a| ≤ ε) ≥ 1 – DX/ε 2 де а= М(Х), ε>0.


Закон великих чисел «у формі» теореми Чебишева.

Теорема Чебишева:Якщо дисперсії nнезалежних випадкових величин Х1, Х2,…. Х nобмежені однієї і тієї ж постійної, то при необмеженому збільшенні числа nсередня арифметична випадкових величин сходиться за ймовірністю до середньої арифметичної їх математичних очікувань а 1 ,а 2 ….,а n, тобто .

Сенс закону великих чисел полягає в тому, що середні значення випадкових величин прагнуть їхнього математичного очікування при n→ ∞ ймовірно. Відхилення середніх значень від математичного очікування стає скільки завгодно малим з ймовірністю, близькою до одиниці, якщо n досить велике. Іншими словами, можливість будь-якого відхилення середніх значень від аскільки завгодно мала зі зростанням n.



30. Теорема Бернуллі.

Теорема Бернуллі:Частина події в nповторних незалежних випробуваннях, у кожному з яких воно може статися з однією і тією ж ймовірністю р, при необмеженому збільшенні числа nсходитися за ймовірністю до ймовірності р цієї події в окремому випробуванні: \

Теорема Бернуллі є наслідком теореми Чебишева, бо частину події можна як середню арифметичну n незалежних альтернативних випадкових величин, мають той самий закон розподілу.

18. Математичне очікування дискретної та безперервної випадкової величини та їх властивості.

Математичним очікуваннямназивається сума творів всіх її значень на відповідні їм ймовірності

Для дискретної випадкової величини:

Для безперервної випадкової величини:

Властивості математичного очікування:

1. Математичне очікування постійної величини дорівнює найпостійнішій: М(С)=С

2. Постійний множник можна винести за знак математичного очікування, тобто М(кХ)=кМ(Х).

3. Математичне очікування алгебраїчної суми кінцевого числа випадкових величин так само сумі їх математичних очікувань, тобто. M(X±Y)=M(X)±M(Y).

4. Математичне очікування твору кінцевого числа незалежних випадкових величин дорівнює твору їх математичних очікувань: M(XY)=M(X)*M(Y).

5. Якщо всі значення випадкової величини збільшити (зменшити) на постійну, то на цю ж постійну З збільшитися (зменшитися) математичне очікування цієї випадкової величини: M(X±C)=M(X)±C.

6. Математичне очікування відхилення випадкової величини від її математичного очікування дорівнює нулю: M=0.

Якщо явище стійкості середніхмає місце насправді, то в математичній моделі, за допомогою якої ми вивчаємо випадкові явища, повинна існувати теорема, що відображає цей факт.
У разі цієї теореми введемо обмеження на випадкові величини X 1 , X 2 , …, X n:

а) кожна випадкова величина Х iмає математичне очікування

M(Х i) = a;

б) дисперсія кожної випадкової величини кінцева або, можна сказати, що дисперсії обмежені зверху одним і тим самим числом, наприклад З, тобто.

D(Х i) < C, i = 1, 2, …, n;

в) випадкові величини попарно незалежні, тобто будь-які дві X iі X jпри i¹ jнезалежні.

Тоді, очевидно

D(X 1 + X 2 + … + X n)=D(X 1) + D(X 2) + ... + D(X n).

Сформулюємо закон великих чисел у вигляді Чебишева.

Теорема Чебишева:при необмеженому збільшенні числа nнезалежних випробувань « середня арифметична значень випадкової величини, що спостерігаються, сходиться по ймовірності до її математичного очікування. », тобто для будь-якого позитивного ε

Р(| а| < ε ) = 1. (4.1.1)

Сенс вираження «Середня арифметична = сходиться ймовірно до a» полягає в тому, що ймовірність того, що буде скільки завгодно мало відрізнятися від a, необмежено наближається до 1 зі зростанням числа n.

Доведення.Для кінцевого числа nнезалежних випробувань застосуємо нерівність Чебишева для випадкової величини = :

Р(|- M()| < ε ) ≥ 1 – . (4.1.2)

Враховуючи обмеження а – в, обчислимо M( ) та D( ):

M( ) = = = = = = а;

D( ) = = = = = = .

Підставляючи M( ) та D( ) у нерівність (4.1.2), отримаємо

Р(| а| < ε )≥1 .

Якщо в нерівності (4.1.2) взяти скільки завгодно мале ε >0і n® ¥, то отримаємо

що й доводить теорему Чебишева.

З розглянутої теореми випливає важливий практичний висновок: невідоме значення математичного очікування випадкової величини ми маємо право замінити середнім арифметичним значенням, отриманим за досить великому числу дослідів. При цьому, чим більше дослідів для обчислення, тим з більшою ймовірністю (надійністю) очікується, що пов'язана з цією заміною помилка ( – а) не перевершить задану величину ε .

З іншого боку, можна вирішувати інші практичні завдання. Наприклад, за значенням ймовірності (надійності) Р=Р(| а|< ε )і максимальної припустимої помилки ε визначити необхідну кількість дослідів n; по Рі пвизначити ε; по ε і пвизначити межу ймовірності події | а |< ε.

Окремий випадок. Нехай при nвипробуваннях спостерігаються nзначень випадкової величини X,має математичне очікування M(X) та дисперсію D(X). Отримані значення можна як випадкові величини Х 1 ,Х 2 ,Х 3 , ... ,Х n,. Це слід розуміти так: серія з пвипробувань проводиться неодноразово, тому в результаті i-го випробування, i= l, 2, 3, ..., п, у кожній серії випробувань з'явиться те чи інше значення випадкової величини X, не відоме заздалегідь. Отже, i-e значення x iвипадкової величини, отримане в i-м випробуванні змінюється випадковим чином, якщо переходити від однієї серії випробувань до іншої. Таким чином, кожне значення x iможна вважати випадковою величиною X i.


Припустимо, що випробування задовольняють наступним вимогам:

1. Випробування незалежні. Це означає, що результати Х 1 , Х 2 ,
Х 3 , ..., Х nвипробувань – незалежні випадкові величини.

2. Випробування проводяться в однакових умовах - це означає, з точки зору теорії ймовірностей, що кожна з випадкових величин Х 1 ,Х 2 ,Х 3 , ... ,Х nмає такий самий закон розподілу, що і вихідна величина Xтому M(X i) = M(XD(X i) = D(X), i = 1, 2, .... п.

Враховуючи вищезазначені умови, отримаємо

Р(| а| < ε )≥1 . (4.1.3)

Приклад 4.1.1. Xдорівнює 4. Скільки потрібно зробити незалежних дослідів, щоб із ймовірністю не менше 0,9 можна було очікувати, що середнє арифметичне значення цієї випадкової величини відрізнятиметься від математичного очікування менш ніж на 0,5?

Рішення. За умовою завдання ε = 0,5; Р(| а|< 0,5) 0,9. Застосувавши формулу (4.1.3) для випадкової величини Х, отримаємо

P(|- M(X)| < ε ) ≥ 1 .

Зі співвідношення

1 = 0,9

визначимо

п= = = 160.

Відповідь: потрібно зробити 160 незалежних дослідів.

Якщо припустити, що середня арифметична розподілена нормально, то отримуємо:

Р(| а|< ε )= 2Φ () 0,9.

Звідки, скориставшись таблицею функції Лапласа, отримаємо
1,645, або 6,58, тобто. n ≥49.

Приклад4.1.2.Дисперсія випадкової величини Хдорівнює D( Х) = 5. Зроблено 100 незалежних дослідів, за якими обчислено . Замість невідомого значення математичного очікування априйнято . Визначити максимальну величину помилки, яка допускається при цьому з ймовірністю не менше 0,8.

Рішення.За умовою завдання n= 100, Р(| а|< ε ) ≥0,8. Застосуємо формулу (4.1.3)

Р(| а|< ε ) ≥1 .

Зі співвідношення

1 = 0,8

визначимо ε :

ε 2 = = = 0,25.

Отже, ε = 0,5.

Відповідь: максимальна величина помилки ε = 0,5.

4.2. Закон великих чисел у формі Бернуллі

Хоча основу будь-якого статистичного висновку лежить поняття ймовірності, ми лише у випадках можемо визначити ймовірність події безпосередньо. Іноді цю ймовірність можна встановити з міркувань симетрії, рівної можливості тощо, але універсального методу, який дозволяв би для довільної події вказати його ймовірність, немає. Теорема Бернуллі дає можливість наближеної оцінки ймовірності, якщо для події, що цікавить нас. Аможна проводити повторні незалежні випробування. Нехай зроблено пнезалежних випробувань, у кожному з яких ймовірність появи деякої події Апостійна і рівна нар.

Теорема Бернуллі.При необмеженому зростанні кількості незалежних випробувань пвідносна частота появи події Асходиться ймовірно до ймовірності pпояви події А,Т. е.

P(½ - p½≤ ε) = 1, (4.2.1)

де ε - скільки завгодно мале позитивне число.

Для кінцевого nза умови, що , нерівність Чебишева для випадкової величини матиме вигляд:

P(| - p |< ε ) 1 .(4.2.2)

Доведення.Застосуємо теорему Чебишева. Нехай X i- Число появи події Ав i-ом випробуванні, i= 1, 2, . . . , n. Кожна з величин X iможе прийняти лише два значення:

X i= 1 (подія Анастало) з ймовірністю p,

X i= 0 (подія Ане настало) з ймовірністю q= 1- p.

Нехай Y n=. Сума X 1 + X 2 + … + X nдорівнює числу mпояви події Ав nвипробуваннях (0 m n), а значить, Y n= - Відносна частота появи події Ав nвипробуваннях. Математичне очікування та дисперсія X iрівні відповідно:

M( ) = 1∙p + 0∙q = p,

Приклад 4.2.1.З метою встановлення частки шлюбу продукції було перевірено за схемою зворотної вибірки 1000 одиниць. Яка ймовірність того, що встановлена ​​цією вибіркою частка шлюбу за абсолютною величиною відрізнятиметься від частки шлюбу по всій партії не більше ніж на 0,01, якщо відомо, що в середньому на кожні 10 000 виробів припадає 500 бракованих?

Рішення.За умовою завдання кількість незалежних випробувань n= 1000;

p= = 0,05; q= 1 – p= 0,95; ε = 0,01.

Застосовуючи формулу (4.2.2), отримаємо

P(| p|< 0,01) 1 – = 1 – = 0,527.

Відповідь: з ймовірністю не менше 0,527 очікується, що вибіркова частка шлюбу (відносна частота появи шлюбу) відрізнятиметься від частки шлюбу у всій продукції (від ймовірності шлюбу) не більше ніж на 0,01.

Приклад 4.2.2.При штампуванні деталей можливість шлюбу становить 0,05. Скільки потрібно перевірити деталей, щоб із ймовірністю не менше 0,95 можна було очікувати, що відносна частота бракованих виробів відрізнятиметься від ймовірності шлюбу менш ніж на 0,01?

Рішення.За умовою завдання р= 0,05; q= 0,95; ε = 0,01;

P(| p|<0,01) 0,95.

З рівності 1 = 0,95 знаходимо n:

n= = =9500.

Відповідь: необхідно перевірити 9500 деталей.

Зауваження.Оцінки необхідного числа спостережень, які одержують при застосуванні теореми Бернуллі (або Чебишева), дуже перебільшені. Існують більш точні оцінки, запропоновані Бернштейном і Хінчин, але потребують складнішого математичного апарату. Щоб уникнути перебільшення оцінок, іноді користуються формулою Лапласа

P(| p|< ε ) ≈ 2Φ .

Недоліком цієї формули є відсутність оцінки похибки, що допускається.

ЛЕКЦІЯ 5

Повторення пройденого

Частина 1 - РОЗДІЛ 9. ЗАКОН ВЕЛИКИХ ЧИСЕЛ. Граничні ТЕОРЕМИ

За статистичного визначення
ймовірності вона сприймається як деяке
число, якого прагне відносна
Частота випадкової події. При
аксіоматичному визначенні ймовірність –
це, по суті, адитивний захід множини
результатів, які сприяють випадковому
події. У першому випадку маємо справу з
емпіричною межею, у другій – з
теоретичним поняттям міри. Зовсім НЕ
очевидно, що вони відносяться до одного і того ж
поняття. Зв'язок різних визначень
ймовірності встановлює теорема Бернуллі,
що є окремим випадком закону великих
чисел.

При збільшенні кількості випробувань
біноміальний закон прагне
нормальному розподілу. Це теорема
Муавра-Лапласа, яка є
окремим випадком центральної граничної
теореми. Остання говорить, що функція
розподілу суми незалежних
випадкових величин із зростанням числа
доданків прагне нормального
закону.
Закон великих чисел та центральна
гранична теорема лежать в основі
математичної статистики.

9.1. Нерівність Чебишева

Нехай випадкова величина ξ має
кінцеві математичне очікування
M[ξ] та дисперсію D[ξ]. Тоді для
будь-якого позитивного числа ε
справедлива нерівність:

Примітки

Для протилежної події:
Нерівність Чебишева справедлива для
будь-якого закону розподілу.
Поклавши
факт:
, отримуємо нетривіальний

9.2. Закон великих чисел у формі Чебишева

Теорема Нехай випадкові величини
попарно незалежні та мають кінцеві
дисперсії, обмежені однієї і тієї ж
постійною
Тоді для
будь-якого
маємо
Таким чином, закон великих чисел говорить про
збіжності за ймовірністю середнього арифметичного випадкових величин (тобто випадкової величини)
до середнього арифметичного їх мат. очікувань (тобто.
до не випадкової величини).

9.2. Закон великих чисел у формі Чебишева: доповнення

Теорема (Маркова): закон великих
чисел виконується, якщо дисперсія
суми випадкових величин зростає не
занадто швидко зі зростанням n:

10. 9.3. Теорема Бернуллі

Розглянемо схему Бернуллі.
Нехай μn – число настань події А в
n незалежних випробуваннях, р – ймовірність настання події А в одному
випробування. Тоді для будь-кого
Тобто. ймовірність того, що відхилення
відносної частоти випадкової події від
його ймовірності р буде по модулю як завгодно
мало, воно прагне одиниці зі зростанням числа
випробувань n.

11.

Доказ: Випадкова величина μn
розподілена за біноміальним законом, тому
маємо

12. 9.4. Характеристичні функції

Характеристичною випадковою функцією
величини називається функція
де exp(x) = ex.
Таким чином,
являє собою
математичне очікування деякої
комплексної випадкової величини
пов'язаної із величиною. Зокрема, якщо
– дискретна випадкова величина,
задана поряд розподілу (xi, pi), де i
= 1, 2,..., n, то

13.

Для безперервної випадкової величини
із щільністю розподілу
ймовірності

14.

15. 9.5. Центральна гранична теорема (теорема Ляпунова)

16.

Повторили пройдене

17. ОСНОВИ ТЕОРІЇ МОЖЛИВОСТЕЙ І МАТЕМАТИЧНОЇ СТАТИСТИКИ

ЧАСТИНА ІІ. МАТЕМАТИЧНА
СТАТИСТИКА

18. Епіграф

«Існує три види брехні: брехня,
нахабна брехня та статистика»
Бенджамін Дізраелі

19. Вступ

Дві основні завдання математичної
статистики:
збір та угруповання статистичних
даних;
розробка методів аналізу
отриманих даних в залежності від
цілей дослідження.

20. Методи статистичного аналізу даних:

оцінка невідомої ймовірності події;
оцінка невідомої функції
розподілу;
оцінка параметрів відомого
розподілу;
перевірка статистичних гіпотез про вид
невідомого розподілу або про
значення параметрів відомого
розподілу.

21. РОЗДІЛ 1. ОСНОВНІ ПОНЯТТЯ МАТЕМАТИЧНОЇ СТАТИСТИКИ

22. 1.1. Генеральна сукупність та вибірка

Генеральна сукупність – все
безліч досліджуваних об'єктів,
Вибірка - набір об'єктів, випадково
відібраних із генеральної сукупності
для дослідження.
Обсяг генеральної сукупності та
обсяг вибірки - кількість об'єктів у генеральній сукупності та вибірці - будемо
позначати відповідно як N та n.

23.

Вибірка буває повторною, коли
кожен відібраний об'єкт перед
вибором наступного повертається до
генеральну сукупність, та
безповторною, якщо відібраний
об'єкт у генеральну сукупність не
повертається.

24. Репрезентативна вибірка:

правильно представляє особливості
генеральної сукупності, тобто. є
репрезентативної (представницької).
За законом великих чисел, можна стверджувати,
що ця умова виконується, якщо:
1) обсяг вибірки n досить великий;
2) кожен об'єкт вибірки обрано випадково;
3) для кожного об'єкта можливість потрапити
на вибірку однакова.

25.

Генеральна сукупність та вибірка
можуть бути одновимірними
(однофакторними)
та багатовимірними (багатофакторними)

26. 1.2. Вибірковий закон розподілу (статистичний ряд)

Нехай у вибірці обсягом n
цікава для нас випадкова величина ξ
(якийсь параметр об'єктів
генеральної сукупності) приймає n1
раз значення x1, n2 рази – значення x2,... і
nk разів – значення xk. Тоді спостерігаються
значення x1, x2,..., xk випадкової величини
ξ називаються варіантами, а n1, n2,..., nk
- Їх частотами.

27.

Різниця xmax - xmin є розмах
вибірки, відношення ωi = ni /n -
відносна частота варіанти xi.
Очевидно, що

28.

Якщо ми запишемо варіанти у порядку, що зростає, то отримаємо варіаційний ряд. Таблиця, що складається з таких
упорядкований варіант та їх частот
(і/або відносних частот)
називається статистичним рядом або
вибірковим законом розподілу.
- Аналог закону розподілу дискретної
випадкової величини в теорії ймовірності

29.

Якщо варіаційний ряд складається з дуже
великої кількості чисел
досліджується деякий безперервний
ознака, що використовують груповану
вибірку. Для її отримання інтервал,
якому укладені всі спостерігаються
значення ознаки, що розбивають на
декілька зазвичай рівних частин
(підінтервалів) довжиною h. При
складанні статистичного ряду в
якості xi зазвичай вибирають середини
підінтервалів, а ni прирівнюють числу
варіант, що потрапили в i-й підінтервал.

30.

40
- Частоти -
35
30
n2
n3
ns
n1
25
20
15
10
5
0
a
a+h/2 a+3h/2
- Варіанти -
b-h/2
b

31. 1.3. Полігон частот, вибіркова функція розподілу

Відкладемо значення випадкової величини xi по
осі абсцис, а значення ni - по осі ординат.
Ламана лінія, відрізки якої з'єднують
точки з координатами (x1, n1), (x2, n2), ..., (xk,
nk), називається полігоном
частот. Якщо замість
абсолютних значень ni
на осі ординат відкласти
відносні частоти ωi,
то отримаємо полігон відносних частот

32.

За аналогією з функцією розподілу
дискретної випадкової величини по
вибірковим законом розподілу можна
побудувати вибіркову (емпіричну)
функцію розподілу
де підсумовування виконується по всіх
частотам, яким відповідають значення
варіант, менший x. Зауважимо, що
емпірична функція розподілу
залежить від обсягу вибірки n.

33.

На відміну від функції
знайденої
для випадкової величини ξ досвідченим
шляхом в результаті обробки статистичних даних, справжню функцію
розподілу
пов'язану з
генеральною сукупністю, називають
теоретичної. (Зазвичай генеральна
сукупність настільки велика, що
обробити її неможливо, тобто.
досліджувати її можна лише
теоретично).

34.

Зауважимо, що:

35. 1.4. Властивості емпіричної функції розподілу

Ступінчастий
вигляд

36.

Ще одним графічним поданням
цікавить нас вибірки є
гістограма - ступінчаста фігура,
що складається з прямокутників, основами яких є підінтервали
шириною h, а висотами – відрізки завдовжки
ni/h (гістограма частот) або ωi/h
(Гістограма відносних частот).
В першому випадку
площа гістограми дорівнює обсягу
вибірки n,
другому – одиниці

37. Приклад

38. РОЗДІЛ 2. ЧИСЛОВІ ХАРАКТЕРИСТИКИ ВИБІРКИ

39.

Завдання математичної статистики –
за наявною вибіркою отримати
інформацію про генеральну
сукупності. Числові характеристики репрезентативної вибірки - оцінка відповідних характеристик
досліджуваної випадкової величини,
пов'язаної з генеральною
сукупністю.

40. 2.1. Вибіркова середня та вибіркова дисперсія, емпіричні моменти

Вибірковим середнім називається
середнє арифметичне значень
варіант у вибірці
Вибіркове середнє використовується для
статистичної оцінки математичного
очікування досліджуваної випадкової величини.

41.

Вибірковою дисперсією називається
величина, рівна
Вибірковим середнім квадратичним
відхиленням –

42.

Легко показати, що виконується
наступне співвідношення, зручне для
обчислення дисперсії:

43.

Іншими характеристиками
варіаційного ряду є:
мода M0 – варіанта, що має
найбільшу частоту, і медіана me –
варіанта, що ділить варіаційний
ряд на дві частини, рівні числу
варіант.
2, 5, 2, 11, 5, 6, 3, 13, 5 (мода = 5)
2, 2, 3, 5, 5, 5, 6, 11,13 (медіана = 5)

44.

За аналогією з відповідними
теоретичними виразами можна
побудувати емпіричні моменти,
застосовувані для статистичної
оцінки початкових та центральних
моментів досліджуваної випадкової
величини.

45.

За аналогією з моментами
теорії
ймовірностей початковим емпіричним
моментом порядку m називається величина
центральним емпіричним моментом
порядку m -

46. ​​2.2. Властивості статистичних оцінок параметрів розподілу: незміщеність, ефективність, спроможність

2.2. Властивості статистичних оцінок
параметрів розподілу: незміщеність, ефективність, спроможність
Після отримання статистичних оцінок
параметрів розподілу випадкової
величини ξ: вибіркового середнього, вибіркової дисперсії і т. д., необхідно переконатися,
що вони є добрим наближенням
для відповідних параметрів
теоретичного розподілу ξ.
Знайдемо умови, які мають для цього
виконуватись.

47.

48.

Статистична оцінка A* називається
незміщеною, якщо її математичне
очікування дорівнює оцінюваному параметру
генеральної сукупності A за будь-якого
обсяг вибірки, тобто.
Якщо ця умова не виконується, оцінка
називається зміщеною.
Незміщеність оцінки не є достатньою
умовою гарного наближення статистичної
оцінки A* до справжнього (теоретичного) значення
оцінюваного параметра A.

49.

Розкид окремих значень
щодо середнього значення M
залежить від величини дисперсії D.
Якщо дисперсія велика, то значення
знайдене за даними однієї вибірки,
може значно відрізнятися від
оцінюваного параметра.
Отже, для надійного
оцінювання дисперсія D повинна
бути малою. Статистична оцінка
називається ефективною, якщо при
заданому обсязі вибірки n вона має
найменшу можливу дисперсію.

50.

До статистичних оцінок
пред'являється ще вимога
спроможності. Оцінка називається
заможною, якщо за n → вона
прагне ймовірності до
оцінюваного параметра. Зауважимо, що
незміщена оцінка буде
заможною, якщо за n → її
дисперсія прагне 0.

51. 2.3. Властивості вибіркового середнього

Вважатимемо, що варіанти x1, x2,..., xn
є значеннями відповідних
незалежних однаково розподілених випадкових величин
,
мають математичне очікування
та дисперсію
. Тоді
вибіркове середнє можна
розглядати як випадкову величину

52.

Незміщеність. З властивостей
математичного очікування слід, що
тобто. вибіркове середнє є
незміщеною оцінкою математичного
очікування випадкової величини.
Можна також показати ефективність
оцінки щодо вибіркового середнього математичного очікування (для нормального
розподілу)

53.

Спроможність. Нехай a – оцінюваний
параметр, а саме математичне
очікування генеральної сукупності
- Дисперсія генеральної сукупності
.
Розглянемо нерівність Чебишева
У нас:
тоді
. При n → права частина
нерівності прагне нулю для будь-якого ε > 0, тобто.
і, отже, величина X, що представляє вибіркову
оцінку, прагне оцінюваного параметра a за ймовірністю.

54.

Таким чином, можна зробити висновок,
що вибіркове середнє є
незміщеною, ефективною (по
принаймні для нормального
розподілу) та заможної
оцінкою математичного очікування
випадкової величини, пов'язаної з
генеральною сукупністю.

55.

56.

ЛЕКЦІЯ 6

57. 2.4. Властивості вибіркової дисперсії

Досліджуємо незміщеність вибіркової дисперсії D* як
оцінки дисперсії випадкової величини

58.

59.

60. Приклад

Знайти вибіркове середнє, вибіркове
дисперсію та середнє квадратичне
відхилення, моду та виправлену вибіркову
дисперсію для вибірки, що має наступний
закон розподілу:
Рішення:

61.

62. РОЗДІЛ 3. ТОЧКОВЕ ОЦІНЮВАННЯ ПАРАМЕТРІВ ВІДОМОГО РОЗПОДІЛУ

63.

Вважатимемо, що загальний вигляд закону
розподілу нам відомий і
залишається уточнити деталі –
параметри, що визначають його
дійсну форму. Існує
кілька методів вирішення цієї
завдання, два з яких ми
розглянемо: метод моментів та метод
найбільшої правдоподібності

64. 3.1. Метод моментів

65.

Метод моментів, розвинений Карлом
Пірсоном в 1894 р., заснований на
використання цих наближених рівностей:
моменти
розраховуються
теоретично за відомим законом
розподілу з параметрами θ, а
вибіркові моменти
обчислюються
за наявною вибіркою. Невідомі
параметри
визначаються в
результаті розв'язання системи з r рівнянь,
пов'язують відповідні
теоретичний та емпіричний моменти,
наприклад,
.

66.

Можна показати, що оцінки
параметрів θ, отримані методом
моментів, заможні, їх
математичні очікування відрізняються
від справжніх значень параметрів на
величину порядку n-1, а середні
квадратичні відхилення є
величинами порядку n-0,5

67. Приклад

Відомо, що характеристика об'єктів
генеральної сукупності, будучи випадковою
величиною, має рівномірний розподіл, що залежить від параметрів a і b:
Потрібно визначити методом моментів
параметри a і b за відомим вибірковим
середньому
та вибіркової дисперсії

68. Нагадування

α1 – мат.очікування β2 – дисперсія

69.

(*)

70.

71. 3.2. Метод найбільшої правдоподібності

В основі методу лежить функція правдоподібності
L(x1, x2,..., xn, θ), що є законом
розподіл вектора
, де
випадкові величини
приймають значення
варіант вибірки, тобто. мають однакове
Розподіл. Оскільки випадкові величини
незалежні, функція правдоподібності має вигляд:

72.

Ідея методу найбільшого
правдоподібності полягає в тому, що ми
шукаємо такі значення параметрів θ, при
яких ймовірність появи в
вибірці значень варіант x1, x2,..., xn
є найбільшою. Іншими словами,
як оцінка параметрів θ
береться вектор, при якому функція
правдоподібності має локальний
максимум при заданих x1, x2, …, xn:

73.

Оцінки за методом максимального
правдоподібності виходять з
необхідної умови екстремуму
функції L(x1,x2,..., xn,θ) у точці

74. Примітки:

1. Під час пошуку максимуму функції правдоподібності
для спрощення розрахунків можна виконати
дії, що не змінюють результату: по-перше,
використовувати замість L(x1, x2,..., xn,θ) логарифмічну функцію правдоподібності l(x1, x2,..., xn,θ) =
ln L(x1, x2,..., xn,θ); по-друге, відкинути у виразі
для функції правдоподібності, що не залежать від θ
доданки (для l) або позитивні
помножувачі (для L).
2. Оцінки параметрів, розглянуті нами,
можна назвати точковими оцінками, оскільки для
невідомого параметра θ визначається одна
єдина точка
, що є його
наближеним значенням. Однак такий підхід
може призводити до грубих помилок, і точкова
оцінка може значно відрізнятись від істинного
значення оцінюваного параметра (особливо в
у разі вибірки малого обсягу).

75. Приклад

Рішення. У цій задачі слід оцінити
два невідомі параметри: a та σ2.
Логарифмічна функція правдоподібності
має вигляд

76.

Відкинувши в цій формулі доданок, який не
залежить від a і σ2, складемо систему рівнянь
правдоподібності
Вирішуючи, отримуємо:

77. ГЛАВА 4. ІНТЕРВАЛЬНЕ ОЦІНЮВАННЯ ПАРАМЕТРІВ ВІДОМОГО РОЗПОДІЛУ

78.









(*)

79.

(*)

80. 4.1. Оцінювання математичного очікування нормально розподіленої величини за відомої дисперсії







вибіркове середнє
як значення випадкової



81.

Маємо:
(1)
(2)

82.

(2)
(1)
(*)
(*)

83. 4.2. Оцінювання математичного очікування нормально розподіленої величини за невідомої дисперсії

84.




ступенями свободи. густина

величини є

85.

86. Щільність розподілу Стьюдента c n – 1 ступенями свободи

87.

88.

89.







знаходити за формулами

90. 4.3. Оцінювання середнього квадратичного відхилення нормально розподіленої величини





відхиленням σ.

невідомим математичним
очікуванням.

91. 4.3.1. Окремий випадок відомого математичного очікування






Використовуючи величини
,


вибіркової дисперсії D*:

92.



величини
мають нормальне




93.


умови
де
– щільність розподілу χ2


94.

95.

96.

97. 4.3.2. Окремий випадок невідомого математичного очікування








(де випадкова величина


χ2 з n-1 ступенями свободи.

98.

99. 4.4. Оцінювання математичного очікування випадкової величини для довільної вибірки










Вибір великого обсягу (n >> 1).

100.




величин
, що мають

дисперсію
, а отримане
вибіркове середнє
як значення
випадкової величини

величина
має асимптотично


.

101.






використовувати формулу

102.

103.

Лекція 7

104.

Повторення пройденого

105. ГЛАВА 4. ІНТЕРВАЛЬНЕ ОЦІНЮВАННЯ ПАРАМЕТРІВ ВІДОМОГО РОЗПОДІЛУ

106.

Завдання оцінювання параметра відомого
розподілу можна вирішувати шляхом
побудови інтервалу, в який із заданою
ймовірністю потрапляє справжнє значення
параметра. Такий метод оцінювання
називається інтервальної оцінкою.
Зазвичай у математиці для оцінки
параметра θ будується нерівність
(*)
де число δ характеризує точність оцінки:
що менше δ, то краще оцінка.

107.

(*)

108. 4.1. Оцінювання математичного очікування нормально розподіленої величини за відомої дисперсії

Нехай досліджувана випадкова величина ξ розподілена за нормальним законом із відомим
середнім квадратичним відхиленням σ та
невідомим математичним очікуванням a.
Потрібно за значенням вибіркового середнього
оцінити математичне очікування ξ.
Як і раніше, розглядатимемо одержуване
вибіркове середнє
як значення випадкової
величини, а значення варіант вибірки x1, x2, …,
xn – відповідно як значення однаково
розподілених незалежних випадкових величин
кожна з яких має мат. очікування a та середнє квадратичне відхилення σ.

109.

Маємо:
(1)
(2)

110.

(2)
(1)
(*)
(*)

111. 4.2. Оцінювання математичного очікування нормально розподіленої величини за невідомої дисперсії

112.

Відомо, що випадкова величина tn,
задана таким чином, має
розподіл Стьюдента з k = n - 1
ступенями свободи. густина
розподілу ймовірностей такий
величини є

113.

114. Щільність розподілу Стьюдента c n – 1 ступенями свободи

115.

116.

117.

Примітка. При великій кількості ступенів
свободи k розподіл Стьюдента
прагне нормального розподілу з
нульовим математичним очікуванням та
одиничною дисперсією. Тому при k ≥ 30
довірчий інтервал можна практично
знаходити за формулами

118. 4.3. Оцінювання середнього квадратичного відхилення нормально розподіленої величини

Нехай досліджувана випадкова величина
ξ розподілено за нормальним законом
з математичним очікуванням a та
невідомим середнім квадратичним
відхиленням σ.
Розглянемо два випадки: з відомим і
невідомим математичним
очікуванням.

119. 4.3.1. Окремий випадок відомого математичного очікування

Нехай відоме значення M[ξ] = a і потрібно
оцінити лише σ або дисперсію D[ξ] = σ2.
Нагадаємо, що за відомого мат. очікуванні
незміщеною оцінкою дисперсії є
вибіркова дисперсія D* = (σ*)2
Використовуючи величини
,
визначені вище, введемо випадкову
величину Y, що приймає значення
вибіркової дисперсії D*:

120.

Розглянемо випадкову величину
Суми випадкові, що стоять під знаком
величини
мають нормальне
розподіл із щільністю fN (x, 0, 1).
Тоді Hn має розподіл χ2 з n
ступенями свободи як сума квадратів n
незалежних стандартних (a = 0, σ = 1)
нормальних випадкових величин.

121.

Визначимо довірчий інтервал з
умови
де
– щільність розподілу χ2
та γ – надійність (довірча
ймовірність). Величина γ чисельно дорівнює
площі заштрихованої фігури на рис.

122.

123.

124.

125. 4.3.2. Окремий випадок невідомого математичного очікування

На практиці найчастіше зустрічається ситуація,
коли невідомі обидва параметри нормального
розподілу: математичне очікування a та
середнє квадратичне відхилення σ.
У цьому випадку побудова довірчого
інтервалу ґрунтується на теоремі Фішера, з
Кіт. слід, що випадкова величина
(де випадкова величина
приймаюча значення незміщеною
вибіркової дисперсії s2, має розподіл
χ2 з n-1 ступенями свободи.

126.

127. 4.4. Оцінювання математичного очікування випадкової величини для довільної вибірки

Інтервальні оцінки математичного
очікування M[ξ], отримані для нормально
розподіленої випадкової величини ξ ,
є, взагалі кажучи, непридатними для
випадкових величин, що мають інший вигляд
розподілу. Однак є ситуація, коли
для будь-яких випадкових величин можна
користуватися подібними інтервальними
співвідношеннями, – це має місце при
Вибір великого обсягу (n >> 1).

128.

Як і вище, розглядатимемо варіанти
x1, x2,..., xn як значення незалежних,
однаково розподілених випадкових
величин
, що мають
математичне очікування M[ξi] = mξ і
дисперсію
, а отримане
вибіркове середнє
як значення
випадкової величини
Відповідно до центральної граничної теореми
величина
має асимптотично
нормальний закон розподілу c
математичним очікуванням mξ та дисперсією
.

129.

Тому якщо відомо значення дисперсії
випадкової величини ξ, то можна
користуватися наближеними формулами
Якщо значення дисперсії величини ξ
невідомо, чи при великих n можна
використовувати формулу
де s - виправлене порівн.-кв. відхилення

130.

Повторили пройдене

131. ГЛАВА 5. ПЕРЕВІРКА СТАТИСТИЧНИХ ГІПОТЕЗ

132.

Статистичною гіпотезою називають гіпотезу про
вигляді невідомого розподілу або про параметри
відомого розподілу випадкової величини.
Перевірена гіпотеза, що позначається зазвичай як
H0 називається нульовою або основною гіпотезою.
Додатково використовується гіпотеза H1,
суперечить гіпотезі H0, називається
конкуруючою чи альтернативною.
Статистична перевірка висунутої нульової
гіпотези H0 полягає в її зіставленні з
вибірковими даними. За такої перевірки
можлива поява помилок двох видів:
а) помилки першого роду – випадки, коли відкидається
правильна гіпотеза H0;
б) помилки другого роду – випадки, коли
приймається неправильна гіпотеза H0.

133.

Імовірність помилки першого роду будемо
називати рівнем значущості та позначати
як α.
Основний прийом перевірки статистичних
гіпотез полягає в тому, що за
наявній вибірці обчислюється значення
статистичного критерію - деякої
випадкової величини T, що має відомий
Закон розподілу. Область значень T,
за яких основна гіпотеза H0 повинна
бути відкинута, називають критичною, а
область значень T, у яких цю гіпотезу
можна прийняти, – областю прийняття
гіпотези.

134.

135. 5.1. Перевірка гіпотез щодо параметрів відомого розподілу

5.1.1. Перевірка гіпотези про математичну
очікуванні нормально розподіленої випадкової
величини
Нехай випадкова величина ξ має
нормальний розподіл.
Потрібно перевірити припущення про те,
що її математичне очікування одно
деякому числу a0. Розглянемо окремо
випадки, коли дисперсія відома і коли
вона невідома.

136.

У разі відомої дисперсії D[ξ] = σ2,
як і у п. 4.1, визначимо випадкову
величину, що приймає значення
вибіркового середнього. Гіпотеза H0
спочатку формулюється як M[ξ] =
a0. Оскільки вибіркове середнє
є незміщеною оцінкою M[ξ], то
гіпотезу H0 можна представити як

137.

Враховуючи незміщеність виправлених
вибіркових дисперсій, нульову гіпотезу можна
записати так:
де випадкова величина
приймає значення виправленої вибіркової
дисперсії величини ξ і аналогічна до випадкової
величині Z, розглянутої у п. 4.2.
Як статистичний критерій виберемо
випадкову величину
приймаючу значення відношення більшою
вибіркової дисперсії до меншої.

145.

Випадкова величина F має
розподіл Фішера – Снедекору з
числом ступенів свободи k1 = n1 – 1 та k2
= n2 – 1, де n1 – обсяг вибірки,
якої вираховано більшу
виправлена ​​дисперсія
, а n2 -
обсяг другої вибірки, за якою
знайдено меншу дисперсію.
Розглянемо два види конкуруючих
гіпотез

146.

147.

148. 5.1.3. Порівняння математичних очікувань незалежних випадкових величин

Спочатку розглянемо випадок нормального
розподілу випадкових величин з відомими
дисперсіями, а потім на його основі – загальніший
випадок довільного розподілу величин при
досить великих незалежних вибірках.
Нехай випадкові величини ξ1 та ξ2 незалежні та
розподілені нормально, та нехай їх дисперсії D[ξ1]
та D[ξ2] відомі. (Наприклад, вони можуть бути знайдені
з якогось іншого досвіду чи розраховані
теоретично). Вилучені вибірки обсягом n1 та n2
відповідно. Нехай
- Вибіркові
середні для цих вибірок. Потрібно за вибірковим
середнім при заданому рівні значущості α
перевірити гіпотезу про рівність математичних
очікувань аналізованих випадкових величин зробити з апріорних міркувань,
ґрунтуючись на умовах експерименту, та
тоді припущення про параметри
розподіли досліджуються, як показано
раніше. Однак дуже часто виникає
необхідність перевірити висунуту
гіпотезу про закон розподілу.
Статистичні критерії, призначені
для таких перевірок, зазвичай називаються
критеріями згоди.

154.

Відомо кілька критеріїв згоди. Перевагою
Критерієм Пірсона є його універсальність. З його
допомогою можна перевіряти гіпотези про різні
закони розподілу.
Критерій Пірсона заснований на порівнянні частот,
знайдених за вибіркою (емпіричних частот), з
частотами, розрахованими за допомогою перевіряється
закону розподілу (теоретичними частотами)
Зазвичай емпіричні та теоретичні частоти
різняться. Слід з'ясувати, чи випадково
розходження частот або воно значуще і пояснюється
тим, що теоретичні частоти обчислені виходячи з
невірної гіпотези про розподіл генеральної
сукупності.
Критерій Пірсона, як і будь-який інший, відповідає
питання, чи є згода висунутої гіпотези з
емпіричними даними при заданому рівні
значимості.

155. 5.2.1. Перевірка гіпотези про нормальний розподіл

Нехай є випадкова величина ξ і зроблена
вибірка досить великого обсягу n з більшим
кількістю різних значень варіант. Потрібно
при рівні значимості α перевірити нульову гіпотезу
H0 про те, що випадкова величина розподілена
нормально.
Для зручності обробки вибірки візьмемо два числа
α та β:
і розділимо інтервал [α, β] на s
підінтервалів. Будемо вважати, що значення варіант,
що потрапили в кожен підінтервал, приблизно рівні
числу, що задає середину підінтервалу.
Підрахувавши число варіантів, що потрапили до кожного Квантилью порядку α (0< α < 1) непрерывной
випадкової величини ξ називається таке число xα,
для якого виконується рівність
.
Квантиль x ½ називається медіаною випадковою
величини ξ, квантили x¼ та x¾ – її квартилями, a
x0,1, x0,2,..., x0,9 – децилями.
Для нормального стандартного розподілу (a =
0, σ = 1) і, отже,
де FN (x, a, σ) – функція розподілу нормально
розподіленої випадкової величини, а Φ(x) –
функція Лапласа.
Квантиль стандартного нормального розподілу
xα для заданого α можна знайти із співвідношення

162. 6.2. Розподіл Стьюдента

Якщо
– незалежні
випадкові величини, що мають
нормальний розподіл із нульовим
математичним очікуванням та
одиничною дисперсією, то
розподіл випадкової величини
називають розподілом Стьюдента
з n ступенями свободи (W.S. Gosset).

Закон великих чиселв теорії імовірностействерджує, що емпіричне середнє ( середнє арифметичне) досить великий кінцевої вибірки з фіксованого розподілу близько до теоретичного середнього ( математичному очіканню) цього розподілу. Залежно від виду збіжності розрізняють слабкий закон великих чисел, коли має місце збіжність по імовірності, і посилений закон великих чисел, коли має місце збіжність майже  всюди.

Завжди знайдеться таке кінцеве число випробувань, при якому з будь-якою заданою ймовірністю наперед менше 1 відносна частота появи деякої події як завгодно мало відрізнятиметься від його ймовірності.

Загальний зміст закону великих чисел: спільна дія великої кількості однакових і незалежних випадкових факторів призводить до результату, що в межі не залежить від випадку.

У цьому властивості засновані методи оцінки ймовірності з урахуванням аналізу кінцевої вибірки. Наочним прикладом є прогноз результатів виборів на основі опитування вибірки виборців.

Енциклопедичний YouTube

    1 / 5

    ✪ Закон великих чисел

    ✪ 07 – Теорія ймовірностей. Закон великих чисел

    ✪ 42 Закон великих чисел

    ✪ 1 - Закон великих чисел Чебишева

    ✪ 11 клас, 25 урок, Гауссова крива. Закон великих чисел

    Субтитри

    Давайте розберемо закон великих чисел, який є, мабуть, найінтуїтивнішим законом у математиці та теорії ймовірностей. І оскільки він застосовується до багатьох речей, його іноді використовують і розуміють неправильно. Давайте спочатку для точності дам йому визначення, а потім вже ми поговоримо про інтуїцію. Візьмемо випадкову величину, наприклад Х. Припустимо, ми знаємо її математичне очікування чи середнє для сукупності. Закон великих чисел просто каже, що, якщо ми візьмемо приклад n-ої кількості спостережень випадкової величини і виведемо середню кількість всіх цих спостережень… Давайте візьмемо змінну. Назвемо її Х із нижнім індексом n і з рисою нагорі. Це середнє арифметичне n-ої кількості спостережень нашої випадкової величини. Ось моє перше спостереження. Я проводжу експеримент один раз та роблю це спостереження, потім я проводжу його ще раз та роблю ось це спостереження, я проводжу його знов та отримую ось це. Я проводжу цей експеримент n-е кількість разів, а потім поділяю на кількість моїх спостережень. Ось моє вибіркове середнє значення. Ось середнє значення всіх спостережень, які зробила. Закон великих чисел говорить нам, що моє середнє вибіркове буде наближатися до математичного очікування випадкової величини. Або я можу також написати, що моє вибіркове середнє буде наближатися до середнього за сукупністю для n-ої кількості, що прагне нескінченності. Я не чітко розділяти поняття «наближення» і «збіжність», але сподіваюся, ви інтуїтивно розумієте, що якщо я візьму досить велику вибірку тут, то я отримаю математичне очікування для сукупності в цілому. Думаю, більшість з вас інтуїтивно розуміє, що, якщо я зроблю достатню кількість випробувань з великою вибіркою прикладів, зрештою, випробування дадуть мені очікувані значення, беручи до уваги математичне очікування, ймовірність і таке інше. Але, думаю, часто буває незрозуміло, чому так відбувається. І перш ніж я почну пояснювати, чому це так, давайте наведу конкретний приклад. Закон великих чисел говорить нам, що... Припустимо, ми маємо випадкову величину Х. Вона дорівнює кількості орлів при 100 підкиданнях правильної монети. Насамперед, ми знаємо математичне очікування цієї випадкової величини. Це кількість підкидань монети чи випробувань, помножена на шанси успіху будь-якого випробування. Значить, це одно 50-ти. Тобто закон великих чисел говорить, що якщо ми візьмемо вибірку, або якщо я приведу до середнього значення ці випробування, я отримаю. .. Вперше, коли я проводжу випробування, я підкидаю монету 100 разів або візьму ящик з сотнею монет, струсну його, а потім порахую, скільки в мене випаде орлів, і отримаю, припустимо, число 55. Це буде Х1. Потім я знову струсну ящик і отримаю число 65. Потім ще раз – і отримаю 45. І я проробляю цю кількість разів, а потім ділю це на кількість випробувань. Закон великих чисел говорить нам, що це середнє (середнє значення всіх моїх спостережень) буде прагнути до 50-ти в той час, як n прагнутиме нескінченності. Тепер я хотіла б трохи поговорити про те, чому так відбувається. Багато хто вважає, що якщо після 100 випробувань, у мене результат вищий за середній, то за законами ймовірності у мене має випасти більше або менше орлів для того, щоб, так би мовити, компенсувати різницю. Це не зовсім те, що станеться. Це часто називають «помилка азартного гравця». Давайте я покажу різницю. Я використовуватиму наступний приклад. Давайте зображу графік. Поміняємо колір. Це n, моя вісь Х – це n. Це кількість випробувань, які я проведу. А моя вісь Y буде середнім вибірковим. Ми знаємо, що математичне очікування цієї довільної змінної дорівнює 50-ти. Давайте це намалюю. Це 50. Повернемося до нашого прикладу. Якщо n дорівнює… Під час мого першого тесту я отримала 55, це є моє середнє значення. У мене лише одна точка введення даних. Потім, після двох випробувань, я отримую 65. Отже, моє середнє значення буде 65+55, поділене на 2. Це 60. І моє середнє значення трохи зросло. Потім я отримала 45, що знову знизило моє середнє арифметичне. Я не наноситиму на графіку 45. Тепер мені потрібно привести все це до середнього значення. Чому дорівнює 45+65? Давайте я вирахую це значення, щоб позначити точку. Це 165 ділити на 3. Це 53. Ні, 55. Отже, середнє значення знову опускається до 55-ти. Ми можемо продовжити ці випробування. Після того, як ми зробили три випробування і отримали це середнє, багато людей думають, що боги ймовірності зроблять так, що у нас випаде менше орлів у майбутньому, що в наступних кількох випробуваннях результати будуть нижчими, щоб зменшити середнє значення. Але це завжди так. Надалі ймовірність завжди залишається такою самою. Імовірність того, що в мене випаде орел, завжди буде 50%. Не те, що в мене спочатку випадає певна кількість орлів, більша, ніж я чекаю, а далі раптово мають випасти решки. Це «помилка гравця». Якщо у вас випадає непомірно велика кількість орлів, це не означає, що у певний момент у вас почне випадати непомірно велика кількість решок. Це не зовсім так. Закон великих чисел говорить нам, що це не має значення. Припустимо, після певної кінцевої кількості випробувань, ваше середнє... Імовірність цього досить мала, проте... Припустимо, ваше середнє досягло цієї позначки – 70-ти. Ви думаєте: «Ого, ми ґрунтовно відійшли від математичного очікування». Але закон великих чисел каже, що йому байдуже, скільки випробувань ми провели. У нас все одно залишилася нескінченна кількість випробувань попереду. Математичне очікування цієї нескінченної кількості випробувань, особливо у подібній ситуації, буде наступним. Коли ви приходите до кінцевого числа, яке виражає якесь велике значення, нескінченне число, яке зійдеться з ним, знову призведе до математичного очікування. Це, звичайно, дуже вільне тлумачення, але це те, що каже нам закон великих чисел. Це важливо. Він не каже нам, що якщо у нас випало багато орлів, то якимось чином ймовірність випадання решіки збільшиться, щоб це компенсувати. Цей закон говорить нам, що не має значення, який результат при кінцевій кількості випробувань, якщо у вас ще залишилася нескінченна кількість випробувань попереду. І якщо ви зробите достатню їх кількість, ви знову повернетеся до математичного очікування. Це важливий момент. Подумайте про нього. Але це не використовується щодня на практиці з лотереями і в казино, хоча відомо, що якщо ви зробите достатню кількість випробувань... Ми навіть можемо це порахувати... чому дорівнює ймовірність того, що ми серйозно відхилимося від норми? Але казино та лотереї щодня працюють за тим принципом, що якщо взяти достатню кількість людей, природно, за короткий термін, з невеликою вибіркою, кілька людей зірвуть куш. Але за великий термін казино завжди залишиться у виграші через параметри ігор, у які вони запрошують вас грати. Це важливий принцип ймовірності, що є інтуїтивним. Хоча іноді, коли вам його формально пояснюють із випадковими величинами, все це виглядає трохи заплутано. Все, що цей закон говорить, – що чим більше вибірок, тим більше середнє арифметичне цих вибірок прагнутиме до справжнього середнього. А якщо бути більш конкретною, то середнє арифметичне вашої вибірки зійдеться з математичним очікуванням випадкової величини. От і все. До зустрічі у наступному відео!

Слабкий закон великих чисел

Слабкий закон великих чисел також називається теоремою Бернуллі, на честь Якоба-Бернуллі, що довело його в 1713 році .

Нехай є нескінченна послідовність (послідовне перерахування) однаково розподілених та некорельованих випадкових величин. Тобто їх коваріація c o v (X i , X j) = 0, ∀ i ≠ j (\displaystyle \mathrm (cov) (X_(i),X_(j))=0,\;\forall i\not =j). Нехай. Позначимо через вибіркове середнєперших n (\displaystyle n)членів:

.

Тоді X n → P μ (\displaystyle (\bar (X))_(n)\to ^(\!\!\!\!\!\!\mathbb (P) )\mu ).

Тобто для будь-якого позитивного ε (\displaystyle \varepsilon )

lim n → ∞ Pr (| X n − μ |< ε) = 1. {\displaystyle \lim _{n\to \infty }\Pr \!\left(\,|{\bar {X}}_{n}-\mu |<\varepsilon \,\right)=1.}

Посилений закон великих чисел

Нехай є нескінченна послідовність незалежних однаково розподілених випадкових величин ( X i ) i = 1 ∞ (\displaystyle \(X_(i)\)_(i=1)^(\infty )), визначених на одному ймовірнісному просторі (Ω , F , P) (\displaystyle (Omega ,(\mathcal (F)), \mathbb (P))). Нехай E X i = μ , ∀ i ∈ N (\displaystyle \mathbb (E) X_(i)=\mu ,\;\forall i\in \mathbb (N) ). Позначимо через X n (\displaystyle (\bar (X))_(n))вибіркове середнє перших n (\displaystyle n)членів:

X n = 1 n ∑ i = 1 n X i , n ∈ N (\displaystyle (\bar(X))_(n)=(\frac(1)(n))\sum \limits _(i= 1)^(n)X_(i),\;n\in \mathbb (N) ).

Тоді X n → μ (\displaystyle (\bar (X))_(n)\to \mu )майже завжди.

Pr (lim n → ∞ X n = μ) = 1. right) = 1.) .

Як і будь-який математичний закон, закон великих чисел може бути застосовним до реального світу тільки за відомих припущень, які можуть виконуватися лише з деяким ступенем точності. Так, наприклад, умови послідовних випробувань часто не можуть зберігатися нескінченно довго і з абсолютною точністю. Крім того, закон великих чисел говорить лише про неймовірностізначного відхилення середнього значення від математичного очікування.

Схожі статті