1.Величина Х називається випадковою величиною (випадковим розподілом, розподілом), якщо в результаті досліду вона може набувати різних числових значень в залежності від випадку.
2. Для будь-якого дійсного числа t можна розглядати подію Х< t і знаходити ймовірність цієї події: Р(Х<t) -- ймовірність того, що Х<t. При різних t ймовірності будуть різні, тобто, отримаємо функцію від t, що називається функцією розподілу випадкової величини:F(t)=FХ(t)=P(Х<t) – означення функції розподілу випадкової величини Х.
3. Властивості функції розподілу (випливають з властивостей ймовірностей подій)
1.Функція розподілу зростає на R2. 0 ? F(t) ? 1.3. F (- ?) =limt-? F(t)=04. F (+ ?) = limt-? F(t)=15. Функція розподілу неперервна зліва в усіх точках дійсної прямої limt-t0-0F(t)=F(t0)
4. Випадкова величина Х називається дискретною, якщо всі її можливі значення можна пронумерувати. Тоді їх скінченна кількість або стільки, скільки натуральних чисел.
Позначимо можливі значення випадкової величини …x1,x2,x3 Для дискретної випадкової величини знаходять ймовірності кожного значення х1, х2..., xn ,... .
P (X=x1)=p1 , P(X=x2)=p2 ,....
Оскільки (X=x1), (X=x2),... -- повна група несумісних подій, то p1+р2+…+рn+…=1.
5. Випадкова величина Х називається абсолютно неперервною чи просто неперервною, якщо її функція розподілу F(t) є первісною деякої невід’ємної функції f(t) (або fx(t)) майже в усіх точках, і тоді функція розподілу випадкової величини X знаходиться за формулою . Така функція f(t) називається щільністю розподілу або диференціальною функцією розподілу.
при всіх t крім, можливо, скінченної кількості точок. Оскільки, F(t) зростаюча функція, то її похідна f(t)=F'(t) буде невід’ємною функцією. Функція розподілу F(t) це деяка первісна f(t), тому якщо задана щільність розподілу f(t)
6. Властивості щільності: 1) Щільність невід’ємна функція на області визначення R:f(t)?0на R.
2) f(t) інтегрована на будь-якому відрізку [a,b] (a,b є R) або хоча б у невласному сенсі інтеграл на будь-якому відрізку [a,b] є збіжним і – площа під графіком щільності по всій прямій дорівнює 1
7. Математичним сподіванням або середнім значенням дискретної випадкової величини називають число, яке обчислюється за формулою: МХ=х1*р1+х2*р2+хn*pn
8.Математичним сподіванням або середнім значенням абсолютно неперервної випадкової величини називається число, яке обчислюється за формулою
9,Із статистичного змісту середнього значення випливають властивості
МС=С (С – стала випадкова величина)
Якщо X ? 0, тобто Р(X ? 0)=1, то МХ ? 0
Якщо Х ? Y, тобто Р(Х ? Y)=1, то МХ ? МY
Р(а ? X ? b)=1, то МХ є [а; b]
М(X+С)=МХ+С (С– стала випадкова величина)
М(сX)=cМХ, c – число
М(X+Y)=МХ+МY
М(X-Y)=МХ-МY
М(с1X1+с2X2+…+сnXn)=c1MX1+c2MX2+…cnMXn , с1,с2,...,сn – числа
Якщо X, Y – незалежні випадкові величини ( тобто, для будь-яких чисел t, s
Р((X<t)(Y<s))=P(X<t)(Y<s)), тоді М(ХY)=МХМ Y
11. Якщо випадкові величини X1, X2 ,..., Xn незалежні в сукупності, то
М(X1 X2 …Xn)=МХ1МХ2…МХn
12. Нехай X – дискретна випадкова величина. Y=g(X) – теж випадкова величина (g – дійсна функція дійсного аргументу). Тоді Mg(X)=g(x1)р1+g(x2)p2+...
10. Дисперсією випадкової величини називають математичне сподівання квадрату її відхилення. DX=M(X-MX)2
Середнім квадратичним відхиленням випадкової величини Х називають квадратний корінь з дисперсії
?x=vDX
11. Властивості дисперсії
DX?0
DX=MX2-(MX)2
Доведення. DX=M(X-MX)2=M(X2-2XMX+(MX)2)=MX2-2MXMX+(MX)2=MX2-(MX)2
Врахувавши вл.1, отримуємо, що MX2?(MX)2
DC=0
D(Х+c)=DX
D(сX)=с2DX
Якщо Х, Y – незалежні випадкові величини, то D(Х±Y)=DX+DY.
Якщо Х1,…, Хn – попарно незалежні випадкові величини, то
D(Х1+…+ Хn)=DХ1+…+DХn (доводиться аналогічно).
12. Моментом (початковим моментом) порядку к називають число mk=MXk
m1=MX – математичне сподівання
DX=MX2 - (MX)2 =m2 - m12
Асиметрією випадкової величини Х називають число АsX= ?3 /?3x
Якщо графік щільності розподілу симетричний відносно прямої Х=МХ, то всі непарні центральні моменти рівні нулю і AsХ=0. Ексцесом випадкової величини Х називають число ЕхХ= ?4 / /?3x -3.
13. Медіаною випадкової величини Х називають число Т=МеХ, для якого ймовірність
Р(Х<Т)?1/2, i P(X>T) )?1/2.
Квантилем рівня у називають таке число Т, що виконується формулa
F(T)?1?-у? F(T+0)?1-уПри у=1/2 квантиль – це медіана. Позчається Xy
Модою дискретної випадкової величини називають найбільш імовірне її значення, тобто точка максимуму многокутника розподілу, якщо вона єдина.
Р(Х=МоХ) >Р(Х=t) при t? МоХ.
14. Біноміальний розподіл (Бернуллі)
Такий розподіл має випадкова величина Х – кількість успіхів у n незалежних випробуваннях, (або якщо розглядається n незалежних подій з однаковими ймовірностями p, то Х – кількість подій, що сталися). Можливі значення: 0, 1, 2, 3, ..., n. Ймовірність кожного значення обчислюється за формулою Бернулл
Обчислимо числові характеристики біноміального розподілу.
MXi2=02*q+p=p DXi= MXi2 –(MXi)2=pq,тоді MX=MX1+MX2+=np, DX=DX1+DX2+=npq
15. Розподіл Пуассона
Такий розподіл має випадкова величина, яка набуває значень 0, 1, 2, 3, ... і
k=0, 1, 2, 3, ..., Розподіл Пуассона описує рідкісні події. Він є граничним розподілом для біноміального, якщо p мале, а n велике. (Згадаємо формулу Пуассона.) Складені таблиці для розподілу Пуассона, а саме
Знайдемо числові характеристики розподілу Пуассона
16. Гіпергеометричний розподіл
Нехай є сукупність N елементів, з яких М елементів мічені, а решта N-M елементів не мічені. Із сукупності вибирають n елементів. Х – кількість мічених елементів серед вибраних. Такий розподіл називають гіпергеометричним
Обчислимо числові характеристики гіпергеометричного розподілу:
МХ==nM/N=np
DX=MX2-(MX)2=npq(N-n)/(N-1)
17. Геометричний розподіл
Геометричний розподіл – це розподіл кількості промахів до першого успіху при повторних незалежних випробуваннях. Можливі значення: 0, 1, 2, ...
MX=2q2/p2+q/p
DX=q/p2
18. Рівномірний розподіл
Рівномірний розподіл на відрізку [a, b] (чи з параметрами a, b) – це абсолютно неперервна випадкова величина з такою щільністю:
f(x)= 0,x<a;const,a<x<b;0,x>b
F(x)=0,x<a; x-a/b-a,xэ[a,b];1,x>b
Обчислимо числові характеристики рівномірного розподілу.
Із механічного змісту математичного сподівання та дисперсії, якщо Х – рівномірно розподілена на [a;b], то MX=a+b/2 , DX=.(b-a)2/12
19. нормальний розподіл
Кажуть, що випадкова величина має стандартний нормальний розподіл, якщо її щільність дорівнює:
Випадкова величина Y називається нормально розподіленою з параметрами a, ? 2, якщо
Y= a+ ?X, де X – вип. величина , що має стандартний нормальний розподіл.( .)
Скорочений запис: Y~N(a, ? 2), якщо Y= a+ ?X , де Х~N(0,1).
Оскільки при Х~N(0,1), також і -Х~N(0,1), то можна вважати ? >0. Знайдемо числові характеристики нормального розподілу, використавши властивості математичного сподівання та дисперсії: МY= a+ ?МХ=а, DY =D(?X)= ? 2DX= ? 2, =?
20.Обчислимо числові характеристики стандартного нормального розподілу.
Знайдемо числові характеристики нормального розподілу, використавши властивості математичного сподівання та дисперсії: МY= a+ ?МХ=а, DY =D(?X)= ? 2DX= ? 2, =?
З геометричної точки зору, оскільки щільність симетрична відносно нуля то MX=0.
DX=MX2-(MX)2=1-02=1.
Розподіл одновершинний, симетричний, тому МоХ=0, МеХ=0, АsX=0. Отже, і МХ3=0
Обчислимо m4 = МХ4
21. Властивості нормальних розподілів
1.Клас нормальних розподілів інваріантний відносно лінійних замін випадкової величини, тобто, якщо Х – нормальний розподіл, то сХ+d – також нормальний, при с (Очевидно, якщо врахувати, що Х=? Z+a, де Z~N(0,1). )
2.Якщо Х1,Х2,…,Хn – нормальні розподіли, то Х1+Х2+…+Хn – також нормальний розподіл, якщо не вийде сталий розподіл (без доведення).
22. Центральна гранична теорема Ляпунова
Нехай Х1,Х2,…,Хn, … – незалежні випадкові величини,
існують їх скінченні моменти: МXk=ak, DXk=dk,
Розглянемо їхню суму, випадкову величину Sn = Х1+Х2+…+Хn. Позначимо: a1+a2+…an=An, vd1+d2+=?n(це будуть МSn і ? Sn відповідно), v3c1+c2+cn=Cn Cn/?n—0 n—?Якщо , то при великих n розподіл Sn дуже близький до нормального, тобто, для всіх t є R . Із центральної граничної теореми випливає поширеність нормального розподілу у природі. На випадкову величину, що зустрічається на практиці іноді впливає велика кількість мало залежних причин, кожна з яких вносить невеликий вклад у цю випадкову величину, тоді, за центральною граничною теоремою її розподіл має бути близьким до нормального.
23. Показниковий розподіл
Випадкова величина називається показниково розподіленою з параметром l>0 якщо її функція розподілу має вигляд F (t) = 0, t<0;1-e-?tТеорема: показниковий розподіл описує тривалість існування нестаріючих елементів, тобто, якщо елемент проіснував час t, то ймовірність того, що він проіснує ще час така ж як і для нового елемента.
Обчислимо числові характеристики показникового розподілу:
MX==1/l DX=1/l2
24. Означення. Потік називається найпростішим, якщо виконуються умови:
кількості подій, які відбудуться на несумісних інтервалах часу незалежні;
ймовірність настання в нескінченно малий проміжок часу ?t(?t –0 )двох і більше подій можна вважати нулем.
Теорема 1. Якщо потік найпростіший, то кількість подій, що відбудеться в даному інтервалі часу, має розподіл Пуассона (без доведення).
Теорема 2. Якщо потік найпростіший, то інтервали часу між послідовними подіями незалежні, однаково розподілені і мають показниковий розподіл з однаковим параметром l0
25. t – розподіл Стьюдента
X1, X2 X3– незалежні однаково розподілені випадкові величини і мають стандартний нормальний розподілXi ~N (0; 1). t =X/v(X12+X22+..)/n
. Тоді кажуть, що t має t-розподіл Стьюдента із n ступенями вільності. Для цього розподілу складені таблиці
В статистиці зустрічаються інші розподіли, які будуються з допомогою нормального.
Якщо ступенів вільності багато (n>20), то, згідно з ЦГТ
розподіл X 2Пірсона близький до нормального N(n, 2n). Очевидно, що якщо випадкові величини Y та Z незалежні і мають розподіли з n та m ступенями вільності, то Y+Z також має розподіл з n+m ступенями вільності.
26. нерівність Чебишова.
Наслідок:
для протилежної події. Зауваження. Обчислення за нерівністю Чебишова можна проводити якщо відомі тільки математичне сподівання та дисперсія, але часом оцінки дуже грубі. Якщо у нерівності Маркова брати р більшим 3;4,..., то оцінки будуть точніші
27. Закон великих чисел
1) Теорема Бернуллі. Нехай - відносна частота події А у n незалежних випробуваннях, P(A)=p. Тоді для будь-якого , . ?>0
тже, при великій кількості випробувань відносна частота події близька до ймовірності цієї події – це статистичний зміст (статистичне означення) ймовірності.
2) Про середнє значення Х (закон великих чисел, теорема Хінчина). Якщо x1, x2, x3 – попарно незалежні однаково розподілені величини із скінченим математичним сподіванням а та з скінченною дисперсією, то для будь-якого. ?>0 виконується
Теорема Чебишова. Якщо x1, x2, x3 – попарно незалежні випадкові величини, та існує К>0, таке що DXi?K, то для довільного ?>0 виконується

28. Двовимірна випадкова величина
Двовимірна випадкова величина (двовимірний розподіл) – вектор (X,Y), координати якого – дві випадкові величини – X, Y.
Функція розподілу двовимірної випадкової величини має вигляд:
Fx,y(t,s)=P(X<t,Y<s) -- функція двох змінних t, s.
29Дискретна двовимірна випадкова величина – це якщо Х, Y – дискретні випадкові величини і закон розподілу (X,Y) – таблицяДодавши ймовірності у кожному рядку таблиці дістанемо закон розподілу випадкової величини X, а додавши ймовірності кожного стовпця отримаємо розподіл Y.
В початковій таблиці більше інформації, ніж у законах розподілів для X і Y окремо.Якщо X, Y – незалежні, то
pij=P(X=xi)P(Y=yj)=pxipyj для всіх i,j, і навпаки, якщо виконується дана формула, то X,Y – незалежні. Отже, якщо X і Y незалежні, то можна знайти таблицю двовимірного розподілу при відомих окремих таблицях для Х і Y, перемноживши відповідні ймовірності.
30 Для дискретного сумісного розподілу (X,Y) умовне математичне сподівання Y відносно X позначають MХY – функція від розподілу Х (?(X)), яка кожному можливому значенню X=xi ставить у відповідність (прогнозує для в.в.Y) середнє значення з усіх можливих значень в.в.Y при умові, що вже сталась подія X=xi, яке позначається Mx=xiYДля абсолютно неперервних розподілів умовне математичне сподівання MХY – функція від розподілу Х (), яка при кожному можливому значенні х розподілу Х набуває такого значення-Mx=xiY= ?(X)середнє значення Y при умові, що Х=х. MХY – це неперервний розподіл.
31. Властивості MXY
1. М(MxY)= MY
2. Якщо X, Y - незалежні випадкові величини, то MxY = MY – стала випадкова величина.
3. Якщо Y є функцією від Х (Y= ?(X), то MxY= ?(X =Y, тобто умовне мат. сподівання якраз буде цією функцією, буде найкращим наближенням. Маємо формулуMx?(X)=?(X)-- подібна на формулу математичного сподівання стало
32. Числові характеристики двовимірної випадкової величиниМатематичне сподівання двовимірної випадкової величини – це числовий вектор, який складається з математичних сподівань Х і Y: M(X,Y)=(MX, MY).
Відхилення випадкової величини (X,Y) – це випадкова величина (x0,y0), де – відхилення випадкових величин X та Y відповідно. Можна, згадавши додавання векторів, ще й так записати: (x0=x-MX,y0=y-My)=(X-MX,Y-MY)=(X,Y)-(MX, MY)=(X,Y)-M(X,Y).
Кореляційна матриця двовимірного розподілу це числова матриця
Коваріація – це число сov(X,Y)=cov=M(X-MX)(Y-MY)=. Є зручна в деяких випадках формула для коваріації аналогічна другій формулі для дисперсії:
сov(X,Y)=MXY-MX MY.Доведення. cov=M(XY)-M(XMY)-M(YMX)+MXMY=MXY-MXMY.
Отже, кореляційна матриця:.K(x,y)=(DX cov cov DY)
33. коефіцієнт кореляції
Очевидно, що cov і або одночасно рівні нулю, або одночасно не рівні нулю: cov=0=0.Якщо X, Y – незалежні випадкові величини, то cov = 0 ( = 0). Але якщо cov = 0
(=0) то випадкові величини необов'язково незалежні.
Означення. Якщо cov = 0 (=0) то випадкові величини X та Y називають некорельованими і позначають . Синонім – лінійно незалежні.
Px,y=cov/?x?y, Px,y=MXY-MXMY/ x?y
34. Властивості коефіцієнта кореляції
(наслідок теореми, бо похибка наближення невід'ємна).
Якщо X, Y незалежні, то , але навпаки при p=0 розподіли Х, Y не обов'язково незалежні, а можуть бути тільки некорельованими .
Якщо , то Y є лінійною функцією від Х (наслідок теореми, тоді похибка буде нулем), тобто Y = aX + b (точніше Р(Y = aX + b) =1).
характеризує тісноту лінійної залежності, якщо , |p|>0,85то кажуть сильна лінійна залежність, якщо 0,5<|p|<0,85 - середня, якщо |p|<0,5 - слабка.
Якщо , p>0то пряма лінійна залежність (при зростанні X зростає в середньому й Y). Якщо p<0– непряма лінійна залежність (при зростанні X в середньому спадає Y).
35. Можна розглядати різні функції від випадкової величини Х і пробувати наближати ними в.в. Y: . Величина називається похибкою наближення .Функція називається найкращим наближенням Y через Х (регресією Y на Х), якщо її похибка наближення найменша з похибок всіх функцій.
36 Лінійна регресія Y на Х це ?(X)=y(x)=?y/?xp(X-MX)+MY ЇЇ похибка дорівнює
DY(1-p2)
37 Властивості кореляційного відношення
0<n<1( наслідок теореми 2).
Якщо n=0X, Y – незалежні, то .
Якщо,n=0 то розподіл Mx?(X)=?(X) Y- кореляційно незалежний від розподілу Х.
Якщо , то MХY- стала, тобто, значення випадкової величини X не впливають на середнє значення випадкової величини Y.
Y є функцією Х, тоді і тільки тоді, коли n=1, оскільки лише тоді похибка наближення буде дорівнювати 0. Отже, характеризує ступінь залежності Y та X. Чим ближче до 1, тим сильніша залежність.
p<n тому, що похибка лінійного наближення не менша, ніж похибка найкращого з наближень: то .
Якщо , то це означає, що лінійне наближення і найкраще наближення співпадають: MХY=YХ (наслідок теореми).
38. Властивості нормальних розподілів
Якщо X і Y нормальні розподіли, то це тоді і тільки тоді, коли (X,Y) – двовимірний нормальний розподіл.
Якщо X і Y нормальні розподіли та , p=0 то X і Y – незалежні. Отже, для нормальних розподілів всі поняття слабкості зв'язку співпадають. Доведення. Якщо , то щільність
f(x,y) розіб’ється на добуток щільностей, а це означає, що розподіли незалежні.