Wikiźródła:Brudnopis: Różnice pomiędzy wersjami

Usunięta treść Dodana treść
Nie podano opisu zmian
Budak (dyskusja | edycje)
Nie podano opisu zmian
Linia 1:
<!-- Prosimy o nieusuwanie tej linii -->{{brudnopis}}
[[Grafika:Normal distribution pdf.png|thumb|350px|gęstość rozkładu normalnego]]
Artykuł zawiera wszystkie informacje dotyczące [[rozkład normalny|rozkładu normalnego]], które są potrzebne do jego wyprowadzenia i prostą jego interpretację, a w szczególności interpretację <math>\sigma</math> oraz punktu przegięcia, kiedy wyniki pomiaru należy odrzucić, a kiedy przyjąć.
 
Niżej znajdują się wszystkie momenty statystyczne rozkładu normalnego. Należy zaznaczyć, że momenty statystyczne o nieparzystym stopnia są równe zeru, a pozostałe są od niego różne. Można tak interpretować, że rozrzut wyników doświadczalnych wokół wartości najprawdopodobnej <math>x_0</MATH> jest symetryczny, tzn. ilość wyników pomiarowych przed i za <math>x_0</math> jest taka sama, czyli funkcja gęstości prawdopodobieństwa jest funkcją parzystą, z tego powodu momenty statystyczne nieparzystego stopnia są równe zero, gdyż funkcja podcałkowa jest funkcją nieparzystą w całce symbolizującej moment statystyczny.
 
'''Twierdzenie o rozkładzie normalnym''' – szczególny przypadek twierdzenia o [[Rozkład dwumianowy|rozkładzie dwumianowym w szczególności Bernoulliego]] dający odpowiedź na pytanie jak postępować z danymi doświadczalnymi: czy je odrzucić jako mało prawdopodobne, czy je przyjąć w zależności od danych doświadczalnym uzyskanych z doświadczenia poprzez uprzednie obliczenie <math>x_{srednie}</math> i <math>\sigma</math>, czyli wartość średnią (arytmetyczną) i średnie odchylenie standardowe (zob. [[reguła trzech sigm]]). Zasady obliczania tych wskaźników <math>x_{srednie}</math> czy <math>\sigma</math> będziemy tu przyjmować za znane i nie będziemy do tego problemu podchodzić, tylko wyprowadzimy wzory na <MATH>\sigma_p</MATH>- to jest niepewność standardowa pojedyńczego pomiaru, a <MATH>\sigma_{srednie}</MATH> to jest niepewność standardowa średniej arytmetycznej uzyskanych z doświadczenia wszystkich nie odrzuconych pomiarów, oraz <math>x_{srednie}</math> określa wartość, której prawdopodobieństwo uzyskanie w naszym doświadczeniu jest największe, jest to wartość najdokładniejsza ze wszystkich uzyskanych <math>x_i</math> względem wartości dokładnej <math>x_0</math>, i celem doświadczenia jest uzyskanie wartości <math>x_0</math>, ponieważ nie jest możliwe uzyskanie tej wartości,lub dokonania nieskończenie wielu pomiarów, bo wtedy <MATH>x_{srednie}=x_0</MATH>, to zamiast niej uzyskujemy <math>x_{srednie}</math> ([[Średnia_arytmetyczna|średniej arytmetycznej]]), która jest liczona dla każdej serii danych doświadczalnych wykorzystując do tego celu rozkład normalny, w której w miejsce wartości dokładnej wsadzamy <MATH>x_{srednie}</MATH>.
 
Zwykle tak się robi w fizyce doświadczalnej, nie patrząc na opinie matematyków, w której matematycy mówią że wszystko musi być dokładne, nie ma wartości przybliżonej a jeśli są to trzeba określić je określić w sposób ściśle określony, a według fizyków nie ma wartości dokładnej, są tylko wartości przybliżone. W doświadczeniach fizycznych dane doświadczalne układają się wokół punkt x_0 (wartości dokładnej}, i bardzo rzadko się zdarza, że wyjdzie jakiś wynik(pomiar), który jest odległy od <MATH>x_0</MATH> nawet <MATH>o 2\sigma</MATH>, i jest to raczej [[Błąd_systematyczny|błąd systematyczny]], które może mówić o błędzie eksperymentatora, niedostosowanej np. temperatory do warunków doświadczalnych itp. dlatego odrzucanie wyników doświadczalnych bardzo oddalonych od <MATH>x_0</MATH>, należy przyjąć jako odrzucone Gdy <MATH>|x_{i}-x_{srednie}|>2\sigma</math> odrzuca się te <math>x_i</math> z poszczególnych prób i serii. Liczba wyników doświadczalnych powinna być na tyle duża, nawet po odrzuceniu pewnych danych doświadczalnych szczególnie zawężonym do <math>|x-x_i|>\sigma</math>. Mówi się, że przy typ, że przybliżeniu <math>n \to \infty</math> jest spełniony tutaj rozkład normalny, a przy małym n nie jest, ponieważ w doświadczeniu powinno się robić co najmniej 30 doświadczeń w poszczególnych próbach, by rozkład w miarę był spełniony. Rozrzut wyników wokół wartości dokładnej jest porozrzucany po obu stronach <MATH>x_0</MATH> i tak się dzieje, że wyniki doświadczalne znajdują się bardzo blisko wartości dokładnej. Prawdopodobieństwo uzyskania wyników o błędzie większym od <MATH>\sigma</MATH> a nawet <MATH>2\sigma</MATH> jest bardzo mało prawdopodobne i odrzucanie tychże wyników doświadczalnych nie wnosi prawie żadnego wkładu do obliczania <MATH>\sigma</MATH> i <MATH>x_0</MATH>. Rozkład normalny jest spełniony dla nieskończonej ilości stopni swobody (liczby uzyskanych danych doświadczalnych), oczywiście minus jeden, bo mamy wzór na średnią arytmetyczną, licząc je dla poszczególnych prób.
 
Niepewność pomiarowa w doświadczeniu, określmy jako średni błąd, który można popełnić, dla poszczególnych doświadczeń w próbach. A jeśli niepewności są większe niż <math>\sigma</math>, to taki wynik częściowy doświadczenia należy odrzucić, toteż <math>x_{srednie}</math> i <math>\sigma</math> należy przeliczyć od nowa, czy nie ma dalszych wyników doświadczenia tzn.: <math>x_i</math> określić jako odrzucone.Jeśli są to tą procedurę powtarzamy aż do skutku. Po tej czynności należy przejść do dalszego etapu badania jakim są zależności w naszym doświadczeniu w poszczególnych próbach.
 
Dlaczego trzeba odrzucać wyniki dla której <MATH>(x_i-x_{srednie})>2 \sigma</MATH>, dlatego jak zapoznamy się z wyprowadzeniem wzoru na rozkład normalny zastosowano szereg Taylora zastosowanej wokół wartości <MATH>x_0</MATH>,i jak znamy z analizy matematycznej gdy większa różnica między <MATH>x_i</MATH>- wynikiem pomiaru a <MATH>x_0</MATH>- wartością dokładną to szereg Taylora przestaję być spełniona poza promieniem promieniem zbieżności i dlatego odchyły od <MATH>x_0</MATH> nie powinny być za duże.
 
== Wzór na rozkład Bernoulliego==
Rozkład Bernoulliego jest szczególnym przypakiem twierdzenia rozkładu Bernoulliego, a jeszcze dokładniej dwumianowego.
Aby wyprowadzić twierdzenie na rozkład normalny, należy skorzystać z twierdzenia na rozkład Bernoulliego.
Jest to twierdzenie, które zależy od n,k, czyli ilości przeprowadzonej doświadczeń na obiekcje S i uzyskanych wyników poprawnych na S czyli k razy.
Na sam początek: twierdzenie Bernoulliego, znane ze szkoły średniej, ze statystyki matematycznej:
 
:<MATH>P_{nk}={n \choose k} p^k q^{n-k}</MATH>
 
gdzie:<BR>
 
:<MATH>P_{nk}</MATH>-to prawdopodobieństwo uzyskania k razy elementu z n losowań,
 
ale
:<MATH>q=1-p</MATH>
 
:n- ilość doświadczeń przeprowadzonej na obiekcie S
 
:k - ilość doświadczeń na S, w której uzyskaliśmy zdarzenie K, którego wartość uzyskania wynosi p przy pojedyńczym pomiarze. Ale gdy <MATH>k=n</MATH>, ze wzoru na rozkład normalny, uzyskujemy <MATH>P_{nn}=p</math>, oraz gdy <MATH>k=0</MATH>, to <MATH>P_{n0}=q=1-p</MATH>, czyli zdarzenie całkowicie przeciwne.
Mamy n doświadczeń uzyskanych,w których dana wartość(właściwość K jest k razy wylosowana), trzeba pamiętać że p jest to prawdopodobieństwo uzyskania pojedyńczego zdarzenia oczekiwanego, w pojedyńczym losowaniu, ale też jest q=p-1 dla pojedyńczego zdarzenia nieoczekiwanego uzyskania wyników przeciwnych niż oczekiwane.
 
== Wyznaczanie wzoru przybliżonego na n! ==
Obliczająć n! w sposób przybliżony, korzystam z logarytmów naturalnych, by udało się ustalić przybliżoną zależność na n!.
W rozkładzie dwumianowym bardzo często występuje silnia, korzystanie z niej szczególnie jest nie wygodne gdy <MATH>n\rightarrow \infty</MATH>
Silnia jest to iloczyn kolejnych liczb naturalnych licząc od 1 do n
:<MATH>n!=1\cdot2\cdot...\cdot n\;</MATH>
Logarytmując silnia n-tego stopnia mamy:
:<MATH> \ln n! =\ln (1\cdot2\cdot ...\cdot n)\;</MATH>
Korzystając, że logarytm (w szczególności naturalny) iloczynu dwóch czynników, jest to sumą logarytmów naturalnych, czyli według wzoru:
:<MATH>\ln {xy} =\ln x+\ln y\;</MATH>
Wykorzystując tą prawdę mamy:
:<MATH> \ln n!=\ln 1+\ln 2+..+\ln n\;</MATH>
Stąd jego dyskretna suma jest równa:
:<MATH>\ln n!=\sum\limits_{i=1}^n \ln i\;</MATH>
Udowodnijmy do zapomocą indukcji matematycznej.
Dla n=1 wiadomo że <MATH>\ln 1!=\ln 1=0\;</MATH>
Załóżmy że twierdzenie jest spełnione dla n i udowodnijmy to dla n+1, otrzymujemy:
 
<MATH> \ln (n+1)!=\ln (n! (n+1))=ln n!+ln (n+1)=\ln 1+\ln 2+..+\ln n +\ln (n+1)\;</MATH>
 
Czyli twierdzenie na <MATH> \ln(n!)</MATH> zostało udowodnione.
Można dokonać małego przybliżenia zastępując sumę logarytmów na całkę, czyli zamienić na całkę, która jest w pewnym sensie sumą ciągłą, z definicji całki, a jeszcze poza tym zamieńmy i na x.
Zastosowanie takiego przybliżenia dla dużych n nie powoduje dużego błędu, czyli np. pole pod krzywą powstałych z połączeń punktów <MATH>\ln(i)</MATH> odcinkami.
gdzie i to numer argumentu dla której liczymy wartość.
Udowodnijmy twierdzenie:
 
:<MATH>\int\limits^n_1 ln(x)=\sum_{i=1}^{n-1} \int\limits^{i+1}_{i} ln(x)dx</MATH>
 
Korzystając z twierdzenia Langrange'a, tzn.:<MATH>{{f(b)-f(a)}\over{b-a}}=f^'(c)</MATH>
a więc
:<MATH>{\int\limits^n_1 \ln n}=\sum_{i=1}^{n-1} {\ln(i+\theta)\int\limits^{i+1}_i dx}=\sum_{i=1}^{n-1}\ln(i+\theta)</MATH>
 
Trzeba pamiętać <MATH>\theta\in(0,1)</MATH>
 
W porównaniu z dwoma sumami skrajnymi mamy:
 
:<MATH>\sum_{i=1}^{n-1}\ln(i+0)\leq\int\limits^n_1 \ln i\leq\sum_{i=1}^{n-1}\ln(i+1)</MATH>
 
Obliczając różnice prawej i lewej strony mamy:
 
:<MATH>\sum_{i=1}^{n-1} \ln(i+1)-\sum_{i=1}^{n-1}\ln(i)=\sum_{i=2}^{n}\ln i-\sum_{i=1}^{n-1} \ln i=\ln n-\ln 1=\ln n</MATH>
 
I obliczmy całkę
<MATH>\int\limits^n_1 \ln x</MATH>
Dokonując całkowania przez części otrzymuję:
 
:<MATH>\ln n!\simeq[{x} \ln {x}]_{1}^{n}- \int\limits^n_1 {x} {1 \over {x}} d{x}=n \ln n-n-1\simeq n\ln n-n=\ln n^n-\ln e^n=\ln {{n^n} \over {e^n}}\;</MATH>
 
A więc mamy:
 
:<MATH> \ln n!\simeq\ln {{n^n}\over{e^n}}\;</MATH>
 
A dokładniej:
 
<MATH> \ln n!= ln{{n^n}\over{e^n}}\pm \ln n\;</MATH>
 
Błąd bezwzględny jest równy <MATH>\ln n\;</MATH>
 
Obliczmy błąd względny, który tak naprawdę mówi, jak nasza wartość przybliżona <MATH>\ln n!\;</MATH> jest poprawna.
Otóż mamy:
 
<MATH>\lim_{n \rightarrow \infty}{{\ln n}\over{ln{{n^n}\over{e^n}}}}=\lim_{n \rightarrow \infty}{{\ln n}\over {n ln n-n}}=\lim_{n \rightarrow \infty}{1\over{n-{n\over \ln n}}}=\lim_{n \rightarrow \infty}{1\over{n(1-{1\over \ln n})}}=(\lim_{n \rightarrow \infty} {1\over n}){1\over{1-\lim_{n \rightarrow \infty} {1 \over ln n}}}=0 \cdot 1=0</MATH>
 
Czyli wyznaczone wartości przybliżone tzn. :<MATH>n!\simeq={{n^n}\over{e^n}}</MATH> jest spełnione dobrze dla dużych n,a dla <MATH> n \rightarrow \infty</MATH> to przybliżenie staje się dokładne. W poniższym dowodzie będziemy operować na n nieskończenie dużym, i małych odchyleń od <MATH>x_0</MATH> w porównaniu z <MATH>\sigma</MATH>, bo tylko wtedy nasze twierdzenie jest twierdzeniem względnie dokładnym. Należy pamiętać, mimo że błąd bezwzględny dąży do nieskończoności, to w tym przypadku dla <MATH>n\rightarrow \infty\;</MATH>, błąd względny jest wprost równy zero, i dlatego ten rodzaj błędu jest dla nas ważny.
 
=== Etap obliczeń korzystając z przybliżonego wzoru na n! ===
Mając uzyskany wzór na n! mogę wykorzystać go w dalszej części rozumowania.
Przekształcając wzór z twierdzenia Bernoulliego za pomocą wzoru ostatnio wyprowadzonego na n! uzyskujemy:
:<MATH>P_{nk}= {{n!} \over {k! (n-k)!}} p^k (1-p)^{n-k} \simeq {{{n^n} \over {e^n}} \over {{k^k \over e^k}{{(n-k)^{n-k}} \over e^{n-k}}}}</MATH>
Grupujemy wartości względem <MATH>e^{cos}</MATH>od <MATH>{cos}^{cos}</MATH> w osobne czynniki i mamy:
:<MATH>P_{nk}={n^n \over {{(n-k)^{n-k}}k^k}}{{e^k e^{n-k}} \over e^n}p^k (1-p)^{n-k}</MATH>
Wykonując prostych obliczeń na <MATH>e^{cos}</MATH> i skróceniu tychże czynników w sposób całkowity zależnych od liczby e mamy:
:<MATH>P_{nk}={{n^n}\over{ {(n-k)^{n-k}}k^k}}{{e^n \over e^n}p^k (1-p)^{n-k}}={{n^n} \over {{(n-k)^{n-k}}{k^k}}}p^k(1-p)^{n-k}</MATH>
rozkładając na czynniki wyrażenie <MATH>(n-k)^{(n-k)}\;</MATH> na <MATH>{{(n-k)}^n}\over{{(n-k)}^k}\;</MATH> mamy:
<MATH>P_{nk}={{n^n} \over {{(n-k)^{n}} \over {(n-k)^k}}k^k}p^k(1-p)^{n-k}</MATH>
 
Zaczynamy grupowania potęg względem wykładników k oraz n, mamy:
 
:<MATH>P_{nk}={{n^n} \over {(n-k)^n}} {{(n-k)^k} \over {k^k}}p^k(1-p)^{n-k}</MATH>
 
Dokonując przekształceń na ilorazach typu <MATH>{{x \pm 1}\over{x}}=1 \pm {1\over x}</MATH>, mamy:
 
<MATH>P_{nk}={1 \over {(1- {k \over n})^n}}{({n \over k} - 1)^k}p^k(1-p)^{n-k}</MATH>
 
====Następne warunki przybliżające lub wzory====
Wyprowadzenie rozkładu normalnego z obfituje w obliczeniami z przybliżonymi wartościami, <MATH>k,n \rightarrow \infty</MATH> a także <MATH>k<<n</MATH>
Te warunki jak wiadomo są w naszych doświadczeniach całkowicie są spełnione, w przeprowadzonym, tzn.mamy nieskończenie wiele liczb z przedziału <MATH>x\in(-\infty,\infty)</MATH>, a liczba trafień np. w wartość <MATH>x_i</MATH> jest mała w porównaniu z liczbą wszystkich możliwych trafień jakie można dokonać w doświadczeniu.
 
Trzeba pamiętać, że obliczenia są przeprowadzone w przybliżeniu bo n skończone, ale gdy przejdziemy do <MATH>n \rightarrow \infty</MATH>, to wzory są całkowiecie względnie dokładne, ale przy pewnych warunkach przeprowadźmy nieskończoną ilość doświadczeń, by uzyskać <MATH>x_0=x_{srednie}</MATH>,tzn.<MATH>x_0</MATH> dokładnie i <MATH>\sigma</MATH> też dokładnie.
Określmy przedział <MATH>\Delta x<\infty</MATH>, ale na tyle małe, by doświadczenia fizyczne miały sens, i mówiąc gęstość prawdopodobieństwa, w tymże przedziale jest jednakowe, ale można powiedzieć, że jeszcze <MATH>Delta x</MATH> jeszcze nie 0, ale dostatecznie małe uzyskania x'a, jest z małym w przybliżeniem dostatecznie małe tzn. <MATH>\rho_{max(x)}-\rho(x)_{min(x)}\simeq 0</MATH>. Liczby trafione w przedział <MATH>x\in(x-{\Delta x},x+{\Delta x})</MATH> mają takie same prawdopodobieństwo trafienia w ten obszar podczas eksperymentu fizycznego.
 
==== Następne zastosowanie przybliżeń lub warunków przybliżających====
Ale liczba wyników liczby x uzyskanych wyników ściśle określonych k razy, jest o wiele mniejsza od liczby n, czyli od liczby doświadczeń wykonanym na obiekcie powiedźmy S. W obliczeniach będziemy przyjmować, że <MATH>k\rightarrow \infty</MATH> oraz <MATH>n \rightarrow \infty</MATH>
Ale tak że spełniony jest warunek<MATH>{{k}\over{n}}<<1</MATH>
 
==== Wzory przybliżone i zastosowania w wyprowadzeniu twierdzenia====
Korzystająć z ostatniego warunku często należy korzystać ze wzoru przybliżonego:
 
:<MATH> {1 \over {1-{x}}} \simeq {1+{x}}</MATH>
 
Ostatni wzór można wyprowadzić z twierdzenia [[Szereg_Taylora|Taylora]]
czyli:
 
<MATH>{1\over {1-{x}}}={1+\sum^{\infty}_{i=1}}{{x^i}\over{n}}\simeq 1+x</MATH>,
Stosując to przybliżenie dla pierwszego czynnika w ilorazie mamy:
 
:<MATH>P_{nk}\simeq{(1+ {k \over n})^n}{({n \over k}-1)^k}p^k(1-p)^{n-k}</MATH>
 
==== Zastosowanie wzorów przybliżonych i warunków przybliżających ====
Stosując <MATH>\lim_{n\rightarrow \infty}{(1+{k\over n})}^n=e^k</MATH> otrzymujemy:
:<MATH>P_{nk}\simeq{(1+ {k \over n})^n}{({n \over k}-1)^k}p^k(1-p)^{n-k}=(1+ {1 \over {n \over k}})^{{n \over k}k}({n \over k}-1)^k p^k(1-p)^{n-k}\rightarrow{e^k}({n \over k}-1)^k p^k(1-p)^{n-k}</MATH>
 
===== Rozszerzenie przedziałów uzyskania wyników na R (liczby rzeczywiste)=====
Dla doświadczenia spełnione są warunki, wiedząc jednak ,że <MATH>\Delta x \rightarrow 0</MATH>, gdzie jest to malutki przedział dla którego wartości naszego pomiaru są nierozróżnialne względem niepewności pomiarowej, ale i też <MATH>d \rightarrow \infty</MATH>, co przedstawia rozległość pomiarów co spełnia warunki dla rozkładu normalnego, a więc z użyciem tych warunków wzór na <MATH>p= {{\Delta x} \over d}</MATH>,czyli <MATH>p \rightarrow 0</MATH>, oraz następny wzór <MATH>n={d \over { \Delta x}}</MATH>, który przedstawia liczbę punktów pomiarowych w przedziale d, tzn. punktów <MATH>x\in(x_0-{d\over 2},x_0+{d\over 2})</MATH>czyli <MATH>n \rightarrow \infty</MATH>.
Zwykle w doświadczeniach w fizyce mamy, że d jest bardzo duże w porównaniu <MATH>\Delta x</MATH> bo <MATH>d>> {\Delta x}</MATH> i jest conaj wyżej skończone,bo nie możemy badać wyników, które uzyskamy w przedziale <MATH>x\in{(-\infty,\infty)}</MATH>,nie dość że długość przedmiotów miała by wiele do życzenia, jak i prawa fizycznego, które badamy może być nie spełnione dla aż tak dużego, np. prędkość świata dla d względnie miarę małego w porównywana tysiącami kilometrów, prędkość światła można zaniedbać, a dla dużych odległości, raczej już nie. Również <MATH>\Delta x</MATH> nie może być nieskończenie małe ponieważ niepewność pomiarowa przedmiotów jest jakaś tam, tak że rozróżnienie wyników w <MATH>x\in(x-\chi,x+\chi)</MATH> graniczy z cudem. Czyli pomiary jakieś wielkości fizycznej nie mogą być pomiarami zbyt rozległymi względem naszego doświadczenia, jak i pomiarami bardzo małymi względnie wielkości które mierzymy.
 
===== Zastosowanie ostatnich warunków =====
Podstawiając za p,mamy:
:<MATH>P_{nk}\rightarrow e^k({1 \over {k \over n}}-1)^k p^k(1-p)^{n-k}={e^k ({1 \over {k \over n}}-1)^k} {({{\Delta x} \over d})^k}{(1-{{\Delta x} \over d})^{n-k}}</MATH>
stosujemy, że <MATH>k<<n\;</MATH> otrzymujemu:
<MATH>P_{nk}\simeq {e^k ({1 \over {k\over n}}-1)^k} {({{\Delta x} \over d})^k}{1 \over{(1+{1 \over {d \over {\Delta x}}})^n}}</MATH>
 
===== Korzystając ze wzoru przybliżonego na odwrotność różnicy ilorazu =====
Stosując: <MATH>({1+{1\over{{d}\over{\Delta x}}}})^{d \over {\Delta x}}\rightarrow e</MATH> mamy
 
:<MATH>P_{nk}\rightarrow {e^k {({1 \over {k \over n}}-1)^k}({{\Delta x} \over d})^k}{1 \over{(1+{1 \over {d \over {\Delta x}}})^{{({d \over {\Delta x}})}{n{{\Delta x} \over d}}}}}\rightarrow e^k ({{1 \over {k \over n }}-1})^k ({{\Delta x} \over d})^k {1 \over {e^{n {{\Delta x} \over d}}}}={e^k e^{-n{{\Delta x} \over d}}}({{1 \over {k \over n}}-1)^k}({{ \Delta x} \over d})^k=</MATH>
 
=== Ogólne stosowane twierdzenia===
:<MATH>e^x\simeq 1+x</MATH>, oraz <MATH> x\simeq e^x-1</MATH>
==== Zastosowanie ostatnich przybliżeń ====
Wykorzystując wzór <MATH>{k \over n}\simeq e^{k \over n}-1</MATH>,oraz <MATH>{{\Delta x}\over{d}}=e^{{\Delta x}\over{d}}-1</MATH>
:<MATH>P_{nk}\rightarrow { {e^k e^{-n {{\Delta x} \over d}}} ({{1 \over{e^{k \over n}-1}}-1})^k({e^{{\Delta x} \over d}}-1)^k}=e^k e^{-n{{-\Delta x}\over{d}}}({{1-e^{k \over n}+1}\over{e^{k \over n}-1}})^k({e^{{\Delta x} \over d}-1})^k</MATH>
 
Następnie stosując twierdzenie <MATH>e^{k \over n}={k \over n}+1</MATH>
 
:<MATH>P_{nk}=e^k e^{-n{{-\Delta x}\over{d}}}({{2-e^{k \over n}}\over{e^{k \over n}-1}})^k({e^{{\Delta x} \over d}-1})^k={e^k e^{-n{{\Delta x} \over d}}}({{2-(1+{k \over n})}\over{e^{k \over n}-1}})^k(e^{{\Delta x} \over d}-1)^k</MATH>
Tutaj stosujemy twierdzenie:<MATH>{1-{k \over n}}\simeq{{1}\over{1+{k\over n}}}</MATH>
:<MATH>P_{nk}={e^k e^{-n{{\Delta x} \over d}}}{{({1-{k \over n}})^k}\over {({e^{k \over n}-1})^k}}({e^{{\Delta x}\over d}-1})={{{e^ke^{-n{{\Delta x}\over d}}}\over{(e^{k\over n}-1)^k}}}{1 \over{(1+ {k \over n})^k}}({e^{{\Delta x} \over d}-1})^k</MATH>
Tutaj możemy zastosować troszkę zmodyfikowaną wersję:<MATH>\lim_{n \rightarrow \infty}{(1+{k\over n})}^n=e^k</MATH>
:<MATH>P_{nk}\rightarrow{{{e^k e^{-n{{\Delta x} \over d}}}\over{({e^{k \over n}-1})^k}}}{1 \over{({(1+{1 \over{n \over k}})^{{({n \over k})}})^{{k \over n}k}}}}({e^{{\Delta x} \over d}-1})^k\rightarrow {{e^k e^{-n {{\Delta x} \over d}}}\over{{({e^{k \over n}-1})^k}}}{e^{-{{k^2} \over n}}}{(e^{{\Delta x} \over d}-1)^k}</MATH>
Odpowiednio grupując wyrazy:
:<MATH>P_{nk}\rightarrow{{e^k e^{-n{{\Delta x} \over d}}e^{-{{k^2}\over n}}}\over{(e^{k \over n}-1)^k}}({e^{{\Delta x} \over d}-1})^k</MATH>
=====Do czego dąży <MATH>P_{nk}</MATH> gdy <MATH> n\rightarrow \infty</MATH> i gdy <MATH>k<<n</MATH>=====
Ale <MATH>n\Delta x=d\;</MATH>
<MATH>\lim_{n \rightarrow \infty} P_{nk}={{ { {e^k e^{-1} e^0} } {({\Delta x \over d})}^k}\over {k \over n}}=e^{k-1}{ { {\Delta x}\over{n \Delta x} }^k \over{k \over n}}\simeq {{e^k n^{-k}} \over{k n^{-1}}}={e^k\over k}n^{-n-1}={e^k \over{n^{k+1}}}=\simeq e^k\cdot 0=0</MATH>
A więc niema sensu stosowania twierdzenia że <MATH>P_{nk}!=0\;</MATH> tylko <MATH>\lim_{n \rightarrow \infty}P_{nk}=0</MATH>
 
==== Ilość pomiarów dąży do nieskończoności ====
Jeśli <MATH>k<<n</MATH>, to mamy<MATH>P_{nk}\rightarrow 0</MATH>
A więc należy zastosować definicję gęstości prawdopodobieństwa, bo posługiwanie się samym <MATH>P_{nk}</MATH> nie ma wielkiego sensu bo:
 
:<MATH>\lim_{n \to \infty} P_{nk}=0</MATH>
 
===== Przejście od prawdopodobieństwa do gęstości prawdopodobieństwa =====
:<MATH>\rho_{nk}\rightarrow{{e^ke^{-n{{ x} \over d}}e^{-{k^2 \over n}}}\over{({e^{k \over n}}-1)^k}}{({e^{{\Delta x} \over d}-1})^k}{1 \over {{\Delta x}}}</MATH>
bo
:<MATH>\rho_{nk}={{P_{nk}}\over {\Delta x}}</MATH>
 
gdzie:
:<MATH>\rho_{nk}</MATH> jest to gęstość prawdopodobieństwa uzyskania k razy jakiegoś wyniku w n losowaniach
 
====== Uzyskanie wzoru na gęstość prawdopodobieństwa ======
:<MATH>\rho_{nk}\rightarrow {{e^ke^{-{k^2}\over n}}\over{e^{k \over n}-1}}{{e^{-n{{\Delta x} \over d}}({e^{{ \Delta x}\over d}-1})^k}\over{{\Delta x}}}</MATH>
 
<STRONG>Względem dwóch ostatnich czynników w liczniku przez <MATH>\Delta x</MATH> stosując regułę de'Hospitala uzyskując:</STRONG>
 
:<MATH>\rho_{nk}\rightarrow {{e^ke^{-{{k^2}\over n}}}\over{(e^{k \over n}-1)^k}}{{e^{-n{{\Delta x}\over d}}{(-{n \over d})}({e^{{\Delta x}\over d}-1})^k+e^{-n{{\Delta x}\over d}}k({e^{{\Delta x}\over d}-1})^{k-1}e^{{\Delta x}\over d}{1\over d}}\over{1}}</MATH>
 
:<MATH>
\rho_{nk}\rightarrow {{{e^k e^{-n{{k^2}\over n}}}\over{(e^{k\over n}-1)^k}}}e^{-n{{\Delta x}\over d}}[-{n \over d}(e^{{ \Delta x}\over d}-1)^k+k(e^{{\Delta x} \over d}-1)^{k-1}{{e^{{\Delta x}\over d}}\over d}]</MATH><MATH>\rho_{nk}\rightarrow {{e^k e^{-{{k^2}\over n}}}\over{(e^{k\over n}-1)^k}}e^{-n{{\Delta x}\over d}}({e^{{\Delta x}\over d}-1})^{k-1}[{-{n}\over{d}}({e^{{\Delta x}\over d}-1})+k{{e^{{\Delta x}\over d}}\over {d}}]</MATH>
 
:<MATH>\rho_{nk}\rightarrow {{e^k e^{-{k^2}\over n}}\over{(e^{k \over n}-1)^k}}e^{-n{{ \Delta x}\over d}}({e^{{\Delta x}\over d}-1})^{k-1}[-{{n}\over{d}}{{{\Delta x}}\over{d}}+{{k}\over{d}}({{\Delta x}\over d}+1)]=</MATH>
:<MATH>\rho_{nk} \rightarrow {{}e^ke^{-{{k^2}\over n}}\over{({e^{k\over n}-1})^k}}e^{-n{{\Delta x}\over d}}({e^{{\Delta x}\over d}-1})^{k-1}[-{{{\Delta x}n}\over{d^2}}+{{k{\Delta x}}\over{d^2}}+{k\over d}]</MATH>
 
=====Upraszczanie ostatniego wzoru względem ostatniego czynnika korzystając <MATH> d = {\Delta x} n</MATH>=====
Ale dla czynnika w nawiasie kwadratowym zachodzi:
:<MATH>-{{{\Delta x}n}\over{d^2}}+{{k{\Delta x}}\over{d^2}}+{{k}\over{d}}=-{{{\Delta x}n}\over{n^2{\Delta x}^2}}+{{k{ \Delta x}}\over{n^2{\Delta x}^2}}=-{{1}\over{n{\Delta x}}}+{{k}\over{n^2{\Delta x}}}+{{k}\over{n{\Delta x}}}\simeq{{k-1}\over{n{\Delta x}}}</MATH>
 
Stosując <MATH>e^{k \over n}-1={k\over n}</MATH> oraz <MATH>d=\Delta x n\;</MATH>
 
A więc:
:<MATH> \rho_{nk}\rightarrow {{e^ke^{-n{{k^2}\over n}}}\over{({{k}\over{n}}})^k}e^{-n{{{\Delta x}}\over{n{\Delta x}}}}({e^{1\over n}-1})^{k-1}{{k-1}\over n{\Delta x}}\rightarrow {{e^ke^{-{k^2}\over{n}}}\over{e{({k\over n})^k}}}{({{1}\over n})}^{k-1}{{k-1}\over{n{\Delta x}}}=</MATH>
Odpowiednio przekształcając manewrując czynnikami
:<MATH>
\rho_{nk}\rightarrow e^{k-{{k^2}\over n}-1}{{n^k}\over{k^k}}{{n}\over{n^k}}{{k-1}\over{n{\Delta x}}}</MATH>
Stąd ostateczny wzór:
:<math>\rho_{nk}\rightarrow e^{k-{{k^2}\over n}-1} {{k}\over{k^{k-1}n{\Delta x}}}</MATH>
 
===== Następne przybliżenia =====
Ale wiadomo <MATH>k<<n\;</MATH>,a także <MATH>k^2<<n\;</MATH>, a uzyskując:<MATH>k-{{k^2}\over n}\simeq k\;</MATH>,i jeszcze <MATH>k-1\simeq k\;</MATH>
Korzystając z ostatniego wyprowadzonego wzoru oczywiście mamy:
 
:<MATH>\rho_{nk}\simeq {{e^{k-1}}\over{k^{k-1}}}{{1}\over{n{\Delta x}}}\simeq {{k^{-k+1}}\over{e^{-k+1}}}{{1}\over{n{\Delta x}}}\simeq {{k^{-k}}\over{e^{-k}}}{{1}\over{n{\Delta x}}}\rightarrow {{e^{ln k^{-k}}}\over{e^{-k}}}{{1}\over{n{ \Delta x}}}</MATH>
 
:<MATH>\rho_{nk}\rightarrow {{e^{-k ln k}}\over{e^{-k}}}{{1}\over{n{ \Delta x}}}\rightarrow {{e^{-k ln k +k}}\over {n{\Delta x}}}={{e^{-k[ln k-1]}}\over {n{\Delta x}}}</MATH>ale<MATH> k>>1\;</MATH> stąd <MATH>\rho_{nk}\rightarrow {{e^{-k ln k}}\over{n{\Delta x}}}</MATH>
 
==== Określanie względem wartości najprawdopodonej ====
Ale przez <MATH> \rho_{n}^{s}</MATH> oznaczając jako zdarzenie najbardziej prawdopodobne, a przez <MATH>\rho_{nk} </MATH>jako zwykłe zdarzenie, stąd możemy powiedzieć:
 
:<MATH> {{\rho_{nk}^{s}}\over{\rho_{nk}}}\rightarrow {{e^{-k_s ln k_s}}\over{e^{-k ln k}}}{{1 \over{n{\Delta x}}}\over{1\over {n{\Delta x}}}}</MATH>
stąd po skróceniu skadników mamy:
 
:<MATH>\rho_{nk}\rightarrow {{e^{-k \ln k}}\over{e^{-k^s_n \ln k^s_n}}}\rho_{n}^s</MATH>
A więc określając stał przez <MATH>\beta(k_s)={1 \over{e^{-k_n^s \ln k^s_n}}}</MATH>,i po zastąpieniu otrzumuję:
:<MATH>\rho_{nk}\rightarrow\beta(k_s) e^{-k \ln k}</MATH>
 
===Zerowy moment statystyczny, czyli normowanie funkcji <MATH>\rho_{nk}</MATH>===
Teraz normujemy funkfcję <MATH>\rho_{nk}</MATH> do jedynki, bo prawdopodobieństwo znalezienia zdarzenia w <MATH> x\in(-\infty,\infty)</MATH> jest pewne czyli jest równe jedynce
:<MATH>1=\int\limits^{\infty}_{-\infty}{\rho_{nk}dx}=\int\limits^{\infty}_{-\infty}{{\beta(k_s)e^{-k\ln k }dx}}=\beta(k_s) \int\limits^{\infty}_{-\infty}{e^{-k \ln k}dx}</MATH>
stąd:
 
:<MATH>\beta(k_s)={1 \over{\int\limits^{\infty}_{-\infty}{e^{-k \ln k}dx}}}</MATH>
 
A więc:
Stosując twierdzenie Tayelora można uzyskać to co poniżej, i dlatego trzeba ucinać pewne wyniki doświadczalne które są daleko od <MATH>x_0</MATH>,tak żeby był spełniony rozkład Tayelora, która jest napewno spełniony dla małych odchyleń x od <MATH>x_0</MATH>
A nawet nieznamy promienia zbieżności takowego szeregu przybliżającego <MATH>k \ln k</MATH> ale spróbujemy je wyznaczyć później.
 
:<MATH> \rho_{nk}={{e^{-k \ln k}}\over{\int\limits^{\infty}_{-\infty}e^{-k \ln k}}}</MATH>
Mając n pomiarów, w której gęstość prawdopodobieństwo jest równe <MATH>\rho(x_i)</MATH>,a więc łączna gęstość prawdopodobieństwa jest równa:
:<MATH>\rho^{all}=\rho(x_1)\rho(x_2)...\rho(x_n)\;</MATH>
Zakładam że gestości prawdopodobieństwa w poszczególnych pomiarach są takie same.
A więc:
:<MATH>\rho^{all}_{nk}={{e^{-\sum^n_i(k_i \ln k_i)}}\over{(\int\limits^{\infty}_{-\infty}e^{-k \ln k})^n}}\;</MATH>
-to jest gęstość prawdopodobieństwa uzyskania n wyniku <math>x_i</math>
<MATH>k_i</MATH> razy jednocześnie dla <MATH>i\in Z</MATH>. A łączne prawdopodobieństwo uzyskania tych wszystkich wartości jest równe:
Rozłóżmy wyrażenie <MATH>k \ln k</MATH> na szereg Tayelora,wokół punktu <MATH>x_0</MATH>czyli wokół wartości dokładnej, a więc mamy:
:<MATH>{k_i\ln k_i}={k_{si} ln k_{si}}+{{{{\delta (k_i \ln k_i)}}\over{\delta x}}}_{k_{si}}{({x_i-x_0})}+{({{\delta x(k_i\ln k_i)}\over{\delta x^2}})}_{k_{si}} {(x_i-x_0)^2\over 2}+...</MATH>
 
czyli
:<MATH>k_i \ln k_i= D_i+A_i(x_i-x_0)+{{B_i}\over 2}(x_i-x_0)^2</MATH>
 
Stąd wszystko podstawiając według wzoru <MATH>\rho^{all}(k)</MATH>
Przyjmujemy,że rozkłady prawdopodobieństw poszczególnych pomiarów są jednakowe,takie same.
 
:<MATH>\rho^{all}_{k}={{e^{-\sum^n_{i=1}D_i-\sum^n_{i=1}A_i(x_i-x_0)-\sum^n_{i=1}{{B_i}\over 2}(x_i-x_0)^2}}\over{(\int\limits^{\infty}_{-\infty}\rho(x)})^n}</MATH>
Po przekształceniach:
:<MATH>\rho^{all}_{k}={{e^{-nD}}\over{(\int\limits^{\infty}_{-\infty}\rho(x))^n}}e^{-A\sum^n_{i=1}(x_i-x_0)}e^{-{{B}\over 2}\sum^n_{i=1}(x_i-x_0)^2}</MATH>
 
Funkcję którą otrzymaliśmy, nie da się unormować, a nawet mamy wątpliwości co to stosowalności szerego Tayelora dla <MATH>x\rightarrow\pm\infty</MATH>, gdy <MATH>A\not=0\;</MATH>, a więc przyjmnijmy A=0, które na pewno spełnia wszystkie warunki naszego rozkładu. Wiadomo że musi być B\not=0, bo z tym warunkiem rozkład <MATH>\rho(k)</MATH> daje się w ogólności unormować,i szereg Tayelora jest spełniony
Oznaczając przez <MATH>A=A_i</MATH> i <MATH>B=B_i</MATH>, oraz <MATH>D_i=D</MATH> ponieważ ma symetryczność względem numeru pomiaru,tzn.: niezależy od wyniku pomiarowego, które uzyskaliśmy, ale istnieje takie same prawdopodobieństwo uzyskania pomiaru <MATH>x_i</MATH> jak i pomiaru <MATH>x_j</MATH>, jak przy pomiarze i, jak pomiarze j, czyli ten sam wynik można uzyskać z takim samym prawdopodobieństwem niezależnie od kolejności wykonywania doświadczeń.
Oznaczając
:<MATH>C={{e^{-D}}\over{({\int\limits^{\infty}_{-\infty}\rho(x)}})^n}</MATH>
 
Stąd mamy:
:<MATH>\rho^{all}(x)=C e^{{-B\over 2}\sum^n_{i=1}{({x_i-x_0})^2}}</MATH>
Gęstość prawdopodobieństwa uzyskania średniej arytmeycznej jest równa:
:<MATH>\rho^{all}(x^{srednie})=C e^{-{B\over 2}\sum^n_{i=1}{(x^{srednie}-x_0)}}</MATH>
Określimy czemu jest równa gęstość prawdopodobieństwa jeśli znamy tylko gęstość prawdopodobieństwo, a mianowicie:
:<MATH>\rho^{srednie}={{C_1}\over{c_2}}{{e^{-{B\over 2}\sum^n_{i=1}(x_i-x_0)^2}}\over {e^{-{B\over 2}\sum^n_{i=1}(x^{srednie}_i-x_0)^2}}}</MATH>
 
A teraz
:<MATH>\rho^{srednie}=C_3 e^{-{B\over 2}(\sum^n_i((x_i-x_0)^2-(x^{srednie}_i-x_0)^2))}</MATH>
W wykładniku liczby e przekształcając:
 
:<MATH>(x_i-x_0)^2=(x_i-{x_{srednie}}+{{x_{srednie}}}-x_0)^2=(x_i-x_{srednie})^2+({x_{srednie}}-x_0)^2+(x_i-x_{srednie})({x_{srednie}}-x_0)\;</MATH>
Otrzymujemy wzór:
:<MATH>\rho^{srednie}=C_3 e^{-{B\over 2}\sum^n_{i=1}(x_i-x_{srednie})^2} e^{-{B\over 2}\sum^n_{i=1}({x_{srednie}}-x_0)}e^{-{B\over 2}\sum^n_{i=1}((x_i-x_{srednie})({x_{srednie}}-x_0))}e^{{B\over 2}\sum^n_{i=1}(x_0-x_{srednie})^2}</MATH>
Skracając drugi i czwarty wyraz,i korzystając z wyniki odtrzymane z doświadczenia są nie zeleżne od siebie, mamy:
:<MATH>\rho^{srednie}=C_3 e^{-{B \over 2}\sum^n_{i=1}(x_i-x_{srednie})^2}</MATH>
 
Mając wzór na rokład średniej <MATH>x_{srednie}</MATH>wokół wartości dokładnej <MATH>x_0</MATH>
:<MATH>\rho(x_{szrednie})=C e^{-{B \over 2}\sum ^n_{i=1}(x_{srednie}-x_0)}</math>
Korzystająć z definicji wartości dokładnej:
tzn:<MATH>x_{srednie}=\sum^n_{i=1}{{x_i}\over{n}}</MATH>
:<math>\rho(x_{srednie})=C e^{-{B\over 2}{\sum^n_{i=1}({{\sum^n_{j=1}{x_j}}\over {n}}-x_0)^2}}</MATH>
:<MATH>\rho(x_{srednie})=C e^{-{B \over 2}{\sum^n_{i=1,j=1}({{x_j-x_0}\over{n}})^2}}</MATH><MATH>=C e^{-{B \over 2}n\sum^n_{i=1}({{{x_i-x_0}}\over{n}})^2}</math><MATH>=C e^{-B{\sum^n_{i=1}(x_i-x_0)^2}\over {2n}}</MATH>
Jeszcze raz przejdźmy do <MATH>\rho^{srednie}</MATH>czyli
:<MATH>\rho^{srednie}=C_3{{e^{-{B\over 2}\sum^n_{i=1}(x_i-x_0)^2}}\over {e^{-{B\over {2n}}\sum^n_{i=1}(x_i-x_0)^2}}}</MATH><MATH>=C_3 e^{-{B\over 2}(1-{1\over n})\sum^n_{i=1}(x_i-x_0)^2}</MATH>=<MATH>=C_3 e^{-{B\over 2}{{{n-1}\over{n}}\sum^n_{i=1}(x_i-x_0)^2}}</MATH>
====Wyznaczamy stałe B i C we wzorze na rozkład normalny====
Określmy całki znane analizie matematycznej:
Zakładamy,że mamy rozkład:
:<MATH>\rho=C e^{-{B\over 2}(x-x_0)}</MATH>
gdzie <MATH>x_p</MATH> jest to dowolna stałą taką, że <MATH>E(x)=x_0</MATH>
:<MATH>\int\limits^{-\infty}_{\infty} e^{-\alpha x^2}=\sqrt{{\pi}/{\alpha}}</MATH>
 
oraz całkę
 
:<MATH>\int\limits^{-\infty}_{\infty} x^2 e^{-\alpha x^2}={{1}\over{2}}\sqrt{{\pi}\over{\alpha^{3}}}</MATH>
 
Funkcję na g(x), możemy unormować,
 
:<MATH>1=\int\limits^{\infty}_{-\infty}Ae^{-{B\over 2}( x- x_{0})^2}=A \int\limits^{\infty}_{-\infty}e^{-{B\over 2}( x- x_{0})^2}\Rightarrow 1=A \sqrt{{{\pi}\over{B\over 2}}}\Rightarrow A=\sqrt{{B\over 2}\over{\pi}}\Rightarrow \rho(x)=\sqrt{{B \over 2}\over{\pi}}e^{-{B\over 2}( x- x_{0})^2}</MATH>
 
Stąd średnie odchylenie kwadratowe wyrażone jest wzorem:
 
:<MATH>\sigma^2=\int\limits^{\infty}_{-\infty}{( x- x_0)^2} \sqrt{{B}\over{2\pi}}e^{-B( x- x_0)^2}d x\Rightarrow\sigma^2=\sqrt{{B}\over{2\pi}}\int\limits^{\infty}_{-\infty}{t^2e^{-Bt^2}}</MATH>
 
 
:<MATH>\sigma^2=\sqrt{{B\over 2}\over{\pi}}{{1}\over{2}}\sqrt{{\pi}\over{{B^3}\over 8}}\Rightarrow\sigma^2={{1}\over{B}}\Rightarrow B={{1}\over{{\sigma^2}}}</MATH>
 
===Związki w rozkładzie normalnym===
Przedstawmy podstawowe wzory, które otrzymaliśmy z powyższych obliczeń,by określić w sposób ścisły stałe B i C
:<MATH>\rho^{srednie}=C_3 e^{-{B\over 2}{{{n-1}\over{n}}\sum^n_{i=1}(x_i-x_0)^2}}</MATH>
:<MATH>\rho(x_{srednie})=C e^{-B{\sum^n_{i=1}(x_i-x_0)^2}\over {2n}}</MATH>
:<MATH>\rho^{srednie}=C_3 e^{-{B \over 2}\sum^n_{i=1}(x_i-x_{srednie_i})^2}</MATH>
Względem ostatniego wzoru mamy:
:<MATH> C={{1}\over{\sqrt{2\pi}\sigma}} </MATH> i
:<MATH>B={{1}\over{\sigma^2}}</MATH>
Jest to błąd pomiaru pojedyńczej wartości
Dla drugiego wzoru mamy:
:<MATH>{B\over n}={1\over \sigma^2}\Rightarrow {1 \over {n{(\sigma^{srednie})}^2}}={{1}\over {\sigma^2}}\Rightarrow {({\sigma^{srednie}}_2)}^2={{\sigma^2} \over n}</MATH>
Wiadomo, że wzory pierwszy i trzeci oznaczają to samo,a więc:
:<MATH>C e^{-{B\over 2}{{{n-1}\over{n}}(x_i-x_0)^2}}=C e^{-{B \over 2}(x_i-x_{srednie_i})^2}</MATH>
stąd sumując obie strony po 'i' mamy:
:<MATH>\sum^n_{i=1} {{n-1}\over n}(x_i-x_0)^2=\sum^n_{i=1}(x_i-{x_{srednie_i}})^2</MATH>
:<MATH>\sum^n_{i=1}(x_i-{x_{srednie_i}})^2={n\over {n-1}}\sum^n_{i=1}(x_i-x_0)^2</MATH>
Biorąc średnią arytmetyczną prawej i lewej strony otrzymujemy:
:<MATH>{(n-1)\over n}\sum^n_{i=1}(x_i-x_0)^2=\sum^n_{i=1}(x_i-x_{srednie})^2</MATH>
stąd otrzymuję:
:<MATH>{\sum^n_{i=1}(x_i-x_0)^2}={n\over {n-1}}\sum^n_{i=1}(x_i-x_{srednie})^2</MATH>
Biorąc srwdnią prawej i lewej strony otrzymuję błąd pojedyńczego pomiaru:
:<MATH>\sigma=\sqrt{\sum^n_{i=1}({x_i-x_{srednie})^2}\over{n-1}}</MATH>
A stąd błąd średniej arytmetycznej:
:<MATH>\sigma_{srednie}=\sqrt{\sum^n_{i=1}({x_i-x_{srednie})^2}\over{n(n-1)}}</MATH>
 
=== Rozkład normalny ===
Stąd po krótkich przekształceniach mamy:
 
:<MATH>\rho^{all}(\vec{x})={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{\sum^n_{i=1}(x_i- x_0)^2}\over{2\sigma^2}}}</MATH>
W zastosowaniach fizycznych stosowany jest przede wszystkim:
:<MATH>\rho(x_{srednie},\vec{x})={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{\sum^n_{i=1}(x_i- x_{srednie})^2}\over{2\sigma^2}}}</MATH>
 
Zwykle pomija się znaki sumy w wykładników potęgi, i piszemy:
:<MATH>\rho^{all}(x_i)={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{(x_i- x_0)^2}\over{2\sigma^2}}}</MATH>
W zastosowaniach fizycznych stosowany jest przede wszystkim:
:<MATH>\rho(x_i,x_{srednie})={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{(x_i- x_{srednie})^2}\over{2\sigma^2}}}</MATH>
Z obliczeń otrzymaliśmy też:
 
:<MATH>A=({{\delta k_i \ln k_i}\over{\delta x}})_{k_s}=0</MATH> oraz: <MATH>B={({{\delta^2 k_i \ln k_i}\over {\delta x^2}})_{k_s}}={1 \over {\sigma^2}}</MATH> oraz <MATH>C={{e^{-nD}}\over{({\int\limits^{\infty}_{-\infty}\rho(x)}})^n}={{1}\over{\sqrt{2\pi}\sigma}}</MATH>
oraz <MATH>D=k_i \ln k_i\;</MATH>
 
==== Obliczanie poszczególnych momentów statystycznych dla rozkładu normalnego ====
Momenty ogólnie definiują się:
:<MATH>\gamma_n=\int\limits^{\infty}_{-\infty}(x-x_0)^{n}\rho(x)dx</MATH>
Dla momentów statystycznych o stopniu nieparzystym:
 
:<MATH>\gamma_{2n+1}=\int\limits^{\infty}_{-\infty}(x-x_0)^{2n+1}\rho(x)dx</MATH><MATH>=({{\int\limits^{x_0}_{-\infty}}+{\int\limits^{\infty}_{x_0}}})(x-x_0)^{2n+1}\rho(x)dx</MATH>
 
Obliczamy tą całkę uwzględniając <MATH> t=x-x_{0}</MATH>, toteż mamy:
 
:<MATH>\gamma_{2n+1}=({\int\limits^{0}_{-\infty}+\int\limits^{\infty}_{-0}})t^{2n+1}\rho(t)dt</MATH>
 
A następnie biorąc podstawienie dla pierwszej całki<MATH>t \rightarrow -t</MATH>
mamy
 
:<MATH>\gamma_{2n+1}=\gamma_{2n+1}=({\int\limits^{\infty}_0-\int\limits^{\infty}_0})t^{2n+1}\rho(t)dt=0</MATH>
 
Czyli momenty statystyczne o nieparzystym stopniu są równe zero.
 
Obliczenie momentów statystycznych o stopniu parzystym:
 
Wiadomo, że:
 
:<MATH>\sqrt{{{\pi}\over{\alpha}}}=\int\limits^{\infty}_{-\infty}e^{-\alpha(x-x_0)^2}</MATH>
 
 
Obliczając kolejne pochodne z lewej i z prawej strony ostatniego wzoru otrzymujemy dla pierwszej pochodnej::
 
:<MATH>\sqrt{\pi} {1\over 2}\alpha^{-{{3}\over{2}}}=\int\limits^{\infty}_{-\infty}(x-x_0)^2 e^{-\alpha(x-x_0)^2}</MATH>
 
biorąc jeszcze raz pochodną ostatniej obliczonej obustronnie pochodną mamy:
 
:<MATH>\sqrt{\pi}{1 \over 2}{3 \over 2}\alpha^{-5 \over 2}=\int\limits^{\infty}_{-\infty}(x-x_0)^4 e^{-\alpha(x-x_0)^2}</MATH>
 
Stąd ogólnie:
 
:<MATH> \sqrt{\pi}{{(2n-1)!!}\over{2^n}}\alpha^{-{2n-1}\over{2}}=\int\limits^{\infty}_{-\infty}(x-x_0)^{2n}e^{-\alpha(x-x_0)^2}</MATH>
 
Momenty statystyczne dla rozkładu normalnego dla potęg parzystych po podstawieniu <MATH>\alpha \rightarrow {{1}\over{2\sigma^2}}</MATH>
wynosi:
 
:<MATH>\sqrt{\pi}{{(2n-1)!!}\over{2^n}}2^{n+{{1}\over{2}}}\sigma^{2n+1}=\int\limits^{\infty}_{-\infty}(x-x_0)^{2n}e^{-{(x-x_0)^2}\over{2\sigma^2}}</MATH>
 
Mnożąc obustronnie przez:
 
:<MATH>{1\over{\sqrt{2\pi}\sigma}}</MATH>
 
Stąd 2n-ty moment statystyczny wynosi:
 
:<MATH>\gamma_{2n}={(2n-1)!!}\sigma^{2n}\;</MATH>
 
przyjmując jednocześnie <MATH>(-1)!!=1\;</MATH>, to obejmiemy również szczegół normowania gęstości prawdopodobieństwa dla <MATH>n=0</MATH>;
 
==== Punkt przegięcia w rozkładzie normalnym ====
Mamy oto rozkład normalny:
 
:<MATH>\rho(x)={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{(x-x_0)}^2}\over{2\sigma^2}}</MATH>
 
Wykonując pochodną względem x otrzymujemy:
 
:<MATH>{{d\rho(x)}\over{dx}}={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{(x-x_0)}^2}\over{2\sigma^2}}(-2){{x-x_0}\over{2\sigma^2}}</MATH>
 
Oznaczając za stałe przez C, mamy:
 
:<MATH>{{d^2\rho}\over{dx^2}}=C (e^{-{{(x-x_0)}^2}\over{2\sigma^2}}(-2){{(x-x_0)^2}\over{4\sigma^4}}+ e^{-{{(x-x_0)}^2}\over{2\sigma^2}}{{1}\over{2\sigma^2}})</MATH>
 
:<MATH>{{d^2\rho}\over{dx^2}}=Ce^{-{{(x-x_0)}^2}\over{2\sigma^2}}{{1}\over{2\sigma^2}}(1-{{(x-x_0)^2}\over{\sigma^2}})</MATH>
 
Ponieważ liczymy punkty przegięcia funkcji Gausa rozkładu normalnego, to mamy:
 
:<MATH>{{d^2\rho(x)}\over{dx^2}}=0</MATH>
 
Stąd mamy:
 
:<MATH>1-{{(x-x_0)^2}\over{\sigma^2}}=0</MATH>
 
W ostatecznych obliczeniach mamy:
 
:<math>x=x_0 \pm \sigma</math>
 
Stąd można z interpretować jako że otrzymane <MATH>x_i</MATH> w obliczeniach powinno się mieścić w granicach <MATH>x_{i} \in (x_0-\sigma,x_0+\sigma)</MATH>,
a te wyniki, które nie spełniają tego warunku, powinny być odrzucone z danych doświadczalnych, i odnowa trzeba wyznaczać <MATH>x_{srednie}</MATH> i <MATH>\sigma</MATH> Przypominając przy liczeniu <MATH>\rho(x)</MATH> trzeba wstawić za <MATH>x_0</MATH> <MATH>x_{srednie}</MATH> co dla dużej ilości wyników doświadczalnych jest w zupełności spełnione, ponieważ średnia arytmetyczna ma najmniejszą niepewność pomiarową z tych wszystkich otrzymanych <MATH>x_i</MATH> z danych doświadczalnych.
Dla tych wyników doświadczenia, które nie powinny być odrzucone funkcja z matematycznego punktu widzenia dla tego punktu powinna być wklęsła.
Funkcja Gausa dla <MATH>x\in (x_0-\sigma,x_0+\sigma)</MATH> jest funkcja wklęsła,a dla dopełnienia wcześniej przedstawionego wzoru jest wypukła.
 
Warto zauważyć, że definicja <MATH>\sigma</MATH> dana za pomocą momentu statystycznego o stopniu dwa czyli średnie odchylenie standardowe jest poprawna.
 
== Bibliografia ==
Siegmund Brandt: Analiza danych, metody statystyczne i obliczeniowe - PWN Warszawa 1999
 
B.M. Jaworski: A.A. Dietław Fizyka Poradnik encyklopedyczny - PWN Warszawa 1996
 
I.N. Bronsztejn: K.A.Siemiendiawjew Matematyka Poradnik encyklopedyczny - PWN Warszawa 1996
 
G.M.Fichtenholz: Rarunek różniczkowy i całkowy,tom 1 PWN Warszawa 1999
 
== Zobacz też ==
{{Wikiźródła|Tablica rozkładu normalnego|Tablicę rozkładu normalnego}}
* [[rozkład normalny wielowymiarowy]],
* [[centralne twierdzenie graniczne]],
* [[przegląd zagadnień z zakresu matematyki]],
* [[przegląd zagadnień z zakresu statystyki]]
 
[[:Kategoria:Twierdzenia matematyczne]]
[[:Kategoria:Rozkłady prawdopodobieństwa]]
[[:Kategoria:Dowody matematyczne]]
[[:Kategoria:Fizyka_matematyczna]]