Articles

valorile P exacte pentru compararea în perechi a sumelor de rang Friedman, cu aplicarea la compararea clasificatorilor

datele Friedman

pentru a efectua testul Friedman, datele observate sunt aranjate sub forma unui aspect complet bidirecțional, ca în Tabelul 1A, unde rândurile k reprezintă grupurile (clasificatorii) și coloanele n reprezintă blocurile (seturile de date).

Tabelul 1 aspect bidirecțional pentru testul Friedman

datele constau din n blocuri cu K observații în cadrul fiecărui bloc. Se presupune că observațiile din diferite blocuri sunt independente. Această ipoteză nu se aplică observațiilor k dintr-un bloc. Procedura de testare rămâne valabilă în ciuda dependențelor din interiorul blocului . Statistica testului Friedman este definită pe date clasate, astfel încât, cu excepția cazului în care datele brute originale sunt scoruri de rang cu valoare întreagă, datele brute sunt transformate în rang. Intrările de rang din tabelul 1B sunt obținute ordonând mai întâi datele brute {x ij ; i = 1, …, n, j = 1, …, k} în Tabelul 1A coloană de la cel mai mic la cel mai mare, în fiecare dintre n blocuri separat și independent, și apoi pentru a atribui numerele întregi 1,…,k ca scoruri de rang ale observațiilor k dintr-un bloc. Suma rândului rangurilor pentru orice grup j este suma rangului definită ca R j = xqtq n i = 1 r ij .

ipoteza nulă

ipoteza nulă generală a testului Friedman este că toate probele blocate k, fiecare de mărimea n, provin din distribuții identice, dar nespecificate ale populației. Pentru a specifica această ipoteză nulă mai detaliat, fie X ij denotă o variabilă aleatorie cu funcție de distribuție cumulativă necunoscută F ij și fie X IJ denotă realizarea lui X IJ .

ipoteza nulă poate fi definită în două moduri, în funcție de faptul dacă blocurile sunt fixe sau aleatorii . Dacă blocurile sunt fixe, atunci toate valorile de măsurare k-n sunt independente. Dacă există grupuri k repartizate aleatoriu pentru a deține k fără legătură x ij în cadrul fiecărui bloc, ca într-un design de bloc complet randomizat, atunci ipoteza nulă că grupurile k au distribuții identice poate fi formulată ca

H 0 : F I1(x) = … = F ik (x) = F i (x) pentru fiecare i = 1,…, n,

unde F I (x) este distribuția observațiilor din blocul I. Aceeași ipoteză, dar mai specifică, se obține dacă se presupune că modelul aditiv obișnuit a generat x ij în aspectul bidirecțional . Modelul aditiv descompune efectul total asupra valorii de măsurare într-un efect global, efect de bloc I , efect de bloc I, efect de grup J, efect de grup J, efect de grup J . În cazul în care funcția de distribuție este notată F IJ (x) = F(x − x − x − x-x-x-x-j ), ipoteza nulă a diferențelor dintre grupurile k poate fi enunțată ca

$$ {h}_0:\kern0.5EM {\tau}_1=\dots ={\tau}_k, $$

și ipoteza alternativă generală ca

\( {H}_1:\kern0.5EM {\tau}_{j_1}\ne {\tau}_{j_2} \) pentru cel puțin o pereche (J 1, J 2).

rețineți că această reprezentare afirmă, de asemenea, că funcțiile de distribuție subiacente F I1(x),…, F ik (x) din blocul i sunt aceleași, adică că F I1(x) = … = F Ik (x) = F I (x), pentru fiecare I fix = 1,…, n.

dacă blocurile sunt aleatorii, măsurătorile din același bloc aleatoriu vor fi corelate pozitiv. De exemplu, dacă un singur subiect formează un bloc și se fac observații k asupra subiectului, posibil în ordine randomizată, observațiile din interiorul blocului sunt dependente. O astfel de dependență apare într-un proiect de măsuri repetate în care se observă n subiecți și fiecare subiect este testat în condiții K. Indicați funcția de distribuție comună a observațiilor din blocul i prin F i (x 1, …, x k ). Atunci ipoteza nulă a lipsei de diferențe între grupurile k este ipoteza schimbabilității variabilelor aleatorii x I1, …, x ik , formulată ca

H 0 : F i (x 1, …, x k ) = F i (x 0tct(1), …, x xtct(k)) Pentru i = 1, …, n,

în cazul în care xtct(1), …, xtct(k) denotă orice permutare de 1, …, k. Modelul care stă la baza acestei ipoteze este că variabilele aleatorii x ij au o distribuție schimbabilă. Acesta este un model adecvat pentru măsuri repetate, în care nu este adecvat să ne asumăm independența într-un bloc . De asemenea, observăm că această formulare a ipotezei nule și cea pentru blocurile fixe sunt consecvente față de aceeași alternativă, și anume negarea lui H 0. Pentru o discuție detaliată a acestei chestiuni, a se vedea .

dacă blocurile sunt fixe sau aleatorii, dacă ipoteza nulă este adevărată, atunci toate permutările lui 1, …, k sunt la fel de probabile. Există k ! modalități posibile de a atribui scoruri de rang k grupurilor k din fiecare bloc și toate aceste permutări intra-bloc sunt echiprobabile sub H 0. Deoarece același argument de permutare se aplică fiecăruia dintre n blocuri independente, există (k !) n configurații de rang la fel de probabil ale scorurilor de rang r ij în aspectul bidirecțional . Fiecare dintre aceste permutări are o probabilitate de (k !)- n de a fi realizat. Această caracteristică este utilizată pentru a evalua distribuția nulă a sumelor de rang R j , prin enumerarea tuturor permutărilor aspectului bidirecțional al rangurilor.

Statistica testului Friedman

sub ipoteza nulă Friedman, suma așteptată a rândurilor pentru fiecare grup este egală cu n(k + 1) / 2. Statistica testului Friedman

$$ {x}_r^2=\frac{12}{NK\stânga( k+1\dreapta)}{\displaystyle \sum_{j=1}^k{\stânga \ {{r}_j-n \ stânga( k+1 \ dreapta) / 2 \ dreapta\}}^2} $$

însumează abaterile pătrate ale sumelor de rang observate pentru fiecare grup, R j , de la valoarea comună așteptată pentru fiecare grup, n(k + 1) / 2, în ipoteza că distribuțiile grupului k sunt identice. Pentru valori mici ale lui k și n, distribuția exactă a lui X 2 r a fost prezentată, de exemplu, de Friedman . Un algoritm pentru calcularea distribuției comune exacte a sumelor de rang Friedman sub nul este discutat în . Pentru cazul special al două probe pereche, a se vedea .

calcularea statisticii testului folosind distribuția nulă a (k !) n permutările posibile consumă mult timp dacă k este mare. Cu toate acestea, Friedman a arătat că , pe măsură ce n tinde spre infinit, x 2 r converge în distribuție la hectar 2 df = k − 1, o variabilă aleatorie chi-pătrat cu K − 1 grade de libertate. Acest rezultat este utilizat în testul asimptotic Friedman. Testul Friedman respinge H 0 la un nivel de semnificație pre-specificat de la x 2 r când statistica testului x depășește percentila de 100 (1-centi)a distribuției chi-pătrate limitative a lui X 2 r cu K − 1 grade de libertate . Statistica testului trebuie ajustată dacă există rânduri legate în blocuri . De asemenea, au fost propuse diverse modificări ale testului Friedman , de exemplu distribuția F ca alternativă la distribuția chi-pătrat, precum și generalizări, cum ar fi statistica testului Skillings-Mack pentru utilizare în prezența datelor lipsă. Acestea și diverse alte ajustări și concurenți neparametrici la testul Friedman (de exemplu, Kruskal-Wallis, Quade, Friedman aligned rangs test) nu sunt discutate aici (vezi ).

teste de comparație în perechi și diferență critică aproximativă

frecvent, cercetătorii nu sunt interesați doar de testarea ipotezei globale a egalității grupurilor, ci și, sau chiar mai mult, de inferența asupra egalității egalității perechilor de grupuri. Mai mult, chiar dacă cineva este interesat în principal de H 0 și ipoteza este respinsă, poate fi efectuată o analiză de urmărire pentru a determina posibilele motive ale respingerii. O astfel de analiză poate dezvălui diferențe de grup, dar ar putea dezvălui, de asemenea, că niciuna dintre perechi nu este semnificativ diferită, în ciuda unui rezultat semnificativ al testului la nivel global.

pentru a aborda aceste probleme, este oportun să se testeze ipoteze de egalitate pentru perechi de grupuri folosind teste de comparație simultane. Aceste proceduri de comparare multiplă pot implica, în comparații 1-n (sau multe − unu), testarea ipotezelor k-1 de egalitate a tuturor grupurilor non-control față de controlul studiului sau, în N − N-N (toate perechile) comparații, luând în considerare ipotezele k(k-1)/2 de egalitate între toate perechile de grupuri. Pentru ambele tipuri de comparații, au fost proiectate teste aproximative cu eșantion mare. Ele sunt derivate pentru situația în care n, numărul de blocuri (de exemplu, ‘dimensiunea eșantionului’), este mare.

Tabelul 2 prezintă testele aproximative ale diferenței critice (CD) pentru comparațiile 1 cu N și n Cu N cu N ale sumelor de rang Friedman, așa cum se recomandă în monografiile și lucrările foarte citate și în manualele populare privind statisticile neparametrice. Diferența critică este diferența minimă necesară în sumele de rang pentru ca o pereche de grupuri să difere la nivelul alfa de semnificație pre-specificat. Este de remarcat faptul că în multe publicații statistica CD este calculată folosind diferența dintre mediile sumelor de rang, adică R j /n, mai degrabă decât sumele de rang. Rezultatele sunt identice, deoarece fiecare grup are n observații, dacă formulele statistice ale testului sunt modificate corespunzător.

Tabelul 2 diferență critică recomandată (CD) teste aproximative pentru 1 hectolitru n și n Ecuator N comparații ale sumelor de rang Friedman

când ipoteza nulă de echidistribuție a rangurilor în n clasamente independente este adevărată, iar condiția unei dimensiuni mari a eșantionului este întâlnit, diferențele dintre sumele de rang sunt aproximativ distribuite în mod normal . Fie d = R i-r j, cu i XQQ j, să fie diferența de sumă de rang între o pereche de grupuri i și j. suportul diferenței de sumă de rang d Este închiderea . În ipoteza nulă, valoarea așteptată E (d) = 0 și varianța Var(d) = nk(k + 1)/6 . Deoarece distribuția lui d este simetrică în jurul lui E ( d) = 0, asimetria este zero, la fel ca toate momentele de ordine impare. Coeficientul de kurtoză, derivat de Whitfield ca

$$ \mathrm{Kurt}(d)=3-\frac{3}{5 n}-\frac{12}{5 n k}-\frac{6}{5 n k\stânga( k+1\dreapta)}, $$

este mai mic de 3 (adică, kurtoză în exces negativă), ceea ce înseamnă că distribuția diferenței de sumă discretă de rang are cozi mai subțiri decât în mod normal. Observați, totuși, că kurtosis tinde să 3 cu creșterea n, astfel o aproximare normală este rezonabilă. Aceasta implică faptul că d are o distribuție asimptotică n(0, Var( d)) și că deviația normală \ (d/\sqrt{\mathrm{Var} (d)} \) este asimptotică N (0, 1).

după cum se poate observa în tabelul 2, Testul aproximativ normal este recomandat de diverși autori atunci când toate grupurile trebuie comparate între ele în pereche. Acesta este, de asemenea, discutat de către DEM ca o statistică de testare pentru a fi utilizate atunci când toate grupurile sunt comparate cu un singur control. Rețineți că procedurile normale de testare controlează rata de eroare familywise de tip I prin împărțirea nivelului general de semnificație (XC) la numărul de comparații efectuate (de exemplu, c 1 la 1, XC) și C 2 la N, XC). Există concurenți mai puternici la această corecție de tip Bonferroni disponibilă, cum ar fi procedurile Holm, Hochberg și Hommel. Aceste metode de control al ratei globale de eroare fals pozitivă nu sunt elaborate în această lucrare. Pentru un tutorial în domeniul comparării Clasificatorului, a se vedea Derrac și colab. .

în plus față de aproximarea normală obișnuită, au fost propuse teste simultane care exploatează structura de covarianță a distribuției valorilor diferențelor în sumele de rang. În timp ce clasamentele n sunt reciproc independente sub H 0, sumele de rang și diferențele de sumă de rang sunt dependente și corelate, de asemenea. Corelația dintre diferențele de sumă de rang depinde de sumele de rang implicate. Mai exact, după cum a raportat Miller , când ipoteza nulă este adevărată

$$ \mathrm{c}\mathrm{o}\mathrm{r}\left({r}_i-{r}_j,{r}_i-{r}_l\right)={\scriptscriptstyle \frac{1}{2}}\kern2.25em i\ne j\ne l $$
$$ \mathrm{c}\mathrm{o}\mathrm{r}\left({r}_i-{r}_j,{r}_l-{r}_m\right)=0\Kern2.25em i\ne J\ne L\ne m. $$

prin urmare, corelația este zero pentru perechi de diferențe sumă rang cu nici un grup în comun, și 0,5 pentru perechi de diferențe cu un grup în comun pentru ambele diferențe. Numărul de perechi corelate scade pe măsură ce k crește. Pentru un studiu care implică grupuri k, proporția perechilor corelate este egală cu 4 / (k + 1) . Prin urmare, atunci când k = 7, de exemplu, 50% din perechi sunt corelate, dar când k = 79 doar 5% sunt corelate.

după cum s − a menționat în diferite studii (de exemplu, ), pentru comparații cu n de la 1 la sută această structură de corelație implică faptul că, atunci când H 0 este adevărat și n tinde spre infinit, distribuția diferențelor dintre sumele de rang ale grupului k − 1 și suma rangului de control coincide cu o distribuție normală asimptotică (k-1) cu mijloace zero. Prin urmare, valoarea diferenței critice poate fi aproximată prin statistica testului etichetată CD M în tabelul 2, Unde Constanta \ ({m}_{\alpha, DF = k-1, \ rho ={\scriptscriptstyle \ frac{1}{2}}} \) este punctul ath percentila superior pentru distribuția valorii maxime a(k − 1) egal corelate n (0,1) variabile aleatoare cu corelație comună \ (\rho ={\scriptscriptstyle \frac{1}{2}}. \ ) Procedura are o rată de eroare asimptotică familywise egală cu hectar .

pentru N comparații cu N, înseamnă că covarianța diferențelor de sumă de rang este egală cu covarianța diferențelor dintre k variabile aleatorii independente cu medii zero și varianțe nk(k + 1) / 12. Astfel, distribuția asimptotică a\(max\left\{\left|{r}_i-{r}_j\right|\right\}/\sqrt{NK\left (k+1 \ right)/12}\) coincide cu distribuția intervalului(Q k, inkt) al K independent n (0, 1) variabile aleatorii. Statistica de testare asociată este CD Q, unde Constanta Q XQ, df = k, XQQ este punctul ath percentila superior al distribuției intervalului Studentizat (q) cu gradele de libertate (k, XQQ). Din nou, deoarece testul ia în considerare diferența absolută a tuturor grupelor k simultan, rata de eroare asimptotică familywise este egală cu centimetrul .

testul statistic Friedman în sine dă naștere testului simultan menționat în rândul de jos al tabelului 2. Ipoteza nulă este acceptată dacă diferența dintre sumele de rang nu depășește valoarea critică \ (C{D}_{\chi^2}. \ ) Această aproximare asimptotică chi-pătrat este recomandată în unele manuale populare, deși Miller a susținut că declarația de probabilitate nu este cea mai clară dintre teste.

puterea statistică și testele alternative

rețineți că statisticile de testare CD prezentate în tabelul 2 nu necesită informații despre rândurile din interiorul blocului, așa cum sunt determinate în experiment. Mai degrabă, testele de rang simultane presupun că în cadrul fiecărui bloc fiecare observație este la fel de probabil să aibă orice rang disponibil. Când acest lucru este adevărat, cantitatea (k + 1)(k − 1)/12 este varianța clasamentului în interiorul blocului și NK(k + 1)/6 varianța diferenței dintre oricare două sume de rang . Prin urmare, distribuția nulă A d în populație are o medie zero și o abatere standard cunoscută. Acesta este motivul precis pentru care testele aproximative normale utilizează scorul z ca Statistică de testare. Cu toate acestea, este important să subliniem în acest context că rădăcina pătrată a nk(k + 1)/6 este abaterea standard A d atunci când ipoteza nulă generală este adevărată, dar nu și atunci când este falsă. Deține, similar cu valorile p, numai într-un anumit model, adică H 0; un model care poate fi sau nu adevărat. Dacă ipoteza nulă este falsă, cantitatea nk (k + 1)/6 este de obicei o supra-estimare a varianței și acest lucru face ca testele simultane, aproximative și exacte, să piardă puterea.

există teste de comparație în perechi pentru sumele de rang Friedman disponibile care sunt calculate pe scorurile de rang observate, mai degrabă decât pe sumele de rang. Aceste teste , cum ar fi testul Rosenthal-Ferguson și popularul test Conover, utilizează scorul t ca Statistică de testare. Testele t perechi sunt adesea mai puternice decât testele simultane discutate mai sus, cu toate acestea, există și dezavantaje. Pe scurt, testul Rosenthal-Ferguson folosește varianțele observate și covarianța scorurilor de rang ale fiecărei perechi individuale de grupuri, pentru a obține o eroare standard de d pentru testul semnificației diferenței de sumă de rang pereche. Această eroare standard este valabilă dacă ipoteza nulă a unei diferențe perechi este adevărată sau nu. Cu toate acestea, lângă constrângerea formală a testului că n ar trebui să fie mai mare decât k + 1, varianța lui d poate fi estimată slab, deoarece există de obicei puține grade de libertate disponibile pentru estimarea (co)varianței în aplicațiile de testare Friedman cu eșantion mic. Mai mult, varianțele (co)observate sunt diferite pentru fiecare pereche de grupuri. În consecință, nu rezultă din semnificația unei diferențe dintre o sumă de rang dată A și o altă sumă de rang B, că o sumă de rang al treilea C, mai diferită de A decât B este, ar fi, de asemenea, semnificativ diferită. Aceasta este o caracteristică neplăcută a testului.

testul Conover estimează deviația standard a lui d calculând o eroare standard cumulată din (co-)varianțele scorurilor de rang observate ale tuturor grupurilor, crescând astfel puterea statistică. Metoda este similară cu testul protejat de cea mai mică diferență semnificativă (LSD) al lui Fisher, aplicat scorurilor de rang. În această metodologie, nu se face nicio ajustare pentru testarea multiplă a valorilor p pentru a păstra rata de eroare familywise la nivelul nominal de semnificație. Mai degrabă, testul este protejat în sensul că nu se efectuează comparații în perechi, cu excepția cazului în care statistica generală a testului este semnificativă. Ca și în procedura LSD protejată de Fisher, testul Conover are proprietatea de a încorpora valoarea F observată a testului global în procesul de decizie inferențială. Cu toate acestea, spre deosebire de LSD protejat de Fisher, care folosește valoarea F observată numai într-o manieră 0-1 (‘go/no go’), testul Conover folosește valoarea F într-o manieră lină la calcularea LSD. Adică, are caracteristica neobișnuită că, cu cât este mai mare statistica generală a testului, cu atât este mai mic pragul de diferență cel mai puțin semnificativ pentru declararea unei diferențe de sumă de rang ca fiind semnificativă. Testul Duncan-Waller are aceeași caracteristică, dar acest test susține o abordare Bayesiană a comparațiilor multiple cu Bayes LSD. Deoarece testele de comparație din a doua etapă sunt condiționate de rezultatul primei etape, nivelul alfa nominal utilizat în testul Conover pereche nu are sens probabilistic real în sensul frecventist. După cum a remarcat Conover și Iman (: 2), ” din moment ce nivelul de la a doua etapă a testului nu este de obicei cunoscut, nu mai este un test de ipoteză în sensul obișnuit, ci mai degrabă doar un etalon convenabil pentru separarea unor tratamente de altele.”

distribuția exactă și calculul rapid al valorii p

prezentăm un test exact pentru compararea simultană în perechi a sumelor de rang Friedman. Distribuția exactă nulă este determinată folosind metoda funcției generatoare de probabilitate. Funcțiile generatoare oferă o modalitate elegantă de a obține distribuții de probabilitate sau frecvență ale statisticilor de testare fără distribuție . Aplicarea metodei funcției generatoare dă naștere la următoarea teoremă, a cărei dovadă se află în fișierul suplimentar 1.

Teorema 1 Pentru n clasamente cu valori întregi reciproc independente, fiecare cu scoruri de rang la fel de probabile variind de la 1 la k, probabilitatea exactă de a obține diferența pereche d pentru oricare două sume de rang este egală

$$ p\stânga( D= D; k, n\dreapta)={\left\{ k\left( k-1\right)\right\}}^ {- n} w\stânga( D= D; k, n\dreapta), $$

unde

$$ w\stânga( D= D; k, n\dreapta)={\stânga\{ k\stânga( k-1\dreapta)\dreapta\}}^n{\displaystyle \sum_{h=0}^n\stânga(\începe{array}{c}\hfill n\hfill \\ {}\hfill h\hfill \end{array}\dreapta)}\ \frac{1}{k^h{\stânga(1 – k\dreapta)}^n}{\displaystyle \sum_{i=0}^h{\displaystyle \sum_{j=0}^h{\left(-1\right)}^{\left( J – I\right)}}}\left(\begin{array}{c}\hfill h\hfill \\ {}\hfill i\hfill \end{array}\right)\left(\begin{array}{c}\hfill h\hfill \ end {array} \ right) \left (\begin{array} {c} \hfill h\hfill\end{array}\right)\left (\begin {array} {c}\hfill k\left( j – i \ right) – D+ H-1 \ hfill \\{}\hfill k\left (J – I \right) – d – h\hfill \ end {array} \ right) $$

este numărul de moduri distincte o diferență sumă rang de d poate apărea, cu D având suport pe d = .

fișierul suplimentar 1 oferă, de asemenea, o expresie în formă închisă pentru valoarea p exactă a lui d. valoarea p este definită ca probabilitatea de a obține un rezultat cel puțin la fel de extrem ca cel observat, având în vedere că ipoteza nulă este adevărată. Se obține ca suma probabilităților tuturor posibilelor d, pentru aceleași k și n, care sunt la fel de probabile sau mai puțin probabile decât valoarea observată a lui d Sub nul. Valoarea p exactă este notată P (d; k, n), și este calculat folosind expresia

$$ \ begin{array}{l} p \ left (D \ ge d; k, n\dreapta)={\displaystyle \sum_{h=0}^n\stânga(\începe{array}{c}\hfill n\hfill \\ {}\hfill h\hfill \end{array}\dreapta)}\ \frac{1}{k^h{\stânga(1 – k\dreapta)}^n}{\displaystyle \sum_{i=0}^h{\displaystyle \sum_{j=0}^h{\-1\dreapta)}^{\stânga(J – I\dreapta)}}}\stânga (\începe{array}{c}\hfill h\hfill \\ {}\hfill i\hfill \end{array}\dreapta)\stânga (\începe{array}{c}\hfill h\hfill \ end {array} \ dreapta) \stânga (\începe{array} {c} \hfill k\stânga (j – i\dreapta)- d+ h\hfill\\{}\hfill k\left( j – i \ right)- d – h \ hfill\end {array}\right),\\{} \kern27.5EM d=- n\left( K-1\ right),\ Dots, n\left( k-1\right).\ end{array} $$

calculul valorii p exacte cu această expresie de însumare triplă oferă o accelerare a ordinelor de mărime peste enumerarea completă a tuturor rezultatelor posibile și a probabilităților lor printr-o abordare de permutare a forței brute. Cu toate acestea, pentru valori mai mari ale lui n, calculul exact consumă oarecum timp și pentru a extinde intervalul practic pentru efectuarea testelor exacte, este de dorit să se calculeze valoarea p mai eficient.

de asemenea, deoarece în practică mai multe teste de comparație se referă la diferențe absolute, este oportun să se calculeze probabilitatea cumulativă a valorii absolute a diferențelor în sumele de rang. Deoarece numărul de puncte de masă ale distribuției simetrice a lui d este un număr întreg de forma 2n (k − 1) + 1, distribuția are un număr impar de probabilități. Aceasta implică faptul că, deoarece funcția de masă de probabilitate a lui d este simetrică în jurul valorii de zero, masa de probabilitate din stânga lui d = 0 poate fi pliată, rezultând o distribuție pliată a lui D non-negativ. În consecință, valoarea p unilaterală a non-negativului d în intervalul d= 1,…, n(k − 1) poate fi obținută ca suma celor două valori p unilaterale ale distribuției simetrice cu suport d = . Deoarece dublarea valorii p unilaterale duce la o valoare p pentru d = 0 care depășește unitatea, valoarea p pentru d = 0 (Numai) este calculată ca P(d 0; K, N) = P(D = 0) + p(d 1), iar aceasta este exact egală cu 1.

pentru a accelera calculul, transformăm însumarea dublă peste indicii i și j în expresia pentru P(D) D; K, n) într-o însumare peste un singur indice, S spune, folosind teorema 2. Dovada este dată în dosarul suplimentar 2.

Teorema 2 Pentru numere întregi nenegative d și k

$$ {\displaystyle \sum_{i=0}^h{\displaystyle \sum_{j=0}^h{\left(-1\right)}^{\left( j – I\right)}}}\left(\begin{array}{c}\hfill h\hfill \\ {}\hfill i\hfill \end{array}\dreapta)\stânga(\începe{array}{c}\hfill h\hfill \\ {}\hfill j\hfill \end{array}\dreapta)\stânga(\începe{array}{c}\hfill k\stânga( j – i\dreapta)- d+ h\hfill \\ {}\hfill k\stânga( j – i\dreapta)- d – h\hfill \end{array}\dreapta)={\displaystyle \sum_{s=0}^h{\left(-1\right)}^s}\left(\begin{array}{c}\hfill 2 h\hfill \\ {}\hfill h+ S\hfill \end{array}\right)\left(\begin{array}{c}\hfill k s- d + h \ hfill \ \ {} \ hfill k s-d-h \ hfill \ end{array} \ dreapta). $$

această reducere la o funcție de sumă individuală implică faptul că valoarea p poate fi calculată alternativ din expresia mult mai simplă

$$ p\left (D\ ge \ \ left / D \ right|; k, n\dreapta)=\stânga\{\începe{array}{c}\hfill 2\ {\displaystyle \sum_{h=0}^n\stânga(\începe{array}{c}\hfill n\hfill \\ {}\hfill h\hfill \end{array}\dreapta)}\frac{1}{k^h{\stânga(1 – k\dreapta)}^n}{\displaystyle \sum_{s=0}^h{\stânga(-1\dreapta)}^s\stânga(\începe{array}{c}\hfill 2 h\hfill \\ {}\hfill h+ S\hfill \end{array}\dreapta)\stânga(\începe{array}{c}\hfill KS – d+ h\hfill \\ {}\hfill KS – d – h\hfill \end{array}\dreapta)}, \kern1.8EM D=1,\Puncte, n\stânga( k-1\dreapta)\hfill \\ {}1\kern22.5EM d=0,\kern3em \end{array}\dreapta. $$

și, așa cum vom arăta, chiar și pentru valori mai mari ale lui n într-o manieră rapidă din punct de vedere al calculului.

Implementare Software

deși cele două expresii pentru valoarea p exactă sunt corecte din punct de vedere matematic, calculul simplu poate produce erori de calcul. Chiar și pentru valori moderate de N (20 sau cam asa ceva), coeficientul binomial care are d în indici poate deveni extrem de mare și stocarea acestor numere pentru înmulțirea ulterioară creează depășire numerică datorită limitării de precizie a aritmeticii cu precizie fixă. O modalitate de a aborda acest eșec este utilizarea unei relații de recurență care satisface funcția generatoare . Recursiunile pe care le-am examinat au fost totuși costisitoare din punct de vedere al calculului, cu excepția valorilor mici de n și/sau k. o modalitate mai rapidă de a calcula corect valoarea p exactă este utilizarea calcul aritmetic de precizie arbitrară pentru a face față numerelor care pot fi de dimensiuni mari arbitrare, limitate doar de memoria computerului disponibilă.

calculul valorii p a diferenței absolute de sumă de rang d dat k și n este implementat în R . Codul R, care necesită pachetul Rmpfr pentru a fi instalat aritmetica de înaltă precizie, se află în fișierul suplimentar 3. Scriptul etichetat pexactfrsd calculează valoarea p exactă P (d_cult |d/) și, în plus, oferă posibilitatea de a calcula probabilitatea P (D = / d/) și numărul (cumulativ) de compoziții ale lui d (adică W(D = |d|) și w(d_cult |d|)). Codul R și eventualele actualizări viitoare sunt de asemenea disponibile la http://www.ru.nl/publish/pages/726696/friedmanrsd.zip.

pentru a ilustra derivările, fișierul suplimentar 4 oferă un exemplu numeric de dimensiuni mici (k = 3, N = 2), iar fișierul suplimentar 5 tabulează numărul de compoziții ale lui d pentru combinații de k = N = 2,…,6, pentru includerea în OEIS . După cum se poate observa în fișierul suplimentar 5, pentru valori mici ale lui n distribuția simetrică desfășurată a lui d este bimodală, cu moduri la + 1 și − 1 . Această caracteristică dispare rapid pe măsură ce n crește, în mod specific, pentru k > 2 la n inkt 6.

în continuare, dacă nu se specifică altfel, vom considera valoarea diferenței de sumă de rang d ca fiind zero sau pozitivă, variind de la 0 la n(k − 1) și, astfel, vom arunca simbolul valorii absolute în jurul lui d.

clasamente Incomplete

deoarece clasamentele n {1,2,…,k} sunt reciproc independente, le putem împărți în două (sau mai multe) părți de dimensiuni egale sau inegale, etichetate (D 1; k, N 1) și (D 2; k, N 2), cu 2 T = 1 d t = d, și D T indicând diferențele în sumele de rang ale celor două părți. Valoarea p exactă poate fi obținută folosind

$$ p\stânga( D\ge d; k, n\dreapta)= p\stânga( D\ge d; k,{n}_1,{n}_2\dreapta)={\displaystyle \sum_{i=-{n}_1\stânga( k-1\dreapta)}^{n_1\stânga( k-1\dreapta)} p\stânga({d}_1= i; k,{n}_1\dreapta)}\ori p\stânga({d}_2\GE \stânga( D-I\dreapta); k,{n}_2\right), $$

unde – așa cum este indicat de limita inferioară a sumației – calculul este efectuat folosind expresia valorii p care permite negativul d. o proprietate unică și utilă a metodei exacte, care nu este împărtășită de metodele aproximative discutate, este că este ușor de calculat probabilitățile valorii p pentru desenele cu dimensiuni inegale ale blocurilor k; de exemplu, desenele în care n 1 are ranguri {1, 2, …, k 1} și N 2 ranguri {1, 2,…, K 2}, cu K 1 inkt k 2. O expresie generală pentru calcularea valorii p exacte în modele incomplete cu piese de dimensiuni inegale j este

$$ \begin{array}{l} p\left( D\ge d;{k}_1,{n}_1,{k}_2,{n}_2,\cdots, {k}_j,{n}_j\right)={\displaystyle \sum_{i_1=-{n}_1\left({k}_1-1\right)}^{n_1\stânga({k}_1-1\dreapta)}{\displaystyle \sum_{i_2=-{n}_2\stânga({k}_2-1\dreapta)}^{n_2\stânga({k}_2-1\dreapta)}\cdots {\displaystyle \sum_{i_{J-1}=-{n}_{j-1}\stânga({k}_{j-1}-1\dreapta)}^{n_{J-1}\stânga({k}_{j-1}-1\dreapta)}} p\stânga({D}_1={i}_1;{K}_1,{n}_1\dreapta) \ori }}\ \\ {}\kern4.25em \\ {}\kern4em p\stânga({d}_2={i}_2;{k}_2,{n}_2\dreapta)\ori \cdots \ori P\stânga({D}_{j-1}={i}_{j-1};{k}_{j-1},{n}_{j-1}\dreapta)\ori P\stânga({D}_j\ge \stânga( d-{i}_1-{i}_2\cdots -{i}_{j-1}\dreapta);{k}_j,{n}_j\dreapta),\end{array} $$

unde J T = 1 D T = D și un exemplu în care n este împărțit în trei părți, fiecare cu o valoare unică de k (k 1, K 2, K 3), este

$$ \begin{array}{l} p\left( D\ge d;{k}_1,{n}_1,{k}_2,{n}_2,{k}_3,{n}_3\dreapta)={\displaystyle \sum_{i=-{n}_1\stânga({k}_1-1\dreapta)}^{n_1\stânga({k}_1-1\dreapta)}{\displaystyle \sum_{j=-{n}_2\stânga({k}_2-1\dreapta)}^{n_2\stânga({k}_2-1\dreapta)} p\stânga({d}_1= i;{k}_1,{n}_1\dreapta) \ori }}\\ {}\\ {}\kern13.5EM P\stânga({D}_2= j;{k}_2,{n}_2\dreapta)\ori P\stânga({d}_3\ge \stânga( d – I – j\dreapta);{k}_3,{n}_3\dreapta).\end{array} $$

deși funcțiile sum încetinesc calculul, această caracteristică unică a calculului exact al valorii p permite efectuarea testelor de semnificație simultane valide ori de câte ori unele rânduri din interiorul blocului lipsesc prin proiectare. Astfel de teste ar fi greu de realizat folosind una dintre metodele de aproximare a eșantioanelor mari. Un exemplu empiric va fi dat în secțiunea de aplicații.

valorile P exacte și medii

deoarece diferențele pereche cu suport pe d = sunt distribuite simetric în jurul valorii de zero sub H 0, dublarea valorii p unilaterale este cea mai naturală și populară alegere pentru un test exact obișnuit. Un test care utilizează valoarea p exactă garantează că probabilitatea comiterii unei erori de tip i nu depășește nivelul nominal de semnificație. Cu toate acestea, deoarece rata de eroare de tip I este întotdeauna sub nivelul nominal, un test de semnificație cu valoarea p exactă este o abordare conservatoare a testării, mai ales dacă testul implică o distribuție foarte discretă . Valoarea p medie, definită în mod obișnuit ca jumătate din probabilitatea unei statistici observate plus probabilitatea unor valori mai extreme, adică

$$ {p}_{\mathrm{mid}}\left( D\ge d; k, n\right)={\scriptscriptstyle \frac{1}{2}} p\left( D= D\right)+ P\left( D> d\dreapta), $$

ameliorează această problemă. Valoarea p medie este întotdeauna mai aproape de nivelul nominal decât valoarea p exactă, în detrimentul depășirii ocazionale a dimensiunii nominale.

clasamente legate

valoarea p medie poate fi, de asemenea, utilizată pentru a gestiona clasamentele legate. Când legăturile apar în blocuri, midrank-ul (adică media rangurilor) este atribuit în mod obișnuit fiecărei valori legate. Dacă, ca rezultat al rangurilor legate, diferența de sumă de rang observată este o valoare întreagă D plus 0,5, valoarea p poate fi obținută ca medie a valorilor p exacte ale numerelor întregi adiacente d și d + 1, adică \( {\scriptscriptstyle \frac{1}{2}}\left,\) și aceasta este echivalentă cu valoarea p medie. Este de remarcat faptul că probabilitatea rezultată nu este exact validă. Valorile P exacte reprezintă probabilitățile exacte de frecvență ale anumitor evenimente, iar valorile P medii nu au o astfel de interpretare a frecvenței. Cu toate acestea, se poate argumenta că acest dezavantaj interpretativ nu prezintă o preocupare practică și că utilizarea valorilor p medii este o abordare aproape exactă a frecvenței. Pentru o discuție despre alte tratamente ale legăturilor în testele de rang, vezi .