Articles

tarkat p-arvot Friedman rank-lukujen parivertailulle, soveltaen luokittelijoiden vertailuun

Friedmanin tietojen vertailuun

Friedmanin testin suorittamiseksi havaitut tiedot on järjestetty täydellisen kaksisuuntaisen asettelun muodossa, kuten taulukossa 1a, jossa K-rivit edustavat ryhmiä (luokittelijoita) ja n-sarakkeet edustavat lohkoja (tietokokonaisuuksia).

Taulukko 1 Friedmanin testin kaksisuuntainen asettelu

tiedot koostuvat n-lohkoista, joiden sisällä on K-havaintoja. Eri lohkojen havaintojen oletetaan olevan toisistaan riippumattomia. Tämä oletus ei päde lohkon sisällä oleviin k-havaintoihin. Testimenettely pysyy voimassa lohkon sisäisistä riippuvuuksista huolimatta . Friedmanin testin tilastotiedot on määritelty paremmuusjärjestykseen merkityillä tiedoilla, joten ellei alkuperäinen raakadata ole kokonaisluku-arvoasteikko, raakadata on arvoasteikko. Taulukon 1B rivimerkinnät saadaan järjestämällä ensin taulukon 1A sarakkeen raakatiedot {x ij ; i = 1, …, n, j = 1, …, k} pienimmästä suurimpaan kussakin n-lohkossa erikseen ja itsenäisesti, minkä jälkeen kokonaisluvut 1,…, k merkitään k-havaintojen rivipisteiksi lohkossa. Minkä tahansa ryhmän J rivien summa on rivisumma, joka määritellään r j = ∑ n i = 1 R ij .

nollahypoteesi

Friedmanin testin yleinen nollahypoteesi on, että kaikki K-Estetyt näytteet, kukin kooltaan n, tulevat identtisistä mutta määrittelemättömistä populaatiojakaumista. Täsmentääksemme tätä nollahypoteesia tarkemmin, merkitköön X ij satunnaismuuttujan, jolla on tuntematon kumulatiivinen jakaumafunktio F ij ,ja merkitköön X ij sen toteutumista.

nollahypoteesi voidaan määritellä kahdella tavalla riippuen siitä, ovatko lohkot kiinteitä vai satunnaisia . Jos lohkot ovat kiinteitä, kaikki K × n mittausarvot ovat riippumattomia. Jos k-ryhmiä on satunnaistettu pitämään K: n liittymätöntä X ij : ää kussakin lohkossa, kuten satunnaistetussa kokonaislohkon rakenteessa, voidaan nollahypoteesi, että K-ryhmillä on identtiset jakaumat, muotoilla

H 0: F i1(x) = … = F ik (x) = F i (x) jokaiselle i = 1,…, n,

missä F i (x) on i: nnen lohkon havaintojen jakauma . Sama hypoteesi, mutta tarkempi, saadaan, jos tavallisen additiivimallin oletetaan synnyttäneen X ij: n kaksisuuntaisessa asettelussa . Additiivinen malli hajottaa kokonaisvaikutuksen mittausarvoon kokonaisvaikutukseksi μ, lohko i-vaikutukseksi β i ja ryhmä j-vaikutukseksi τ j . Jos jakaumafunktio merkitään F ij (x) = F(x − μ − β I − τ J ), voidaan K-ryhmien välisten erojen nollahypoteesi ilmoittaa muodossa

$$ {h}_0:\kern0.5em {\tau}_1=\dots ={\tau}_k, $$

ja yleinen vaihtoehtoinen hypoteesi muodossa

\( {H}_1:\kern0.5EM {\Tau}_{j_1}\ne {\Tau}_{j_2} \) vähintään yhdelle (J 1, J 2) parille.

huomaa, että tämän esityksen mukaan myös alla olevat jakaumafunktiot F i1(x),…, F ik (x) lohkon I sisällä ovat samat eli että F i1(x) = … = F ik (x) = F i (x), jokaiselle kiinteälle I = 1,…, n.

Jos lohkot ovat satunnaisia, samasta satunnaislohkosta tehdyt mittaukset korreloivat positiivisesti. Esimerkiksi jos yksittäinen subjekti muodostaa lohkon ja subjektista tehdään k-havaintoja, mahdollisesti satunnaistetussa järjestyksessä, lohkon sisäiset havainnot ovat riippuvaisia. Tällainen riippuvuus esiintyy toistuvassa toimenpidesuunnitelmassa, jossa n-koehenkilöitä tarkkaillaan ja jokaista koehenkilöä testataan k-olosuhteissa. Merkitse lohkon i havaintojen yhteinen jakaumafunktio F i: llä (x 1,…, x k). Tällöin nollahypoteesi, jossa K-ryhmien välillä ei ole eroja, on satunnaismuuttujien X i1,…, X ik vaihdettavuushypoteesi, joka on muotoiltu muotoon

H 0 : F i (x 1, …, x k ) = F i (x σ(1), …, x σ(k)), Kun I = 1,…, n,

, missä σ(1),…, σ(K) tarkoittaa mitä tahansa 1,…, k: n permutaatiota. Hypoteesin taustalla on malli, jonka mukaan satunnaismuuttujilla X ij on vaihtuva jakauma. Tämä on sopiva malli toistuville toimenpiteille, joissa ei ole tarkoituksenmukaista olettaa itsenäisyyttä tietyn blokin sisällä . Voimme myös huomata, että tämä muotoilu nollahypoteesi ja yksi kiinteän lohkojen ovat johdonmukaisia vastaan sama vaihtoehto, eli negaatio H 0. Yksityiskohtainen keskustelu tästä asiasta, KS .

ovatko lohkot kiinteitä vai satunnaisia, jos nollahypoteesi on tosi, niin kaikki permutaatiot 1, …, k ovat yhtä todennäköisiä. Tuolla on k ! mahdolliset tavat antaa K-ranking pisteet k-ryhmille kunkin lohkon sisällä ja kaikki nämä lohkon sisäiset permutaatiot ovat varustettavissa H 0: lla. Koska sama permutaatioargumentti pätee jokaiseen n: n itsenäiseen lohkoon, on olemassa (k !) n yhtä todennäköinen sijoitus kokoonpanot sijoitus pisteet R ij kaksisuuntainen asettelu . Jokaisella näistä permutaatioista on todennäköisyys (k !)- n toteutumisesta. Tätä ominaisuutta käytetään arvioimaan rivisummien nollajakaumaa RJ luettelemalla kaikki rivien kaksisuuntaisen asettelun permutaatiot.

Friedmanin testin tilastollinen

Friedmanin nollahypoteesin mukaan kunkin ryhmän oletettu rivien summa on n(k + 1) / 2. Friedmanin testin tilasto

$$ {X}_r^2=\frac{12}{nk\left( k+1\right)}{\displaystyle \sum_{j=1}^k{\left\{{r}_j – n\left (k + 1\right)/2\right\}}^2} $$

summaa kunkin ryhmän Havaittujen rivisummien, R j, neliöpoikkeamat kunkin ryhmän yhteisestä odotusarvosta n (k + 1) / 2, olettaen, että k-ryhmän jakaumat ovat identtiset. Pienille K: n ja n: n arvoille X 2 r: n tarkkaa jakaumaa on esittänyt esimerkiksi Friedman . Algoritmi computing tarkka yhteinen Jakelu, Friedman rank summia alle null on keskusteltu . Kahden parillisen näytteen erityistapaus, KS .

lasketaan testin tilastollinen arvo käyttäen nollajakaumaa (k !) n mahdolliset permutaatiot ovat aikaa vieviä, jos k on suuri. Friedman kuitenkin osoitti, että koska n pyrkii äärettömyyteen , x 2 r konvergoituu jakaumassa χ 2 df = k − 1: ksi, joka on K-1: n vapausasteella varustettu chi − neliöinen satunnaismuuttuja. Tätä tulosta käytetään asymptoottisessa Friedmanin testissä. Friedmanin testi hylkää H 0: n ennalta määritellyllä merkitsevyystasolla α, kun testin tilastollinen X 2 r ylittää x 2 r: n rajoittavan khiin potenssijakauman 100(1-α)TH − prosenttipisteen vapausasteella k-1 . Testitilastoa on muutettava, jos lohkojen sisällä on tasapisteitä . Friedmanin testiin on ehdotettu myös erilaisia muutoksia , esimerkiksi F-jakaumaa vaihtoehtona chi-potenssijakaumalle, sekä yleistyksiä, kuten Skillings-Mack-testin statistiikkaa käytettäväksi puuttuvien tietojen läsnä ollessa. Näitä ja erilaisia muita säätöjä ja ei-parametrisia kilpailijoita Friedmanin testiin (esim.Kruskal-Wallis, Quade, Friedman aligned Rives test) ei käsitellä tässä (KS.).

Parivertailutestit ja likimääräinen kriittinen ero

usein tutkijat eivät ole kiinnostuneita ainoastaan testaamaan maailmanlaajuista hypoteesia ryhmien tasa-arvosta, vaan myös, tai vielä enemmän, päättelemään ryhmien parien tasa-arvosta. Edelleen, vaikka joku olisi lähinnä kiinnostunut H 0: sta ja hypoteesi hylätään, voidaan suorittaa seuranta-analyysi mahdollisten hylkäämisen syiden selvittämiseksi. Tällainen analyysi voi paljastaa ryhmien eroja, mutta se voi myös paljastaa, että yksikään pareista ei ole merkittävästi erilainen huolimatta maailmanlaajuisesti merkittävästä testituloksesta.

näiden kysymysten ratkaisemiseksi on tarkoituksenmukaista testata hypoteeseja tasa-arvosta ryhmäpareille samanaikaisten vertailutestien avulla. Nämä monivertailumenetelmät voivat sisältää 1 × n (tai monta-yksi) vertailussa kaikkien ei − kontrolliryhmien yhdenvertaisuushypoteesien testaamista tutkimuskontrollia vastaan tai N × N(kaikki parit) vertailussa kaikkien ryhmien yhdenvertaisuushypoteeseja K (k-1)/2. Molempia vertailutyyppejä varten on suunniteltu suuren otoksen likimääräisiä testejä. Ne johdetaan tilanteesta, jossa n, lohkojen lukumäärä (eli ”otoskoko”), on suuri.

taulukossa 2 esitetään critical difference (CD)-likimääräiset testit Friedman Rankin summien 1 × n-ja N × n-vertailuille, kuten suositetaan paljon siteeratuissa monografioissa ja papereissa sekä suosituissa nonparametristen tilastojen oppikirjoissa. Kriittinen ero on pienin vaadittu arvoasteikkojen ero, jotta ryhmäpari voi erota ennalta määritellyllä merkitsevällä alfatasolla. On huomattava, että monissa julkaisuissa CD-tilasto lasketaan rank sum-keskiarvojen erotuksen eli R j /n: n avulla eikä rank-summien avulla. Tulokset ovat samat, koska jokaisella ryhmällä on n-havaintoja, jos testin tilastollisia kaavoja muutetaan asianmukaisesti.

Taulukko 2 Recommended critical difference (CD) approximate tests for 1 × n and N × N comparison of Friedman rank summes

When the null hypothesis of equidistribution of sights in n independent rankings is true, and the condition of a large otos size is tapasi, sijoitussummien erot jakautuvat suunnilleen normaalisti . Olkoon d = R i-R j, jossa i ≠ j, ryhmäparin i ja j rankinsummaero. rankinsummaeron d tuki on sulkeuma . Nollahypoteesin mukaan odotusarvo E (d) = 0 ja varianssi Var(d) = NK(k + 1)/6 . Koska D: n jakauma on symmetrinen noin E(d) = 0, skewness on nolla, kuten kaikki parittomat kertaluvun momentit. Kurtoosin kerroin, jonka Whitfield on määrittänyt seuraavasti:

$$ \mathrm{Kurt}(d)=3-\frac{3}{5 n}-\frac{12}{5 n k}-\frac{6}{5 n k\left( k+1\right)}, $$

on pienempi kuin 3 (eli negatiivinen ylimäärä kurtoosia), mikä tarkoittaa, että diskreetin arvoerotuksen jakauma on ohuempi klaava kuin normaalisti. Huomaa kuitenkin, että kurtoosi pyrkii 3: een lisääntyvällä n: llä, joten normaali approksimaatio on kohtuullinen. Tämä merkitsee sitä, että d: llä on asymptoottinen N(0, Var(D)) jakauma ja että normaalipoikkeama \( d/\sqrt{\mathrm{Var}(d)} \) on asymptoottisesti N(0, 1).

kuten taulukosta 2 käy ilmi, useat kirjoittajat suosittelevat normaalia likimääräistä testiä, kun kaikkia ryhmiä verrataan toisiinsa pareittain. Demšar puhuu myös testitilastona, jota käytetään, kun kaikkia ryhmiä verrataan yhteen kontrolliin. On huomattava, että normaaleilla testimenetelmillä kontrolloidaan perhekohtaista tyypin I virhetasoa jakamalla merkitsevyyden yleinen taso α tehtyjen vertailujen määrällä (eli c 1: ssä 1 × n: ssä ja C 2: ssa N × N: n vertailuissa). On olemassa tehokkaampia kilpailijoita tämän Bonferroni-tyyppinen korjaus käytettävissä, kuten Holm, Hochberg, ja Hommel menettelyjä. Tässä asiakirjassa ei käsitellä näitä menetelmiä väärien positiivisten virheiden kokonaismäärän valvomiseksi. Saat opetusohjelma valtakunnassa luokittelija vertailu, katso Derrac et al. .

tavallisen normaalin approksimaation lisäksi on ehdotettu samanaikaisia testejä, jotka hyödyntävät rankkasummien erojen arvojen jakauman kovarianssirakennetta. Siinä missä n-rankingit ovat keskenään riippumattomia H 0: n alla, ovat rankingsummat ja rankingsummaerot riippuvaisia ja korreloivat myös keskenään. Rank-summaerojen välinen korrelaatio riippuu rank-summista. Erityisesti Millerin ilmoittamana, kun nollahypoteesi on tosi

$$ \mathrm{C}\mathrm{o}\mathrm{r}\left({r}_i-{r}_j, {r}_i-{r}_l\right)={\scriptscriptstyle \frac{1}{2}}\kern2.25em i\ne j\ne l $$

$$ \mathrm{C}\mathrm{O}\mathrm{R}\Left({r}_i-{r}_j, {R}_l-{R}_m\right)=0\kern2.25em i\ne j\ne l\ne m. $$

näin ollen korrelaatio on nolla pareille, joilla on rivieroja, joilla ei ole yhteistä ryhmää, ja 0,5 eropareille, joilla on yksi ryhmä, joka on yhteinen molemmille eroille. Korreloivien parien määrä vähenee k: n kasvaessa. Tutkimuksessa, jossa oli mukana k-ryhmiä, korreloivien parien osuus on 4/(k + 1) . Näin ollen kun k = 7, esimerkiksi, 50% pareista ovat korreloivat, mutta kun k = 79 vain 5% ovat korreloivat.

kuten useissa tutkimuksissa (esim.,) on todettu, 1 × n − vertailuissa tämä korrelaatiorakenne merkitsee sitä, että kun h 0 on tosi ja n pyrkii äärettömyyteen, K − 1-ryhmän rank-summien ja kontrollin rank-summan erojen jakauma yhtyy asymptoottiseen (k-1) – variate-normaalijakaumaan nolla-keskiarvolla. Kriittistä erotusarvoa voidaan siis approksimoida taulukon 2 testitilastolla CD M, jossa vakio \ ({m}_{\alpha, df= k-1,\rho ={\scriptscriptstyle \frac{1}{2}}} \) on (k − 1) yhtäläisesti korreloivien n(0,1) satunnaismuuttujien enimmäisarvon jakauman ylempi ath-prosenttipiste, jolla on yhteinen korrelaatio \( \Rho ={\scriptscriptstyle \frac{1}{2}}. \ ) Menetelmässä on asymptoottinen perhevirhemäärä, joka on yhtä suuri kuin α .

n × N-vertailuissa se tarkoittaa, että rankkasumaerojen kovarianssi on yhtä suuri kuin K-riippumattomien satunnaismuuttujien, joilla on nolla-keskiarvot, ja varianssien NK(k + 1) / 12 erojen kovarianssi. Näin ollen \( max\left\{\left|{R}_i-{R}_j\right|\right\}/\sqrt{nk\left( k+1\right)/12}\): n asymptoottinen jakauma yhtyy K: sta riippumattomien N (0, 1) satunnaismuuttujien vaihteluvälin(Q k,∞) jakaumaan. Tähän liittyvä testin statisti on CD Q, jossa vakio Q α, df = k,∞ on Studentioidun alueen (q) jakauman ylempi Ath-prosenttipiste (k, ∞) vapausasteilla . Jälleen, koska testissä tarkastellaan kaikkien k-ryhmien absoluuttista eroa samanaikaisesti, asymptoottinen familywise-virhetaso on α .

itse Friedmanin tilastotesti johtaa taulukon 2 alarivillä mainittuun samanaikaiseen testiin. Nollahypoteesi hyväksytään, jos arvoasteikkojen erotus ei ylitä kriittistä arvoa \ (C{D}_{\chi^2}. \ ) Tätä asymptoottista khiin neliötä approksimaatiota suositellaan joissakin suosituissa oppikirjoissa, vaikka Miller on väittänyt, että todennäköisyyslauseke ei ole testien terävin.

tilastollinen teho ja vaihtoehtoiset testit

huomaa, että taulukossa 2 esitetyt CD-testitilastot eivät edellytä tietoa kokeessa määritetyistä lohkon sisäisistä luokista. Sen sijaan samanaikaisissa sijoituskokeissa kaikki olettavat, että jokaisessa lohkossa jokaisella havainnolla on yhtä todennäköisesti jokin käytettävissä oleva sijoitus. Kun tämä on totta, Suure (k + 1) (k − 1)/12 on lohkon sisäisen rankingin varianssi ja nk (k + 1)/6 minkä tahansa kahden rankingsumman erotuksen varianssi . Näin ollen D: n nollajakaumalla populaatiossa on nolla keskiarvo ja tunnettu keskihajonta. Tämä on juuri se syy, miksi normaaleissa likimääräisissä testeissä käytetään Z-pistettä testitilastona. Tässä yhteydessä on kuitenkin tärkeää korostaa, että nk: n neliöjuuri(k + 1)/6 on D: n keskihajonta silloin, kun yleinen nollahypoteesi on tosi, mutta ei silloin, kun se on epätosi. Sillä on P-arvojen tapaan vain tietty malli eli H 0; malli, joka voi olla tai ei ole tosi. Jos nollahypoteesi on epätosi, Suure nk (k + 1)/6 on tyypillisesti yli-estimaatti varianssille, ja tämä aiheuttaa samanaikaisten testien, likimääräisten ja eksaktien, tehon häviämisen.

Friedman rank-summille on olemassa parivertailutestejä, jotka lasketaan havaituista rank-pisteistä rank-summien sijaan. Näissä testeissä, kuten Rosenthal-Fergusonin testissä ja suositussa Conoverin testissä , käytetään T-pistettä testitilastona. Pairwise t-testit ovat usein tehokkaampia kuin samanaikaiset testit edellä, mutta on myös haittoja. Lyhyesti sanottuna Rosenthal-Ferguson-testissä käytetään kunkin yksittäisen ryhmäparin rankingpisteiden havaittuja variansseja ja kovariansseja, jotta saadaan D: n keskivirhe testille, jolla mitataan pairwise-ranking-summan ero. Tämä keskivirhe on pätevä riippumatta siitä, onko nollahypoteesi parierosta tosi vai ei. Testin muodollisen rajoituksen lisäksi, jonka mukaan n: n on oltava suurempi kuin k + 1, D: n varianssi voidaan kuitenkin arvioida huonosti, koska Friedmanin pienen näytteen testisovelluksissa (co-)varianssin estimointiin on tyypillisesti vain vähän vapausasteita. Lisäksi havaitut (co -) varianssit ovat erilaisia jokaisella ryhmäparilla. Näin ollen ei voida päätellä siitä, mikä merkitys on erotuksella tietyn arvoasteikon summa a toisesta arvoasteikosta summa B, että kolmas arvo summa C, joka eroaa enemmän A: sta kuin B on, olisi myös merkittävästi erilainen. Tämä on testin epämiellyttävä piirre.

Conoverin testissä arvioidaan D: n keskihajonta laskemalla kaikkien ryhmien Havaittujen rankingpisteiden (co-)variansseista yhdistetty keskivirhe, mikä lisää tilastollista tehoa. Menetelmä on samankaltainen kuin Fisherin protected Least Significant Difference (LSD) – testi, jota sovelletaan ranking-pisteisiin. Tässä menetelmässä P-arvoihin ei tehdä mukautuksia usean testin ajaksi, jotta familywise-virhetaso säilyisi merkitsevyyden nimellisellä tasolla. Testi on pikemminkin suojattu siinä mielessä, että parivertailuja ei tehdä, ellei testin kokonaistilasto ole merkittävä. Kuten Fisher protected LSD-menettelyssä, Conoverin testillä on ominaisuus sisällyttää havaittu F-arvo koko testistä pääteltyyn päätöksentekoprosessiin. Toisin kuin Fisherin suojatussa LSD: ssä, joka käyttää havaittua F-arvoa vain 0-1 (”go/no Go”), Conoverin testissä käytetään F-arvoa sujuvasti LSD: tä laskettaessa. Toisin sanoen sillä on se epätavallinen ominaisuus, että mitä suurempi testin kokonaistilasto on, sitä pienempi on vähiten merkitsevä erotuskynnys, jotta arvoasteikon suuruus voidaan julistaa merkittäväksi. Duncan-Wallerin testissä on tämä sama ominaisuus, mutta tämä testi puoltaa Bayesilaista lähestymistapaa monivertailuihin Bayes LSD: n kanssa. Koska toisen vaiheen vertailutestit riippuvat ensimmäisen vaiheen tuloksesta, pairwise Conoverin testissä käytetyllä nimellisellä alfatasolla ei ole todellista probabilistista merkitystä frequentistisessa mielessä. Kuten Conover ja Iman ovat todenneet (: 2), ”koska toisen vaiheen testin α-tasoa ei yleensä tunneta, se ei ole enää hypoteesikoe tavanomaisessa merkityksessä, vaan pikemminkin vain kätevä mittapuu joidenkin hoitojen erottamiseksi toisista.”

tarkka jakauma ja nopea p-arvon laskeminen

esitämme tarkan testin Friedman Rankin summien samanaikaiselle parivertailulle. Tarkka nollajakauma määritetään todennäköisyyslaskentafunktiomenetelmällä. Generoivat funktiot tarjoavat elegantin tavan saada jakaumattomien testitilastojen todennäköisyys-tai taajuusjakaumat . Generoivan funktion menetelmän soveltamisesta seuraa seuraava lause, jonka todistus on Lisätiedostossa 1.

lause 1 n keskenään riippumattomalle kokonaislukuarvostetulle rankingille, joissa kummassakin on yhtä todennäköinen sijoitusasteikko 1: stä k: hon, tarkka todennäköisyys saada parierotus d mille tahansa kahdelle rankingsummalle on

$$ p\left( D= d; k, n\right)={\left\{ k\left( k-1\right)\right\}}^ {- n} W\left( D= d; k, n\right), $$

missä

$$ w\Left( d= d; k, n\right)={\left\{ k\left( k-1\right)\right\}}^n{\displaystyle \sum_{h=0}^n\left(\begin{array}{c}\hfill n\hfill \\ {}\hfill\end{array} \right)}\\ frac{1}{k^h {\left(1 – k\right)}^n} {\displaystyle\sum_{i=0}^h {\displaystyle\sum_{J=0}^h {\left(-1\right)}^{\left( j – i\right)}}\left (\begin{array} {C}\hfill I\hfill\end {array} \ right) \ left (\begin{array} {C}\hfill h \hfill\end{array}\right) (\begin {array} {C}\hfill k\left( j – i \ right)- D+ H-1 \ hfill \\{} \hfill k\left( j – i\right)- d – h\hfill\end{array}\right) $$

on erillisiä tapoja rank summa ero d voi syntyä, jossa d on tukea d = .

Lisätiedosto 1 tarjoaa myös suljetun muodon lausekkeen D: n eksaktille p-arvolle. p-arvo määritellään todennäköisyydeksi saada vähintään yhtä äärimmäinen tulos kuin havaittu, koska nollahypoteesi on tosi. Se saadaan kaikkien mahdollisten D: n todennäköisyyksien summana samalle k: lle ja n: lle, jotka ovat yhtä todennäköisiä tai vähemmän todennäköisiä kuin havaittu D: n arvo nollassa. Tarkka p-arvo merkitään P (d ≥ d; k, n), ja se lasketaan käyttäen lauseketta

$$ \begin{array}{l} p\left (d\ge d; k, n\right)={\displaystyle \sum_{h=0}^n\left(\begin{array}{c}\hfill n\hfill \\ {}\hfill\end{array} \right)}\\ frac{1}{k^h {\left(1 – K\right)}^n} {\displaystyle\sum_{i=0}^h {\displaystyle\sum_{j=0}^h {\left(-1\right)}^{\left( j – i\right)}}\left (\begin{array} {C}\hfill I\hfill\end {array} \ right) \ left (\begin{array} {C}\hfill h \hfill\end{array}\right)\left (\begin {array} {C}\hfill k \ left( j – i \ right)- d+ h\hfill\\{}\hfill k\left( j – i\right)- d – h\hfill\end{array}\right),\ \ {} \ kern27.5EM D=- n\left( K-1\right),\Dots, n\left( K-1 \right).\end{array} $$

laskemalla tarkka p-arvo tällä kolminkertaisella yhteenlaskulausekkeella saadaan suuruusluokkien nopeus kaikkien mahdollisten lopputulosten ja niiden todennäköisyyksien täydelliselle luetteloinnille brute-force permutaatiolla. Suurempien n-arvojen kohdalla tarkka laskeminen on kuitenkin jonkin verran aikaa vievää, ja tarkkojen testien suorittamiseen käytettävän käytännön vaihteluvälin laajentamiseksi on suotavaa laskea p-arvo tehokkaammin.

myös, koska käytännössä monivertailutesteissä on kyse absoluuttisista eroista, on tarkoituksenmukaista laskea arvoasteikkojen erojen itseisarvon kumulatiivinen todennäköisyys. Koska D: n symmetrisen jakauman massapisteiden lukumäärä on kokonaisluku muotoa 2n(k − 1) + 1, jakaumalla on pariton määrä todennäköisyyksiä. Tämä merkitsee sitä, että koska D: n todennäköisyysmassafunktio on symmetrinen nollan tienoilla, voidaan todennäköisyysmassa d = 0: n vasemmalle puolelle taittaa, jolloin saadaan ei-negatiivisen D: n taitettu jakauma. Näin ollen ei-negatiivisen d: n yksipuolinen p-arvo alueella d = 1, …, n(k-1) voidaan saada symmetrisen jakauman kahden yksipuolisen p − arvon summana tuella d = . Koska yksipuolisen p-arvon kaksinkertaistaminen johtaa P-arvoon d = 0, joka ylittää ykseyden, lasketaan p-arvo d = 0 (vain): lle p(d ≥ 0; k, n) = P(D = 0) + P(d ≥ 1), ja tämä on täsmälleen yhtä suuri kuin 1.

laskennan nopeuttamiseksi muunnamme P: n(d ≥ d; k, n) indeksien i ja j kaksoissumman yhden indeksin summaksi, s sano käyttäen lausetta 2. Todiste on esitetty Lisätiedostossa 2.

lause 2 nonnegatiivisille kokonaisluvuille d ja k

$$ {\displaystyle \sum_{i=0}^h{\displaystyle \sum_{j=0}^h{\left(-1\right)}^{\left( j – i\right)}}\left(\begin{array} {c}\hfill h\hfill \ \ {} \hfill i\hfill \end{array}\right)\left(\begin{array} {C}\hfill h\hfill \ end {array} \ right) \left (\begin{array} {C} \hfill k\left( J – I\right)- d+ h\hfill\\{}\hfill k\left( J – I \ right)- d – h \ hfill\end {array}\right)={\displaystyle\sum_ {s=0}^h {\left(-1\right)}^s}\left (\begin {array} {C}\hfill 2 h\hfill\\{}\hfill h+ S\hfill \ end {array} \ right) \left (\begin{array} {C} \hfill k s- d+ h\hfill \\ {}\hfill k s-d-h\hfill \end{array}\right). $$

tämä vähennys yksisummafunktioon tarkoittaa, että p-arvo voidaan vaihtoehtoisesti laskea paljon yksinkertaisemmasta lausekkeesta

$$ p\left (d\ge\ \left| d \ right|; k, n\right)=\left\{\begin{array}{C}\hfill 2\ {\displaystyle \sum_{H=0}^n\left(\begin{array}{c}\hfill n\hfill \\ {}\hfill\\{array}\right)}\frac{1}{k^h{\left(1 – k\right)}^n}{\displaystyle \sum_{s=0}^h{\left(-1\right)}^s\left(\begin{array}{C}\hfill 2 h\hfill \\ {}\hfill h+ S\hfill \end{array}\right)\left(\begin{array}{C}\hfill KS – d+ h\hfill \\ {}\hfill ks – d – h\hfill \end{array}\right)}, \kern1.8em d=1,\Dots, n\left( K-1\right)\hfill \\ {}1\kern22.5EM d=0,\kern3em \end{array}\right. $$

ja, kuten tulemme osoittamaan, jopa suuremmille arvoille n laskennallisesti nopeasti.

ohjelmiston toteutus

vaikka tarkan p-arvon kaksi lauseketta ovat matemaattisesti oikein, suoraviivainen laskenta voi tuottaa laskuvirheitä. Jopa kohtalaisille arvoille n (20 tai niin) binomikerroin, jolla on D indekseissä, voi tulla erittäin suureksi ja näiden lukujen tallentaminen myöhempää kertolaskua varten luo numeerisen ylivuodon kiinteän tarkkuuden aritmetiikan tarkkuusrajoituksen vuoksi. Yksi tapa korjata tämä vika on käyttää toistumisen suhde, joka täyttää generoivan funktion . Rekursiot tutkimme olivat kaikki laskennallisesti kallista ajaa, kuitenkin, lukuun ottamatta pieniä arvoja n ja/tai k. nopeampi tapa laskea tarkka p-arvo oikein on käyttää mielivaltainen-tarkkuus aritmeettinen laskenta käsitellä numeroita, jotka voivat olla mielivaltaisen suuri koko, rajoittaa vain käytettävissä tietokoneen muistia.

k: n ja n: n absoluuttisen rankkasumman erotuksen p-arvo lasketaan R: ssä . R-koodi, joka vaatii paketin Rmpfr korkean tarkkuuden aritmeettinen on asennettu, on ylimääräinen tiedosto 3. Script merkitty pexactfrsd laskee tarkka p-arvo P(d ≥ |d|), ja lisäksi antaa mahdollisuuden laskea todennäköisyys P (D = |d|), ja (kumulatiivinen) useita koostumuksia d(toisin sanoen, W(D = |d|) ja W (D ≥ |D|)). R-koodi ja mahdolliset tulevat päivitykset löytyvät myös osoitteesta http://www.ru.nl/publish/pages/726696/friedmanrsd.zip.

derivointien havainnollistamiseksi Lisätiedosto 4 tarjoaa pienikokoisen numeerisen esimerkin (k = 3, n = 2), ja lisätiedosto 5 taulukoi D: n kompositioiden määrän yhdistelmille k = N = 2,…, 6,jotka sisällytetään OEIS: ään . Kuten Lisätiedostosta 5 voidaan nähdä, N: n pienille arvoille avautumaton D: n symmetrinen jakauma on bimodaalinen, ja moodit ovat + 1 ja − 1 . Tämä ominaisuus häviää nopeasti n: n kasvaessa, erityisesti K > 2, Kun n ≥ 6.

jäljempänä, ellei toisin mainita, pidämme arvojärjestyksen summa − erotusta d joko nollana tai positiivisena, vaihdellen 0: sta n: ään(k-1), ja pudotamme näin itseisarvosymbolin D: n ympärille.

keskeneräiset rankingit

koska n rankingit {1,2,…,k} ovat keskenään riippumattomia, voimme jakaa ne kahteen (tai useampaan), yhtä suureen tai epätasa-arvoiseen osaan, jotka on merkitty (D 1; k, N 1) ja (D 2; k, N 2) siten, että ∑ 2 t = 1 D T = D, ja D t ilmaisee näiden kahden osan sijoitussummien erot. Tarkka p-arvo saadaan käyttämällä

$$ p\left( d\ge D; k, n\right)= P\left( d\ge d; k, k, {n}_1, {n}_2\right)={\displaystyle \sum_{i=-{n}_1\left( k-1\right)}^{n_1\left( k-1\right)} P\left({d}_1= i; k, {n}_1\right)}\kertaa p\left({d}_2\GE \left( d – i\right); k,{n}_2\right), $$

missä – kuten yhteenlaskun alarajoista ilmenee – laskenta suoritetaan käyttäen p-arvon lauseketta, joka mahdollistaa negatiivisen D: n. eksaktin menetelmän ainutlaatuinen ja hyödyllinen ominaisuus, jota ei ole jaettu likimääräisillä menetelmillä, on se, että on helppo laskea p-arvon todennäköisyydet sellaisille kuvioille, joiden lohkokoot ovat epäyhtenäiset k; esim.mallit, joissa n 1 on riveissä {1, 2,…, K 1} ja n 2 riveissä {1, 2,…, K 2}, K 1 ≠ K 2. Yleinen lauseke tarkan p-arvon laskemiseksi epätäydellisissä kuvioissa, joiden osat ovat J, on

$$ \begin{array}{L} P\left( d\ge d;{k}_1, {n}_1, {k}_2, {n}_2,\cdots, {k}_j, {n}_j\right)={\displaystyle \sum_{i_1=-{n}_1\left({k}_1-1\right)}^{n_1\Left({k}_1-1\right)}{\displaystyle \sum_{i_2=-{n}_2\Left({K}_2-1\right)}^{n_2\left({k}_2-1\right)}\cdots {\displaystyle \sum_{i_{J-1}=-{n}_{j-1}\left({k}_{j-1}-1\right)}^{n_{J-1}\left({k}_{j-1}-1\right)}} p\left({d}_1={i}_1;{K}_1, {n}_1\right) \times }}\ \\ {}\kern4.25em \\ {}\kern4em P\left({d}_2={I}_2;{k}_2,{n}_2\right)\times \cdots \times P\left({d}_{j-1}={i}_{j-1};{k}_{j-1},{n}_{j-1}\right)\times p\left({d}_j\ge \left( d-{i}_1-{i}_2\cdots -{i}_{j-1}\right);{k}_j,{n}_j\right),\end{array} $$

missä ∑ J T = 1 D T = D, ja esimerkki, jossa n on jaettu kolmeen osaan, joiden kunkin yksilöllinen arvo on K (K 1, K 2, K 3), on

$$ \begin{array}{l} p\left( d\ge d;{k}_1,{n}_1,{k}_2,{n}_2,{k}_3,{n}_3\right)={\displaystyle \sum_{i=-{n}_1\left({k}_1-1\right)}^{n_1\left({k}_1-1\right)}{\displaystyle \sum_{j=-{n}_2\left({k}_2-1\right)}^{n_2\left({k}_2-1\right)} p\Left({d}_1= i;{k}_1,{n}_1\right) \times }}\\ {}\\ {}\kern13. 5em p\left ({D}_2= j;{k}_2,{n}_2\right)\times P\left ({D}_3\ge \left (D – i – j\right);{k}_3,{n}_3\right).\end{array} $$

vaikka summafunktiot hidastavat laskentaa, tämä eksaktien p-arvojen laskennan ainutlaatuinen ominaisuus mahdollistaa validien samanaikaisten merkitsevyystestien suorittamisen aina, kun osa lohkon sisäisistä riveistä puuttuu suunnitellusti. Tällaisia testejä olisi vaikea suorittaa käyttämällä yhtä suuren näytteen likiarvomenetelmää. Empiirinen esimerkki annetaan Sovellusosassa.

Eksaktit ja keskitason p-arvot

koska pareittain erot D=: n tuella jakautuvat symmetrisesti nollan tuntumaan H 0: ssa, yksipuolisen p-arvon kaksinkertaistaminen on luonnollisin ja suosituin valinta tavalliseen eksaktiin testiin. Testi, jossa käytetään tarkkaa p-arvoa, takaa, että tyypin I virheen todennäköisyys ei ylitä nimellistä merkitsevyystasoa. Koska tyypin I virhetaso on kuitenkin aina alle nimellisen tason, merkitsevyystesti, jossa on tarkka p-arvo, on konservatiivinen lähestymistapa testaukseen, varsinkin jos testiin liittyy erittäin diskreetti jakauma . Keskimmäinen p-arvo, joka yleisesti määritellään puoleksi havaitun tilastollisen todennäköisyyden ja ääriarvojen todennäköisyyden summaksi, eli

$$ {p}_{\mathrm{mid}}\left( d\ge D; k, n\right)={\scriptscriptstyle \frac{1}{2}} P\left( D= D\right)+ P\left( d> d\right), $$

ameliorates this problem. Keskimmäinen p-arvo on aina lähempänä nimellistä tasoa kuin tarkka p-arvo, sillä kustannuksella, että se joskus ylittää nimelliskoon.

sidottu ranking

puolivälissä olevaa P-arvoa voidaan käyttää myös sidottujen rankingien käsittelyyn. Kun sidokset tapahtuvat lohkojen sisällä, keskiranka (eli rivien keskiarvo) on yleensä osoitettu jokaiselle sidotulle arvolle. Jos sidottujen rivien seurauksena havaittu arvojärjestyksen summa-erotus on kokonaisluku D + 0,5, voidaan p-arvo saada vierekkäisten kokonaislukujen D ja d + 1 eksaktien P-arvojen keskiarvona eli \( {\scriptscriptstyle \frac{1}{2}}\left,\) Ja tämä vastaa p-arvon keskitasoa. On huomattava, että tuloksena todennäköisyys ei ole täsmälleen voimassa. Tarkat p-arvot edustavat tiettyjen tapahtumien täsmällisiä frekvenssitodennäköisyyksiä, eikä P-arvojen keskivaiheilla ole tällaista frekvenssitulkintaa. Voidaan kuitenkin väittää, että tämä tulkinnallinen haitta ei juurikaan aiheuta käytännön huolta ja että P-arvojen keskitason käyttö on lähes tarkka frekvenssilähestymistapa. Keskustelu muista sidosten käsittelyistä rankkaritesteissä, KS .