Nem értek hozzá: mindazonáltal ahhoz, hogy egy módszerről megmondhassuk, hogy használható-e vagy sem, nagyszámú, megismételhető mérést kell végezni és ebből lehet megmondani, hogy mennyire pontos. (Ez annak, aki már mért életében, az az 1.0-ás változat)
Mi következik ebből?
Csak annyi, hogy a műszer szerkesztőinek képesnek kell lenni meghatározni, hogy az adott módszerrel pl. 98% -os biztonsággal állapítható meg a kavlitatív válasz, azaz itt pl. egy igen/nem.
Ha a jogászok kitalálják, hogy nekik mennyi az a konfidenciaszint, amit már el tudnak fogadni (az USA-ban nehéz lesz, mert ott "kétséget kizáró módon" kell bizonyítani a bűnösséget, azaz ha már biztosak abban, hogy az elkövető egy ember volt és a Földön 6 milliárdan élünk, akkor PUSZTÁN EZZEL a módszerrel az összes többi embert ki kellene tudnunk zárni a gyanúsítotti körből.
Ehhez bizonyítnunk kellene, hogy készülékünk az adott paramétert 1 - 0,000 000 006 = 99,9999994 % -os biztonsággal tudja mérni.
(A DNS vizsgálatot azért "szeretik", mert a DNS annyira speciális, hogy elég hosszú darabját szekvenálva már annyira egyedi, hogy teljesíti ezt a fektételt, u.i.
a négy DNS-t alkoltó bázis 6 milliárdot meghaladó féle variációjához az
y x lg 4 = 9 x lg 6
egyenletet kellene megoldanunk, ami nem nem túl bonyolult:
y = 9 x (lg 6 / lg 4)
11 < y < 12,
azaz összesen - elvben - egy 12 bázisból álló, ugyanarról a DNS ugyanarról a helyéről származó DNS minta elegendő lenne egy kétséget kizáró bizonytásra. )
A számítógépek korában ezt könnyű kezelni, azpnban egy nagy különbség van: a DNS álladó, míg az emberi tudat igen-igen változó és ha az eredményt még egy másik ember tudatán keresztül tudhatjuk csak meg, akkor igencsak szkeptikusoknak kell lennünk.