Reddit-SiliconValleyHBO-rozumí někdo koncepčně střední kompresi?
není to skutečné, je to vymyšlené.
bezeztrátové algoritmy komprese dat nemohou zaručit kompresi pro všechny soubory vstupních dat. Jinými slovy, pro každou lossless dat kompresní algoritmus, bude vstupní soubor dat, který není menší, když zpracovává algoritmus, a pro všechny lossless dat kompresní algoritmus, který dělá alespoň jeden soubor menší, tam bude alespoň jeden soubor, který je větší. To lze snadno prokázat pomocí elementární matematiky pomocí argumentu počítání takto:
Předpokládejme, že každý soubor je reprezentován jako řetězec bitů libovolné délky.Předpokládám, že tam je kompresní algoritmus, který transformuje každý soubor do výstupního souboru, který není delší než původní soubor, a to alespoň jeden soubor bude komprimován do výstupního souboru, který je kratší než původní soubor.
Nechť M je nejmenší číslo takové, že existuje soubor F s délkou m bitů, který komprimuje na něco kratšího. Nechť N je délka (v bitech) komprimované verze F.
protože N< M, každý soubor délky N si během komprese udržuje svou velikost. Existují 2N takové soubory. Spolu s F, to dává 2N+1 všechny soubory, které komprimovat do jedné z 2N soubory o délce N.
Ale 2 je menší než 2N+1, takže rozškatulkovat princip musí být nějaký soubor délky N, který je současně výstup kompresní funkce na dvě různé vstupy. Tento soubor nelze spolehlivě dekomprimovat(který z těchto dvou originálů by měl přinést?), což je v rozporu s předpokladem, že algoritmus byl bezeztrátový.
musíme proto dojít k závěru, že naše původní hypotéza (že kompresní funkce již nevytváří soubor) je nutně nepravdivá.
https://en.wikipedia.org/wiki/Lossless_compression#Limitations
https://en.wikipedia.org/wiki/Kolmogorov_complexity