Reddit-SiliconValleyHBO-fogalmilag érti valaki a középső tömörítést?
Ez nem valós, ez kitalált.
a veszteségmentes adattömörítési algoritmusok nem garantálják az összes bemeneti adatkészlet tömörítését. Más szavakkal, minden veszteségmentes adattömörítési algoritmus esetében lesz egy bemeneti adatkészlet, amely nem lesz kisebb, ha az algoritmus feldolgozza, és minden olyan veszteségmentes adattömörítési algoritmus esetében, amely legalább egy fájlt kisebbé tesz, legalább egy fájl lesz, amelyet nagyobbá tesz. Ez könnyen bizonyítható elemi matematikával egy számlálási argumentum segítségével, az alábbiak szerint:
tegyük fel, hogy minden fájl tetszőleges hosszúságú bitsorként van ábrázolva.Tegyük fel, hogy van egy tömörítési algoritmus, amely minden fájlt átalakít egy kimeneti fájlba, amely nem hosszabb, mint az eredeti fájl, és hogy legalább egy fájlt tömörít egy kimeneti fájlba, amely rövidebb, mint az eredeti fájl.
legyen M a legkisebb szám, hogy legyen egy fájl F hosszúságú m bitek ami valami rövidebbre tömörül. Legyen N az F tömörített változatának hossza (bitben).
mivel N< M, minden n hosszúságú fájl megtartja méretét a tömörítés során. 2N ilyen fájl van. Együtt F, ez teszi 2N + 1 fájlokat, amelyek mind a 2n hosszúságú fájlok egyikébe tömörülnek N.
De 2n kisebb, mint 2n + 1, tehát a pigeonhole elvnek kell lennie valamilyen hosszúságú fájlnak N ez egyidejűleg a tömörítési funkció kimenete két különböző bemeneten. Ezt a fájlt nem lehet megbízhatóan kicsomagolni (a két eredeti közül melyiknek kell eredményeznie?), amely ellentmond annak a feltételezésnek, hogy az algoritmus veszteségmentes volt.
ezért arra a következtetésre kell jutnunk, hogy eredeti hipotézisünk (miszerint a tömörítési függvény nem tesz hosszabb fájlt) szükségszerűen nem igaz.
https://en.wikipedia.org/wiki/Lossless_compression#Limitations
https://en.wikipedia.org/wiki/Kolmogorov_complexity