Articles

Reddit-SiliconValleyHBO-er der nogen begrebsmæssigt forstå midten ud kompression?

det er ikke rigtigt, det er sammensat.

tabsfri datakomprimeringsalgoritmer kan ikke garantere komprimering for alle inputdatasæt. Med andre ord, for enhver tabsfri datakomprimeringsalgoritme vil der være et inputdatasæt, der ikke bliver mindre, når det behandles af algoritmen, og for enhver tabsfri datakomprimeringsalgoritme, der gør mindst en fil mindre, vil der være mindst en fil, som den gør større. Dette er let bevist med elementær matematik ved hjælp af et tælleargument som følger:

Antag, at hver fil er repræsenteret som en streng af bits af en vis vilkårlig længde.Antag, at der er en komprimeringsalgoritme, der omdanner hver fil til en outputfil, der ikke er længere end den originale fil, og at mindst en fil komprimeres til en outputfil, der er kortere end den originale fil.

lad M være det mindste antal, så der er en fil F med længde m bits, der komprimerer til noget kortere. Lad N være længden (i bits) af den komprimerede version af F.

fordi N<M, hver fil med længde n holder sin størrelse under komprimering. Der er 2N sådanne filer. Sammen med F gør dette 2n+1-filer, som alle komprimeres til en af 2n-filerne med længde N.

men 2n er mindre end 2n+1, så ved duehulsprincippet skal der være en fil med længde N, der samtidig er output fra komprimeringsfunktionen på to forskellige indgange. Denne fil kan ikke dekomprimeres pålideligt(hvilken af de to originaler skal det give?), hvilket modsiger antagelsen om, at algoritmen var tabsfri.

Vi må derfor konkludere, at vores oprindelige hypotese (at komprimeringsfunktionen ikke gør nogen fil længere) nødvendigvis er usand.

https://en.wikipedia.org/wiki/Lossless_compression#Limitations

https://en.wikipedia.org/wiki/Kolmogorov_complexity