Reddit-SiliconValleyHBO-are cineva conceptual înțelege mijloc de compresie?
nu este real, este inventat.
algoritmii de compresie a datelor fără pierderi nu pot garanta compresia pentru toate seturile de date de intrare. Cu alte cuvinte, pentru orice algoritm de compresie a datelor fără pierderi, va exista un set de date de intrare care nu se micșorează atunci când este procesat de algoritm, iar pentru orice algoritm de compresie a datelor fără pierderi care face cel puțin un fișier mai mic, va exista cel puțin un fișier pe care îl face mai mare. Acest lucru este ușor de dovedit cu matematica elementară folosind un argument de numărare, după cum urmează:
Să presupunem că fiecare fișier este reprezentat ca un șir de biți de o anumită lungime arbitrară.Să presupunem că există un algoritm de compresie care transformă fiecare fișier într-un fișier de ieșire care nu mai este decât fișierul original și că cel puțin un fișier va fi comprimat într-un fișier de ieșire care este mai scurt decât fișierul original.
fie M cel mai mic număr astfel încât să existe un fișier F cu lungime m biți care se comprimă la ceva mai scurt. Fie n lungimea (în biți) a versiunii comprimate a lui F.
deoarece n<M, fiecare fișier de lungime N își păstrează dimensiunea în timpul compresiei. Există 2N astfel de fișiere. Împreună cu F, acest lucru face ca fișierele 2n+1 să se comprime într-unul din fișierele 2n de lungime N.
dar 2N este mai mic decât 2n+1, deci prin principiul porumbelului trebuie să existe un fișier de lungime N care este simultan ieșirea funcției de compresie pe două intrări diferite. Acest fișier nu poate fi decomprimat în mod fiabil (care dintre cele două originale ar trebui să producă acest randament?), care contrazice presupunerea că algoritmul a fost fără pierderi.prin urmare, trebuie să concluzionăm că ipoteza noastră inițială (că funcția de compresie nu mai face niciun fișier) este neapărat neadevărată.
https://en.wikipedia.org/wiki/Lossless_compression#Limitations
https://en.wikipedia.org/wiki/Kolmogorov_complexity