Прва Шенонова теорема

Од testwiki
Преработка од 19:40, 3 август 2023; направена од imported>Lili Arsova (#WPWPMK #WPWP)
(разл) ← Претходна преработка | Последна преработка (разл) | Следна преработка → (разл)
Прејди на прегледникот Прејди на пребарувањето
Бинарен канал за бришење

Првата Шенонова теорема ги воспоставува границите на можната компресија на податоци, и ѝ дава практично значење на Шеноновата ентропија. Оваа теорема ја докажал Клод Шенон во 1948 година, и заклучил дека не е можно да се изврши компресија, а просечниот број битови по симбол да биде помал од ентропијата на изворот на дадените симболи или ќе дојде до губење на информација. Меѓутоа можно е да се врши компресија при што бројот на битови по симбол ќе биде приближен на ентропијата на изворот со мала веројатност за губење информација. Поточно, оваа теорема покажува дека со кодирање на секвенци од изворот со помош на код со одреден алфабет може сигурно со декодирање да се добијат изворните симболи.[1][2][3]

Дискретен извор без меморија

Дискретен извор без меморија (Предлошка:Lang-en) чиј излeз е случајна променлива a, која зема реализации од конечен алфабет А=(а1, а2... ар) со веројатности P[i], i=1,2...n. Симболите се појавуваат по некој случаен распоред, во константни или променливи временски растојанија.

Кодирање

Код е преведувањње на низа влезни симболиу во низа симболи. Кодот е еднозначно декодабилен доколку не постојат два кодни збора со конечна должина кои чинат иста секвенца, поблаг критериум е ниеден збор да не е префикс на некој друг збор.

Позитивен став

За DMS со алфабет А и ентропија Н(А)=Н за секое N од множеството природни броеви пости еднозначно декодабилен код кој се состои од бинарни секвенци со должина ln[a], a е вектор од An(n-торка од A) <ln>= ΣPn[a]ln[a]NH+o(N)

каде сумата оди по An

Очекуваната должина на кодните зборови. о(N) претставува член кој со N расте поспоро од линеарно.

Негативен став

Не постои случај да

<ln><NH

Доказ

Позитивен став

Сите N-торки од An може еднозначно да се кодираат со бинарни ln-торки доколку

2ln1<rN 2ln

од што следува дека

ln=Nld(r)

Нека An се подели на подмножества S(N,e) и S(N,e)

Како во лемата АЕР секој елемент од S(N,e) може да се кодира со ln

каде според АЕP тоа изнесува

ln=N(H+e)

за сигурно да се добие префиксен код на секој елемент од S(N,e) му се доделува 0, а на елемент од S(N,e) 1.

Просечната должина на вака добиен код е:

<ln>=(ln+1)P[aS(N,e)]+(ln+1)P[aS(N,e)]

=1+(ln)P[1aS(N,e)]+(ln)P[aS(N,e)]

1+(ln)+(ln)P[aS(N,e)]

па се добива

NH+Ne+2+Nldrσ2/Ne2

и за е=N1/3 се добива

<ln>NH+N2/3+2+(N2/3ldr+N1/3ldr)σ2

па

o(N)=N2/3+2+(N2/3ldr+N1/3ldr)σ2

е функција која расте поспоро од линеарно и следи дека

<ln>=AnPn[a]ln[a]NH+o(N)

Негативен став

Се дефинира распределба

Qn[a]=2ln[a]/A2ln[a]

и следи

NH(A)=AnPn[a]*ld(1/Pn[a])

AnPn[a]*ld(1/Qn[a])

=AnPn[a]*ldA2ln[a]/2ln[a]

=AnPn[a]ln[a]+AnPn[a]ldA2ln[a]

познато е дека <ln>=AnPn[a]ln[a]

AnPn[a]ldA2ln[a]1

според Крафт МакМилановата нееднаквост следи

NH<ln>

Наводи

Предлошка:Наводи

Литература

Надворешни врски

  1. C.E. Shannon, "A Mathematical Theory of Communication Предлошка:Семарх", Bell System Technical Journal, vol. 27, pp. 379–423, 623-656, July, October, 1948
  2. David J. C. MacKay. Information Theory, Inference, and Learning Algorithms Cambridge. Предлошка:Page1.
  3. Предлошка:Harvnb