1.4 Das Kugelvolumen abschätzen

Wir können die Ergebnisse der letzten beiden Teilkapitel so zusammenfassen: sei C{0,1}n ein größtmöglicher Code mit Blocklänge n und Abstand Δ(C)d+1. Dann gilt

2nΦ(n,d)|C|2nΦ(n,d2)

oder, logarithmisch ausgedrückt:

(1)1log2Φ(n,d)nR(C)1log2Φ(n,d/2)n

Wir werden nun einigermaßen scharfe Schranken für Φ(n,r) herleiten, insbesondere wenn der Radius r=ρn linear in n ist, was ja oben der Fall ist. Hierfür brauchen wir die binäre Entropiefunktion H(x):

H:[0,1][0,1]pplog2(1p)+(1p)log2(11p) .

Hier sehen die den Graphen der Funktion:

Wichtig ist auch die Funktion 2H(p):

2H(p)=(1p)p(11p)1p ,

deren Graph auch recht ähnlich aussieht, nur etwas spitzer und mit Werten zwischen 1 und 2:

Theorem 1.4.1 Sei r{1,,n} und ρ:=r/n. Falls ρ1/2 ist, gilt

1n+12nH(ρ)Φ(n,r)2nH(ρ)

Falls ρ1/2 ist, gilt 2nn+1Φ(n,r)2n.

Beweis. Wir beweisen zuerst die obere Schranke. Wenn ρ1/2 ist, dann gilt Φ(n,r)2n trivialerweise. Betrachten wir also den Fall ρ1/2. Nehmen wir eine Münze, die auf der einen Seite mit 1 und auf der anderen mit 0 beschriftet ist, die aber nicht fair ist: sie soll mit Wahrscheinlichkeit ρ eine 1 anzeigen. Wir werfen die Münze n mal. Die Wahrscheinlichkeit, dass genau k mal eine 1 geworfen wurde, ist

(nk)ρk(1ρ)nk

Die Wahrscheinlichkeit, dass höchstens r Einsen geworfen wurden, ist

(2)k=0r(nk)ρk(1ρ)nk

Nun schrumpft ρk(1ρ)nk mit wachsendem k (da ρ1/2 ist) und somit gilt

k=0r(nk)ρk(1ρ)nkk=0r(nk)ρd(1ρ)nr=ρd(1ρ)nrΦ(n,r)

Auf der anderen Seite ist (2) ja eine Wahrscheinlichkeit und ist somit höchstens 1. Es gilt daher ρr(1ρ)nrΦ(n,r)1. Wenn wir das nach Φ(n,r) auflösen, erhalten wir

Φ(n,r)(1ρ)ρn(11ρ)nρn=[(1ρ)ρ(11ρ)1ρ]n=2H(ρ)n

Untere Schranke. Wir zeigen etwas stärkeres, nämlich eine untere Schranke für (nr), also die äußerste "Schale" der Hammingkugel. Wir betrachten wieder das Münzenszenario

(nr)ρr(1ρ)nr.

Dies ist die Wahrscheinlichkeit, dass wir genau r Einsen bekommen, wenn jede Münze uns mit Wahrscheinlichkeit r/n eine Eins gibt. Im Erwartungswert bekommen wir natürlich genau r Einsen, also ist es vielleicht gar nicht so unwahrscheinlich, dass wir genau r Einsen bekommen. Und in der Tat: r ist von allen Zahlen die wahrscheinlichste. Formal:

Behauptung. Sei 0k,rn und ρ=r/n. Dann gilt

(nk)ρk(1ρ)nk(nr)ρr(1ρ)nr.

Beweis. Sei Tk:=(nk)ρk(1ρ)nk. Wir vergleichen Tk und Tk+1:

Tk+1Tk=(nk+1)ρk+1(1ρ)nk1(nk)ρk(1ρ)nk=(nk+1)ρ(nk)(1ρ)=n!ρ(k+1)!(nk1)!k!(nk)!n!(1ρ)=(nk)ρ(k+1)(1ρ)=(nk)r(k+1)(nr)

Wenn nun also kr gilt dann ist nknr und k+1r+1 und somit ist Tk+1Tk<1. Also Tr>Tr+1>Tr+2>.... Ist nun aber kr1, dann gilt nknr+1 und k+1r und somit ist Tk+1Tk>1. Daher: Tr>Tr1>Tr2>. Der Term Tr ist also größer als jeder andere, und somit auch TrTk.

Da wir die Behauptung nun bewiesen haben, können wir folgern:

k=0n(nk)ρk(1ρ)nk=k=0nTkk=0nTr=(n+1)Tr .

Auf der anderen Seite ist natürlich die linke Seite genau 1 (das sehen Sie mit der binomischen Formel für (ρ+(1ρ))n oder einfach daran, dass es die Wahrscheinlichkeit ist, dass die Zahl der geworfenen Einsen zwischen 0 und n liegt), und somit gilt 1(n+1)Tr, also

(nr)ρr(1ρ)nr=Tr1n+1 .

Lösen wir nun nach (nr) auf:

(nr)1n+1(1ρ)r(11ρ)nr=1n+12H(ρ)n .

Da Φ(n,r)(nr), haben wir die untere Schranke im Theorem bewiesen.

Da wir im Zusammenhang mit Codes und deren Rate (siehe (1)) interessiert sind, übersetzen wir das obige Theorem in seine logarithmische Variante:

Theorem (logarithmische Version) 1.4.2. Sei rn/2 und ρ=r/n. Dann gilt

H(ρ)log2(n+1)nlog2Φ(n,r)nH(ρ)

Wir haben nun also die relativ-logarithmische Größe von Φ(n,r) bis auf einen o(1)-Term festgenagelt. Fügen wir nun diese Schranke in (1) ein:

Theorem 1.4.3 (Gilbert-Varshamov bound und Hamming bound, asymptotisch-logarithmische Version). Für δ[0,1] sei Cn{0,1}n ein größtmöglicher Code mit Blocklänge n und Abstand Δ(Cn)δn+1. Dann gilt

1H(δ)R(C)1H(δ2)+o(1)

Die Kurve, entlang der die Rate eines optimalen Codes verläuft, ist immer noch nicht bekannt. Allerdings werden wir im Verlauf des Seminars bessere Schranken kennenlernen und somit die "graue Zone" im obigen Bild verkleinern.