Wir können die Ergebnisse der letzten beiden Teilkapitel so zusammenfassen: sei $C^* \subseteq \cube^n$ ein größtmöglicher Code mit Blocklänge $n$ und Abstand $\Delta(C^*) \geq d+1$. Dann gilt
\begin{align*} \frac{2^n}{\Phi(n,d)} \leq |C^*| \leq \frac{2^n}{\Phi\left(n, \floor{\frac{d}{2}}\right)} \end{align*}oder, logarithmisch ausgedrückt:
\begin{align} 1 - \frac{\log_2 \Phi(n,d)}{n} \leq R(C^*) \leq 1 - \frac{\log_2 \Phi(n,\floor{d/2})}{n} \label{optimal-code-logarithmic} \end{align}Wir werden nun einigermaßen scharfe Schranken für $\Phi(n,r)$ herleiten, insbesondere wenn der Radius $r = \rho n$ linear in $n$ ist, was ja oben der Fall ist. Hierfür brauchen wir die binäre Entropiefunktion $H(x)$:
\begin{align*} H : [0,1] & \rightarrow [0,1]\\ p & \mapsto p \log_2 \pfrac{1}{p} + (1-p) \log_2 \pfrac{1}{1-p} \ . \end{align*}Hier sehen die den Graphen der Funktion:

Wichtig ist auch die Funktion $2^{H(p)}$:
\begin{align*} 2^{H(p)} & = \pfrac{1}{p}^p \pfrac{1}{1-p}^{1-p} \ , \end{align*}deren Graph auch recht ähnlich aussieht, nur etwas spitzer und mit Werten zwischen 1 und 2:

Theorem Sei $r \in \{1, \dots, n\}$ und $\rho := r/n$. Falls $\rho \leq 1/2$ ist, gilt
\begin{align*} \frac{1}{n+1} 2^{n H(\rho)} \leq \Phi(n,r) \leq 2^{n H(\rho)} \end{align*}Falls $\rho \geq 1/2$ ist, gilt $\frac{2^n}{n+1} \leq \Phi(n, r) \leq 2^n$.
Beweis. Wir beweisen zuerst die obere Schranke. Wenn $\rho \geq 1/2$ ist, dann gilt $\Phi(n,r) \leq 2^n$ trivialerweise. Betrachten wir also den Fall $\rho \leq 1/2$. Nehmen wir eine Münze, die auf der einen Seite mit 1 und auf der anderen mit 0 beschriftet ist, die aber nicht fair ist: sie soll mit Wahrscheinlichkeit $\rho$ eine $1$ anzeigen. Wir werfen die Münze $n$ mal. Die Wahrscheinlichkeit, dass genau $k$ mal eine $1$ geworfen wurde, ist
\begin{align*} {n \choose k} \rho^k (1-\rho)^{n-k} \end{align*}Die Wahrscheinlichkeit, dass höchstens $r$ Einsen geworfen wurden, ist
\begin{align} \sum_{k=0}^r {n \choose k} \rho^k (1-\rho)^{n-k} \label{prob-at-most-r-ones} \end{align}Nun schrumpft $\rho^k (1-\rho)^{n-k}$ mit wachsendem $k$ (da $\rho \leq 1/2$ ist) und somit gilt
\begin{align*} \sum_{k=0}^r {n \choose k} \rho^k (1-\rho)^{n-k} \geq \sum_{k=0}^r {n \choose k} \rho^d (1-\rho)^{n-r} = \rho^d (1-\rho)^{n-r} \Phi(n,r) \end{align*}Auf der anderen Seite ist (\ref{prob-at-most-r-ones}) ja eine Wahrscheinlichkeit und ist somit höchstens $1$. Es gilt daher $\rho^r (1-\rho)^{n-r} \Phi(n,r) \leq 1$. Wenn wir das nach $\Phi(n,r)$ auflösen, erhalten wir
\begin{align*} \Phi(n,r) \leq \pfrac{1}{\rho}^{\rho n} \pfrac{1}{1-\rho}^{n-\rho n} = \left[ \pfrac{1}{\rho}^{\rho} \pfrac{1}{1-\rho}^{1-\rho} \right]^n = 2^{H(\rho) n} \end{align*}Untere Schranke. Wir zeigen etwas stärkeres, nämlich eine untere Schranke für ${n \choose r}$, also die äußerste "Schale" der Hammingkugel. Wir betrachten wieder das Münzenszenario
\begin{align*} {n \choose r} \rho^r (1-\rho)^{n-r} . \end{align*}Dies ist die Wahrscheinlichkeit, dass wir genau $r$ Einsen bekommen, wenn jede Münze uns mit Wahrscheinlichkeit $r/n$ eine Eins gibt. Im Erwartungswert bekommen wir natürlich genau $r$ Einsen, also ist es vielleicht gar nicht so unwahrscheinlich, dass wir genau $r$ Einsen bekommen. Und in der Tat: $r$ ist von allen Zahlen die wahrscheinlichste. Formal:
Behauptung. Sei $0 \leq k, r \leq n$ und $\rho = r/n$. Dann gilt
\begin{align*} {n \choose k} \rho^k (1-\rho)^{n-k} \leq {n \choose r} \rho^r (1-\rho)^{n-r} . \end{align*}Beweis. Sei $T_k := {n \choose k} \rho^k (1-\rho)^{n-k}$. Wir vergleichen $T_k$ und $T_{k+1}$:
\begin{align*} \frac{T_{k+1}}{T_k} & = \frac{ {n \choose k+1} \rho^{k+1} (1-\rho)^{n-k-1} } {{n \choose k}\rho^k (1-\rho)^{n-k}} \\ & = \frac{ {n\choose k+1} \rho }{{n\choose k} (1-\rho)} \\ & = \frac{ n! \rho }{(k+1)! (n-k-1)!}\cdot \frac{k! (n-k)! }{n!(1-\rho)} \\ & = \frac{(n-k)\rho}{(k+1) (1-\rho)} \\ & = \frac{(n-k)r }{(k+1) (n-r)} \end{align*}Wenn nun also $k \geq r$ gilt dann ist $n-k \leq n-r$ und $k+1 \geq r+1$ und somit ist $\frac{T_{k+1}}{T_k} \lt 1$. Also $T_r \gt T_{r+1} \gt T_{r+2} \gt ...$. Ist nun aber $k \leq r-1$, dann gilt $n-k \geq n-r+1$ und $k+1 \leq r$ und somit ist $\frac{T_{k+1}}{T_k} \gt 1$. Daher: $T_r \gt T_{r-1} \gt T_{r-2} \gt \dots$. Der Term $T_r$ ist also größer als jeder andere, und somit auch $T_r \geq T_k$. \(\square\)
Da wir die Behauptung nun bewiesen haben, können wir folgern:
\begin{align*} \sum_{k=0}^n {n \choose k} \rho^k (1-\rho)^{n-k} = \sum_{k=0}^n T_k \leq \sum_{k=0}^n T_r = (n+1) T_r \ . \end{align*}Auf der anderen Seite ist natürlich die linke Seite genau $1$ (das sehen Sie mit der binomischen Formel für $(\rho + (1-\rho))^n$ oder einfach daran, dass es die Wahrscheinlichkeit ist, dass die Zahl der geworfenen Einsen zwischen $0$ und $n$ liegt), und somit gilt $1 \leq (n+1) T_r$, also
\begin{align*} {n \choose r} \rho^r (1-\rho)^{n-r} = T_r \geq \frac{1}{n+1} \ . \end{align*}Lösen wir nun nach ${n \choose r}$ auf:
\begin{align*} {n \choose r} \geq \frac{1}{n+1} \pfrac{1}{\rho}^{r} \pfrac{1}{1-\rho}^{n-r} = \frac{1}{n+1} 2^{H(\rho)n} \ . \end{align*}Da $\Phi(n,r) \geq {n\choose r}$, haben wir die untere Schranke im Theorem bewiesen. \(\square\)
Da wir im Zusammenhang mit Codes und deren Rate (siehe (\ref{optimal-code-logarithmic})) interessiert sind, übersetzen wir das obige Theorem in seine logarithmische Variante:
Theorem (logarithmische Version). Sei $r \leq n/2$ und $\rho = r/n$. Dann gilt
\begin{align*} H(\rho) - \frac{\log_2(n+1)}{n} \leq \frac{\log_2 \Phi(n,r)}{n} \leq H(\rho) \end{align*}Wir haben nun also die relativ-logarithmische Größe von $\Phi(n,r)$ bis auf einen $o(1)$-Term festgenagelt. Fügen wir nun diese Schranke in (\ref{optimal-code-logarithmic}) ein:
Theorem (Gilbert-Varshamov bound und Hamming bound, asymptotisch-logarithmische Version). Für $\delta \in [0,1]$ sei $C^*_n \subseteq \cube^n$ ein größtmöglicher Code mit Blocklänge $n$ und Abstand $\Delta(C^*_n) \geq \delta n +1$. Dann gilt
\begin{align*} 1 - H(\delta) \leq R(C^*) \leq 1 - H\pfrac{\delta}{2} + o(1) \end{align*}Die Kurve, entlang der die Rate eines optimalen Codes verläuft, ist immer noch nicht bekannt. Allerdings werden wir im Verlauf des Seminars bessere Schranken kennenlernen und somit die "graue Zone" im obigen Bild verkleinern.