Bookbot

Einführung in die Informationstheorie

Parameter

Seitenzahl
92 Seiten
Lesezeit
4 Stunden

Mehr zum Buch

Inhaltsverzeichnis1. Einleitung.1.1. Ziele der Informationstheorie, Überblick.1.2. Mathematische Hilfsmittel.2. Die Entropie.2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes.2.2. Der Eindeutigkeitssatz für die Entropie.3. Informationsquellen.3.1. Grundlegende Definitionen.3.2. Stationäre Quellen.3.3. Ergodische Quellen.3.4. Der Satz von McMillan und die asymptotische Gleichverteilung.3.5. Beweis des Satzes von McMillan.4. Kanäle.4.1. Definition des Kanals, Eigenschaften spezieller Kanäle.4.2. Anschluß eines Kanals an die speisende Quelle.4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information.4.4. Die Kanalkapazität oder Durchlaßkapazität.4.5. Ein Beispiel für einen Kanal mit Störungen.5. Der Satz von Feinstein.5.1. Formulierung des Satzes.5.2. Ein Hilfssatz.5.3. Beweis des Satzes von Feinstein.6. Die Sätze von Shannon.6.1. Codierungen, Übertrager.6.2. Hilfssätze.6.3. Der erste Satz von Shannon.6.4. Der zweite Satz von Shannon.7. Abschließende Bemerkungen.Literatur.Sachwortverzeichnis.

Publikation

Buchkauf

Einführung in die Informationstheorie, Ernst Henze

Sprache
Erscheinungsdatum
1974
product-detail.submit-box.info.binding
(Paperback)
Wir benachrichtigen dich per E-Mail.

Lieferung

  •  

Zahlungsmethoden

Keiner hat bisher bewertet.Abgeben