Informationstheorie: Diskrete Modelle und Verfahren: Teubner Studienbücher Mathematik
Cu Rudolf Matharde Limba Germană Paperback – 1996
Din seria Teubner Studienbücher Mathematik
- Preț: 358.24 lei
- Preț: 269.23 lei
- Preț: 339.20 lei
- Preț: 344.03 lei
- Preț: 204.15 lei
- Preț: 265.82 lei
- Preț: 301.92 lei
- Preț: 344.96 lei
- Preț: 286.64 lei
- Preț: 341.46 lei
- Preț: 248.76 lei
- Preț: 298.12 lei
- Preț: 341.83 lei
- Preț: 340.15 lei
- Preț: 305.80 lei
- Preț: 303.23 lei
- Preț: 469.71 lei
- Preț: 460.79 lei
- Preț: 347.94 lei
- Preț: 401.04 lei
- Preț: 302.82 lei
- Preț: 462.26 lei
- Preț: 334.75 lei
- Preț: 398.27 lei
- Preț: 305.07 lei
- Preț: 460.06 lei
- Preț: 467.87 lei
- Preț: 303.60 lei
- Preț: 338.84 lei
- Preț: 303.60 lei
- Preț: 395.69 lei
- Preț: 178.82 lei
- Preț: 342.56 lei
- Preț: 341.46 lei
- Preț: 471.91 lei
- Preț: 306.00 lei
- Preț: 336.63 lei
- Preț: 467.70 lei
- Preț: 403.28 lei
- Preț: 215.11 lei
Preț: 460.43 lei
Nou
Puncte Express: 691
Preț estimativ în valută:
88.12€ • 93.19$ • 73.50£
88.12€ • 93.19$ • 73.50£
Carte tipărită la comandă
Livrare economică 30 decembrie 24 - 13 ianuarie 25
Preluare comenzi: 021 569.72.76
Specificații
ISBN-13: 9783519025740
ISBN-10: 3519025744
Pagini: 164
Ilustrații: VI, 152 S. Mit Online-Extras.
Dimensiuni: 148 x 210 x 9 mm
Greutate: 0.2 kg
Ediția:1996
Editura: Vieweg+Teubner Verlag
Colecția Vieweg+Teubner Verlag
Seria Teubner Studienbücher Mathematik
Locul publicării:Wiesbaden, Germany
ISBN-10: 3519025744
Pagini: 164
Ilustrații: VI, 152 S. Mit Online-Extras.
Dimensiuni: 148 x 210 x 9 mm
Greutate: 0.2 kg
Ediția:1996
Editura: Vieweg+Teubner Verlag
Colecția Vieweg+Teubner Verlag
Seria Teubner Studienbücher Mathematik
Locul publicării:Wiesbaden, Germany
Public țintă
Professional/practitionerCuprins
1 Einleitung.- 2 Stochastische Grundlagen.- 2.1 Zufalls variable und ihre Verteilung.- 2.2 Markoff-Ketten.- 2.3 Übungsaufgaben.- 3 Information und Entropie.- 3.1 Entropie und Transinformation.- 3.2 Axiomatische Charakterisierung der Entropie.- 3.3 Übungsaufgaben.- 4 Kodierung diskreter Quellen.- 4.1 Kodes fester Länge.- 4.2 Kodes variabler Länge.- 4.3 Binäre Suchbäume.- 4.4 Stationäre Quellen, Markoff-Quellen.- 4.5 Übungsaufgaben.- 5 Diskrete gedächtnislose Kanäle.- 5.1 Kanalkapazität.- 5.2 Kanaldekodierung.- 5.3 Der Shannonsche Fundamentalsatz.- 5.4 Kaskadenkanäle und Umkehrung des Fundamentalsatzes….- 5.5 Übungsaufgaben.- 6 Fehlerkorrigierende Kodes.- 6.1 Blockkodes und Hamming-Distanz.- 6.2 Lineare Kodes.- 6.3 Faltungskodes und der Viterbi-Algorithmus.- 6.4 Übungsaufgaben.- 7 Anhang: endliche Körper.
Textul de pe ultima copertă
Wenn in einem Kanal jedes einzelne Bit mit einer Wahrscheinlichkeit von 1% falsch übertragen wird, wieviel fehlerkorrigierende Redundanz muß man dann hinzufügen, um eine faktisch fehlerfreie Datenübertragung zu gewährleisten? Dies ist eine typische Fragestellung der Informationstheorie, die mathematische Modelle der Erzeugung von Nachrichten und deren Übertragung in gestörten Kanälen bereitstellt. Wegen der hierbei auftretenden Zufallseinflüsse kommen insbesondere stochastische Methoden zum Einsatz. Das vorliegende Buch gibt auf der Basis diskreter Wahrscheinlichkeitsräume eine Einführung in die Informationstheorie. Die Stoffauswahl richtet sich an Mathematiker, Informatiker und auch an an Grundlagen interessierte Elektrotechniker. Neben der theoretischen Fundierung wird ebenso auf die Darstellung der praktischen Anwendungen Wert gelegt. Behandelt werden Entropie, Kodierung sowie gedächtnislose, stationäre und Markoff-Quellen. Der Anschluß solcher Quellen an einen gestörten Kanal führt zum Begriff der Kanalkapazität, mit dessen Hilfe der Shannonsche Fundamentalsatz formuliert und bewiesen wird. Den Abschluß bildet ein kurzes Kapitel über fehlerkorrigierende Kodes, das auch die Klasse der für die Praxis wichtigen Faltungskodes und den Viterbi-Algorithmus behandelt. Die einzelnen Kapitel werden durch umfangreiche Übungsaufgaben vervollständigt.