Algorithmische Informationstheorie: Statistische Informationstheorie und Anwendungen auf algorithmische Fragestellungen: Teubner Texte zur Informatik, cartea 23
Autor Günther Hotzde Limba Germană Paperback – 1997
Din seria Teubner Texte zur Informatik
- Preț: 344.80 lei
- Preț: 364.59 lei
- Preț: 347.43 lei
- Preț: 344.23 lei
- Preț: 353.46 lei
- 20% Preț: 417.29 lei
- 20% Preț: 627.42 lei
- Preț: 341.41 lei
- Preț: 344.06 lei
- Preț: 345.56 lei
- Preț: 350.63 lei
- Preț: 342.73 lei
- Preț: 307.74 lei
- Preț: 351.86 lei
- Preț: 476.22 lei
- Preț: 478.81 lei
- Preț: 268.65 lei
- Preț: 480.11 lei
- 15% Preț: 631.45 lei
- 20% Preț: 465.89 lei
- Preț: 272.81 lei
- Preț: 274.68 lei
- Preț: 275.79 lei
- Preț: 280.16 lei
- Preț: 414.20 lei
Preț: 207.35 lei
Nou
Puncte Express: 311
Preț estimativ în valută:
39.68€ • 41.22$ • 32.96£
39.68€ • 41.22$ • 32.96£
Carte tipărită la comandă
Livrare economică 29 ianuarie-04 februarie 25
Preluare comenzi: 021 569.72.76
Specificații
ISBN-13: 9783815423103
ISBN-10: 3815423104
Pagini: 148
Ilustrații: 143 S. 2 Abb.
Dimensiuni: 162 x 235 x 8 mm
Ediția:1997
Editura: Vieweg+Teubner Verlag
Colecția Vieweg+Teubner Verlag
Seria Teubner Texte zur Informatik
Locul publicării:Wiesbaden, Germany
ISBN-10: 3815423104
Pagini: 148
Ilustrații: 143 S. 2 Abb.
Dimensiuni: 162 x 235 x 8 mm
Ediția:1997
Editura: Vieweg+Teubner Verlag
Colecția Vieweg+Teubner Verlag
Seria Teubner Texte zur Informatik
Locul publicării:Wiesbaden, Germany
Public țintă
Upper undergraduateCuprins
1 Statistische Informationstheorie im Falle diskreter ungestörter Kanäle.- 1.1 Definition der Entropie einer Quelle.- 1.2 Der Kodierungssatz im störungsfreien Fall.- 1.3 Ordnungserhaltende Kodierungen.- 1.4 Anwendungen des Kodierungstheorems.- 1.5 Kritische Würdigung des Kodierungstheorems.- 2 Informationstheorie bei Markovketten.- 2.1 Quellen mit Gedächtnis.- 2.2 Definition von Markovketten.- 2.3 Entropie von Markovprozessen.- 2.4 Das Kodierungstheorem für Markovprozesse.- 2.5 Suchgraphen.- 2.6 ?-Zerlegungen von Markovquellen.- 2.7 ?-Überdeckungen von Markovprozessen.- 2.8 Sortieren und andere Anwendungen.- 3 Die Kapazität von diskreten Kanälen.- 3.1 Gestörte diskrete Kanäle ohne Gedächtnis.- 3.2 Der Satz von Fano.- 3.3 Das Kodierungstheorem für Kanäle ohne Gedächtnis.- Ausblick.- Historische Bemerkungen.- Aufgaben.- zu Kapitel 1.- zu Kapitel 2.- zu Kapitel 3.
Textul de pe ultima copertă
Dieses Buch beinhaltet eine Einführung in die statistische Informationstheorie, die von Shannon 1948 begründet wurde. Ich gebe dieses Buch heraus, da die Vorlesung auch den Anwendungen dieser Theorie auf algorithmische Probleme nachgeht. Daß die Entropie einer Quelle als untere Schranke für die Laufzeit von Suchprogrammen verwendet werden kann, ist seit 20 Jahren bekannt, ohne daß aber die Konzepte der Informationstheorie eine systematische Anwendung in diesem Bereich erfahren haben. So wurden Markovquellen im Zusammenhang mit effizienten Suchverfahren bei geordneten Schlüsseln erstmals 1992 vom Autor diskutiert. Die Vorlesung geht auf die Frage der Gewinnung unterer Schranken für die mittlere Laufzeit von Algorithmen ein und versucht die Kodierungstheoreme zur Konstruktion effizienter Algorithmen zu nutzen. Günter Hotz