Einführung in die allgemeine Informationstheorie: Communication and Cybernetics, cartea 6
Autor Johannes Petersde Limba Germană Paperback – 20 noi 2013
Preț: 352.80 lei
Preț vechi: 441.00 lei
-20% Nou
Puncte Express: 529
Preț estimativ în valută:
67.53€ • 70.19$ • 55.93£
67.53€ • 70.19$ • 55.93£
Carte tipărită la comandă
Livrare economică 04-18 februarie 25
Preluare comenzi: 021 569.72.76
Specificații
ISBN-13: 9783642490989
ISBN-10: 3642490980
Pagini: 280
Ilustrații: XII, 266 S. 6 Abb.
Dimensiuni: 155 x 235 x 15 mm
Greutate: 0.4 kg
Ediția:Softcover reprint of the original 1st ed. 1967
Editura: Springer Berlin, Heidelberg
Colecția Springer
Seria Communication and Cybernetics
Locul publicării:Berlin, Heidelberg, Germany
ISBN-10: 3642490980
Pagini: 280
Ilustrații: XII, 266 S. 6 Abb.
Dimensiuni: 155 x 235 x 15 mm
Greutate: 0.4 kg
Ediția:Softcover reprint of the original 1st ed. 1967
Editura: Springer Berlin, Heidelberg
Colecția Springer
Seria Communication and Cybernetics
Locul publicării:Berlin, Heidelberg, Germany
Public țintă
ResearchCuprins
I — Die Umwelt als Quelle und als Verbraucher von Information.- § 1. Einführung in die gedanklichen Voraussetzungen.- § 2. Die Reproduzierbarkeit des Weltbildes der klassischen Physik.- § 3. Die Physik bei hohen Geschwindigkeiten (Relativitätstheorie).- § 4. Die Quantisierung der Energie.- § 5. Die Quantisierung der Materie (Elementarteilchen).- § 6. Die elektromagnetische Welle.- § 7. Wechselwirkungen in der Physik.- § 8. Über makro — und mikrophysikalische Zustände in der Thermodynamik.- § 9. Thermodynamische Ausgleichsvorgänge.- § 10. Der Informationsbegriff in seiner allgemeinsten Form.- § 11. Anhang zum I. Kapitel: Unschärfebeziehungen.- II — Die Gesetze des Zufalls.- § 12. Von Determiniertheit Zufall und Wahrscheinlichkeit.- § 13. Häufigkeit und Wahrscheinlichkeit.- § 14. Die Grundregeln über das Rechnen mit der Wahrscheinlichkeit.- § 15. Beispiele zur Anwendung von Grundregeln.- § 16. Der Ergebnisraum.- § 17. Die Übertragung der Wahrscheinlichkeit auf die determinierte Funktion des Ergebnisses.- § 18. Der Erwartungswert.- § 19. Die charakteristische Funktion.- § 20. Das »elementare« Rechnen mit Zufallsgrößen.- §21. Stochastische Abhängigkeiten.- § 22. Versuche, die eine endlichfache Wiederholung desselben Versuches sind.- § 23. Die wahrscheinlichen relativen Häufigkeiten bei großen Wiederholungszahlen.- § 24. Der wahrscheinliche mittlere Fehler.- § 25. Der zentrale Grenzwertsatz.- § 26. Im Bereich zwischen Zufall und Sicherheit.- III — Zufallsprozesse.- § 27. Einleitende Bemerkungen über Zufallsprozesse.- § 28. Beispiele von Zufallsprozessen.- § 29. Beschreibung eines Zufallsprozesses.- § 30. Physikalisch reale Zufallsprozesse.- § 31. Die Freiheitsgrade eines Prozesses mit begrenzter Bandbreite.- § 32.Erfassung eines Bereiches zwischen den streng determinierten und den stochastischen Prozessen.- § 33. Einwirkung eines linearen Systems auf einen Prozeß (Betrachtung im Frequenzbereich).- § 34. Zum Dirac-Stoß.- § 35. Mathematische Eigenschaften realisierbarer Übertragungssysteme.- § 36. Beziehungen zwischen Laufzeit und Dämpfung.- § 37. Die Autokorrelationsfunktion.- § 38. Kovarianz und Korrelation.- § 39. Einführung eines Zufallsvektors.- § 40. Zum Rechnen mit dem Zufallsvektor.- § 41. Die Korrelationsfunktionen.- § 42. Zusammenfassender Einblick auf die voraufgegangenen Überlegungen.- IV — Grundlagen der Informations-Theorie.- § 43. Definition der Information.- § 44. Die Quelle diskreter Informationswerte.- § 45. Die informationstheoretische Entropie bei Nebenbedingungen.- § 46. Die informationstheoretische Entropie auf einen Ergebnisraum mit n Dimensionen.- § 47. Redundanz und Irrelevanz.- §48. Der Kanal.- §49. Die Transinformation.- § 50. Die Kanalkapazität.- § 51. Der Shannonsche Satz.- § 52. Folgerungen aus dem Shannonschen Satz.- V — Weiterführung und Anwendungen der Informations-Theorie.- § 53. Verallgemeinerung des Informationsbegriffes auf stetig verteilte Signalmengen.- § 54. Die Entropie bei stetiger Verteilung.- § 55. Abhängigkeit der Entropie einer stetigen Verteilung von Änderungen des Maßstabes.- § 56. Der »Nullpunkt« der Entropie einer stetigen Verteilung.- § 57. Die Transinformation bei stetiger Verteilung.- § 58. Die Transinformation bei gemischter Verteilung.- § 59. Extremwerte der Entropie bei Nebenbedingungen.- § 60. Die Transinformation eines stetigen Kanals.- § 61. Die optimale Bandbreite.- § 62. Technische Approximation des Informationsflusses an die Kanalkapazität.- § 63. Die Information beimMessen, Steuern und Regeln.- § 64. Die Raum-Nachrichtentechnik und Informationstheorie.- § 65. Radartechnik und Informationstheorie.- § 66. Extraktion der Information aus Radar-Signalen.- § 67. Das neuzeitliche Weltbild der Informationstheorie.- Schrifttumsverzeichnis.