Grundkurs Machine Learning: Rheinwerk Computing
Autor Paul Wilmottde Limba Germană Paperback – 24 iul 2020
Din seria Rheinwerk Computing
- 20% Preț: 176.57 lei
- Preț: 146.67 lei
- 20% Preț: 150.90 lei
- 20% Preț: 160.71 lei
- 20% Preț: 238.06 lei
- 20% Preț: 276.21 lei
- 20% Preț: 429.86 lei
- 20% Preț: 163.16 lei
- 20% Preț: 405.03 lei
- 20% Preț: 225.08 lei
- 20% Preț: 169.58 lei
- 20% Preț: 76.76 lei
- 20% Preț: 162.76 lei
- 20% Preț: 192.80 lei
- 20% Preț: 602.14 lei
- 20% Preț: 359.14 lei
- Preț: 206.13 lei
- 18% Preț: 315.53 lei
- 20% Preț: 170.37 lei
- 20% Preț: 505.03 lei
- 20% Preț: 256.75 lei
- 20% Preț: 438.20 lei
- 20% Preț: 241.56 lei
- 20% Preț: 331.73 lei
- 20% Preț: 397.88 lei
- 20% Preț: 142.44 lei
- Preț: 211.66 lei
- 20% Preț: 329.48 lei
- 20% Preț: 248.24 lei
- 20% Preț: 224.53 lei
- 20% Preț: 164.12 lei
- 20% Preț: 314.36 lei
- 20% Preț: 319.43 lei
- 20% Preț: 187.25 lei
- 20% Preț: 240.35 lei
- 20% Preț: 351.27 lei
- 20% Preț: 180.06 lei
- 20% Preț: 394.49 lei
- 20% Preț: 418.36 lei
- 20% Preț: 256.61 lei
- 20% Preț: 185.92 lei
- 20% Preț: 260.72 lei
- 20% Preț: 251.77 lei
- 20% Preț: 401.61 lei
- 20% Preț: 331.30 lei
- 20% Preț: 400.38 lei
- 20% Preț: 328.49 lei
- 20% Preț: 152.60 lei
- 20% Preț: 176.60 lei
Preț: 168.75 lei
Preț vechi: 210.93 lei
-20% Nou
Puncte Express: 253
Preț estimativ în valută:
32.33€ • 34.04$ • 26.69£
32.33€ • 34.04$ • 26.69£
Carte disponibilă
Livrare economică 30 decembrie 24 - 04 ianuarie 25
Livrare express 18-24 decembrie pentru 24.14 lei
Preluare comenzi: 021 569.72.76
Specificații
ISBN-13: 9783836275989
ISBN-10: 3836275988
Pagini: 256
Dimensiuni: 175 x 228 x 17 mm
Greutate: 0.48 kg
Editura: Rheinwerk Verlag GmbH
Seria Rheinwerk Computing
ISBN-10: 3836275988
Pagini: 256
Dimensiuni: 175 x 228 x 17 mm
Greutate: 0.48 kg
Editura: Rheinwerk Verlag GmbH
Seria Rheinwerk Computing
Cuprins
Vorwort ... 13
1. Einführung ... 17
1.1 ... Maschinelles Lernen ... 18
1.2 ... Lernen ist der Schlüssel ... 19
1.3 ... Ein wenig Geschichte ... 20
1.4 ... Schlüsselmethodiken in diesem Buch ... 22
1.5 ... Klassische mathematische Modellierung ... 26
1.6 ... Maschinelles Lernen ist anders ... 28
1.7 ... Einfachheit führt zu Komplexität ... 29
1.8 ... Weiterführende Literatur ... 33
2. Allgemeines ... 35
2.1 ... Jargon und Notation ... 35
2.2 ... Skalierung ... 37
2.3 ... Distanzmessung ... 38
2.4 ... Fluch der Dimensionalität ... 39
2.5 ... Hauptkomponentenanalyse ... 39
2.6 ... Maximum-Likelihood-Schätzung ... 40
2.7 ... Konfusionsmatrix ... 44
2.8 ... Kostenfunktion ... 47
2.9 ... Gradientenabstieg ... 52
2.10 ... Training, Testen und Validieren ... 54
2.11 ... Bias und Varianz ... 57
2.12 ... Lagrange-Multiplikatoren ... 63
2.13 ... Mehrfachklassen ... 65
2.14 ... Informationstheorie und Entropie ... 67
2.15 ... Verarbeitung natürlicher Sprache (NLP) ... 70
2.16 ... Bayes-Theorem ... 72
2.17 ... Was nun? ... 73
2.18 ... Weiterführende Literatur ... 74
3. K-nächste Nachbarn ... 75
3.1 ... Wofür können wir die Methode verwenden? ... 75
3.2 ... Wie die Methode funktioniert ... 76
3.3 ... Der Algorithmus ... 78
3.4 ... Probleme mit KNN ... 78
3.5 ... Beispiel: Körpergröße und -gewicht ... 79
3.6 ... Regression ... 83
3.7 ... Weiterführende Literatur ... 85
4. K-Means Clustering ... 87
4.1 ... Wofür können wir die Methode verwenden? ... 87
4.2 ... Was macht K-Means Clustering? ... 89
4.3 ... Scree-Plots ... 93
4.4 ... Beispiel: Kriminalität in England, 13 Dimensionen ... 94
4.5 ... Beispiel: Volatiliät ... 98
4.6 ... Beispiel: Zinssatz und Inflation ... 100
4.7 ... Beispiel: Zinssätze, Inflation und BIP-Wachstum ... 103
4.8 ... Ein paar Kommentare ... 104
4.9 ... Weiterführende Literatur ... 105
5. Naiver Bayes-Klassifikator ... 107
5.1 ... Wofür können wir ihn verwenden? ... 107
5.2 ... Verwendung des Bayes-Theorems ... 108
5.3 ... Anwendung des NBK ... 108
5.4 ... In Symbolen ... 110
5.5 ... Beispiel: Politische Reden ... 111
5.6 ... Weiterführende Literatur ... 114
6. Regressionsmethoden ... 115
6.1 ... Wofür können wir sie verwenden? ... 115
6.2 ... Mehrdimensionale lineare Regression ... 116
6.3 ... Logistische Regression ... 117
6.4 ... Beispiel: Noch einmal politische Reden ... 119
6.5 ... Weitere Regressionsmethoden ... 121
6.6 ... Weiterführende Literatur ... 122
7. Support-Vektor-Maschinen ... 123
7.1 ... Wofür können wir sie verwenden? ... 123
7.2 ... Harte Ränder ... 123
7.3 ... Beispiel: Iris (Schwertlilie) ... 126
7.4 ... Lagrange-Multiplier-Version ... 128
7.5 ... Weiche Ränder ... 130
7.6 ... Kernel-Trick ... 132
7.7 ... Weiterführende Literatur ... 136
8. Selbstorganisierende Karten ... 137
8.1 ... Wofür können wir sie verwenden? ... 137
8.2 ... Die Methode ... 138
8.3 ... Der Lernalgorithmus ... 140
8.4 ... Beispiel: Gruppierung von Aktien ... 142
8.5 ... Beispiel: Abstimmungen im Unterhaus ... 147
8.6 ... Weiterführende Literatur ... 149
9. Entscheidungsbäume ... 151
9.1 ... Wofür können wir sie verwenden? ... 151
9.2 ... Beispiel: Zeitschriftenabo ... 153
9.3 ... Entropie ... 158
9.4 ... Überanpassung und Abbruchregeln ... 161
9.5 ... Zuschneiden ... 162
9.6 ... Numerische Merkmale/Attribute ... 162
9.7 ... Regression ... 164
9.8 ... Ausblick ... 171
9.9 ... Bagging und Random Forest ... 171
9.10 ... Weiterführende Literatur ... 172
10. Neuronale Netze ... 173
10.1 ... Wofür können wir sie verwenden? ... 173
10.2 ... Ein sehr einfaches Netzwerk ... 173
10.3 ... Universelles Approximations-Theorem ... 174
10.4 ... Ein noch einfacheres Netzwerk ... 176
10.5 ... Die mathematische Manipulation im Detail ... 177
10.6 ... Häufige Aktivierungsfunktionen ... 181
10.7 ... Das Ziel ... 182
10.8 ... Beispiel: Approximation einer Funktion ... 183
10.9 ... Kostenfunktion ... 184
10.10 ... Backpropagation ... 185
10.11 ... Beispiel: Buchstabenerkennung ... 188
10.12 ... Training und Testen ... 190
10.13 ... Mehr Architekturen ... 194
10.14 ... Deep Learning ... 196
10.15 ... Weiterführende Literatur ... 197
11. Verstärkendes Lernen ... 199
11.1 ... Wofür können wir es verwenden? ... 199
11.2 ... Geländeausfahrt mit Ihrem Lamborghini 400 GT ... 200
11.3 ... Jargon ... 202
11.4 ... Ein erster Blick auf Blackjack ... 203
11.5 ... Der klassische Markow-Entscheidungsprozess für Tic-Tac-Toe ... 204
11.6 ... Noch mehr Jargon ... 206
11.7 ... Beispiel: Der mehrarmige Bandit ... 207
11.8 ... Etwas anspruchsvoller 1: Bekannte Umgebung ... 211
11.9 ... Beispiel: Ein Labyrinth ... 214
11.10 ... Notation zu Wertefunktionen ... 218
11.11 ... Die Bellman-Gleichung ... 220
11.12 ... Optimale Policy ... 221
11.13 ... Die Bedeutung der Wahrscheinlichkeit ... 222
11.14 ... Etwas anspruchsvoller 2: Modell-frei ... 223
11.15 ... Monte Carlo Policy Evaluation ... 224
11.16 ... Temporal-Difference-Lernen ... 227
11.17 ... Vor- und Nachteile: MC versus TD ... 228
11.18 ... Finden der optimalen Policy ... 229
11.19 ... Sarsa ... 230
11.20 ... Q-Lernen ... 232
11.21 ... Beispiel: Blackjack ... 233
11.22 ... Große Zustandsräume ... 245
11.23 ... Weiterführende Literatur ... 245
Datensätze ... 247
Epilog ... 251
Index ... 253