Cantitate/Preț
Produs

Verbesserung von Klassifikationsverfahren: Informationsgehalt der k-Nächsten-Nachbarn nutzen: BestMasters

Autor Dominik Koch
de Limba Germană Paperback – 3 dec 2015
Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste–Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.
Citește tot Restrânge

Din seria BestMasters

Preț: 47582 lei

Nou

Puncte Express: 714

Preț estimativ în valută:
9109 9368$ 7557£

Carte tipărită la comandă

Livrare economică 15 februarie-01 martie

Preluare comenzi: 021 569.72.76

Specificații

ISBN-13: 9783658114756
ISBN-10: 3658114754
Pagini: 224
Ilustrații: XXII, 224 S. 278 Abb.
Dimensiuni: 148 x 210 x 14 mm
Greutate: 0.33 kg
Ediția:1. Aufl. 2016
Editura: Springer Fachmedien Wiesbaden
Colecția Springer Spektrum
Seria BestMasters

Locul publicării:Wiesbaden, Germany

Public țintă

Research

Cuprins

Grundlagen der k-Nächsten-Nachbarn.- Vorstellung der zu erweiternden Klassifikationsverfahren.- Benchmarking anhand von simulierten Daten.- Anwendung der modifizierten Verfahren auf reale Datensätze.



Notă biografică

Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit arbeitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.
 

Textul de pe ultima copertă

Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste–Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.
  
Der Inhalt
n  Grundlagen der k-Nächsten-Nachbarn n  Vorstellung der zu erweiternden Klassifikationsverfahren

Benchmarking anhand von simulierten Daten n  Anwendung der modifizierten Verfahren auf reale Datensätze
 
Die Zielgruppen
·   
    Dozierende und Studierende der Mathematik, insbesondere der Statistik  Der Autor
Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit ar
beitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.

Caracteristici

Studie im Bereich Statistik Includes supplementary material: sn.pub/extras