Over 10 mio. titler Fri fragt ved køb over 499,- Hurtig levering 30 dages retur

Verbesserung von Klassifikationsverfahren

- Informationsgehalt der k-Nachsten-Nachbarn nutzen

  • Format
  • E-bog, PDF
Er ikke web-tilgængelig
E-bogen er DRM-beskyttet og kræver et særligt læseprogram

Normalpris

kr. 394,95

Medlemspris

kr. 349,95
Som medlem af Saxo Premium 20 timer køber du til medlemspris, får fri fragt og 20 timers streaming/md. i Saxo-appen. De første 7 dage er gratis for nye medlemmer, derefter koster det 99,-/md. og kan altid opsiges. Løbende medlemskab, der forudsætter betaling med kreditkort. Fortrydelsesret i medfør af Forbrugeraftaleloven. Mindstepris 0 kr. Læs mere

Beskrivelse

Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste–Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.

Læs hele beskrivelsen
Detaljer

Anmeldelser

Vær den første!

Log ind for at skrive en anmeldelse.

Findes i disse kategorier...

Se andre, der handler om...