Maskininlärning avses metoder för att låta en dator hitta mönster i data så att du kan göra förutsägelser om nya prover baserade på egenskaperna hos gamla prov. Öka är en maskin att lära teknik som kombinerar flera enkla regler för att bilda mer kraftfulla prediktorer
Funktion
I många förutsägelse problem, är det lätt att komma med tumregler som fungerar i vissa fall, men inte är universella. Det är ofta svårt att lista ut hur man kombinerar dessa tumregler till en förutsägelse metod som gör att du klassificera ett nytt fall.
Öka är ett mycket återkommande process och kräver dator genomförande. Den vanligaste algoritmen för att öka är AdaBoost, utvecklat av Yoav Freund 1995.
Exempel
Anta att du är läkare på en neonatal intensivvårdsavdelning. Du är intresserad av att veta vilka barn är mest sannolikt att gå in i livshotande nödsituationer. Du kanske har många tumregler som avser särskilda symtom, men inget sätt att kombinera dessa tumregler i en övergripande metod för att förutsäga vilka barn kommer att ha de mest allvarliga problem. . Öka är en metod för att kombinera dessa regler
algoritm
Enligt Robert Schapire, en professor i datavetenskap vid Princeton University, är den grundläggande algoritmen som följer: Givet en uppsättning av oberoende variabler X och en dikotom utfallsvariabel Y första initiera D1 (i) som 1 /m, upprepa sedan följande steg t gånger
"1. Train basen eleven med distribution DT (i)
2. Få en HT bas klassificerare "som vänder vektorn X med ett reellt tal
3. Välj ett gränsvärde alfa
4. Uppdatera med [DT (i) exp (-alfa (i) y (i) h (t) x (i))] /Z (T)