Boosting - Oversigt, formularer, fordele og ulemper, optionstræer

Boosting er en algoritme, der hjælper med at reducere varians og bias i et maskinlæringsensemble. Algoritmer Algoritmer (Algos) Algoritmer (Algos) er et sæt instruktioner, der introduceres for at udføre en opgave. Algoritmer introduceres for at automatisere handel for at generere overskud med en frekvens, som er umulig for en menneskelig erhvervsdrivende, hjælper med at konvertere svage elever til stærke elever. ved at kombinere N antal elever.

BoostingKilde: Sirakorn [CC BY-SA]

Boosting kan også forbedre model forudsigelser for indlæringsalgoritmer. De svage elever korrigeres sekventielt af deres forgængere, og i processen omdannes de til stærke elever.

Former for Boosting

Boosting kan tage flere former, herunder:

1. Adaptiv boosting (Adaboost)

Adaboost sigter mod at kombinere flere svage elever for at danne en enkelt stærk elev. Adaboost koncentrerer sig om svage elever, som ofte er beslutningstræer med kun en opdeling og ofte kaldes beslutningstubber. Den første beslutningsstub i Adaboost indeholder observationer, der vægtes ens.

Tidligere fejl korrigeres, og eventuelle observationer, der blev klassificeret forkert, tildeles mere vægt end andre observationer, der ikke havde nogen fejl i klassificeringen. Algoritmer fra Adaboost bruges populært i regressions- og klassificeringsprocedurer. En fejl, der er bemærket i tidligere modeller, justeres med vægtning, indtil der foretages en nøjagtig forudsigelse.

2. Gradient Boosting

Gradientforstærkning, ligesom enhver anden ensemble-maskinindlæringsprocedure, tilføjer sekventielt prædiktorer til ensemblet og følger sekvensen i at korrigere forudgående prædiktorer for at nå frem til en nøjagtig forudsigelse i slutningen af ​​proceduren. Adaboost korrigerer sine tidligere fejl ved at indstille vægten for hver forkert observation i hver iteration, men gradientforøgelse sigter mod at tilpasse en ny forudsigelse i de resterende fejl begået af den foregående forudsigelse.

Gradientforøgelse bruger gradientnedstigningen til at identificere udfordringerne i elevernes forudsigelser, der blev brugt tidligere. Den forrige fejl fremhæves, og ved at kombinere en svag elev til den næste elev reduceres fejlen betydeligt over tid.

3. XGBoost (Extreme Gradient Boosting)

XGBoostimg implementerer beslutningstræer med øget gradient, forbedret ydeevne og hastighed. Implementeringen af ​​gradientforstærkede maskiner er relativt langsom på grund af modeluddannelsen, der skal følge en sekvens. De mangler derfor skalerbarhed Skalerbarhed Skalerbarhed kan falde i både økonomiske og forretningsstrategiske sammenhænge. I begge tilfælde står det for enhedens evne til at modstå pres på grund af deres langsommelighed.

XGBoost er afhængig af ydeevnen for en model og beregningshastighed. Det giver forskellige fordele, såsom parallelisering, distribueret computing, cacheoptimering og out-of-core computing.

XGBoost giver parallelisering i træopbygning gennem brug af CPU-kerner under træning. Det distribuerer også computing, når det træner store modeller ved hjælp af maskinklynger. Computering uden for kernen bruges til større datasæt, der ikke kan passe i den konventionelle hukommelsesstørrelse. Cache-optimering bruges også til algoritmer og datastrukturer til at optimere brugen af ​​tilgængelig hardware.

Fordele og ulemper ved Boosting

Som ensemble-model kommer boosting med en let at læse og fortolke algoritme, hvilket gør dets forudsigelsestolkninger nemme at håndtere. Forudsigelsesfunktionen er effektiv ved brug af dens klonmetoder, såsom bagging Bagging (Bootstrap Aggregation) Ensemble-maskinindlæring kan primært kategoriseres i bagging og boosting. Baggingsteknikken er nyttig til både regression og statistisk eller tilfældig skov og beslutningstræer. Boosting er en elastisk metode, der let begrænser overtilpasning.

En ulempe ved boosting er, at den er følsom over for outliers, da hver klassifikator er forpligtet til at rette fejlene i forgængerne. Metoden er således for afhængig af afvigende. En anden ulempe er, at metoden næsten er umulig at skalere op. Dette skyldes, at hver estimator baserer sin rigtighed på de tidligere forudsigere, hvilket gør proceduren vanskelig at strømline.

Hvad er optionstræer?

Valgtræer er erstatninger for beslutningstræer. De repræsenterer ensemble klassifikatorer, mens de udleder en enkelt struktur. Forskellen mellem optionstræer og beslutningstræer er, at førstnævnte inkluderer både optionsknudepunkter og beslutningsknudepunkter, mens sidstnævnte kun inkluderer beslutningsknudepunkter.

Klassificeringen af ​​en forekomst kræver filtrering ned gennem træet. En beslutningsknude er påkrævet for at vælge en af ​​grenene, hvorimod en valgknudepunkt kræves for at tage hele gruppen af ​​grene. Dette betyder, at man med en optionsknude ender med flere blade, der kræver kombination i en klassifikation for at ende med en forudsigelse. Derfor kræves der afstemning i processen, hvor en flertalsafstemning betyder, at noden er valgt som forudsigelse for den proces.

Ovenstående proces gør det klart, at optionsknudepunkterne ikke bør komme med to muligheder, da de ender med at miste afstemningen, hvis de ikke kan finde en bestemt vinder. Den anden mulighed er at tage gennemsnittet af sandsynlighedsestimater fra forskellige veje ved at følge fremgangsmåder såsom den Bayesiske tilgang eller ikke-vægtede gennemsnit af metoden.

Optionstræer kan også udvikles fra at modificere eksisterende beslutningstræstuderende eller skabe en optionsknude, hvor flere opdelinger er korreleret. Hvert beslutningstræ inden for et tilladt toleransniveau kan konverteres til optionstræer.

Flere ressourcer

Finance er den officielle udbyder af Certified Banking & Credit Analyst (CBCA) ™ CBCA ™ -certificering Certified Banking & Credit Analyst (CBCA) ™ -akkreditering er en global standard for kreditanalytikere, der dækker finansiering, regnskab, kreditanalyse, pengestrømsanalyse, pagtermodellering, tilbagebetaling af lån og mere. certificeringsprogram, der er designet til at omdanne enhver til en finansanalytiker i verdensklasse.

For at fortsætte med at lære og udvikle din viden om økonomisk analyse anbefaler vi stærkt de yderligere finansressourcer nedenfor:

  • Fintech (Financial Technology) Fintech (Financial Technology) Udtrykket fintech henviser til synergien mellem finansiering og teknologi, der bruges til at forbedre forretningsdriften og levering af finansielle tjenester
  • Kvantitativ finansiering Kvantitativ finansiering Kvantitativ finansiering er brugen af ​​matematiske modeller og ekstremt store datasæt til at analysere finansielle markeder og værdipapirer. Almindelige eksempler inkluderer (1) prisfastsættelse af afledte værdipapirer såsom optioner og (2) risikostyring, især når det gælder porteføljestyring
  • Spoofing Spoofing Spoofing er en forstyrrende algoritmisk handelspraksis, der involverer afgivelse af bud til køb eller tilbud om at sælge futureskontrakter og annullering af bud eller tilbud inden aftalens udførelse. Praksis har til formål at skabe et falsk billede af efterspørgsel eller falsk pessimisme på markedet.
  • Software Engineer lønguide Software Engineer lønguide I denne software engineer lønguide dækker vi adskillige software engineer job og deres tilsvarende midpoint lønninger for 2018. En software engineer er en professionel, der anvender softwaretekniske principper i processerne til design, udvikling, vedligeholdelse, test og evaluering af software, der anvendes i computeren