Увод у алгоритам за потицање градијента
Техника преласка полазника из седмице у јаког ученика назива се подстицање. Процес алгоритма за повећање градијента делује на овој теорији извршења. Алго алгоритам за појачавање може се приказати да би се објаснио и лако разумео процес кроз који се потискивање убризгава у скупове података.
Дрво одлуке
Стабло одлука је алат за подршку пресуди који одређује одлуке имплицирањем стабла и њихових вјероватних посљедица, заједно с исходима могућих догађаја, трошковима ресурса итд. Ова техника им омогућава да прикажу изјаве о контроли које дјелују на условне исходе.
Истраживачке операције широко користе та стабла одлука посебно у анализи одлука, такође им омогућава да постигну циљ и такође су обожавани алат у машинском учењу.
Алгоритам АдаБоост
АдаБоост алгоритам започиње припремом стабла одлуке у којем се сваком осматрању додељује еквивалентна тежина. Након процене примарног стабла, повећавамо тежине те интерпретације које су компликоване за категоризацију и подређивање тегова онима које је лако категорисати. На основу ових претпостављених података развијено је друго дрво. Ево, дизајн је да се боље упозна са пророчанством о примарном дрвету.
Затим израчунајте грешку категоризације из овог иновативног модела колекције са 2 стабла и култивирајте треће стабло да предвиди модификоване резидуе. Горњи поступак је поновљен у неколико случајева. Запажања која нису добро дефинисана у претходним стаблима одређују се помоћу накнадних стабала. Предвиђања модела закључног склапања су према томе предрасудана фигура предвиђања која су завршила претходним моделима дрвећа.
Тренинг ГБМ модел
Да би се дао гбм модел на Р језику, ГБМ библиотека мора бити инсталирана и позив тој инсталираној библиотеци ГБМ-а из позивајућег програма је инстанзиран. Такође, потребни аргументи морају бити наведени, кључни аргументи су наведени у наставку,
1. Формула
2. Дистрибуција варијабли одговора
3. Променљив предиктор
4. Варијабла одговора
Уобичајене дистрибуције које се користе у ГБМ моделима су Берноулли, Поиссон, итд.
Најзад, очекује се да ће подаци и н.треес аргументи бити специфицирани. Неуспешно је да ће гбм модел узимати здравих 100 стабала, што може понудити квалитетну апроксимацију концерта нашег гбм-а.
Пример узорка 1
install.packages ("gbm")
library(gbm)
GBM <- gbm( formula = response,
distribution = " bernoulli ",
data = train
n.trees = 3000)
Слиједи сљедећи корак који је стварни скуп података подијељен на подјелу података за влак и тест, а то се постиже функцијом цреатеДатаПартитион (). Ова врста цепања биће од велике користи у каснијем делу за обуку тестног сета помоћу обученог сета возова, а поврх свега тога се утврђују стварна предвиђања оригиналних података.
Пример кода бр. 2
TRAIN <- read.csv("Train_dd.csv")
set.seed(77820)
intrain <- createDataPartition( y = Train$survived,
list = false )
Train <- Train(inTrain) Train <- Train(-inTrain)
Следећи корак је усмеравање гбм модела помоћу нашег тренера. Иако су сви додатни аргументи тачно оно што је обавештено у горњим одељцима. спомињу се још два додатна аргумента - интеракција, дубина и скупљање.
1. Дубина интеракције прецизира највећу дубину сваког стабла
2. Мерење брзине интелекта постиже се коришћењем Схринкаге. овде се смањују све допунске вредности у стаблима основног ученика помоћу ове скупљања.
Штавише, ова техника омогућава приказивање контролних изјава које делују на условне исходе. Истраживачке операције широко користе та стабла одлучивања посебно у анализи одлука. Такође нам омогућавају да постигнемо циљ и такође су обожавани алат у машинском учењу.
Излаз модела ГБМ
Излаз ГБМ модела садржи детаље о укупном броју стабала која су имплицирана за извршење. Ово ће вам помоћи да се предвиди утицај променљиве предиктора у моделу, такође табела променљиве важности и графикон модела могу се извести из резиме функције ГБМ излаза.
Предвидите () методу помоћу ГБМ модела
Дакле, да би се предвиђања на врху кључних података овде описала као ГБМ модел, као и други модели, подразумева се метода предвиђања. Такође, рачунање укупног броја стабала одлука која се користи мора бити ручно споменуто у одељку с аргументима методе.
Пример узорка
predictions <- predict( object = simpleGBMmodel,
newdata = test,
n.trees = 1)
Побољшања модела ГБМ
Ограничења стабла
- Значајно је да слабовидни полазници обухватају вештину, али остају слаби.
Пондерисане надоградње
- Секвенцијално додавање примењује се из предвиђања сваког стабла
- Донација сваког стабла у овом износу треба бити масовна да би се успорило учење алгоритама. овај процес се назива скупљањем позива.
Стохастички алгоритам за јачање градијента
Овај еквивалентни профит може се искористити за смањење асоцијације по дрвећу.
Алгоритам за повећање степенастог напора
Параметеризирана стабла могу бити испуњена додатним ограничењима, класично стабло одлука не може се користити као слаби полазници. Уместо тога, користи се прилагођено једно које се назива регресијско стабло које има нумеричке вредности у чворовима листа.
Препоручени чланци
Ово је водич за алгоритам за јачање градијента. Овде смо разговарали о уводу, стаблу одлука, алгоритму АдаБоост, моделу ГБМ за обуку, побољшањима модела ГБМ заједно са неким узорком кода. Можете и да прођете кроз друге наше предложене чланке да бисте сазнали више -- Алгоритам дрвета одлуке
- Алгоритми машинског учења
- КСГБоост Алгоритам
- Алгоритми за науку о подацима
- Ц ++ алгоритам | Примери алгоритма Ц ++
- Примена Поиссон регресије у Р