Optimalizace hyperparametrů ve strojovém učení: Zefektivněte své modely strojového učení a hlubokého učení

Hodnocení:   (3,3 z 5)

Optimalizace hyperparametrů ve strojovém učení: Zefektivněte své modely strojového učení a hlubokého učení (Tanay Agrawal)

Recenze čtenářů

Aktuálně nejsou k dispozici žádné recenze čtenářů. Hodnocení je založeno na 6 hlasů.

Původní název:

Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient

Obsah knihy:

⬤ ​.

Kapitola 1: Hyperparametry.

Cíl kapitoly: Představit, co jsou hyperparametry, jak mohou ovlivnit trénink modelu. Také poskytuje intuici, jak hyperparametry ovlivňují obecné algoritmy strojového učení a jakou hodnotu bychom měli zvolit podle trénovacího souboru dat. Dílčí témata1. Úvod do hyperparametrů. 2. Proč potřebujeme ladit hyperparametry3. Konkrétní algoritmy a jejich hyperparametry4. Tabulka pro rozhodování o hyperparametrech některých konkrétních algoritmů.

Kapitola 2: Ladění hyperparametrů hrubou silouCíl kapitoly: Porozumět běžně používaným klasickým metodám ladění hyperparametrů, implementovat je od základu a využít k tomu knihovnu Scikit-Learn. Dílčí témata: 1. Ladění hyperparametrů2. Vyčerpávající metody ladění hyperparametrů3. Vyhledávání v mřížce4. Náhodné vyhledávání5. Hodnocení modelů při ladění hyperparametrů.

Kapitola 3: Distribuovaná optimalizace hyperparametrůCíl kapitoly: Zpracování větších datových souborů a velkého počtu hyperparametrůse spojitým prohledávacím prostorem pomocí distribuovaných algoritmů a metod distribuované optimalizace hyperparametrů s využitím knihovny Dask. Dílčí témata: 1. Proč potřebujeme distribuované ladění2. Datové rámce Dask3. InkrementálnívyhledáváníCV.

Kapitola 4: Sekvenční globální optimalizace založená na modelu a její hierarchické metodyCíl kapitoly: Podrobná teoretická kapitola o metodách SMBO, které využívají Bayesovské techniky k optimalizaci hyperparametrů. Učí se ze svých předchozích iteracína rozdíl od Grid Search nebo Random Search. Dílčí témata: 1. Sekvenční globální optimalizace založená na modelu2. Přístup založený na Gaussově procesu3. Stromově strukturovaný Parzenův odhad(TPE)

Kapitola 5: Použití HyperOptCíl kapitoly: Kapitola zaměřená na knihovnu hyperopt, která implementuje algoritmus TPE probíraný v minulé kapitole. Cíl: Využít algoritmus TPE k optimalizacihyperparametru a seznámit čtenáře s tím, v čem je lepší než jiné metody. K paralelizaci vyhodnocování bude použita MongoDB. Proberte Hyperopt Scikit-Learn a Hyperas s příklady. 1. Definování objektivní funkce. 2. Vytvoření prohledávacího prostoru. 3. Spuštění programu HyperOpt. 4. Použití MongoDB Trials k paralelnímu vyhodnocování. 5. HyperOpt skLearn6. HyperOpt.

Kapitola 6: Generativní adverzní neuronové sítě generující hyperparametry (HG-cGAN) a So Forth. Cíl kapitoly: Vychází z hypotézy, jak lze na základě určitých vlastností datové sady trénovat neuronové sítě na metadatech a generovat hyperparametry pro nové datové sady. Shrnuje také, jak mohou tyto novější metody ladění hyperparametrů pomoci AI v dalším rozvoji. Dílčí témata: 1. Generování metadat2. Trénování HG-cGAN3. UI a ladění hyperparametrů.

Další údaje o knize:

ISBN:9781484265789
Autor:
Vydavatel:
Vazba:Měkká vazba
Rok vydání:2020
Počet stran:166

Nákup:

Nyní dostupné, na skladě.

Další knihy od autora:

Optimalizace hyperparametrů ve strojovém učení: Zefektivněte své modely strojového učení a hlubokého...
**​.Kapitola 1: Hyperparametry.Cíl...
Optimalizace hyperparametrů ve strojovém učení: Zefektivněte své modely strojového učení a hlubokého učení - Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient

Díla autora vydali tito vydavatelé:

© Book1 Group - všechna práva vyhrazena.
Obsah těchto stránek nesmí být kopírován ani použit, a to ani částečně ani úplně, bez písemného svolení vlastníka.
Poslední úprava: 2024.11.08 20:25 (GMT)