Hodnocení:
Aktuálně nejsou k dispozici žádné recenze čtenářů. Hodnocení je založeno na 6 hlasů.
Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient
⬤ .
Kapitola 1: Hyperparametry.
Cíl kapitoly: Představit, co jsou hyperparametry, jak mohou ovlivnit trénink modelu. Také poskytuje intuici, jak hyperparametry ovlivňují obecné algoritmy strojového učení a jakou hodnotu bychom měli zvolit podle trénovacího souboru dat. Dílčí témata1. Úvod do hyperparametrů. 2. Proč potřebujeme ladit hyperparametry3. Konkrétní algoritmy a jejich hyperparametry4. Tabulka pro rozhodování o hyperparametrech některých konkrétních algoritmů.
Kapitola 2: Ladění hyperparametrů hrubou silouCíl kapitoly: Porozumět běžně používaným klasickým metodám ladění hyperparametrů, implementovat je od základu a využít k tomu knihovnu Scikit-Learn. Dílčí témata: 1. Ladění hyperparametrů2. Vyčerpávající metody ladění hyperparametrů3. Vyhledávání v mřížce4. Náhodné vyhledávání5. Hodnocení modelů při ladění hyperparametrů.
Kapitola 3: Distribuovaná optimalizace hyperparametrůCíl kapitoly: Zpracování větších datových souborů a velkého počtu hyperparametrůse spojitým prohledávacím prostorem pomocí distribuovaných algoritmů a metod distribuované optimalizace hyperparametrů s využitím knihovny Dask. Dílčí témata: 1. Proč potřebujeme distribuované ladění2. Datové rámce Dask3. InkrementálnívyhledáváníCV.
Kapitola 4: Sekvenční globální optimalizace založená na modelu a její hierarchické metodyCíl kapitoly: Podrobná teoretická kapitola o metodách SMBO, které využívají Bayesovské techniky k optimalizaci hyperparametrů. Učí se ze svých předchozích iteracína rozdíl od Grid Search nebo Random Search. Dílčí témata: 1. Sekvenční globální optimalizace založená na modelu2. Přístup založený na Gaussově procesu3. Stromově strukturovaný Parzenův odhad(TPE)
Kapitola 5: Použití HyperOptCíl kapitoly: Kapitola zaměřená na knihovnu hyperopt, která implementuje algoritmus TPE probíraný v minulé kapitole. Cíl: Využít algoritmus TPE k optimalizacihyperparametru a seznámit čtenáře s tím, v čem je lepší než jiné metody. K paralelizaci vyhodnocování bude použita MongoDB. Proberte Hyperopt Scikit-Learn a Hyperas s příklady. 1. Definování objektivní funkce. 2. Vytvoření prohledávacího prostoru. 3. Spuštění programu HyperOpt. 4. Použití MongoDB Trials k paralelnímu vyhodnocování. 5. HyperOpt skLearn6. HyperOpt.
Kapitola 6: Generativní adverzní neuronové sítě generující hyperparametry (HG-cGAN) a So Forth. Cíl kapitoly: Vychází z hypotézy, jak lze na základě určitých vlastností datové sady trénovat neuronové sítě na metadatech a generovat hyperparametry pro nové datové sady. Shrnuje také, jak mohou tyto novější metody ladění hyperparametrů pomoci AI v dalším rozvoji. Dílčí témata: 1. Generování metadat2. Trénování HG-cGAN3. UI a ladění hyperparametrů.
© Book1 Group - všechna práva vyhrazena.
Obsah těchto stránek nesmí být kopírován ani použit, a to ani částečně ani úplně, bez písemného svolení vlastníka.
Poslední úprava: 2024.11.08 20:25 (GMT)