Hodnocení:
Aktuálně nejsou k dispozici žádné recenze čtenářů. Hodnocení je založeno na 51 hlasů.
Transformers for Natural Language Processing and Computer Vision - Third Edition: Explore Generative AI and Large Language Models with Hugging Face, C
Definitivní průvodce LLM, od architektury, předtrénování a jemného ladění až po Retrieval Augmented Generation (RAG), multimodální generativní AI, rizika a implementace s ChatGPT Plus s GPT-4, Hugging Face a Vertex AI.
Klíčové funkce:
- Porovnejte a porovnejte více než 20 modelů (včetně GPT-4, BERT a Llama 2) a více platforem a knihoven, abyste našli správné řešení pro svůj projekt.
- Použijte RAG s LLM pomocí vlastních textů a vložených textů.
- Zmírněte rizika LLM, jako jsou halucinace, pomocí modelů moderace a znalostních bází
- Zakoupení tištěné knihy nebo knihy pro Kindle zahrnuje bezplatnou elektronickou knihu ve formátu PDF
Popis knihy: Kniha je určena pro studenty, kteří se věnují problematice LLM:
Třetí vydání knihy Transformers for Natural Language Processing and Computer Vision se zabývá architekturami, aplikacemi a různými platformami (Hugging Face, OpenAI a Google Vertex AI) používanými pro zpracování přirozeného jazyka a počítačové vidění. Kniha vás provede různými architekturami transformátorů až po nejnovější Foundation Models a Generative AI. Budete předtrénovat a ladit LLM a pracovat s různými případy použití, od sumarizace po implementaci systémů pro zodpovídání otázek s technikami vyhledávání založenými na vkládání. Seznámíte se také s riziky LLM, od halucinací a zapamatování až po ochranu soukromí, a dozvíte se, jak tato rizika zmírnit pomocí moderovacích modelů s bázemi pravidel a znalostí. Implementujete Retrieval Augmented Generation s LLM, abyste zvýšili přesnost svých modelů a získali větší kontrolu nad výstupy LLM. Ponoříte se do generativních transformátorů vidění a multimodálních modelových architektur a vytvoříte aplikace, jako jsou klasifikátory obrazu a videa na text. Jděte dále kombinováním různých modelů, platforem a poznáváním replikace agentů AI. Tato kniha vám poskytne znalosti o architekturách transformátorů, předtrénování, jemném ladění, případech použití LLM a osvědčených postupech.
Co se naučíte:
- Rozdělení a pochopení architektury modelů Original Transformer, BERT, GPT, T5, PaLM, ViT, CLIP a DALL-E.
- Doladit modely BERT, GPT a PaLM 2
- Seznámíte se s různými tokenizéry a osvědčenými postupy pro předzpracování jazykových dat
- Předtrénujte model RoBERTa od začátku
- Implementujte rozšířené generování vyhledávání a báze pravidel pro zmírnění halucinací
- Vizualizujte činnost modelu transformátoru pro hlubší vhled pomocí nástrojů BertViz, LIME a SHAP
- Pronikněte do hloubky vidění transformátorů pomocí CLIP, DALL-E 2, DALL-E 3 a GPT-4V
Pro koho je tato kniha určena:
Tato kniha je ideální pro inženýry NLP a CV, vývojáře softwaru, datové vědce, inženýry strojového učení a technické vedoucí pracovníky, kteří chtějí prohloubit své dovednosti v oblasti LLM a generativní AI nebo prozkoumat nejnovější trendy v této oblasti. K plnému pochopení případů použití a příkladů kódu je nutná znalost jazyka Python a konceptů strojového učení. Díky příkladům využívajícím uživatelská rozhraní LLM, inženýrství podnětů, tvorbu modelů bez kódu je však tato kniha skvělá pro každého, kdo se zajímá o revoluci v AI.
© Book1 Group - všechna práva vyhrazena.
Obsah těchto stránek nesmí být kopírován ani použit, a to ani částečně ani úplně, bez písemného svolení vlastníka.
Poslední úprava: 2024.11.08 20:25 (GMT)