Hodnocení:
Kniha podává čtivý přehled o útocích na protivníky a hlubokém učení, takže je přístupná i netechnickým čtenářům a zároveň obsahuje i technický obsah pro profesionální programátory. Byla však kritizována za nedostatečnou hloubku, nedostatečné příklady kódování a zbytečný úvodní materiál.
Klady:⬤ Skvělé pro kodéry a nadšence do umělé inteligence
⬤ velmi čtivé
⬤ dobře vysvětluje hluboké učení a protivníkovy hrozby
⬤ optimistický pohled na umělou inteligenci
⬤ vhodné pro ty, kteří hledají základní znalosti.
⬤ Příliš základní pro znalé čtenáře
⬤ postrádá hloubku a technické detaily
⬤ řídké příklady kódování
⬤ dlouhý úvodní materiál je zbytečný
⬤ nemusí vyhovovat potřebám těch, kteří hledají důkladnější prozkoumání tématu.
(na základě 3 hodnocení čtenářů)
Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery
S tím, jak se hluboké neuronové sítě (DNN) stále častěji používají v reálných aplikacích, představuje možnost záměrně je oklamat daty, která by člověka neoklamala, nový vektor útoku. Tato praktická kniha zkoumá reálné scénáře, v nichž se DNN - algoritmy vlastní většině umělé inteligence - denně používají ke zpracování obrazových, zvukových a video dat.
Autorka Katy Warr zvažuje motivaci k útokům, rizika, která tento vstup protivníka představuje, a metody pro zvýšení odolnosti umělé inteligence vůči těmto útokům. Pokud jste datový vědec, který vyvíjí algoritmy DNN, bezpečnostní architekt, kterého zajímá, jak zvýšit odolnost systémů AI vůči útokům, nebo někdo, koho fascinují rozdíly mezi umělým a biologickým vnímáním, je tato kniha určena právě vám.
⬤ Ponořte se do systémů DNN a zjistěte, jak je lze oklamat vstupem od protivníka.
⬤ Prozkoumejte metody používané k vytváření protivníkových vstupů schopných oklamat DNN.
⬤ Zkoumejte reálné scénáře a modelujte protivníkovu hrozbu.
⬤ Vyhodnoťte odolnost neuronových sítí; naučte se metody pro zvýšení odolnosti systémů umělé inteligence vůči nepříznivým datům.
⬤ Zkoumejte některé způsoby, jak by se umělá inteligence mohla v příštích letech zlepšit v napodobování lidského vnímání.
© Book1 Group - všechna práva vyhrazena.
Obsah těchto stránek nesmí být kopírován ani použit, a to ani částečně ani úplně, bez písemného svolení vlastníka.
Poslední úprava: 2024.11.08 20:25 (GMT)