Kursplan
Del 1 – Deep Learning og DNN-konsepter
Introduksjon AI, Machine Learning og Deep Learning
Historie, grunnleggende konsepter og vanlige anvendelser av kunstig intelligens langt av fantasiene som bæres av dette domenet
Kollektiv intelligens: samle kunnskap som deles av mange virtuelle agenter
Genetiske algoritmer: å utvikle en populasjon av virtuelle agenter ved seleksjon
Vanlig læremaskin: definisjon.
Typer oppgaver: veiledet læring, uovervåket læring, forsterkende læring
Typer handlinger: klassifisering, regresjon, gruppering, tetthetsestimering, reduksjon av dimensjonalitet
Eksempler på Machine Learning algoritmer: Lineær regresjon, Naive Bayes, Random Tree
Maskinlæring VS Deep Learning: problemer som Machine Learning forblir i dag toppmoderne (Random Forests & XGBoosts)
Grunnleggende konsepter for et nevralt nettverk (applikasjon: flerlags perceptron)
Påminnelse om matematiske grunnlag.
Definisjon av et nettverk av nevroner: klassisk arkitektur, aktivering og
Vekting av tidligere aktiveringer, dybde på et nettverk
Definisjon av læringen av et nettverk av nevroner: kostnadsfunksjoner, tilbakeformidling, Stokastisk gradientnedstigning, maksimal sannsynlighet.
Modellering av et nevralt nettverk: modellering av input og output data i henhold til typen problem (regresjon, klassifisering ...). Dimensjonalitetens forbannelse.
Skille mellom multifunksjonsdata og signal. Valg av kostnadsfunksjon i henhold til dataene.
Tilnærming av en funksjon ved et nettverk av nevroner: presentasjon og eksempler
Tilnærming av en fordeling av et nettverk av nevroner: presentasjon og eksempler
Dataforsterkning: hvordan balansere et datasett
Generalisering av resultatene av et nettverk av nevroner.
Initialisering og regularisering av et nevralt nettverk: L1 / L2-regularisering, Batch Normalization
Optimalisering og konvergensalgoritmer
Standard ML / DL-verktøy
Det legges opp til en enkel presentasjon med fordeler, ulemper, plassering i økosystemet og bruk.
Databehandlingsverktøy: Apache Spark, Apache Hadoop Verktøy
Machine Learning: Numpy, Scipy, Sci-kit
DL-rammeverk på høyt nivå: PyTorch, Keras, Lasagne
Lavt nivå DL-rammeverk: Theano, Torch, Caffe, Tensorflow
Convolutional Neural Networks (CNN).
Presentasjon av CNN-ene: grunnleggende prinsipper og anvendelser
Grunnleggende operasjon av en CNN: konvolusjonslag, bruk av en kjerne,
Polstring og skritt, generering av funksjonskart, sammenslåing av lag. Utvidelser 1D, 2D og 3D.
Presentasjon av de forskjellige CNN-arkitekturene som brakte toppmoderne i klassifisering
Bilder: LeNet, VGG Networks, Network in Network, Inception, Resnet. Presentasjon av innovasjoner forårsaket av hver arkitektur og deres mer globale applikasjoner (Convolution 1x1 eller restforbindelser)
Bruk av oppmerksomhetsmodell.
Søknad på en vanlig klassifiseringsak (tekst eller bilde)
CNN-er for generering: superoppløsning, piksel-til-piksel segmentering. Presentasjon av
Hovedstrategier for å øke funksjonskart for bildegenerering.
Tilbakevendende Neural Networks (RNN).
Presentasjon av RNN: grunnleggende prinsipper og anvendelser.
Grunnleggende drift av RNN: skjult aktivering, forplantning tilbake gjennom tiden, utfoldet versjon.
Evolusjoner mot Gated Recurrent Units (GRUs) og LSTM (Long Short Term Memory).
Presentasjon av de forskjellige statene og utviklingen brakt av disse arkitekturene
Konvergens- og forsvinnende gradientproblemer
Klassiske arkitekturer: Prediksjon av en tidsserie, klassifisering ...
RNN Encoder Dekoder type arkitektur. Bruk av oppmerksomhetsmodell.
NLP-applikasjoner: ord-/tegnkoding, oversettelse.
Videoapplikasjoner: prediksjon av det neste genererte bildet av en videosekvens.
Generasjonsmodeller: Variational AutoEncoder (VAE) og Generative Adversarial Networks (GAN).
Presentasjon av generasjonsmodellene, kobling med CNN-ene
Auto-koder: reduksjon av dimensjonalitet og begrenset generering
Variational Auto-encoder: generasjonsmodell og tilnærming av fordelingen av en gitt. Definisjon og bruk av latent rom. Reparameteriseringstriks. Applikasjoner og begrensninger overholdt
Generative kontradiktoriske nettverk: grunnleggende.
Dobbel nettverksarkitektur (Generator og diskriminator) med alternativ læring, kostnadsfunksjoner tilgjengelig.
Konvergens av en GAN og vanskeligheter.
Forbedret konvergens: Wasserstein GAN, Begynte. Jordflytteavstand.
Applikasjoner for generering av bilder eller fotografier, tekstgenerering, superoppløsning.
Dyp Reinforcement Learning.
Presentasjon av forsterkende læring: kontroll av en agent i et definert miljø
Av en stat og mulige handlinger
Bruk av et nevralt nettverk for å tilnærme tilstandsfunksjonen
Deep Q Learning: Opplev replay og applikasjon for kontroll av et videospill.
Optimalisering av læringspolitikk. On-policy && off-policy. Skuespiller kritiker arkitektur. A3C.
Applikasjoner: kontroll av et enkelt videospill eller et digitalt system.
Del 2 – Theano for Deep Learning
Grunnleggende om Theano
Introduksjon
Installasjon og konfigurasjon
Theano funksjoner
innganger, utganger, oppdateringer, gitter
Trening og optimalisering av et nevralt nettverk ved hjelp av Theano
Nevral nettverksmodellering
Logistisk regresjon
Skjulte lag
Trene et nettverk
Databehandling og klassifisering
Optimalisering
Loggtap
Tester modellen
Del 3 – DNN ved hjelp av Tensorflow
TensorFlow Grunnleggende
Oppretting, initialisering, lagring og gjenoppretting TensorFlow variabler
Mating, lesing og forhåndsinnlasting TensorFlow Data
Hvordan bruke TensorFlow infrastruktur for å trene modeller i skala
Visualisere og evaluere modeller med TensorBoard
TensorFlow Mekanikk
Forbered dataene
Last ned
Inndata og plassholdere
Bygg grafene
Inferens
Tap
Opplæring
Tren modellen
Grafen
Sesjonen
Togsløyfe
Vurder modellen
Bygg Eval-grafen
Eval utgang
Perceptronen
Aktiveringsfunksjoner
Perceptronlæringsalgoritmen
Binær klassifisering med perceptron
Dokumentklassifisering med perceptronen
Begrensninger av perceptron
Fra Perceptron til støtte for vektormaskiner
Kjerner og kjernetrikset
Maksimal marginklassifisering og støttevektorer
Kunstig Neural Networks
Ikke-lineære beslutningsgrenser
Feedforward og feedback kunstige nevrale nettverk
Flerlags perseptroner
Minimere kostnadsfunksjonen
Forplantning fremover
Ryggutbredelse
Forbedre måten nevrale nettverk lærer på
Konvolusjonell Neural Networks
Goals
Modellarkitektur
Prinsipper
Kode organisasjon
Lansering og opplæring av modellen
Evaluering av en modell
Grunnleggende introduksjoner som skal gis til modulene nedenfor (Kort introduksjon skal gis basert på tilgjengelig tid):
Tensorflow - Avansert bruk
Tråding og køer
Distribuert TensorFlow
Skrive Documentation og dele modellen din
Tilpasse datalesere
Manipulere TensorFlow modellfiler
TensorFlow Servering
Introduksjon
Grunnleggende serveringsveiledning
Avansert serveringsveiledning
Opplæringsmodell for servering
Krav
Bakgrunn i fysikk, matematikk og programmering. Engasjement i bildebehandlingsaktiviteter.
Delegatene bør ha en forhåndsforståelse av maskinlæringskonsepter, og bør ha arbeidet med Python programmering og biblioteker.
Testimonials (5)
Hunter er fabelaktig, veldig engasjerende, ekstremt kunnskapsrik og omgjengelig. Veldig bra gjort.
Rick Johnson - Laramie County Community College
Kurs - Artificial Intelligence (AI) Overview
Machine Translated
The trainer explained the content well and was engaging throughout. He stopped to ask questions and let us come to our own solutions in some practical sessions. He also tailored the course well for our needs.
Robert Baker
Kurs - Deep Learning with TensorFlow 2.0
Tomasz really know the information well and the course was well paced.
Raju Krishnamurthy - Google
Kurs - TensorFlow Extended (TFX)
Organization, adhering to the proposed agenda, the trainer's vast knowledge in this subject
Ali Kattan - TWPI
Kurs - Natural Language Processing with TensorFlow
Very updated approach or CPI (tensor flow, era, learn) to do machine learning.