Kursplan

Del 1 – Deep Learning og DNN-konsepter


Introduksjon AI, Machine Learning og Deep Learning

  • Historie, grunnleggende konsepter og vanlige anvendelser av kunstig intelligens langt av fantasiene som bæres av dette domenet

  • Kollektiv intelligens: samle kunnskap som deles av mange virtuelle agenter

  • Genetiske algoritmer: å utvikle en populasjon av virtuelle agenter ved seleksjon

  • Vanlig læremaskin: definisjon.

  • Typer oppgaver: veiledet læring, uovervåket læring, forsterkende læring

  • Typer handlinger: klassifisering, regresjon, gruppering, tetthetsestimering, reduksjon av dimensjonalitet

  • Eksempler på Machine Learning algoritmer: Lineær regresjon, Naive Bayes, Random Tree

  • Maskinlæring VS Deep Learning: problemer som Machine Learning forblir i dag toppmoderne (Random Forests & XGBoosts)

Grunnleggende konsepter for et nevralt nettverk (applikasjon: flerlags perceptron)

  • Påminnelse om matematiske grunnlag.

  • Definisjon av et nettverk av nevroner: klassisk arkitektur, aktivering og

  • Vekting av tidligere aktiveringer, dybde på et nettverk

  • Definisjon av læringen av et nettverk av nevroner: kostnadsfunksjoner, tilbakeformidling, Stokastisk gradientnedstigning, maksimal sannsynlighet.

  • Modellering av et nevralt nettverk: modellering av input og output data i henhold til typen problem (regresjon, klassifisering ...). Dimensjonalitetens forbannelse.

  • Skille mellom multifunksjonsdata og signal. Valg av kostnadsfunksjon i henhold til dataene.

  • Tilnærming av en funksjon ved et nettverk av nevroner: presentasjon og eksempler

  • Tilnærming av en fordeling av et nettverk av nevroner: presentasjon og eksempler

  • Dataforsterkning: hvordan balansere et datasett

  • Generalisering av resultatene av et nettverk av nevroner.

  • Initialisering og regularisering av et nevralt nettverk: L1 / L2-regularisering, Batch Normalization

  • Optimalisering og konvergensalgoritmer

Standard ML / DL-verktøy

Det legges opp til en enkel presentasjon med fordeler, ulemper, plassering i økosystemet og bruk.

  • Databehandlingsverktøy: Apache Spark, Apache Hadoop Verktøy

  • Machine Learning: Numpy, Scipy, Sci-kit

  • DL-rammeverk på høyt nivå: PyTorch, Keras, Lasagne

  • Lavt nivå DL-rammeverk: Theano, Torch, Caffe, Tensorflow

Convolutional Neural Networks (CNN).

  • Presentasjon av CNN-ene: grunnleggende prinsipper og anvendelser

  • Grunnleggende operasjon av en CNN: konvolusjonslag, bruk av en kjerne,

  • Polstring og skritt, generering av funksjonskart, sammenslåing av lag. Utvidelser 1D, 2D og 3D.

  • Presentasjon av de forskjellige CNN-arkitekturene som brakte toppmoderne i klassifisering

  • Bilder: LeNet, VGG Networks, Network in Network, Inception, Resnet. Presentasjon av innovasjoner forårsaket av hver arkitektur og deres mer globale applikasjoner (Convolution 1x1 eller restforbindelser)

  • Bruk av oppmerksomhetsmodell.

  • Søknad på en vanlig klassifiseringsak (tekst eller bilde)

  • CNN-er for generering: superoppløsning, piksel-til-piksel segmentering. Presentasjon av

  • Hovedstrategier for å øke funksjonskart for bildegenerering.

Tilbakevendende Neural Networks (RNN).

  • Presentasjon av RNN: grunnleggende prinsipper og anvendelser.

  • Grunnleggende drift av RNN: skjult aktivering, forplantning tilbake gjennom tiden, utfoldet versjon.

  • Evolusjoner mot Gated Recurrent Units (GRUs) og LSTM (Long Short Term Memory).

  • Presentasjon av de forskjellige statene og utviklingen brakt av disse arkitekturene

  • Konvergens- og forsvinnende gradientproblemer

  • Klassiske arkitekturer: Prediksjon av en tidsserie, klassifisering ...

  • RNN Encoder Dekoder type arkitektur. Bruk av oppmerksomhetsmodell.

  • NLP-applikasjoner: ord-/tegnkoding, oversettelse.

  • Videoapplikasjoner: prediksjon av det neste genererte bildet av en videosekvens.


Generasjonsmodeller: Variational AutoEncoder (VAE) og Generative Adversarial Networks (GAN).

  • Presentasjon av generasjonsmodellene, kobling med CNN-ene

  • Auto-koder: reduksjon av dimensjonalitet og begrenset generering

  • Variational Auto-encoder: generasjonsmodell og tilnærming av fordelingen av en gitt. Definisjon og bruk av latent rom. Reparameteriseringstriks. Applikasjoner og begrensninger overholdt

  • Generative kontradiktoriske nettverk: grunnleggende.

  • Dobbel nettverksarkitektur (Generator og diskriminator) med alternativ læring, kostnadsfunksjoner tilgjengelig.

  • Konvergens av en GAN og vanskeligheter.

  • Forbedret konvergens: Wasserstein GAN, Begynte. Jordflytteavstand.

  • Applikasjoner for generering av bilder eller fotografier, tekstgenerering, superoppløsning.

Dyp Reinforcement Learning.

  • Presentasjon av forsterkende læring: kontroll av en agent i et definert miljø

  • Av en stat og mulige handlinger

  • Bruk av et nevralt nettverk for å tilnærme tilstandsfunksjonen

  • Deep Q Learning: Opplev replay og applikasjon for kontroll av et videospill.

  • Optimalisering av læringspolitikk. On-policy && off-policy. Skuespiller kritiker arkitektur. A3C.

  • Applikasjoner: kontroll av et enkelt videospill eller et digitalt system.

Del 2 – Theano for Deep Learning

Grunnleggende om Theano

  • Introduksjon

  • Installasjon og konfigurasjon

Theano funksjoner

  • innganger, utganger, oppdateringer, gitter

Trening og optimalisering av et nevralt nettverk ved hjelp av Theano

  • Nevral nettverksmodellering

  • Logistisk regresjon

  • Skjulte lag

  • Trene et nettverk

  • Databehandling og klassifisering

  • Optimalisering

  • Loggtap

Tester modellen


Del 3 – DNN ved hjelp av Tensorflow

TensorFlow Grunnleggende

  • Oppretting, initialisering, lagring og gjenoppretting TensorFlow variabler

  • Mating, lesing og forhåndsinnlasting TensorFlow Data

  • Hvordan bruke TensorFlow infrastruktur for å trene modeller i skala

  • Visualisere og evaluere modeller med TensorBoard

TensorFlow Mekanikk

  • Forbered dataene

  • Last ned

  • Inndata og plassholdere

  • Bygg grafene

    • Inferens

    • Tap

    • Opplæring

  • Tren modellen

    • Grafen

    • Sesjonen

    • Togsløyfe

  • Vurder modellen

    • Bygg Eval-grafen

    • Eval utgang

Perceptronen

  • Aktiveringsfunksjoner

  • Perceptronlæringsalgoritmen

  • Binær klassifisering med perceptron

  • Dokumentklassifisering med perceptronen

  • Begrensninger av perceptron

Fra Perceptron til støtte for vektormaskiner

  • Kjerner og kjernetrikset

  • Maksimal marginklassifisering og støttevektorer

Kunstig Neural Networks

  • Ikke-lineære beslutningsgrenser

  • Feedforward og feedback kunstige nevrale nettverk

  • Flerlags perseptroner

  • Minimere kostnadsfunksjonen

  • Forplantning fremover

  • Ryggutbredelse

  • Forbedre måten nevrale nettverk lærer på

Konvolusjonell Neural Networks

  • Goals

  • Modellarkitektur

  • Prinsipper

  • Kode organisasjon

  • Lansering og opplæring av modellen

  • Evaluering av en modell

Grunnleggende introduksjoner som skal gis til modulene nedenfor (Kort introduksjon skal gis basert på tilgjengelig tid):

Tensorflow - Avansert bruk

  • Tråding og køer

  • Distribuert TensorFlow

  • Skrive Documentation og dele modellen din

  • Tilpasse datalesere

  • Manipulere TensorFlow modellfiler


TensorFlow Servering

  • Introduksjon

  • Grunnleggende serveringsveiledning

  • Avansert serveringsveiledning

  • Opplæringsmodell for servering

Krav

Bakgrunn i fysikk, matematikk og programmering. Engasjement i bildebehandlingsaktiviteter.

Delegatene bør ha en forhåndsforståelse av maskinlæringskonsepter, og bør ha arbeidet med Python programmering og biblioteker.

 35 timer

Antall deltakere


Price per participant

Testimonials (5)

Upcoming Courses

Related Categories