Kursplan

DAG 1 - KUNSTIGE NEVRALE NETTVERK

Introduksjon og ANN-struktur.

  • Biologiske nevroner og kunstige nevroner.
  • Modell av en ANN.
  • Aktiveringsfunksjoner brukt i ANN-er.
  • Typiske klasser av nettverksarkitekturer.

Mathematical Grunnlag og læringsmekanismer.

  • Re-visiting vektor og matrise algebra.
  • Stat-rom konsepter.
  • Konsepter for optimalisering.
  • Feilrettingslæring.
  • Minnebasert læring.
  • Hebbisk læring.
  • Konkurransedyktig læring.

Enkeltlags perseptroner.

  • Struktur og læring av perseptroner.
  • Mønsterklassifiserer - introduksjon og Bayes' klassifiserere.
  • Perceptron som mønsterklassifiserer.
  • Perceptron konvergens.
  • Begrensninger for en perceptron.

Tilbakemelding ANN.

  • Strukturer av flerlags feedforward-nettverk.
  • Algoritme for forplantning tilbake.
  • Ryggutbredelse - trening og konvergens.
  • Funksjonell tilnærming med ryggutbredelse.
  • Praktiske og designmessige spørsmål om ryggforplantningslæring.

Radial basisfunksjonsnettverk.

  • Mønster separerbarhet og interpolasjon.
  • Regulariseringsteori.
  • Regularisering og RBF-nettverk.
  • RBF nettverksdesign og opplæring.
  • Tilnærmingsegenskaper til RBF.

Konkurransedyktig læring og selvorganiserende ANN.

  • Generelle klyngingsprosedyrer.
  • Lære vektorkvantisering (LVQ).
  • Konkurransedyktige læringsalgoritmer og arkitekturer.
  • Selvorganiserende funksjonskart.
  • Egenskaper til funksjonskart.

Uklar Neural Networks.

  • Nevro-fuzzy systemer.
  • Bakgrunn av uklare sett og logikk.
  • Design av uklare stengler.
  • Design av uklare ANN-er.

applikasjoner

  • Noen få eksempler på nevrale nettverksapplikasjoner, deres fordeler og problemer vil bli diskutert.

DAG -2 MASKINLÆRING

  • PAC læringsrammeverket
    • Garantier for begrenset hypotesesett – konsistent kasus
    • Garantier for begrenset hypotesesett – inkonsistent kasus
    • Generelt
      • Deterministisk cv. Stokastiske scenarier
      • Bayes feilstøy
      • Anslags- og tilnærmingsfeil
      • Modellvalg
  • Radmeacher Complexity and VC – Dimensjon
  • Bias - variansavveining
  • Regulering
  • Overtilpasning
  • Validering
  • Støtte vektormaskiner
  • Kriging (gaussisk prosessregresjon)
  • PCA og kjerne-PCA
  • Selvorganisasjonskart (SOM)
  • Kjerneindusert vektorrom
    • Mercer Kernels and Kernel - induserte likhetsmålinger
  • Reinforcement Learning

DAG 3 - DYP LÆRING

Dette vil bli undervist i forhold til temaene som dekkes på dag 1 og dag 2

  • Logistikk og Softmax regresjon
  • Sparsomme autokodere
  • Vektorisering, PCA og Whitening
  • Selvlært læring
  • Deep Networks
  • Lineære dekodere
  • Konvolusjon og sammenslåing
  • Sparsom koding
  • Uavhengig komponentanalyse
  • Kanonisk korrelasjonsanalyse
  • Demoer og applikasjoner

Krav

Good forståelse av matematikk.

Good forståelse av grunnleggende statistikk.

Grunnleggende programmeringskunnskaper er ikke nødvendig, men anbefales.

 21 timer

Antall deltakere


Price per participant

Testimonials (2)

Upcoming Courses

Related Categories