Kursplan
DAG 1 - KUNSTIGE NEVRALE NETTVERK
Introduksjon og ANN-struktur.
- Biologiske nevroner og kunstige nevroner.
- Modell av en ANN.
- Aktiveringsfunksjoner brukt i ANN-er.
- Typiske klasser av nettverksarkitekturer.
Mathematical Grunnlag og læringsmekanismer.
- Re-visiting vektor og matrise algebra.
- Stat-rom konsepter.
- Konsepter for optimalisering.
- Feilrettingslæring.
- Minnebasert læring.
- Hebbisk læring.
- Konkurransedyktig læring.
Enkeltlags perseptroner.
- Struktur og læring av perseptroner.
- Mønsterklassifiserer - introduksjon og Bayes' klassifiserere.
- Perceptron som mønsterklassifiserer.
- Perceptron konvergens.
- Begrensninger for en perceptron.
Tilbakemelding ANN.
- Strukturer av flerlags feedforward-nettverk.
- Algoritme for forplantning tilbake.
- Ryggutbredelse - trening og konvergens.
- Funksjonell tilnærming med ryggutbredelse.
- Praktiske og designmessige spørsmål om ryggforplantningslæring.
Radial basisfunksjonsnettverk.
- Mønster separerbarhet og interpolasjon.
- Regulariseringsteori.
- Regularisering og RBF-nettverk.
- RBF nettverksdesign og opplæring.
- Tilnærmingsegenskaper til RBF.
Konkurransedyktig læring og selvorganiserende ANN.
- Generelle klyngingsprosedyrer.
- Lære vektorkvantisering (LVQ).
- Konkurransedyktige læringsalgoritmer og arkitekturer.
- Selvorganiserende funksjonskart.
- Egenskaper til funksjonskart.
Uklar Neural Networks.
- Nevro-fuzzy systemer.
- Bakgrunn av uklare sett og logikk.
- Design av uklare stengler.
- Design av uklare ANN-er.
applikasjoner
- Noen få eksempler på nevrale nettverksapplikasjoner, deres fordeler og problemer vil bli diskutert.
DAG -2 MASKINLÆRING
- PAC læringsrammeverket
- Garantier for begrenset hypotesesett – konsistent kasus
- Garantier for begrenset hypotesesett – inkonsistent kasus
- Generelt
- Deterministisk cv. Stokastiske scenarier
- Bayes feilstøy
- Anslags- og tilnærmingsfeil
- Modellvalg
- Radmeacher Complexity and VC – Dimensjon
- Bias - variansavveining
- Regulering
- Overtilpasning
- Validering
- Støtte vektormaskiner
- Kriging (gaussisk prosessregresjon)
- PCA og kjerne-PCA
- Selvorganisasjonskart (SOM)
- Kjerneindusert vektorrom
- Mercer Kernels and Kernel - induserte likhetsmålinger
- Reinforcement Learning
DAG 3 - DYP LÆRING
Dette vil bli undervist i forhold til temaene som dekkes på dag 1 og dag 2
- Logistikk og Softmax regresjon
- Sparsomme autokodere
- Vektorisering, PCA og Whitening
- Selvlært læring
- Deep Networks
- Lineære dekodere
- Konvolusjon og sammenslåing
- Sparsom koding
- Uavhengig komponentanalyse
- Kanonisk korrelasjonsanalyse
- Demoer og applikasjoner
Krav
Good forståelse av matematikk.
Good forståelse av grunnleggende statistikk.
Grunnleggende programmeringskunnskaper er ikke nødvendig, men anbefales.
Testimonials (2)
Working from first principles in a focused way, and moving to applying case studies within the same day
Maggie Webb - Department of Jobs, Regions, and Precincts
Kurs - Artificial Neural Networks, Machine Learning, Deep Thinking
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.