Kursplan

Innledning

  • Hva er GPU-programmering?
  • Hvorfor bruke CUDA med Python?
  • Nøkkelbegreper: Tråder, Blokker, Gitter

Oversikt over CUDA-funksjoner og -arkitektur

  • GPU-vs-CPU-arkitektur
  • Forklaring av SIMT (Single Instruction, Multiple Threads)
  • CUDA-programmeringsmodell

Oppsett av Utviklingsmiljø

  • Innsetting av CUDA Toolkit og driverer
  • Innsetting av Python og Numba
  • Oppsett og verifisering av miljøet

Grunnleggende Parallelle Programming

  • Innføring i parallell eksekvering
  • Forklaring av tråder og tråd-hierarki
  • Tilrettelegging for warps og synkronisering

Arbeid med Numba-kompilatoren

  • Innføring i Numba
  • Skriving av CUDA-kjerner med Numba
  • Forklaring av @cuda.jit dekoratorer

Blanding av en Tilstellet CUDA-Kjerne

  • Skriving og start av en grunnleggende kjerne
  • Bruk av tråder for elementvis operasjoner
  • Håndtering av gitter-og blokkdimensjonering

HukommelsesManagement

  • Typer av GPU-hukommelse (global, delt, lokal, konstant)
  • Overføring av hukommelse mellom vert og enhet
  • Optimalisering av hukommelsesbruk og unngåelse av krysningspunkter

Avanserte Emner i GPU-akselerasjon

  • Delt hukommelse og synkronisering
  • Bruk av strømmer for asynkrone eksekveringer
  • Grunnleggende multi-GPU programmering

Konvertering av CPU-baserte Applikasjoner til GPU

  • Profilering av CPU-kode
  • Forklaring av parallelliserbare deler
  • Portering av logikk til CUDA-kjerner

Feilsøking

  • Feilsøking i CUDA-applikasjoner
  • Gammelferdige feil og hvordan man løser dem
  • Værktøy og teknikker for testing og validering

Oppsummering og Neste Trinn

  • Oversikt over nøkkelbegreper
  • Bærekraftsregler i GPU-programmering
  • Kilder til videre læring

Krav

  • Python programmerfaring
  • Erfaring med NumPy (ndarrays, ufuncs, etc.)

Publikum

  • Utviklere
 14 timer

Antall deltakere


Price per participant

Testimonials (1)

Upcoming Courses

Related Categories