Kursplan

Introduksjon til DeepSeek LLM Fine-Tuning

  • Oversikt over DeepSeek modeller, f.eks. DeepSeek-R1 og DeepSeek-V3
  • Forstå behovet for finjustering av LLM-er
  • Sammenligning av finjustering vs. prompt engineering

Forbereder datasettet for Fine-Tuning

  • Kuratere domenespesifikke datasett
  • Dataforbehandling og renseteknikker
  • Tokenisering og datasettformatering for DeepSeek LLM

Sette opp Fine-Tuning-miljøet

  • Konfigurerer GPU og TPU-akselerasjon
  • Sette opp Hugging Face Transformers med DeepSeek LLM
  • Forstå hyperparametre for finjustering

Fine-Tuning DeepSeek LLM

  • Implementere overvåket finjustering
  • Bruke LoRA (Low-Rank Adaptation) og PEFT (Parameter-Efficient Fine-Tuning)
  • Kjører distribuert finjustering for store datasett

Evaluering og optimalisering av finjusterte modeller

  • Vurdere modellytelse med evalueringsberegninger
  • Håndtering av over- og undertilpasning
  • Optimalisering av slutningshastighet og modelleffektivitet

Utplassering av finjusterte DeepSeek modeller

  • Pakkemodeller for API-distribusjon
  • Integrering av finjusterte modeller i applikasjoner
  • Skalering av distribusjoner med sky- og kantdatabehandling

Real-World Use Case og applikasjoner

  • Finjusterte LLM-er for økonomi, helsetjenester og kundestøtte
  • Kasusstudier av industriapplikasjoner
  • Etiske betraktninger i domenespesifikke AI-modeller

Sammendrag og neste trinn

Krav

  • Erfaring med maskinlæring og rammeverk for dyp læring
  • Kjennskap til transformatorer og store språkmodeller (LLM)
  • Forståelse av dataforbehandling og modelltreningsteknikker

Publikum

  • AI-forskere utforsker LLM-finjustering
  • Maskinlæringsingeniører utvikler tilpassede AI-modeller
  • Avanserte utviklere som implementerer AI-drevne løsninger
 21 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories