Kursplan

Introduksjon til Ollama

  • Hva er Ollama og hvordan fungerer det?
  • Fordeler med å kjøre AI-modeller lokalt
  • Oversikt over støttede LLM-er (Llama, DeepSeek, Mistral, etc.)

Installere og sette opp Ollama

  • Systemkrav og maskinvarehensyn
  • Installerer Ollama på forskjellige operativsystemer
  • Konfigurere avhengigheter og miljøoppsett

Kjøre AI-modeller lokalt

  • Laster ned og laster AI-modeller i Ollama
  • Samhandle med modeller via kommandolinjen
  • Grunnleggende prompt engineering for lokale AI-oppgaver

Optimalisering av ytelse og ressursbruk

  • Administrere maskinvareressurser for effektiv AI-utførelse
  • Reduserer latens og forbedrer modellens responstid
  • Benchmarking ytelse for ulike modeller

Use Cases for lokal AI-distribusjon

  • AI-drevne chatbots og virtuelle assistenter
  • Databehandling og automatiseringsoppgaver
  • Personvernfokuserte AI-applikasjoner

Sammendrag og neste trinn

Krav

  • Grunnleggende forståelse av AI og maskinlæringskonsepter
  • Kjennskap til kommandolinjegrensesnitt

Publikum

  • Utviklere som kjører AI-modeller uten skyavhengigheter
  • Business fagfolk som er interessert i AI-personvern og kostnadseffektiv distribusjon
  • AI-entusiaster som utforsker lokal modelldistribusjon
 7 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories