Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduksjon til Ollama
- Hva er Ollama og hvordan fungerer det?
- Fordeler med å kjøre AI-modeller lokalt
- Oversikt over støttede LLM-er (Llama, DeepSeek, Mistral, etc.)
Installere og sette opp Ollama
- Systemkrav og maskinvarehensyn
- Installerer Ollama på forskjellige operativsystemer
- Konfigurere avhengigheter og miljøoppsett
Kjøre AI-modeller lokalt
- Laster ned og laster AI-modeller i Ollama
- Samhandle med modeller via kommandolinjen
- Grunnleggende prompt engineering for lokale AI-oppgaver
Optimalisering av ytelse og ressursbruk
- Administrere maskinvareressurser for effektiv AI-utførelse
- Reduserer latens og forbedrer modellens responstid
- Benchmarking ytelse for ulike modeller
Use Cases for lokal AI-distribusjon
- AI-drevne chatbots og virtuelle assistenter
- Databehandling og automatiseringsoppgaver
- Personvernfokuserte AI-applikasjoner
Sammendrag og neste trinn
Krav
- Grunnleggende forståelse av AI og maskinlæringskonsepter
- Kjennskap til kommandolinjegrensesnitt
Publikum
- Utviklere som kjører AI-modeller uten skyavhengigheter
- Business fagfolk som er interessert i AI-personvern og kostnadseffektiv distribusjon
- AI-entusiaster som utforsker lokal modelldistribusjon
7 timer