Kursplan

Introduksjon til Ollama for LLM-distribusjon

  • Oversikt over Ollama sine muligheter
  • Fordeler med distribusjon av lokal AI-modell
  • Sammenligning med skybaserte AI-hostingløsninger

Sette opp distribusjonsmiljøet

  • Installerer Ollama og nødvendige avhengigheter
  • Konfigurering av maskinvare og GPU akselerasjon
  • Dockerizing Ollama for skalerbare distribusjoner

Utplassering av LLM-er med Ollama

  • Laste og administrere AI-modeller
  • Utplassering av Llama 3, DeepSeek, Mistral og andre modeller
  • Opprette APIer og endepunkter for AI-modelltilgang

Optimalisering av LLM-ytelse

  • Finjustere modeller for effektivitet
  • Reduser ventetiden og forbedrer responstidene
  • Administrere minne og ressursallokering

Integrering av Ollama i AI-arbeidsflyter

  • Kobler Ollama til applikasjoner og tjenester
  • Automatisering av AI-drevne prosesser
  • Bruk av Ollama i edge computing-miljøer

Overvåking og vedlikehold

  • Sporing av ytelse og feilsøkingsproblemer
  • Oppdatere og administrere AI-modeller
  • Sikre sikkerhet og samsvar i AI-implementeringer

Skalering av AI-modeller

  • Beste praksis for håndtering av høy arbeidsbelastning
  • Skalering Ollama for bedriftsbruk
  • Fremtidige fremskritt innen implementering av lokal AI-modell

Sammendrag og neste trinn

Krav

  • Grunnleggende erfaring med maskinlæring og AI-modeller
  • Kjennskap til kommandolinjegrensesnitt og skripting
  • Forståelse av distribusjonsmiljøer (lokalt, edge, sky)

Publikum

  • AI-ingeniører som optimaliserer lokale og skybaserte AI-distribusjoner
  • ML-utøvere som distribuerer og finjusterer LLM-er
  • DevOps spesialister som administrerer AI-modellintegrasjon
 14 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories