A Practical Introduction to Stream Processing Treningskurs
Stream Processing refererer til sanntidsbehandling av "data in motion", det vil si å utføre beregninger på data når de mottas. Slike data blir lest som kontinuerlige strømmer fra datakilder som sensorhendelser, brukeraktivitet på nettstedet, finansielle handler, kredittkortveksler, Stream Processing , etc. Stream Processing kan lese store mengder innkommende data og gi verdifull innsikt nesten øyeblikkelig.
I denne instruktørledede, liveopplæringen (på stedet eller fjernkontrollen) vil deltakerne lære å sette opp og integrere forskjellige Stream Processing rammer med eksisterende store datalagringssystemer og relaterte programvareapplikasjoner og mikroservices.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Installer og konfigurer forskjellige Streaming Stream Processing rammer, for eksempel Spark Streaming og Kafka Streaming.
- Forstå og velg de mest passende rammene for jobben.
- Behandle data kontinuerlig, samtidig og på en post-for-post måte.
- Integrer Stream Processing med eksisterende databaser, datavarehus, datasjøer, etc.
- Integrer det mest passende strømbehandlingsbiblioteket med bedriftsapplikasjoner og mikroservices.
Publikum
- Utviklere
- Programvarearkitekter
Kursets format
- Delforelesning, deldiskusjon, øvelser og tung praktisk øvelse
Merknader
- For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å avtale.
Kursplan
Introduksjon
- Strømbehandling vs batchbehandling Analytics-fokusert strømbehandling
Oversiktsrammer og Programming språk
- Spark Streaming (Scala) Kafka Streaming (Java) Flink Storm Sammenligning av funksjoner og styrker til hvert rammeverk
Oversikt over datakilder
- Live data som en serie hendelser over tid Historiske datakilder
Distribusjonsalternativer
- I skyen (AWS, etc.) On premise (privat sky, etc.)
Starter
- Sette opp utviklingsmiljøet Installere og konfigurere Vurdere dine Data Analysis behov
Betjene et Streaming Framework
- Integrering av Streaming Framework med Big Data Tools Event Stream Processing (ESP) vs Complex Event Processing (CEP) Transformere inngangsdataene Inspisere utdataene Integrering av Stream Processing rammeverket med eksisterende applikasjoner og mikrotjenester
Feilsøking
Oppsummering og konklusjon
Krav
- Programming erfaring på alle språk
- En forståelse av Big Data-konsepter (Hadoop, etc.)
Open Training Courses require 5+ participants.
A Practical Introduction to Stream Processing Treningskurs - Booking
A Practical Introduction to Stream Processing Treningskurs - Enquiry
A Practical Introduction to Stream Processing - Consultancy Enquiry
Consultancy Enquiry
Testimonials (1)
Sufficient hands on, trainer is knowledgable
Chris Tan
Kurs - A Practical Introduction to Stream Processing
Upcoming Courses
Relaterte kurs
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 timerDette kurset er ment for utviklere og dataforskere som ønsker å forstå og implementere kunstig intelligens i sine applikasjoner. Spesielt fokus er på dataanalyse, distribuert kunstig intelligens og naturlig språkbehandling.
Apache Kafka Connect
7 timerDenne instruktørledede, live-opplæringen i Norge (online eller på stedet) er rettet mot utviklere som ønsker å integrere Apache Kafka med eksisterende databaser og applikasjoner for prosessering, analyse, etc.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Bruk Kafka Connect til å innta store mengder data fra en database til Kafka-emner.
- Lag inn loggdata generert av en applikasjonsserver i Kafka-emner.
- Gjør alle innsamlede data tilgjengelig for strømbehandling.
- Eksporter data fra Kafka-emner til sekundære systemer for lagring og analyse.
Unified Batch and Stream Processing with Apache Beam
14 timerApache Beam er en åpen kildekode, enhetlig programmeringsmodell for å definere og utføre parallelle databehandlingsrørledninger. Dens kraft ligger i dens evne til å kjøre både batch- og streaming-pipelines, med utførelse utført av en av Beams støttede distribuerte prosesserings-backends: Apache Apex, Apache Flink, Apache Spark og Googgle Cloud Dataflow. Apache Beam er nyttig for ETL (Extract, Transform, and Load) oppgaver som å flytte data mellom forskjellige lagringsmedier og datakilder, transformere data til et mer ønskelig format og laste inn data til et nytt system.
I denne instruktørledede, live-opplæringen (på stedet eller ekstern) vil deltakerne lære hvordan de implementerer Apache Beam SDK-ene i en Java eller Python applikasjon som definerer en databehandlingspipeline for å dekomponere et stort datasett i mindre biter for uavhengig, parallell behandling.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Installer og konfigurer Apache Beam.
- Bruk en enkelt programmeringsmodell for å utføre både batch- og strømbehandling fra deres Java eller Python applikasjon.
- Utfør rørledninger på tvers av flere miljøer.
Kursets format
- Del forelesning, del diskusjon, øvelser og tung praktisk praksis
Note
- Dette kurset vil være tilgjengelig Scala i fremtiden. Vennligst kontakt oss for å avtale.
Building Kafka Solutions with Confluent
14 timerDenne instruktørledede, direkteopplæringen (online eller på stedet) er rettet mot ingeniører som ønsker å bruke Confluent (en distribusjon av Kafka) til å bygge og administrere en sanntidsdatabehandlingsplattform for applikasjonene deres.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Installer og konfigurer Confluent Platform. Bruk Confluents administrasjonsverktøy og tjenester for å kjøre Kafka enklere. Lagre og behandle innkommende strømdata. Optimaliser og administrer Kafka-klynger. Sikre datastrømmer.
Kursets format
- Interaktivt foredrag og diskusjon. Mye øvelser og trening. Praktisk implementering i et live-lab-miljø.
Alternativer for kurstilpasning
- Dette kurset er basert på åpen kildekode-versjonen av Confluent: Confluent Open Source. For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å avtale.
Apache Flink Fundamentals
28 timerDenne instruktørledede, direkteopplæringen i Norge (online eller på stedet) introduserer prinsippene og tilnærmingene bak distribuert strøm- og batchdatabehandling, og leder deltakerne gjennom opprettelsen av en sanntidsdatastrømningsapplikasjon i Apache Flink.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Sett opp et miljø for utvikling av dataanalyseapplikasjoner.
- Forstå hvordan Apache Flink sitt grafbehandlingsbibliotek (Gelly) fungerer.
- Pakk, utfør og overvåk Flink-baserte, feiltolerante, datastrømmeapplikasjoner.
- Håndter ulike arbeidsmengder.
- Utfør avanserte analyser.
- Sett opp en multi-node Flink-klynge.
- Mål og optimer ytelsen.
- Integrer Flink med forskjellige Big Data systemer.
- Sammenlign Flink-funksjonene med andre rammeverk for behandling av store data.
Introduction to Graph Computing
28 timerI denne instruktørledede, live-opplæringen i Norge vil deltakerne lære om teknologitilbudene og implementeringstilnærmingene for behandling av grafdata. Målet er å identifisere virkelige objekter, deres egenskaper og relasjoner, deretter modellere disse relasjonene og behandle dem som data ved å bruke en Graph Computing (også kjent som Graph Analytics) tilnærming. Vi starter med en bred oversikt og begrenser oss til spesifikke verktøy når vi går gjennom en serie casestudier, praktiske øvelser og live-implementeringer.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå hvordan grafdata opprettholdes og krysses.
- Velg det beste rammeverket for en gitt oppgave (fra grafdatabaser til rammeverk for batchbehandling.)
- Implementer Hadoop, Spark, GraphX og Pregel for å utføre grafberegning på tvers av mange maskiner parallelt.
- Se virkelige store dataproblemer når det gjelder grafer, prosesser og gjennomganger.
Apache Kafka for Python Programmers
7 timerDenne instruktørledede, direkteopplæringen i Norge (online eller på stedet) er rettet mot dataingeniører, dataforskere og programmerere som ønsker å bruke Apache Kafka-funksjoner i datastrømming med Python.
Ved slutten av denne opplæringen vil deltakerne kunne bruke Apache Kafka til å overvåke og administrere forhold i kontinuerlige datastrømmer ved å bruke Python programmering.
Stream Processing with Kafka Streams
7 timerKafka Streams er et bibliotek på klientsiden for å bygge applikasjoner og mikroservices hvis data sendes til og fra et Kafka-meldingssystem. Tradisjonelt har Apache Kafka vært avhengig av Apache Spark eller Apache Storm å behandle data mellom meldingsprodusenter og forbrukere. Ved å kalle Kafka Streams API fra en applikasjon, kan data behandles direkte i Kafka, og omgå behovet for å sende dataene til en egen klynge for behandling.
I denne instruktørledede, liveopplæringen, vil deltakerne lære å integrere Kafka Streams i et sett med Java applikasjoner som sender data til og fra Apache Kafka for strømbehandling.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå Kafka Streams funksjoner og fordeler i forhold til andre rammeverk for prosessering av strømmer
- Behandle data direkte i en Kafka-klynge
- Skriv en Java eller Scala applikasjon eller mikroservice som integreres med Kafka og Kafka Streams
- Skriv kortfattet kode som forvandler input Kafka-emner til output Kafka-emner
- Bygg, pakke og distribuer applikasjonen
Publikum
- Utviklere
Kursets format
- Delforelesning, deldiskusjon, øvelser og tung praktisk øvelse
Merknader
- For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å avtale
Confluent KSQL
7 timerDenne instruktørledede, direkteopplæringen i Norge (online eller på stedet) er rettet mot utviklere som ønsker å implementere Apache Kafka strømbehandling uten å skrive kode.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Installer og konfigurer Confluent KSQL.
- Sett opp en strømbehandlingspipeline ved å bruke bare SQL kommandoer (ingen Java eller Python koding).
- Utfør datafiltrering, transformasjoner, aggregeringer, sammenføyninger, vinduer og økter i SQL.
- Design og distribuer interaktive, kontinuerlige spørringer for streaming av ETL og sanntidsanalyse.
Apache NiFi for Administrators
21 timerI denne instruktørledede, live-opplæringen i Norge (på stedet eller eksternt), vil deltakerne lære hvordan de distribuerer og administrerer Apache NiFi i et levende laboratoriemiljø.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Installer og konfigurer Apachi NiFi.
- Kilde, transformer og administrer data fra forskjellige, distribuerte datakilder, inkludert databaser og store datainnsjøer.
- Automatiser dataflyter.
- Aktiver strømmeanalyse.
- Bruk ulike tilnærminger for datainntak.
- Forvandle Big Data og til forretningsinnsikt.
Apache NiFi for Developers
7 timerI denne instruktørledede, live-opplæringen i Norge vil deltakerne lære det grunnleggende om flytbasert programmering når de utvikler en rekke demo-utvidelser, komponenter og prosessorer ved hjelp av Apache NiFi.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå NiFis arkitektur og dataflytkonsepter.
- Utvikle utvidelser ved å bruke NiFi og tredjeparts APIer.
- Tilpasset utvikle sin egen Apache Nifi-prosessor.
- Ta inn og behandle sanntidsdata fra forskjellige og uvanlige filformater og datakilder.
Python and Spark for Big Data (PySpark)
21 timerI denne instruktørledede, live-treningen i Norge vil deltakerne lære å bruke Python og Spark sammen for å analysere store data mens de jobber med praktiske øvelser.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Lær hvordan du bruker Spark med Python for å analysere Big Data.
- Arbeid med øvelser som etterligner virkelige tilfeller.
- Bruk forskjellige verktøy og teknikker for stordataanalyse ved hjelp av PySpark.
Spark Streaming with Python and Kafka
7 timerDenne instruktørledede, live-opplæringen i Norge (online eller på stedet) er rettet mot dataingeniører, dataforskere og programmerere som ønsker å bruke Spark Streaming-funksjoner til å behandle og analysere sanntidsdata.
Ved slutten av denne opplæringen vil deltakerne kunne bruke Spark Streaming til å behandle live datastrømmer for bruk i databaser, filsystemer og live dashboards.
Apache Spark MLlib
35 timerMLlib er Sparks maskinlæringsbibliotek. Målet er å gjøre praktisk maskinlæring skalerbar og enkel. Den består av vanlige læringsalgoritmer og verktøy, inkludert klassifisering, regresjon, klynger, samarbeidende filtrering, dimensjonalitetsreduksjon, samt primitiver på lavere nivå og optimaliseringsgrensesnitt på rørledningen.
Den deler seg i to pakker:
spark.mllib inneholder den originale API-en som er bygget på toppen av RDD-er.
spark.ml gir API på høyere nivå bygget oppå DataFrames for konstruksjon av ML-rørledninger.
Publikum
Dette kurset er rettet mot ingeniører og utviklere som søker å bruke et innebygd maskinbibliotek for Apache Spark