Streaming Hands-On mit Kafka & Python.
- Seminar
- Präsenz / Virtual Classroom
- Zurzeit keine Termine
- 16 Unterrichtseinheiten
- Teilnahmebescheinigung
Eventbasierte Systeme verstehen und anwenden – praxisnah mit Python.
Erleben Sie in diesem zweitägigen Intensivtraining zu Apache Kafka praxisnahe Beispiele mit Python. Lernen Sie, wie Producer-Consumer-Architekturen für Streaming-Anwendungen aufgebaut werden, Daten in Echtzeit verarbeitet und Best Practices sowie Skalierung angewendet werden – für einen effizienten, modernen Event-Driven-Workflow.
Nutzen
- Echtzeit-Mehrwert: Beschleunigte Datenverarbeitung und schnellerer Informationsfluss.
- Effizientere Prozesse: Reduzierte Latenz, weniger manuelle Schritte, robuste Event-Pipelines.
- Zukunftssicherheit: Kafka und Python sind fest etablierte Technologien mit starkem Community-Support.
- Wettbewerbsvorteil: Moderne Streaming-Architekturen ermöglichen schnellere Innovationen.
- Team-Kompetenzen stärken: Praxisnahe Übungen fördern Wissenstransfer und direkte Umsetzbarkeit.
Abschluss
Teilnahmebescheinigung
- Sie erhalten eine Teilnahmebescheinigung, die die unten genannten Inhalte bestätigt.
Zielgruppe
- Entwickler:innen, Data Engineers und Architekt:innen
- IT-Fachkräfte mit Interesse an ereignisgesteuerten Systemen
- Teams, die Echtzeitdaten verarbeiten möchten
- Python-Anwender:innen, die Kafka praxisnah einsetzen wollen
Anforderungen
- Grundkenntnisse in Shell-Umgebungen
- Basiswissen in Python (z. B. Datenstrukturen, Funktionen)
- Motivation für praktische Übungen (Hands-on)
- Offene Lernhaltung und Bereitschaft zum Austausch
Inhalte
Tag 1 – Grundlagen & Erste Schritte:
- Einführung in Kafka und verteilte Systeme
- Was ist Kafka? Warum ereignisbasierte Systeme?
- Typische Anwendungsfälle (Streaming Analytics, Microservices, Log-Verarbeitung)
- Kafka vs. Alternativen (z. B. RabbitMQ, ActiveMQ)
- Architektur & Komponenten
- Grundlegendes Architekturverständnis: Broker, Topics, Partitionen, Replikation
- Hauptkonzepte: Producer, Consumer, Consumer Groups, Offsets
- Zentrale Garantien (Persistenz, Fehlertoleranz, Skalierung)
- Producer & Consumer API
- Einrichten und Konfigurieren von Kafka (Lokal, Docker)
- Einfache Producer und Consumer in der Shell
- APIs in Python (z. B. confluent-kafka-python, kafka-python)
- Nachrichtenfluss: Partitionierung, Acknowledgments, Rebalancing
- Messaging und Serialisierung
- Nachrichtenübertragung (Batching, Linger, Kompression)
- (De)Serialisierungstechniken (JSON, Avro, Protobuf)
- Best Practices für Messaging und Fehlerhandling
-
- Best Practices für den produktiven Einsatz (z. B. Topics designen, Durchsatz optimieren)
Tag 2 – Vertiefung, Ökosystem & Betrieb:
- Kafka-Ökosystem
- Kafka Connect: Datenintegration (Konnektoren für Datenquellen und -ziele)
- Kafka Streams: Stream-Verarbeitung in Echtzeit
-
- Best Practices für den produktiven Einsatz (z. B. Topics designen, Durchsatz optimieren)
- Performance-Tuning & Sicherheitspraktiken
- Broker-Konfiguration (z. B. Speicher, Netzwerk, Throughput)
- Umgang mit Latenz und Durchsatz-Anforderungen
- Sicherheitsaspekte: Authentifizierung (SASL), Autorisierung (ACLs), SSL/TLS
- Hochverfügbarkeit & Garantien
- Replikationsfaktoren und Partitionierung
- Exactly-Once Processing (Transaktionen im Kafka-Ökosystem)
- Typische Herausforderungen in skalierenden Systemen
- Praxisnahe Szenarien
- Fallbeispiele (Log-Verarbeitung, Stream Analytics, Microservices-Integration)
- Gemeinsames Durchspielen: Einfache Pipeline mit Kafka Connect & Streams
- Troubleshooting: Häufige Fehlermeldungen und mögliche Lösungen
- Abschluss und Ausblick
Hinweise
- Das Seminarskript wird ausschließlich in englischer Sprache bereitgestellt.
- Das Seminar wird in deutscher Sprache durchgeführt.