Workshop Big Data
Big Data – Hadoop, Kafka und Spark
In unserem Workshop „Big Data – Hadoop, Kafka und Spark“ erhalten Administratoren und Big Data Entwickler als Einsteiger eine Einführung in die beliebtesten Big Data Frameworks Hadoop, Kafka und Spark zur schnelleren Analyse.
- Fundiertes Verständnis für Hadoop, Kafka und Spark
- Hands-on-Erfahrung für reale Big Data Projekte
- Fähigkeiten zur effizienten Verarbeitung großer Datenmengen
Unsere Schulungsreihe im Bereich Big Data
Big Data leicht gemacht: Einstieg in Hadoop, Kafka und Spark
Hadoop ist der Standard im Bereich Big Data und bildet die Grundlage für die effiziente Speicherung und Analyse polystrukturierter Massendaten aus unterschiedlichsten Quellen. Mit dem Hadoop-Ökosystem wird es möglich, Daten schnell und skalierbar zu verarbeiten.
Dieser Workshop bietet Ihnen eine strukturierte Einführung in die Technologien Hadoop, Kafka und Spark und erleichtert den Einstieg in die Welt der Big Data. Sie erhalten fundiertes Hintergrundwissen und praxisnahes Handwerkszeug, um direkt in einem Big Data-Projekt mitwirken zu können. Durch Hands-on-Übungen lernen Sie die wichtigsten Komponenten des Big Data-Ökosystems kennen und nutzen, um datengetriebene Herausforderungen erfolgreich zu meistern.
Erlernen Sie die Grundlagen und praktischen Anwendungen moderner Big Data-Technologien
In diesem Workshop erhalten Sie einen umfassenden Überblick über die wichtigsten Big Data-Technologien wie Hadoop, Spark und Kafka. Neben theoretischen Grundlagen steht die praxisnahe Umsetzung im Vordergrund, um Sie optimal auf die Herausforderungen datengetriebener Projekte vorzubereiten:
- Grundlagen: Einführung in das Thema Big Data, Nutzen von Big Data Lösungen, Überblick über aktuelle Big Data Technologien
- Big Data Architekturen: Datenintegration, Datenhaltung, Datenzugriff- und Verarbeitung, Lambda- und Kappa-Architekturen
- Das Hadoop Filesystem (HDFS): Grundlagen, Command Line Interface und REST-API, Java-API, Deployment
- Hadoop-Konfiguration, Dateiformate (Parquet und weitere), No-SQL-Datenbanken, In Memory-Datenbanken, Spaltenorientierte Datenbanken
- Cluster-Ressourcen-Management: Grundlagen, YARN, Command line interface, Java-API, Analyse der Logfiles
- Ausführungsoptionen / Execution Engines, Horizontale und vertikale Skalierung, Map & Reduce, Tez
- Apache Spark: Architektur, Command line interface, Horizontale und vertikale Skalierung, Analyse der Logfiles
- Apache Hive: Analyse strukturierter Daten mittels Hive SQL, Integration von Business Analytics-Lösungen, Optimierungen mittels Apache Hive LLAP
- Überblick über Apache Kafka, Apache Storm, Apache NiFi und weitere Tools
- Best Practices und offene Diskussion
Methodik:
Die Grundlagen werden in Form einer Schulung vermittelt. Praktische Übungen dienen der Festigung des Erlernten. Die Teilnehmer verwalten ein Big Data-System, analysieren und optimieren das Laufzeitverhalten des Systems und erstellen eigene kleine Anwendungen. Gerne verwenden wir hierfür Beispiel- / Demodaten aus Ihrem Unternehmen.
Standort:
Diese Schulung findet am Standort Münster in einer Kleinstgruppe mit maximal drei Teilnehmern statt. Alternativ bieten wir Ihnen diese Schulung als In-House Schulung an.
Workshop
Big Data – Hadoop, Kafka, Spark-
Dauer: 2 Tage
-
Voraussetzung: Grundkenntnisse IT-Systeme*
-
Präsenz / Online
-
kurzfristige Terminvereinbarung möglich
Praxisorientiert und auf Sie zugeschnitten
Zielgruppe: Administratoren und Big Data-Entwickler als Einsteiger in Big Data Projekte
Wir gestalten die Inhalte individuell nach Ihren Anforderungen und gehen flexibel auf Ihre Fragen ein – gerne auch anhand Ihrer eigenen Beispieldaten. Die Themenbausteine fügen wir passgenau zu einer Schulung zusammen, die perfekt auf Ihre Bedürfnisse abgestimmt ist.
Kontakt
Wie können wir unterstützen?
Sie möchten weitere Informationen erhalten oder haben Interesse an einem individuellen Beratungsgespräch? Teilen Sie uns dazu einfach in einer kurzen Mitteilung mit, wie wir Ihnen weiterhelfen können, und wir melden uns schnellstmöglich bei Ihnen zurück.
Lassen Sie uns beginnen.