Schulung Big Data – Hadoop, Kafka, Spark

Hadoop ist der Standard im Bereich Big Data. Polystrukturierte Massendaten aus vielen unterschiedlicher Quellen möglichst schnell zu speichern und zu analysieren wird mit dem Hadoop-Ökosystem relativ einfach möglich. Dieser Workshop erleichtert den Einsteig und die Orientierung. Sie erhalten das nötige Hintergrundwissen und Handwerkzeug um schnell in einem Big Data-Projekt mitwirken zu können.

Schulungen von Open Logic Systems – so individuell wie Ihr Unternehmen

Zielgruppe: Administratoren und Big Data-Entwickler als Einsteiger in Big Data- Projekten.

Dauer: 2 Tage

Voraussetzung: Grundkenntnisse in der Administration von IT-Systemen.

Methodik: Die Grundlagen werden in Form einer Schulung vermittelt. Praktische Übungen dienen der Festigung des Erlernten. Die Teilnehmer verwalten ein Big Data-System, analysieren und optimieren das Laufzeitverhalten des Systems und erstellen eigene kleine Applikationen. Gerne verwenden wir hierfür Beispiel- / Demodaten aus Ihrem Unternehmen.

Standort: Diese Schulung findet am Standort Münster in einer Kleinstgruppe mit maximal drei Teilnehmern statt. Alternativ bieten wir Ihnen diese Schulung als In-House Schulung an.

Seminarinhalt Big Data Workshop:
  • Grundlagen und Einführung in das Thema Big Data
  • Nutzen von Big Data-Lösungen
  • Überblick über aktuelle Big-Data-Technologien
  • Big Data-Architekturen
    • Datenintegration
    • Datenhaltung
    • Datenzugriff- und Verarbeitung
    • Lambda- und Kappa-Architekturen
  • Das Hadoop Filesystem (HDFS)
    • Grundlagen
    • Command Line Interface und REST-API
    • Java-API
    • Deployment
  • Hadoop-Konfiguration
  • Dateiformate (Parquet und weitere)
  • No-SQL-Datenbanken
  • In Memory-Datenbanken
  • Spaltenorientierte Datenbanken
  • Cluster-Ressourcen-Management
    • Grundlagen
    • YARN
    • Command line interface
    • Java-API
    • Analyse der Logfiles
  • Ausführungsoptionen / Execution Engines
  • Horizontale und vertikale Skalierung
  • Map & Reduce
  • Tez
  • Apache Spark
    • Architektur
    • Command line interface
    • Horizontale und vertikale Skalierung
    • Analyse der Logfiles
  • Apache Hive
  • Analyse strukturierter Daten mittels Hive SQL
  • Integration von Business Analytics-Lösungen
  • Optimierungen mittels Apache Hive LLAP
  • Überblick über Apache Kafka, Apache Storm, Apache NiFi und weitere Tools
  • Best practices
  • Offene Diskussion 

Sämtliche Übungen werden auf einem Entwicklungs-System als praktische Übungen umgesetzt.

 

In vier Schritten zum maßgeschneiderten Workshop:
  1. Wir ermitteln und analysieren Ihren speziellen Bedarf.
  2. Wir konzipieren inhaltlich auf Ihr Unternehmen abgestimmte Seminarunterlagen.
  3. Wir planen die benötigten Ressourcen.
  4. Wir schulen die Teilnehmer praxisnah und anwenderorientiert.
Erfolgsfaktor Know-how

Je besser sich Ihre Mitarbeiter mit den eingesetzten BI-Werkzeugen auskennen, desto effektiver können sie diese auch nutzen. Ein gut geschultes Team wird so zum einem echten Wettbewerbsvorteil für Ihr Unternehmen. Sprechen Sie uns an – gerne finden wir auch für Sie die passende Lösung.

Weitere Schulungen: