Data Warehouse Schulungen

Data Warehouse Schulungen

Lokale, instruktorierte Live-Data-Warehouse-Schulungen demonstrieren anhand von Diskussionen und praktischen Übungen, wie ein Data Warehouse zu verstehen, zu planen und einzurichten ist Data Warehouse-Schulungen sind als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Österreich oder in NobleProg Corporate Trainingszentren in Österreich Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt Data Warehouse wird auch als Enterprise Data Warehouse (EDW) oder Data Warehousing bezeichnet NobleProg Ihr lokaler Trainingsanbieter.

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Data Warehouse (DWH) Unterkategorien

Enterprise Data Warehouse (EDW) Kurspläne

Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
14 Stunden
Apache Kylin ist eine extreme, verteilte Analyse-Motor für große Daten. In diesem Live-Training, der von Lehrern geleitet wird, lernen die Teilnehmer, wie man Apache Kylin einen Datenlager in Echtzeit zu verwenden. Am Ende dieser Ausbildung können die Teilnehmer:
    Echtzeit-Streamingdaten mit Kylin verbrauchen Nutze Apache Kylin's leistungsfähige Funktionen, rich SQL Schnittstelle, Spark-Cubing und subsecond Query Latency
Hinweis
    Wir verwenden die neueste Version von Kylin (basiert auf diesem Schreiben, Apache Kylin v2.0)
Publikum
    Big Data Ingenieure Big Data Analytiker
Format des Kurses
    Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
14 Stunden
Der Kurs ist Teil der Fähigkeiten von Data Scientist (Bereich: Daten und Technologie).
21 Stunden
Apache Druid ist ein in Java geschriebener, spaltenorientierter, verteilter Open-Source-Datenspeicher. Es wurde entwickelt, um schnell große Mengen an Ereignisdaten aufzunehmen und OLAP-Abfragen mit niedriger Latenz für diese Daten auszuführen. Druid wird häufig in Business Intelligence-Anwendungen verwendet, um große Mengen von Echtzeit- und Verlaufsdaten zu analysieren. Es ist auch gut geeignet, um schnelle, interaktive, analytische Dashboards für Endbenutzer zu erstellen. Druid wird von Unternehmen wie Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal und Yahoo verwendet. In diesem von Lehrern geführten Live-Kurs werden einige der Einschränkungen von Data Warehouse-Lösungen untersucht und erläutert, wie Druid diese Technologien zu einem flexiblen und skalierbaren Streaming Analytics-Stack ergänzen kann. Wir gehen viele Beispiele durch und bieten den Teilnehmern die Möglichkeit, Druiden-basierte Lösungen in einer Laborumgebung zu implementieren und zu testen.
    Format des Kurses
    • Teilvorlesung, Teildiskussion, intensive praktische Übungen, gelegentliche Tests zur Beurteilung des Verständnisses
    28 Stunden
    Mem SQL ist ein speicherinternes, verteiltes SQL Datenbankverwaltungssystem für Clouds und lokale Anwendungen. Es handelt sich um ein Echtzeit-Data-Warehouse, das sofort Einblicke in Live- und Verlaufsdaten bietet. In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen von Mem SQL für die Entwicklung und Verwaltung. Am Ende dieser Schulung können die Teilnehmer:
    • Verstehen Sie die wichtigsten Konzepte und Eigenschaften von Mem SQL
    • Installieren, entwerfen, warten und betreiben Sie Mem SQL
    • Optimieren Sie Schemata in Mem SQL
    • Verbessern Sie Abfragen in Mem SQL
    • Benchmark-Leistung in Mem SQL
    • Erstellen Sie Echtzeit-Datenanwendungen mit Mem SQL
    Publikum
    • Entwickler
    • Administratoren
    • Betriebsingenieure
    Format des Kurses
    • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
    21 Stunden
    Amazon Redshift ist ein Cloud-basierter Data Warehouse-Service für Petabytescale in AWS In diesem instruierten Live-Training lernen die Teilnehmer die Grundlagen von Amazon Redshift kennen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Amazon Redshift Laden, Konfigurieren, Bereitstellen, Abfragen und Visualisieren von Daten mit Amazon Redshift Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
    21 Stunden
    Pivotal Greenplum ist eine Massively Parallel Processing (MPP) Data Warehouse-Plattform basierend auf PostgreSQL. Dieser Instructor-Leid, Live-Training (online oder online) richtet sich an Entwickler, die eine Multi-Node-Greenplum-Datenbank erstellen möchten. Am Ende dieser Ausbildung können die Teilnehmer:
      Installieren und konfigurieren Sie Pivotal Greenplum. Modelldaten in Übereinstimmung mit aktuellen Bedürfnissen und zukünftigen Erweiterungsplänen. Durchführen Sie verschiedene Techniken für die Verteilung von Daten über mehrere Knoten. Verbesserung der Datenbankleistung durch Tuning. Überwachung und Behebung einer Greenplum-Datenbank.
    Format des Kurses
      Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
    Kursanpassungsoptionen
      Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
    14 Stunden
    Greenplum Database ist eine Datenbank-Software für Business Intelligence und Data Storage. Benutzer können Greenplum Database für massive parallele Datenverarbeitung ausführen. Dieser Instructor-Leid, Live-Training (online oder online) richtet sich an Administratoren, die Greenplum Database für Business Intelligence und Data Storage-Lösungen einrichten möchten. Am Ende dieser Ausbildung können die Teilnehmer:
      Adressverarbeitungsbedürfnisse mit Greenplum. Durchführung von ETL-Transaktionen für die Datenverarbeitung. Bereitstellung bestehender Query-Verarbeitungsinfrastrukturen.
    Format des Kurses
      Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
    Kursanpassungsoptionen
      Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
    28 Stunden
    Die Datentresormodellierung ist eine Datenbankmodellierungstechnik, die eine langfristige historische Speicherung von Daten aus mehreren Quellen ermöglicht Ein Datentresor speichert eine einzelne Version der Fakten oder "alle Daten die ganze Zeit" Sein flexibles, skalierbares, konsistentes und anpassungsfähiges Design umfasst die besten Aspekte der 3 Normalform (3NF) und des Sternschemas In diesem instruierten Live-Training lernen die Teilnehmer, wie ein Data Vault erstellt wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Designkonzepte von Data Vault 20 und die Interaktion mit Big Data, NoSQL und AI Verwenden Sie Data-Vaulting-Techniken, um die Überwachung, Verfolgung und Inspektion historischer Daten in einem Data Warehouse zu ermöglichen Entwickeln Sie einen konsistenten und wiederholbaren ETL-Prozess (Extract, Transform, Load) Erstellen und implementieren Sie hoch skalierbare und wiederholbare Warehouses Publikum Datenmodellierer Spezialist für Data Warehousing Business Intelligence-Spezialisten Dateningenieure Datenbankadministratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .

    Last Updated:

    Data Warehouse (DWH) Schulung, Enterprise Data Warehouse boot camp, EDW (Enterprise Data Warehouse) Abendkurse, Data Warehouse Wochenendkurse, Enterprise Data Warehouse Kurs, Data Warehouse Training, Enterprise Data Warehouse (EDW) Seminar, Data Warehouse (DWH) Seminare, EDW (Enterprise Data Warehouse) Privatkurs, DW (Data Warehouse) Coaching, DWH (Data Warehouse) Lehrer

    Sonderangebote

    No course discounts for now.

    Sonderangebote Newsletter

    Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
    Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

    EINIGE UNSERER KUNDEN

    is growing fast!

    We are looking for a good mixture of IT and soft skills in Austria!

    As a NobleProg Trainer you will be responsible for:

    • delivering training and consultancy Worldwide
    • preparing training materials
    • creating new courses outlines
    • delivering consultancy
    • quality management

    At the moment we are focusing on the following areas:

    • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
    • SOA, BPM, BPMN
    • Hibernate/Spring, Scala, Spark, jBPM, Drools
    • R, Python
    • Mobile Development (iOS, Android)
    • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
    • You need to have patience and ability to explain to non-technical people

    To apply, please create your trainer-profile by going to the link below:

    Apply now!

    This site in other countries/regions