Big Data Schulungen

Big Data Schulungen

Online oder vor Ort durchgeführte Live-Schulungen zu Big Data beginnen mit einer Einführung in die grundlegenden Konzepte von Big Data und gehen dann zu den Programmiersprachen und Methoden über, die für die Datenanalyse verwendet werden. Tools und Infrastrukturen für die Speicherung von Big Data, verteilte Verarbeitung und Skalierbarkeit werden diskutiert, verglichen und in Demo-Praxissitzungen implementiert.

Big-Data-Schulungen sind als "Online-Live-Schulungen" oder "Live-Schulungen vor Ort" verfügbar. Das Online-Live-Training (auch "Remote-Live-Training" genannt) wird über einen interaktiven, Remote-Desktop durchgeführt. Onsite-Live-Schulungen können lokal beim Kunden in Österreich oder in NobleProg Corporate Training Centern in Österreich durchgeführt werden.

NobleProg -- Ihr lokaler Schulungsanbieter

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Big Data Course Outlines

Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
21 Stunden
Python ist eine skalierbare, flexible und weit verbreitete Programmiersprache für die Datenwissenschaft und das Maschinenlernen. Spark ist ein Datenverarbeitungsmotor, der in der Umfrage, Analyse und Transformation von großen Daten verwendet wird, während Hadoop ein Software-Bibliothek-Framework für die Storage und Verarbeitung von großen Daten ist. Diese Live-Training (online oder online) richtet sich an Entwickler, die Spark, Hadoop und Python verwenden und integrieren möchten, um große und komplexe Datensätze zu verarbeiten, zu analysieren und zu transformieren. Am Ende dieser Ausbildung können die Teilnehmer:
    Erstellen Sie die notwendige Umgebung, um die Verarbeitung von großen Daten mit Spark, Hadoop, und Python zu beginnen. Verständnis der Eigenschaften, Kernkomponenten und Architektur von Spark und Hadoop. Erfahren Sie, wie Sie Spark, Hadoop, und Python für die Big Data-Verarbeitung integrieren. Entdecken Sie die Werkzeuge im Spark-Ökosystem (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka und Flume). Erstellen Sie zusammenarbeitende Filter Empfehlungssysteme ähnlich wie Netflix, YouTube, Amazon, Spotify und Google. Verwenden Sie Apache Mahout, um Maschinenlearning-Algorithmen zu skalieren.
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
14 Stunden
Waikato Environment for Knowledge Analysis (Weka) ist eine Open-Source Data Mining Visualization-Software. Es bietet eine Sammlung von Maschinenlern-Algorithmen für Datenherstellung, Klassifizierung, Klusterung und andere Data Mining-Aktivitäten. Dieser Instructor-leitet, Live-Training (online oder on-site) richtet sich an Datenanalytiker und Datenwissenschaftler, die verwenden möchten Weka für die Erfüllung von Data Mining Aufgaben. Am Ende dieser Ausbildung können die Teilnehmer:
    Installieren und konfigurieren Weka Verständnis der Weka Umwelt und des Arbeitsplatzes. Durchführen Sie Datenmining Aufgaben mit Weka.
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
14 Stunden
IBM SPSS Modeler ist eine Software, die für Data Mining und Textanalyse verwendet wird. Es bietet eine Reihe von Data Mining-Tools, die vorhersehbare Modelle bauen und Datenanalytik-Taken ausführen können. Diese Live-Training (online oder on-site) richtet sich an Datenanalytiker oder an alle, die SPSS Modeler für die Durchführung von Datenmining-Aktivitäten verwenden möchten. Am Ende dieser Ausbildung können die Teilnehmer:
    Verständnis der Grundlagen der Datenmining. Erfahren Sie, wie Sie Datenqualität mit dem Modeller importieren und bewerten. Entwickeln, implementieren und bewertet Datenmodelle effizient.
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
35 Stunden
Die Teilnehmer, die diesen Instructor-leitet, Live-Training absolvieren, erhalten ein praktisches, real-world Verständnis von Big Data und seinen damit verbundenen Technologien, Methoden und Tools. Die Teilnehmer haben die Möglichkeit, diese Kenntnisse durch praktische Übungen in die Praxis zu bringen. Gruppeninteraktion und Instruktor Feedback sind ein wichtiger Bestandteil der Klasse. Der Kurs beginnt mit einer Einführung in die elementaren Konzepte von Big Data, dann geht es in die Programmiersprachen und Methoden, die zur Durchführung verwendet werden Data Analysis. Schließlich besprechen wir die Werkzeuge und die Infrastruktur, die die Lagerung, die Distributed Processing und die Kapazität ermöglichen. Format des Kurses
    Teilverhandlung, Teildiskussion, praktische Praxis und Implementierung, gelegentliche Quizing zur Messung des Fortschritts.
21 Stunden
Python ist eine High-Level-Programmiersprache, die für ihre klare Syntax und Codelesbarkeit bekannt ist. Spark ist eine Datenverarbeitungs-Engine, die zum Abfragen, Analysieren und Transformieren von Big Data verwendet wird. PySpark können Benutzer Spark mit Python . In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Python und Spark zusammen verwenden, um Big Data zu analysieren, während sie an praktischen Übungen arbeiten. Am Ende dieser Schulung können die Teilnehmer:
  • Erfahren Sie, wie Sie Spark mit Python zum Analysieren von Big Data .
  • Arbeiten Sie an Übungen, die die realen Umstände nachahmen.
  • Verwenden Sie verschiedene Tools und Techniken für die Big-Data-Analyse mit PySpark .
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
7 Stunden
Dieser Kurs behandelt die Verwendung der Hive SQL Sprache (AKA: Hive HQL, SQL in Hive , Hive QL) für Personen, die Daten aus Hive extrahieren
21 Stunden
Wissenentdeckung in Datenbanken (KDD) ist der Prozess der Entdeckung nützlicher Wissen aus einer Datenerhebung. Real-Life-Anwendungen für diese Data Mining-Technik umfassen Marketing, Betrugdetektion, Telekommunikation und Herstellung. In diesem Instructor-leitet, Live-Kurs werden wir die in KDD beteiligten Prozesse einführen und eine Reihe von Übungen durchführen, um die Implementierung dieser Prozesse zu üben. Publikum
    Datenanalytiker oder jemand, der daran interessiert ist, zu lernen, wie man Daten interpretiert, um Probleme zu lösen
Format des Kurses
    Nach einer theoretischen Diskussion über KDD präsentiert der Lehrer reale Fälle, die die Anwendung von KDD fordern, um ein Problem zu lösen. Die Teilnehmer bereiten, wählen und reinigen Samplendaten und nutzen ihre vorherigen Kenntnisse der Daten, um Lösungen auf der Grundlage der Ergebnisse ihrer Beobachtungen vorzustellen.
14 Stunden
Apache Kylin ist eine extreme, verteilte Analyse-Motor für große Daten. In diesem Live-Training, der von Lehrern geleitet wird, lernen die Teilnehmer, wie man Apache Kylin einen Datenlager in Echtzeit zu verwenden. Am Ende dieser Ausbildung können die Teilnehmer:
    Echtzeit-Streamingdaten mit Kylin verbrauchen Nutze Apache Kylin's leistungsfähige Funktionen, rich SQL Schnittstelle, Spark-Cubing und subsecond Query Latency
Hinweis
    Wir verwenden die neueste Version von Kylin (basiert auf diesem Schreiben, Apache Kylin v2.0)
Publikum
    Big Data Ingenieure Big Data Analytiker
Format des Kurses
    Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
14 Stunden
Datameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 Stunden
Beim Data Mining werden Muster in Big Data mit datenwissenschaftlichen Methoden wie maschinellem Lernen identifiziert. Mit Excel als Datenanalyse-Suite können Benutzer Data Mining und Analysen durchführen. Diese Live-Schulung (vor Ort oder per Fernzugriff) richtet sich an Datenwissenschaftler, die Excel für das Data Mining verwenden möchten. Am Ende dieser Schulung können die Teilnehmer:
  • Durchsuchen Sie Daten mit Excel , um Data Mining und Analysen durchzuführen.
  • Verwenden Sie Microsoft-Algorithmen für das Data Mining.
  • Grundlegendes zu Konzepten in Excel Data Mining.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Dremio ist eine Open-Source "Self-Service-Datenplattform", die die Suche verschiedener Arten von Datenquellen beschleunigt. Dremio integriert mit relativen Datenbanken, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch und anderen Datenquellen. Es unterstützt SQL und bietet ein Web-UI für Baufragen. In diesem Live-Training, das von Lehrern geleitet wird, lernen die Teilnehmer, wie sie installieren, konfigurieren und verwenden Dremio als einheitliche Schicht für Datenanalyse-Tools und die zugrunde liegenden Datenreserven. Am Ende dieser Ausbildung können die Teilnehmer:
    Installation und Konfiguration Dremio Anfragen gegen mehrere Datenquellen durchführen, unabhängig von Ort, Größe oder Struktur Integrieren Dremio mit BI und Datenquellen wie Tableau und Elasticsearch
Publikum
    Datenwissenschaftler Business Analytiker Dateningenieur
Format des Kurses
    Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
Notizen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
21 Stunden
Apache Drill ist eine schemafreie, verteilte, in Speicher geschriebene SQL-Abfrage-Engine für Hadoop, NoSQL und andere Cloud- und Dateispeichersysteme Die Stärke von Apache Drill liegt in der Fähigkeit, Daten aus mehreren Datenspeichern mit einer einzigen Abfrage zu verknüpfen Apache Drill unterstützt zahlreiche NoSQL-Datenbanken und Dateisysteme, darunter HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blobspeicher, Google Cloud Storage, Swift, NAS und lokale Dateien Apache Drill ist die Open-Source-Version des Google-Dremel-Systems, die als Infrastrukturdienst namens Google BigQuery verfügbar ist In diesem instruierten Live-Training lernen die Teilnehmer die Grundlagen von Apache Drill kennen und nutzen dann die Leistung und den Komfort von SQL, um interaktiv Big Data über mehrere Datenquellen abzufragen, ohne Code zu schreiben Die Teilnehmer lernen außerdem, wie sie ihre Drill-Abfragen für die verteilte SQL-Ausführung optimieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Führen Sie Self-Service-Exploration mit strukturierten und semistrukturierten Daten auf Hadoop durch Abfrage bekannter sowie unbekannter Daten mit SQL-Abfragen Verstehen Sie, wie Apache Drills Abfragen empfängt und ausführt Schreiben Sie SQL-Abfragen, um verschiedene Datentypen zu analysieren, einschließlich strukturierter Daten in Hive, semistrukturierter Daten in HBase- oder MapRDB-Tabellen und Daten, die in Dateien wie Parquet und JSON gespeichert werden Verwenden Sie Apache Drill, um die Schemaermittlung durchzuführen, ohne dass komplexe ETL- und Schemaoperationen erforderlich sind Integrieren Sie Apache Drill mit BI-Tools (Business Intelligence) wie Tableau, Qlikview, MicroStrategy und Excel Publikum Datenanalytiker Datenwissenschaftler SQL-Programmierer Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 Stunden
Apache Arrow ist ein Open-Source-Framework für die In-Memory-Datenverarbeitung. Es wird häufig zusammen mit anderen Data-Science-Tools für den Zugriff auf unterschiedliche Datenspeicher zur Analyse verwendet. Es lässt sich gut in andere Technologien wie GPU Datenbanken, Bibliotheken und Tools für maschinelles Lernen, Ausführungs-Engines und Datenvisualisierungs-Frameworks integrieren. In diesem von Lehrern geleiteten Live-Training vor Ort lernen die Teilnehmer, wie Apache Arrow in verschiedene Data Science Frameworks integriert wird, um auf Daten aus unterschiedlichen Datenquellen zuzugreifen. Am Ende dieser Schulung können die Teilnehmer:
  • Installieren und konfigurieren Sie Apache Arrow in einer verteilten Clusterumgebung
  • Verwenden Sie Apache Arrow um auf Daten aus unterschiedlichen Datenquellen zuzugreifen
  • Verwenden Sie Apache Arrow , um die Notwendigkeit zu umgehen, komplexe ETL-Pipelines zu erstellen und zu warten
  • Analysieren Sie Daten aus unterschiedlichen Datenquellen, ohne sie in einem zentralen Repository konsolidieren zu müssen
Publikum
  • Datenwissenschaftler
  • Dateningenieure
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Hinweis
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Ziel des Kurses ist es, den Teilnehmern die Beherrschung des Umgangs mit der SQL Sprache in der Oracle Datenbank für die Datenextraktion auf mittlerer Ebene zu ermöglichen.
14 Stunden
Um die Compliance der Regulierungsbehörden zu erfüllen, können CSPs ( Communication Service Provider) auf Big Data Analytics zurückgreifen, die ihnen nicht nur dabei helfen, die Compliance zu erfüllen, sondern im Rahmen desselben Projekts die Kundenzufriedenheit steigern und damit die Abwanderung verringern. Da Compliance mit der Qualität der vertraglich gebundenen Dienstleistungen zusammenhängt, wird jede Initiative zur Einhaltung der Compliance den „Wettbewerbsvorteil“ der CSP verbessern. Daher ist es wichtig, dass die Aufsichtsbehörden in der Lage sind, eine Reihe von Big Data Analyseverfahren für CSPs zu beraten / zu leiten, die für die Aufsichtsbehörden und CSPs von beiderseitigem Nutzen sind. Der Kurs besteht aus 8 Modulen (4 am 1. Tag und 4 am 2. Tag)
35 Stunden
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information. High-value government solutions will be created from a mashup of the most disruptive technologies:
  • Mobile devices and applications
  • Cloud services
  • Social business technologies and networking
  • Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured. But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog. The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it. The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge. Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.). Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
35 Stunden
Tag 1 - bietet einen allgemeinen Überblick über wichtige Big Data Themenbereiche. Das Modul ist in eine Reihe von Abschnitten unterteilt, von denen jeder von einer praktischen Übung begleitet wird. Tag 2 - Erkundung einer Reihe von Themen, die Analyseverfahren und Tools für Big Data Umgebungen betreffen. Es geht nicht auf Implementierungs- oder Programmierdetails ein, sondern konzentriert sich auf konzeptionelle Aspekte, die es den Teilnehmern ermöglichen, ein umfassendes Verständnis der allgemeinen Analysefunktionen und -merkmale von Big Data Lösungen zu entwickeln. Tag 3 - bietet einen Überblick über die grundlegenden und wesentlichen Themenbereiche der Architektur der Big Data Lösungsplattform. Es behandelt Big Data Mechanismen, die für die Entwicklung einer Big Data Lösungsplattform erforderlich sind, und Architekturoptionen für den Aufbau einer Datenverarbeitungsplattform. Es werden auch allgemeine Szenarien vorgestellt, um ein grundlegendes Verständnis für die allgemeine Verwendung einer Big Data Lösungsplattform zu vermitteln. Tag 4 - baut auf Tag 3 auf und befasst sich mit fortgeschrittenen Themen zur Architektur der Big Data Lösungsplattform. Insbesondere werden verschiedene Architekturebenen, aus denen sich die Big Data Lösungsplattform zusammensetzt, vorgestellt und erörtert, darunter Datenquellen, Dateneingang, Datenspeicherung, Datenverarbeitung und Sicherheit. Tag 5 - umfasst eine Reihe von Übungen und Problemen, mit denen die Fähigkeit der Delegierten getestet werden soll, Kenntnisse über die behandelten Themen von Tag 3 und 4 anzuwenden.
35 Stunden
Der technologische Fortschritt und die zunehmende Menge an Informationen verändern die Art und Weise, wie Strafverfolgungsmaßnahmen durchgeführt werden. Die Herausforderungen, die Big Data bringt, sind fast so gewaltig wie das Versprechen von Big Data . Effizientes Speichern von Daten ist eine dieser Herausforderungen. Effektiv zu analysieren ist eine andere. In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer, wie sie mit Big Data Technologien umgehen, ihre Auswirkungen auf vorhandene Prozesse und Richtlinien bewerten und diese Technologien implementieren können, um kriminelle Aktivitäten zu identifizieren und Kriminalität zu verhindern. Fallstudien von Strafverfolgungsbehörden auf der ganzen Welt werden untersucht, um Einblicke in ihre Ansätze, Herausforderungen und Ergebnisse bei der Adoption zu erhalten. Am Ende dieser Schulung können die Teilnehmer:
  • Kombinieren Sie die Big Data Technologie mit herkömmlichen Datenerfassungsprozessen, um eine Story während einer Untersuchung zusammenzustellen
  • Implementieren Sie industrielle Big Data Storage- und Verarbeitungslösungen für die Datenanalyse
  • Erarbeitung eines Vorschlags für die Annahme der am besten geeigneten Instrumente und Verfahren zur Ermöglichung eines datengestützten Ansatzes für strafrechtliche Ermittlungen
Publikum
  • Strafverfolgungsspezialisten mit technischem Hintergrund
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
14 Stunden
Ziel : Diese Schulung soll den Teilnehmern helfen, zu verstehen, warum Big Data unser Leben verändert und wie es die Art und Weise verändert, wie Unternehmen uns als Verbraucher sehen. In der Tat stellen Benutzer von Big Data in Unternehmen fest, dass Big Data eine Fülle von Informationen und Erkenntnissen freisetzt, die sich in höheren Gewinnen, geringeren Kosten und geringerem Risiko niederschlagen. Der Nachteil war jedoch manchmal die Enttäuschung, wenn zu viel Wert auf einzelne Technologien gelegt und zu wenig auf die Säulen des Big-Data-Managements gelegt wurde. Die Teilnehmer lernen in diesem Kurs, wie sie Big Data mithilfe der drei Säulen Datenintegration, Data Governance und Datensicherheit verwalten können, um Big Data in echten Geschäftswert umzuwandeln. Verschiedene Übungen, die an einer Fallstudie zum Kundenmanagement durchgeführt werden, helfen den Teilnehmern, die zugrunde liegenden Prozesse besser zu verstehen.
21 Stunden
Big Data ist ein Begriff, der sich auf Lösungen bezieht, mit denen große Datenmengen gespeichert und verarbeitet werden können. Entwickelt von Go Ogle zunächst, diese Big Data haben Lösungen entwickelt und inspiriert andere ähnliche Projekte, von denen viele als Quelle Frei zur Verfügung stehen. R ist eine beliebte Programmiersprache in der Finanzbranche.
14 Stunden
Wenn herkömmliche Speichertechnologien nicht die Datenmenge verarbeiten, die Sie zum Speichern benötigen, gibt es Hunderte von Alternativen. Dieser Kurs soll den Teilnehmern zeigen, welche Alternativen zum Speichern und Analysieren von Big Data und welche Vor- und Nachteile sie haben. Dieser Kurs konzentriert sich hauptsächlich auf die Diskussion und Präsentation von Lösungen, wobei praktische Übungen auf Anfrage erhältlich sind.
14 Stunden
Der Kurs ist Teil der Fähigkeiten von Data Scientist (Bereich: Daten und Technologie).
14 Stunden
This classroom based training session will explore Big Data. Delegates will have computer based examples and case study exercises to undertake with relevant big data tools
21 Stunden
Publikum Wenn Sie versuchen, aus den Daten, auf die Sie Zugriff haben, einen Sinn zu machen, oder wenn Sie unstrukturierte Daten analysieren möchten, die im Internet verfügbar sind (z. B. Twitter, Linked in usw.), ist dieser Kurs für Sie. Es richtet sich hauptsächlich an Entscheidungsträger und Personen, die entscheiden müssen, welche Daten gesammelt und welche analysiert werden sollten. Es richtet sich nicht an Personen, die die Lösung konfigurieren. Diese Personen werden jedoch vom Gesamtüberblick profitieren. Lieferungsmodus Während des Kurses werden den Teilnehmern Arbeitsbeispiele von meist Open Source-Technologien vorgestellt. Auf kurze Vorträge folgen Präsentationen und einfache Übungen der Teilnehmer Inhalt und verwendete Software Die gesamte verwendete Software wird jedes Mal aktualisiert, wenn der Kurs ausgeführt wird. Wir überprüfen daher die neuesten Versionen. Es umfasst den Prozess vom Abrufen, Formatieren, Verarbeiten und Analysieren der Daten, um zu erklären, wie der Entscheidungsprozess mit maschinellem Lernen automatisiert werden kann.
35 Stunden
Big Data sind Datenmengen, die so umfangreich und komplex sind, dass herkömmliche Anwendungssoftware für die Datenverarbeitung nicht ausreicht, um mit ihnen umzugehen. Zu den großen Datenherausforderungen gehören Datenerfassung, Datenspeicherung, Datenanalyse, Suche, Freigabe, Übertragung, Visualisierung, Abfrage, Aktualisierung und Datenschutz.
7 Stunden
Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an technische Personen, die lernen möchten, wie eine Strategie für maschinelles Lernen implementiert und gleichzeitig die Nutzung von Big Data maximiert wird. Am Ende dieser Schulung werden die Teilnehmer:
  • Verstehen Sie die Entwicklung und Trends des maschinellen Lernens.
  • Wissen, wie maschinelles Lernen branchenübergreifend eingesetzt wird.
  • Machen Sie sich mit den Tools, Fähigkeiten und Diensten vertraut, die für die Implementierung von maschinellem Lernen in einer Organisation verfügbar sind.
  • Verstehen Sie, wie maschinelles Lernen zur Verbesserung von Data Mining und Analyse eingesetzt werden kann.
  • Erfahren Sie, was ein Data Middle Backend ist und wie es von Unternehmen verwendet wird.
  • Verstehen Sie, welche Rolle Big Data und intelligente Anwendungen branchenübergreifend spielen.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Apache Sqoop ist eine Befehlszeilenschnittstelle zum Verschieben von Daten aus relationalen Datenbanken und Hadoop. Apache Flume ist eine verteilte Software für die Verwaltung von Big Data. Mithilfe von Sqoop und Flume können Benutzer Daten zwischen Systemen übertragen und Big Data in Speicherarchitekturen wie Hadoopimportieren. Dieses von einem Kursleiter geleitete Live-Training (vor Ort oder remote) richtet sich an Software-Ingenieure, die Sqoop und Flume für die Datenübertragung zwischen Systemen verwenden möchten. Am Ende dieser Schulung können die Teilnehmer:
  • Nehmen Sie Big Data mit Sqoop und Flume auf.
  • Erfassen Sie Daten aus mehreren Datenquellen.
  • Verschieben von Daten aus relationalen Datenbanken in HDFS und Hive.
  • Exportieren Sie Daten aus HDFS in eine relationale Datenbank.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Lab-Umgebung.
Kursanpassungsoptionen
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
28 Stunden
Talend Open Studio für Big Data ist ein Open Source ETL-Tool für die Verarbeitung großer Daten. Es umfasst eine Entwicklungsumgebung, um mit Big Data Quellen und Zielen zu interagieren und Arbeitsplätze durchzuführen, ohne Code zu schreiben. Dieser Instructor-leitet, Live-Training (online oder on-site) richtet sich an technische Personen, die Open Studio für Big Data implementieren möchten, um den Prozess des Lesens und der Krümmung durch Big Data zu vereinfachen. Am Ende dieser Ausbildung können die Teilnehmer:
    Installieren und konfigurieren Talend Open Studio für Big Data. Verbinden Sie sich mit Big Data Systemen wie Cloudera, HortonWorks, MapR, Amazon EMR und Apache. Verständigen und installieren Sie Open Studio's Big Data Komponenten und Verbindungen. Konfigurieren Sie Parameter, um automatisch MapReduce-Code zu generieren. Verwenden Sie Open Studio's drag-and-drop-Interface, um Hadoop Jobs durchzuführen. Prototypen von Big Data Pipelines. Automatisierung von Big Data Integration Projekten.
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
14 Stunden
Vespa eine Open-Source-Big-Data-Verarbeitung und Serving-Engine von Yahoo erstellt Es wird verwendet, um auf Benutzeranfragen zu reagieren, Empfehlungen zu geben und personalisierte Inhalte und Werbung in Echtzeit bereitzustellen Dieses instruktorierte Live-Training stellt die Herausforderungen dar, mit denen große Datenmengen bereitgestellt werden, und führt die Teilnehmer durch die Erstellung einer Anwendung, die Antworten auf Benutzeranforderungen über große Datensätze in Echtzeit berechnen kann Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Vespa, um schnell Daten zu berechnen (speichern, suchen, sortieren, organisieren), während der Benutzer wartet Implementieren Sie Vespa in bestehende Anwendungen mit Feature-Suche, Empfehlungen und Personalisierung Integrieren und implementieren Sie Vespa mit bestehenden Big-Data-Systemen wie Hadoop und Storm Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 Stunden
Alluxio ist ein open-source virtuelles verteilte Speicher-System, das unterschiedliche Speicher-Systeme vereint und Anwendungen ermöglicht, mit Daten bei Speichergeschwindigkeit zu interagieren. Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet. In diesem Instructor-leitet, Live-Training lernen die Teilnehmer, wie man Alluxio verschiedene Computing-Frameworks mit Speicher-Systemen zu verwenden und effizient Multi-Petabyte-Skala-Daten zu verwalten, während sie durch die Erstellung einer Anwendung mit Alluxio gehen. Am Ende dieser Ausbildung können die Teilnehmer:
    Entwickeln Sie eine Anwendung mit Alluxio Verbinden Sie Big Data-Systeme und Anwendungen während der Erhaltung eines Namespaces Effizient Wert aus großen Daten in jedem Speicherformat extrahieren Verbesserung der Workload Performance Entfernen und verwalten Alluxio unabhängig oder klusteriert
Publikum
    Datenwissenschaftler Entwickler Systemadministrator
Format des Kurses
    Teilverhandlung, Teildiskussion, Übungen und schwere Übungen

Last Updated:

Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

No course discounts for now.

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking for a good mixture of IT and soft skills in Austria!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions