Schulungsübersicht

Aufschlüsselung der Themen auf Tagesbasis: (Jede Sitzung dauert 2 Stunden)

Tag-1: Sitzung -1: Business Überblick über das Warum Big Data Business Intelligenz in der Telekommunikation.

  • Fallstudien von T-Mobile, Verizon usw.
  • Big Data Anpassungsrate in nordamerikanischen Telekommunikationsunternehmen & und wie sie ihr zukünftiges Geschäftsmodell und ihren Betrieb auf Big Data BI ausrichten
  • Breit angelegter Anwendungsbereich
  • Netz- und Servicemanagement
  • Kundenabwanderung Management
  • Data Integration & Dashboard-Visualisierung
  • Betrugsmanagement
  • Business Regelerstellung
  • Kundenprofilierung
  • Lokalisierte Anzeigenschaltung

Tag 1: Sitzung 2: Einführung in Big Data-1

  • Hauptmerkmale von Big Data-Volumen, Vielfalt, Schnelligkeit und Wahrhaftigkeit. MPP-Architektur für Volumen.
  • Data Warehouses - statisches Schema, sich langsam entwickelnder Datensatz
  • MPP Databases wie Greenplum, Exadata, Teradata, Netezza, Vertica usw.
  • Hadoop-basierte Lösungen - keine Bedingungen an die Struktur der Datenmenge.
  • Typisches Muster: HDFS, MapReduce (Crunch), Abruf aus HDFS
  • Batch- geeignet für analytische/nicht interaktive
  • Volumen: CEP-Streaming-Daten
  • Typische Wahl - CEP-Produkte (z. B. Infostreams, Apama, MarkLogic usw.)
  • Weniger produktionstauglich - Storm/S4
  • NoSQL Databases - (spaltenweise und Key-Value): Am besten geeignet als analytische Ergänzung zu Data Warehouse/Datenbank

Tag-1 : Sitzung -3 : Einführung in Big Data-2

NoSQL Lösungen

  • KV-Speicher - Keyspace, Flare, SchemaFree, RAMCloud, Oracle NoSQL Database (OnDB)
  • KV-Speicher - Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
  • KV-Speicher (Hierarchisch) - GT.m, Cache
  • KV-Speicher (geordnet) - TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
  • KV-Cache - Memcached, Repcached, Coherence, Infinispan, EXtremeScale, JBossCache, Velocity, Terracoqua
  • Tupel-Speicher - Gigaspaces, Coord, Apache River
  • Objekt Database - ZopeDB, DB40, Shoal
  • Dokumentenspeicher - CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML-Databases, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
  • Breiter spaltenförmiger Speicher - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI

Arten von Daten: Einführung in Data Cleaning Thema in Big Data

  • RDBMS - statische Struktur/Schema, fördert nicht die agile, forschende Umgebung.
  • NoSQL - halbstrukturiert, genügend Struktur zum Speichern von Daten ohne genaues Schema vor dem Speichern von Daten
  • Fragen der Datenbereinigung

Tag-1 : Sitzung-4 : Big Data Einführung-3 : Hadoop

  • Wann sollte man Hadoop wählen?
  • STRUKTURIERT - Data-Warehouses/Datenbanken für Unternehmen können große Datenmengen speichern (was mit Kosten verbunden ist), erzwingen aber eine Strukturierung (nicht gut für eine aktive Erkundung)
  • SEMI STRUKTURIERTE Daten - mit herkömmlichen Lösungen (DW/DB) schwer zu realisieren
  • Warehousing von Daten = RIESIGer Aufwand und auch nach der Implementierung statisch
  • Für die Vielfalt und das Volumen der Daten, die auf handelsüblicher Hardware verarbeitet werden - HADOOP
  • Commodity-Hardware erforderlich, um einen Hadoop Cluster zu erstellen

Einführung in MapReduce /HDFS

  • MapReduce - Verteilen der Datenverarbeitung auf mehrere Server
  • HDFS - stellt Daten lokal für den Rechenprozess zur Verfügung (mit Redundanz)
  • Daten - können unstrukturiert/schemafrei sein (im Gegensatz zu RDBMS)
  • Verantwortung des Entwicklers, die Daten sinnvoll zu nutzen
  • Programming MapReduce = Arbeit mit Java (Vor- und Nachteile), manuelles Laden von Daten in HDFS

Tag-2: Sitzung-1.1: Spark: Verteilte In-Memory-Datenbank

  • Was ist "In-Memory"-Verarbeitung?
  • Spark SQL
  • Spark SDK
  • Spark-API
  • RDD
  • Spark Lib
  • Hanna
  • Wie man ein bestehendes Hadoop-System auf Spark migriert

Tag-2 Session -1.2: Storm -Echtzeitverarbeitung in Big Data

  • Streams
  • Sprossen
  • Bolzen
  • Topologien

Tag-2: Sitzung-2: Big Data Management System

  • Bewegliche Teile, Rechenknoten starten/fallen aus :ZooKeeper - Für Konfiguration/Koordination/Benennungsdienste
  • Komplexe Pipeline/Workflow: Oozie - Verwaltung von Arbeitsabläufen, Abhängigkeiten, Daisy Chain
  • Bereitstellung, Konfiguration, Cluster-Management, Upgrade usw. (Systemadministrator) :Ambari
  • In der Cloud: Whirr
  • Sich entwickelnde Big Data Plattform-Tools zur Verfolgung von
  • ETL-Schicht Anwendungsprobleme

Tag-2: Sitzung-3: Prädiktive Analytik in Business Intelligence -1: Grundlegende Techniken und auf maschinellem Lernen basierende BI :

  • Einführung in maschinelles Lernen
  • Klassifizierungstechniken lernen
  • Bayessche Vorhersage - Vorbereitung der Trainingsdatei
  • Markov-Zufallsfeld
  • Überwachtes und unüberwachtes Lernen
  • Merkmalsextraktion
  • Support-Vektor-Maschine
  • Neuronales Netz
  • Verstärkendes Lernen
  • Big Data Problem der großen Variablen -Random Forest (RF)
  • Repräsentationslernen
  • Tiefes Lernen
  • Big Data Automatisierungsproblem - Multimodel-Ensemble RF
  • Automatisierung durch Soft10-M
  • LDA und Themenmodellierung
  • Agile Lernen
  • Agentenbasiertes Lernen - Beispiel aus dem Telco-Betrieb
  • Verteiltes Lernen - Beispiel aus dem Telco-Betrieb
  • Einführung in Open-Source-Tools für prädiktive Analytik: R, Rapidminer, Mahut
  • Skalierbarere Analytik-Apache Hama, Spark und CMU Graph lab

Tag-2: Sitzung-4 Prädiktive Analytik-Ökosystem-2: Gemeinsame prädiktive analytische Probleme in Telecom

  • Einsicht-Analytik
  • Visualisierung Analytik
  • Strukturierte prädiktive Analytik
  • Unstrukturierte prädiktive Analytik
  • Kundenprofilierung
  • Empfehlungsmaschine
  • Erkennung von Mustern
  • Regel-/Szenarioerkennung - Fehler, Betrug, Optimierung
  • Entdeckung der Grundursache
  • Sentiment-Analyse
  • CRM-Analytik
  • Netzwerk-Analytik
  • Text-Analyse
  • Technologiegestützte Überprüfung
  • Betrugsanalytik
  • Echtzeit-Analytik

Tag 3: Sesion-1: Analyse des Netzwerkbetriebs - Ursachenanalyse von Netzwerkausfällen, Serviceunterbrechungen anhand von Metadaten, IPDR und CRM:

  • CPU-Nutzung
  • Speicherauslastung
  • QoS-Warteschlangenauslastung
  • Gerätetemperatur
  • Schnittstellenfehler
  • IoS-Versionen
  • Routing-Ereignisse
  • Latenzschwankungen
  • Syslog-Analysen
  • Paketverlust
  • Last-Simulation
  • Topologie-Inferenz
  • Leistungsschwellenwert
  • Geräte-Traps
  • Erfassung und Verarbeitung von IPDR-Daten (IP Detailed Record)
  • Verwendung von IPDR-Daten für den Bandbreitenverbrauch des Teilnehmers, die Auslastung der Netzwerkschnittstelle, den Modemstatus und die Diagnose
  • HFC-Informationen

Tag 3: Sitzung 2: Tools für die Analyse von Netzwerkdienstausfällen:

  • Network Summary Dashboard: Überwachen Sie den gesamten Netzwerkeinsatz und verfolgen Sie die wichtigsten Leistungsindikatoren Ihres Unternehmens
  • Peak Period Analysis Dashboard: Verstehen der Anwendungs- und Teilnehmertrends, die die Spitzenauslastung bestimmen, mit standortspezifischer Granularität
  • Routing Efficiency Dashboard: Kontrollieren Sie die Netzwerkkosten und erstellen Sie Business Cases für Investitionsprojekte mit einem vollständigen Verständnis der Interconnect- und Transitbeziehungen
  • Real-Time Entertainment Dashboard: Zugriffsmetriken, die von Bedeutung sind, einschließlich Videoaufrufe, Dauer und Qualität der Videoerfahrung (QoE)
  • IPv6 Transition Dashboard: Untersuchen Sie die laufende Einführung von IPv6 in Ihrem Netzwerk und gewinnen Sie Einblicke in die Anwendungen und Geräte, die die Trends vorantreiben
  • Fallstudie 1: Der Alcatel-Lucent Big Network Analytics (BNA) Data Miner
  • Mehrdimensionale mobile Intelligenz (m.IQ6)

Tag 3: Session 3: Big Data BI für Marketing/Vertrieb - Verstehen von Vertrieb/Marketing anhand von Vertriebsdaten: (Alle Themen werden anhand einer Live-Demo zur prädiktiven Analytik gezeigt)

  • Identifizierung von Kunden mit der höchsten Umsatzgeschwindigkeit
  • Identifizierung von Kunden für ein bestimmtes Produkt
  • Identifizierung der richtigen Produkte für einen Kunden (Recommendation Engine)
  • Technik der Marktsegmentierung
  • Cross-Sale und Upsale Technik
  • Technik der Kundensegmentierung
  • Technik zur Vorhersage von Verkaufserlösen

Tag 3: Sitzung 4: BI für das CFO-Büro von Telekommunikationsunternehmen:

  • Überblick über Business Analytische Arbeiten, die in einem CFO-Büro benötigt werden
  • Risikoanalyse bei Neuinvestitionen
  • Umsatz- und Gewinnprognose
  • Prognosen zur Neukundengewinnung
  • Verlustprognose
  • Betrugsanalyse der Finanzen (Details in der nächsten Sitzung)

Tag 4: Sitzung 1: Betrugsprävention BI von Big Data in Telco-Betrugsanalyse:

  • Bandbreitenverluste/Bandbreitenbetrug
  • Lieferantenbetrug/Überfakturierung für Projekte
  • Betrug bei Kundenrückerstattungen/-ansprüchen
  • Betrug bei der Reisekostenrückerstattung

Tag 4: Sitzung 2: Von der Churning-Vorhersage zur Churning-Prävention:

  • 3 Arten von Abwanderung: aktiv/absichtlich, rotierend/unbeabsichtigt, passiv/unfreiwillig
  • 3 Klassifizierungen von abgewanderten Kunden: Vollständig, versteckt, partiell
  • Verständnis der CRM-Variablen für Abwanderung
  • Datenerhebung zum Kundenverhalten
  • Erhebung von Daten zur Kundenwahrnehmung
  • Erhebung von demografischen Kundendaten
  • Bereinigung von CRM-Daten
  • Unstrukturierte CRM-Daten (Kundenanrufe, Tickets, E-Mails) und ihre Umwandlung in strukturierte Daten für die Analyse der Kundenabwanderung
  • Social Media CRM - ein neuer Weg zur Extraktion des Kundenzufriedenheitsindex
  • Fallstudie 1: T-Mobile USA: Verringerung der Kundenabwanderung um 50

Tag 4: Sitzung 3: Wie man prädiktive Analysen für die Ursachenanalyse von Kundenunzufriedenheit nutzt:

  • Fallstudie -1: Verknüpfung von Unzufriedenheit mit Problemen - Buchhaltung, technische Fehler wie Serviceunterbrechungen, schlechter Bandbreitenservice
  • Fallstudie-2: Big Data QA-Dashboard zur Verfolgung des Kundenzufriedenheitsindex anhand verschiedener Parameter wie Anrufeskalationen, Kritikalität von Problemen, anstehende Serviceunterbrechungen usw.

4. Tag: Session-4: Big Data Dashboard für den schnellen Zugriff auf verschiedene Daten und deren Anzeige:

  • Integration der bestehenden Anwendungsplattform mit Big Data Dashboard
  • Big Data-Verwaltung
  • Fallstudie zu Big Data Dashboard: Tableau und Pentaho
  • Verwendung der Big Data-App, um ortsbezogene Werbung zu schalten
  • Tracking-System und Verwaltung

Tag 5: Sitzung 1: Wie rechtfertigt man die Big Data BI-Implementierung in einer Organisation?

  • Definition des ROI für die Big Data-Implementierung
  • Fallstudien zur Einsparung von Analystenzeit für die Sammlung und Aufbereitung von Daten - Steigerung der Produktivität
  • Fallstudien zur Umsatzsteigerung durch Kundenabwanderung
  • Umsatzsteigerung durch standortbezogene und andere gezielte Werbung
  • Ein integrierter Tabellenkalkulationsansatz zur Berechnung der ungefähren Kosten im Vergleich zu den Einnahmegewinnen/Einsparungen aus der Big Data-Implementierung.

Tag 5: Sitzung 2: Schrittweises Vorgehen bei der Ablösung eines alten Datensystems durch ein Big Data-System:

  • Verstehen des praktischen Big Data-Migrationsfahrplans
  • Welche wichtigen Informationen sind vor der Planung einer Big Data-Implementierung erforderlich?
  • Welches sind die verschiedenen Methoden zur Berechnung von Datenvolumen, -geschwindigkeit, -vielfalt und -wahrheit?
  • Wie kann man das Datenwachstum abschätzen?
  • Fallstudien in 2 Telekommunikationsunternehmen

Tag 5: Sitzung 3 & 4: Überblick über die Big Data-Anbieter und ihre Produkte. Q/A-Sitzung:

  • AccentureAlcatel-Lucent
  • Amazon - A9
  • APTEAN (ehemals CDC Software)
  • Cisco Systeme
  • Cloudera
  • Dell
  • EMC
  • GoodData Gesellschaft
  • Guavus
  • Hitachi Datensysteme
  • Hortonworks
  • Huawei
  • HP
  • IBM
  • Informatica
  • Intel
  • Jaspersoft
  • Microsoft
  • MongoDB (ehemals 10Gen)
  • MU Sigma
  • Netapp
  • Opera-Lösungen
  • Oracle
  • Pentaho
  • Platfora
  • Qliktech
  • Quantum
  • Rackspace
  • Revolution Analytik
  • Salesforce
  • SAP
  • SAS Institut
  • Sisense
  • Software AG/Terracotta
  • Soft10 Automatisierung
  • Splunk
  • Sqrrl
  • Supermicro
  • Tableau Software
  • Teradata
  • Think Big Analytik
  • Tidemark-Systeme
  • VMware (Teil von EMC)

Voraussetzungen

  • Basiswissen über Geschäftsabläufe und Datensysteme in Telecom in ihrem Bereich
  • Muss über Grundkenntnisse in SQL/Oracle oder relationalen Datenbanken verfügen
  • Grundkenntnisse in Statistik (auf Excel-Niveau)
 35 Stunden

Teilnehmerzahl



Preis je Teilnehmer

Erfahrungsberichte (3)

Kombinierte Kurse

Verwandte Kategorien