Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Aufschlüsselung der Themen auf Tagesbasis: (Jede Sitzung dauert 2 Stunden)
Tag-1: Sitzung -1: Business Überblick über das Warum Big Data Business Intelligenz in der Telekommunikation.
- Fallstudien von T-Mobile, Verizon usw.
- Big Data Anpassungsrate in nordamerikanischen Telekommunikationsunternehmen & und wie sie ihr zukünftiges Geschäftsmodell und ihren Betrieb auf Big Data BI ausrichten
- Breit angelegter Anwendungsbereich
- Netz- und Servicemanagement
- Kundenabwanderung Management
- Data Integration & Dashboard-Visualisierung
- Betrugsmanagement
- Business Regelerstellung
- Kundenprofilierung
- Lokalisierte Anzeigenschaltung
Tag 1: Sitzung 2: Einführung in Big Data-1
- Hauptmerkmale von Big Data-Volumen, Vielfalt, Schnelligkeit und Wahrhaftigkeit. MPP-Architektur für Volumen.
- Data Warehouses - statisches Schema, sich langsam entwickelnder Datensatz
- MPP Databases wie Greenplum, Exadata, Teradata, Netezza, Vertica usw.
- Hadoop-basierte Lösungen - keine Bedingungen an die Struktur der Datenmenge.
- Typisches Muster: HDFS, MapReduce (Crunch), Abruf aus HDFS
- Batch- geeignet für analytische/nicht interaktive
- Volumen: CEP-Streaming-Daten
- Typische Wahl - CEP-Produkte (z. B. Infostreams, Apama, MarkLogic usw.)
- Weniger produktionstauglich - Storm/S4
- NoSQL Databases - (spaltenweise und Key-Value): Am besten geeignet als analytische Ergänzung zu Data Warehouse/Datenbank
Tag-1 : Sitzung -3 : Einführung in Big Data-2
NoSQL Lösungen
- KV-Speicher - Keyspace, Flare, SchemaFree, RAMCloud, Oracle NoSQL Database (OnDB)
- KV-Speicher - Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
- KV-Speicher (Hierarchisch) - GT.m, Cache
- KV-Speicher (geordnet) - TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
- KV-Cache - Memcached, Repcached, Coherence, Infinispan, EXtremeScale, JBossCache, Velocity, Terracoqua
- Tupel-Speicher - Gigaspaces, Coord, Apache River
- Objekt Database - ZopeDB, DB40, Shoal
- Dokumentenspeicher - CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML-Databases, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
- Breiter spaltenförmiger Speicher - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI
Arten von Daten: Einführung in Data Cleaning Thema in Big Data
- RDBMS - statische Struktur/Schema, fördert nicht die agile, forschende Umgebung.
- NoSQL - halbstrukturiert, genügend Struktur zum Speichern von Daten ohne genaues Schema vor dem Speichern von Daten
- Fragen der Datenbereinigung
Tag-1 : Sitzung-4 : Big Data Einführung-3 : Hadoop
- Wann sollte man Hadoop wählen?
- STRUKTURIERT - Data-Warehouses/Datenbanken für Unternehmen können große Datenmengen speichern (was mit Kosten verbunden ist), erzwingen aber eine Strukturierung (nicht gut für eine aktive Erkundung)
- SEMI STRUKTURIERTE Daten - mit herkömmlichen Lösungen (DW/DB) schwer zu realisieren
- Warehousing von Daten = RIESIGer Aufwand und auch nach der Implementierung statisch
- Für die Vielfalt und das Volumen der Daten, die auf handelsüblicher Hardware verarbeitet werden - HADOOP
- Commodity-Hardware erforderlich, um einen Hadoop Cluster zu erstellen
Einführung in MapReduce /HDFS
- MapReduce - Verteilen der Datenverarbeitung auf mehrere Server
- HDFS - stellt Daten lokal für den Rechenprozess zur Verfügung (mit Redundanz)
- Daten - können unstrukturiert/schemafrei sein (im Gegensatz zu RDBMS)
- Verantwortung des Entwicklers, die Daten sinnvoll zu nutzen
- Programming MapReduce = Arbeit mit Java (Vor- und Nachteile), manuelles Laden von Daten in HDFS
Tag-2: Sitzung-1.1: Spark: Verteilte In-Memory-Datenbank
- Was ist "In-Memory"-Verarbeitung?
- Spark SQL
- Spark SDK
- Spark-API
- RDD
- Spark Lib
- Hanna
- Wie man ein bestehendes Hadoop-System auf Spark migriert
Tag-2 Session -1.2: Storm -Echtzeitverarbeitung in Big Data
- Streams
- Sprossen
- Bolzen
- Topologien
Tag-2: Sitzung-2: Big Data Management System
- Bewegliche Teile, Rechenknoten starten/fallen aus :ZooKeeper - Für Konfiguration/Koordination/Benennungsdienste
- Komplexe Pipeline/Workflow: Oozie - Verwaltung von Arbeitsabläufen, Abhängigkeiten, Daisy Chain
- Bereitstellung, Konfiguration, Cluster-Management, Upgrade usw. (Systemadministrator) :Ambari
- In der Cloud: Whirr
- Sich entwickelnde Big Data Plattform-Tools zur Verfolgung von
- ETL-Schicht Anwendungsprobleme
Tag-2: Sitzung-3: Prädiktive Analytik in Business Intelligence -1: Grundlegende Techniken und auf maschinellem Lernen basierende BI :
- Einführung in maschinelles Lernen
- Klassifizierungstechniken lernen
- Bayessche Vorhersage - Vorbereitung der Trainingsdatei
- Markov-Zufallsfeld
- Überwachtes und unüberwachtes Lernen
- Merkmalsextraktion
- Support-Vektor-Maschine
- Neuronales Netz
- Verstärkendes Lernen
- Big Data Problem der großen Variablen -Random Forest (RF)
- Repräsentationslernen
- Tiefes Lernen
- Big Data Automatisierungsproblem - Multimodel-Ensemble RF
- Automatisierung durch Soft10-M
- LDA und Themenmodellierung
- Agile Lernen
- Agentenbasiertes Lernen - Beispiel aus dem Telco-Betrieb
- Verteiltes Lernen - Beispiel aus dem Telco-Betrieb
- Einführung in Open-Source-Tools für prädiktive Analytik: R, Rapidminer, Mahut
- Skalierbarere Analytik-Apache Hama, Spark und CMU Graph lab
Tag-2: Sitzung-4 Prädiktive Analytik-Ökosystem-2: Gemeinsame prädiktive analytische Probleme in Telecom
- Einsicht-Analytik
- Visualisierung Analytik
- Strukturierte prädiktive Analytik
- Unstrukturierte prädiktive Analytik
- Kundenprofilierung
- Empfehlungsmaschine
- Erkennung von Mustern
- Regel-/Szenarioerkennung - Fehler, Betrug, Optimierung
- Entdeckung der Grundursache
- Sentiment-Analyse
- CRM-Analytik
- Netzwerk-Analytik
- Text-Analyse
- Technologiegestützte Überprüfung
- Betrugsanalytik
- Echtzeit-Analytik
Tag 3: Sesion-1: Analyse des Netzwerkbetriebs - Ursachenanalyse von Netzwerkausfällen, Serviceunterbrechungen anhand von Metadaten, IPDR und CRM:
- CPU-Nutzung
- Speicherauslastung
- QoS-Warteschlangenauslastung
- Gerätetemperatur
- Schnittstellenfehler
- IoS-Versionen
- Routing-Ereignisse
- Latenzschwankungen
- Syslog-Analysen
- Paketverlust
- Last-Simulation
- Topologie-Inferenz
- Leistungsschwellenwert
- Geräte-Traps
- Erfassung und Verarbeitung von IPDR-Daten (IP Detailed Record)
- Verwendung von IPDR-Daten für den Bandbreitenverbrauch des Teilnehmers, die Auslastung der Netzwerkschnittstelle, den Modemstatus und die Diagnose
- HFC-Informationen
Tag 3: Sitzung 2: Tools für die Analyse von Netzwerkdienstausfällen:
- Network Summary Dashboard: Überwachen Sie den gesamten Netzwerkeinsatz und verfolgen Sie die wichtigsten Leistungsindikatoren Ihres Unternehmens
- Peak Period Analysis Dashboard: Verstehen der Anwendungs- und Teilnehmertrends, die die Spitzenauslastung bestimmen, mit standortspezifischer Granularität
- Routing Efficiency Dashboard: Kontrollieren Sie die Netzwerkkosten und erstellen Sie Business Cases für Investitionsprojekte mit einem vollständigen Verständnis der Interconnect- und Transitbeziehungen
- Real-Time Entertainment Dashboard: Zugriffsmetriken, die von Bedeutung sind, einschließlich Videoaufrufe, Dauer und Qualität der Videoerfahrung (QoE)
- IPv6 Transition Dashboard: Untersuchen Sie die laufende Einführung von IPv6 in Ihrem Netzwerk und gewinnen Sie Einblicke in die Anwendungen und Geräte, die die Trends vorantreiben
- Fallstudie 1: Der Alcatel-Lucent Big Network Analytics (BNA) Data Miner
- Mehrdimensionale mobile Intelligenz (m.IQ6)
Tag 3: Session 3: Big Data BI für Marketing/Vertrieb - Verstehen von Vertrieb/Marketing anhand von Vertriebsdaten: (Alle Themen werden anhand einer Live-Demo zur prädiktiven Analytik gezeigt)
- Identifizierung von Kunden mit der höchsten Umsatzgeschwindigkeit
- Identifizierung von Kunden für ein bestimmtes Produkt
- Identifizierung der richtigen Produkte für einen Kunden (Recommendation Engine)
- Technik der Marktsegmentierung
- Cross-Sale und Upsale Technik
- Technik der Kundensegmentierung
- Technik zur Vorhersage von Verkaufserlösen
Tag 3: Sitzung 4: BI für das CFO-Büro von Telekommunikationsunternehmen:
- Überblick über Business Analytische Arbeiten, die in einem CFO-Büro benötigt werden
- Risikoanalyse bei Neuinvestitionen
- Umsatz- und Gewinnprognose
- Prognosen zur Neukundengewinnung
- Verlustprognose
- Betrugsanalyse der Finanzen (Details in der nächsten Sitzung)
Tag 4: Sitzung 1: Betrugsprävention BI von Big Data in Telco-Betrugsanalyse:
- Bandbreitenverluste/Bandbreitenbetrug
- Lieferantenbetrug/Überfakturierung für Projekte
- Betrug bei Kundenrückerstattungen/-ansprüchen
- Betrug bei der Reisekostenrückerstattung
Tag 4: Sitzung 2: Von der Churning-Vorhersage zur Churning-Prävention:
- 3 Arten von Abwanderung: aktiv/absichtlich, rotierend/unbeabsichtigt, passiv/unfreiwillig
- 3 Klassifizierungen von abgewanderten Kunden: Vollständig, versteckt, partiell
- Verständnis der CRM-Variablen für Abwanderung
- Datenerhebung zum Kundenverhalten
- Erhebung von Daten zur Kundenwahrnehmung
- Erhebung von demografischen Kundendaten
- Bereinigung von CRM-Daten
- Unstrukturierte CRM-Daten (Kundenanrufe, Tickets, E-Mails) und ihre Umwandlung in strukturierte Daten für die Analyse der Kundenabwanderung
- Social Media CRM - ein neuer Weg zur Extraktion des Kundenzufriedenheitsindex
- Fallstudie 1: T-Mobile USA: Verringerung der Kundenabwanderung um 50
Tag 4: Sitzung 3: Wie man prädiktive Analysen für die Ursachenanalyse von Kundenunzufriedenheit nutzt:
- Fallstudie -1: Verknüpfung von Unzufriedenheit mit Problemen - Buchhaltung, technische Fehler wie Serviceunterbrechungen, schlechter Bandbreitenservice
- Fallstudie-2: Big Data QA-Dashboard zur Verfolgung des Kundenzufriedenheitsindex anhand verschiedener Parameter wie Anrufeskalationen, Kritikalität von Problemen, anstehende Serviceunterbrechungen usw.
4. Tag: Session-4: Big Data Dashboard für den schnellen Zugriff auf verschiedene Daten und deren Anzeige:
- Integration der bestehenden Anwendungsplattform mit Big Data Dashboard
- Big Data-Verwaltung
- Fallstudie zu Big Data Dashboard: Tableau und Pentaho
- Verwendung der Big Data-App, um ortsbezogene Werbung zu schalten
- Tracking-System und Verwaltung
Tag 5: Sitzung 1: Wie rechtfertigt man die Big Data BI-Implementierung in einer Organisation?
- Definition des ROI für die Big Data-Implementierung
- Fallstudien zur Einsparung von Analystenzeit für die Sammlung und Aufbereitung von Daten - Steigerung der Produktivität
- Fallstudien zur Umsatzsteigerung durch Kundenabwanderung
- Umsatzsteigerung durch standortbezogene und andere gezielte Werbung
- Ein integrierter Tabellenkalkulationsansatz zur Berechnung der ungefähren Kosten im Vergleich zu den Einnahmegewinnen/Einsparungen aus der Big Data-Implementierung.
Tag 5: Sitzung 2: Schrittweises Vorgehen bei der Ablösung eines alten Datensystems durch ein Big Data-System:
- Verstehen des praktischen Big Data-Migrationsfahrplans
- Welche wichtigen Informationen sind vor der Planung einer Big Data-Implementierung erforderlich?
- Welches sind die verschiedenen Methoden zur Berechnung von Datenvolumen, -geschwindigkeit, -vielfalt und -wahrheit?
- Wie kann man das Datenwachstum abschätzen?
- Fallstudien in 2 Telekommunikationsunternehmen
Tag 5: Sitzung 3 & 4: Überblick über die Big Data-Anbieter und ihre Produkte. Q/A-Sitzung:
- AccentureAlcatel-Lucent
- Amazon - A9
- APTEAN (ehemals CDC Software)
- Cisco Systeme
- Cloudera
- Dell
- EMC
- GoodData Gesellschaft
- Guavus
- Hitachi Datensysteme
- Hortonworks
- Huawei
- HP
- IBM
- Informatica
- Intel
- Jaspersoft
- Microsoft
- MongoDB (ehemals 10Gen)
- MU Sigma
- Netapp
- Opera-Lösungen
- Oracle
- Pentaho
- Platfora
- Qliktech
- Quantum
- Rackspace
- Revolution Analytik
- Salesforce
- SAP
- SAS Institut
- Sisense
- Software AG/Terracotta
- Soft10 Automatisierung
- Splunk
- Sqrrl
- Supermicro
- Tableau Software
- Teradata
- Think Big Analytik
- Tidemark-Systeme
- VMware (Teil von EMC)
Voraussetzungen
- Basiswissen über Geschäftsabläufe und Datensysteme in Telecom in ihrem Bereich
- Muss über Grundkenntnisse in SQL/Oracle oder relationalen Datenbanken verfügen
- Grundkenntnisse in Statistik (auf Excel-Niveau)
35 Stunden
Erfahrungsberichte (3)
All the examples used and the lecturing style was on point even for a begginer i was able to understand and the training was so patient and always willing to go extra mile when in need of assistance.
Mathipa Chepape - Vodacom
Kurs - Big Data Business Intelligence for Telecom and Communication Service Providers
All the examples used and the lecturing style was on point even for a begginer i was able to understand and the training was so patient and always willing to go extra mile when in need of assistance.
Mathipa Chepape - Vodacom
Kurs - Big Data Business Intelligence for Telecom and Communication Service Providers
Understanding big data beter