Big Data-Ingenieure und Fachleute mit NoSQL-Kenntnissen sind in der Datenverwaltungsbranche sehr gefragt. Diese Specialization richtet sich an diejenigen, die grundlegende F盲higkeiten 蹿眉谤 die Arbeit mit Big Data, Apache Spark und NoSQL-Datenbanken entwickeln m枚chten. In drei informationsreichen Kursen werden beliebte NoSQL-Datenbanken wie MongoDB und Apache Cassandra, das weit verbreitete Apache Hadoop-脰kosystem von Big Data-Tools sowie die Apache Spark-Analyse-Engine 蹿眉谤 die Verarbeitung gro脽er Datenmengen behandelt.
Sie beginnen mit einem 脺berblick 眉ber die verschiedenen Kategorien von NoSQL-Datenspeichern (nicht nur SQL) und arbeiten dann praktisch mit mehreren von ihnen, darunter IBM Cloudant, MonogoDB und Cassandra. Sie f眉hren verschiedene Datenverwaltungsaufgaben durch, wie z.B. das Erstellen und Replizieren von Datenbanken, Einf眉gen, Aktualisieren, L枚schen, Abfragen, Indizieren, Aggregieren und Sharding von Daten. Als N盲chstes erwerben Sie grundlegende Kenntnisse 眉ber Big-Data-Technologien wie Hadoop, MapReduce, HDFS, Hive und HBase, gefolgt von tiefer gehenden Kenntnissen 眉ber Apache Spark, Spark Dataframes, Spark SQL, PySpark, die Spark Application UI und die Skalierung von Spark mit Kubernetes. Im letzten Kurs lernen Sie die Arbeit mit Spark Structured Streaming Spark ML - 蹿眉谤 die Durchf眉hrung von Extract-, Transform- und Load-Verarbeitung (ETL) und maschinellen Lernaufgaben.
Diese Spezialisierung eignet sich 蹿眉谤 Anf盲nger in den Bereichen NoSQL und Big Data - egal ob Sie Dateningenieur, Softwareentwickler, IT-Architekt, Datenwissenschaftler oder IT-Manager sind oder sich darauf vorbereiten.
Praktisches Lernprojekt
Bei dieser Specialization liegt der Schwerpunkt auf dem Lernen durch Handeln. Daher umfasst jeder Kurs praktische 脺bungen, in denen Sie die in den Vorlesungen erlernten NoSQL- und Big Data-Kenntnisse anwenden k枚nnen.
Im ersten Kurs arbeiten Sie praktisch mit verschiedenen NoSQL-Datenbanken - MongoDB, Apache Cassandra und IBM Cloudant - und f眉hren eine Vielzahl von Aufgaben aus: Erstellen der Datenbank, Hinzuf眉gen von Dokumenten, Abfragen von Daten, Nutzung der HTTP-API, Ausf眉hren von Create, Read, Update & Delete (CRUD) Operationen, Einschr盲nken und Sortieren von Datens盲tzen, Indizierung, Aggregation, Replikation, Verwendung der CQL-Shell, Keyspace-Operationen und andere Tabellenoperationen.
Im n盲chsten Kurs starten Sie einen Hadoop-Cluster mit Docker und f眉hren Map Reduce-Auftr盲ge aus. Sie werden erkunden Sie die Arbeit mit Spark mithilfe von Jupyter-Notebooks auf einem Python-Kernel. Sie bauen Ihre Spark-Kenntnisse mit DataFrames und Spark SQL aus und skalieren Ihre Auftr盲ge mit Kubernetes.
Im letzten Kurs werden Sie Spark 蹿眉谤 die ETL-Verarbeitung und das Training und die Bereitstellung von Machine Learning-Modellen mit IBM Watson verwenden.