Musterdepot dadat

Hier stellen wir erweiterte Analysefunktionen über unsere Azure Databricks-Plattformen mit Azure Machine Learning vor. Wir haben immer noch die größe von Azure Data Factory, Azure Blob Storage und Azure SQL Data Warehouse. Wir bauen auf dem modernen Data Warehouse-Muster auf, um neue Funktionen hinzuzufügen und den Datenanwendungsfall auf die Förderung fortschrittlicher Analysen und Modellschulungen auszuweiten. Datenwissenschaftler nutzen unsere Azure Machine Learning-Funktionen auf diese Weise, um experimentelle Modelle mit großen, historischen und faktischen Datensätzen zu testen, um mehr Breite und Glaubwürdigkeit für Modellergebnisse bereitzustellen. Die moderne und intelligente Anwendungsintegration wird durch die Verwendung von Azure Cosmos DB ermöglicht, das sich ideal für die Unterstützung unterschiedlicher Datenanforderungen und -verbrauch eignet. 2 – Data Warehouse + Stammdatenmanagement Ein weiteres gängiges Muster für ein logisches Data Warehouse ist die Zusammenführung von Daten aus Ihrem Data Warehouse und MDM (Master Data Management). Dies kann auftreten, weil Sie separate Teams haben, die ausschließlich die verschiedenen Systeme verwenden, und Sie möchten es auf diese Weise beibehalten. In diesem Fall bietet ein logisches Data Warehouse eine virtuelle Datenschicht, die Daten aus jeder Umgebung – Data Warehouse und MDM – sammelt und diese kombinierte Ansicht der Informationen verfügbar macht, um die Rohdaten anzureichern. Wenn ich von diesen gemeinsamen Mustern höre, habe ich wirklich klargestellt, wie diese Technologie heute eingesetzt wird und wie diese Lösungen umgesetzt werden. Wenn Sie mehr darüber erfahren möchten, sehen Sie sich die vollständige Sitzung hier an: Allgemeine Muster für ein logisches Data Warehouse. In diesem praktischen Design- und Implementierungstraining werden die Techniken und Muster ausführlich erörtert. Es bietet Ihnen alles, was Sie benötigen, um eine automatisierte Data Warehouse-Lösung von Anfang bis Ende zu implementieren, indem Sie die richtigen Muster auswählen. Wir stellen Azure IOT Hub und Apache Kafka zusammen mit Azure Databricks vor, um ein umfassendes Analysemodell in Echtzeit neben batchbasierten Workloads bereitzustellen.

Hier nehmen wir alles aus den vorherigen Mustern und führen eine schnelle Aufnahmeschicht ein, die Datenanalysen zu den eingehenden Daten parallel zu bestehenden Batch-Workloads ausführen kann. Sie können Azure Stream Analytics verwenden, um dasselbe zu tun, und hier wird die hohe Wahrscheinlichkeit einer Verknüpfungsfähigkeit mit eingehenden Daten mit aktuellen gespeicherten Daten berücksichtigt. Dies kann ein Faktor für die Lambda-Anforderungen sein oder auch nicht, und die Due Diligence sollte auf der Grundlage des Anwendungsfalles angewendet werden. Wir können sehen, dass es immer noch Unterstützung für moderne und intelligente Anwendungsintegration mit Azure Cosmos DB gibt und dies den Aufbau der Anwendungsfälle aus unserem Grundlegenden Modern Data Warehouse-Muster abschließt. Gibt es aus Ihrer Erfahrung andere gängige Muster für ein logisches Data Warehouse, die ich hier nicht erwähnt habe? Logical Data Warehouse ist heutzutage ein wichtiges Thema, also musste ich, als Denodo eine darauf ausgerichtete Veranstaltung veranstaltete, teilnehmen. Die Veranstaltung bestand aus verschiedenen Präsentationen, darunter eine allgemeine Einführung in ein logisches Data Warehouse und Demos.