Die Macht der Daten und die analytische Verarbeitungsgravitation
Mehr details
Data Gravity beziehungsweise Datengravitation tritt auf, wenn sowohl die Menge des Datenvolumens in einem Repository als auch die Anzahl der Zugriffe darauf zunimmt. Irgendwann wird die Möglichkeit, Daten zu kopieren oder zu migrieren, mühsam und teuer. Daher neigen die Daten dazu, Dienste, Anwendungen und andere Daten in ihr Repository zu ziehen. Primäre Beispiele für die Schwerkraft von Daten sind Data Warehouses und Data Lakes. Daten in diesen Systemen sind träge. Skalierbare Datenmengen zerstören oft bestehende Infrastrukturen und Prozesse, was riskante und teure Maßnahmen erfordert. Daher besteht das Best Practice-Design darin, die Verarbeitung auf die Daten zu verlagern und nicht umgekehrt.
Die Datengravitation beeinflusst seit vielen Jahren Data Warehouses in Terabyte- und Petabyte-Größe. Deswegen wird eine skalierbare parallele Verarbeitung von Big Data benötigt. Dieses Prinzip wird nun auch auf Data Lakes angewendet, die unterschiedliche Anwendungsfälle bieten. Teradata unterstützt Kunden bei der Bewältigung der Datengravitation.