Das zuverlässgige Ablegen und Verarbeiten von Datenmengen im Tera-/Petybyte-Bereich ist technisch und wirtschaftlich möglich geworden, ist allerdings mit den klassischen Architekturen nur schwer abzubilden. Die BigData-Lösung Apache Hadoop hat in diesem Bereich in den letzten Jahren viel Staub aufgewirbelt.Doch was ist dran an dem Hype? Was ist Hadoop genau und was bietet es? Und was bietet es nicht?
Der Vortrag beschreibt im Detail die Architektur und Funktionsweise vom derzeit in Entwicklung befindlichen Hadoop 2, dass mit wesentlichen Änderungen zu Hadoop 1 aufwartet. MapReduce Jobs werden ebenso gezeigt wie die BigTable-Implementierung HBase sowie die Hadoop-Tool-Landschaft. Es wird ausserdem ein ausführlicher Blick auf Hadoop als universelle Data-Processing-Plattform geworfen, die sich von einer Batch-Umgebung wegentwickelt und auch für Echtzeit-Abfragen auf Milliarden von Datensätzen oder Graphen-Verarbeitung geeignet sein wird.
Bernd Fondermann ist Java Entwickler und Architekt, Freelancer, Member der Apache Software Foundation und Autor der JavaMagazin-Kolumne "Flinke Feder".
KIT Karlsruhe
Am Fasanengarten 5
Gebäude 50.34, Raum HS101 (UG)
76131 Karlsruhe
Auf der Veranstaltung werden Film- und Tonaufnahmen sowie Fotos gemacht, mit deren auch späteren Verwendung Sie sich durch den Besuch der Veranstaltung einverstanden erklären. Wenn Sie nicht fotografiert oder gefilmt werden möchten, können Sie direkt den/die FotografIn oder den/die Kameramann/-frau ansprechen.
Die Aufnahmen können im Internet, auf Social Media Kanälen sowie in Rundfunk-, TV-, und Printmedien (auch Büchern) veröffentlicht werden.
Die Verarbeitung erfolgt aufgrund des berechtigten Interesses der Verantwortlichen, die von ihr organisierte Veranstaltung bildlich zu dokumentieren und einer größeren Öffentlichkeit positiv darüber zu berichten