Apache Hadoop

Apache Hadoop

Datum:
17.10.2012, 20:15

Das zuverlässgige Ablegen und Verarbeiten von Datenmengen im Tera-/Petybyte-Bereich ist technisch und wirtschaftlich möglich geworden, ist allerdings mit den klassischen Architekturen nur schwer abzubilden. Die BigData-Lösung Apache Hadoop hat in diesem Bereich in den letzten Jahren viel Staub aufgewirbelt.Doch was ist dran an dem Hype? Was ist Hadoop genau und was bietet es? Und was bietet es nicht?

Der Vortrag beschreibt im Detail die Architektur und Funktionsweise vom derzeit in Entwicklung befindlichen Hadoop 2, dass mit wesentlichen Änderungen zu Hadoop 1 aufwartet. MapReduce Jobs werden ebenso gezeigt wie die BigTable-Implementierung HBase sowie die Hadoop-Tool-Landschaft. Es wird ausserdem ein ausführlicher Blick auf Hadoop als universelle Data-Processing-Plattform geworfen, die sich von einer Batch-Umgebung wegentwickelt und auch für Echtzeit-Abfragen auf Milliarden von Datensätzen oder Graphen-Verarbeitung geeignet sein wird.

Bernd Fondermann

Bernd Fondermann ist Java Entwickler und Architekt, Freelancer, Member der Apache Software Foundation und Autor der JavaMagazin-Kolumne "Flinke Feder".

http://www.brainlounge.de/ http://www.brainlounge.de/

Location


KIT Karlsruhe
Am Fasanengarten 5
Gebäude 50.34, Raum HS101 (UG)
76131 Karlsruhe

Unterstützer & Sponsoren

Info

API Conference 2017

Powered by Jekyll & Git - Revision a840640