Was ist der Unterschied zwischen Big Data und Hadoop?

Autor: Judy Howell
Erstelldatum: 5 Juli 2021
Aktualisierungsdatum: 23 Juni 2024
Anonim
„Big Data" einfach erklärt (explainity® Erklärvideo)
Video: „Big Data" einfach erklärt (explainity® Erklärvideo)

Inhalt

Q:

Was ist der Unterschied zwischen Big Data und Hadoop?


EIN:

Der Unterschied zwischen Big Data und der Open-Source-Software Hadoop ist eindeutig und grundlegend. Ersteres ist ein Vermögenswert, häufig ein komplexes und mehrdeutiges, während letzteres ein Programm ist, das eine Reihe von Zielen und Vorgaben für den Umgang mit diesem Vermögenswert erfüllt.

Big Data sind einfach die großen Datenmengen, die Unternehmen und andere Parteien zusammenstellen, um bestimmte Ziele und Abläufe zu erreichen. Big Data kann viele verschiedene Arten von Daten in vielen verschiedenen Formaten enthalten. Beispielsweise könnten Unternehmen viel Arbeit in das Sammeln von Tausenden von Daten zu Einkäufen in Währungsformaten, zu Kundenkennungen wie Name oder Sozialversicherungsnummer oder zu Produktinformationen in Form von Modellnummern, Verkaufsnummern oder Bestandsnummern investieren. All dies oder jede andere große Menge an Informationen kann als Big Data bezeichnet werden. In der Regel ist es roh und unsortiert, bis es verschiedene Arten von Werkzeugen und Handlern durchläuft.


Hadoop ist eines der Tools für den Umgang mit Big Data. Hadoop und andere Softwareprodukte interpretieren oder analysieren die Ergebnisse von Big-Data-Suchen mithilfe spezifischer proprietärer Algorithmen und Methoden. Hadoop ist ein Open-Source-Programm unter der Apache-Lizenz, das von einer globalen Benutzergemeinschaft verwaltet wird. Es enthält verschiedene Hauptkomponenten, darunter einen MapReduce-Funktionssatz und ein verteiltes Hadoop-Dateisystem (HDFS).

Die Idee hinter MapReduce ist, dass Hadoop zuerst einen großen Datensatz abbilden und dann diesen Inhalt reduzieren kann, um bestimmte Ergebnisse zu erzielen. Eine Reduktionsfunktion kann als eine Art Filter für Rohdaten angesehen werden. Das HDFS-System verteilt die Daten dann über ein Netzwerk oder migriert sie nach Bedarf.

Datenbankadministratoren, Entwickler und andere können die verschiedenen Funktionen von Hadoop nutzen, um auf vielfältige Weise mit Big Data umzugehen. Mit Hadoop können Sie beispielsweise Datenstrategien wie Clustering und Targeting mit nicht einheitlichen Daten verfolgen oder Daten, die nicht gut in eine herkömmliche Tabelle passen oder auf einfache Abfragen gut reagieren.