Was sind Metadaten?

Metadaten sind strukturierte Daten über Daten

Was sind Metadaten? Auf spezielle Art und Weise konkretisieren und beschreiben Metadaten die eigentlichen Daten. Sie beinhalten in strukturierter Form Informationen über die jeweils anderen Dateninformationen.  Mit den Metadaten werden beispielsweise die Dateigröße, Dateiformate, Dateistrukturen und Dateispeicherorte beschrieben. Sie sind wichtig bei der Archivierung, Verwaltung und dem Management der anfallenden Nutzerdaten.

  1. Die Verarbeitung der Metadaten
  2. Metadaten semantisch analysieren
  3. Metadaten mit Data Mining erfassen

Die Verarbeitung der Metadaten

Metadaten Damit eine optimale Verarbeitung dieser Daten möglich ist, müssen gewisse Standards und Übereinkommen berücksichtigt werden. Dabei sind vier Aspekte wesentlich, um interoperable Daten zu schaffen. Diese vier Datenglieder sind Semantik, Syntax, Datenmodell und Identifizierung. So können alle vier Datenaspekte zusammen in ein sogenanntes Framework einsortiert werden. Das Framework hat die Aufgabe als Grundgerüst und Basisbezugssystem zu dienen, um die sinnvolle Eingliederung aller neuen Komponenten zu gewährleisten. Ein Framework macht sinnvollerweise keinerlei Vorgaben für die Ausgestaltung der Einzelkomponenten eines Systems oder deren Beziehungen untereinander, aber es beschreibt schon die wesentlichen Elemente und Komponenten der jeweiligen Systeme. Weil immer schneller immer größere Datenmengen anfallen, wird häufig der Begriff Big Data genannt und verwandt. Herkömmliche Technologien sind meist überfordert, wenn es darum geht, sehr große Datenmengen zu erfassen und sinnvoll zu verarbeiten. Oft entstehen Probleme bei der Speicherung, Verteilung und Analyse der Datenflut. Die Menge der meist unstrukturiert anfallenden Informationen übersteigt zunehmend die Grenzen und Möglichkeiten, die herkömmliche IT zu bieten hat.

Metadaten semantisch analysieren

In diesem Kontext spielt Deep Learning eine zunehmend wichtigere Rolle. Damit ist gemeint, dass Maschinen letzten Endes selbstständig analog zum menschlichen Gehirn lernen können sollen. Um Computern das Lernen beizubringen, müssen sie in die Lage versetzt werden ohne menschliche Eingriffe ihre Fähigkeiten zu verbessern und zu erweitern. Sie sollen in den Informationsclustern Muster erkennen und extrahieren. Durch Klassifikation der erkannten Muster wächst die Möglichkeit neue Verknüpfungen innerhalb der Datenströme herzustellen und so Zusammenhänge zu erkennen. Ziel ist, eine künstliche Entscheidungsfähigkeit zu generieren, die auf diesen neuen Korrelationen basiert. Die Verknüpfungen werden durch Prozesse ständigen Hinterfragens unterschiedlich gewichtet. Die jeweilige Gewichtung wird erhöht, wenn Entscheidungen bestätigt werden und verringert, wenn die Entscheidungen als falsch kategorisiert werden. So wird die Anzahl neuer Verknüpfungen permanent erhöht und neue Zwischenebenen entstehen. Den Informationsoutput bestimmt letztlich die größere Anzahl an gewichteten Korrelationen.

Metadaten mit Data Mining erfassen

Bei Klärung der Frage was sind Metadaten taucht das Data Mining als Option auf. Damit können Zusammenhänge, Muster und Trends in Datenbeständen entdeckt werden. Der systematische Einsatz computergestützter Methoden mittels Algorithmen und Statistik soll Ordnung und Struktur erzeugen. Interdisziplinäre Ansätze sind hierbei sehr gefragt und Erkenntnisse aus Mathematik, Informatik und Statistik werden angewandt. Daten mit Informationen über andere Daten können meist wesentlich effizienter rechnergestützt verarbeitet und zusammengefasst werden als die ursprünglichen Daten. So sind beispielsweise Verbindungsdaten im Gegensatz zu Inhaltsdaten schon strukturiert, was ihre Verarbeitung und Verknüpfung sehr vereinfacht. In Zeiten der Datenexplosion und der Informationsinflation wird es immer wichtiger die Spreu vom Weizen in all den Bits und Bytes trennen zu können.

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.