BIG DATA

START - Produkte - TRENDS - Big Data

Zu dem Paket gehören folgende Themen, zu denen Sie hier kurze Infos erhalten. Sobald Sie ausführlichere Informationen wünschen, können Sie das Gesamtpaket erwerben.

Big Data bezeichnet die Verwendung von Vorhersageanalysen oder anderen fortgeschrittenen Methoden, um aus Daten Nutzen zu gewinnen. Die Herausforderungen umfassen Analyse, Suche, Erfassung, Speicherung, Visualisierung, Übertragung und Sicherheit der Daten. Oft wird Big Data anhand der „5 V“charakterisiert: Variety (Vielfalt) bezieht sich auf die verschiedenen Arten von Daten, Velocity (Geschwindigkeit) auf die Erzeugungsrate und die Verarbeitungsgeschwindigkeit, Volume (Menge) auf die große Anzahl an Daten. Veraci- ty (Wahrhaftigkeit) verweist auf die Verlässlichkeit und Value (Wert) auf den wirtschaftlichen Nutzen (Rani und Babu 2015).

1.1
Big Data Visualisierung

Die Visualisierung der Daten ist ein unverzichtbarer Bestandteil von Big Data Analysen um Wissen und Nutzen aus den Daten zu gewinnen. Sie kann von der anfänglichen Untersuchung der Daten, über die Erstellung von Hypothesen, der experimentellen Validierung, bis hin zur abschließenden Darstellung der Resultate verwendet werden (Godfrey et al. 2016).

Die interaktive Visualisierung von großen Datensätzen in herkömmlichen Graphen ist problematisch, denn die Menge an Datenpunkten ist nicht zu überblicken und die Rechenzeiten sind zu lang. Mit neuen Methoden können beide Probleme gelöst werden und die interaktive Visualisierung als leistungsfähige Analysemöglichkeit dennoch verwendet werden (Godfrey et al. 2016).

1.2
Bildverarbeitung: Videoüberwachung

Big Data zeichnet sich durch die Vielfalt an verarbeiteten Daten aus, zu denen auch Bilder und Videos gehören. Eine Herausforderung stellen vor allem die Speicherung und die Übertragung der Daten dar.

Die private und staatliche Videoüberwachung ist in den letzten Jahren deutlich angestiegen. Durch die große Menge an Daten ist es jedoch schwierig die gewünschten nützlichen Informationen zu finden. Big Data Anwendungen können die Videos analysieren und Objekte und menschliche Handlungen erkennen. Dies ermöglicht die automatische Überwachung großer Bereiche und die präventive Identifikation von verdächtigen Personen und Gegenständen (Ramezani und Yaghmaee 2016; Xu et al. 2016d).

1.3
Bildverarbeitung: Bildkomprimierung

Traditionelle Bildkomprimierungsverfahren genügen den Ansprüchen für die Speicherung und Übertragung der großen Datenmengen nicht mehr. Es werden verschiedene neue Ansätze entwickelt. Beispielsweise werden die Bilder anhand ihrer Korrelationen untereinander komprimiert (Zhao et al. 2015).

1.4
Internet der Dinge: Geo Tags für Individualreisen

In diesem Aspekt findet sich eine enge Verbindung zum Innovationstrend Internet der Dinge selbst wieder, allerdings liegt der Fokus auf der Verarbeitung der gesammelten Daten und weniger auf der Vernetzung.

Anhand von Beiträgen in sozialen Medien mit Geo-Tags können Reiserouten von Touristen nachvollzogen werden. Mit diesen Informationen lassen sich Kundensegmente bilden und die touristischen Angebote individuell anpassen (Bordogna et al. 2016; Su et al. 2016).

1.5
Internet der Dinge: Marktanalysen

Mit Big Data Analysen von Kundeninformationen, Produktbewertungen und Vertriebszahlen können Veränderungen am Markt wie beispielsweise wechselnde Kundenbedürfnisse schnell erkannt werden. Dies erhöht die Reaktionsge- schwindigkeit und die Flexibilität des Unternehmens (Xu et al. 2016b).

1.6
Gesundheit: Gesundheitswesen

Das Pflegepersonal in Krankenhäusern dokumentiert in den elektronischen Gesundheitskarten eine Vielzahl an Daten die für Prognosen, Risikobeurteilungen und die Analyse von Behandlungserfolgen genutzt werden können. Beispielsweise lässt sich ermitteln wie lange ein transplantiertes Organ im Schnitt akzeptiert wird oder welche Zusammenhänge zwischen Patientenmerkmalen und Krankheitsverläufen bestehen (Westra und Peterson 2016).

1.7
Massenspektroskopie

Bei der Massenspektrometrie von Proteinen entstehen riesige Datenmengen die gespeichert, verarbeitet und geteilt werden müssen. Die Analysen dienen dem Verständnis komplexer biologischer Prozesse und verbessert die Genauigkeit der Modelle (Deng et al. 2015; Popescu et al. 2016).

1.8
Cloud Computing

Beim Cloud-Computing werden Daten in Rechenzentren gespeichert und verarbeitet. Die Ressourcen müssen somit nicht zwangsweise lokal vorhanden sein, stehen bei Bedarf aber dennoch zur Verfügung. Sie sind besonders für die großen Datenmengen und aufwändigen Berechnungen von Big Data interessant (Pietri und Sakellariou 2016).

1.9
Schutze der Privatsphäre

Bevor Datensätze veröffentlicht werden, müssen die Daten anonymisiert werden um die Privatsphäre zu schützen. Bei sehr großen Datensätzen sind besondere Anonymisierungsverfahren nötig, da sonst mit den leistungsstarken Big Data Analysen trotzdem auf persönliche Daten rückgeschlossen werden kann (Kao et al. 2015; Zhang und Xiang 2015).

1.10
Workflowsysteme

Workflowsysteme unterteilen die aufwändigen Big Data Berechnungen in Teilaufgaben und legen die Reihenfolge und Ressourcenzuordnung fest. Die Anwendung wird in Teilaufgaben unterteilt und die Reihenfolge und Ressourcenzuordnung vorgenommen. Dadurch werden die Ressourcen optimal genutzt, die Kosten reduziert und die Berechnung beschleunigt (Rani und Babu 2015).

1.11
Data Mining

Data Mining dient dazu Phänomene, Regeln und Wissen aus den Daten zu extrahieren. Eine genauere Betrachtung findet sich in Abschnitt 8.9. In der Regel wird es in der Cloud ausgeführt, da dort die nötigen Speicher- und Rechenressourcen zur Verfügung stehen (Talia 2015; Wang und Zhang 2015).

1.12
Dienstekomposition

Dienstekomposition bezeichnet die Verknüpfung von verschiedenen Diensten in einem System. Es gibt eine große Zahl an Webdiensten mit gleicher Funktionalität, aber unterschiedlichen Qualitätsmerkmalen wie Kosten, Reaktionszeit und Zuverlässigkeit. Die Auswahl der Dienste ist eine komplexe aber wichtige Aufgabe, um die gewünschten Analyseergebnisse zu erhalten (Liu et al. 2015d).

1.13
Big Data in der Wirtschaft: Audits

In Unternehmen werden viele Daten dokumentiert, die als Grundlage für Big Data Analysen dienen können. Dadurch lassen sich beispielsweise Kostensenkungspotentiale aufdecken oder Qualitätsmerkmale identifizieren (Warren et al. 2015; Ghosh 2015).

Big Data verbessert die Ergebnisse von Unternehmensaudits, da die Daten- grundlage deutlich breiter ist und auch komplexe Zusammenhänge durch die Algorithmen bestimmt werden können (Sui und Fang 2015).

1.14
Big Data in der Wissenschaft: Bibliotheken

Kunden von Bibliotheken können Empfehlungen anhand ihrer vorherigen Interessen und der Nutzung anderer Kunden gegeben werden. Außerdem können Metadaten wie der Kenntnisstand oder ergänzende Schriftstücke berücksichtigt werden (Li und Luo 2015).

1.15
Big Data in der Wirtschaft: Rechnungswesen

Im Controlling unterstützt Big Data beim Aufbau und der Weiterentwicklung von Kontrollsystemen. In der Finanzbuchhaltung wird die Qualität und die Relevanz der Finanzgrößen verbessert Transparenz geschaffen. Im Berichtswesen kann Big Data bei der Erstellung und Verfeinerung von Bilanzrichtlinien unterstützen, um sicherzustellen, dass nur nützliche und aktuelle Daten vorliegen (Warren et al. 2015).

1.16
Big Data in der Wirtschaft: Supply Chain Management

Big Data in Supply-Chain-Management und Logistik eröffnet neue Möglichkeiten zur Steigerung des Kundennutzens und zur Kostensenkung. Beispielsweise können die Liefernetzwerke optimiert werden, dynamischer Transportrouten erstellt werden, Materialverbräuche prognostiziert werden oder Preise datenba- siert festgelegt werden (Ghosh 2015; Ma et al. 2015).

1.17
Big Data Algorithmen: Extreme Learning Machines

Für Big Data Anwendungen sind effiziente Algorithmen nötig, um die aufwändigen Berechnungen in einer vertretbaren Zeit durchzuführen. Das größte Problem stellt die mit der Datenmenge exponentiell wachsende Laufzeit dar (Papa- lexakis und Faloutsos 2015).

1.18
Big Data Algorithmen: Tensorzerlegung

In vielen Big Data Anwendungen ist eine effiziente Tensorzerlegung nötig. Algorithmen die für große Tensoren optimiert sind, ermöglichen komplexere und genauere Auswertungen mit großen Datensätzen (Papalexakis und Faloutsos 2015).

 

1.19
Big Data Algorithmen: Fuzzy Logic

Mit Fuzzy-Logik kann Ungenauigkeiten, subjektiven Einschätzungen und Manipulationen in Big Data Anwendungen entgegengewirkt und die Qualität der Analysen verbessert werden. (Lewis und Martin 2015)

1.20
Hadoop

Apache Hadoop ist ein Open Source Java Framework für die für die Verarbeitung großer Datenmengen. Es besteht hauptsächlich aus zwei Komponenten: Dem Dateisystem (HDFS – Hadoop distributed file system), welches die großen Datenmengen zuverlässig speichert und aus MapReduce, einem Programmiermodell, das die Daten parallel und verteilt verarbeitet. Ergänzt wird Hadoop durch YARN (Yet Another Resource Negotiator), einem Ressourcenmanager, der die Aufgabenverteilung übernimmt (Gohil et al. 2015; Uzunkaya et al. 2015).

INTERESSE AM GESAMTPAKET