Visualisierung von Big Data
Das Thema Big Data begegnet uns im Alltag immer häufiger und dass auch an Stellen an denen wir es gar nicht wahrnehmen.
Bei Big Data werden Daten unter Umständen so schnell generiert, dass sie allein durch ihre Menge unanschaulich sind. Ein 4k UHDTV hat in der Breite 3.840 Pixel, ein einziges Jahr hat jedoch bereits 8.760 Stunden. Deswegen ist es sinnvoll die Daten professionell zu visualisieren, um es dem Betrachter zu ermöglichen aus einer gewaltigen Menge von Daten Informationen für sich zu gewinnen. Unternehmen können durch die Grafiken im Entscheidungsprozess unterstützt werden, zum Beispiel, indem Trends erkannt werden, um die voraussichtlich profitabelste Wahl zu treffen.
Ziel
Ziel der Ausarbeitung ist es zu untersuchen wie große Datenbestände effektiv visualisiert werden können um einen Mehrwert für den Betrachter zu schaffen.
Das Hauptaugenmerk wird auf die Täuschung des Betrachters gelegt. Es soll gezeigt werden, wie der Betrachter durch falsche Darstellung beispielsweise Trends irreführend interpretiert oder anderweitig fehlerhafte Schlüsse aus den Daten ziehen kann, obwohl sowohl die Daten als auch die Darstellung korrekt sind. Aus den gewonnenen Erkenntnissen sollen Regeln aufgestellt werden, an die man sich halten sollte, um dem Betrachter die Informationen richtig zu präsentieren, sodass zu dieser zum Beispiel nicht durch die Wahl eines falschen Diagrammtyps fehlgeleitet wird.
Als letzten Punkt wird der Autor versuchen, mittels eines Tools, selbst reale Datenbestände in anschauliche Grafiken zu überführen.
Big Data
Was ist Big Data? Big Data ist heutzutage, zumindest in der IT-Branche, jedermann ein Begriff, unter dem er sich etwas vorstellen kann. Damit bei Daten aber auch von Big Data geredet werden kann, müssen die Daten die vier Vs erfüllen: Volume, Variety, Velocity und Validity.
Volume (Datenmenge) beschreibt die Masse der Daten, beispielsweise Anzahl von Datensätzen oder die Menge an Speicherbedarf. Die Variety (Datenvielfalt) zeigt die Bandbreite der unterschiedlichen Datentypen- beziehungsweise Datenquellen auf. Die Velocity (Geschwindigkeit) beschreibt die Geschwindigkeit, in der Daten transferiert oder generiert werden. Die Veracity (Datenqualität) ist letztendlich entscheidend für den Erfolg von Big Data, da sie die Sinnhaftigkeit und Vertrauenswürdigkeit der Daten bewertet. [1] [2]
[1] Vlg. Miertzsch, H. (2013): Veracity – Sinnhaftigkeit und Vertrauenswürdigkeit von Big Data als Kernherausforderung im Informationszeitalter
[2] Vgl. Lochmaier, L. (2014): Big Data – Mehr als nur Daten sammeln
____
Verfasst von Fabian Berends im Rahmen der Bachelorveranstaltung “Mobile Anwendungen und Systeme” im Fachbereich Informatik, Studiengang Wirtschaftsinformatik, bei Frau Prof. Dr. U. Gröner an der Fachhochschule Dortmund, Veröffentlicht am 05.01.2018
____
Quellen
Lochmaier, L. (2014): Big Data – Mehr als nur Daten sammeln
Online-Publikation: https://beschaffung-aktuell.industrie.de/allgemein/big-data-mehr-als-nur-daten-sammeln/
Abrufdatum: 04.12.2017
Miertzsch, H. (2013): Veracity – Sinnhaftigkeit und Vertrauenswürdigkeit von Big Data als Kernherausforderung im Informationszeitalter
Online-Publikation: https://blog.eoda.de/2013/10/10/veracity-sinnhaftigkeit-und-vertrauenswuerdigkeit-von-bigdata-als-kernherausforderung-im-informationszeitalter/
Abrufdazum: 06.12.2017