Oracle benennt wichtige Entwicklungen im Bereich "Big Data" für 2016

München, Starnberg, 19. Jan. 2016 - Ausgereifte Standardlösungen sollen die anfänglichen Spezialsysteme ersetzen; Big Data ist demnach im Mainstream angekommen…

Zum Hintergrund: Daten sind das Gold des digitalen Zeitalters. Im Gegensatz zu Gold ist der Rohstoff Daten aber nicht endlich. Ganz im Gegenteil: etwa alle 18 Monate verdoppelt sich die Menge an strukturierten und unstrukturierten digitalen Informationen (Quelle IDC). Die Herausforderung besteht darin, aus dem unüberschaubaren Informationsfluss die wertvollen Körner zu entdecken. Lange Zeit war die Nutzung und Analyse von Big Data ein Thema für IT- und Datenspezialisten – diese Ära wird nach Meinung von Oracle bald vorbei sein… Folgende Trends können wir nach Meinung von Oracle dieses Jahr rund um den Trend „Big Data“ erwarten:

1. Ausgereifte Standardlösungen ersetzen anfängliche Spezialsysteme

Big Data-Pioniere hatten keine andere Wahl, als ihre eigenen Cluster und -Umgebungen zu entwickeln. Diese auf Hadoop, Spark oder anderen aufkommenden Technologien beruhenden Spezialsysteme zu entwickeln, zu verwalten und zu warten ist allerdings extrem zeit- und kostenaufwendig. So beträgt die durchschnittliche Entwicklungszeit sechs Monate. So viel Zeit hat heute niemand mehr? Mittels Cloud-Diensten und Anwendungen mit vorkonfigurierter Automatisierung sowie Standards wird 2016 ein sehr viel größerer Anwenderkreis auf ausgereifte Lösungen zugreifen können.

2. Datenvirtualisierung wird Realität

Unternehmen erfassen heute nicht nur eine immer größer werdende Bandbreite an Daten, sie verwenden auch eine Vielzahl an Algorithmen, Analysen und Software-Anwendungen. Entwickler und Analytiker verlieren dadurch schnell den Überblick, wo welche Daten gespeichert sind oder haben Probleme mit den Zugriffsverfahren der jeweiligen Repositories. Daher werden Unternehmen 2016 nicht mehr nur auf eine einzelne Technologie setzen. Sie werden zukünftig vermehrt Daten virtualisieren. Die Benutzer und Anwendungen greifen dann über SQL, REST und andere Skriptsprachen auf diese virtualisierten Daten zu. Die richtige Technologie zur Datenvirtualisierung bietet dabei die gleiche Performance wie die nativen Methoden – einschließlich Rückwärtskompatibilität und Sicherheit.

3. Datenstrom-orientierte Programmierung beschleunigt das Tempo

In den Anfängen des Big-Data-Einsatzes dominierte die manuell programmierte Datenverarbeitung. Neue Verwaltungswerkzeuge bringen nun bessere Voraussetzungen für eine anspruchsvollere Datenverarbeitung mit und werden die ursprünglichen Big-Data-Technologien in den Hintergrund drängen. Darüber hinaus wird sich die datenstromorientierte Programmierung weiter etablieren. Diese setzt auf eine starke Parallelverarbeitung, erleichtert die Wiederverwendung von funktionalen Operatoren und unterstützt nahtlos Funktionen für Statistik und maschinelles Lernen.

4. Big Data wird zur Spielwiese von künstlicher Intelligenz

2016 wird vermehrt künstliche Intelligenz bei der normalen Datenverarbeitung eingesetzt – unter anderem maschinelles Lernen, automatische Texterkennung und Property-Graphen. Auf diese Technologien kann im Big-Data-Umfeld bereits jetzt über API-Bibliotheken zugegriffen werden. Nun werden sie zum Standard in IT-Werkzeugen für Echtzeit-Analysen und Datenwissenschaft.

5. Das Internet der Dinge und die Cloud sind Treibstoff für Big Data

Big Data-Cloud-Dienste sind die heimlichen Treiber des Internets der Dinge (IoT). Cloud Services werden vermehrt Sensordaten erfassen und für Big-Data-Analysen und -Algorithmen bereitstellen. Diese Analysen werden dann beispielsweise in der Entwicklung genutzt. So werden Fertigungsunternehmen mit Hilfe hochsicherer IoT-Cloud-Services Produkte entwickeln, die auf Grundlage von Datenanalysen eigenständig Aktionen ausführen. Eingriffe durch Menschen werden noch seltener nötig.

6. Datenvorschriften fördern die Hybrid Cloud

Je mehr über die Herkunft der Daten bekannt ist – und das bezieht sich nicht nur auf einen Sensor oder eine Datenbank, sondern auch auf die „Nationalität“ der Daten –, desto leichter können Regierungen nationale Datenvorschriften durchsetzen. Internationale Unternehmen, die die Cloud nutzen wollen, geraten dadurch in ein Geflecht widerstrebender Interessen. Daher werden globale Unternehmen zunehmend Hybrid-Cloud-Infrastrukturen und regionale Rechenzentren etablieren. Diese stellen gewissermaßen den lokalen Vertreter eines größeren Cloud-Dienstes dar. Damit senken Unternehmen nicht nur Kosten, sondern stellen auch die Compliance sicher.


Fazit: An Big Data führt laut Oracle kein Weg mehr vorbei: "Die Werkzeuge für datenbasierte Entscheidungen stehen bereit. Jetzt liegt es an den Unternehmen, schnell Nutzen aus den neuen Möglichkeiten zu ziehen."