data2day 2015 – Ein Konferenzbericht

Keine Kommentare

Auch dieses Jahr war wieder ein Team der codecentric AG auf der data2day. Die Konferenz hat sich sehr positiv weiterentwickelt und hat sich in unseren Augen als fester Bestandteil der deutschen Data-, Big-Data- und Data-Science-Konferenzlandschaft etabliert. Wir wollen die Konferenz und insbesondere einige der Highlights noch einmal Revue passieren lassen.

Die Konferenz

Die in Karlsruhe ansässige data2day ist eine relativ junge Konferenz, die 2015 erst ihre zweite Auflage erlebte. Thematisch beschätigt sie sich mit Big Data, Data Science und Daten in allen Formen, Farben und Komplexitäten – der Name ist Programm. Die codecentric AG war wie schon im letzten Jahr als Sponsor dabei, hat natürlich auch wieder einige Vorträge beigesteuert und diesmal auch einen ganztägigen Hands-on Workshop zum Thema Apache Spark, durchgeführt von unserem Karlsruher Kollegen Matthias Niehoff. Pavlo Baron, früherer Lead Data Technologist bei codecentric, mittlerweile CTO unseres Spinoffs Instana war wiederum Mitglied des Programmkomitees.
Neben Matthias waren noch Stefan Siprell und Stefan Kühn, oder kurz Stefan 1+2, wobei aus praktischen Gründen immer offen gelassen wird, wer 1 ist und wer 2, als Speaker vor Ort und natürlich gab es auch wieder einen kleinen Stand, an dem Stefan „1“ Siprell u.a. eine interaktive Demo des ELK-Stacks – ElasticSearch, Logstash, Kibana – vorbereitet hatte.

Unsere persönlichen Erfahrungen

Die Bandbreite der Themen war überraschend groß, angefangen von Erfahrungsberichten aus der Praxis, hier war natürlich das Hadoop-Ökosystem stark vertreten, über Open Data, eher proprietäre Tools oder Plattformen wie IBM Bluemix bis hin zu Visual Analytics und neuen verteilten Messaging- und Streaming-Technologien wie Apache Kafka und Apache Flink. Wir selber steuerten einen Erfahrungsbericht aus der Praxis bei, der sich mit dem Aufbau einer Big-Data-Architektur beschäftigte und diverse Lessons Learned enthielt, und zwei Talks mit eher analytischem Hintergrund, einmal über Textanalysen auf Streams und einmal allgemein über die DOs and DON’Ts der Datenanalyse am Beispiel von Football Data Analytics.

Die thematischen Highlights

Angesichts des insgesamt hohen Niveaus der Beiträge fällt es schwer, hier eine Auswahl zu treffen. Sehr interessant waren die Beiträge aus dem Themenbereich Datenvisualisierung und Visual Analytics, die Keynote über Machine Learning bei Amazon und auch das Workshop-Angebot. Trotzdem möchte ich an dieser Stelle einige einzelne Punkte herausgreifen, die mehr und mehr in den Fokus rücken. Mittlerweile gibt es viele verschiedene Big-Data-Architekturen „in production“ und in vielen Vorträgen war deutlich zu merken, dass zur Zeit und auch in Zukunft Flexibilität und Skalierbarkeit die Hauptanforderungen in vielen Bereichen sein werden. „One size fits all“ wird es so nicht mehr geben, die Daten- und Analyse-Architekturen der Zukunft werden nach Bedarf designed und flexibel um- oder neugebaut. Es werden verstärkt Frameworks und Tools eingesetzt, die gut mit möglichst vielen anderen integrieren. Mesos, Spark und Kafka, in Zukunft auch Flink und viele andere neue und auch ältere, zumeist Open-Source-Projekte werden oder sind bereits die Building Blocks für diese flexiblen Architekturen. Auch auf der Datenbankseite ist es oftmals kein Entweder-Oder mehr, sondern ein Nebeneinander, je nach Bedarf. Dieses Nebeneinander erhöht in vielen Bereichen die Anforderungen an den Wissensstand der Data Architects, Engineers, Scientists und Analysts, denn mehr Tools bedeuten immer auch mehr Bedienungsfehler, mehr APIs und Interfaces und weniger Überblick. Gerade an dieser Schnittstelle stehen aber auch mehr und mehr Tools zur Verfügung, die Teile dieser zusätzlichen Komplexität abstrahieren. Auch Anwendungen, die die systemübergreifende Kollaboration unterstützen wie Apache Zeppelin – ein browserbasiertes Notebook, welches interaktive Datenanalysen in verschiedenen Programmiersprachen unter Einbindung verschiedener Datenquellen ermöglicht – sind hier sehr hilfreich.

Es gibt also jede Menge spannende Entwicklungen, Fortschritte und neue Trends. Wir haben von dieser Konferenz sehr viel mitgenommen und werden im nächsten Jahr ganz sicher wiederkommen.

Nachtrag: Die Organisatoren vom dpunkt-Verlag haben einige Impressionen online gestellt, auf denen auch beide Stefans zu sehen sind.

Stefan Kühn

Dr. Stefan Kühn analysiert große Datenmengen und entwickelt robuste, schnelle und intelligente Algorithmen.

Share on FacebookGoogle+Share on LinkedInTweet about this on TwitterShare on RedditDigg thisShare on StumbleUpon

Kommentieren

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.