MongoDB Days München 2013

1 Kommentar

Am 14. Oktober fand in München zum 4. Mal die MongoDB Munich Konferenz statt. Dieses Jahr zog die Veranstaltung mit dem Hilton Hotel am Rosenheimer Platz an einen zentral gelegenen Ort an dem sich laut Veranstalter ca. 240 Anhänger der beliebten OpenSource NoSQL-Datenbank einfanden. In 2 parallelen Tracks waren 14 Vorträge geboten. Dabei gab es Einführungen in die Datenbank und deren grundlegende Nutzung, vertiefende Vorträge zu speziellen Themen wie Replekation und auch Vorträge zu Use Cases von und Erfahrungen mit MongoDB. Viele Besucher waren zum ersten Mal auf der Veranstaltung und nutzten offensichtlich den günstigen Preis von 99 Euro um sich einen Überblick zum Thema zu verschaffen.

Eröffnet wurde die Veranstaltung mit einem kurzen Vortrag von Jim Stock, Sales Director EMEA von MongoDB. Er warf einen Blick zurück auf die Entwicklungen der letzten Jahre und den steigenden Bedarf nach neuen Tools um der stetig steigenden Datenmenge und den damit einhergehenden Problemen Herr zu werden. „Using old tools for new jobs“ funktioniert in seinen Augen für viele dieser neuen Problemstellungen nicht mehr. Mit Zahlen über die große Anzahl an Downloads von MongoDB und der breiten Nutzung der Datenbank untermauerte er diese Aussage noch einmal und unterstrich, dass sich MongoDB in diesem Markt durchaus als Marktführer sieht.

Eine ganze Reihe weiterer MongoDB-Mitarbeiter waren angereist um die Features der aktuellen MongoDB-Version vorzustellen. Für Neulinge eigneten sich die Vormittags-Vorträge „Building Your First App with MongoDB„, „Schema Design“ und „Replication“ in denen eine generelle Einführung gegeben und die Grundlagen der Verwendung von MongoDB erläutert wurden. Parallel wurden im 2. Track Anwendungsgebiete und Erfahrungen von MongoDB betrachtet. Timo Klingenmeier zeigte den Einsatz seiner Firma von MongoDB in der Verarbeitung von Anlagendaten wie z.B. Windkraftanlagen, sowie der Integration in bestehende industrielle Kommunikations-Standards wie OPC. Dr. Markus Schmidberger demonstrierte Möglichkeiten der Integration von MongoDB und dem verbreiteten Statistik-Tool R. Im Detail stellte er die Module rmongo und rmongodb vor und wie sich damit Daten aus MongoDB-Collections statistisch verarbeiten lassen, um z.B. Box- und Scatterplots zu erstellen.

Ab dem Nachmittag wurden dann schon fortgeschrittenere Themen bearbeitet. Joe Drumgoole stellte den MongoDB Management Service (MMS), einen vom Hersteller gehosteten, kostenlosen Monitoring Service für MongoDB-Instanzen vor. Damit lassen sich wichtige Metriken von MongoDB selbst sowie der zugrundeliegenden Hardware überwachen und Alarme (Mail und SMS) für die Überschreitung von Schwellwerten definieren. Als weiteres, allerdings kostenpflichtiges, Feature können damit auch kontinuierliche Backups realisiert werden. Für Enterprise-Kunden, denen die Verwendung einer Cloud-gehosteten Version ggf. nicht ganz geheur ist, steht auch eine On-Premise-Version zur Verfügung. Die Vorstellung wurde mit anonymisierten Daten eines MongoDB-Kunden illsutriert, bei dem mit Einsatz des Tools ein ernsthaftes, immer wiederkehrendes Performance-Problem identifiziert wurde.

Detailiertere Talks zu Spezialthemen gab es z.B. mit „Advanced Replication Internals“ und „Data Processing and Aggregation Options in MongoDB 2.4„. Beide Vorträge wurden von Christian Kvalheim gehalten, der darin detailierten Einblick über den Aufbau, unterschiedliche Szenarien und Best Practices von Replicasets und Sharding gab. Der zweiten Vortrag gab eine Übersicht der MongoDB-eigenen Möglichkeiten zur Datenverarbeitung und -filterung. Wenn schon nicht direkt abgeraten, so hat der Referent doch die Verwendung der MongoDB-eigenen Javascript-Map-Reduce-Jobs nicht unbedingt empfohlen, auch wenn seit der letzten Version die darunterliegenden Javascript-Engine SpiderMonkey gegen Googles V8 Engine ausgetauscht wurde, die z.B. auch node.js zu Grunde liegt. Alternativ bietet sich noch das letztes Jahr vorgestellte und in den seitdem vorgestellten Versionen verfeinerte Aggregation-Framework an, das sehr mächtige Optionen zur Filterung und Umstrukturierung von Daten bietet. Allerdings ist es auf die Verwendung innerhalb einer Collection beschränkt und unterliegt bis zur kommenden Version 2.6 noch der Limitierung, dass die Ausgabe der Query 60MB nicht übersteigen kann. Als weitere Alternative stellte Kvalheim noch die Anbindung an externe Hadoop-Systeme vor.

Weitere Talks zu Real-World-Szenarien im Einsatz von MongoDB gab es am Nachmittag auch wieder. Mathias Eckert sprach in „Got Index?“ über seine Erfahrungen zum Thema Indizes. Er erläuterte ein Problem bei dem durch das Fehlen passender Indizes die Query-Performance in manchen Fällen massiv einbrach und zeigte Möglichkeiten auf, wie man die Performance von Queries mit MongoDB-Mitteln debuggen kann. Darauf aufbauend kann ein Firmen-intern entwickeltes Tool „Mongo Query Inspector“ alle Queries automatisch überprüfen.

Dass es nicht immer gleich Bigdata-Szenarien für den Einsatz von MongoDB braucht zeigte Aron Spohr in „Migrating One of the Most Popular eCommerce Platforms to MongoDB„. Er erzählte von den Erfahrungen die seine Firma bei der Anbindung der verbreiteten ECommerce Platform Magento an MongoDB gesammelt hat. Dabei illustrierte er sehr anschaulich die Unterschiede zwischen der „alten“ relationalen und der neuen NoSQL-Welt. So wurde MongoDB eingesetzt um die Daten von Produkten und Shopping-Carts zu speichern, anstatt klassisch in MySQL. Klang es schon erstaunlich, dass sich Daten für einen einzelnen Einkauf auf bis zu 7 Tabellen verteilten, so war es schon fast unglaublich, dass beim Anlegen eines neuen Produkts Daten in bis zu 64 Tabellen unterschiedlichen Tabellen landeten. Nach der erfolgreichen Anbindung von MongoDB wurde sowohl ein einzelner Einkauf, als auch ein einzelnes Produkt über jeweils ein Dokument in jeweiligen Collections abgebildet. Zusätzlich schilderte Spohr das Vorgehen der Inbetriebnahme, bei der zuerst über längere Zeit die MongoDB-Anbindung parallel mitlief, um nach Verifikation aller Funktionen einfach und ohne Probleme auf die neue Implementierung umzuschalten.

Zum Ausklang stellte Marc Schwering noch die Roadmap für die nahe Zukunft vor. So wird die gegen Ende des Jahres erwartete Version 2.6 voraussichtlich einige für Enterprise-Kunden relevante Features wie Anbindung an LDAP, Rollenbasierte Zugriffsrechte und eine feingranularere Zugriffskontrolle (pro Collection) bieten. Anschliessend konnte man den Tag bei Bier und Wein und lockeren Gesprächenim Foyer noch ausklingen lassen.

 

Kommentare

  • Max

    Hey,

    hatte leider keine Zeit, sonst wäre ich auch gekommen. Schade, aber ich hoffe es hat für alle Teilnehmer Spaß gemacht.

    Grüße
    Max

Kommentieren

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.