Durch Tests möchten wir Fehler finden, bevor diese in Produktion gelangen. Leider gelingt das nicht immer. Seit 2012 setzen wir deshalb mit unseren Kunden Test-Gap-Analyse ein, wodurch ungetestete Änderungen bereits während der Entwicklung vollautomatisch identifiziert werden. Im Vortrag stellen wir kurz die Grundlagen der Test-Gap-Analyse und die benötigten Datenquellen vor. Anschließend diskutieren wir verschiedene Einsatzszenarien, Herausforderungen bei der Einführung und den quantitativ gemessenen Nutzen für unsere Kunden.
Zielgruppe:Software-Architekten, Software-Entwickler, IT-Projektmanager, Produktmanager
Dr. Sven Amann ist Berater für Software-Qualität bei der CQSE GmbH. Er studierte Informatik an der TU Darmstadt und der PUC in Rio de Janeiro und promovierte am Fachgebiet Softwaretechnik der TU Darmstadt. Seit über 10 Jahren spricht Sven auf Konferenzen und Fachtagen. Sein Themenschwerpunkt ist Software-Qualitätssicherung auf allen Ebenen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei SIGS.de vorbei: https://www.sigs.de/experten/sven-amann/
MongoDB ist eine der beliebtesten NoSQL Datenbanken auf dem Markt, die auf dem intuitiven und flexiblen Dokumentenmodell basiert. Dokumente in MongoDB werden direkt Objekten im Anwendungscode zugeordnet, sodass sie einfach und natürlich zu handhaben sind. Daten können in jeder beliebigen Struktur gespeichert werden und das Datenschema jederzeit verändert werden. Dabei basiert MongoDB auf einer verteilten Architektur und ermöglicht eine garantierte Ausfallsicherheit und ein nahtloses Skalieren aller Deployments. In dieser Session stellen wir die Grundlagen von MongoDB und MongoDB Atlas, unser vollständig verwalteten Cloud-Datenplattform vor und ziehen einen Vergleich zwischen der Datenspeicherung in MongoDB (als NoSQL-Datenbank) versus relationale Datenbanken. Neben verschiedenen Anwendungsbeispielen gehen wir auch auf die zusätzlichen Funktionalitäten der MongoDB Datenplattform ein; von Realm zur Entwicklung von mobilen Apps, Charts zur Datenvisualisierung bis hin zum Atlas Data Lake.
Zielgruppe: Entwickler/Programmierer, DevOps, (Datenbank-)Architekten, Project/Product Owners
Nils Lindholm ist ein Experte auf dem Gebiet der Software-Architekturen und IT-Systeme. Als Solutions Architect bei MongoDB arbeitet er eng mit unseren Kunden, MongoDB Nutzern und Partnern zusammen und unterstützt sie bei der Entwicklung zuverlässiger, skalierbarer Lösungen mit unserer MongoDB Datenplattform. Vor seinem kürzlichen Start bei MongoDB arbeitete Nils unter anderem bei Lidl und der Schwarz IT als ERP Consultant, Projektmanager und Product Owner im Bereich Supply Chain Management.
Die Zukunft Ihres Unternehmens ist sicher, wenn Sie mit Daten richtig umgehen. Niemand möchte heutzutage ewig auf Antworten Ihrer IT-Systeme warten, sondern es soll alles “sofort” passieren. Apache Kafka hilft Unternehmen nicht nur dabei Daten in (nahezu) Echtzeit zwischen Systemen auszutauschen, sondern bildet den Kern eines zentralen Nervensystems für Daten in immer mehr Unternehmen. So können Ihre IT-Systeme sofort reagieren, wenn etwas in Ihrem Unternehmen passiert.
Erleben Sie in diesem Vortrag, wie Apache Kafka Ihnen helfen kann, Ihre Daten in Fluss zu bringen und wie Sie und Ihr Unternehmen dabei Stolpersteinen aus dem Weg gehen. Kommen Sie mit auf eine spannende Reise in die Welt der Echtzeit-Datenverarbeitung.
Leidenschaft, Expertise und ein etwas anderen Ansatz. So vermittelt Anatoly Zelenin IT. Als erfahrener Berater und Trainer bringt er dafür natürlich die Zertifikate, vor allem aber die Passion mit, um Unternehmen auf das nächste Level zu heben. Anatoly Zelenin ist ein versierter Mentor, der bei seinen Apache Kafka- und Kubernetes-Schulungen Begeisterung und Wissen versprüht. Mit Freude statt mit Folien. Und einer Vision, in der Mensch und IT unseren Planeten in eine bessere Zukunft lenken. Eine Vision, an der man bei Anatoly Zelenin aktiv teilhaben kann.
Cloud-Infrastrukturen sind schon lange in aller Munde. Große DAX-Konzerne sind jedoch erst in den letzten Jahren dazu übergegangen, ihre businesskritischen Bestandsapplikationen großflächig zu Cloud-Dienstleistern wie Google Cloud, AWS oder Azure zu migrieren. Oft sind diese Anwendungen system-architektonisch indes noch nicht für eine dynamische Infrastruktur-Umgebung ausgelegt. Um trotzdem eine einheitliche Cloud-Infrastruktur zu realisieren, scheint für viele diese einfache Lösung nahe zu liegen: "Wir installieren die Bestandsapplikationen einfach auf virtuellen Cloud-Servern". Ein solches Vorgehen wird als "Lift and Shift" bezeichnet. Das erweist sich allerdings sehr häufig als naiv: Denn bei einem solchen Vorgehen läuft die Applikation zwar in der Cloud, leidet aber unter deren Nachteilen ohne deren Vorteile nutzen zu können. Aber auch angesichts knapper Budgets und Sparzielen sind einige Anpassungen unbedingt zu empfehlen, weil sie sich, insbesondere bei größeren Applikationen, im Umfeld der agilen digitalen Transformation auch finanziell lohnen. Der Vortrag von Dr. Andreas Witsch zeigt, welche Fragen sich bei der Cloud-Migration stellen und wie wir sie sinnvoll beantworten. Zum Beispiel: Welche Anpassungen sind fachlich und technisch sinnvoll? Welche sind sogar gesetzlich notwendig? Welche Pitfalls sollten vermieden werden? Lohnt sich eine Migration - und wenn ja, in welchem Umfang?
Zielgruppe: Projektmanagement, Architekten, Applikationsverantwortliche
Dr. Andreas Witsch ist promovierter Informatiker und hat sich seit 2009 zunächst in der Forschung mit soziotechnischem Engineering befasst. Sein Hauptforschungsschwerpunkt lag dabei auf der Entscheidungsfindung in verteilten Roboter-Systemen und den damit verwandten Bereichen der Robotik, wie etwa Künstliche Intelligenz, Regelungstechnik und Bildverarbeitung. Seit Abschluss seiner Promotion 2016 ist er bei der Micromata GmbH im Bereich Logistik-Software tätig. Neben der fachlichen und technischen Leitung von Entwicklungsprojekten begleitet und unterstützt er hier vermehrt auch Cloudmigrationen. In diesem Kontext hat er u. a. Rahmenbedingungen für den Anwendungsbetrieb im agilen DevOps-Umfeld geschaffen und kann für seinen Vortrag aus einem reichen praktischen Erfahrungsschatz schöpfen.
Mendix, Siemens-Tochter und führender Anbieter von Low-Code-Lösungen, unterstützt Unternehmen branchenübergreifend bei der digitalen Transformation, indem es sie in die Lage versetzen, Applikationen in beispielloser Geschwindigkeit und Skalierbarkeit zu entwickeln, verwalten und zukunftsfähig zu machen.
In diesem Vortrag werden wir Ihnen Mendix als Plattform für professionelle Entwickler vorstellen. Seien Sie dabei und erhalten Sie spannende Einblicke von Frederik Janssen, Head of IT Strategy & Governance, Siemens AG und Nicolas Heise, Director Mendix Presales EMEA, Mendix, wie auch Sie mit modellbasierter Entwicklung komplexe, geschäftskritische Anwendungen in kürzester Zeit erstellen können.
Erhalten Sie einen Einblick, wie Sie Ihre Reise auf der Mendix-Plattform in Studio Pro beginnen können - unserer desktopbasierten All-in-One-IDE, in der Sie Ihre Arbeit entwickeln, testen und bereitstellen können. Lösen Sie Datenengpässe mit Data Hub, wo Sie Datenquellen beschreiben, geschäftliche und technische Verantwortlichkeiten zuweisen, indem Sie Meta-Daten-Kataloge von Ressource verwenden, um Daten zu kategorisieren und zu organisieren. Mendix unterstützt auch Verbindungen zu anderen Anwendungen und Diensten über Standardschnittstellen und -protokolle wie REST, SOAP, JDBC und OData.
Wir werden auch die folgenden unternehmenskritischen Themen behandeln: Sicherheitskonzepte für Ihre Anwendung und Daten, Offenheit, Erweiterbarkeit z.B. durch Re-usable Components wie Widgets und Connectoren, die im Marketplace zum Download zur Verfügung stehen und Flexibilität durch „Deploy-Anywhere-Capabilities“. Des Weiteren sprechen wir darüber, wie native mobile Anwendungen in Ihre Projekte integriert (Entwicklung, Handhabung, Bereitstellung) werden.
Nicolas Heise leitet das Team der Siemens Presales Solution Architekten für Mendix in EMEA. Das Team verfolgt das Ziel, Kunden, Anwendern und Entwicklern aus dem Bereich der Enterprise Applikationsentwicklung bei der Transformation zu agilen, kollaborativen, modellbasierten Ansätzen mit Mendix zu unterstützen. Nicolas bringt langjährige Erfahrung in der Industrie auch im Automatisierungsumfeld mit. Vor seiner Tätigkeit im Umfeld von Cloud Anwendungen, beschäftigte er sich u.a. mit Echtzeitregelsystemen, PLC und Microcontroller Technology.
Frederik Janssen leitet die IT Governance & Cross Services der Corporate IT bei Siemens und ist Mitglied des IT Boards bei Siemens. Er treibt unternehmensübergreifend Innovationen und Digitalisierungsthemen voran, verantwortet die IT Strategy & Enterprise Architektur sowie das IT-Portfolios und verfügt über breites Netzwerk innerhalb der IT Industrie (Microsoft, Amazon, SAP, Cisco, Atos, usw). Frederik bringt sowohl langjährige Erfahrung als Software Entwickler als auch global leitender Architekt für die Modernisierung der IT-Landschaft von Siemens mit.
Bisher gilt die gesetzliche Mindesteffizienz nur für Hardware. Aber auch die Software hat Einfluss auf die Begrenzung der Nutzungsdauer oder den gestiegenen Energieverbrauch. Es ist Zeit, dass Anforderungen an die Effizienz der Verarbeitung, Speicherung & Übertragung der Daten auch für Software gestellt werden. Wie kann man die Umweltverträglichkeit von Software erkennen & messen? Welche Umweltlasten entstehen durch Cloud-Dienstleistungen (s. z.B. Video-Konferenzen oder Streaming)? Der Vortrag wird unter anderem diese Fragen beantworten.
Extended Abstract
Die Grundtechnologie der Digitalisierung ist das Internet und der Rohstoff dabei sind die Daten, die bei jedem Kontakt mit den vernetzten Geräten erfasst und in der Cloud und somit in Rechenzentren verarbeitet werden. Diese Cloud besteht eben nicht, wie Wolken, aus feinen Wassertröpfchen, sondern aus handfesten elektronischen Komponenten, die aus wertvollen Rohstoffen hergestellt und für deren Betrieb viel elektrische Energie erforderlich ist. Gleiches gilt für die vernetzen Geräte, die nur durch die elektronischen Komponenten in der Lage sind zu kommunizieren. Die Software ist die eigentliche Königin in dieser elektronischen Welt. Sie steuert die Hardware und sie speichert die Informationen als elektronische Daten. Sie ist maßgeblich dafür verantwortlich wie energie- und hardwareintensiv eine Funktion ausgeführt wird. Und sie verantwortet zum großen Teil auch die begrenzte Nutzungsdauer der Geräte.
Bisherige gesetzliche Anforderungen an die Mindesteffizienz gelten nur für die IT-Hardware. Das kann ungeahnte Folgen auf den Stromverbrauch und die Nutzungsdauer haben. Die Software hat mindestens einen ähnlich großen Einfluss auf die Energie- und Hardwareeffizienz der Informationsverarbeitung. Jüngste Beispiele zeigen den Einfluss von Softwareupdates auf die Begrenzung der Nutzungsdauer oder auf den plötzlich gestiegenen Energieverbrauch nach einem Software-Update. Es ist somit an der Zeit, dass Anforderungen an die Effizienz der Verarbeitung, Speicherung und Übertragung der Daten auch für Software gestellt werden. Doch wie kann man die Umweltverträglichkeit von Software erkennen und schließlich wie messen? Welche Umweltlasten entstehen durch Cloud-Dienstleistungen, wie die Teilnahme an einer Video-Konferenz oder das Streamen der Lieblingsserie? Der Vortrag wird unter anderem diese Fragen beantworten.
Fuzz Testing is one of the most effective testing approaches to find bugs in embedded software. Especially for preventing memory corruptions and pointer issues. But in an embedded architecture, it’s often hard to improve your code coverage, due to the many hardware dependencies. In this session I will show you how to solve this problem, by using an approach, that allows you to simulate hardware dependencies with fuzz data. This way, you can instantly increase the code coverage of your embedded application, when running automated security tests.
Khaled Yakdan is Co-Founder & Chief Scientist at Code Intelligence. He drives the customer-oriented development of the CI Fuzz security testing platform. As a malware analyst, he is an expert in binary code analysis, with over 7 years of experience in reverse engineering and penetration testing.
In diesem Sneak Peek zu Architekturbewertung befassen wir uns mit den bekanntesten Bewertungsansätzen. Ideal um einfach mal einen Überblick zu bekommen.
Architekturbewertung ist ein zentrales Werkzeug, um Sicherheit im Architekturentwurf zu gewinnen und um bestehende Lösungen oder Lösungsansätze fokussiert und nachhaltig weiterentwickeln zu können. Oder auch um sie informiert zu verwerfen. Vor allem fördert Architekturbewertung Kommunikation und Transparenz, richtig angewendet passt sie daher prima in agile Vorgehen. In dieser 60-minuten Session werden wir anhand bekannter Methoden erschließen wie Architekturbewertung funktioniert und welche Elemente üblicher Weise verwendet werden. Teilnehmer können nach der Session gut entscheiden ob und wenn ja wo sie tiefer in die Thematik einsteigen möchten.
Zielgruppe: Architekt:innen und Designer:innen, die Architekturbewertung praktisch erschließen wollen. Auch interessierte Entwickler:innen, etwa aus dem agilen Umfeld, oder technische Projektleiter:innen finden wertvolle Anregungen.
Stefan Toth berät Entwickler, Teams und Unternehmen in Sachen Agilität und Software-Architektur. Fundiert, klar und effektiv. Seine Erfahrungen reichen vom Banken- und Versicherungssektor über sicherheitskritische Branchen bis hin zur Unterstützung von Internet Start-ups. Neben dem breiten technologischen Kontext ist die methodische Erfahrung aus agilen Projekten, Architekturbewertungen und IT-Transformationen sein größtes Kapital.
Cloud is the new Normal”, so Andrew R. Jassy (CIO AWS). Was also liegt näher, als genau jetzt den Schritt in die Cloud zu wagen? Denn schließlich wollen wir ja alle irgendwie ein klein wenig „normal“ sein. Aber ist dieser Schritt wirklich so einfach, wie uns die verschiedenen Cloudanbieter glauben machen? Lässt sich eine klassische Enterprise-Architektur einfach so in die Cloud überführen oder bedarf es neuer Cloud spezifischer Architekturmuster? Wie kann uns das Cloud Maturity Model dabei helfen? Und was steckt eigentlich hinter Akronymen wie IaaS, PaaS, BaaS, SaaS und FaaS?
Lars Röwekamp, Gründer des IT-Beratungs- und Entwicklungsunternehmens open knowledge GmbH, beschäftigt sich im Rahmen seiner Tätigkeit als „CIO New Technologies“ mit der eingehenden Analyse und Bewertung neuer Software- und Technologietrends. Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit in den Bereichen Enterprise und Cloud Computing sowie ML/AI, wobei neben Design- und Architekturfragen insbesondere die Real-Life-Aspekte im Fokus seiner Betrachtung stehen.
Insbesondere vor dem Hintergrund verschärfter Datenschutzbestimmungen (DSGVO) beschäftigen sich aktuell viele IT- und Test-Abteilungen mit dem Thema Testdaten. Jedoch auch ohne das Thema DSGVO ist die Beschaffung von geeigneten Testdaten in aller Regel eine der größten Herausforderungen beim Software-Test und verschlingt einen großen Teil der Zeit und der Kapazitäten im Test.
Wir zeigen, wie eine Testdatenstrategie mit automatisiert generierten synthetischen Testdaten mehr Effizienz im Test ermöglicht.
Zielgruppe: IT-LeiterInnen, IT-ProjektleiterInnen, LeiterInnen Test, TestmanagerInnen
Isabella Rieger leitet bei FMC GmbH den Bereich Sales und Business Development für succest und beschäftigt sich intensiv mit den Themen Testdatenmanagement und Testautomatisierung. Zuvor war Isabella Rieger in verschiedenen Positionen in der Industrie sowie viele Jahre bei SAP in den Bereichen Business Development, Sales und Partnermanagement tätig.
Data applications enabling business users to gain insights that impact their short- and long-term decisions are becoming more and more ubiquitous. They are found in many domains, from marketing and advertising campaigns to IoT data, to network or application performance analysis. The more popular data-driven applications become, the more the need for real-time analytics use cases arises. Cloud has drastically changed the data analytics space as storage has been decoupled from compute, empowering new analytics ranging from traditional BI to machine learning. Cloud data warehouses, with their lower costs, increased elasticity, and improved performance are increasingly the technology of choice for such use cases. With the increasing amount of data and development velocity, traditional data warehouses are not able to keep up with the modern cloud-native requirements in mind and this is leading many organizations to shift their workloads from on-premise to cloud environments. In this talk we will discuss how you can accelerate your data warehouse migration and modernization, how to connect and migrate hybrid and multi cloud data to your cloud data warehouse of choice and how to leverage stream processing to power new real-time analytics. Further, following a customer story, we will illustrate how near-real-time BI can be delivered using Confluent Cloud and a Cloud-native Data Warehouse.
Zielgruppe: Software-Architekten, IT-Projektmanager, Produktmanager, Business Development
Sergio Spinatelli works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. With experiences in major industries (Automotive, Retail, Media, Banking) and with state of the art Big Data technologies, he focuses on Stream Processing, Real-Time Analytics, Microservice Architectures and Cloud.
Alex Piermatteo works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. Alex is regular speaker at conferences and his main area of expertise lies within the fields of Stream Processing, Big Data Integration & Analytics, Cloud, Microservices and DevOps.
Many of us have a rough idea of what side-effects are and a vague sense that they're bad. It's a shame we're not more precise about it, because when you really understand side-effects you have an excellent new lens through which you can judge individual blocks of code, larger architectural patterns, and even whole system designs.
So let's start by clarifying our understanding of what side-effects are and how to spot them. We'll see how easily they arise, leaving code that's harder to understand, harder to test and harder to decouple. Then we'll look at tools and techniques for eliminating those side-effects where it's possible and managing them where it isn't.
Finally we'll zoom out to see how those ideas get expressed in every field of computing, yielding fundamentally different approaches to programming language design, DevOps, system architecture, and database design. There's an iceberg of complexity hiding in your systems' side-effects and by the end of this talk you'll be able to spot it and start tackling it, rethinking the way we deal with data and the systems around it."
Kris Jenkins is a Developer Advocate for Confluent, a veteran startup contractor, and former CTO & Co-Founder of a gold trading business. He started his career working for a finance company whose success depended on having a better data model than all their competitors, and the search for better architecture has been with him ever since.
The use of cloud technologies in a Software as Medical Device (SaMD) is a huge chance for medical-technology companies, but the way into the cloud is a big step from the traditional on-premise-business. Therefore, this requires new technological skills and leads to new challenges for manufacturers. With the new Azure Healthcare APIs Microsoft offers tools, which enable manufacturers to implement cloud solutions for the healthcare sector efficiently and integrated with the Azure eco system. This talk provides an overview of the most important cornerstones of cloud architectures for healthcare solutions on Azure addressing the experiences of ZEISS Digital Innovation as an early adopter of the tools and services and the biggest challenges regarding security and compliance. One important requirements on modern medical cloud solutions is the interoperability with other providers’ systems. That way the products can be easily and reliably integrated into the users’ application environment and they allow the implementation of complex and data-driven use cases. But, well-established standards like DICOM and HL7 are unsuitable for communication with cloud systems. Therefore, appropriate alternatives for medical cloud solutions are presented in this talk, especially DICOMweb and HL7 FHIR, and it is shown how they can be implemented efficiently and reliably. Thereby, one of the biggest challenges for medical technology manufacturers is providing an appropriate security level for the processed data. If data is stored and processed in the native services of the cloud provider, the manufacturers and cloud provider both carry a common responsibility for the secure and compliant dissemination of these information. This talk shows, which technical and organizational standards Microsoft Azure assures and which actions manufacturer can take to ensure the security and compliance of their applications.
Zielgruppe: R&D Managers, Software Architects, Solution Architects, Product Managers
Leo Lindhorst ist Health Solution Strategist bei der ZEISS Digital Innovation. Gemeinsam mit seinen Kunden erarbeitet er die Vision für deren digitale Produktlandschaft, berät sie bei der Wahl der besten technologischen und organisatorischen Lösung für ihre Anforderungen und unterstützt sie in der Planung und Durchführung ihrer Softwareentwicklungsprogramme. Gemeinsam mit den hochqualifizierten Teams der ZEISS Digital Innovation begleitet er die Entwicklung der innovativen Lösungen seiner Kunden vom Design, über die Implementierung bis hin zum erfolgreichen Betrieb.
Steven Borg is the Director of Medical Imaging in the Microsoft Health and Life Sciences division. His team ships the DICOM Service, part of the Azure Healthcare APIs, as well as provides services to support medical imaging AI and ML workflows.
Serverless ist in aller Munde. Eines der Probleme, welches Docker, AWS Lambda, Azure Functions und Co löst ist die hohe Wartungsintensität. Haben die Kollegen aus der Softwareintegration früher für Updates der Hardware sorgen müssen, können sie sich nun auf andere Themen konzentrieren. Etwas ähnliches gibt es in der Softwareentwicklung: Hier muss sehr ähnlicher Code immer wieder neu geschrieben werden. Da wäre zum Beispiel das Einbinden von Libraries wie dem globalen State Management via React Reducern oder Redux in einer WebApp. Doppelte Arbeit entsteht aber bei der Anbindung an (REST-) API-Schnittstellen, die im Grunde bereits „gebrauchsfertig“ in einem Backend programmiert wurden. Was Serverless für IT Operations ist, kann Codegenerierung für Software Engineering sein. In der Session werfen wir einen kurzen Blick hinter die Kulissen von zwei Generatoren zum Erstellen eines API-Clients anhand einer Rest-API sowie eines globalen States durch ein TypeScript Interface. Außerdem sehen wir uns eine React-WebApp mit TypeScript an, welche uns zeigt, wie diese Generatoren das Entwicklerleben vereinfachen.
Zielgruppe : Softwareentwickler - und architekten
Stefan arbeitet als Software-Entwickler & Architekt bei Materna Information and Communications SE in agilen Projekten. In diesen entwickelt er Lösungsstrategien für die Digitalisierung geschäftskritischer Prozesse und unterstützt Unternehmen bei Ihrer Journey 2 Cloud. Er programmiert in seinen Projekten Webservices in Java, C# und TypeScript sowie Single-Page-Anwendungen mit Frameworks wie Vue.JS und React. In der Cloud lebt er den DevOps Gedanken und unterstützt IT Operations bei CI/CD, Pipeline- und Service-Management. Auch in seiner Freizeit nimmt Programmierung kleiner NodeJS Anwendungen einen großen Platz ein. Neben seinem Faible für neue Herausforderungen ist Stefan übrigens nicht zuletzt dank TypeScript und Visual Studio Code bekennender Microsoft-Fan.
In dieser Session stellen wir die Einrichtung und Konfiguration der Confluent Cloud mit MongoDB Atlas vor! Wir starten mit einer Einführung der grundlegenden Vernetzung und Integration der beiden Cloud-Dienste und stellen kurz die vielen Möglichkeiten dar, wie Daten (bspw. Time Series Daten) – sobald sie in MongoDB Atlas sind – genutzt werden können. Im Vortrag zeigen wir auch in einer Live Demo wie einfach die MongoDB Atlas-Konnektoren in der Confluent Cloud sicher eingerichtet und konfiguriert werden können - sowohl in einer Quell- als auch in einer Zielkonfiguration.
Zielgruppe: Entwickler/Programmierer, DevOps, (Datenbank-)Architekten, Project/Product Owners
Mit mehrjähriger Erfahrung als Consultant und Solutions Architect kennt sich Philipp Waffler bestens mit Datenbanken und innovativen Industrielösungen aus! Bei MongoDB arbeitet er gemeinsam mit unseren Kunden und Nutzern an komplexen Use Cases und entwickelt innovative Lösungen mit der MongoDB Datenplattform. Davor arbeitete Philipp unter anderem bei zeb Consulting und der fine GmbH an Projekten in den Bereichen Pricing, Finanzrisikomanagement und der Automatisierung von Reporting-Prozessen.
Die Bahn hat 2016 mit dem Verkauf des eigenen Rechenzentrums und der vollständigen Migration in die Cloud einen großen Schritt in Richtung Modernisierung gewagt. Gleichzeitig hat die DB Systel als IT-Dienstleister eine konsequente Transformation zum agilen Unternehmen gestartet. Unser Vorgehen, die Risiken, aber auch die gemachten Erfahrungen sollen hier aus dem Blickwinkel eines Architekten geschildert werden. Fortschritt als dialektische Herausforderung von Kultur und Technik.
Zielgruppe: Architekten, Development & Operations
In den 80ern Informatik studiert. Ab 1997 bei der Bahn in der Software Entwicklung (als IT Architekt und Treiber von Innovation). Beteiligt bei der Einführung von Wikis und agilen Vorgehensweisen im Konzern. Scrum Master & Design Thinking Coach. Ab 2015 Open Data Portal der Bahn aufgebaut, treibt die offene Bereitstellung von Daten im Konzern und fördert die (auch externe) Nutzung dieser freien Daten u.a. durch Hackathons.
Zu keiner Zeit im Jahr werden so viele Pakete und Briefe verschickt, wie in den Wochen vor Weihnachten. Für eine IT-Infrastruktur eine echte Herausforderung, denn jeder Versand verursacht eine hohe Anzahl von Messages. Um neue Services für Partner, interne Kunden und Endkunden zu ermöglichen sind anfangs 7.500/Sekunde nötig. Skalierbarkeit war das Gebot der Stunde, denn die alte Infrastruktur erlaubte nicht mehr als 3.500 Messages/Sekunde. Wir skizzieren die drei wichtigsten Migrationen auf dem Weg in die Architektur-Modernisierung: Von On-Prem in die Cloud, von WebLogic auf Spring Boot und von IBM MQ auf Confluent.