„Der Weg zur performanten Software“
Wir leben in einer vernetzten Welt, die Systeme werden komplexer und die Kunden anspruchsvoller. Multisysteme mit verschiedensten Architekturen sind mittlerweile fest im Alltag verankert. Kaum ist die Funktionalität der Software gewährleistet, lösen die Ergebnisse der Performancetests blankes Entsetzen aus. Die Folgen sind oftmals verheerend, was Kosten, Zeit und den Projekterfolg betrifft. Doch woran liegt es – ist es die Architektur? Die Konfiguration? Fehlerhafte Annahmen? Oder doch nur eine Datenbank?
Der Weg, nicht nur funktionierende sondern auch performante Software zur Verfügung zu stellen beginnt beim Design der Software, geht über die Entwicklung hinweg und stets müssen Überlegungen zur Performance einfliessen und Standards beachtet werden. Qualität wird so produziert und mit Load und Performancetests schliesslich validiert.
Diesmal tauchen wir mit vier aufeinander aufbauenden Vorträgen in die Tiefen der Systeme ein: Software Performance oder „Der Weg zur performanten Software“.
Jörg Wiedmann führt uns in die Welt der Performance Probleme ein. Er referiert über die Notwendigkeit des Einbezugs von Performanceaspekten bereits in der Planungsphase. Dr. Eric Euerlings führt den Vortrag fort und zeigt auf, welche Schwierigkeiten sich durch die unkritische Nutzung von Entwicklertools für die Performance ergeben können. Als Lösungsansatz stellt er Performance-Prinzipien für die Entwicklung vor. Sodann greift Frank Grümmert die Komplexität der Performance auf, erläutert die Relevanz der Performance Analysis komplexer Systeme für das System und den Test. Er referiert über den Einsatz geeigneter Werkzeuge und Methoden, mittels derer sich Risiken vermeiden lassen. Lasteignung und die Verknüpfung von Test, Entwicklung und Betrieb in der Praxis werden erläutert. Schliesslich geht Heinz Grob ins Detail der Application Performance Analysis. Er zeigt auf, wie gezielter Werkzeugeinsatz eine übergreifende Sicht auf alle Applikationskomponenten und ihr Zusammenspiel ergeben kann und nutzt Visualisierung und Instrumentierung als Hilfsmittel zur Eruierung der Kernprobleme.
Jörg Wiedmann (Freelancer) und Dr. Eric Euerlings (Bank Julius Bär) |
Performance First Approach und Hausgemachte Performance Probleme durch Framework Benutzung |
Frank Grümmert (FirmTec) | Application Performance Analysis, Test und KPI Bewertung: Herausforderungen lösen durch geeignete Werkzeuge und Methoden |
Heinz Grob (FirmTec) | Detaillierte Application Performance Analysis: Einfache Visualisierung der Problemfelder verteilter Applikationen |
Die Vorträge bieten die Basis für eine nachfolgende offene Podiumsdiskussion, bei der gerne auf weitere Details eingegangen wird.
Thema: Der Weg zur performanten Software
Datum: 28. Oktober 2014
Zeit: 15:15 – 19:30 Uhr
Ort: Microsoft Wallisellen
Sprache: Deutsch
Eintritt frei
Apéro im Anschluss
Nähere Informationen wie Agenda, Abstracts und Anmeldung finden Sie hier.
Wir freuen uns auf Ihr Kommen!
Nachlese: „Von Big Data zu Big Business“
Der Triathlon mit Teradata, Trivadis und Tricentis zu Big Data startete im spannenden Format einer Paneldiskussion. Thomas Prosser (Verein QualityArena) moderierte die rege Diskussion zwischen Daniel Graf, Peter Grolimund, Beat Stoehr (alle Teradata) und dem Publikum.
Grundlegende Fragen wie
- Was ist Big Data überhaupt?
- Welche Aspkete gilt es bei Big Data zu berücksichten?
- Wie unterscheiden sich Big Data Projekte von anderen?
- Wie schaut die Zukunft von Big Data aus?
wurden anhand konkreter Beispiele durch Teradata aufgegriffen.
Bei Big Data geht es vor allem darum „in der Masse an unstrukturierten Daten Muster zu erkennen“. So gelang es Google beispielsweise anhand von Mustern und Häufigkeiten von Suchanfragen zum Thema Grippe, den Verlauf einer Grippewelle vorherzusagen.
Im Unterschied zu früher werden neue Methoden zur Analyse angewendet, die nicht nur auf Algorithmen sondern auch auf Erfahrungswerten beruhen. Erkenntnisse aus Big Data sollten durch Fachleute eine weitere Überprüfung erfahren, wobei Daten und Ergebnisse verifiziert und mit speziellen Aspekten angereichert werden. Beispielsweise konnte auf diese Weise die Aussage, dass Epilepsie bei Kindern in England seltener auftritt als in anderen Ländern widerlegt werden. Erst die Befragung englischer Ärzte ergab, dass eine andere Klassifizierung der Krankheit und das englische Meldeverfahren zu einer fehlenden Vergleichbarkeit der Daten führte. Die Analyse basierte also auf einem nicht geeigneten Datenpool unter Ausschluss relevanter Daten.
Diskutiert wurde auch über weitere bei Big Data Analysen zu berücksichtigende Aspekte, wie Politik, Ethik, Sicherheit, Vertraulichkeit, Technik und Wirtschaftlichkeit.
Im zweiten Vortrag von Herrn Dr. Ilias Ortega (Trivadis) wurden Ursachen für das Scheitern von Big Data Projekten erläutert. So scheitern 55 % der Projekte wegen
- Unklarem Projektumfang (58% der Befragten)
- Technischen Schwierigkeiten (41%)
- „Daten-Silos“ und mangelhafter Kooperation (39%)
Es wurden jedoch nicht nur die Gründe für das Scheitern der Projekte erläutert sondern auch eine Reihe von Präventivmassnahmen aufgezeigt. Beispielsweise ist es wichtig Big Data Projekte richtig auf die Unternehmensstrategie auszurichten, den Projektumfang überschaubar zu halten, klare Anforderungen zu definieren und kontinuierliche Kommunikation zu fördern. Viele der zuvor in der Diskussion angesprochenen Themen griff Herr Ortega nochmals in seinem Vortrag auf und lieferte weitere, vertiefende Fakten hinzu.
Im abschliessenden Vortrag demonstrierte Thomas Abinger (Tricentis), wie Big Data Projekte getestet werden können.
Die erste Fehlerquelle entsteht bereits zu Beginn des Prozesses, wenn die Daten extrahiert, umgewandelt und geladen werden. Die Daten kommen aus vielen verschiedenen Quellen und Systemen, in verschiedenen Formaten, Grössen, Formen oder sie sind im schlimmsten Fall gar nicht erst vorhanden. So entstehen zwei grosse Hürden: Die erste Hürde im Big Data Test ist die unzureichende Qualität der gelieferten Daten, die zweite grosse Test-Hürde ist der fehlende Regressionstest über den gesamten Prozess, der alle Änderungen, von der Extraktion im ETL (Extract, Transform, Load )-Prozess bis hin zu den Business Intelligence (BI) Reports, umfasst.
Der aktuelle Ansatz im Data Warehouse/BI Test erfordert das Schreiben komplexer SQL-Abfragen durch Experten. Der Vortrag zeigte Mögichkeiten auf, wie Business Anwender in die Lage versetzt werden diese SQL Abfragen anhand von fachlichen Kriterien zu erstellen, auszuführen und auszuwerten.
Wir bedanken uns für die hervorragenden Vorträge der Triathleten von Teradata, Trivadis und Tricentis sowie der Zürcher Kantonalbank für die wunderbare Unterstützung unseres dritten Schweizer Feature Events.
Der Verein QualityArena plant für September das nächste Event, zu dem wir Sie gerne wieder begrüssen. Es bleibt unser Ziel
- Wissen unterschiedlicher Akteure / Ebenen zu verbinden
- Sichtweisen zu hinterfragen / zu publizieren
- Neue Entwicklungen zu thematisieren
- Mehr und neues Wissen zu vermitteln
- Ein Netzwerk zur Förderung des Wissenstransfers auszubauen
- Den Austausch zwischen Theorie / Praxis zu fördern
- Eine Plattform für den Austausch zu bieten
- Die Community und Kontakte zu fördern
- Events zu organisieren
Job Empfehlungen
Von QualityArena Sponsoren und Mitgliedern empfohlene Angebote.
Bilder und Mehr zum Performance Event
für angemeldete Mitglieder sichtbar.
Der Weg zur performanten Software - Event Details
für Details und Anmeldung bitte hier klicken
Bilder und Mehr Von Big Data zu Big Business
für angemeldete Mitglieder sichtbar.
Bilder und Mehr vom letzten Event: Kanban
für angemeldete Mitglieder sichtbar.
Bilder und Mehr - Mobile Quality
nur für Mitglieder und Teilnehmer