Wie kann KI Qualitätsprobleme in bestehender Software zielgerichtet beheben?

Es gibt eine große Zahl an Werkzeugen, die Qualitätsprobleme in Bestandscode mittels statischer Analyse erkennen und sichtbar machen. Die automatische Behebung dieser Probleme war bisher aber nur in vergleichsweise einfachen Fällen möglich. Die derzeitigen Entwicklungen in der künstlichen Intelligenz, speziell die Large Language Models (LLMs), verschieben die Grenzen des Möglichen jedoch deutlich.

In diesem Vortrag möchte ich auf Basis eines hierfür erstellten Benchmarks aufzeigen, wie weit sich Qualitätsprobleme heutzutage durch KI beheben lassen. Neben Erfahrungen aus unserer internen Entwicklung möchte ich auch beleuchten, welchen Einfluss die Wahl des Basismodells hat, welche Informationen die LLMs dabei als Input benötigen und an welchen Problemen die KI heute noch scheitert.

Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Interesse an Software-Qualität und KI
Schwierigkeitsgrad: Basic

Dr. Benjamin Hummel hat im Bereich Software Engineering promoviert und zu den Themen Softwarequalität und -wartbarkeit geforscht und publiziert. Seit über 20 Jahren entwickelt er aktiv Methoden und Werkzeuge für die Qualitätsverbesserung von großen Softwaresystemen. Als Mitgründer und CTO der CQSE GmbH verantwortet er seit über 10 Jahren die Entwicklung und den Betrieb der Software-Intelligence-Plattform Teamscale.

Benjamin Hummel
09:00 - 10:30
Vortrag: Mi 6.1-1
Themen: AI
Testing

Vortrag Teilen

Was bedeuten AI-Qualitätsverbesserungs-Tools für unsere Qualitätssicherung?

Es gibt viele Tools, die AI nutzen, um uns in der Softwareentwicklung zu assistieren. Einige generieren Code oder Testfälle, andere schlagen Code-Verbesserungen vor oder selektieren Tests auf Basis von Code-Änderungen uvm.

Leider wissen wir wenig darüber, welche Fehler diese AI-Assistenten sporadisch oder häufig machen. Allerdings müssen wir uns vermutlich darauf einstellen, dass sie in allen Phasen der Softwareentwicklung Einzug halten werden, alleine schon deshalb, weil sie bequem sind.

In diesem Vortrag möchte ich darüber sprechen, wie wir dieser Herausforderungen aus Sicht der Qualitätssicherung begegnen können und welche automatisierten Analysen ergänzend oder begleitend zu AI-Tools eingesetzt werden können, um dem Risiko ihres Einsatzes zu begegnen.

Zielpublikum: Entwickler, Architekten, Manager
Voraussetzungen: Interesse an Qualitätssicherung, Code-Analysen und AI-Assistenten
Schwierigkeitsgrad: Basic

Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Juergens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Elmar Jürgens wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/elmar-juergens/

Elmar Juergens
09:00 - 10:30
Vortrag: Mi 6.1-2
Themen: AI
Testing

Vortrag Teilen