Multi-Agent-Kollaborationssystem mit lokalem LLM

Hast du es satt, Audiodateien manuell zu transkribieren? Wir entwickeln eine Pipeline zur Audio-Transkription und Sprechertrennung, sodass du nie wieder manuell transkribieren musst. Danach führen wir dich Schritt für Schritt durch den Aufbau eines Multi-Agent-Kollaborationssystems mit einem lokalen Large Language Model (LLM). Dieses fortschrittliche System ermöglicht es dir, auf völlig neue Weise mit deinen Audiodateien zu interagieren:

  • Abfragen: Wer sagte was und wann?
  • Zusammenfassung: Prägnante Audio-Zusammenfassungen.
  • Faktencheck: Internetrecherchen zur Überprüfung von Aussagen.

Nutze diese Gelegenheit, um deine KI- und Automatisierungsfähigkeiten zu verbessern, oder wenn du nur mal sehen wolltest, wie du dein eigenes ChatGPT auf deinem Rechner aufsetzt.

Maximale Teilnehmendenzahl: 25

Es wird ein eigener Laptop mit Docker Desktop benötigt

Zielpublikum: Entwickler, Entscheider, Projektleiter, Leute, die Lust auf ein lokales ChatGPT haben
Voraussetzungen: Python- und Docker-Kenntnisse, Laptop/Computer (mit oder ohne Grafikkarte), VSCode
Schwierigkeitsgrad: Advanced

Tim Lauer hat Medizinische Informatik mit dem Schwerpunkt Data Science. Zwei Jahre bei hiqs GmbH als AI-Engineer verantwortlich für die Forschung und Entwicklung.

Wolfgang Kraus hat langjährige Erfahrung in der Software- und Produktentwicklung als Entwickler, Enterprise-Architekt und Agile Coach. #DerWolfgang ist Tech-Enthusiast mit agilem Mantra.

Tim Lauer, Wolfgang Kraus
09:00 - 16:00
Vortrag: Fr 5

Vortrag Teilen