Maschinen haben kein Gewissen. Oder etwa doch? Immer wieder hört man von Fällen, in denen eine KI scheinbar „unethische“ Entscheidungen fällt oder für politische Zwecke missbraucht wird. Angefangen bei genderspezifischer Benachteiligung, über die Generierung und gezielte Verbreitung von Fake-News und Deep-Fakes bis hin zu offenkundigem Rassismus durch eine KI existieren unzählige Beispiele. Was aber genau steckt dahinter und wie können wir uns dagegen verwehren? Die Session zeigt einige populäre Beispiele auf und beleuchtet deren Hintergründe.
Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Manager:innen, Entscheider:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Eine KI ist nur so gut wie ihr Modell und die Daten, auf denen dieses basiert. Dies führt immer wieder zu überraschenden, ja sogar erschreckenden Resultaten bei deren Einsatz. Dabei bildet die KI nicht selten lediglich unsere Realität ab und spiegelt somit die Grundwerte unserer Gesellschaft wider, wie populäre Beispiele zeigen. Die Session zeigt einige Beispiele, in denen eindeutig einzelne Gruppen der Bevölkerung benachteiligt wurden, und beleuchtet diese im Detail. Es wird aufgezeigt, wie wir alle durch Fake-News und Deep-Fakes manipuliert werden und welche Initiativen zum Schutz und zur Regulierung angedacht sind.
Lars Röwekamp, Gründer des IT-Beratungs- und Entwicklungsunternehmens open knowledge GmbH, beschäftigt sich im Rahmen seiner Tätigkeit als „CIO New Technologies“ mit der eingehenden Analyse und Bewertung neuer Software- und Technologietrends. Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit in den Bereichen Enterprise und Cloud Computing sowie ML/AI, wobei neben Design- und Architekturfragen insbesondere die Real-Life-Aspekte im Fokus seiner Betrachtung stehen.
Vortrag Teilen