Skip to main content

Ethische KI und Agilität: Vier Grundsätze, die jeder Scrum Master jetzt bedenken muss 🇩🇪

May 15, 2025

In Kürze: Ethische KI und Agilität

Agile Teams stehen vor ethischen Herausforderungen. Es gibt jedoch einen Weg, ethische KI und Agilität zu verbinden, indem vier pragmatische Grundsätze festgelegt werden: Datenschutz (Klassifizierung von Informationen), Wahrung menschlicher Werte (Definition der Rollen von KI und Mensch), Validierung der Ergebnisse (Verifizierungsprotokolle) und transparente Nachvollziehbarkeit (Erfassung von Beiträgen einer KI).

Dieses leichtgewichtige Framework lässt sich in bestehende Abläufe integrieren, schützt sensible Daten und menschliches Fachwissen und ermöglicht es Teams, die Vorteile der KI ohne separate bürokratische Prozesse sicher zu nutzen.

Ethische KI und Agilität: Vier Grundsätze, die jeder Scrum Master jetzt bedenken muss — PST Stefan Wolpers

Ethische KI und Agilität braucht Scrum Master als Wegbereiter

Agile Praktiker sind stark besorgt über ethische KI und Agilität, nicht als ferne Befürchtungen, sondern als unmittelbare Herausforderungen. In einer kürzlich von mir durchgeführten Umfrage unter agilen Praktikern äußerten die Befragten weit verbreitete Bedenken hinsichtlich des Datenschutzes („How to make sure I do not leak confidential information“), der Arbeitsplatzsicherheit („Will my dev colleagues just be AI machines? What is my job then as a Scrum master?“) und der Zuverlässigkeit der Ergebnisse („How can I evaluate the quality and correctness of results?“).

Die offene Frage meiner Umfrage zu ethischen Bedenken in Bezug auf KI und Agilität ergab bemerkenswert einheitliche Themen. Der Datenschutz wurde durchweg als wichtigstes Anliegen genannt, gefolgt von der Angst um den Arbeitsplatz und Fragen zur Zuverlässigkeit der KI. Diese Erkenntnisse flossen direkt in die in diesem Artikel vorgestellten Leitplanken ein.

Scrum Master — und das trifft auch auf agile Coaches zu — sind m. E. in einer einzigartigen Position, um diesen Bedenken durch die Festlegung praktischer KI-Grenzen Rechnung zu tragen. Anstatt zu „KI-Polizisten“ zu werden, können sie als ethische Kompasse fungieren und einfache Leitplanken schaffen, die sich nahtlos in bestehende agile Praktiken integrieren lassen. Diese Leitplanken stellen sicher, dass KI agile Werte, die Effektivität des Teams und die Beiträge einzelner Mitarbeiter verbessert und nicht untergräbt.

Bei diesem Ansatz geht es nicht um eine umfassende KI-Governance, sondern um die pragmatische, unmittelbar umsetzbare Einführung ethischer Begrenzungen, die das schützen, was am wichtigsten ist: sensible Daten, menschliches Fachwissen und die Integrität unserer Arbeit.

Die vier entscheidenden Rahmenbedingungen für ethische KI und Agilität

1. Datenschutz und Compliance

Die Herausforderung: Meine Umfragedaten zeigen, dass dies das Hauptanliegen der Befragten ist, wobei konkrete Bedenken hinsichtlich des Schutzes vertraulicher Informationen, der DSGVO und der Einhaltung des EU-KI-Gesetzes bestehen. Ein Befragter merkte dazu an: „Data input usage by AI creators for machine learning, how to make sure I do not leak confidential information?“

Wichtige Umsetzungselemente:

  • Datenklassifizierungssystem (öffentlich, intern, vertraulich, eingeschränkt),
  • Klare Protokolle für die Bereinigung von Eingaben vor der Weitergabe an externe KI-Tools,
  • Compliance-Checklisten für verschiedene regulatorische Umgebungen,
  • Technische Ansätze zur Minimierung der Datenpreisgabe.

Warum das wichtig ist: Die Nichtbeachtung dieser Schutzmaßnahmen setzt das Unternehmen erheblichen rechtlichen, finanziellen und Reputationsrisiken aus und steht in direktem Widerspruch zu agilen Grundsätzen, die Vertrauen und Wertschöpfung in den Vordergrund stellen.

Praktischer Umsetzungsansatz: Erstellen Sie ein einfaches Klassifizierungssystem mit den Farben Rot, Gelb und Grün:

  • Grün: Allgemeine agile Praktiken, nicht proprietäres Wissen,
  • Gelb: Anonymisierte Projektelemente, die ggf. von der Führungsebene überprüft werden müssen,
  • Rot: Vertrauliche Daten, die niemals an externe KI weitergegeben werden dürfen.

Beispiel aus der Praxis: Ein Scrum-Team erstellt ein „System zur Kategorisierung der Datenempfindlichkeit“ für Produkt- und Projektinformationen. User-Story-Vorlagen wurden als „öffentlich“ (für KI freigegeben) klassifiziert, spezifische Funktionsbeschreibungen als „intern“ (Anonymisierung erforderlich) und Kundendaten als „eingeschränkt“ (niemals weiterzugeben). Dieses System ist in die Definition of Done integriert und erfordert eine ausdrückliche Überprüfung, dass bei AI-Interaktionen keine eingeschränkten Daten offengelegt wurden.

2. Leitplanken zum Schutz des menschlichen Wertes

Die Herausforderung: Die Umfrageteilnehmer äußerten erhebliche Bedenken hinsichtlich der Ersetzung ihrer Aufgaben durch KI: „Do we need an SM as we can just use ChatGPT“ und „How do we use AI to help ‚AI-proof‘ our jobs from elimination?“

Wichtige Umsetzungselemente:

  • Klare Abgrenzung zwischen KI-geeigneten und für Menschen unverzichtbaren Tätigkeiten,
  • Protokolle, die KI als Ergänzung und nicht als Ersatz für Fachkräfte positionieren,
  • Identifizierung einzigartig menschlicher Elemente agiler Rollen,
  • Teamvereinbarungen darüber, wann menschliches Urteilsvermögen Vorrang hat.

Warum das wichtig ist: Ohne diese Leitplanken laufen Teams Gefahr, zu viele Aufgaben an KI zu delegieren, wodurch die menschlichen Elemente, die Agilität so effektiv machen, verloren gehen und Ängste entstehen, die das Engagement und die Kreativität beeinträchtigen.

Praktischer Umsetzungsansatz: Schaffen Sie einen „Rahmen für die Partnerschaft zwischen Mensch und KI“, der Folgendes klar definiert:

  • KI-optimierte Aufgaben: Routinemäßige Dokumentation, Erstellung erster Entwürfe, Mustererkennung,
  • Menschenoptimierte Bereiche: Aufbau von Beziehungen zu Stakeholdern, Konfliktlösung, wertebasierte Entscheidungen,
  • Partnerschaftsaktivitäten: Bereiche, in denen menschliche Führung und KI-Unterstützung die besten Ergebnisse erzielen.

Beispiel aus der Praxis: Ein Produktteam hat Bedenken, dass KI Teammitglieder ersetzen könnte, und erstellt ein „Partnerschaftsrahmenwerk zwischen Mensch und KI“, das als Spektrum visualisiert wird. Beispielsweise könnte KI dabei helfen, erste Entwürfe für User Stories zu erstellen, während Menschen die Gespräche mit Stakeholdern leiten, um deren Bedürfnisse zu ermitteln. Die Umsetzung dieses Rahmenwerks kann dazu führen, dass Teammitglieder sich in Bezug auf ihren individuellen Beitrag sicherer fühlen und strategischer vorgehen, wenn es darum geht, KI-Unterstützung einzusetzen.

3. Kontrollmechanismen für die Validierung von Arbeitsergebnissen der KI

Die Herausforderung: Die Befragten meiner Umfrage äußerten erhebliche Bedenken hinsichtlich der Zuverlässigkeit von KI und verwiesen auf „simply wrong responses“ und fragten: „at what point can you feel like AI output is reliable?“

Wichtige Umsetzungselemente:

  • Verifizierungsprotokolle für verschiedene Arten von KI-Ausgaben,
  • Teampraktiken für die kritische Bewertung von KI-generierten Inhalten,
  • Systeme zur Verfolgung und Verbesserung der KI-Zuverlässigkeit im Laufe der Zeit,
  • Verfahren zum Umgang mit identifizierten KI-Fehlern oder Halluzinationen.

Warum das wichtig ist: Ohne systematische Validierung riskieren Teams, falsche Lösungen zu implementieren, Entscheidungen auf der Grundlage falscher Informationen zu treffen und nach und nach das Vertrauen sowohl in die KI als auch in die menschliche Kontrolle zu verlieren.

Praktischer Umsetzungsansatz: Implementieren Sie ein „Triangulationsprotokoll“, das Folgendes erfordert:

  • Unabhängige Überprüfung anhand vorhandener Dokumentation oder Teamwissen,
  • Klare Kennzeichnung von KI-generierten Inhalten bis zur Überprüfung,
  • Verfolgung von Zuverlässigkeitsmustern, um Anwendungsfälle mit hohem Risiko gegenüber solchen mit geringem Risiko zu identifizieren.

Beispiel in der Praxis: Entwickler verlangen technische Empfehlungen der KI entweder anhand vorhandener Dokumentation oder durch die Bestätigung eines zweiten Teammitglieds überprüfen lassen. Das Team führt ein einfaches Protokoll der Überprüfungsergebnisse, anhand dessen es feststellen kann, welche Aufgaben für die Unterstützung durch KI am besten geeignet sind. Dieser Ansatz hat das Potenzial, potenzielle Probleme vor der Implementierung zu erkennen, während das Team weiterhin von den Stärken der KI profitieren kann.

Ethische KI und Agilität in regulierten Umgebungen

Die Teilnehmer meiner Umfrage hoben insbesondere Herausforderungen in staatlichen und regulierten Kontexten hervor und nannten „Limitations of use in governmental context“ und „unsure if I’m allowed to use AI for my work at a government agency“.

Für Teams mit strengen Verboten

  • Identifizieren Sie KI-Tools, die für die Verwendung in Ihrer Organisation zugelassen sind,
  • Erstellen Sie klare Richtlinien zu Informationen, die nicht weitergegeben werden dürfen,
  • Prüfen Sie gegebenenfalls lokale oder private Cloud-Lösungen,
  • Entwickeln Sie Ausweichprozesse für Szenarien, in denen KI nicht eingesetzt werden kann.

Für Teams mit sich wandelnden Richtlinien

  • Dokumentieren Sie Annahmen und Entscheidungen zur KI-Nutzung,
  • Implementieren Sie strenge Verifizierungsprotokolle,
  • Schaffen Sie Transparenz gegenüber den Compliance-Verantwortlichen,
  • Überprüfen Sie die Praktiken regelmäßig, wenn sich die Unternehmensrichtlinien weiterentwickeln.

Wichtige Fragen für regulierte Umgebungen

  1. Welche spezifischen Vorschriften gelten für unsere Daten und die KI-Nutzung?
  2. Welche KI-Tools sind für die Nutzung in der Organisation zugelassen?
  3. Welche Überprüfungen sind vor der Umsetzung von KI-Vorschlägen erforderlich?
  4. Wer muss über die Nutzung von KI in unseren Arbeitsergebnissen informiert werden?
  5. Welche Unterlagen müssen wir über KI-Interaktionen aufbewahren?

Praktische nächste Schritte für Ethische KI und Agilität: Erste Schritte mit Leitplanken

Beginnen Sie mit der Implementierung ethischer Leitplanken anhand dieser gezielten Aktivitäten, um zu vermeiden, dass der Einsatz von KI opportunistisch wird und schnell außer Kontrolle gerät:

0. Einbindung des Teams und Festlegung des Kontexts (30 Minuten)

  • Teilen Sie die Ergebnisse vomn internen Umfragen zu den Bedenken der Praktiker.
  • Diskutieren Sie spezifische Bedenken Ihres Teams hinsichtlich der KI-Ethik.
  • Schaffen Sie ein gemeinsames Verständnis für die Vorteile ethischer Leitplanken.
  • Sichern Sie sich die Zustimmung zur ersten Umsetzung.

1. Workshop zur Datenklassifizierung (erste Sitzung: 1–2 Stunden)

  • Identifizieren Sie die Arten von Informationen, mit denen Ihr Team arbeitet.
  • Erstellen Sie einfache Kategorien (öffentlich, intern, vertraulich, eingeschränkt).
  • Legen Sie klare Regeln fest, was mit KI-Tools geteilt werden darf.
  • Dokumentieren Sie diese in einem sichtbaren, zugänglichen Format.

2. Abbildung der Partnerschaft zwischen Mensch und KI (Ersttermin: 1–2 Stunden)

  • Identifizieren Sie Teamaktivitäten, die von KI-Unterstützung profitieren.
  • Klären Sie, welche Aspekte in erster Linie vom Menschen gesteuert bleiben müssen.
  • Erstellen Sie ein visuelles Spektrum für den angemessenen Einsatz von KI.
  • Diskutieren Sie Ängste und gehen Sie offen auf Bedenken ein.

3. Entwurf eines Verifizierungsprotokolls (Ersttermin: 1 Stunde, mit Verfeinerung)

  • Definieren Sie Verifizierungsanforderungen für verschiedene KI-Outputs.
  • Erstellen Sie einfache Checklisten für gängige KI-Anwendungsfälle.
  • Richten Sie eine Nachverfolgung für Zuverlässigkeitsmuster ein.
  • Integrieren Sie diese in der Definition of Done.

4. Aufnahme von KI in Ihre Arbeitsvereinbarung (Ersttermin: 1–2 Stunden)

  • Entwurf von Leitlinien für den Einsatz von KI,
  • Festlegung von Offenlegungspflichten für KI-generierte Inhalte,
  • Klärung, wie Beiträge von KI dokumentiert werden sollen,
  • Legen Sie einen Eskalationspfad für ethische Bedenken fest.

5. Retrospektive Integration (15–30 Minuten)

  • Fügen Sie „Ethischer Einsatz von KI“ als regelmäßiges Thema in die Retrospektive ein.
  • Erstellen Sie einfache Aufforderungen zur Bewertung der Wirksamkeit von Leitplanken.
  • Feiern Sie erfolgreiche ethische KI-Praktiken.
  • Kontinuierliche Verbesserung auf Grundlage der Erfahrungen des Teams.

Die Vorteile ethischer KI-Leitplanken

Die Implementierung dieser Grundsätze für ethische KI und Agilität bringt erhebliche Vorteile mit sich:

Für Scrum Master und Agile Coaches bieten sie die Möglichkeit, ihre Rolle erheblich zu aufwerten und sich als zukunftsorientierte Führungskraft für die Einführung von KI in ihrem Unternehmen zu positionieren. Sie entwickeln spezialisiertes Fachwissen im Bereich der ethischen KI-Implementierung, das von Unternehmen, die sich in der digitalen Transformation befinden, zunehmend geschätzt wird. Dieser proaktive Ansatz für ethische KI in agilen Umgebungen hilft Ihnen, Risiken zu minimieren, indem Probleme verhindert werden, bevor sie den Ruf des Teams schädigen oder regulatorische Bedenken aufkommen lassen. Am wichtigsten ist vielleicht, dass Sie mit klaren ethischen Richtlinien mehr Selbstvertrauen im Umgang mit unklaren Situationen gewinnen und Unsicherheit in strukturierte Entscheidungsprozesse umwandeln können.

Für agile Teams schafft die Implementierung ethischer Leitplanken psychologische Sicherheit, indem sie Klarheit über den angemessenen Einsatz von KI in verschiedenen Kontexten schafft. Dieser Ansatz fördert eine ausgewogene Einführung und verhindert, dass Entscheidungen, die menschliches Urteilsvermögen erfordern, übermäßig von KI abhängig sind und KI in Bereichen, in denen sie einen erheblichen Mehrwert bieten könnte, nicht ausreichend genutzt wird. Teams entwickeln einheitliche Vorgehensweisen für alle Mitglieder und schaffen so ein gemeinsames Verständnis, das Verwirrung reduziert und die Koordination verbessert. Die Leitplanken ermöglichen Innovationen innerhalb festgelegter Grenzen, sodass Teams kreativ mit KI experimentieren können, während die ethischen Grundlagen zum Schutz der Teammitglieder, Kunden und des Unternehmens gewahrt bleiben.

Für Unternehmen bieten ethische KI-Leitplanken in agilen Umgebungen eine erhebliche Risikominderung, indem sie rechtliche, reputationsbezogene und operative Risiken im Zusammenhang mit einer unkontrollierten Einführung von KI mindern. Sie gewährleisten eine kulturelle Angleichung, indem sie die KI-Implementierung direkt mit den Werten und Grundsätzen des Unternehmens verknüpfen. Diese Rahmenwerke positionieren das Unternehmen so, dass es auf regulatorische Anforderungen vorbereitet ist und neuen KI-Vorschriften einen Schritt voraus ist, anstatt sich im Nachhinein um deren Einhaltung bemühen zu müssen. Am wichtigsten ist vielleicht, dass ethische Leitplanken das Vertrauen der Kunden bewahren, indem sie die Integrität von Produkten und Dienstleistungen gewährleisten und sicherstellen, dass KI das Engagement des Unternehmens gegenüber seinen Kunden verbessert und nicht beeinträchtigt.

Widerstände in der Organisation überwinden

Bei der Implementierung ethischer Leitplanken können folgende Einwände auftreten:

„Das wird uns durch Bürokratie ausbremsen“: Beginnen Sie mit minimalen, praktikablen Leitplanken, die sich auf die Bereiche mit dem höchsten Risiko konzentrieren, und zeigen Sie den Mehrwert durch Risikoprävention und Effizienzsteigerung auf.

„KI-Ethik ist zu abstrakt und philosophisch“: Konzentrieren Sie sich auf konkrete, praktische Richtlinien, die für die tägliche Arbeit relevant sind. Stellen Sie eine Verbindung zu bestehenden Teamwerten und -prinzipien her.

„Das ist nicht die Aufgabe des Scrum Masters“: Stellen Sie eine Verbindung zu den Kernaufgaben des Scrum Masters in Bezug auf Prozesse und Prävention von Hindernissen her und positionieren Sie die Ethikrichtlinien als Erweiterung der bestehenden Rolle.

„Wir sind zu klein bzw. es ist zu früh, um uns Gedanken über ethische KI in Agile zu machen“: Zeigen Sie, wie frühzeitige ethische Leitlinien Nacharbeiten und Reputationsschäden verhindern. Beginnen Sie mit einer einfachen Implementierung.

„Die KI-Tools kümmern sich bereits um ethische Fragen“: Veranschaulichen Sie Lücken in den ethischen Sicherheitsvorkehrungen kommerzieller KI-Tools. Zeigen Sie Beispiele für potenzielle Probleme, die für Ihren Kontext spezifisch sind.

Kontextuelle Integration: Ein ergänzender Ansatz

Für Teams, die ihre ethischen KI-Praktiken vertiefen möchten, bietet „Contextual AI Integration“ einen ergänzenden Rahmen, der diese Leitplanken auf natürliche Weise verstärkt:

  • Dieser stellt den minimal notwendigen Kontext für bestimmte Aufgaben bereit und verringert so das Risiko der Datenpreisgabe,
  • Dieser schafft einen klaren situativen Rahmen für den Einsatz von KI und bewahrt so das menschliche Urteilsvermögen,
  • Dieser verbindet KI mit bestehenden Artefakten wie der Definition of Done und bettet ethische Überlegungen ein,
  • Dieser legt KI-Arbeitsvereinbarungen fest, die ethische Grenzen einbeziehen können.

Fazit: Vom Werkzeug zum ethischen Partner

Der Weg zu einer effektiven KI-Integration für agile Teams erfordert bewusste, ethisch gebundene Praktiken, die die Grenzen der KI und agile Werte respektieren.

Durch die Implementierung dieser vier Leitplanken – Datenschutz und Compliance, Wahrung menschlicher Werte, Validierung der Ergebnisse und transparente Zuordnung – stellen Scrum Master und agile Coaches sicher, dass KI die menschliche Exzellenz, die das Herzstück von Agilität bildet, fördert und nicht untergräbt.

Ein Teilnehmer meiner Umfrage fragte: „How do we ensure AI is reflective of our thoughts and values?“ Diese ethischen Leitplanken bieten eine praktische Antwort, nicht durch abstrakte Prinzipien, sondern durch konkrete Praktiken, die in die tägliche agile Arbeit eingebettet sind.

Beginnen Sie noch heute. Wählen Sie einen Bereich mit hohem Risiko oder ein betroffenes Teammitglied aus und beginnen Sie das Gespräch. Ihr erster Schritt könnte die Planung des oben beschriebenen „Workshops zur Datenklassifizierung“ sein. Der Scrum Master, der diese Leitplanken einführt, wird nicht nur zum Prozessbegleiter, sondern auch zum ethischen Kompass, der seinem Team hilft, sich mit Integrität, Selbstvertrauen und Zielstrebigkeit im komplexen Terrain der KI-gestützten Agilität zurechtzufinden.

🗞 Soll ich Sie über Artikel wie diesen informieren? Großartig! Sie können sich hier für den Newsletter „Food for Agile Thought“ anmelden und sich über 42.000 Abonnenten anschließen.


What did you think about this post?