Führung im Zeitalter der KI: Wie der KI-Diskurs Verantwortung und Macht prägt
Meikes Gedanken zur Künstlichen Intelligenz
Du willst dir diesen Blogbeitrag lieber anhören? Klicke hier, um die Audioversion zu erreichen!
Führung im Zeitalter der KI: Wie der KI-Diskurs Verantwortung und Macht prägt
Meikes Gedanken zur künstlichen Intelligenz
Dies ist der zweite von sieben Teilen der neuen Blog-Reihe von MDI-Leadership-Architektin Meike Hinnenberg zum Thema KI. Den ersten Teil findest du hier! Bleib dran für mehr 🙂
Kapitel II – Äußerungslinien
Indem Crawford Künstliche Intelligenz als industriellen Apparat vom maschinellen Lernen als einer Reihe von Praktiken unterscheidet, vollzieht sie eine Geste des ethischen Widerstands. Sie unterbricht den reibungslosen Umlauf des Begriffs und entlarvt Künstliche Intelligenz nicht als feststehendes Objekt, sondern als eine Sprechlinie – und eröffnet damit einen anderen Weg durch das Feld.
Im Sinne von Deleuze sind Sprechlinien weder Äußerungen noch Texte, weder Sprecher noch Doktrinen. Sie sind Bedingungen der Aussprechbarkeit, die innerhalb eines Dispositivs zirkulieren und abgrenzen, was benannt, gedacht und umgesetzt werden kann.
Meistens bleiben Äußerungslinien unsichtbar, gerade weil sie so gut funktionieren. Sie treten nicht als Befehle, Normen oder Ideologien in Erscheinung; sie schleichen sich als Beschreibung in die Sprache ein, als Handlungsfähigkeit in die Grammatik, in Namen, die den Dingen, die sie zusammenfassen, vorzugreifen scheinen. Sie verlangen nicht, dass man ihnen glaubt: Man muss einer Äußerungslinie nicht zustimmen, um sie zu nutzen.
Wie der KI-Diskurs Realität und Verantwortung prägt
Diese Linien sind nicht in erster Linie repressiv; sie sind produktiv. Sie bringen Objekte ins Leben (KI), erzeugen Probleme (Alignment, Bias), schlagen Lösungen vor (ethische KI) und skizzieren Zukunftsbilder (KI wird alles verändern). Eine Kritik, die sie lediglich als falsche Darstellungen behandelt, geht daher am Kern der Sache vorbei. Ihre Kraft liegt nicht (nur) in dem, was sie verbergen, sondern auch in den Realitäten, die sie mit ins Leben rufen.
Dieses Produktivitätspotenzial zu verstehen – und damit Technologie nicht einfach als ein Instrument zu betrachten, das klug eingesetzt werden muss, sondern als eine Form der Welterschließung – ist unerlässlich, insbesondere im Hinblick auf die Frage der Verantwortung. Wir stehen nicht außerhalb des Dispositivs. Wir sind nicht unabhängig von den sozialen, technologischen und sprachlichen Strukturen, durch die uns die Welt zugänglich wird. Unsere Beziehung zu uns selbst und unser Zugang zur Realität werden innerhalb dieser Strukturen geformt.
Antwortlichkeit
Was also gefragt ist, ist nicht die Illusion, jenseits dieser Strukturen zu stehen, sondern das Bemühen zu verstehen , wie das Dispositiv funktioniert: welche Realitäten es hervorbringt, wie wir darin positioniert sind und wie wir uns darauf beziehen, darin handeln oder sogar seine Grenzen verschieben können. Unabhängig von diesen Bedingungen zu sein, bedeutet vorerst nicht, dass wir nicht verantwortlich wären. Verantwortung kann stattdessen die Form annehmen, die Bernhard Waldenfels als Antwortlichkeit (response-ability) bezeichnet: eine Reaktionsfähigkeit auf das, was uns anspricht, bevor wir es vollständig verstehen, eine Antwort, die niemals ganz mit dem Schritt halten kann, was ihr vorausgeht.
Lass uns diesen Weg noch ein Stück weiterverfolgen, um zu sehen, wie er das Feld prägt. Wenn wir uns zum Beispiel die Website der OECD ansehen, lesen wir:
KI birgt das Potenzial, komplexe Herausforderungen anzugehen – von der Verbesserung der Bildung und der Gesundheitsversorgung bis hin zur Förderung wissenschaftlicher Innovationen und Klimaschutzmaßnahmen. Allerdings stellen KI-Systeme auch Risiken für Privatsphäre, Sicherheit und menschliche Autonomie dar. Effektive Governance ist unerlässlich, um sicherzustellen, dass die Entwicklung und der Einsatz von KI sicher und vertrauenswürdig sind, mit Strategien und Vorschriften, die Innovation und Wettbewerb fördern.
Wie der Diskurs begrenzt, was hinterfragt werden darf
Der OECD-Text spricht in einer Sprache, in der künstliche Intelligenz bereits agiert: Sie treibt voran, geht an und verbessert. Die Politik kommt erst später ins Spiel, als moderierende Hand. In dieser Grammatik erscheint Künstliche Intelligenz als ein Akteur, der Nutzen oder Schaden anrichten kann, der selbst jedoch nie grundlegend in Frage gestellt wird. Innerhalb dieses Rahmens kann man über Sicherheit, Vertrauen und Regulierung debattieren, doch strukturellere Fragen zu Datenextraktion, Machtkonzentration oder der Wünschbarkeit von KI als solcher haben es schwer, als relevante Aussagen an die Oberfläche zu gelangen. Die Kraft solcher Äußerungen liegt nicht darin, Überzeugungen zu vermitteln, sondern darin, das Feld der Sprache selbst vorzugeben.
Indem Crawford Künstliche Intelligenz als industriellen Apparat von maschinellem Lernen als einer Reihe von Praktiken unterscheidet, macht sie eine solche Äußerungslinie sichtbar und greift damit in das Feld der Aussprechbarkeit ein. Indem sie hinterfragt, ob Künstliche Intelligenz überhaupt künstlich oder intelligent ist, zeigt sie, dass das, was als autonomer historischer Akteur erschien, in Wirklichkeit eine konstruierte Konvergenz ist: ein industrieller Apparat, eine planetarische Infrastruktur, die auf kolonialen Kontinuitäten und verteilter menschlicher Arbeit beruht.
Welche materiellen und historischen Infrastrukturen machen KI möglich?
Indem sie die Frage von „Ist KI fair?“ zu „Welche materiellen und historischen Infrastrukturen machen KI möglich?“ verlagert, zerbricht die Einheit des Begriffs Künstliche Intelligenz wie die Eisschicht eines im Winter zugefrorenen Sees.
Und eine weitere Schicht der akustischen Landschaft kommt zum Vorschein: das Atmen von Lüftungsschächten, das Rauschen bewegter Erde, der metallische Herzschlag von Bohrern, das langsame Zermahlen von Stein durch Maschinen, das tiefe Brummen von Motoren, das Aufwirbeln von Propellern, die das Meer hinter sich falten, der Wind, der sich durch gestapelte Container schlängelt, eine stille Choreografie aus Klicks und Pausen, die ein Bild nach dem anderen kennzeichnet, Körper, die versuchen, mit der Logistik Schritt zu halten, Wiederholungen, gemessen in Pieptönen, das Klappern von Paketen auf dem Transport – eine gedämpfte Klangfülle der Arbeit, die unbemerkt bleiben muss, ein menschlicher Rhythmus unter der vermeintlich glatten Oberfläche der Automatisierung.

Meike Hinnenberg
Learning & Development Architect
Meike Hinnenberg ist Trainerin sowie Learning and Development Architect bei der MDI Management Development GmbH und spezialisiert auf Kommunikation, Konfliktmanagement, Vielfalt und Inklusion sowie laterale Führung.
