#464 Vertrauen in Künstliche Intelligenz ist kein Technologieproblem, sondern eine Führungsfrage - Artikel von Niels Brabandt

Vertrauen in Künstliche Intelligenz ist kein Technologieproblem, sondern eine Führungsfrage

Von Niels Brabandt

 

Künstliche Intelligenz ist nicht mehr neu. Sie ist allgegenwärtig. Und genau darin liegt das Problem. Je selbstverständlicher KI in Organisationen eingesetzt werden soll, desto deutlicher zeigt sich eine unbequeme Wahrheit: Das mangelnde Vertrauen in Künstliche Intelligenz ist kein technisches Defizit, sondern ein Führungsversagen.

Viele Entscheidungstragende erklären die Zurückhaltung von Mitarbeitenden mit fehlender Agilität, mangelnder Offenheit oder technologischem Konservatismus. Diese Diagnose ist bequem – und falsch. In den meisten Fällen handelt es sich nicht um Ablehnung, sondern um rationale Risikoabwägung.

 

Warum Skepsis gegenüber KI rational ist

Nahezu jede Führungskraft kennt den Moment, in dem eine KI mit großer Überzeugung eine Antwort liefert, die sich später als falsch oder frei erfunden herausstellt. Diese Erfahrung ist kein Randphänomen, sondern systemimmanent. Künstliche Intelligenz erzeugt plausible Ergebnisse – nicht automatisch korrekte.

Im privaten Kontext sind die Folgen überschaubar. Eine falsche Reiseempfehlung kostet Zeit oder Geld. Im organisationalen Kontext hingegen steht weit mehr auf dem Spiel. Bis heute existiert kein relevantes Gerichtsurteil, das Verantwortung nach einer Fehlentscheidung eindeutig auf eine KI verlagert hätte. Die Haftung bleibt beim Menschen und bei der Organisation.

Mitarbeitende wissen das. Und sie handeln entsprechend vorsichtig.

Wer in einem Unternehmen erlebt hat, dass von Fehlerkultur gesprochen wird, aber Fehler dennoch sanktioniert werden, wird KI meiden. Nicht aus Technologiefeindlichkeit, sondern aus Selbstschutz.

 

Die Unsicherheit entsteht nicht durch KI, sondern durch den Kontext

Künstliche Intelligenz ist heute eingebettet in eine Informationsumgebung, die von Fake News, Deepfakes und manipulativen Inhalten geprägt ist. Für viele Menschen ist kaum noch unterscheidbar, was echt und was künstlich erzeugt ist. Von diesen Menschen zu erwarten, sie sollten „einfach KI nutzen“, ist realitätsfern.

Vertrauen entsteht nicht durch Appelle. Vertrauen entsteht durch Strukturen, Verlässlichkeit und klare Verantwortlichkeiten.

 

Warum viele KI-Awareness-Trainings Vertrauen zerstören

Als Reaktion setzen Organisationen häufig auf Awareness-Trainings. Die Idee ist richtig. Die Umsetzung oft fatal.

Der Markt ist voll von selbsternannten KI-Expertinnen und -Experten, deren Kompetenz primär auf Selbstbewusstsein basiert. Inhalte sind oberflächlich, fachlich fragwürdig oder schlicht falsch. Mitarbeitende erkennen das sehr schnell.

Bewusstsein ohne Substanz erzeugt kein Vertrauen, sondern Zynismus.

Wenn es um Künstliche Intelligenz geht, gilt ein alter wissenschaftlicher Grundsatz: Science leads the way. Ohne wissenschaftlich fundierte Qualifikation ist jede Beratung wertlos – unabhängig davon, wie überzeugend sie vorgetragen wird.

 

Führung kann nicht delegiert werden

Ein wiederkehrendes Muster in KI-Einführungen ist die Abwesenheit der Führung. Trainings werden genehmigt, Tools eingeführt, Erwartungen formuliert – während Führungskräfte selbst unverändert arbeiten.

Das untergräbt jede Glaubwürdigkeit.

Vertrauen in Künstliche Intelligenz entsteht nur, wenn Führungskräfte KI sichtbar, reflektiert und verantwortungsvoll selbst einsetzen. Einige Organisationen gehen inzwischen konsequent vor und verankern KI-Nutzung in Zielvereinbarungen von Führungskräften – inklusive messbarer Konsequenzen. Das sendet ein klares Signal.

 

Vertrauen braucht Ressourcen, nicht Durchhalteparolen

Neben Führung braucht Vertrauen Unterstützung. Hilfe muss verfügbar sein, wenn sie gebraucht wird, nicht irgendwann. Ein unterbesetzter IT-Support „neben dem Tagesgeschäft“ ist keine Lösung. Ob interne Anlaufstellen, externe Expertise oder klar strukturierte Lernressourcen: Ohne verlässliche Unterstützung wird KI im Zweifel ignoriert.

Schulung ohne Anwendung führt lediglich zu formaler Compliance. Menschen nehmen teil, setzen Häkchen und arbeiten weiter wie zuvor.

 

Die unbequeme Wahrheit

Vertrauen in Künstliche Intelligenz aufzubauen ist anspruchsvoll. Es kostet Zeit, Geld und Führungsdisziplin. Es erfordert professionelle Qualifikation, wissenschaftliche Fundierung, Vorbildverhalten und klare Strukturen.

Der Preis des Unterlassens ist jedoch höher: verdeckte Ablehnung, Schattenprozesse und der Verlust strategischer Chancen.

Künstliche Intelligenz wird nicht scheitern, weil sie unvollkommen ist. Sie wird scheitern, wenn Führungskräfte die menschliche Dimension von Vertrauen unterschätzen.

Und das ist kein Technologieproblem.
Es ist eine Führungsfrage.

 

Niels Brabandt

---

Mehr zu diesem Thema im dieswöchtigen Podcast und Videocast: mit Niels Brabandt: Videocast / Apple Podcasts / Spotify

Das Transkript zum Podcast und Videocast befindet sich unter diesem Artikel.

 

Ihnen ist exzellente Führungsarbeit wichtig?

Lassen Sie uns sprechen: NB@NB-Networks.com

 

Kontakt: Niels Brabandt on LinkedIn

Webseite: www.NB-Networks.biz

 

Niels Brabandt ist Experte für Nachhaltige Führung (Sustainable Leadership) mit mehr als 20 Jahren Erfahrungen in Praxis und Wissenschaft.

Niels Brabandt: Professionelles Training/Seminare/Workshops, Speaking/Vorträge, Coaching, Consulting/Beratung, Mentoring, Projekt- & Interim-Management. Event Host, MC, Moderator.

Podcast und Videocast Transkript

Niels Brabandt

Künstliche Intelligenz, und die Frage ist: Wie vertraut man der eigentlich? Sie haben mit Sicherheit schon mal gemerkt, Künstliche Intelligenz gibt Ihnen einiges an Informationen und wahrscheinlich, wie die meisten, inklusive meiner Person, werden Sie schon mal diesen Moment gehabt haben, wo Ihnen Künstliche Intelligenz in Inbrunst der Überzeugung etwas gesagt hat und es stellt sich raus, das war falsch. Und deswegen haben wir derzeit, insbesondere in Firmen, ein großes Thema: Wie kann man Künstlicher Intelligenz eigentlich vertrauen? Genau darüber wollen wir uns heute hier unterhalten. Ich werde auch hier wieder Artikel zitieren, wie immer der Disclaimer hier: Das Ganze ist im Zitierrecht entsprechend dann auch gedeckt unter dem Fair Use Act in Großbritannien.

Niels Brabandt

Ja, Business Insider hat berichtet: Wie schafft man es, dass die eigene Workforce, die eigenen Mitarbeitenden eigentlich KI überhaupt vertrauen? Das ist mit Sicherheit nicht einfach, und da müssen Sie einiges für tun. Und eins, das ging in verschiedensten Formen viral. Vielleicht kennen Sie dieses Bild: Ein Mensch fragt einen Roboter: "Ist das Essen hier vergiftet?" Und der Roboter: "Was, das Essen vergiftet?" "Nein, das ist völlig in Ordnung." Im nächsten Moment sieht man einen Grabstein daneben: "Ach so, ja, war doch vergiftet. Möchtest du mehr über vergiftetes Essen kennenlernen oder lernen?" Und das ist genau das, was einige auch bei KI schon mal gemerkt haben. KI sagt, was falsch ist, und dann sagt: "Möchtest du mehr dazu lernen?" Und man sagt: "Nein, ich hätte gerne das erste Richtige." Ich hätte sofort das richtige Ergebnis.

Niels Brabandt

Und hier sehen wir die Punkte, die bei KI, bei Künstlicher Intelligenz auch relevant sind. Und deswegen ist hier wichtig: Beim Vertrauen in Künstliche Intelligenz, wir müssen immer erst mal die Situation sehen. Wenn Sie jetzt sagen: "Da haben wir Mitarbeitende, die sind einfach nicht agil genug, die sind rückwärtsgewandt, die sind nicht technologieoffen genug", das ist oft nicht der Fall. Oftmals sagen sich Menschen: "Nun ja, ich habe in der Organisation hier mehr als einmal erlebt, dass Management von Fehlerkultur spricht, und kaum macht jemand einen Fehler, gab es Negativkonsequenzen. Dann vertraue ich doch keiner KI, dann mache ich was falsch und dann bekomme ich doch die Konsequenzen."

Niels Brabandt

Und in der Tat übrigens, bis heute haben wir kein einziges Gerichtsurteil finden können, wo man sagen kann: "Da ist ein Fehler passiert durch eine KI", und man hat am Ende gesagt: "Ja, da sind die Firmen und die Menschen aus dem Schneider, da ist die KI jetzt schuld, da müssen wir woanders mal nachschauen." Es gibt natürlich jetzt Punkte, wo gerade KI-Firmen auch verklagt wurden wegen gewisser Fehlverhalten, aber nirgendwo wurde gesagt: "Nach einer menschlichen Eingabe von einer Firmeninformation mit einer Entscheidung danach haften Sie für die Entscheidung der KI."

Niels Brabandt

KI hingegen ist überall mittlerweile. KI, Künstliche Intelligenz, AI, Artificial Intelligence ist absolut omnipräsent, absolut überall, und das ist für viele eben auch ein Problem, weil die halt sagen: "Es gibt Fake News, es gibt Deepfakes, es gibt Videos, die kann ich kaum noch unterscheiden von echten Videos, und auf einmal soll ich hier selber so eine KI bedienen?" Da sagen halt viele: "Da fühle ich mich schlichtweg unsicher."

Niels Brabandt

Und da müssen Sie erst mal eins bieten, nämlich Hilfe. Wenn Sie jetzt sagen: "Ja, Hilfe können wir ja anbieten, Sie haben ja eine IT-Abteilung." Ja, dann ist meine erste Frage: Ist die denn auch personell so ausgestattet, dass, wenn Sie jetzt sehr viele Mitarbeitende haben, da immer wieder Leute sitzen, die den Leuten dann auch zeigen können, wie das geht? Und dann heißt es meistens: "Ja, also der IT-Support, das ist nebenbei. Also das muss jetzt neben dem Tagesgeschäft gemacht werden." Ach ja, und wenn wir einen Helpdesk haben, die machen ja auch alle anderen Helpdesk-Sachen noch, also das ist jetzt so eine Nebengeschichte. Ja, das ist natürlich nicht realistisch, das kann nicht einfach on top gemacht werden.

Niels Brabandt

Wenn Hilfe angeboten wird, das erste ist immer Awareness-Training. Ich habe jetzt gerade selber letzte Woche wieder ein Awareness-Training gemacht. Wichtig bei diesen Awareness-Trainings wird immer wieder auch gesagt: Wenn Sie KI-Antworten haben, dann gibt es Methoden, die sind lernbar, da können Sie Antworten der KI überprüfen, und Sie müssen auch lernen, wie der Selbstkritikmodus und das Überprüfen von KI-Ergebnissen geht.

Niels Brabandt

Wenn immer wieder Menschen jetzt sagen: "Ja, ich hätte aber eigentlich gar nicht gerne, dass da jetzt was überprüft werden muss, ich möchte, dass sofort die richtige Antwort kommt", das ist es bei Google doch auch so. Nein, ist es nicht. Wenn Sie was googeln, können Sie auch da entsprechend falsche Ergebnisse finden, die aber ganz toll aufbereitet sind, und denken halt, das ist richtig, obwohl es nicht stimmt. Wenn Sie sagen: "Die Erde ist eine Scheibe", werden Sie dazu Google-Artikel finden, die das bestätigen, die aber trotzdem allesamt Nonsens sind. Deswegen: Awareness heißt immer, es muss dort ein Bewusstsein geschaffen werden, aber wichtig mit professionellen Inhalten. Nicht mit diesem Gequatsche von Leuten, die über Nacht KI-Experten geworden sind.

Niels Brabandt

Sie können das ja gerne bei mir nachschauen, wenn jetzt jemand sagt: "Brabant, was glaubst du dich zu?" Das ist eine völlig berechtigte Frage übrigens. Ich habe selber meine KI-Qualifikation an der University of Pennsylvania Award and Business School gemacht, danach die Vanderbilt University. Sind jetzt nicht die schlechtesten Einrichtungen der Welt, um wissenschaftlich KI zu lernen. Danach habe ich direkt beim Hersteller, jetzt noch bei Microsoft, direkt weitere fünf Qualifikationen gemacht. Schauen Sie es gerne auf meinem LinkedIn entsprechend nach. Von daher: Wenn Sie da Leute haben, die keine professionellen Inhalte bieten, die auch nicht professionell qualifiziert sind, dann kann das natürlich nichts werden. Einfach nur zu sagen: "Ich weiß da was zu" oder "Ich habe viel Selbstbewusstsein", hilft nicht, denn Grundsatz ist: Science leads the way, die Wissenschaft weiß den Weg. Und deswegen ist auch entscheidend, dass die Wissenschaft hier befragt werden muss.

Niels Brabandt

Menschen ohne Wissenschaft oder wissenschaftlich fundierte Qualifikation sind in diesem Thema keine guten Menschen, die Ihnen Ratschläge, geschweige denn Ideen geben sollten. Das sind meistens Menschen, die haben irgendwo was gesehen, was eventuell mal funktionierte, aber auch hier wieder zitiere ich Frankens Beatles von der Harvard Business School: "N gleich eins ist keine Beweisführung." Deswegen: Science leads the way.

Niels Brabandt

Die Frage ist: Wie setzt man das jetzt um? Und das erste ist immer professionelle Qualifikation. Und wenn Sie jetzt sagen: "Das schaffen wir nicht, weil entweder sind wir zu groß, ist zu komplex ..." Ich habe es jetzt gerade für einen Konzern letzte Woche gemacht, Tausende von Mitarbeitenden wurden global geschult. Wenn Sie jetzt sagen, Sie sind zu klein: Im Kleinen haben Sie halt wenigstens dann die Zeit. Und wenn Sie sagen, Sie haben die Zeit nicht, haben Sie Zeit für Geldstrafen und Schaden am Unternehmen? Tendenziell nicht, oder? Also von daher diese Ausreden, warum das immer nicht geht, abgesehen davon, dass insbesondere in der Europäischen Union jetzt mittlerweile ja auch gesagt wird, dass in Hinblick auf KI auch entsprechend dann Schulungen durchgeführt werden sollen, um Qualifikationen zu erreichen.

Niels Brabandt

Da ist eins ganz wichtig: Führungskräfte müssen vorangehen. Wenn Sie als Führungskraft sagen: "Ja, KI ist total wichtig, da müssen Mitarbeiter sich hier gut auskennen ..." Also meine Aufgabe ist das nicht natürlich, ja. Also ich, ich, ich doch nicht. Nein, das machen andere, das machen andere. Ich mache das auf gar keinen Fall. Dann machen Sie sich komplett unglaubwürdig.

Niels Brabandt

Und deswegen ist wichtig: Leaders must lead. Führungskräfte müssen auch wirklich jetzt die Führung hier entsprechend übernehmen und dann entsprechend auch die Ressourcen absichern, dass Menschen jederzeit auch die Möglichkeit haben, sich Hilfe professionell zu sichern. Diese Hilfe kann intern gemacht werden, diese Hilfe kann extern gemacht werden. Da gibt es Online-Portale, da gibt es Möglichkeiten intern, da gibt es Multiplikatorenkonzepte und so weiter, aber diese Ressourcen müssen da sein.

Niels Brabandt

Tatsache ist: KI wird mittlerweile eingeführt, und die Akzeptanz wird zumindest bei manchen Organisationen doch zumindest in den Vordergrund gestellt, denn Schulen uns sagen: "Mach mal." Dann sagen die meisten Leute: "Ja, danke, bin geschult worden, und jetzt mache ich weiter wie immer." Solange, bis mich jemand anweist, es zu nehmen. Und das funktioniert nicht.

Niels Brabandt

Sie müssen als Führungskräfte hier vorangehen. Wenn Sie als Führungskräfte Künstliche Intelligenz leben, dann werden andere sagen: "Oh, das finde ich sinnvoll, da werde ich jetzt auch was machen." Und dann wird auch Künstliche Intelligenz und das Vertrauen dazu bei Ihnen in Ihrer Organisation ein erfolgreiches Konzept werden, was dann entsprechend auch in der Umsetzung sich widerspiegelt.

Niels Brabandt

Wenn Sie jetzt sagen: "Oh Mann, da geht noch ein paar Fragen zu, weil das sind ja doch relativ komplexe Konzepte ..." Wir haben da in der Tat derzeit mehrere Projekte zu, sogar ein Interims-Mandat, was ich in diesem Bereich hier entsprechend mache.

Niels Brabandt

Wenn Sie jetzt sagen, Sie haben da was ... Also erst mal vielen Dank, dass Sie mir hier wieder zuhören und auch zuschauen. Wenn Sie mir auf YouTube zuschauen, gerne ein Like dalassen, gerne den Kanal abonnieren, gerne auch kommentieren und gerne auf Apple Podcast, Spotify ein Review dalassen, fünf Sterne, vielen Dank auch dafür. Gerne auch weiterempfehlen, den Podcast und Videocast im Freundschafts-, Bekanntschafts-, Kollegenschaftskreis, und Sie können mir logischerweise auch gerne auf Apple Podcast oder Spotify folgen oder gehen auf meine Webseite: nb-networks.bitz, dann sehen Sie, was ich beruflich so mache.

Niels Brabandt

Wenn Sie jetzt sagen, Sie haben was zu diskutieren ... Die meisten sagen halt immer: "Ich habe was", aber es ist firmenintern. Ich kann es nicht in die Kommentarspalte legen. Die meisten wählen den Weg und schreiben mich direkt an. Machen Sie das gerne: nb@nb-networks.com. Schreiben Sie mir eine E-Mail, freue mich da jederzeit gerne von Ihnen zu hören.

Niels Brabandt

Wenn Sie jetzt sagen: "Haben wir auch Live-Sessions?" Ja, wir hatten gerade letzte Woche eine, eine sehr erfolgreiche. Gehen Sie einmal auf expert.nb-networks.com. Wenn Sie da einmal Ihre E-Mail-Adresse eintragen, dann keine Sorge, Sie bekommen nur einmal die Woche eine einzige E-Mail, 100 Prozent Inhalt, garantiert werbefrei.

Niels Brabandt

Und natürlich können Sie mir dann entsprechend darüber auch schreiben. Dort kriegen Sie übrigens freien Zugang zu allen Blogartikeln, allen Podcasts, allen Videocasts auf deutscher und englischer Sprache.

Niels Brabandt

Sie können logischerweise mir auch ansonsten einfach folgen. Vernetzen Sie mich auf LinkedIn, gerne vernetzen, nicht das Folgen, vernetzen Sie mich gleich richtig. Vernetzen auf LinkedIn, gerne auch dann auf Instagram entsprechend mir folgen, auf Facebook mich liken oder auf YouTube entsprechend meinen Kanal abonnieren.

Niels Brabandt

Das Wichtigste ist aber immer das Letzte, was ich sage, nämlich: Anwenden, anwenden, anwenden von dem, was Sie gehört haben, denn nur wenn Sie anwenden, was Sie gehört haben, werden Sie die positiven Aspekte sehen, die auch Sie in Ihrer Organisation haben möchten. Und dabei wünsche ich Ihnen viel Erfolg bei der Umsetzung mit KI, mit Künstlicher Intelligenz, AI, Artificial Intelligence.

Niels Brabandt

Und für heute bleibt mir wie immer, wie immer am Ende von jedem Podcast und Videocast nur noch eins zu sagen, nämlich: Vielen Dank für Ihre Zeit.

Niels Brabandt