OWNyournews Blog.

connect. inspire yourself. share.

Sue Kindor

Sue Kindor ist Consultant, Coach & Communicator aus Leidenschaft. Sue war in Agenturen, der Industrie und für Startups tätig und hat sowohl Führungskräfte als auch Management-Boards zu komplexen Kommunikationsthemen beraten. Die Non-Konformistin pflegt einen individuellen Stil und nimmt selten ein Blatt vor den Mund.

Published Feb. 6, 2026

Eine Studie hat kürzlich herausgefunden, dass KI einen „umgekehrten Dunning-Kruger-Effekt” verursacht. Gehörst du auch zu denen, die glauben, dass Sie ein tiefgreifendes Verständnis von KI-Tools und deren Anwendung haben? Die Studie zeigt, dass du deine Fähigkeiten wahrscheinlich maßlos überschätzt … 

Der Dunning-Kruger-Effekt (kurz: DKE) beschreibt eine häufige Dynamik, die die meisten von uns im Alltag beobachten können. Menschen, die am wenigsten über ein Thema wissen, sind in der Regel am selbstbewusstesten in Bezug auf ihr Wissen. Sie halten sich für kompetenter als andere und prahlen vollmundig mit ihrem Halbwissen (wenn überhaupt vorhanden). Wahre Experten, die die Komplexität eines Themas verstehen, sind vorsichtiger und bescheidener. 

Um ignorante Bla-Bla-Heros im Internet zu entlarven ist der Dunning-Kruger-Effekt ist zu einer beliebten Methode geworden. Das war jedoch nicht die Hauptbotschaft, die die Psychologen, die dem Effekt seinen Namen gaben, mit ihrer Arbeit vermitteln wollten. Stattdessen sehen sie den DKE als Warnung, nicht übermütig zu werden und sich bewusst zu werden, dass du wahrscheinlich weniger verstehst, als du glaubst.

Das ist zwar immer ein guter Rat, aber im Zeitalter der KI muss er vielleicht ein wenig aktualisiert werden. Laut einer neuen Studie überschätzen selbst KI-Experten ihre Fähigkeiten im Umgang mit dieser Technologie erheblich. Die Forscher bezeichnen dieses Phänomen als „umgekehrten Dunning-Kruger-Effekt”.

Dunning-Kruger im Zeitalter der KI 

Um den Zusammenhang zwischen selbst eingeschätzten KI-Kenntnissen und Selbstvertrauen zu ermitteln, holten finnische Forscher eine Gruppe von rund 500 Teilnehmern ins Labor und baten sie, knifflige logische Denkaufgaben aus dem Law School Admission Test zu lösen. 

Als Cherry-on-the-top-Motivation wurde den Probanden eine zusätzliche Vergütung für bessere Leistungen angeboten. Die Hälfte von ihnen nutzten LLMs wie ChatGPT, um ihre Antworten zu finden, die andere Hälfte nicht. Alle Teilnehmer absolvierten außerdem einen Test zur Einschätzung ihrer KI-Kenntnisse und wurden gebeten, ihre eigene Leistung bei der Aufgabe zu bewerten. 

Der klassische Dunning-Kruger-Effekt sagt voraus, dass diejenigen, die über die geringsten Kenntnisse und Erfahrungen mit KI verfügen, ihre Leistung bei KI-gestützten Aufgaben am stärksten überschätzen würden. Das ist jedoch nicht das Ergebnis, zu dem die Forscher kamen, als sie kürzlich ihre Ergebnisse in einer Computer-Fachzeitschrift veröffentlichten.

Tatsächlich waren es die Teilnehmer mit den größten Kenntnissen und Erfahrungen im Bereich KI, die ihre Fähigkeiten am stärksten überschätzten. 

Die Wissenschaftler erwarteten, dass Menschen mit KI-Kenntnissen nicht nur etwas besser im Umgang mit KI-Systemen sind, sondern auch ihre Leistung mit diesen Systemen besser einschätzen können – aber das war nicht der Fall. Hingegen wurde festgestellt, dass der DKE-Effekt in Bezug auf KI verschwindet. Tatsächlich war es überraschend, dass höhere KI-Kenntnisse zu mehr Selbstüberschätzung führen.

92 Prozent der Menschen überprüfen KI-Antworten nicht

Dieses Ergebnis ist an sich schon besorgniserregend. Wenn KI nun auch noch eine Flut von ahnungslosen, sich selbst überschätzenden Experten hervorbringt, sind wir alle in Schwierigkeiten. Noch beunruhigender wird es jedoch, wenn man dies mit aktuellen Forschungsergebnissen in Verbindung bringt, die zeigen, wie unwahrscheinlich es ist, dass Menschen KI-Antworten mit Vorsicht und Skepsis begegnen. 

Eine aktuelle Analyse eines Trendforschungs-Unternehmens ergab, dass unglaubliche 92 Prozent der Menschen sich nicht die Mühe machen, KI-Antworten zu überprüfen. Und das, obwohl alle gängigen Modelle nach wie vor anfällig für Fantasievorstellungen, grobe sachliche Ungenauigkeiten und devotes Verhalten sind, das es versäumt, Missverständnisse oder Fehler der Nutzer zu korrigieren.

Im Wesentlichen stellte die Studie fest, dass die Menschen einfach davon ausgingen, dass die KI die Probleme für sie lösen würde. In der Regel gab es nur eine einzige Interaktion, um die Ergebnisse zu erhalten, was bedeutet, dass die Nutzer dem System blind vertrauten. Bye, Bye, Sokrates-Methode – ein wichtiger, fundamentaler Prozess, etablierte Überzeugungen, Dogmen, gesellschaftliche Verhältnisse und Quellen auf ihre logische Konsistenz, Wahrheit und ethische Fundierung zu prüfen. 

Gefährliche Entwicklung bis hin zu reibungsloser Intelligenz

KI verändert aktiv unsere mentale Landschaft.

  • KI verändert die kognitive Freiheit und prägt auf komplexe Weise Bestrebungen, Emotionen und Gedanken.
  • KI-gesteuerte Filterblasen verstärken Bestätigungs-Bias‘ und schwächen das kritische Denken.

Was passiert, wenn wir der Umkehrung vertrauen?

  • Langsames Denken erscheint als Nachteil.
  • In einer solchen Umgebung können sich kognitive Normen zu verschieben beginnen, und zwar auf ziemlich prekäre Weise.
  • Geschwindigkeit wird mit Einsicht verwechselt.
  • Kohärenz wird mit Wahrheit verwechselt.
  • Selbstvertrauen wird ansteckend, gerade weil es nicht mehr mit Anstrengung verbunden ist.
  • Zögern wird als Schwäche empfunden.
  • Unsicherheit wird als Ineffizienz registriert.

Eigenschaften, die bislang als umsichtiges Urteilsvermögen angesehen wurden, werden nun als Charakterfehler empfunden. Doch waren diese Eigenschaften waren niemals Fehler, sondern prägende Einschränkungen.

Künstliche Intelligenz kann das nicht leisten und muss es auch nicht. Diese Intelligenz ist eher architektonischer als erfahrungsbasierter Natur. Die Gefahr entsteht, wenn wir diese beiden Architekturen zu einer einzigen zusammenfassen und wenn wir menschliches Verständnis nach maschinellen Maßstäben bewerten oder den Ergebnissen von Maschinen vertrauen, als hätten sie das Gewicht menschlicher Kognition.

Bist du wirklich schon ein KI-Experte oder überschätzt du dich nur?

Wenn du dich selbst als KI-Experten bezeichnest, sollten dich diese Studie und die kritischen Argumente aufhorchen lassen. Du hast vielleicht ein überdurchschnittliches Verständnis von LLMs und anderen KI-Tools, aber dennoch ist es wahrscheinlich, dass du Antworten und deine Fähigkeit, die besten Ergebnisse aus diesen Anwendungen herauszuholen, überschätzt. Tatsächlich könnten dich deine KI-Kenntnisse besonders selbstgefällig und überheblich machen. 

Es gibt zahlreiche Ratschläge, wie man bspw. ChatGPT und Gemini dazu bringen kann, qualitativ hochwertigere Ergebnisse zu liefern. Mein Rat: Falle nicht dem umgekehrten Dunning-Kruger-Effekt zum Opfer. Lerne daraus. 

Aber selbst wenn du bereits zu den elitären 8 Prozent gehörst, die nicht blindlings glauben, was dir der Bot erzählt, gibt es noch eine weitere Erkenntnis. Wenn du in einer Leadership-Position bist, ist es sehr wahrscheinlich, dass viele deiner Mitarbeitenden, egal wie kompetent du über KI sprichst, deine Fähigkeiten erheblich überschätzen.

Vielleicht ist es an der Zeit, mit ihnen über das Vertrauen in KI zu sprechen und darüber, wie wichtig es ist, diese Tools mit Bescheidenheit und Distanz zu nutzen und kritischem Bewusstsein zu begegnen. 

Du willst mehr über den kritischen Umgang mit KI wissen? Kontaktiere mich gerne hierzu.

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Seite verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Mit der weiteren Verwendung stimmst du dem zu.

Datenschutzerklärung