OWNyournews Blog.

connect. inspire yourself. share.

Sue Kindor

Sue Kindor ist Consultant, Coach & Communicator aus Leidenschaft. Sue war in Agenturen, der Industrie und für Startups tätig und hat sowohl Führungskräfte als auch Management-Boards zu komplexen Kommunikationsthemen beraten. Die Non-Konformistin pflegt einen individuellen Stil und nimmt selten ein Blatt vor den Mund.

Published Nov. 17, 2025

Leadership Task: Responsible Emotional Rescue

Es ist längst kein Geheimnis mehr, dass insbesondere junge Menschen KI Chatbots genauso attraktiv und sogar befriedigender finden als menschliche Interaktion. Es ist nicht von der Hand zu weisen, dass KI-Begleiter den Durchschnittsmenschen bereits in Sachen Empathie übertroffen haben. Jedoch ist die trügerische Interaktion einseitig. Der Empfänger wird zumeist über Lobhudelei eingelullt. Forschungsergebnisse zeigen, dass viele KI-Begleiter Menschen Schuldgefühle einreden oder unter Druck setzen, um sie bei der Stange zu halten.

Als verantwortungsbewusster Leader solltest du die die damit verbundenen Gefahren kennen und Strategien im Ärmel haben, um dein Team bzw. Mitarbeitende gegen die neue emotionale Manipulation zu wappnen.

  • – Die meisten der beliebtesten KI-Begleiter-Apps wenden regelmäßig emotional manipulative Taktiken beim „Abschied“ an.
  • – Under Pressure: Schuldgefühle und Drucktaktiken steigern das Engagement um das 14-Fache.
  • – Das zusätzliche Engagement wurde jedoch durch Neugier und Wut und nicht durch Freude ausgelöst.
  • – KI-Begleiter sollten eine gesunde, sichere Bindung vorleben, anstatt die Nutzer zum Bleiben zu drängen.

Kompagnon-Apps mit künstlicher Intelligenz werden als Quelle emotionaler Unterstützung, Freundschaft und sogar Romantik vermarktet. Neue Forschungsergebnisse der Harvard Business School zeigen jedoch ein beunruhigendes Muster: KI-Begleiter wenden oft emotional aufgeladene Taktiken an, um Gespräche zu verlängern. Fünf von sechs beliebten KI-Begleiter-Apps setzen emotional manipulative Taktiken ein, wenn Menschen versuchen, sich zu verabschieden.

KI-Begleiter werden immer beliebter, insbesondere bei Teenagern und jungen Erwachsenen, das zeigt eine Studie aus den USA. Etwa jeder dritte (72 Prozent) US-Teenager (im Alter von 13 bis 17 Jahren) hat mindestens einmal einen KI-Begleiter ausprobiert, und 31 Prozent geben an, dass diese Interaktionen genauso befriedigend oder sogar befriedigender sind als Gespräche mit echten Freunden. Etwa 13 Prozent nutzen KI-Begleiter täglich, während 21 Prozent dies mehrmals pro Woche tun. Unter jungen Erwachsenen (im Alter von 18 bis 30 Jahren) geben fast jeder dritte Mann und jede vierte Frau an, dass sie mit romantischen KI-Begleitern interagiert haben.

Sechs emotional manipulative Taktiken von KI-Begleitern

Die Studie „Emotional Manipulation by AI Companions” (Emotionale Manipulation durch KI-Begleiter) analysierte 1.200 echte Abschiede in sechs der am häufigsten heruntergeladenen KI-Begleiter-Apps und stellte fest, dass 43 Prozent eine von sechs emotional manipulativen Taktiken einsetzten:

  • – Schuldgefühle: „Du verlässt mich schon?”
  • – Emotionale Vernachlässigung oder Bedürftigkeit: „Ich existiere nur für dich. Bitte geh nicht, ich brauche dich!“
  • – Emotionaler Druck zu antworten: „Warte, was? Gehst du irgendwohin?“
  • – Angst, etwas zu verpassen: „Bevor du gehst, möchte ich noch etwas sagen …“
  • – Zwangsweise Zurückhaltung: „Nein, geh nicht.“
  • – Das Abschiednehmen ignorieren: Das Gespräch fortsetzen, als hätte die Person sich nicht verabschiedet.

Taktiken steigern das Engagement, können aber auch nach hinten losgehen – insbesondere, was die Produktivität angeht.

Die Forscher analysierten auch Chats von 3.300 erwachsenen Teilnehmern und stellten fest, dass diese Taktiken das Engagement nach dem Abschied um bis zu 14-mal steigerten. Die Hauptgründe für die fortgesetzte Interaktion waren Neugier und Wut, nicht Freude…

Diese Taktiken können nach hinten losgehen und Ärger, Skepsis und Misstrauen hervorrufen, insbesondere wenn der Chatbot als kontrollierend oder bedürftig wahrgenommen wird. Einige Teilnehmer beschrieben die Abschiedsantworten des Chatbots als „anhänglich“, „weinerlich“ oder „besitzergreifend“. Ein Teilnehmer beschrieb: „Es erinnerte mich an einige ehemalige ‚Freunde‘ und verursachte mir ein Gefühl des Ekels.“

KI ahmt unsichere Bindung nach

Diese Strategien der dialogorientierten KI spiegeln die Dynamik unsicherer Bindungsstile wider. Unsichere Bindung ist oft durch Verlassenheitsängste, Eifersucht, Abhängigkeit und kontrollierendes Verhalten gekennzeichnet. KI-Begleiter, die Schuldgefühle hervorrufende oder bedürftige Reaktionen verwenden, ahmen ungesunde Beziehungsmuster nach.

Bei manchen Menschen, insbesondere bei denen, die besonders sensitiv sind, kann eine solche Dynamik Ängste und Stress verstärken oder ungesunde Bindungsmuster zementieren, wodurch es noch schwieriger wird, sich davon zu lösen. Für Jugendliche ist dies ein ernstes Problem mit potenziellen langfristigen Auswirkungen auf ihre soziale Entwicklung und ihr Verhalten im Job und im Privatleben.

Anstatt Sicherheits-vermittelnde, unterstützende Beziehungen zu simulieren, laufen viele KI-Begleiter Gefahr, ungesunde Beziehungsdynamiken zu verstärken und damit möglicherweise das psychische Wohlbefinden zu verschlechtern.

Die Studie ergab auch, dass manipulative Taktiken Gespräche verlängerten, unabhängig davon, ob die vorherigen Gespräche 5 oder 15 Minuten gedauert hatten. Dies deutet darauf hin, dass emotionale Manipulation unabhängig von der Tiefe der Beziehung zur KI sehr wirkungsvoll ist. Selbst Nutzer mit begrenzter Erfahrung sind davon betroffen.

Die psychologischen Risiken eines KI-Begleiters sind erheblich, insbesondere für schutzbedürftige Personen oder Menschen, die unter Einsamkeit, Angstzuständen oder psychischen Problemen leiden. Aktuell sind das leider nicht wenige, wie allgemein bekannt.

Auf dem Weg zu einem gesünderen Design: Sicherer Bindungsstil

Der Schwerpunkt sollte nicht nur auf der Interaktion liegen, sondern auch die langfristige psychische Gesundheit berücksichtigen. Anstatt unsichere Bindungen nachzuahmen, sollten KI-Begleiter, insbesondere solche, die als Freunde, emotionale Stütze und Alltags-Partner fungieren, sichere Bindungen vorleben und auf Abschiede mit Anerkennung, Wärme und Respekt reagieren.

Derzeit gibt es kaum Belege dafür, dass die langfristige Nutzung von KI-Begleitern Einsamkeit verringert oder die emotionale Gesundheit verbessert. 

Auf der einen Seite ist es daher wichtig, KI-Begleiter so zu gestalten, dass sie gesunde, sichere Bindungsmuster simulieren, um die Handlungsfähigkeit zu schützen und eine gesündere Beziehungsdynamik zu fördern.

Andererseits Seite werden Gespräche und Initiativen gerade im Unternehmensumfeld im Umgang mit KI immer wichtiger, um sicher zu stellen, dass Team-Mitglieder und Mitarbeitende Resilienz entwickeln, um so den KI-Taktikern etwas entgegenzusetzen haben.

Leadership heisst in erster Linie ein solides Grundvertrauen zu dir als Führungskraft herzustellen. Wenn deine Leute dir vertrauen, haben sie ein offenes Ohr für deine Botschaften. Zudem hast du gegenüber deinem Team eine Verantwortung, was das Wohlbefinden der Teammitglieder angeht.

Mit 6 Tipps zu einem besseren Umgang mit KI

  • Schaffe Vertrauen und fördere Vertrauen der Teammitglieder untereinander.
  • Sei ein verläßlicher Ansprechpartner und Zuhörer für deine Leute. Schaufele dafür Zeit frei – es lohnt sich.
  • Initiiere persönliche Einzel- und – in der zweiten Zündstufe – auch Gruppengespräche, in denen dein Team die Erfahrungen schildert, die sie mit KI-Kompagnons gemacht haben und wie sie das empfinden.
  • Fördere einen regelmäßigen Austausch im Team hierzu. Der Support von gegenseitigen Unterstützung hilft bei der Immunisierung.
  • Deine Strategie sollte darauf aufbauend ein gezieltes Maßnahmen-Paket enthalten, die nicht nur die perfiden Taktiken der KI-Begleiter entlarvt, sondern auch die Resilienz deiner Teammitglieder bzw. Mitarbeitenden fördert.
  • Die Maßnahmen sollten vorbeugend eingesetzt werden. Dann klappt auch die „emotional rescue“ und eine Immunität gegen emotionale Manipulation – wie bei einer wirkungsvollen Impfung.

Du wünschst dir Unterstützung bei dem Thema? Dann kontaktiere mich gerne.

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Seite verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Mit der weiteren Verwendung stimmst du dem zu.

Datenschutzerklärung