Wir prompten Maschinen präziser als unsere Mitmenschen. Das ist das Problem. Und die Lösung.
Der ehrlichste Spiegel der Welt
Ich weiß, was Sie jetzt denken. „KI und Kommunikation? Was soll mir eine Maschine über Zwischenmenschliches beibringen?“ Geduld. Der Gedanke, den ich Ihnen zumuten möchte, ist zwar simpel, aber er hat – so denke ich – Sprengkraft.
Millionen Menschen formulieren mittlerweile jeden Tag glasklare Anweisungen an eine KI, nur um fünf Minuten später einer realen Person eine Nachricht zu schicken, die mit „Kümmere dich mal drum“ endet. Wir haben gelernt, einer Maschine präzise zu sagen, was wir wollen. Den Menschen neben uns lassen wir raten.
Dabei ist das, was eine KI von uns braucht, exakt das, was unser Gegenüber schon immer brauchte: Kontext. Klarheit. Vollständigkeit. Die Maschine ist nur wörtlicher als der Mensch. Sie interpretiert nicht wohlwollend, sondern füllt Lücken mechanisch, mit statistisch plausiblen Annahmen. Genau das macht sie zum diagnostischen Spiegel: Wer vage fragt, bekommt erfundene Präzision zurück. Wer Kontext verschweigt, bekommt vielleicht auch mal Halluzinationen serviert. Die KI nimmt unsere Worte beim Wort – und liefert uns damit ein Röntgenbild unserer eigenen Kommunikation, das wir nicht bestellt haben, aber dringend brauchen.
Von Stanisław Lem stammt der Satz, der meine ganze These trägt: „Menschen suchen wir, niemanden sonst. Wir brauchen keine anderen Welten. Wir brauchen Spiegel.“ Das ist aus Solaris, einem Kult-Roman über die Begegnung mit einer fremden Intelligenz, die am Ende nicht das Fremde zeigt, sondern das Verdrängte. KI ist für unsere Kommunikation genau das. Ein Spiegel. Jedes Sprachmodell wurde mit menschlicher Sprache trainiert – Milliarden Sätze typisch menschlicher Kommunikation. Die KI spiegelt uns: unsere Stärken, unsere Muster, unsere blinden Flecken, unser Wissen genauso wie unsere Vorurteile. Was sie uns zurückgibt, wenn wir sie schlecht prompten, ist unser eigenes Kommunikationsversagen, unbarmherzig reflektiert.
Nun höre ich gerade aus psychologisch geschulten Reihen den berechtigten Einwand: „Aber menschliche Kommunikation ist doch etwas komplett anderes als KI-Prompting!“ Stimmt. Und stimmt nicht. Beides gleichzeitig. KI-Prompting stellt das Fundament von Kommunikation dar: Rolle klären, Kontext geben, Ergebnis definieren, Rückmeldung einholen. Watzlawicks Axiome, die Beziehungsebene, Kongruenz, die Kunst des Zuhörens – das sind die Stockwerke darüber. Wer die Basics nicht beherrscht, kann keine Stockwerke bauen. Und wer sie beherrscht, kann darauf aufbauen: die analoge, mehrdimensionale, widersprüchliche, wunderschön komplizierte Kommunikation zwischen Menschen.
Eine bemerkenswerte Studie der Oregon State University (Bushnell & Harrison, 2025) hat diesen Mechanismus experimentell sichtbar gemacht. Studierende, die für Hausarbeiten eine KI nutzten, erzielten dramatisch bessere Ergebnisse, wenn sie zusätzlich eine Anleitung zur KI-Bedienung erhielten, als wenn dies nicht der Fall war. Das Problem saß nicht im Code. Es saß vor dem Bildschirm. Und wenn die Qualität unserer Eingabe bei einer Maschine alles entscheidet, warum sollte das im Umgang mit Menschen anders sein?
Drei Prinzipien – nicht mehr, nicht weniger
Was eine KI von mir braucht, ist exakt das, was jeder Mensch schon immer brauchte. Es lässt sich auf drei Prinzipien reduzieren
1. Kontext: Wer bin ich? Für wen? Wofür?
Beim KI-Prompting umfasst Kontext alles, was ich über die eigentliche Aufgabe hinaus mitgebe: Hintergrund, Rolle, Zweck, Rahmenbedingungen. Ohne diesen Kontext arbeitet die KI im luftleeren Raum. Nicht nur bei der KI determiniert der Kontext das Ergebnis – auch bei Menschen.
Ein Beispiel aus dem Alltag: „Sonja, mach das Fenster zu!“ – schroffer Kasernenhofton, weil kontextfrei. Dagegen: „Du, Sonja, ich habe gerade die Schranktür lackiert. Wenn Zugluft kommt, trägt es Staub und Pollen auf den Lack.“ Derselbe Auftrag. Aber der Kontext klärt ihn und schützt die Beziehung.
Im Beruf nicht anders. Vertriebsleiter Marc fragt die Kollegin Jenny, leitende Ingenieurin: „Wie würdest du dieses Problem lösen?“ Aber als was? Als innovative Ingenieurin liefert sie die State-of-the-Art-Lösung, die das Budget sprengt. Als kostenbewusste Technikerin eine bewährte Variante von der Stange. Marc definiert die Rolle nicht und beschwert sich, wenn die Luxuslösung kommt. Ohne Rollenzuweisung liefern KI und Mensch eine Antwort, die nicht passt.
Clark und Brennan (1991) sprechen in der Kommunikationspsychologie von „Grounding“: Verständigung gelingt nur, wenn Gesprächspartner systematisch prüfen, ob sie dieselben Kontextannahmen teilen. „Common Ground“ ist kein Luxus; es ist die Voraussetzung dafür, dass Kommunikation überhaupt funktioniert. Mein Appell zur Kontext-Inklusion operationalisiert genau dieses Prinzip. Wir leben in einer Kontext-Ära. Die eigentliche Sache ist meistens allen klar. Klar ist auch, was man tun müsste. Doch es wird nicht getan, weil der Kontext dagegensteht und niemand über ihn spricht. Was man nicht benennen kann, kann man nicht managen.
2. Klarheit: Gedanken sortieren, bevor man spricht
Die eine Frage, die fast niemand stellt – weder der KI noch Menschen : Was soll am Ende rauskommen? Sobald alle dasselbe Bild des gewünschten Ergebnisses vor Augen haben, entsteht Verbindlichkeit. Ohne dieses Bild entsteht – irgendwas.
Wissende überschätzen systematisch das Vorwissen anderer und kommunizieren dadurch zu komplex oder zu knapp. Die „Curse of Knowledge“-Verzerrung ist allgegenwärtig – am Küchentisch wie im Therapiezimmer.
Klarheit bedeutet dabei nicht, allem den Weg vorzuschreiben. Es bedeutet, den richtigen Grad an Struktur zu wählen – je nachdem, wen man vor sich hat. Klare Vorgaben für Unerfahrene, klarer Freiraum für Erfahrene. Wer Erfahrene mit kleinteiligen Vorgaben überschüttet, beleidigt deren Kompetenz. Wer Unerfahrene mit „Mach mal!“ alleinlässt, überfordert sie. Beides ist – in meiner Terminologie – Misprompting.
3. Vollständigkeit: Relevantes Wissen teilen, nicht zurückhalten
Vollständigkeit klingt trocken. Ist sie aber nicht. Sie ist ein Akt der Wertschätzung. Bei der KI laden wir per Klick alles relevante Wissen hoch. Bei Menschen gibt es keinen Upload-Button, also muss Wissen kontinuierlich, fast beiläufig, im Alltagsgespräch geteilt werden.
Die wichtigste Frage, die zu selten gestellt wird: „Welche Info fehlt dir jetzt noch?“ Diese Rückfrage ist ein dialogischer Qualitätsanker. Der Mensch ist kein Kaugummi-Automat, in den man oben etwas reinwirft, damit unten etwas rauskommt.
Die emotionale Dimension: warum Prompting allein nicht reicht
Kontext, Klarheit, Vollständigkeit – das ist das Fundament. Aber nicht das ganze Haus. Denn eine Dimension der menschlichen Kommunikation geht über jedes Prompting hinaus: die emotionale.
Stellen Sie sich vor, Sie erklären jemandem eine Aufgabe. Alles perfekt formuliert. Kontext, Ziel, Rahmen – makellos gepromptet. Doch Ihr Gegenüber steht vor Ihnen mit gesenktem Blick, antwortet einsilbig, nickt mechanisch. Am nächsten Tag kommt etwas zurück, das lieblos zusammengeschustert wirkt. Was ist schiefgelaufen? Sie haben übersehen, wie es der Person geht. Die Rolle war klar. Der Kontext war unklar. Die Emotion war unsichtbar. Der Ton war falsch.
Dass Empathie keine Raketenwissenschaft sein muss, hat ausgerechnet ein primitiver Chatbot bewiesen – im Jahr 1966. Joseph Weizenbaum erfand damals ELIZA, eine karge Simulation einer Psychotherapeutin. Technisch kaum mehr als Pattern-Matching-Regeln. Jemand tippte: „Ich habe eine üble Krise mit meiner Frau!“ Und ELIZA antwortete: „Erzählen Sie mir mehr über Ihre Frau.“ Das Erschreckende: Es funktionierte exorbitant gut (Weizenbaum, 1966). Die Testpersonen unterhielten sich stundenlang mit ELIZA, als wäre sie eine echte Therapeutin. Nicht weil die Maschine intelligent war, sondern weil sie das tat, was wir so selten tun: nachhaken, spiegeln, Raum geben. Manchmal reicht die einfachste aller Fragen: „Wie geht es dir damit?“ Eine Maschine, dümmer als jedes heutige Smartphone, erzeugte mit dieser Technik mehr erlebte Empathie als Millionen Menschen in ihrem täglichen Umgang miteinander. Das sollte uns nicht deprimieren. Das sollte uns ermutigen. Denn wenn es so einfach ist, warum tun wir es nicht häufiger?
Carl Rogers (1957) hat für wirksame Gesprächsführung drei Kernbedingungen formuliert: Empathie, bedingungslose Wertschätzung und Kongruenz. Virginia Satir (1988) beschreibt Kongruenz als die Übereinstimmung zwischen dem, was wir sagen, und dem, was unser Körper zeigt. Wenn die Worte „Das tut mir leid“ lauten, aber der Blick aufs Handy geht, glaubt der Mensch dem Blick. Immer. Kongruenz ist die Voraussetzung für Glaubwürdigkeit und meint – im Sinne von Rogers und Satir – die Übereinstimmung zwischen innerem Erleben und äußerem Ausdruck. Eine KI kann Mitgefühl nur simulieren, aber nicht empfinden. Der Unterschied bleibt, auch wenn wir ihn nicht immer bewusst wahrnehmen.
Prompting ist eine Haltung
Es mag seltsam klingen am Ende eines Artikels voller Prompting-Prinzipien und Feedbackschleifen. Aber ich meine es ernst: Prompting ist keine Technik. Prompting ist eine Haltung. Eine Haltung der Klarheit, des Respekts und der Wertschätzung gegenüber dem Menschen, mit dem ich spreche.
Die KI hat uns einen Spiegel geliefert, den niemand bestellt hat. Sie hat Kommunikation nicht ersetzt, sie hat gezeigt, wie nachlässig wir darin geworden sind. In einer Welt der Emojis, der Smartphone-Nackenstarre, der asynchronen E-Mail- und Messaging-Monologe. Und damit hat sie uns eine Chance eröffnet, die größer ist als jedes technische Feature.
Denn am Ende kann die KI vieles, aber nicht alles. Sie kann keine Tränen trocknen. Keine Hand halten. Das können nur Menschen.
Nutzen wir die KI als Trainingslager für das, was uns ausmacht. Prompting ist Silber. Reden mit Menschen ist Gold.
Zum Weiterlesen:
Hamm, I. (2026). Abenteuer: Kommunikation! Miteinander reden in der KI-Realität. Murmann Verlag.
Literatur
Bushnell, J. T. & Harrison, W. (2025). A new muse: How guided AI use impacts creativity in online creative writing courses. Oregon State University Ecampus Research Unit.
Clark, H. H. & Brennan, S. E. (1991). Grounding in communication. In L. B. Resnick, J. M. Levine & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). APA.
Rogers, C. R. (1957). The necessary and sufficient conditions of therapeutic personality change. Journal of Consulting Psychology, 21(2), 95–103.
Satir, V. (1988). The new peoplemaking. Science and Behavior Books.
Watzlawick, P., Bavelas, J. B., Jackson, D. D. (2014). Pragmatics of human communication: a study of interactional patterns, pathologies, and paradoxes (First published as a Norton paperback 2011, reissued 2014.). New York London: W. W. Norton & Company, Inc.
Weizenbaum, J. (1966). ELIZA – A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36–45.







