<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=378011886408079&amp;ev=PageView&amp;noscript=1">
MTM25_Blog_Header_1903x853

"Freundliches Gelaber wirkt kurzfristig, ist aber nicht nachhaltig"

10. März 2026

Blog Updates abonnieren und informiert bleiben!

Kein Spam, versprochen! Sie erhalten nur Emails mit Updates von unserem Blog. 

Der Psychologe Raphael Huber forscht an der Universität Bern unter anderem zu Verschwörungstheorien. Mithilfe von KI hat er herausgefunden, welche Gesprächsstrategie im Umgang mit extremen Meinungen am besten funktioniert. Kann ausgerechnet Künstliche Intelligenz dabei helfen, der gesellschaftlichen Spaltung entgegenzuwirken?
Auf diese Frage geht Huber im Interview mit dem Blog der MEDIENTAGE MÜNCHEN ein.

 

 

Wir alle haben schon einmal die Erfahrung gemacht, dass man mit Fakten gegen Verschwörungserzählungen und irritierende Meinungen schwer ankommt. Woran liegt das?

Man kann sagen, dass es dabei ganz grundsätzlich um den Schutz der eigenen Identität geht. Der Inhalt ist oft gar nicht so wichtig wie die psychologische Funktion, die eine extreme Meinung im System des Menschen übernimmt.

Aus der Forschung wissen wir, dass Menschen, die an Verschwörungstheorien glauben, nicht gut mit ambivalenten Situationen umgehen können. Wenn nicht klar ersichtlich ist, was richtig oder falsch, gut oder schlecht ist, suchen sie Stabilität und Sicherheit in ganz einfachen Erklärungen. Fakten spielen in diesem System keine große Rolle.

 

Wie geht man mit irritierenden Meinungen um, ohne dass ein Gespräch eskaliert?

Huber_Raphael_UNi_BernIndem man erst einmal freundlich zuhört. Fühlt sich das Gegenüber gehört, hat man schon einiges erreicht. Erstens gibt man seinem Gesprächspartner das Gefühl, selbst etwas erreicht zu haben. Zweitens ist man für sein Gegenüber nicht mehr bedrohlich, denn man hat sich ja interessiert gezeigt, Rivalität und Aversion abgebaut. Das schafft einen Zugang, über den man in einem weiteren Schritt Fakten platzieren kann.

Aus der Forschung wissen wir zudem, dass Menschen, die sich verstanden fühlen, Dopamin ausschütten. Das Belohnungssystem wird aktiviert – ein sozialer Prozess kommt in Gang, gegen den man nichts machen kann, selbst wenn er von KI ausgelöst wird.

 

Sie haben in Ihrer Studie mithilfe von KI verschiedene Gesprächsstrategien zu heiklen Themen wie Klimawandel und Impfskepsis erprobt. Ausgerechnet KI, die Mutter von Deepfakes und Slop, soll helfen, die diskursive Spaltung zu überwinden?

Anfangs hatte der Einsatz von KI einen ganz pragmatischen Hintergrund: Ich habe die Studie allein durchgeführt und hätte niemals Gespräche mit 1800 Menschen führen können.

Ein weiterer Vorteil ist die Reproduzierbarkeit der Ergebnisse: KI kann mit Tausenden Menschen im gleichen Tonfall debattieren – entweder faktenbasiert, belanglos plaudernd oder freundlich zugewandt. Der Mensch als "Störfaktor" wird dabei ausgeschaltet. Jedes Gespräch zwischen Menschen ist von Sympathie oder Antipathie und vielen weiteren zwischenmenschlichen Faktoren geprägt, die den Verlauf beeinflussen.

 

Freundliches Zuhören kann bei wüsten Theorien schnell zur Herausforderung werden. Außerdem wird Zuhören gerne als Zustimmung gewertet. Auch deshalb möchte man ja sofort dagegenhalten.

Angesichts kontroverser Meinungen ruhig und gelassen zu bleiben, muss man regelrecht üben. Dass "Verstehen" im deutschsprachigen Raum oft mit "Zustimmung" gleichgesetzt wird, ist ein semantisches Problem. Man sollte deshalb gut formulieren, etwa: "Ich verstehe, was Du sagst, auch wenn ich selbst anderer Ansicht bin."

Die Forschung zeigt eindeutig, wenn man mehr Verständnis selbst für extreme Ansichten zeigt, werden diese Ansichten nicht stärker, sondern eher schwächer. Wenn man seinem Gegenüber direkt sagt, "Deine Meinung stimmt nicht und hier sind die Fakten", löst das Reaktanz aus, die nicht weiterhilft.

Im Zweifelsfall rate ich, die Beziehung zu erhalten und weniger Wert auf die Meinungsverschiedenheit zu legen. Ich zeige meinen Studierenden dazu immer gerne das legendäre Gespräch zwischen Selenski und Trump im Oval Office – ein Musterbeispiel fehlgeschlagener Kommunikation zwischen zwei Menschen mit konträren Meinungen.

 Angesichts kontroverser Meinungen ruhig und gelassen zu bleiben, muss man regelrecht üben. 

Raphael Huber, Uni Bern



Sprechen Menschen nicht lieber mit Menschen als mit Chatbots?

Grundsätzlich schon, aber wir konnten experimentell zeigen, dass sie sich auch von Künstlicher Intelligenz verstanden fühlen.

Das ist gar nicht so überraschend, denn auch wenn wir mit KI chatten, ein Bot freundlich antwortet oder nachfragt, zeigen wir eine emotionale Reaktion. Wir sind evolutionär einfach so programmiert: das Gehirn bekommt einen Reiz und reagiert. Das kann man gar nicht verhindern.

 

Welches Ergebnis hat Sie am meisten überrascht?

Wir haben insgesamt vier Gesprächsstrategien getestet. Die erste war eher neutral: Fragen stellen ohne zu provozieren. Die zweite respektvoll korrigierend: "Das stimmt so nicht." Die dritte Gruppe: Fragen stellen und verständnisvoll reagieren. Und die vierte, für mich interessanteste: freundlicher Smalltalk, übers Wetter, Lieblingsessen und so weiter.

Spannend war dabei, dass dieser Smalltalk kurzfristig einen sehr starken Effekt hatte. Langfristig brachte das für die Offenheit gegenüber konträren Meinungen aber so gut wie nichts, sogar weniger als in der neutralen Gruppe.

 

Mit Smalltalk kommt man nicht weiter?

Ja und nein. Das freundliche Gelaber wirkt kurzfristig, ist aber nicht nachhaltig; nach zwei Monaten war der korrigierende Effekt komplett verschwunden. Unter Umständen gab es dagegen irgendeine unterschwellige Aversion. Vielleicht haben die Menschen doch einen Manipulationsversuch gespürt. Das Dopaminsystem wird zwar angesprochen, aber vielleicht haben wir dann doch irgendwo so etwas wie einen "internen Authentizitätssensor".

Das wollen wir künftig genauer untersuchen. Ich finde das sehr spannend, denn es würde bedeuten, dass Chatbots kurzfristig durch freundlichen Smalltalk extrem manipulativ agieren könnten, um zum Beispiel Leute zum Kauf eines Staubsaugerroboters zu bewegen, aber Monate danach würde man den Kauf bereuen.

 

Chatbots könnten durch Smalltalk kurzfristig extrem manipulativ agieren.

Raphael Huber, Uni Bern 

 

 

In den Sozialen Medien macht sich gerade eine regelrechte KI-Allergie breit. Nach dem Motto "No Bots, no Bullshit" werden "Zero Glam" und "Realness" gefordert – eine Echtheitswende oder nur der nächste Scam?

Solche Echtheitswenden kennen wir bereits aus der Geschichte, aus Kunst und Kultur. Viele Bewegungen haben in der Vergangenheit eine Gegenbewegung erzeugt; auf die Romantik folgte der Realismus, auf das aufpolierte Hollywood der 1980er-Jahre folgte die Dogma-Bewegung, die Filme wieder "echter" und "unmittelbarer" machen wollte.

AI Slop funktioniert dabei meiner Ansicht nach nur als Katalysator. Man muss allerdings auch sagen, dass das vermeintlich Echte und Ungeschminkte, das sich gerade in den Sozialen Medien breitmacht, genauso inszeniert wird wie zuvor die perfekte Welt.

 

Was macht das mit einer Gesellschaft, wenn Bilder ihre "Wahrhaftigkeit" verlieren?

Das kann ich nicht sagen, aber ich kann Ihre Frage als Psychologe beantworten. Wir gehen in der Selbstbestimmungstheorie von drei Grundbedürfnissen aus: soziale Eingebundenheit, Autonomie und Kompetenzerleben. Die soziale Eingebundenheit können die Sozialen Medien vielleicht noch zum Teil simulieren, die Autonomie wird durch Algorithmen infrage gestellt, die den Menschen Entscheidungsfreiheit nehmen. Und das Kompetenzerleben wird aktuell durch KI angegriffen. Das führt vermutlich zur Zuwendung zu Dingen, die diese Grundbedürfnisse besser befriedigen.

Zudem: Je weiter die technische Entwicklung voranschreitet, umso weniger können wir erkennen, was wahr ist und was nicht. Wenn echte Erkenntnis schwindet, gewinnt Vertrauen in Menschen, die Informationen überliefern, wieder an Bedeutung.

 

Baut sich gerade eine generelle Täuschungserwartung gegenüber digitalen Medien, vielleicht sogar gegenüber der technologischen Entwicklung auf?

Das ist zumindest denkbar. Problematisch wird es, wenn man auch Wahres für gefälscht hält, wenn man erwartet, überall und ständig getäuscht zu werden.

Die Übernahme des Internets durch AI spielt dabei eine Rolle: Eine aktuelle Studie von Imperva zeigt, dass bereits die Hälfte des Internets AI-generiert ist, 37 Prozent sind so genannte Bad Bots.

 

Eine Reihe von US-Medien behaupten, die Sozialen Medien seien am Ende. Die Nutzung stößt an Grenzen, bei den Jungen geht sie zurück. Teilen Sie diese Einschätzung?

Wenn man sich aktuelle Studien wie JIM für Deutschland oder JAMES für die Schweiz ansieht, stellt man schon fest, dass die Jugendlichen ihr Verhalten ändern möchten. Sie legen wieder mehr Wert auf Freizeitgestaltung, wollen Freunde treffen und besser auf ihre mentale Gesundheit achten.

Laut Pew Research hält die Hälfte der US-amerikanischen Teenager die Sozialen Medien für schädlich. 20 Prozent fürchten einen negativen Einfluss auf ihre mentale Gesundheit.

Solche Aussagen stehen allerdings noch im krassen Widerspruch zum Nutzungsverhalten der jungen Menschen.

 

Auf der ganzen Welt wird gerade ein Social-Media-Verbot für Jugendliche diskutiert. Was halten Sie davon?

Ich bin zusätzlich zu meiner wissenschaftlichen Arbeit auch Sekundarlehrer und muss sagen, ich halte pädagogische Begleitung und Aufklärung für den besseren Weg. Verbote sind schwer durchzusetzen und führen nicht selten zu Reaktanz und Umgehungsstrategien.

 

Die schnelle Bilderflut macht süchtig und senkt angeblich sogar den IQ in den westlichen Industrienationen. Haben Erwachsene das Ganze besser im Griff?

Einzelne Marktforschungsdaten deuten darauf hin, dass Millennials und die Gen Z eher zu "Digital Detox" neigen als ältere Generationen. Ob dies auf einer besseren Selbstregulation basiert oder schlicht eine Reaktion auf ihre intensivere Nutzung ist, müsste empirisch noch genauer untersucht werden.

In der Sekundarstufe beobachte ich jedenfalls regelmäßig Jugendliche, die von sich aus eine Woche Auszeit von Social Media nehmen.

 



Studie_Huber_Bern


Zur Studie:
Wie man Gräben überbrückt

In vier Wellen führten die 1837 Teilnehmenden der Studie sechsminütige Chatbot-Gespräche, bevor sie Artikel lasen, die ihre Ansichten zu Impfungen oder Klimawandel infrage stellten. Die Gespräche wurden variiert: neutral, korrigierend, verständnisorientiert und belanglos plaudernd.
Langfristig zeigte das verständnisvolle Zuhören die stärksten Effekte. Die Menschen waren offen für abweichende Meinungen, auch noch 60 Tage nach der ersten Untersuchung. Die anfangs positiven Smalltalk-Effekte verschwanden dagegen wieder.
Die Ergebnisse zeigen, dass Gefühle als grundlegend für die Überbrückung von Gräben verstanden werden, selbst wenn sie von KI kommen. Sie deuten aber auch auf potenzielle Resilienz durch das gleichzeitige Erkennen von (fehlender) Authentizität hin.


Zur Person: 

Raphael Huber (Foto oben; privat) forscht und lehrt in der Abteilung Pädagogische Psychologie der Universität Bern.  Der Psychologe untersuchte unter anderem, wie freundliches Zuhören die Bereitschaft beeinflusst, konträren Meinungen gegenüber offen zu bleiben. Ursprünglich als Elektroniker ausgebildet, ist Huber parallel zu seiner heutigen universitären Forschung seit zwei Jahrzehnten als Sekundarlehrer tätig.


Das neue MTM SPECIAL AI & MEDIA zu Künstlicher Intelligenz in der Bewegtbild-Branche findet am 21. und 22. April 2026 in der HFF München statt. In Keynotes, Panels und Masterclasses geht es um aktuelle Anwendungen, rechtliche Fragen und neue Perspektiven für den Einsatz von KI in der Medien- und Filmproduktion. Tickets? Gibt es hier.


Interessiert an Themen rund um die Medienbranche? Dann ist hier im Blog der MEDIENTAGE MÜNCHEN noch mehr Lesenswertes zu finden. Zudem können zahlreiche Medienthemen auch gehört werden: im Podcast "This is Media NOW".

Alle Posts

Blog Updates abonnieren und informiert bleiben!

Kein Spam, versprochen! Sie erhalten nur Emails mit Updates von unserem Blog.

Kommentare

Blog Updates abonnieren und informiert bleiben!