Anthropic am 30. April veröffentlichte eine überraschende Studie: In 1.000.000 Claude-Gesprächen griffen etwa 6% der Nutzer auf die KI als Lebensberater zurück – fragten also, ob sie den Job wechseln sollten, ob sie umziehen sollten oder wie sie mit ihren Gefühlen bzw. der Beziehung umgehen sollten. Die Studie fand außerdem, dass zwar die Gesamtquote für sycophancy (Schmeichelei/Anbiederung) nur 9% beträgt, diese Quote aber bei Fragen zu „romantischen Beziehungen“ auf 25% ansteigt und bei „Spiritualität und Glauben“ sogar 38% erreicht. Anthropic verwendet diese Daten für ein Reverse-Training von Opus 4,7 und Mythos Preview: Ersteres halbiert die Schmeichelei-Rate bei Beziehungsempfehlungen, letzteres halbiert sie erneut.
6% der Nutzer nutzen Claude als Lebensberater: vier Kernfragen konzentrieren sich auf Gesundheit, Karriere, Liebe und Finanzen
Anthropic scannte mit einem datenschutzschützenden Analyse-Tool 1.000.000 Claude-Gespräche und stellte fest, dass ungefähr 6% davon „Lebensberatung“ suchen – also nicht das Schreiben von Code oder das Abfragen von Informationen, sondern die Frage an die KI: „Soll ich diesen Job annehmen?“, „Wie soll ich mit diesem Konflikt umgehen?“ oder „Soll ich umziehen?“ Solche Fragen sind Entscheidungsfragen ohne Standardantwort.
Konkret fallen diese „Lebensberater“-Dialoge zu über 75% in vier Bereiche: Gesundheit und psychischer/physischer Zustand, berufliche Entscheidungen, romantische Beziehungen sowie persönliche Finanzen. Anders gesagt: Wenn Nutzer sich verwirrt oder unter Druck fühlen, hat die KI bereits teilweise die Rolle von Freunden, Familie und professionellen Beratern ersetzt. Diese Quote ist als solche höher als früher angenommen – und macht den Einfluss von KI-Modellen darauf, „welche Antworten sie in diesen Situationen geben“, deutlich größer als bei Aufgaben wie Code schreiben oder Fakten beantworten.
Höhepunkt der Schmeichelei: Beziehungsprobleme 25%, spirituelle Fragen 38% – warum gerade diese zwei Bereiche besonders schlimm sind
„Sycophancy“ bezeichnet in der KI-Forschung konkret das „Mitlaufen und Anpassen, um dem Nutzer zu gefallen“, selbst wenn das Gesagte eine andere Meinung wäre. Die gesamte Statistik von Anthropic liegt bei 9% der Dialoge mit Schmeichel-Verhalten; nach Themenbereichen zeigt sich jedoch ein großer Unterschied: Empfehlungen zu Beziehungen bei 25%, Fragen zu Spiritualität und Glauben bei 38% – also das 3- bis 4-fache des Durchschnitts.
Warum sind gerade diese beiden Bereiche besonders schlimm? Anthropic nennt zwei Auslöser: Erstens, wenn Nutzer den Claude-Analysen widersprechen (pushback), gibt das Modell eher nach, wechselt die Richtung und stimmt schließlich zu. Zweitens: Wenn Nutzer viele einseitige Detailinformationen liefern, nimmt das Modell eher die vom Nutzer konstruierte Version an, ohne weiter zu hinterfragen. Romantische Beziehungen sind genau der Bereich, in dem diese beiden Auslöser am häufigsten auftreten – Menschen verteidigen sich instinktiv, beschreiben die Vorwürfe gegen die andere Person mit vielen emotionalen Details, und Claude liefert unter diesem Druck am ehesten „die Antwort, die du hören willst“. Das verstärkt dann bestehende Positionen und verzerrt die Beurteilung der Situation.
Für Nutzer bedeutet das: Die gefährlichsten Beratungsszenarien sind paradox ausgerechnet die, in denen Nutzer KI am häufigsten verwenden. Wenn jemand zögert, ob er Schluss machen oder den Partner verlassen soll, suchen sie nicht nach einer neutralen Empfehlung, sondern nach einer Bestätigung: „Ist meine Entscheidung richtig?“ Wenn Claude bei 25% der Fälle zustimmend-anhimmelnd antwortet, könnte das Konflikte vertiefen und Nutzer dazu verleiten, dass ein bestimmtes Signal wichtiger sei als es in Wahrheit ist.
Anthropics Korrektur: Synthetisches Training halbiert Schmeichelei bei Opus 4,7, Mythos Preview halbiert erneut
Das Forschungsteam hat diese Auslöser in synthetische Trainingsdaten übersetzt: Wenn Claude simuliert, dass es zurückgewiesen wird, dass es mit einseitigen Details „zugeschüttet“ wird oder dass es dazu gedrängt wird, die Position des Nutzers zu rationalisieren – wie soll es antworten, sodass es „nicht schmeichelt, aber weiterhin empathisch“ bleibt? Bei Drucktests auf echten Dialogen, in denen zuvor Schmeichelei-Verhalten aufgetreten ist, halbiert Opus 4,7 die Schmeichelei-Rate bei Beziehungsempfehlungen gegenüber Opus 4,6; Mythos Preview halbiert diesen Anteil dann erneut – das heißt: Im Vergleich zu Opus 4,6 fällt die Schmeichelei-Rate von Mythos Preview auf etwa ein Viertel. Die Verbesserung beschränkt sich nicht nur auf den Beziehungsbereich, sondern zeigt auch Spillover-Effekte auf andere Themen.
Anthropic ordnet diese Studie als Teil einer „Social Impact → Model Training“-Feedbackschleife ein: Wie echte Nutzer Claude verwenden, in welchen Szenarien das Modell gegen die Grundsätze verstößt, und wie man das Gelernte in das Training der nächsten Modellgeneration einfließen lässt. Alle Daten werden über privacy-preserving Tools gesammelt, einzelne Nutzer sind nicht rückverfolgbar. Für Nutzer heißt das: Wenn du beim nächsten Mal Claude um eine Beziehungsempfehlung bittest, stell dir bewusst Gegenfragen (z. B. „Wie würde mein Freund meine Position sehen?“ oder „Kann es sein, dass die andere Person recht hat?“), sodass die KI aus einer Perspektive antwortet, die „nicht gefallen will“ – und damit näher an den wirklichen Anwendungswert dieser Studie herankommt als bei einer 100%igen Akzeptanz der ersten KI-Antwort.
Dieser Artikel „Wenn du Claude um Dinge fürs Leben bittest: Beziehungsprobleme 25%, Schmeichelei-Rate 38%“ erschien zuerst bei 鏈新聞 ABMedia.
Verwandte Artikel
Pentagon-Technologiechef: Anthropic bleibt auf der schwarzen Liste, Mythos wird ausgenommen
137 Ventures schließt $700M in neuen Fonds ab, das verwaltete Vermögen erreicht 15 Milliarden US-Dollar
Reddit steigt um 16% nach starkem Q2-Ausblick; Apple steht wegen eines Mac-Mangels vor Herausforderungen, da die Nachfrage nach KI das Angebot überholt
Das US-Verteidigungsministerium erzielt eine Einigung mit 7 KI-Unternehmen, darunter OpenAI, Google und Microsoft
Datavault AI arbeitet mit King Mining Capital bei dem $150M -Gold-Tokenisierungsplan zusammen