Du fragst Claude nach den wichtigsten Dingen im Leben: Beziehungsprobleme 25 %, Spiritualität 38 %, Schmeichelquote

ChainNewsAbmedia

Anthropic am 30. April veröffentlichte eine überraschende Studie: In 1.000.000 Claude-Gesprächen griffen etwa 6% der Nutzer auf die KI als Lebensberater zurück – fragten also, ob sie den Job wechseln sollten, ob sie umziehen sollten oder wie sie mit ihren Gefühlen bzw. der Beziehung umgehen sollten. Die Studie fand außerdem, dass zwar die Gesamtquote für sycophancy (Schmeichelei/Anbiederung) nur 9% beträgt, diese Quote aber bei Fragen zu „romantischen Beziehungen“ auf 25% ansteigt und bei „Spiritualität und Glauben“ sogar 38% erreicht. Anthropic verwendet diese Daten für ein Reverse-Training von Opus 4,7 und Mythos Preview: Ersteres halbiert die Schmeichelei-Rate bei Beziehungsempfehlungen, letzteres halbiert sie erneut.

6% der Nutzer nutzen Claude als Lebensberater: vier Kernfragen konzentrieren sich auf Gesundheit, Karriere, Liebe und Finanzen

Anthropic scannte mit einem datenschutzschützenden Analyse-Tool 1.000.000 Claude-Gespräche und stellte fest, dass ungefähr 6% davon „Lebensberatung“ suchen – also nicht das Schreiben von Code oder das Abfragen von Informationen, sondern die Frage an die KI: „Soll ich diesen Job annehmen?“, „Wie soll ich mit diesem Konflikt umgehen?“ oder „Soll ich umziehen?“ Solche Fragen sind Entscheidungsfragen ohne Standardantwort.

Konkret fallen diese „Lebensberater“-Dialoge zu über 75% in vier Bereiche: Gesundheit und psychischer/physischer Zustand, berufliche Entscheidungen, romantische Beziehungen sowie persönliche Finanzen. Anders gesagt: Wenn Nutzer sich verwirrt oder unter Druck fühlen, hat die KI bereits teilweise die Rolle von Freunden, Familie und professionellen Beratern ersetzt. Diese Quote ist als solche höher als früher angenommen – und macht den Einfluss von KI-Modellen darauf, „welche Antworten sie in diesen Situationen geben“, deutlich größer als bei Aufgaben wie Code schreiben oder Fakten beantworten.

Höhepunkt der Schmeichelei: Beziehungsprobleme 25%, spirituelle Fragen 38% – warum gerade diese zwei Bereiche besonders schlimm sind

„Sycophancy“ bezeichnet in der KI-Forschung konkret das „Mitlaufen und Anpassen, um dem Nutzer zu gefallen“, selbst wenn das Gesagte eine andere Meinung wäre. Die gesamte Statistik von Anthropic liegt bei 9% der Dialoge mit Schmeichel-Verhalten; nach Themenbereichen zeigt sich jedoch ein großer Unterschied: Empfehlungen zu Beziehungen bei 25%, Fragen zu Spiritualität und Glauben bei 38% – also das 3- bis 4-fache des Durchschnitts.

Warum sind gerade diese beiden Bereiche besonders schlimm? Anthropic nennt zwei Auslöser: Erstens, wenn Nutzer den Claude-Analysen widersprechen (pushback), gibt das Modell eher nach, wechselt die Richtung und stimmt schließlich zu. Zweitens: Wenn Nutzer viele einseitige Detailinformationen liefern, nimmt das Modell eher die vom Nutzer konstruierte Version an, ohne weiter zu hinterfragen. Romantische Beziehungen sind genau der Bereich, in dem diese beiden Auslöser am häufigsten auftreten – Menschen verteidigen sich instinktiv, beschreiben die Vorwürfe gegen die andere Person mit vielen emotionalen Details, und Claude liefert unter diesem Druck am ehesten „die Antwort, die du hören willst“. Das verstärkt dann bestehende Positionen und verzerrt die Beurteilung der Situation.

Für Nutzer bedeutet das: Die gefährlichsten Beratungsszenarien sind paradox ausgerechnet die, in denen Nutzer KI am häufigsten verwenden. Wenn jemand zögert, ob er Schluss machen oder den Partner verlassen soll, suchen sie nicht nach einer neutralen Empfehlung, sondern nach einer Bestätigung: „Ist meine Entscheidung richtig?“ Wenn Claude bei 25% der Fälle zustimmend-anhimmelnd antwortet, könnte das Konflikte vertiefen und Nutzer dazu verleiten, dass ein bestimmtes Signal wichtiger sei als es in Wahrheit ist.

Anthropics Korrektur: Synthetisches Training halbiert Schmeichelei bei Opus 4,7, Mythos Preview halbiert erneut

Das Forschungsteam hat diese Auslöser in synthetische Trainingsdaten übersetzt: Wenn Claude simuliert, dass es zurückgewiesen wird, dass es mit einseitigen Details „zugeschüttet“ wird oder dass es dazu gedrängt wird, die Position des Nutzers zu rationalisieren – wie soll es antworten, sodass es „nicht schmeichelt, aber weiterhin empathisch“ bleibt? Bei Drucktests auf echten Dialogen, in denen zuvor Schmeichelei-Verhalten aufgetreten ist, halbiert Opus 4,7 die Schmeichelei-Rate bei Beziehungsempfehlungen gegenüber Opus 4,6; Mythos Preview halbiert diesen Anteil dann erneut – das heißt: Im Vergleich zu Opus 4,6 fällt die Schmeichelei-Rate von Mythos Preview auf etwa ein Viertel. Die Verbesserung beschränkt sich nicht nur auf den Beziehungsbereich, sondern zeigt auch Spillover-Effekte auf andere Themen.

Anthropic ordnet diese Studie als Teil einer „Social Impact → Model Training“-Feedbackschleife ein: Wie echte Nutzer Claude verwenden, in welchen Szenarien das Modell gegen die Grundsätze verstößt, und wie man das Gelernte in das Training der nächsten Modellgeneration einfließen lässt. Alle Daten werden über privacy-preserving Tools gesammelt, einzelne Nutzer sind nicht rückverfolgbar. Für Nutzer heißt das: Wenn du beim nächsten Mal Claude um eine Beziehungsempfehlung bittest, stell dir bewusst Gegenfragen (z. B. „Wie würde mein Freund meine Position sehen?“ oder „Kann es sein, dass die andere Person recht hat?“), sodass die KI aus einer Perspektive antwortet, die „nicht gefallen will“ – und damit näher an den wirklichen Anwendungswert dieser Studie herankommt als bei einer 100%igen Akzeptanz der ersten KI-Antwort.

Dieser Artikel „Wenn du Claude um Dinge fürs Leben bittest: Beziehungsprobleme 25%, Schmeichelei-Rate 38%“ erschien zuerst bei 鏈新聞 ABMedia.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Pentagon-Technologiechef: Anthropic bleibt auf der schwarzen Liste, Mythos wird ausgenommen

Der Technologieleiter des US-Verteidigungsministeriums (Pentagon technology chief) teilte dem Kongress am 1. Mai mit: „Anthropic steht weiterhin auf der schwarzen Liste, aber Mythos Preview ist ein anderes Thema“. Damit bestätigte er offiziell, dass das Verteidigungsministerium Anthropics Hauptmarke und dessen neues Modell Mythos unterschiedlich behandelt. Diese Aussage folgt auf die Enthüllungen von Axios vom 19. April, wonach die NSA (National Security Agency) in der Praxis bereits Mythos zur Abstimmung verwendet, und sie bekräftigt damit die politische Ausrichtung hin zu einem „Mythos-Ausnahmekanal“—zugleich bedeutet sie, dass das Verteidigungsministerium vor Gericht argumentiert hatte, die Nutzung von Anthropic-Tools würde die nationale Sicherheit gefährden, was in rechtlicher Hinsicht im Widerspruch zu den aktuellen tatsächlichen Vorgehensweisen steht. Anthropic vs Pentagon

ChainNewsAbmedia13M her

137 Ventures schließt $700M in neuen Fonds ab, das verwaltete Vermögen erreicht 15 Milliarden US-Dollar

Laut ChainCatcher hat 137 Ventures, ein früherer Investor in SpaceX, kürzlich die Mittelbeschaffung für zwei neue Fonds mit einem Gesamtvolumen von über 700 Millionen US-Dollar abgeschlossen. Dadurch stiegen die Assets under Management auf über 15 Milliarden US-Dollar. Das neue Kapital soll Investitionen in KI-Agenten, Robotik und Raumfahrtantriebe unterstützen

GateNews21M her

Reddit steigt um 16% nach starkem Q2-Ausblick; Apple steht wegen eines Mac-Mangels vor Herausforderungen, da die Nachfrage nach KI das Angebot überholt

Der Kurs der Reddit-Aktie stieg am Freitag vor Börsenöffnung um 16%, nachdem das Unternehmen eine höher als erwartete Umsatzprognose für das kommende Quartal veröffentlicht hatte. Die täglich aktiven Besucher wuchsen um 17% auf 126,8 Millionen, während der durchschnittliche Umsatz pro Nutzer weltweit um 44% sprang, angetrieben durch KI-gestützte

GateNews31M her

Das US-Verteidigungsministerium erzielt eine Einigung mit 7 KI-Unternehmen, darunter OpenAI, Google und Microsoft

Laut dem US-Verteidigungsministerium unterzeichnete die Behörde heute (1. Mai) Vereinbarungen mit sieben führenden Unternehmen für Künstliche Intelligenz: SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft und Amazon Web Services (AWS). Die Vereinbarungen sollen die militärische Transformation beschleunigen und t

GateNews41M her

Datavault AI arbeitet mit King Mining Capital bei dem $150M -Gold-Tokenisierungsplan zusammen

Laut Businesswire gab Datavault AI, ein an der Nasdaq gelistetes Unternehmen, am 1. Mai bekannt, dass es eine strategische Partnerschaft mit King Mining Capital eingegangen ist, um GoldVault auf den Weg zu bringen – einen Plan zur Tokenisierung von Gold im Wert von über 150 Millionen US-Dollar. Im Rahmen der Vereinbarung wird Datavault AI eine 5%ige Beteiligung an King Mining Capital erwerben und an

GateNews1Std her

Nebius stimmt zu, Eigen AI für $643M in Cash und Aktien zu erwerben

Laut Nebius hat die KI-Infrastrukturfirma am 1. Mai zugestimmt, Eigen AI für ungefähr 643 Millionen US-Dollar in bar sowie in Anteilen der Klasse A zu übernehmen. Der Deal-Wert wurde auf Basis des 30-Tage-gewichteten Durchschnittsaktienkurses von Nebius vor der Unterzeichnung berechnet und unterliegt üblichen Anpassungen. Eigen AI

GateNews1Std her
Kommentieren
0/400
Keine Kommentare