Die KI rät
Von Ronald Weber
Was sagt denn Cem Özdemir zum Krieg in der Ukraine? Und ist Markus Frohnmaier wirklich so rechts, wie manche behaupten? So oder so ähnlich könnten Fragen lauten, die den gängigen Sprachlernmodellen im Vorfeld der kommenden Landtagswahlen in Baden-Württemberg gestellt werden. Dass die Antworten von Gemini, Chat-GPT oder Copilot nicht immer korrekt ausfallen, darauf hat schon im vergangenen Sommer eine Studie von »Algorithm Watch« aufmerksam gemacht, die die Richtigkeit der Antworten von Chatbots im Vorfeld der Landtagswahlen in Thüringen, Sachsen und Brandenburg testete. Das Ergebnis: Angaben waren häufig falsch. Und: Wenn der Prompt bereits die politische Einstellung des Fragenden verrät, wird diese in der Regel bestärkt.
Dass Chatbots auch in der Lage scheinen, Wählerinnen und Wähler, die politisch festgelegt sind, von einem anderen Kandidaten zu überzeugen, zeigt eine Studie, die jüngst im Fachjournal Nature veröffentlicht wurde. Im Vorfeld der Präsidentschaftswahlen in den USA 2024 wurde 2.300 nach dem Zufallsprinzip ausgewählten Teilnehmern aufgetragen, mit einem Chatbot zu sprechen, der entweder für den republikanischen Kandidaten Donald Trump oder die Kandidatin der Demokraten, Kamala Harris, warb. Tatsächlich veränderten sich die Präferenzen der Wählerinnen und Wähler dabei deutlicher als erwartet: Auf einer 100-Punkte-Skala ließen sich potentielle Trump-Wähler um 3,9 Punkte in Richtung Harris bewegen, umgekehrt waren es bei potentiellen Harris-Wählern 1,5 Punkte in Richtung Trump. Das Experiment wurde bei den kanadischen Unterhauswahlen und den polnischen Präsidentschaftswahlen 2025 mit 1.530 bzw. 2.118 Menschen wiederholt, wobei sich Veränderungen um bis zu zehn Prozentpunkte zeigten. Die Ergebnisse sind nicht nur deshalb bemerkenswert, weil die Forschung politischer Werbung eine geringe Überzeugungskraft zuschreibt und politische Meinungen als relativ stabil gelten. Interessant ist auch, dass die KI die Probanden vor allem durch eine große Anzahl von Fakten überzeugte.
Und wie ist es um deren Qualität bestellt? Bereits im Oktober machte eine Studie der Europäischen Rundfunkunion darauf aufmerksam, dass jede dritte Antwort einer KI faktisch falsch sei. Eine Studie im Fachmagazin Science legt nun dar, dass gerade die KI-Chatbots, die mit möglichst vielen Fakten arbeiten, am überzeugendsten seien. Hier gebe es aber auch die meisten Fehler. Die Quote lag zwischen 16 und 30 Prozent.
Friedenspropaganda statt Kriegsspielzeug
Mit dem Winteraktionsabo bieten wir denen ein Einstiegsangebot, die genug haben von der Kriegspropaganda der Mainstreammedien und auf der Suche nach anderen Analysen und Hintergründen sind. Es eignet sich, um sich mit unserer marxistisch-orientierten Blattlinie vertraut zu machen und sich von der Qualität unserer journalistischen Arbeit zu überzeugen. Und mit einem Preis von 25 Euro ist es das ideale Präsent, um liebe Menschen im Umfeld mit 30 Tagen Friedenspropaganda zu beschenken.
links & bündig gegen rechte Bünde
Jetzt den kostenlosen jW-Newsletter abonnieren – täglich das Beste aus der Tageszeitung junge Welt, direkt in Ihr Postfach. Ihre E-Mail-Adresse wird natürlich niemals an Dritte weitergegeben.
-
Leserbrief von Onlineabonnent/in Heinrich H. aus Stadum (9. Dezember 2025 um 22:00 Uhr)Hier ein illustratives Beispiel, welchen Käse die (Google-)KI produziert. Frage: »wärmeübergangskoeffizient hartglas«, Teil der Antwort: »Der Wärmeübergangskoeffizient (h) beschreibt den Wärmeaustausch an einer Oberfläche (z. B. Glas zu Luft) und ist wichtig für die Gesamtdämmung, aber für die Fenstereffizienz ist der Wärmedurchgangskoeffizient (U-Wert) wichtiger, der den Wärmeverlust durch die gesamte Verglasung misst.« Die KI weiss also besser als ich, was ich wissen will. Die Hausnummer, die ich suchte, ist nirgendwo im (fehlerhaften) Text zu finden. Also greife ich zu »Physik für technische Berufe« aus dem Jahr 1975 und finde auf Seite 214, was ich suche.
- Antworten
Mehr aus: Natur & Wissenschaft
-
Einzäunen hilft nicht
vom 09.12.2025