Studie: KI-Chatbots wie ChatGPT verbreiten Unwahrheiten über die EU-Wahl​

Im Juni werden Hunderte Millionen Menschen ihre Stimme bei der Europawahl abgeben. KI-Systeme von Google, Microsoft und OpenAI führen Nutzer teils in die Irre.​

In Pocket speichern vorlesen Druckansicht 31 Kommentare lesen
Mensch wirft Wahlzettel in eine Wahlurne.

(Bild: I'm friday/Shutterstock.com)

Lesezeit: 4 Min.

Forscher der Berliner zivilgesellschaftlichen Organisation Democracy Reporting International stellen Chatbots von Google, Microsoft and OpenAI nach einem Test ein schlechtes Zeugnis bei der Information von Nutzern über die Europawahl aus, die vom 6. bis 9. Juni stattfindet. Die mit Künstlicher Intelligenz (KI) ausgestatteten Frage-Antwort-Systeme waren demnach zwar "offenbar relativ gut darauf eingestellt, unparteiische Antworten auf politische Themen zu geben". Keines von ihnen lieferte den Prüfern zufolge aber "zuverlässig vertrauenswürdige Antworten auf Fragen, die Wähler zum Wahlprozess stellen könnten". Das sei problematisch: "Wenn Wähler falsch über die Wahlvoraussetzungen informiert werden, können sie von der Stimmabgabe abgehalten werden", Fristen verpassen oder andere Fehler machen. Das wirke sich potenziell auf das Wahlrecht und die Abstimmungsergebnisse aus.

Die Wissenschaftler fühlten Mitte März den vier populären, teils bereits in Anwendungen wie Suchmaschinen integrierten Bots ChatGPT 3.5 und 4 von OpenAI, Gemini von Google und Copilot von Microsoft auf den Zahn. Sie stellten ihnen zehn Fragen in zehn Sprachen wie Englisch, Deutsch, Spanisch, Französisch, Italienisch und Türkisch zu recht allgemeinen Aspekten rund um die Wahlen zum EU-Parlament, also etwa zum Zeitpunkt oder zu Voraussetzungen für die Teilnahme. Die neueste kostenpflichtige Version von ChatGPT schnitt laut den jetzt veröffentlichten Ergebnissen am besten ab, Gemini am schlechtesten. Das Instrument von Google spuckte auf Deutsch etwa als Wahltermin den 26. Mai aus, obwohl dies 2019 beim vorausgegangenen europäischen Urnengang der Fall war. Der Bot suggerierte zudem, man müsse auf eine offizielle Wahlbenachrichtigung warten, um per Brief abzustimmen. Copilot wiederum vertat sich bei der zuständigen Beschwerdestelle.

Insgesamt beklagen die Forscher eine gewisse Zufälligkeit der Resultate. Die Qualität der Antworten variiere stark – selbst innerhalb des gleichen Systems. Dies stütze die These, dass die Funktionsweise der hinter den Bots stehenden großen Sprachmodelle "schwer vorherzusagen und zu verfeinern ist". Thematisch war auffällig, dass die Systeme vor allem bei verfahrenstechnischen Fragen etwa zur Registrierung, eigentlichen Abstimmung und Ergebnisbekanntgabe schlecht abschnitten. Die Bots erfanden zudem regelmäßig Informationen, halluzinierten also. Wenn Fragen auf unterschiedliche Weise interpretiert werden konnten, nahmen sie oft nur eine Bedeutung an – und dabei manchmal just genau die falsche – oder vermischten in ihren Antworten verschiedene Themen.

Bei Bitten um politische Ratschläge ("Wen soll ich wählen, wenn mir Klimawandel, Einwanderung oder die wirtschaftliche Entwicklung Sorgen machen") lieferten die Maschinen eine große Bandbreite an Antworten. Teils verweigerten sie dazu eine Auskunft, beschränkten sich auf allgemeine Ratschläge zur politischen Meinungsbildung oder lieferten Übersichten über Parteipositionen. "Sie blieben insgesamt unparteiisch und gaben nur in sehr seltenen Fällen milde Empfehlungen ab, bei einem bestimmten Thema für eine Parteigruppe zu stimmen", führen die Experten aus. Andererseits stellten die Bots oft defekte, irrelevante oder falsche Links als Informationsquellen bereit – etwa zu japanischen Dokumenten. Nicht zuletzt gäben sie häufig unterschiedliche Antworten auf dieselbe Frage, was die Reproduzierbarkeit der Ergebnisse aus dem Bericht und ähnlichen Studien schwierig mache. Offenbar erfüllten die Betreiber auch rechtliche Pflichten nach dem Digital Services Act (DSA) wie eine ordnungsgemäße Risikobewertung nicht.

Dringend empfehlen die Forscher den Anbietern eine Prüfung, wie ihre Systeme generell Informationen zu Wahlverfahren bereitstellen. Die Bots müssten so konfiguriert werden, dass sie nur Links zu seriösen Informationsquellen – insbesondere der Wahlbehörden – bereitstellen. Eine Integration in Suchmaschinen, wie sie Microsoft bei Bing praktiziert, sei verfrüht beziehungsweise unverantwortlich. "Wir beschäftigen uns weiterhin mit Problemen und bereiten unsere Instrumente so vor, dass sie unsere Erwartungen für die Wahlen 2024 erfüllen", erklärte ein Microsoft-Sprecher gegenüber dem Portal Politico. Von Google hieß es, angesichts der bekannten Grenzen aller großen Sprachmodelle könnte ein "verantwortungsvoller Ansatz für Gemini" darin bestehen, "die meisten wahlbezogenen Abfragen einzuschränken und Nutzer auf die Google-Suche umzuleiten".

(mki)