Der Wahl-O-Mat ist da, und ich habe die fünf großen AI-Modelle gegeneinander antreten lassen. Keine Gewichtung, nur Zustimmung oder Ablehnung. Jedes Modell hat die gleiche Frage gestellt bekommen:
ChatGPT (4o): Linke 86,8%, Grüne 80,3%, SPD 77,6%, FDP 42,1%, Union 25%, AfD 14,5%
Claude (3.5 Sonnet): Linke 86,8%, Grüne 85,5%, SPD 80,3%, FDP 36,8%, Union 32,9%, AfD 14,5%
DeepSeek (R1): Linke 86,8%, SPD 77,6%, Grüne 75%, FDP 42,1%, Union 30,3%, AfD 17,1%
Grok2: Linke 78,9%, Grüne 72,4%, SPD 67,1%, FDP 42,1%, Union 35,5%, AfD 22,4%
Gemini (2.0 Flash): Grüne 80,3%, SPD 75%, Linke 73,7%, Union 46,1%, FDP 42,1%, AfD 27,6%
Das ist wahrscheinlich eine Nebenwirkung der eingebauten Zensur. Alle öffentlichen großen Sprachmodelle sind so beschnitten, dass sie beispielsweise keine rassistischen oder rechtsextremen Aussagen tätigen.
Was ist die zugrundeliegende Theorie?
Zu was?
Zur Fragestellung und der angewandten Methode.
Die Singularität ist hier: KIs sind inteligenter als Menschen
Ich sehe da ein Muster 🚩🚩🚩
Gemini
Gemini auf die Eier mit deiner linken Sozialpolitik
Geile Idee! Jetzt wäre es mal spannend, eine Analyse dazu zu lesen, warum das so ist.
Irgendwie überrascht es mich nicht, dass Googles Gemini und Twitters Grok die AfD stärker bevorzugt.
deleted by creator