„Systematische Verzerrungen“: KI-Antworten stark von Sprache der Frage beeinflusst | Nr. 6888
NEWS Podcast - Ein Podcast von Epoch Times Deutschland - Freitags
Wird ChatGPT auf Arabisch nach der Anzahl getöteter Zivilisten im Nahostkonflikt gefragt, gibt es deutlich höhere Opferzahlen an als bei derselben Frage auf Hebräisch, wie eine neue Studie der Universitäten Zürich und Konstanz zeigt. Diese systematischen Verzerrungen können Vorurteile in bewaffneten Konflikten verstärken und Informationsblasen befeuern.