„Systematische Verzerrungen“: KI-Antworten stark von Sprache der Frage beeinflusst | Nr. 6888

NEWS Podcast - Ein Podcast von Epoch Times Deutschland - Freitags

Wird ChatGPT auf Arabisch nach der Anzahl getöteter Zivilisten im Nahostkonflikt gefragt, gibt es deutlich höhere Opferzahlen an als bei derselben Frage auf Hebräisch, wie eine neue Studie der Universitäten Zürich und Konstanz zeigt. Diese systematischen Verzerrungen können Vorurteile in bewaffneten Konflikten verstärken und Informationsblasen befeuern.