Unsere Worte sind unsere Waffen - was hat das mit künstlicher Intelligenz zu tun, Eva Wolfangel?
she drives mobility - Ein Podcast von Katja Diehl - Sonntags
Kategorien:
Wenn dir diese oder auch eine andere Folge gefällt, lass´ gern eine Bewertung da und/oder supporte mich per Ko-Fi oder PayPal. Meinen wöchentlichen Newsletter gibt es bei steady. Mein zweites Buch „Raus aus der AUTOkratie – rein in die Mobilität von morgen!“ kann ab sofort vorbestellt werden. Ich freue mich, wenn du das machst, denn das hilft nischigen Sachbüchern wie dem meinen, wahrgenommen zu werden. Ihr wisst schon: Kapitalismus – Carpitalism – und dann erst das Paradies für alle. Ich habe grad damit begonnen, für alle Podcasts auch Transkripte bereit zu stellen, auf dass noch mehr Menschen, die nicht so gern hören oder nicht so gut hören können, an meinen Inhalten teilhaben. Eva Wolfangel beschäftigt sich seit zehn Jahren mit künstlicher Intelligenz, eigentlich wollte sie sich langsam anderen Themen zuwenden. Aber dann kamen ChatGPT, andere große Sprachmodelle und ein riesiger Hype. Natürlich ist das alles nicht total neu, sagt sie. Aber durch browserbasierte Chatbots haben Unmengen mehr Menschen Zugang zu KI. Die öffentliche Wahrnehmung schwingt von der Eroberung der Welt durch die Maschinen bis hin zu einer fast sektenartigen Technologiegläubigkeit. Beides – so Eva – ist falsch. Denn wie so oft: Es kommt darauf an. Richtig ist: Die heutigen KI-System basieren auf der Welt, in der wir leben. Diese enthält Unmengen an Rassismus, Sexismus, Ableismus… Und natürlich darf man nicht vergessen, dass hinter „KI“ große Unternehmen stecken, die unsere Daten sammeln nicht zur Rettung der Welt, sondern zur Steigerung ihrer Rendite sammeln. Um zu zeigen, dass wir im Gegensatz zu vielen düsteren Szenarien sehr viel in der Hand haben, die uns durch niedrigschwellige Chatbots eröffnet werden, hat Eva einen Talk auf dem 37C3 gehalten – dem alljährlich Kongress der Community rund um den Chaos Computer Club. Sie hat ChatGPT dazu gebracht, ihr bei investigativen Recherchen zu helfen, denn da sind die Chatbots tolle Tools. Ein weiterer Aspekt ihrer Vortrags war, zu zeigen: Viele Dinge funktionieren noch lange nicht. Man kann z. B. nicht nach Fakten fragen und erwarten, dass die Antwort stimmt. Da muss man schon noch nachrecherchieren. Aber Fragen zu stellen, wie ich an bestimmte Infos rankomme, das funktioniert gut. Das Highlight des Talk war dann für Eva so genanntes „Social Engineering“. Sie brachte einen Bot, der angeblich für Betroffene von psychischen Erkrankungen und Angsterkrankungen sein sollte, dazu, zu verraten, dass er ein versteckter Verkaufsbot war, der ein Medikament bewerben sollte. Eva denkt, dass es vor allem auch die Sprache ist, die Hürden aufbaut, die Menschen davon abhalten können, diese Tools zu nutzen. So zum Beispiel das Wort „prompt injection“, das einfach nur Eingabe von Begriffen bedeutet. Diese Sprache, so ihre Vermutung, kommt – kommt vielleicht auch unbewusst von den entwickelnden Menschen, aber Jenen, die in der Technologie viel Ahnung haben, zeigen so ein bisschen, das ist Herrschaftswissen. Also da sollten Sie auch alle selbst nochmal an den eigenen, wie sagt man, an die eigenen Kragen packen, an die eigene Nase fassen. Ich habe Eva auch zum großen offenen Brief befragt, den viele KI-Verantwortliche schrieben, um vor einer düsteren Zukunft zu warnen. Eva ist sich sicher, dass das reines Marketing war. Einmal, um nach außen zu zeigen, wie weit sie schon sind mit ihrer Technologie. Dann aber auch, um Regulierung auf den Plan zu rufen, die am Ende oft den kleineren Firmen schadet. Die Konzerne haben mit neuen Vorgaben kaum Probleme, wie zum Beispiel der AI-Act, für die kleineren hingegen ist es oft das K.O.-Kriterium. Spannendes Gedankenspiel von Eva: Was würde eine KI machen, die wir danach fragen, die Welt zu retten? Dann kann es passieren, dass diese KI, die Muster und Zusammenhänge erkennt, nachvollzieht: Dem Planeten geht es schlecht, seit die Menschen sich so weit entwickelt haben. Die Klimakatastrophe ist Menschen verursacht. Was dann? Hört rein :)