#45 Wolfgang Stieler: „Wie viel böse Absicht kann man KI unterstellen?“

TechReview-Redakteur Wolfgang Stieler beobachtet und berichtet seit über zwei Jahrzehnten über neue technische Entwicklungen. Mit großen Sprachmodellen wie GPT-3 ist bald eine künstliche Intelligenz verfügbar, die selbst den Technologieoptimisten aus dem Heise-Verlag besorgt aufhorchen lässt. „Je besser ein Sprachmodell die Welt versteht, desto besser kann man damit auch gezielten Missbrauch betreiben“, sagt der Redakteur des renommierten MIT-Magazins im Interview. Wir sprechen mit ihm über die Gefahren von automatisch generierten Texten, die das Potenzial haben, politische Meinung zu beeinflussen und den Journalismus grundlegend zu verändern. Außerdem erklärt Stieler, warum es nichts nützt, solche Technologien unter Verschluss zu halten oder sich auf die automatisierte Erkennung und Bewertung von KI-generierten Inhalten zu verlassen. „Es ist keine Frage ob, sondern wann solche Sprachmodelle im großen Maßstab zur Verfügung stehen.“ „GPT-3 ist eine Technologie, die sich leicht missbrauchen lässt.“ „Wir brauchen einen gesellschaftlichen Rahmen und Regulierungen. Daran arbeitet die EU – die Frage ist nur, ob sie schnell genug ist.“ „Letztendlich ist es kein rein technisches, sondern ein gesellschaftliches Problem.“

Om Podcasten

Künstliche Intelligenz im Kontext von Kommunikation und Ethik – der Podcast aus dem Cyber Valley in Baden Württemberg. Der Cyber-Podcast ist ein gemeinsames Projekt der Kommunikationsagenturen Storymaker aus Tübingen und DESIGN HOCH DREI aus Stuttgart. Wir sind in Deutschlands Cyber Valley zuhause und wollen dazu beitragen, dass sich Baden-Württemberg und Deutschland als Hightech-Standort weiterentwickelt.