Könnten Sprachmodelle künftig auch logisch denken?

Für viele Menschen gehört das Sprachprogramm ChatGPT längst zum Alltag. Man lässt das Programm eigene E-Mails schreiben, fremde Texte zusammenfassen oder Informationen zu bestimmten Themen liefern. Innerhalb von Sekunden spuckt es einem auf dem Bildschirm die Antworten aus. Die Ergebnisse sind in vielen Fällen erstaunlich – und sprachlich einwandfrei. Aussagen auf Wahrheit, Schlüssigkeit und Logik prüfen, so wie wir Menschen, kann eine künstliche Intelligenz (KI) jedoch noch nicht. Das könnte sich aber bald ändern. Gemeinsam mit anderen Forscherinnen und Forschern versucht der KI-Wissenschafter Günter Klambauer an der Johannes-Kepler-Universität Linz künstlicher Intelligenz solche Fähigkeiten beizubringen – und sie dafür am Vorbild des menschlichen Gehirns zu trainieren. Ein Programm mit solchen Fähigkeiten könnte künftig etwa auch in sensiblen Bereichen wie in der Medizin oder bei gerichtlichen Verfahren zum Einsatz kommen, glaubt Klambauer. Im Podcast spricht der KI-Experte darüber, wie das in Zukunft gelingen könnte, wie Sprachprogramme momentan lernen und warum wir KI zu häufig menschliche Eigenschaften zuschreiben.

Om Podcasten

Edition Zukunft ist der STANDARD-Podcast über das Leben und die Welt von morgen. Die Redaktion spricht mit Experten über Entwicklungen, die unseren Alltag verändern - von künstlicher Intelligenz und Robotern bis hin zu Migration und Klimawandel. Neue Folgen erscheinen jeden Freitag - jeweils abwechselnd mit "Edition Zukunft Klimafragen", dem Podcast zu Umwelt- und Klimathemen. Edition Zukunft ist ein Podcast von DER STANDARD. Redaktion und Moderation: Lisa Breit, Julia Beirer, Alicia Prager und Philip Pramer.