#18 - Black Box KI

KI-basierte Entscheidungsprozesse können von Anwender:innen oft nicht nachvollzogen werden. Es bleibt im Dunkeln, welche Faktoren bei Vorschlägen, Vorhersagen und Entscheidungen einen Ausschlag geben. Gleichzeitig machen KI-Systeme bereits heute in vielen Fällen weniger Fehler als der Mensch. Sollten diese Systeme auch für den Menschen nicht-nachvollziehbare Entscheidungen treffen dürfen oder sollte Erklärbarkeit eine Voraussetzung für den Einsatz in medizinischen Bereichen sein? Diesen und weiteren Fragen widmen sich Kerstin Ritter und Dr. Marina Höhne, Leiterin der Nachwuchsforscher:innengruppe “Understandable Machine Learning” an der TU Berlin, in der aktuellen Episode von Dr. Med. KI.

Om Podcasten

In der Podcastreihe "Dr. med. KI" von Charité und KI-Campus geht es um den Einsatz von Künstlicher Intelligenz (KI) in Medizin und Gesundheitswesen. Von grundlegenden technischen Funktionsweisen über Diagnosemethoden bis hin zur personalisierten Behandlung wird erkundet, wie KI die medizinische Landschaft verändert. In Gesprächen mit Expert:innen, Ärzt:innen und Technologiepionieren wird in Themen wie Maschinelles Lernen, medizinische Bildgebung, Datenanalyse und Ethik eingetaucht. Begleite uns auf dieser Reise, um zu verstehen, wie KI nicht nur die Präzision der Medizin verbessert, sondern auch die Art und Weise, wie wir für unsere Gesundheit sorgen, grundlegend transformiert. Wer mehr über KI erfahren möchte, findet auf dem KI-Campus – Der Lernplattform für Künstliche Intelligenz spannende Lernangebote in unterschiedlichen Themenfeldern. www.ki-campus.org