Deep Learning Hirnforscher und Informatiker wollen Künstliche Intelligenz verstehen

| Redakteur: Katharina Juschkat

Neuronale Netzwerke sind undurchschaubar und können dadurch gefährlich werden. Da sie sich am menschlichen Gehirn orientieren, wollen Forscher jetzt mit Methoden der Hirnforschung hinter die Geheimnisse blicken.

Künstliche neuronale Netze basieren auf dem menschlichen Gehirn – und ihre Vorgehensweise ist genauso undurchschaubar. Informatiker wollen sich jetzt Methoden der Hirnforschung zunutze machen.
Künstliche neuronale Netze basieren auf dem menschlichen Gehirn – und ihre Vorgehensweise ist genauso undurchschaubar. Informatiker wollen sich jetzt Methoden der Hirnforschung zunutze machen.
(Bild: gemeinfrei / Pixabay)

Künstliche Intelligenz (KI) ist bereits in verschiedenen Bereichen der Industrie und unseres Alltags im Einsatz. Vor allem der Teilbereich des Deep Learnings – neuronale Netzwerke, die sich am menschlichen Gehirn orientieren – haben sich enorm weiterentwickelt und erweisen ein großes Potential. Die Gefahr dabei: Die Technik ist kaum durchdringbar, was genau in einem KI-Algorithmus vonstatten geht, bleibt unbekannt. Eine sogenannte Black Box, deren Inhalt man nur aufgrund des Ergebnisses interpretieren kann. Daraus resultieren mehrere Nachteile: Man kann nie hundertprozentig vorhersagen, wie sich der Algorithmus verhalten wird, da man seine Vorgehensweise nicht kennt, und er ist leicht zu täuschen.

Das Video zeigt, wie leicht neuronale Netzwerke zu täuschen sind:

Die Hirnforschung und künstliche neuronale Netze

Um besser hinter die Kulisse eines neuronalen Netzwerks blicken zu können, planen Forscher der Otto-von-Guericke-Universität Magdeburg in dem Forschungsprojekt „Cognitive neuroscience inspired techniques for explainable AI“, kurz Cogxai, auf etablierte Methoden der Hirnforschung zu setzen.

Die Künstlichen neuronalen Netze, kurz KNN, sind selbstlernende, intelligente Systeme, die von Aufbau menschlicher Gehirne inspiriert sind. Sie sind – analog zu biologischen Nervensystemen – in der Lage, von Beispielen zu lernen, um selbstständig komplexe Probleme zu lösen.

Der Informatiker und Projektleiter Prof. Sebastian Stober vergleicht: „Bestehen diese Netze in unserem Gehirn aus Millionen von über chemische und elektrische Signale miteinander kommunizierenden Nervenzellen, so sind künstliche neuronale Netze als Computerprogramme zu verstehen.“

Ein „Hirn-Scan“ einer künstlichen Intelligenz

Stober und sein Team wollen unterschiedliche Regionen in einem künstlichen neuronalen Netz finden, die – wie in biologischen Gehirnen – für bestimmte Funktionen verantwortlich sind. Ähnlich wie die Aufnahme eines Hirn-Scans in einem Magnetresonanztomografen wollen die KI-Experten bestimmte Areale der KNN identifizieren, um so deren Funktionsweise besser zu verstehen.

Wenn wir künftig Künstliche Intelligenz sicher nutzen wollen, ist es zwingend notwendig, ihre Funktionsweise umfassend zu verstehen.

Sebastian Stober, Projektleiter von CogXAI

Außerdem wollen sie das Lernverhalten des menschlichen Gehirns auf neuronale Netze übertragen. Durch die Übertragung von Konzepten der menschlichen Wahrnehmung und Signalverarbeitung auf künstliche neuronale Netze wollen sie herausfinden, wie diese selbstlernenden Systeme Vorhersagen treffen bzw. warum sie Fehler machen. Die Wissenschaftler erhoffen sich dadurch, ein Fehlverhalten der künstlichen Neuronen bereits während des Lernprozesses zu erkennen und im Laufe des Trainings zu korrigieren.

Die Entwicklung künstlicher neuronaler Netze gehe rasant voran, erklärt der Informatiker weiter. „Durch leistungsstarke Computer können immer mehr künstliche Neuronen zum Lernen verwendet werden.“ Diese wachsende Komplexität erschwert es aber auch Experten, deren innere Prozesse und Entscheidungen nachzuvollziehen. “, erklärt der Informatiker und Projektleiter von CogXAI. „Wenn wir aber künftig Künstliche Intelligenz sicher nutzen wollen, ist es zwingend notwendig, ihre Funktionsweise umfassend zu verstehen.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46365239)