Wie viel Gehirn werden Computer lesen können? Und wie viel simulieren?

Henrik Müller


hg_20_01_01a
Illustr.: Paul Vismara
Editorial

(09.02.2020) Künstliche Intelligenz zielt weit über selbstfahrende Autos, Gesichtserkennung sowie Schach- und Go-Spiele hinaus. Sie verspricht, unsere tiefsten Geheimnisse zu ergründen. Nur wie?

Unser Verständnis vom Menschen haben wir dem Zeitalter der Aufklärung zu verdanken: Der Mensch ist eine Bio-Maschine, sein Gehirn funktioniert wie eine Rechenanlage. Demnach brauchen wir im Umkehrschluss also nur das menschliche Denken mechanisieren, um durch den Bau einer künstlichen Intelligenz die Funktionsweise unseres Gehirns zu verstehen. Entsprechend fleißig lassen sich Neuroinformatiker von der neurobiologischen Architektur unseres Nervensystems inspirieren.

Die Hoffnung auf Erkenntnisse zu Hirn­erkrankungen, aber auch neue Computer- und Robotertechnologien überzeugten denn auch 2013 die Wettbewerbsjuroren um Europas künftige „Forschungs-Flaggschiffe“: Als Resultat fördert die Europäische Kommission das Human Brain Project (www.humanbrainproject.eu) bis 2023 mit 1,2 Milliarden Euro. Doch bereits 2014 hagelte es Kritik daran. In einem offenen Brief an die EU-Kommission beanstandeten Hunderte Wissenschaftler den Projektanspruch, das Gehirn in all seiner Komplexität im Computer simulieren zu wollen, als überheblichen und unrealistischen Irrweg. Das Geld sei besser in die Erforschung echter Hirne investiert. Denn welche Erkenntnisse werden gewonnen, wenn Neuroinformatiker die Funktionsweise neuronaler Netze im Computer simulieren, um daraus die Funktionsweise neuronaler Netze abzuleiten?

Editorial
Silizium versus Kohlenstoff

Die meisten Computer arbeiten nach dem Schaltungskonzept der 1945 veröffentlichten Von-Neumann-Architektur, welche Rechenwerk und Speicherwerk physikalisch trennt. Die spezifische Funktion eines Systems setzt spezialisierte Software um. Den entgegengesetzten Weg beschreiten neuromorphe Computer-Chips. Inspiriert von biologischen Nervennetzen verschmelzen sie Rechenwerk und Speicherwerk miteinander und übertragen Information durch Aktionspotentiale. Sie funktionieren also fundamental anders als numerische Simulationen auf herkömmlichen Rechnern. Ihre Hardware ist hochspezialisiert auf die Ausführung einer bestimmten Aufgabe. Noch umfassen sie nur einen Bruchteil der 1011 Neuronen und 1015 Synapsen des menschlichen Gehirns. Doch erlauben sie bereits die Frage, ob und wie viel Software für Selbstorganisation und Selbstregulation nötig ist – im Silizium- wie auch im Kohlenstoff-Fall?

Auch Europas schnellste herkömmliche Supercomputer, also der Piz Daint des Swiss National Supercomputing Centre und der SuperMUC-NG am Leibniz-Rechenzentrum Garching, immerhin auf Plätzen 6 und 9 der weltweit leistungsfähigsten Rechner, faulenzen nur im Vergleich mit dem menschlichen Gehirn. Für 1013 Gleitkommaoperationen benötigen sie mindestens dreitausend Watt Leistung. Unser Gehirn kommt für 1013 Rechenoperationen pro Sekunde mit zwanzig Watt aus. Wie erreicht es eine Vielfalt unterschiedlicher Rechenoperationen bei solch geringem Leistungsbedarf?

Dass Kohlenstoff- und Silizium-basierte Systeme prinzipiell kompatibel sind, demonstrieren Gehirn-Computer-Schnittstellen. In die Großhirnrinde implantierte oder auf der Kopfhaut angebrachte Mikroelektroden-Arrays erfassen die elektrophysiologische Aktivität von sensomotorischen Neuronen. Maschinelle Lernalgorithmen dekodieren dann deren neuronale Aktivität und steuern beispielsweise Handprothesen (J. Neural. Eng. 13(2): 026017-26017) oder aktivieren die Unterarmmuskeln querschnittsgelähmter Studienteilnehmer (Nature 533: 247-50).

Solche Pilotstudien stellen erste Schritte dar, die Information des Gehirns künstlich auszulesen. Aber können zusätzlich zu Bewegungszuständen womöglich auch die emotionale und geistige Verfassung eines Menschen erfasst werden?

Ein Auslesen neuronaler Aktivität ermöglichen Algorithmen maschinellen Lernens. In den Biowissenschaften kommen sie bereits zum Einsatz, wenn Stoffwechselwege aus Omics-Daten rekonstruiert, Elektroenzephalogramme analysiert oder Bilddaten ausgewertet werden. Ihre statistischen Unterscheidungsalgorithmen lernen es, Muster in Trainingsdaten zu finden, die dem menschlichen Auge aufgrund ihrer Komplexität verborgen bleiben. Dafür optimieren sie die Gewichtung tausender Schaltstellen, „Neuronen“ genannt, in einem mehrschichtigen, neuronalen Netzwerk. Auf der Basis erkannter Muster können dann unbekannte Daten selbstständig beurteilt werden.

Flaschenhals Flexibilität

Um automatisierte Klassifikations- und Diagnoseverfahren zu entwickeln, müssen häufig hochdimensionale, nicht-lineare Optimierungsprobleme bewältigt werden. Der gegenwärtige Flaschenhals ist aber nicht etwa ein Mangel an Raffinesse bei den vorhandenen Algorithmen. Im Gegenteil, denn maschinelle Lern­algorithmen sind in der einen Aufgabe, für die sie trainiert wurden, den Menschen in aller Regel weit überlegen. Ein wesentliches Merkmal menschlicher Intelligenz ist jedoch Flexibilität. Wie viel sagt die Fähigkeit eines KI-Systems zu verallgemeinern also über seine Qualität aus?

Noch sind die Vorstellungen und Definitionen davon, was künstliche Intelligenz kann und nicht kann, unklar. Der Düsseldorfer Professor für Kognitive Neurowissenschaften Simon B. Eickhoff erklärt im Interview auf Seite 16, welche Anteile des Gehirns momentan ausgelesen werden können und für wie intelligent er die hierfür gängigen Verfahren hält. Sein Jülicher Kollege und Professor für Computational Neuroscience, Markus Diesmann, dagegen beschreibt im Gespräch auf Seite 18, welche Anteile des Gehirns Computer gegenwärtig simulieren können und welche Anwendungsmöglichkeiten bestehen.

Die Grenzen künftiger KI-Systeme bleiben jedoch vorerst schwer zu beurteilen. Sicherheitshalber eröffnet das Deutsche Bundesministerium für Arbeit und Soziales in diesem Jahr schon mal eine KI-Prüfstelle, um künstliche Intelligenzen wie eine Art TÜV zu überprüfen und deren wirtschaftliches Potenzial zu fördern (www.ki-strategie-deutschland.de).



Letzte Änderungen: 09.02.2020

Editorial

Editorial