Leseempfehlungen zur Künstlichen Intelligenz, Teil 3

In diesem 3. Teil soll es um künstliche neueronale Netze (WP) gehen, eine Technologie, die zur Zeit sehr angesagt ist, wenn es darum geht, Computersysteme intelligenter zu machen oder sich computertechnisch neuen Herausforderungen zu stellen. Wieder ist es natürlich fraglich, wie weit man hier von der Intelligenz eines Computersystems (also einer Maschine) reden kann. Auf jeden Fall geht es um Fähigkeiten und Tätigkeiten die man mit Intelligenz in Verbindung bringt, solange sie ein Mensch besitzt bzw. ausführt. Vorbild für künstliche neuronale Netze ist das Netz aus Neuronen und Verbindungen in den Gehirnen (WP) von Mensch und Tier. Für die IT-Welt sind künstliche neuronale Netze Maschinenmodelle wie die Vector Support Machine die wir im 2. Teil kennen gelernt haben. Sie werden auch im gleichen Kontext und in der gleichen Art eingesetzt. Alles, was wir also schon über Data-Science und maschinelles Lernen (Trainieren) gelesen haben, bezieht sich auch auf künstliche neuronale Netze. Ob mit künstlichen neuronalen Netzen die Vorgänge in Gehirnen von Lebewesen nachgebildet werden ist für IT-Anwendungen zweitrangig.

Wir wollen einen kleinen Abstecher machen, denn es gibt auch Forscher, die gerade das Gehirn als ihr Fachgebiet haben und die sind natürlich daran interessiert mit künstlichen neuronalen Netzen wirkliche Vorgänge in Gehirnen zu simulieren. In diesem Zusammenhang sollte man zwei neurowissenschaftliche Großprojekte nennen: das Human Brain Project der EU und das Brain Activity Map Project der USA. 2014 bekamen die Neurowissenschaftler John O’Keefe , May-Britt Moser und Edvard Moser für Erkenntnisse über Bereiche in Gehirnen, die auf räumliches Orientieren spezialisiert sind, den Nobelpreis für Medizin. Hier ist ein Abstract des Vortrags “Grid cells and our sense of space” , den Edvars Moser November 2016 auf einer Mathematiktagung in Trondheim (Norwegen) gehalten hat. Das Ehepaar Moser lehrt und forscht an der Universität in Trondheim.

Um jetzt auf die künstlichen neuronalen Netzen einzugehen, lassen wir als erstes Jürgen Schmidhuber (WP) zu Wort kommen, einer der führenden KI-Forscher in Deutschland. In dem Zeit-Artikel “Eine Maschine, klüger als der Mensch” schreibt er über sich und seine Forschung. Einen sehr guten Überblick über künstliche neuronale Netze bekommt man durch einen Online-Kurs von Günter Daniel Rey und Fabian Beck , der z.Z. eine Juniorprofessur an der Universität Duisburg Essen hat. Viel detaillierter behandelt David Kriesel das Thema in einem Skript das man auf seiner Home-Page findet. Kriesel ist durch seine vielbeachteten Vorträge auf dem Chaos Communication Congress (WP) bekannt. Interessierte Laien wird sein Skript zu technisch und zu mathematisch sein, doch das erste Kapitel “Einleitung, Motivation und Geschichte” ist auch für sie zu empfehlen. David Kriesel bietet auf seiner Site auch eine Software-Bibliothek mit dem Namen SNIPE (Scalable and Generalized Neural Information Processing Engine) an, welches ein Java-Framework für neuronale Netze ist. Das Skript nimmt zum Teil Bezug darauf.

Man beachte den Unterschied zwischen den in gewisser Weise einfachen sogenannten Feedforward-Netzen und den rückgekoppelten Netzen. Bei den Feedforward-Netzen sind die Neuronen in Schichten organisiert und die Verbindungen gehen immer nur von einer Schicht zu der darauf folgenden Schicht und nie zurück. Das Netz wird so verwendet, dass man die Eingabeneuronen jeweils mit einem Wert belegt und dann die Werte der Ausgabeneuronen ausliest. Ändert man die Eingabewerte, so muss man das als ein neues vom vorherigen unabhängiges Experiment ansehen. Ein typischer Einsatzbereich solcher Netze ist die Bildanalyse, wenn jedes Bild unabhängig ist und keinen Bezug zum Vorgänger hat.

Bei den rückgekoppelten Netzen geht man von sich taktweise verändernden Eingabedaten aus. Man muss sich das dann so vorstellen, dass die rückgekoppelten Daten auf die neuen Daten des Folgetaktes treffen. Als typisches Anwendungsfeld denke man Spracheverarbeitung. In den rückgekoppelten Netzen hat man also in jedem Takt eine Erinnerung an den vorhergehenden Takt.

1997 kamen Jürgen Schmidhuber und sein Schüler Sepp Hochreiter (WP:en) zu einem Konzept, wie man in einem rückgekoppelten Netz eine Erinnerung (s.o.) länger aufbewahren kann, um sie später verwenden zu können. Dieses Konzept nannten sie Long short-term memory (WP) also langes Kurzzeitgedächnis. Die Abkürzung ist LSTM. Es dauerte aber noch etwa 10 Jahre, bis die LSTM-Netze den Weg aus dem Elfenbeinturm der Wissenschaft in die IT-Praxis gefunden haben. Hören wir Jürgen Schmidhuber in einem Vortrag . Wer eine technische Einführung in LSTM-Netze sucht, kann “Understanding LSTM Networks” von Christopher Olah lesen.

Kommen wir jetzt noch zu den Chancen und Risiken der künstlichen Intelligenz. Einen guten Überblick gibt dieses Diskussionspapier der Stifftung für Effektiven Altruismus . Dort werden auch die Themen Superintelligenz (WP) und Bewusstsein (WP) angesprochen. Zu Superintelligenz lese man dieses Interview in der Zeit mit Nick Bostrom oder man lese Bostroms bei Suhrkamp erschienenes Buch “Superintelligenz. Szenarien einer kommenden Revolution”. Bezüglich Bewusstsein stellt sich die Frage, ob Maschinen so etwas wie Bewusstsein überhaupt haben können, sowie die damit verknüpfte Frage, wie Neurowissenschaftler Bewusstsein erklären. Ich empfehle diese beiden Artikel vom Zeit-Autor Ulrich Schnabel (WP) : “Haben Maschinen Bewußtsein?” von 1997 und “Was ist das Ich?” von 2012.

 


Beitrag veröffentlicht

in

von

Schlagwörter: