Essay

Können Computer denken?

Cogito ergo sum

Cogito ergo sum (Descartes, 1644). Was für den Menschen gelten mag, scheint für den Computer nicht zu funktionieren. Aber können Maschinen überhaupt denken? Angesichts neuronaler Netze und Deep Learning (LeCun, Bengio, & Hinton, 2015) ist diese Frage wirklich relevant geworden.

Aber sie geht zurück bis in die 1950er Jahre, als Alan Turing zu den ersten gehörte, die über intelligente Maschinen nachdachten (Turing, 1948). Die Ansätze, eine Antwort zu finden, sind vielfältig und reichen vom Vergleich von Schaltkreisen und Neuronen (Dennett, 2001) über den Einfluss zwischen Emotionen und unterbewussten Prozessen (Pfeifer, 1988), den grundlegenden Eigenschaften des menschlichen Denkens und der Wahrnehmung (z.B. Haxby, Hoffman, & Gobbini, 2000; Kanwisher, McDermott, & Chun, 1997; Kintsch & Walter Kintsch, 1998) bis hin zu der Frage, was Wissen und Intelligenz aus philosophischer Sicht eigentlich ist (z.B. Lakoff & Johnson, 1999; McCarthy & Hayes, 1981).

Doch was ist Denken?

Ich denke, also bin ich. Aber was ist Denken? Ist es das Lösen spezifischer Probleme auf deterministische Weise nach klaren Strategien? Ist es Kreativität oder Reflexion über sich selbst? Und erfordert Denken eine bestimmte Hardware? Der kognitivistische Philosoph Dennett (2001) argumentiert, dass das Denken hardwareunabhängig sein muss, da unser Gehirn hauptsächlich aus den gleichen Rohstoffen wie die Hefe (unsere sehr entfernten Vorgänger) aufgebaut ist und sich Schaltkreise ebenso entwickeln können, wie es die Hefe und ihre Verwandten in den letzten Milliarden Jahren getan haben. In eine ähnliche Richtung geht Fodor (2001), der feststellt, dass es im Wesentlichen die Aufgabe ist, mit der irgendein Rohstoff induziert wird, der ihn zum Denken veranlasst. Aber Denken kann auch ohne unmittelbaren Nutzen geschehen, zum Beispiel wenn wir träumen.

Deshalb scheint die Situation anders zu sein: Hefe und Neuronen sind nur auf molekularer Ebene ähnlich, aber es hängt von der richtigen Zusammensetzung und Komplexität der Rohstoffe ab, dass Denken auf einer höheren - Software - Ebene möglich wird. Geht man davon aus, dass Gedanken auf beliebiger Hardware produziert werden können - es gibt Studien, die untersuchen, wie viel Rechenleistung und Speicherplatz für den Betrieb eines menschlichen Gehirns erforderlich wäre (z.B. Markram, 2006; Moravec, 1998) - stellt sich eine zweite Frage: Können wir die richtige Software zur Verfügung stellen, um Maschinen in die Lage zu versetzen, einen Geist zu emulieren? Gelernter (2007) argumentiert in einem Artikel im Technology Review des MIT, dass wir die verschiedenen Prozesse, die bei der Schaffung des menschlichen Bewusstseins eine Rolle spielen, überhaupt nicht verstanden haben und daher das Schreiben der richtigen Software derzeit fast unmöglich erscheint. Um menschliches Bewusstsein zu simulieren, muss Software das gesamte kognitive Kontinuum abdecken, das vom rationalen, analytischen Denken bis hin zu unterbewussten Vorgängen wie dem Erkennen von Analogien, freier Assoziation, kreativem Denken oder Träumen reicht, die wir nicht kontrollieren können (siehe auch Hammond, 1996).

Selbst nach Jahren der Forschung scheint der Fortschritt auf diesem Gebiet nicht sehr groß zu sein, und wir sind nicht annähernd zu einem umfassenden Verständnis grundlegender Konzepte wie zum Beispiel der Kreativität gekommen (z.B. Amabile, 2018; Csikszentmihalyi, 2014; Torrance, 1988, 1993). Wir wissen nicht, wie wir analoges Denken ermöglichen können (z.B. Falkenhainer, Forbus, & Gentner, 1989; Gentner, Holyoak, Holyoak, & Kokinov, 2001; Holyoak, Holyoak, & Thagard, 1996). Und wir können nur erahnen, wie alle Teilprozesse, Zustandsdarstellungen und Heuristiken zu dem, was wir als Geist und Gewissen bezeichnen, zusammengesetzt sind. Außerdem fällt es schwer die genaue Rolle des Zufalls in all diesen Prozessen zu spezifizieren und wir wissen nicht, ob und in welchem Ausmaß unsere Gedanken deterministisch sind.

Für einige Zeit, so scheint es, wird sich daran nicht viel ändern. Das Beste, was wir heute haben, ist, unseren Verstand mit einer Unterscheidung zwischen bewussten und unbewussten, rationalen und subjektiven Prozessen oder Denksystemen zu erklären (Tversky & Kahneman, 1974).Versuche, unterbewusste Prozesse wie das Träumen zu implementieren (z.B. Mordvintsev, Olah, & Tyka, 2015), könnten zu Ergebnissen führen. Sie erscheinen jedoch sinnlos, wenn sie von Erfahrungen und Emotionen entkoppelt sind - Dinge, die ein Mensch sensorisch sammelt und in seinem Körper kultiviert. In diesem Zusammenhang spielen nicht nur elektromagnetische Vorgänge eine Rolle, sondern sehr stark auch chemische Reaktionen. Daher ist es wahrscheinlich, dass der menschliche Geist nicht nur von Neuronen simuliert wird, sondern auch von seiner Hülle und den Emotionen und Gefühlen abhängt (Gelernter, 2007).

Muss künstliche Intelligenz menschlichem Denken entsprechen?

Aber warum muss das künstliche Denken überhaupt einem menschlichen Geist ähneln? Aktuelle Diskussionen und Projekte über künstliche Intelligenz verfolgen fast ausschließlich die Absicht, einen künstlichen und dennoch menschenähnlichen Geist zu bauen. Hilfreicher und leichter zu erreichen wäre es jedoch, Maschinen zu bauen, die sich auf jene Denkprozesse konzentrieren, die für den Menschen schwierig oder wenigstens anstrengend sind.Schon heute sind die analytischen Fähigkeiten von Computern eine ausgezeichnete Hilfe bei der Entscheidungsfindung und es besteht noch eine Menge Potential für Fortschritt alleine in diesem Teilbereich des Denkens. In Situationen, die die gleichzeitige Berücksichtigung vieler Informationen oder eines breiten Spektrums verschiedener Parameter und Einflussfaktoren erfordern, verhindern, dass der Mensch auf Heuristik und Intuition hereinfällt. Rein rationale Prozesse sind für den Menschen meist mühsam und nur schwierig unvoreingenommen zu bewältigen (Kahneman & Tversky, 2013).

Wenn wir also künstliches Denken ausschließlich als einen logischen, analytischen Prozess betrachten, könnte die allmähliche Verallgemeinerung über Problembereiche hinweg ein Weg zu rationalem, künstlichem Denken sein.Und in der Tat: Während gerade das Unterbewusstsein noch eine Black Box bleibt, kann der Prozess des rationalen Denkens durch Computerprogramme nachgebildet werden. Es gibt verschiedene Modelle, die sich an bestimmte Situationen anpassen und Aufgaben in einem vordefinierten Problemraum lösen können (z.B. siehe Murphy, 2012). Wenn die Ziele sorgfältig gesetzt werden, können Computer Spiele wie Starcraft oder Go meistern (Arulkumaran, Cully, & Togelius, 2019; Borowiec, 2016) und oft bessere Ergebnisse erzielen als Menschen. Allerdings ist die Verallgemeinerung über Problembereiche hinweg kein einfaches Problem (Goertzel & Pennachin, 2007). Bisher hilft das Reinforcement Learning bei der Bewältigung beliebiger Spiele (Kaelbling, Littman, & Moore, 1996) und erste Versuche im maschinellen Lernen mit generativen, kontradiktorischen Netzwerken (engl. Generative Adversarial Neural Networks) (Goodfellow et al., 2014) scheinen vielversprechende Wege zu eröffnen. Dennoch sind sich neuronale Netze kaum bewusst, was sie tun.

Cogito ergo sum - können Computer denken?
Cogito ergo sum - können Computer denken?

Dem Bewusstsein auf der Spur

An dieser Stelle ist es noch interessant, auf einen evolutionären Aspekt im menschlichen Geist und in der künstlichen Intelligenz einzugehen. Unsere heutige Zeit produziert eine Informationsflut, mit der der Mensch nicht mithalten kann. Daher könnte es zu einer Notwendigkeit werden, dass Mensch und Maschine symbiotische Einheiten bilden, die einen evolutionären Sprung in der Informationsverarbeitung und im Denken ermöglichen, indem sie menschliche Flexibilität und Kreativität mit effizienter Informationsverarbeitung verbinden. In diesem neuen Denkmodell würden Maschinen ihre Rolle spielen, jedoch nicht autonom agieren und wahrscheinlich auch kein eigenes Bewusstsein besitzen.

Es zeigt sich also, dass die Frage, ob ein Computer denkt oder nicht, sehr stark von der Definition von Denken abhängt, die wir in dieser Diskussion anwenden. Trotzdem wird klar, dass Computer mit großer Wahrscheinlichkeit nicht denken und fühlen werden, wie Menschen. Vielleicht werden sie auch keinen freien Willen entwickeln. Aber Menschen werden auch weiterhin versuchen, das Rätsel um ihr Bewusstsein und ihr Denken zu lösen. Letztendlich gibt es zwei mögliche Ausgänge: wir könnten eines Tages in der Lage sein, Simulationen von Intelligenz zu erschaffen, die den Turing-Test bestehen (Saygin, Cicekli, & Akman, 2000) - aber das wird die anfängliche Frage nicht beantworten, ob ein Computer denken kann oder nicht (Searle, 2006). Andererseits könnte ein intelligenter Verstand entstehen, der denken und ein Bewusstsein entwickeln kann. Aber in diesem Fall sollte er nicht mehr als "Maschine" bezeichnet werden.

Referenzen

  • Amabile, T. M. (2018). Creativity in context: Update to the social psychology of creativity. Routledge.
  • Arulkumaran, K., Cully, A., & Togelius, J. (2019). Alphastar: An evolutionary computation perspective. arXiv preprint arXiv:1902.01724.
  • Borowiec, S. (2016). Alphago seals 4-1 victory over go grandmaster lee sedol. The Guardian, 15.
  • Csikszentmihalyi, M. (2014). Society, culture, and person: A systems view of creativity. In The systems model of creativity (pp. 47–61). Springer.
  • Dennett, D. (2001). The zombic hunch: extinction of an intuition? Royal Institute of Philosophy Supplements, 48, 27–43.
  • Descartes, R. (1644). Principia philosophae. BookRix.
  • Falkenhainer, B., Forbus, K. D., & Gentner, D. (1989). The structure-mapping engine:
  • Algorithm and examples. Artificial intelligence, 41(1), 1–63.
  • Fodor, J. A. (2001). The mind doesn’t work that way: The scope and limits of computational psychology. MIT press.
  • Gelernter, D. (2007, July). Artificial intelligence is lost in the woods. Retrieved 2019-11-25, from Technology Review
  • Gentner, D., Holyoak, K. J., Holyoak, K. J., & Kokinov, B. N. (2001). The analogical mind: Perspectives from cognitive science. MIT press.
  • Goertzel, B., & Pennachin, C. (2007). Artificial general intelligence (Vol. 2). Springer. Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., . . .
  • Bengio, Y. (2014). Generative adversarial nets. In Advances in neural information processing systems (pp. 2672–2680).
  • Hammond, K. R. (1996). Human judgment and social policy: Irreducible uncertainty, inevitable error, unavoidable injustice. Oxford University Press on Demand.
  • Haxby, J. V., Hoffman, E. A., & Gobbini, M. I. (2000). The distributed human neural system for face perception. Trends in cognitive sciences, 4(6), 223–233.
  • Holyoak, K. J., Holyoak, K. J., & Thagard, P. (1996). Mental leaps: Analogy in creative thought. MIT press.
  • Kaelbling, L. P., Littman, M. L., & Moore, A. W. (1996). Reinforcement learning: A survey. Journal of artificial intelligence research, 4, 237–285.
  • Kahneman, D., & Tversky, A. (2013). Prospect theory: An analysis of decision under risk. In Handbook of the fundamentals of financial decision making: Part i (pp. 99–127). World Scientific.
  • Kanwisher, N., McDermott, J., & Chun, M. M. (1997). The fusiform face area: a module in human extrastriate cortex specialized for face perception. Journal of neuroscience, 17(11), 4302–4311.
  • Kintsch, W., & Walter Kintsch, C. (1998). Comprehension: A paradigm for cognition. Cambridge university press.
  • Lakoff, G., & Johnson, M. (1999). Philosophy in the flesh (Vol. 4). New york: Basic books.
  • LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436–444.
  • Markram, H. (2006). The blue brain project. Nature Reviews Neuroscience, 7(2), 153.
  • McCarthy, J., & Hayes, P. J. (1981). Some philosophical problems from the standpoint of artificial intelligence. In Readings in artificial intelligence (pp. 431–450). Elsevier.
  • Moravec, H. (1998). When will computer hardware match the human brain. Journal of evolution and technology, 1(1), 10.
  • Mordvintsev, A., Olah, C., & Tyka, M. (2015). Inceptionism: Going deeper into neural networks.
  • Murphy, K. P. (2012). Machine learning: a probabilistic perspective. MIT press.
  • Pfeifer, R. (1988). Artificial intelligence models of emotion. In Cognitive perspectives on emotion and motivation (pp. 287–320). Springer.
  • Saygin, A. P., Cicekli, I., & Akman, V. (2000). Turing test: 50 years later. Minds and machines, 10(4), 463–518.
  • Searle, J. (2006). Chinese room argument, the. Encyclopedia of cognitive science. Torrance, E. P. (1988). The nature of creativity as manifest in its testing. The nature of creativity, 43–75.
  • Torrance, E. P. (1993). Understanding creativity: Where to start? Psychological inquiry, 4(3), 232–234.
  • Turing, A. M. (1948). Intelligent machinery. NPL. Mathematics Division.
  • Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. science, 185(4157), 1124–1131.