Künstliche Superintelligenz
Futurologie
Basiswissen
Als künstliche Superintelligenz[1], im Englischen Artificial Superintelligence, kurz auch ASI bezeichnet man eine softwarebasierte künstliche Intelligenz deren Denkfähigkeiten die eines jeden einzelnen Menschen überragen[2] und die für Menschen jetzt vielleicht noch nicht vorstellbar sind[1]. Bereits 1965 wurden neuronale Netze als Kern einer solchen Technologie vorhergesagt[4]. Das Ergebnis einer künstlichen Superintentelligenz wäre möglicherweise eine Explosion von Intelligenz[3], mit ungewissen Ausgang für die Zukunft der Menschheit[5]. Siehe dazu auch technologische Singularität ↗
Fußnoten
- [1] "Artificial Superintelligence (ASI) oder zu deutsch, künstliche Superintelligenz, ein Konzept, das viele fasziniert und in vielen eine Art von Furcht hervorruft" sowie zur Definition: "Artificial Superintelligence (ASI) geht über traditionelle Künstliche Intelligenz (KI) Systeme hinaus, die derzeit in Gebrauch sind. ASI ist eine hypothetische Form der künstlichen Intelligenz, die die menschliche Intelligenz bei weitem übertreffen würde. Solche Systeme wären in der Lage, Aufgaben auszuführen, die Menschen sich nicht einmal vorstellen können." In: Jörg-Owe Schneppat: Artificial Superintelligence (ASI). Blog zu GPT5. Abgerufen am 22. März 2024. Online: https://gpt5.blog/artificial-superintelligence-asi/
- [2] Eine Künstliche Superintelligenz übersteigt die Fähigkeiten eines jeden einzelnen Menschen: "Artificial superintelligence (ASI) is a hypothetical software-based artificial intelligence (AI) system with an intellectual scope beyond human intelligence. At the most fundamental level, this superintelligent AI has cutting-edge cognitive functions and highly developed thinking skills more advanced than any human." In: Tim Mucci, Cole Stryker: What is artificial superintelligence? In: Internseite der IBM (International Business Machines). Veröffentlicht am 18. Dezember 2023. Online: https://www.ibm.com/topics/artificial-superintelligence
- [3] Eine Definition aus dem Jahr 1965: "Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectural activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an 'intelligence explosion,' and the intelligence of man would be left far behind. Thus the first ultratintelligent machine is the last invention that man need ever make […]" In: Irving John Good: Speculations Concerning the First Ultraintelligent Machine. Trinity College. Oxford. 1965. Basierend auf Vorträgen der "Conference on the Conceptual Aspects of Biocommunications" des Neuropsychiatric Institute, University of California, Los Angeles, Oktober 1962 und der "Artificial Intelligence Session" des "Winter General Meetings" der IEEE vom Januar 1963. Online: http://acikistihbarat.com/dosyalar/artificial-intelligence-first-paper-on-intelligence-explosion-by-good-1964-acikistihbarat.pdf
- [4] Neuronale Netze als Kern einer Superintelligenz wurden bereits 1965 vorhergesagt: "an attempt is made to take more of the magic out of the brain by means of a 'subassembly' theory, which is a modification of Hebb's famous speculative cell-assembly theory. My belief is that the first ultraintelligent machine is most likely to incorporate vast artificial neural circuitry […]" Und die Technik wird lernfähig sein: "a detailed knowledge of semantics might not be required, since the artificial neural network will largely take care of it, provided that the parameters are correctly chosen, and provided that the network is adequately integrated with its sensorium and motorium (input and output). For, if these conditions are met, the machine will be able to learn from experience, by means of positive and negative reinforcement, and the instruction of the machine will resemble that of a child." In: Irving John Good: Speculations Concerning the First Ultraintelligent Machine. Trinity College. Oxford. 1965. Basierend auf Vorträgen der "Conference on the Conceptual Aspects of Biocommunications" des Neuropsychiatric Institute, University of California, Los Angeles, Oktober 1962 und der "Artificial Intelligence Session" des "Winter General Meetings" der IEEE vom Januar 1963. Online: http://acikistihbarat.com/dosyalar/artificial-intelligence-first-paper-on-intelligence-explosion-by-good-1964-acikistihbarat.pdf
- [5] Menschen sind cleverer als Gorillas. Und in der heutigen Welt hängt das Schicksal der Gorillas mehr von Menschen ab als umgekehrt. Wenn dann eine Superintelligenz cleverer ist als Menschen, dann wird unser Schicksal mehr von diesen Superwesen abhängen als umgekehrt. Um dennoch eine lebenswerte Zukunft für Menschen zu sichern, schlägt der Nick Bostrom vor, dass die Anfangsbedingungen der Explosion von Superintelligenz von uns gewählt werden: "Will it be possible to construct a seed AI or otherwise to engineer initial conditions so as to make an intelligence explosion survivable? How could one achieve a controlled detonation?" In: Nick Bostrom: Superintelligence: Paths, Dangers, Strategies. Oxford University Press. 2014. 328 Seiten. ISBN: 978-0199678112. Siehe auch Bostrom-Bremse ↗