Was ist die technologische Singularität?

Die technologische Singularität oder einfach „Singularität“ ist ein vielschichtiges Konzept im Futurismus mit mehreren sich überschneidenden und manchmal widersprüchlichen Definitionen. Die zutreffendste und prominenteste Definition der Singularität wurde von Vernor Vinge in seinem Aufsatz The Coming Technological Singularity gegeben. Es bezieht sich auf den Punkt, an dem übermenschliche Intelligenz technisch geschaffen wird. Diese übermenschlichen Intelligenzen könnten dann ihre Intelligenz und ihr Fachwissen einsetzen, um zusätzliche oder mächtigere übermenschliche Intelligenzen zu erschaffen, was zu einem Schneeballeffekt mit Folgen führt, die unsere gegenwärtigen Möglichkeiten übersteigen.

Der Begriff „Technologische Singularität“ wurde in Analogie zur Singularität im Zentrum eines Schwarzen Lochs geprägt, wo die Naturkräfte so intensiv und unvorhersehbar werden, dass unsere Fähigkeit, das Verhalten von Materie unter diesen Umständen zu berechnen, auf Null sinkt. In Singularitätsdialogen wird oft in Verbindung mit der Idee der übermenschlichen Intelligenz der Begriff der Beschleunigung des technologischen Wandels erwähnt. Einige haben argumentiert, dass der technologische Fortschritt mit zunehmender Steigung in einer Asymptote gipfelt, die visuell einer mathematischen Singularität ähnelt.

Dieser Begriff der Singularität ist jedoch nicht derselbe, wie er von Vinge beabsichtigt war; bezieht sich auf die Entstehung übermenschlicher Intelligenz, zusammen mit übermenschlichen Denkgeschwindigkeiten. (Einschließlich Klugheit, der Fähigkeit, Konzepte zu verstehen und zu erstellen, Daten in Theorien umzuwandeln, Analogien zu erstellen, kreativ zu sein usw.) Obwohl übermenschliche Intelligenzen, die zusätzliche übermenschliche Intelligenzen schaffen, tatsächlich zu einer Beschleunigung des technologischen Fortschritts führen würden, würde der Fortschritt nicht unendlich werden. in dem Sinne, dass eine mathematische Singularität nahelegen würde.

Da übermenschliche Intelligenzen per Definition schlauer wären als jeder Mensch, ist es unwahrscheinlich, dass unsere Fähigkeit, vorherzusagen, was sie mit einer bestimmten Menge an Zeit, Materie oder Energie leisten könnten, genau ist. Eine übermenschliche Intelligenz könnte in der Lage sein, aus billigen und leicht verfügbaren Komponenten einen funktionierenden Supercomputer zu bauen oder eine vollwertige Nanotechnologie mit nichts als einem Rasterkraftmikroskop zu entwickeln. Da die Fähigkeit einer übermenschlichen Intelligenz, technologische Geräte zu entwerfen und herzustellen, die besten Bemühungen menschlicher Ingenieure schnell übertreffen würde, könnte eine übermenschliche Intelligenz sehr wohl die letzte Erfindung sein, die die Menschheit jemals machen muss. Aufgrund ihres übermenschlichen Genies und der Technologien, die sie schnell entwickeln könnten, könnten die Handlungen von Intelligenzen, die aus einer technologischen Singularität hervorgehen, entweder zum Aussterben oder zur Befreiung unserer gesamten Spezies führen, abhängig von der Einstellung der mächtigsten übermenschlichen Intelligenzen gegenüber den Menschen.

Der Oxford-Philosoph Nick Bostrom, Direktor des Oxford Future of Humanity Institute und der World Transhumanist Organization, argumentiert, dass die Art und Weise, wie übermenschliche Intelligenzen Menschen behandeln, von ihren ursprünglichen Motivationen zum Zeitpunkt ihrer Erschaffung abhängt. Eine freundliche übermenschliche Intelligenz würde, wenn sie ihre Freundlichkeit bewahren möchte, freundliche (oder freundlichere) Versionen von sich selbst erzeugen, während die Spirale der Selbstverbesserung fortschreitet. Das Ergebnis könnte ein Paradies sein, in dem übermenschliche Intelligenzen die Probleme der Welt lösen und den Menschen eine einvernehmliche Intelligenzsteigerung bieten. Auf der anderen Seite würde eine böswillige oder gleichgültige übermenschliche Intelligenz wahrscheinlich mehr davon produzieren, was zu unserer zufälligen oder vorsätzlichen Zerstörung führt. Aus diesen Gründen könnte die technologische Singularität der wichtigste Meilenstein sein, dem unsere Spezies jemals begegnen wird.

Singularity-Analysten und -Befürworter haben mehrere Wege zu übermenschlicher Intelligenz vorgeschlagen. Die erste ist IA oder Intelligence Amplification, die einen existierenden Menschen nimmt und ihn durch Neurochirurgie, Gehirn-Computer-Schnittstellen oder vielleicht sogar Gehirn-Gehirn-Schnittstellen in ein nichtmenschliches Wesen verwandelt. Die andere ist KI oder künstliche Intelligenz, die Schaffung eines dynamischen kognitiven Systems, das den Menschen in seiner Fähigkeit übertrifft, Theorien zu bilden und die Realität zu manipulieren. Wann eine dieser Technologien den für die Produktion übermenschlicher Intelligenz erforderlichen Schwellenwert erreichen wird, ist ungewiss, aber eine Reihe von Experten, darunter Bostrom, nennen Daten im Zeitraum 2010-2030 als wahrscheinlich.
Da die Singularität möglicherweise näher ist, als viele annehmen würden, und weil die anfänglichen Motivationen der ersten übermenschlichen Intelligenz das Schicksal unserer menschlichen Spezies bestimmen können, betrachten einige Philosophen-Aktivisten („Singularitarier“) die Singularität nicht nur als Thema für Spekulationen und Diskussion, sondern als praktisches technisches Ziel, auf das heute sinnvolle Fortschritte erzielt werden können. So wurde im Jahr 2000 das Singularity Institute for Artificial Intelligence von Eliezer Yudkowsky gegründet, um ausschließlich auf dieses Ziel hinzuarbeiten.