La singularité technologique, ou simplement la singularité, est un concept futuriste à multiples facettes avec plusieurs définitions qui se chevauchent et parfois sont contradictoires. La définition la plus appropriée et la plus importante de la Singularité a été donnée par Vernor Vinge dans son essai, The Coming Technological Singularity. Il fait référence au point auquel l’intelligence surhumaine est créée technologiquement. Ces intelligences surhumaines pourraient alors appliquer leur intelligence et leur expertise à la tâche de créer des intelligences surhumaines supplémentaires ou plus puissantes, entraînant un effet boule de neige avec des conséquences au-delà de notre capacité actuelle à imaginer.
Le terme singularité technologique a été inventé par analogie avec la singularité au centre d’un trou noir, où les forces de la nature deviennent si intenses et imprévisibles que notre capacité à calculer le comportement de la matière dans ces circonstances tombe à zéro. La notion d’accélération du changement technologique est souvent évoquée en conjonction avec l’idée d’intelligence surhumaine dans les dialogues Singularity. Certains ont fait valoir qu’à mesure que la pente du progrès technologique augmente, elle culminera en une asymptote, semblable visuellement à une singularité mathématique.
Cependant, cette notion de la singularité n’est pas la même que celle voulue par Vinge ; se référant à l’émergence de l’intelligence surhumaine, ainsi que des vitesses de pensée surhumaines. (Y compris l’intelligence, la capacité de comprendre et de créer des concepts, de transformer des données en théories, de faire des analogies, d’être créatif, etc.) au sens où le suggérerait une singularité mathématique.
Parce que les intelligences surhumaines seraient, par définition, plus intelligentes que n’importe quel humain, notre capacité à prédire de quoi elles seraient capables avec une quantité de temps, de matière ou d’énergie donnée a peu de chances d’être exacte. Une intelligence surhumaine pourrait être capable de fabriquer un superordinateur fonctionnel à partir de composants bon marché et facilement disponibles, ou de développer une nanotechnologie à part entière avec rien d’autre qu’un microscope à force atomique. Parce que la capacité d’une intelligence surhumaine à concevoir et fabriquer des gadgets technologiques surpasserait rapidement les meilleurs efforts des ingénieurs humains, une intelligence surhumaine pourrait très bien être la dernière invention que l’humanité ait jamais besoin de faire. En raison de leur génie surhumain et des technologies qu’elles pourraient développer rapidement, les actions des intelligences issues d’une Singularité Technologique pourraient entraîner soit l’extinction, soit la libération de toute notre espèce, selon les attitudes des plus puissantes intelligences surhumaines envers les êtres humains.
Le philosophe d’Oxford Nick Bostrom, directeur de l’Oxford Future of Humanity Institute et de la World Transhumanist Organization, soutient que la façon dont les intelligences surhumaines traitent les humains dépendra de leurs motivations initiales au moment de leur création. Une intelligence surhumaine bienveillante, en voulant préserver sa gentillesse, engendrerait des versions bienveillantes (ou plus aimables) d’elle-même au fur et à mesure que la spirale d’amélioration de soi se poursuivait. Le résultat pourrait être un paradis dans lequel des intelligences surhumaines résolvent les problèmes du monde et offrent une amélioration consensuelle de l’intelligence aux êtres humains. D’un autre côté, une intelligence surhumaine malveillante ou indifférente serait susceptible de produire davantage de la même chose, entraînant notre destruction accidentelle ou délibérée. Pour ces raisons, la singularité technologique pourrait être le jalon le plus important auquel notre espèce sera jamais confrontée.
Plusieurs voies vers l’intelligence surhumaine ont été proposées par les analystes et les défenseurs de Singularity. Le premier est l’IA, ou amplification de l’intelligence, qui prend un humain existant et le transforme en un être non humain grâce à la neurochirurgie, l’interfaçage cerveau-ordinateur ou peut-être même l’interfaçage cerveau-cerveau. L’autre est l’IA, ou Intelligence Artificielle, la création d’un système cognitif dynamique surpassant les humains dans sa capacité à former des théories et à manipuler la réalité. Le moment où l’une ou l’autre de ces technologies atteindra le seuil de sophistication nécessaire pour produire une intelligence surhumaine est incertain, mais divers experts, dont Bostrom, citent des dates dans la plage 2010-2030 comme probables.
Parce que la Singularité est peut-être plus proche que beaucoup ne le supposeraient, et parce que les motivations initiales de la première intelligence surhumaine peuvent déterminer le destin de notre espèce humaine, certains philosophes-activistes (Singularitaristes) considèrent la Singularité non seulement comme un sujet de spéculation et discussion, mais comme un objectif d’ingénierie pratique vers lequel des progrès significatifs peuvent être réalisés de nos jours. Ainsi, en 2000, le Singularity Institute for Artificial Intelligence a été fondé par Eliezer Yudkowsky pour travailler exclusivement dans ce but.