¿Qué es la Singularidad Tecnológica?

La Singularidad Tecnológica, o simplemente «Singularidad», es un concepto multifacético en el futurismo con varias definiciones superpuestas y en ocasiones conflictivas. La definición más adecuada y destacada de la singularidad la dio Vernor Vinge en su ensayo, La singularidad tecnológica venidera. Se refiere al punto en el que se crea tecnológicamente la inteligencia sobrehumana. Estas inteligencias sobrehumanas podrían entonces aplicar su capacidad intelectual y experiencia a la tarea de crear inteligencias sobrehumanas adicionales o más poderosas, dando como resultado un efecto de bola de nieve con consecuencias más allá de nuestra capacidad actual de imaginar.

El término “Singularidad Tecnológica” fue acuñado por analogía con la singularidad en el centro de un agujero negro, donde las fuerzas de la naturaleza se vuelven tan intensas e impredecibles que nuestra capacidad para calcular el comportamiento de la materia en estas circunstancias cae a cero. A menudo se menciona junto con la idea de inteligencia sobrehumana en los diálogos de Singularidad, la noción de acelerar el cambio tecnológico. Algunos han argumentado que a medida que aumenta la pendiente del progreso tecnológico, culminará en una asíntota, similar visualmente a una singularidad matemática.

Sin embargo, esta noción de singularidad no es la misma que pretendía Vinge; refiriéndose al surgimiento de inteligencia sobrehumana, junto con velocidades de pensamiento sobrehumanas. (Incluyendo la inteligencia, la capacidad para comprender y crear conceptos, convertir datos en teorías, hacer analogías, ser creativo, etc.) Aunque las inteligencias sobrehumanas que crean inteligencias sobrehumanas adicionales de hecho resultarían en la aceleración del progreso tecnológico, el progreso no se volvería infinito, en el sentido que sugeriría una singularidad matemática.

Debido a que las inteligencias sobrehumanas serían, por definición, más inteligentes que cualquier humano, es poco probable que nuestra capacidad para predecir lo que serían capaces de hacer con una determinada cantidad de tiempo, materia o energía sea precisa. Una inteligencia sobrehumana podría ser capaz de diseñar una supercomputadora funcional a partir de componentes baratos y fácilmente disponibles, o desarrollar nanotecnología completa con nada más que un microscopio de fuerza atómica. Debido a que la capacidad de una inteligencia sobrehumana para diseñar y fabricar dispositivos tecnológicos superaría rápidamente los mejores esfuerzos de los ingenieros humanos, una inteligencia sobrehumana podría muy bien ser el último invento que la humanidad necesite hacer. Debido a su genio sobrehumano y las tecnologías que podrían desarrollar rápidamente, las acciones de las inteligencias que emergen de una Singularidad Tecnológica podrían resultar en la extinción o la liberación de toda nuestra especie, dependiendo de las actitudes de las inteligencias sobrehumanas más poderosas hacia los seres humanos.

El filósofo de Oxford Nick Bostrom, director del Instituto del Futuro de la Humanidad de Oxford y la Organización Transhumanista Mundial, sostiene que la forma en que las inteligencias sobrehumanas tratan a los humanos dependerá de sus motivaciones iniciales en el momento de su creación. Una amable inteligencia sobrehumana, al querer preservar su bondad, engendraría versiones bondadosas (o más bondadosas) de sí misma a medida que continuara la espiral de superación personal. El resultado podría ser un paraíso en el que las inteligencias sobrehumanas resuelvan los problemas del mundo y ofrezcan una mejora consensuada de la inteligencia a los seres humanos. Por otro lado, una inteligencia sobrehumana maliciosa o indiferente probablemente produciría más de lo mismo, resultando en nuestra destrucción accidental o deliberada. Por estas razones, la Singularidad Tecnológica podría ser el hito más importante que enfrentará nuestra especie.

Los analistas y defensores de Singularity han propuesto varios caminos hacia la inteligencia sobrehumana. La primera es IA, o Amplificación de Inteligencia, que toma a un humano existente y lo transforma en un ser no humano a través de la neurocirugía, la interconexión cerebro-computadora o quizás incluso la interconexión cerebro-cerebro. La otra es la IA, o Inteligencia Artificial, la creación de un sistema cognitivo dinámico que supera a los humanos en su capacidad para formar teorías y manipular la realidad. No se sabe cuándo cualquiera de estas tecnologías alcanzará el nivel umbral de sofisticación necesario para producir inteligencia sobrehumana, pero una variedad de expertos, incluido Bostrom, citan fechas dentro del rango 2010-2030 como probables.
Debido a que la Singularidad puede estar más cerca de lo que muchos supondrían, y debido a que las motivaciones iniciales de la primera inteligencia sobrehumana pueden determinar el destino de nuestra especie humana, algunos filósofos activistas («Singularitarios») ven la Singularidad no solo como un tema de especulación y discusión, sino como un objetivo práctico de ingeniería hacia el que se puede lograr un progreso significativo en la actualidad. Así, en 2000, Eliezer Yudkowsky fundó el Singularity Institute for Artificial Intelligence para trabajar exclusivamente en pos de este objetivo.