Nick Bostrom (1973), es, probablemente, uno de los filósofos más influyentes de nuestros días. Nacido en Helsingborg, Suecia, es conocido por sus investigaciones sobre el riesgo existencial, la ética del perfeccionamiento humano y los peligros asociados a la superinteligencia. Profesor en la Universidad de Oxford, fue el director fundador del extinto Future of Humanity Institute – también asociado a Oxford-, un centro de investigación que se concentraba en el estudio de las futuras consecuencias de la tecnología sobre el espacio humano, y los diversos riesgos globales que se desarrollan entre los siglos XXI, XXII y XXIII. De ahí que le FHI, llegó a ser referente en el largoplacismo radical y el altruismo eficaz, desde sus indistintas investigaciones.
En su influyente libro "Superinteligencia: Caminos, Peligros, Estrategias"(2014), Bostrom argumentó que una IA superinteligente podría desarrollar capacidades que le permitirían mejorar su propia inteligencia a un ritmo mucho más rápido que el de los humanos. Esto plantearía el riesgo de que tal inteligencia pueda convertirse en la forma de “vida” dominante, lo que podría resultar en una catástrofe existencial para la humanidad. De ahí que uno de los desafíos más críticos que planteó Bostrom era el problema del control: cómo asegurar que una superinteligencia actúe de manera alineada con los valores humanos. La preocupación del Bostrom radicaba en que, si se desarrolla una IA con objetivos no alineados con los nuestros, podría actuar de formas perjudiciales para la humanidad. En ese sentido, la superinteligencia representaría uno de los mayores riesgos existenciales a los que se enfrenta la humanidad, si no se llegara a subordinarla a las necesidades humanas.
Diez años después, el filósofo sueco retoma el tema de la superinteligencia y la IA, y elabora una reflexión sobre su futuro a muy largo plazo. Bostrom imagina un mundo donde todas las enfermedades han sido erradicadas y los humanos pueden vivir indefinidamente en una abundancia casi mágica, gracias a la superinteligencia que gestiona todos los aspectos de la vida cotidiana. En ese escenario, el pensador escandinavo se interroga sobre el sentido de la vida en una sociedad donde las necesidades básicas están completamente satisfechas. Es decir, cuáles serían las consecuencias de una existencia sin desafíos ni responsabilidades.
En un mundo de problemas resueltos, la naturaleza humana podría cambiar completamente. Si la superinteligencia y la IA solucionan todos nuestros problemas, la comprensión de lo que significa ser humano se modificaría sustancialmente. Esto debido a que la naturaleza humana se ha formado a partir de sus innumerables retos existenciales, tanto materiales como espirituales. En ese sentido, ¿qué tipo de religión emergería de una sociedad que ha logrado superar las dificultades materiales más elementales? ¿Qué valores morales surgirían una vez que la superinteligencia y la IA hayan sustituido al ser humano en la producción y gestión de recursos? ¿Cómo concebiríamos el conocimiento más allá de la necesidad de resolver problemas prácticos y teóricos? ¿Qué tipo de economía y sociedad surgiría en ese escenario tras la abolición del trabajo?
Aparentemente, el último texto de Bostrom adolecería de un elemento central: la posibilidad real de su “utopía”. Sin embargo, el mismo autor es consciente de que se trata de una hipótesis sustentada en la evolución exponencial de la IA aplicada a todas las áreas productivas y cognitivas. Donde el trabajo humano ya no sea necesario y el esfuerzo humano por conocer sea un recuerdo. No hay que olvidar que muchos ya hablan de una “renta universal” para siglo XXII, el momento en que la sociedad humana ya esta organizada por la IA y sus alcances integrales. Aunque no se crea, Bostrom evidencia con este libro una de las funciones de la filosofía: conmover y suscitar debate. Muy recomendable libro.
Comparte esta noticia