«Es probable que la IA sea lo mejor o lo peor que le haya pasado a la humanidad, por lo que hay un gran valor en hacerlo bien» 2
Por qué deberíamos interesarnos en temas que parecen tan lejanos, sobre todo en un país como el Perú que, como lo hemos dicho otras veces, ha vivido y vive tan de espalda a la tecnología y al conocimiento? Tan es así, que en plena época efervescente de la tecnología, aún persistimos en vivir de los recursos que la naturaleza nos brinda. Sin hacer un verdadero esfuerzo por ir desarrollando, por ejemplo, una economía digital que nos vaya dando otras opciones de generación de valor económico y nos permita romper el ciclo perverso de los Commodities.
Lo más complicado de todo esto es que, nos guste o no, estamos relacionados con la digitalización y con las tecnologías digitales. Y en ese proceso, desde hace algún tiempo, nos hemos visto confrontados con un término que para algunos representa el Santo Grial de la tecnología, mientras que para otros se trata de un simple mito y, como tal, imposible de alcanzar. Nos referimos a la Singularidad Tecnológica.
Singularidad Tecnológica
En realidad, no se trata de una tecnología más. Es una confluencia de tecnologías que crearán nuevas capacidades de inteligencia que superarán a la inteligencia humana. Aunque hay quienes sostienen que esto nunca ocurrirá porque estamos hablando de inteligencias diferentes. La inteligencia humana, siendo multidimensional y las máquinas con inteligencias específicas, pero que seguirán creciendo aunque la ley de Moore haya comenzado a tener problemas 3. Y es aquí donde encontramos los primeros cuestionamientos para este proceso singular. Porque si no son comparables, entonces cómo podemos decir que una supera a la otra.
Lo cierto es que “la inteligencia humana es emocional, intuitiva y subjetiva. Es decir, los seres humanos tienen la capacidad de aprender de contextos culturales, valores y puede adaptarse a situaciones complejas. En cambio, la inteligencia artificial es rápida, precisa y puede procesar grande cantidades de datos en tiempos muy cortos. Sin embargo, estos procesos carecen de conciencia, emociones y de la capacidad de entender el mundo subjetivamente”. Es decir, solo hay ciertos aspectos en los que la inteligencia artificial está superando a la inteligencia del ser humano. Como por ejemplo en la velocidad de procesamiento de enormes cantidades de datos (Big Data), precisión (cálculos matemáticos), escalabilidad (La IA puede ser aplicada a diferentes sistemas), memoria ilimitada (la IA puede procesar, analizar y usar datos que el ser humano no puede).
En otras palabras, no es que la Inteligencia Artificial supere absolutamente a la inteligencia del ser humano, sino que es mejor en determinados aspectos que esta última. Por tanto, esto lejos de representar una amenaza para el ser humano debería ser tomada como una mejora en sus procesos de toma decisiones. Pero, adentrémonos en el tema propiamente dicho.
Hay tres cosas que nos interesan abordar en estas líneas. Uno, qué es la singularidad; dos, qué tecnologías nos conducirían inevitablemente a ella y, tres, cuáles serían los efectos para la humanidad si se llegase a desarrollar. Hay quienes se apasionan por el factor tiempo. Es decir, cuán cerca o lejos estamos de su realizacion. Sin duda, este aspecto es el más controversial. No hay acuerdos. Sin embargo, más allá del aspecto temporal, deberíamos preguntarnos si tiene sentido conocer los derroteros de la Singularidad?
Desde nuestro punto de vista, creemos que sí. Porque podría estar en juego el mundo en el que vivimos, tal como lo hemos conocido. A decir de algunos, podría estar en juego la misma humanidad. No pretendemos desarrollar unas líneas para el público especializado, sino para las personas que suelen interesarse en cualquier noticia. Así de simple. Por ello, trataremos de sustraernos de los tecnicismos en la medida de lo posible. Sin embargo, hay ampliaciones en los pie de página cuando los términos los ameriten.
Qué es Singularidad Tecnológica?
El Momento en el que la evolución de las tecnologías (IA y otras) produce una inteligencia superior a la inteligencia humana. Y aquí viene el temor. Será tan superior que no necesitará del ser humano para seguir avanzando. Haciéndose totalmente autónoma respecto de lo que desee el ser humano. Y entonces, dicen algunos, ese será el inicio del fin de la humanidad. Al respecto de la singularidad la IBM 4, sostiene:
«La singularidad tecnológica es un escenario teórico en el que el crecimiento tecnológico se vuelve incontrolable e irreversible, culminando en cambios profundos e impredecibles para la civilización humana»5
Sin embargo, hay quienes también piensan que podría ser la etapa de mayor creación, para resolver los graves problemas que enfrenta la humanidad. Como los problemas del Cambio Climático y del medio ambiente, como la personalización de la medicina, como desarrollar políticas públicas más efectivas para enfrentar la pobreza y la desigualdad, como generar una educación global, que al mismo tiempo sea personalizada en múltiples idiomas y formatos o, para enfrentar el desarrollo de mecanismos para la prevención de los desastres naturales, entre los problemas más evidentes.
Entonces deberíamos preguntarnos: qué es lo que nos podría conducir a la Singularidad Tecnológica?
En principio, el motor que nos conduciría a la Singularidad Tecnológica es la IA; sin embargo, previamente, aquella debe alcanzar el desarrollo de la Inteligencia Artificial General (AGI, por su siglas en inglés). Pero una vez que esta sea alcanzada, el paso a la Singularidad no es un proceso inmediato, porque la AGI requiere alcanzar lo que Nick Bostrom denomina, Superinteligencia. Con lo que quedaríamos en la antesala de la Singularidad.
Por tanto, primero, veremos las tecnologías que permitieron el desarrollo de la IA, luego las tecnologías que empujarían esta inteligencia hacia la AGI y, finalmente, el ascenso a la Superinteligencia y cómo se podría llegar a la Singularidad.
Entonces, nos toca preguntarnos: qué tecnologías procuraron el desarrollo de la IA?
En realidad, ha sido la convergencia de varias tecnologías, las que han permitido el desarrollo de la IA. Entre las más importantes tenemos:
Algoritmos de Aprendizaje Automático (Machine Learning)
Redes Neuronales Artificiales
Big Data
Procesadores de alta velocidad
Computación y almacenamiento en la nube
Sensores y dispositivos de Internet of Thing (IoT)
Infraestructura de redes
Todas estas tecnologías han jugado y juegan un rol central en el desarrollo de la IA. Pero no cabe dudas que las tres primeras han significado un antes y un después en su desarrollo. En el caso de los Algoritmos de Aprendizaje Automático (Machine Learning), porque “[Estos algoritmos] permiten que las máquinas puedan aprender y mejorar su rendimiento sin necesidad de ser explícitamente programadas para cada tarea”. Y cómo aprenden? Es que los algoritmos de Machine Learning (ML) al analizar grandes volúmenes de datos, pueden identificar patrones y extraer información útil. Con la que se pueden adaptar a situaciones imprevistas. Por ello, son centrales en un conjunto de tecnologías avanzadas que hoy se encuentran dominando la escena contemporánea de la IA.
Por otro lado, en el caso de las redes neuronales artificiales (RNA) también han jugado y juegan un rol central en el desarrollo de la IA porque tienen la capacidad para procesar información de forma muy parecida a como lo hace el cerebro humano. Al desarrollar esta forma de procesar la información, pueden modelar relaciones complejas; sin embargo, no alcanzan la complejidad de procesamiento que realizan las redes neuronales biológicas. Es decir, las que realiza el cerebro del ser humano.
El resto de tecnologías, las 3 últimas, que han ayudado al desarrollo de la inteligencia artificial, están en la línea de la infraestructura. Pero no por ello menos importantes. Sin ellas hubiera sido imposible que la IA llegase a donde ha llegado.
Ahora, qué requiere la IA para convertirse en AGI
Lo primero que debemos entender en este proceso es que los resultados de la IA hacia la AGI no son automáticos ni inmediatos. Deberán enfrentar una serie de retos que no serán fáciles. En general, cuando se le pregunta a la IA (ChapGPT) sobre las tecnologías que ayudarían alcanzar la AGI, nos responde lo siguiente:
Capacidad de razonamiento generalizado
Comprensión contextual profunda
Aprendizaje no supervisado
Adaptabilidad y creatividad
Modelos cerebrales y consciencia
Capacidades emocionales y sociales
Infraestructura tecnológica
Lo central en este proceso es que todas estas tecnologías podrían desarrollar la inteligencia artificial, acercándola mucho a la forma en que el cerebro humanos procesa y lleva a cabo sus procesos de inteligencia. Pero es claro que no lo harían en el mismo nivel. Tomemos, por ejemplo, el pensamiento crítico humano. En este caso, no se trata solo de lógica pura, sino de un proceso en el que es preciso “contextualizar información en aspectos culturales, históricos y éticos, algo que aún no está en el proceso que realizan las máquinas”.
En general, estas tecnologías, como el Aprendizaje no supervisado o los Modelos cerebrales y consciencias, llevarían a la inteligencia artificial a un nuevo estadio. Si acaso al nivel de la AGI. Y con ello, se estaría en la senda de la singularidad, no sin primero llegar a la Superinteligencia.
Sin embargo, en esta visión de desarrollo de la IA hay un problema que muchas veces pasa desapercibido. Pero que es fundamental evidenciar para poder entender los derroteros de la tecnología, básicamente de la IA que es el corazón del proceso y cómo podría conducirnos o no a la singularidad. Y es que se piensa que esta tecnología tendría un crecimiento exponencial.
Qué significa crecimiento exponencial?
En el caso de la IA, específicamente, no se podría decir que desde que Alan Turing, en la década de los ’50 del siglo pasado, se planteara la interrogante: «?Pueden las máquinas pensar?», en su artículo «Computing Machinery and Intelligence» 6, no haya tenido altibajos. Es decir, no ha sido una tecnología que se haya desarrollado exponencial e ininterrumpidamente. Es más, se suele hablar de los «inviernos de la IA» 7. Es decir, etapas en las que la IA se estancaba o hacía perder el interés de sus principales defensores.
En realidad, las tecnologías progresan en forma de una función logística y no exponencialmente 8. Lo cual no quiere decir que no tengan etapas de crecimiento de esta última forma, como le está pasando ahora a la IA. Sobre todo, después del 2010. Cuando se impulsó su desarrollo más profundamente 9 con el aprendizaje profundo y las redes neuronales más avanzadas.
Qué debe pasar con la AGI para llegar a la Singularidad?
Entre los que sostienen un crecimiento exponencial de las tecnologías
Según esta visión, nada detendrá el desarrollo de la IA hasta alcanzar a la inteligencia humana y replicar sus características más profundas, como las que vimos líneas arriba. Es decir, la IA no tendrá que enfrentar obstáculo alguno porque de acuerdo a esta percepción, existe un sentido de inevitabilidad en el desarrollo de esta inteligencia. Por tanto, la AGI tiene asegurado su desarrollo. Y solo es cuestión de tiempo. Y si bien es cierto la AGI implicaría que puede realizar cualquier tarea que el ser humano es capaz de realizar, eso no significaría que ya se estaría en la singularidad tecnológica.
Entre los que sostienen que no hay un crecimiento exponencial de las tecnologías
Por otro lado, están quienes sostienen que la IA no evoluciona sin tener obstáculos en el camino; sin embargo, que la tecnología no evolucione exponencialmente, no significa que no evolucione. Implica que hay avances y retrocesos pero no desaparición definitiva. Nadie podría decir que la AGI o la IA, sea el máximo nivel que estas tecnologías alcanzarán y que más allá de ellas no habrá nada más. Recordemos lo que pasó con la Realidad Virtual (RV). Después de un inicio auspicioso en los primeros años de los ’90, no se cumplió con las expectativas por limitaciones técnicas 10. Sin embargo, hoy la tenemos en videojuegos, educación, medicina y en el entrenamiento profesional. En otras palabras, el estancamiento de muchas tecnologías, no necesariamente significa su muerte o desaparición. Por tanto, podríamos decir que solo es cuestión de tiempo para que la AGI pueda marcar el rumbo hacia la singularidad tecnológica.
Es evidente que la diferencia entre estas dos visiones es solo el tiempo. En el primer grupo están los defensores acérrimos de la singularidad. Sólo es cuestión de algunos años. En cambio, en el segundo grupo están los que piensan que no hay un avance directo e inmediato de la IA para seguir avanzando. Pero no niegan en ningún momento que no sea posible seguir avanzando hasta la singularidad, aunque no son contundentes en este sentido. En todo caso, tienen dudas por los obstáculos que tiene en el camino la IA, pero no son tan claros en la ruta que seguiría la IA, si esos obstáculos fueran resueltos.
Entonces, no existiendo un diferencia sustancial entre estas dos visiones, la AGI tendría que cumplir los siguientes pasos para avanzar hacia la singularidad, según el ChatGPT:
Superación exponencial de las capacidades humanas
La AGI tendría que superarse autónomamente. Lo que requerirá el desarrollo de algoritmos y una capacidad de aprendizaje ilimitada.
Conexión con otros sistemas
La AGI deberá integrarse con diferentes tecnologías y sistemas globales como redes de comunicación, economía, etc.
Conocimiento fuera del límite humano
La AGI deberá desarrollar una capacidad humana para comprender áreas que han estado fuera de la comprensión humana. Centrándose en nuevos paradigmas científicos
Resolución de barreas éticas
La única forma de poder contener el desarrollo autónomo de la AGI, es desarrollando, al mismo tiempo, mecanismos de éticos y de control que permitan gestionar su desarrollo correr el riesgo de un desarrollo desbocado, que ponga en peligro la vida humana.
Frente a estas visiones, que solo se diferencian por el tiempo, están los que piensan que la inteligencia artificial no llegará a producir la AGI, menos la Singularidad. Lo cual resulta siendo inverosímil, porque gran parte de lo que en los albores de los 50 se consideraba como mitos, respecto de la IA, se han terminado convirtiendo en realidad. Y hoy, son parte no solo de nuestra realidad, sino que se vienen integrado en nuestras vidas como solo pensábamos podría ocurrir en una película de ciencia ficción. Un claro ejemplo de esta perspectiva eran las redes neuronales.
El nivel de escepticismo de esta tecnología era tal que se la consideraba como una tecnología muerta11. Sin embargo, en la actualidad, esta tecnología es el corazón de muchos sistemas de inteligencia artificial como el reconocimiento de imágenes, la traducción automática y la IA conversacional, entre otras. En consecuencia, no deberíamos negarle cualquier posibilidad a la IA antes de tiempo.
La Transición hacia la Singularidad Tecnológica
Está representada por el paso de la AGI hacia la Superinteligencia. Etapa ésta que estaría representando un paso fundamental hacia la Singularidad Tecnológica. No es propiamente esta última, pero significaría la antesala de su desarrollo. Y qué nos hace suponer que haber llegado a la Superinteligencia nos estaría conduciendo a la antesala de la Singularidad.
Cuando hablamos de la Superinteligencia estamos hablando de una inteligencia que habría superado a la inteligencia humana. Nick Bostrom en su extraordinario libro “Superinteligencia: caminos, peligros, estrategias” nos define a esta inteligencia de la siguiente manera:
«Cualquier intelecto que exceda en gran medida el desempeño cognitivo de los seres humanos en prácticamente todas las áreas de interés»12
Y no es que Bostrom esté dando por sentado que las disquisiciones respecto de las diferencias entre las inteligencias artificiales y la humana no existan. Lo que plantea es que “la inteligencia artificial no tiene por qué parecerse a la mente humana [no piensa]. . .[en consecuencia]deberíamos esperar que tengan arquitectura cognitivas muy diferentes a las inteligencias biológicas . . .» 13. Esta hipótesis genera una gran limitación en la posibilidad de la singularidad tecnológica. Porque pensamos que para que exista esa posibilidad, la IA tiene que superar a la inteligencia humana tal como la conocemos y no necesariamente tiene que ser así.
En la actualidad, como ya lo dijimos, la IA supera a la inteligencia humana en velocidad, precisión, escalabilidadymemoria ilimitada. En el fondo, lo que tenemos que considerar es que hay aspectos en los que la IA ya es superior a la inteligencia humana. Lo cual es incuestionable. Quizás nos estemos equivocando al tratar de constreñir la IA al carácter de la inteligencia humana, cuando podríamos tener una visión mucho más amplia de su naturaleza y quizás, solo quizás, podríamos estar abriendo el camino para entender un estadio de desarrollo en el que no necesariamente esté implícita la destrucción del ser humano.
Cuáles son los riesgos de la Singularidad para el ser humano?
Por dónde nos conducirá o cuáles serán los caminos que, finalmente, terminaremos adoptando con la IA? Es o son interrogantes que nadie puede responder. Sin embargo, lo peor que podríamos hacer es negarnos a tratar de comprender las evidencias que nos va dejando la IA. En otras palabras, no existe la certeza plena que se vaya a tranformar en AGI y que, esta última, se transforme en una Superinteligencia de tal forma que termine por sojuzgar al ser humano. Lo que representa el mayor temor de quienes tienen una visión distópica de la IA.
Cualesquiera que sean las circunstancias que debamos enfrentar, lo cierto es que debemos estar preparados para gestionar los riesgos que este proceso genere. “Estamos obligados a hacerlo bien”, como bien dijo Stephen Hawking, al inaugurar el Centro Leverhulme para el Futuro de la Inteligencia con sede en la Universidad de Cambridge en el 2016.
Los riesgos pueden ser múltiples; sin embargo, el que más preocupa es el que se refiere a la decisión de la inteligencia artificial de arremeter contra el ser humano. Es decir, que el objetivo de la inteligencia sea la destrucción de quien le dio “vida”, justamente. Esto es posible?. Hay quienes sostienen que una vez que superinteligencia haya sido alcanzada, ésta ya no necesitará del ser humano para seguir desarrollándose, porque éste será un proceso autónomo de crecimiento ad infinitum, donde el bienestar del ser humano, como él mismo, ya no serán su prioridad, si en algún momento ésta lo hubiera sido.
Esto significa que la IA creada está fuera del control del ser humano y que su capacidad para comprenderla es limitada. Se desarrolla con absoluta autonomía. Aquí, estuve tentado de decir que “piensa con absoluta autonomía”; sin embargo, hay quienes dirán que la IA no piensa. Efectivamente, no piensa en el sentido humano. Es decir, con emociones y subjetividad. Pero, según N. Bostrom, procesa información y toma decisiones de forma más eficiente y compleja. Utilizando el razonamiento lógico, la resolución de problemas y adaptándose a situaciones inesperadas. Lo cual puede superar a muchos seres humanos en sus procesos de inteligencia. Por ello, «la IA ya supera a la inteligencia humana en muchos ámbitos» 14, que no es lo mismo que decir que las máquinas sean superiores a los humanos en inteligencia general 15.
Y es que existe un momento de la superinteligencia en el que nadie sabe con certeza qué es lo podría ocurrir con respecto de la humanidad. Desde que la tecnología de la IA se catapultó como una de las tecnologías con mayores proyecciones, los vaticinios de consecuencias perjudiciales para humanidad se han multiplicado; sin embargo, lo que hemos visto es que lejos de esos impactos negativos, la IA está ayudando al desarrollo de procesos en diferentes actividades que realiza el ser humano, haciéndolas más productivas y sustentables
Probablemente, amparados en estos resultados, Bostrom haya terminado no siendo tan categórico respecto de la realización de la Superinteligencia y sus consecuencias. Por ello, concluye diciendo: «[La Superinteligencia]es altamente probable si el desarrollo de la IA continúa avanzando sin restricciones»16. Lo cual lo ubica entre los que creen que la IA se desarrolla exponencialmente.
En general, podríamos sostener que más allá del riesgo al que nos hemos referido, existe otro grupo de riesgos pero que no son de la misma magnitud que el primero. Podríamos decir que son de segundo orden. Entre estos tenemos:
La superinteligencia, no requiere de permiso para realizar diferentes actividades que no necesariamente están en la línea con lo que se requiere para hacer mejor la vida en el planeta
Se podrían incrementar los problemas de sesgo y discriminación
Las violaciones a la privacidad se podrían ahondar
Se incrementaría notablemente la posibilidad del desarrollo autónomo de armas mortales
Cuestiones éticas y morales
El incremento de los riesgos ambientales por el consumo de energía.
Conclusión
Adicionalmente, en el análisis de la IA existe un componente que estamos olvidando. La IA se basa en entrenamiento de modelos con millones de datos que los algoritmos han procesado. Por tanto, las predicciones, las respuestas a las conversaciones que se le plantea, etc. se sustentan en esos datos con los que fueron entrenados los modelos y se sujetan, por lo tanto, a los límites que, implícitamente, le impusieron esos mismos datos. Por lo menos, así viene ocurriendo en lo que conocemos de la IA. Pero la inteligencia artificial general (AGI) como la superinteligencia forman parte de una nebulosa que aún no termina de disiparse del todo, pero que, en teoría, están muy por encima de esas limitaciones.
Pero lo mismo no pasa con la inteligencia del ser humano que, a pesar de haberse entrenado también con una serie de datos e información, tiene conclusiones que no están limitadas por ese procesamiento sino que, complementariamente, tiene una cuota de intuición que no responde a esos parámetros. Responden a la impredictibilidad del razonamiento del ser humano. Sencillamente, porque hay una cuota de criterio intuitivo en ese proceso. Los “eureka”, tan propios de los momentos de mayor creación, no responden, necesariamente, a una naturaleza lineal de razonamiento. Son momentos de confluencias de las características más profundas de la inteligencia humana y que la inteligencia artificial, la AGI y la Superinteligencia, no están en capacidad de replicar aún. En tanto, esa capacidad no esté dada, difícilmente podrá sobrepasar a la inteligencia en el sentido en que los humanos la concebimos. Por tanto, la singularidad tecnológica tendrá que esperar. Lo cual no significa soslayarla. Por el contrario, estamos obligados a conocerla bien, en todas sus dimensiones. Estamos obligados a “hacerlo bien”, como sentenció Stephen Hawking.
Stephen Hawking, en la inauguración del Centro Leverhulm para el futuro de la Inteligencia (Artificial) de la Universidad de Cambridge, 2016 ↩︎
Problemas de la Ley de Moore. Se trata, fundamentalmente, de la miniaturización extrema a la que han llegado los microprocesadores, y más concretamente los transistores impresos sobre las obleas de Silicio porque han llegado a una escala de tal dimensión que están generando graves problemas: Ralentización en el ritmo de avance, incremento de costos, efectos cuánticos en los transistores (Efecto cuántico, interferencia cuántica y fluctuaciones cuánticas). https://www.elblogsalmon.com/sectores/cercano-fin-de-la-ley-moore-amenaza-bases-nuestra-sociedad-tecnologica-no-callejon-salidad ↩︎
IBM (International Business Machine) , es una empresa norteamericana que desde mediados del siglo pasado viene desarrollando tecnología. Sobre todo tecnología de vanguardia ↩︎
Se le preguntó a la IA: Desde cuándo se comenzó a hablar de IA en el mundo? Y esa fue su respuesta ↩︎
Inviernos de la IA, período en el que el entusiasmo precedente en el desarrollo de la IA, se detiene e ingresa en una etapa de retroceso. Es decir, el entusiasmo respecto de la IA se desvaneció y el descrédito se apoderó de la opinión popular. Y, por lo tanto, el financiamiento se detuvo y comenzó a retroceder. Se ha considera que la IA ha tenido dos inviernos : Primer Invierno (1974 – 1980), la publicación del Informe Lighthill en 1973 en el Reino Unido afirmó, en ese momento, que las investigaciones en IA habían fracasado. El gobierno británico detuvo su financiamiento. Segundo Invierno (1987 – 1993), en 1984 dos de los más importantes investigadores en el de la IA, Marving Minsky y Roger Schank, coincidieron en afirmar que se acercaba un posible invierno de la IA. A esto se sumó el fracaso de las máquinas LIPS, así como las computadoras de quinta generación. Obtenido en: https://hipertextual.com/2023/06/inviernos-inteligencia-artificial↩︎
Se le preguntó a la IA (ChatGPT): Existe alguna tecnología si la daban por muerta y hoy está desarrollándose plenamente y haciendo aportes a la vida contemporánea? ↩︎