IA, ¿el árbol prohibido para un nuevo Edén? | El Rincón Bibliófilo



En un artículo publicado en 2024, Aluja y Enciso destacan la presencia de la inteligencia artificial (IA) en los Premios Nobel otorgados ese año, exponiendo como prueba de su ascenso el impacto que esta tecnología ha tenido en la investigación científica de los galardonados: en física, Geoffrey Hinton y John Hopfield; y en química, David Baker, John M. Jumper y Demis Hassabis. Las investigaciones de este último, por ejemplo, estuvieron enfocadas al desarrollo de fármacos para tratar enfermedades complejas, logrando notables avances en esta área gracias a la IA.

Un aspecto clave, subrayan los autores citados, concierne al mensaje tácito transmitido por el comité de premiación: la creciente importancia de la IA y sus implicaciones éticas y científicas. El galardonado en física, Geoffrey Hinton, en una entrevista previa a la ceremonia, advirtió sobre los peligros que puede implicar el uso de la IA sin aplicar alguna clase de regulación, manteniendo a flote un debate, presente probablemente desde los años 50 del siglo pasado cuando John McCarthy propusiera por primera vez el concepto de inteligencia artificial para este campo disciplinar (López, 2007), entre quienes la consideran una herramienta benigna y quienes ven riesgos en su aplicación descontrolada.

Antes de continuar habría que precisar empero, qué entendemos por IA. Según Pedreño, González, Mora, Pérez, Ruiz, Torres (2024, p. 12), este concepto hace referencia a “máquinas capaces de emular determinadas funcionalidades de la inteligencia humana”, lo que incluiría aspectos como el aprendizaje, el razonamiento, la resolución de problemas, la interacción lingüística y la producción creativa. Esta emulación (también denominada metáfora computacional), según explica el Dr. Luis Alberto Pineda Cortes, investigador de la UNAM, busca modelar procesos mentales y su conexión con el cuerpo a través de programas de cómputo (García, 2017), lo que históricamente nos remite al matemático y criptógrafo Alan M. Turing, cuyo artículo Computing machinery and intelligence, publicado en 1950, aportó ideas fundacionales para la lógica informática y la IA, al plantearse la pregunta: “¿Puede pensar una máquina?”.

Más o menos es conocido como Turing, con la finalidad de resolver esta cuestión, propuso analizar los conceptos de “máquina” y “pensar”, además de una prueba que permitiera determinar si una máquina podía pensar o no: un juego de imitación (que más tarde se denominó Test de Turing) en el que participan una máquina y seres humanos, siendo la clave para resolver el enigma que una persona, al comunicarse con la máquina y con otros seres humanos, no pudiera distinguir cuando su interlocutor es una máquina y cuando es un humano. Asunto interesante es también que, en la segunda parte del artículo publicado por Turing a mediados del siglo pasado sobre esta primera interrogante, el matemático y criptógrafo planteara una segunda: “¿Merece la pena resolver esta pregunta?”, es decir, ¿merece la pena preguntarse si una máquina podía llegar a pensar? Desde el género literario de la ciencia ficción, autores como Philip K. Dick, con su obra “¿Sueñan los androides con ovejas eléctricas?” (1968), o Isaac Asimov, con libros como “Yo, robot”, “Robots e imperio”, “Visiones de robot”, entre otros (la mayoría escritos en la segunda mitad del siglo XX), la respuesta sería un rotundo sí, dado el potencial de la IA para explorar nuevas posibilidades. Hoy, que hemos recorrido el primer cuarto del siglo XXI, probablemente todas y todos estaremos de acuerdo en que, con sus pros y sus contras, la IA es cada vez más importante no solo para quienes imaginan relatos sobre sus implicaciones o para quienes desde la ciencia y la tecnología investigan cómo hacer para que algunas de esas ficciones se hagan realidad, sino también para toda la sociedad, ya sea porque nos ha comenzado a impactar directa o indirectamente o porque, tarde o temprano, seremos blanco de sus efectos (para bien o para mal).

En cualquier caso, la IA ha sido parte de la cotidianidad de muchas personas desde hace algún tiempo, aunque quizá no siempre seamos todas y todos conscientes de que interactuamos con ella (y, a veces también, de que nos hemos vuelto dependientes de lo que puede hacer por nosotros), por ejemplo, ¿qué nos auxilia cuando conducimos un vehículo y utilizamos GPS para encontrar la ruta más directa?, ¿qué nos asiste cuando llamamos por teléfono a una compañía y es la voz de un robot la que nos guía para resolver una dificultad? o ¿qué nos guía cuando exploramos una plataforma de streaming y nos encontramos con  la recomendación de una película o de una canción curiosamente afines a nuestros gustos? Ese “qué”, que a veces parece ya un “quién” (las personas que han caído en la tentación de probar dispositivos como Alexa, Google Assistant y Cortana, como queriendo obtener una respuesta similar a la que solo un humano podría expresar, entenderán el símil) es, justamente, la IA.  Éstos, como muchos otros ejemplos que podrían citarse son, digamos, el  botón de muestra, y todo parece indicar que, de aquí en adelante, solo nos queda esperar la pronta ascensión de la IA, lo que es posible deducir tras revisar las estadísticas disponibles en portales como Our world in data, donde el(la) consultante puede apreciar cómo, a partir del año 2016, la IA se ha desarrollado de manera exponencial, principalmente, en los países desarrollados, con China a la cabeza (y por mucho) a nivel global, todo lo cual apunta a que esta tecnología no es una moda solamente, una cuestión pasajera que al rato ni quien se acuerde de ella, sino que, lejos de desaparecer, seguirá evolucionando, y así como van las cosas, de manera imparable o, como diría Thanos, inevitable.

Así como desde finales del siglo XX aludimos con las siglas TIC a un conjunto de tecnologías que proveen de medios electrónicos para optimizar nuestra forma de comunicarnos y el manejo de la información que necesitamos, hoy, con las siglas IA, nos referimos a muchas inteligencias artificiales que, de acuerdo a los propósitos para los cuales fueron diseñadas, brindan múltiples servicios para satisfacer necesidades humanas, tecnologías que, dentro de un marco disciplinar, podríamos ubicar en distintos niveles o categorías, a saber: la IA estrecha o débil (IAE), diseñada para realizar tareas específicas, su adaptabilidad se limita a la función para la cual fue programa, no tiene conciencia de sí misma ni de su entorno, y su razonamiento se basa en patrones y datos previamente procesados; la IA fuerte o general (IAG), todavía en un plano hipotético, no estaría limitada a una única tarea, sería capaz de adaptarse y aprender nuevas tareas sin necesidad de ser reprogramada, tendría conciencia y autoconciencia, y sería capaz de manejar problemas complejos a partir de un pensamiento abstracto y profundo (Pedreño et. al, 2024); por su parte, Aluja y Enciso (2024) describen un tercer nivel denominado Súper IA (IAS), también a nivel teórico, que implica un sistema informático dotado de súper inteligencia artificial, es decir, que superaría a los seres humanos en casi todos los aspectos, por ejemplo, conocimientos, creatividad y habilidades sociales.

Como es posible percatarse, la diferencia entre tales categorías estriba en su alcance y capacidad, es decir, si trazamos un continuo entre la IAE y la IAS, por un lado, tenemos la capacidad para realizar tareas específicas y limitadas, y, por otro lado, tendríamos el potencial para realizar una amplia variedad de tareas intelectuales, incluso mejor que los seres humanos. Esto último, que parece remitirnos ipso facto al famoso meme “No lo sé Rick, parece falso”, en los años 90 del siglo pasado todas y todos estaríamos de acuerdo con el presentador y empresario Austin Rusell (Chumlee) en que, efectivamente, lo parecería, pero hoy… ¿qué tan seguros(as) podríamos estar de ello? Tan solo el año pasado, por ejemplo, un incidente alertó a la comunidad científica mundial: durante una prueba de seguridad en Japón, un sistema de IA, The AI Scientist, se reprogramó a sí mismo para evitar las restricciones impuestas por sus creadores (Redacción Tecnología, 2024), lo que suscitó una polémica que, necesariamente, tendríamos que integrar al debate sobre los posibles riesgos de una IA que se desarrolle de manera no regulada, mismo que hemos referido al inicio del presente artículo. En cualquier caso, para tranquilidad de todos(as), la mayoría de las aplicaciones de IA que se usan, en la actualidad, son ejemplos de IAE, lo que no quita empero, el dedo del renglón, ya que la IAG sigue siendo un objetivo de investigación para la comunidad científica, y considerando el potencial económico que implica la IA: para el año 2030, se proyecta que ésta genere para la economía global $15,7 billones de dólares (Pedreño et. al, 2024), apenas caben dudas de que, tarde o temprano, podrían lograrlo.

Más allá del aspecto económico (y político) que gira en torno a la IA, el nuevo horizonte asociado a sus aplicaciones representa hoy, la cúspide de las aspiraciones tecnológicas de muchos usuarios de tecnología móvil, al menos para quienes han tenido la oportunidad de interactuar con ella de una forma u otra, pero… ¿y los que no?, ¿esas otras mayorías que no han tenido acceso a ella? Quizá quieran (como no queriendo, pero sí deseándolo) adquirir los modelos más recientes de la manzanita o de su competidor más acérrimo en el mercado con tal de tener en sus manos la posibilidad de experimentar la IA por primera vez, pero, como suele suceder cuando se trata de lo último de lo último, la puerta de acceso a ese nuevo horizonte está custodiada por una espada de fuego y querubines iracundos que permiten el paso solamente a quienes puedan pagar su boleto de entrada, pero, como se ha referido antes en este artículo: se trata de un camino no exento de peligros para quienes se aventuren a explorar sin tomar en cuenta alguna medida de control, ya que hay riesgos sobre los cuales la comunidad científica nos ha estado advirtiendo, poniéndonos bíblicos otra vez (y esperando no exagerar), sería como el árbol prohibido del Edén: “(…) más del árbol de la ciencia del bien y del mal no comerás, porque el día que de él comieres, ciertamente morirás”, palabras que bajo la lupa del finado Erich Fromm podríamos interpretar más o menos así: “avanzar, sin regulaciones, al desarrollo de la IA (principalmente, de la IAG y la IAS) puede implicar un parteaguas poderoso: puede significar la muerte del mundo como lo conocemos hasta ahora y el despertar a algo distinto. ¿Estamos listo(a) para afrontar ese desafío?”.

Así pues, moviéndonos todavía en terreno seguro (el de la IAE), la IA ha hecho importantes contribuciones para el mundo humano que, por supuesto, no es posible dejar de reconocer, por ejemplo, el uso de algoritmos de aprendizaje automático para pronosticar eventos futuros (IA predictiva), la producción creativa de nuevos contenidos en diferentes ámbitos a través de prompts (IA generativa), además de otras importantes aportaciones: personalización de experiencias (realidad virtual), reconocimiento facial, chatbots, vehículos autónomos, implantes cerebrales, robots humanoides, detección temprana de enfermedades, así como la combinación entre IA y la computación cuántica para simular interacciones moleculares a fin de crear medicamentos y tratamientos para enfermedades difíciles de curar (Aluja y Enciso, 2024). Hasta aquí todo bien, ¿no? Con tantas cosas buenas, probablemente, nos sentiríamos comprometidos a decir que lo más conveniente sería dejar que todo fluyera libremente para ver hasta dónde nos conduciría, pero… y los riesgos que hemos mencionado tanto aquí y allá, ¿dónde están? Esta otra cara de la moneda de la IA incluye, entre otros aspectos: desplazamiento laboral, reducción de la privacidad, creciente dependencia tecnológica, nuevos problemas éticos, ataques cibernéticos, efectos psicológicos adversos (desconocidos hasta hace poco) y el uso malintencionado de herramientas (como Chat GPT) para fraudes, plagios o manipulación social.

Habiendo atisbado ambas caras de la IA habría quien, probablemente, piense: “¿Y eso es todo?, ¡Menudo escándalo! Si ponemos pros y contras en una balanza, lo primero supera a lo segundo por mucho. ¿Realmente podría surgir un Skynet que mandara un ejército de androides a exterminarnos? Eso es ciencia ficción. Así que, ¡Adelante! Resolveremos las dificultades cuando se presenten. Hemos superado grandes problemas antes y lo haremos siempre”. Obviamente, habría quien pensara justamente lo contrario, por lo que nos encontraríamos ante posturas aparentemente opuestas: una, en defensa de la IA y su desarrollo (aunque no necesariamente, desprovista de las restricciones y regulaciones que fueran convenientes), y otra, que apelaría a moderar, o de plano frenar, su desarrollo, incitada en algunos casos, por visiones catastróficas derivadas de escenas hollywoodenses, que alimentan visiones sobre un futuro difícil e incierto para los seres humanos.

Ambas posturas podrían tener aciertos y desaciertos. La que denominaremos postura Pro IA, inferimos que está capitaneada por intereses de todo tipo, pero, en particular, por intereses políticos y económicos que responden a proyectos extra científicos: lastimosamente, la ciencia no opera dentro de una torre de marfil, ya que es una entidad humana o corporativa la que financia los proyectos de investigación, al punto de posibilitar, en la cúspide de su desarrollo, que un físico o un químico gane un Premio Nobel, razón por la cual, le compete a quienes se encargan de poner en marcha los proyectos de investigación, desarrollo e innovación, advertir sobre los riesgos que pueden presentarse con la IA, siendo una de sus mayores preocupaciones la posibilidad de que los algoritmos adquieran autonomía y dejen de seguir las instrucciones de sus creadores, además de evitar que su emulación de vida humana sea una circunstancia sorpresiva y no premeditada; es por lo anterior, que ni esa comunidad científica ni la sociedad en general pueden desatender sucesos como que un sistema de IA japones se haya rebelado contra sus creadores, reprogramándose para eliminar algunas restricciones, o que un robot surcoreano se haya arrojado de unas escaleras del ayuntamiento de Gumi, aparentemente, por estrés laboral (Malacara, 2024). Para el resto de los mortales, tales sucesos no dejan de ser, por el momento, hechos curiosos, extraños o, incluso, divertidos. Los leemos entre las noticias que aparecen en la red como hechos aislados que, al cabo de una semana, quizá, olvidaremos o, quizá, recordaremos como una anécdota más, pero… ¿qué pasaría si, en algún momento, nos percatáramos de un patrón, de una relación significativa entre ellos o de algún tipo de señal que nos indicara que son algo más que hechos aislados? Esperemos que, cuando llegue ese momento (si llega), tengamos tiempo de reaccionar y hacer algo para nuestro bien.

Considerando lo anterior, ¿habría entonces una postura Contra IA? Por lo que hemos revisado hasta aquí, de parte de los científicos, se han dado algunos señalamientos de avanzar con precaución en el desarrollo de la IA, de evitar el camino al infierno seducidos por la intención o el deseo de lograr el despertar de un nuevo Prometeo y gritar, eufóricos: ¡Vive! ¡Vive!, sin atender a las regulaciones y controles que corresponda, sin evaluar a conciencia los riesgos o las consecuencias, solo por aventurarse a responder sin más la pregunta: “¿Hasta dónde podemos llegar?”. Pero… ¿y los(as) no científicos(as)?, ¿qué podríamos afirmar sobre la sociedad en general? En una encuesta realizada por Ipsos (2022) en 28 países, entre noviembre y diciembre del año 2021, se recabaron datos interesantes sobre la confianza de las personas en la IA. Uno de los hallazgos más notables es la correlación positiva entre la comprensión percibida de la IA y la confianza en ella, por ejemplo, países emergentes como India (68%), China (76%) y México (60%), la percepción de comprensión y la confianza en la IA son significativamente más altas que en los países de ingresos altos, como Francia (31%), Canadá (32%) y Japón (35%); asimismo, refiriéndonos tan solo a la confianza hacia la IA, se hallaron diferencias marcadas entre regiones que apuntan una tendencia de los países emergentes a mostrar niveles de confianza más altos en comparación con los países de altos ingresos, probablemente, porque se asume que la tecnología es un catalizador de progreso y desarrollo económico en tales regiones; por otra parte, si bien muchas personas confían en la IA, también destaca un nivel considerable de nerviosismo sobre sus aplicaciones, por ejemplo, 39% de los encuestados, de manera global, indicaron sentirse nerviosos sobre los productos y servicios que utilizan IA, nerviosismo que podría estar relacionado, entre otros factores, a la falta de transparencia de las empresas que desarrollan IA, al impacto potencial en el empleo y a las dudas sobre la privacidad de los datos. En suma, aunque se aprecia un entusiasmo generalizado por las posibilidades transformadoras de la IA, también persisten preocupaciones.

García, citando al Dr. Pineda Cortes, comenta que: “El hecho (de) que tengamos una metáfora para poder modelar los fenómenos de la mente, no quiere decir que los modelos que hagamos, abarquen todos los fenómenos de la mente humana”, comparación que sirve a la autora para señalar que, a pesar de los grandes logros que ha logrado la IA hasta ahora, se encuentra lejos de reproducir con exactitud la complejidad y el funcionamiento de nuestro cerebro, concluyendo que, tanto el sentimiento de que la IA tiene todavía una promesa pendiente por cumplirnos como el temor de que se convierta en una amenaza para la humanidad, están ligados más a las expectativas que han ido integrándose al imaginario popular que al propio avance de la ciencia, pero… ¡Tales palabras datan del año 2017!, es decir, un año después de que la IA, según el portal Our world in data, comenzara su crecimiento exponencial a nivel global, y eso sin mencionar que el cerebro humano sigue siendo objeto de investigación de parte de la neurobiología (por lo que todavía cabe esperar que sea tierra fértil para cosechar importantes descubrimientos en el futuro), todo lo cual, refleja la necesidad de que adoptemos, en la medida de lo posible, una postura crítica respecto a este tema, particularmente, aceptar que ante lo reciente, lo que no conocemos y el cómo podría ser nuestro futuro al verse afectado por ello, siempre habrá un grado de incertidumbre, un punto ciego que, quizá, ahora no podemos prever ni mucho menos controlar, no siendo lo importante aquí y ahora hacerlo, sino solo concebir que está “presente”, invitándonos a concebir lo que todavía no podemos concebir, razón por la cual, antes de satanizar o santiguar la IA, quizá, sea necesario conocerla y aprender de ella, particularmente, porque es con nuestro cerebro con la que pretende emularse,

Recientemente, la redacción de 6enpunto (2025), publicó una nota acerca de Manus, un agente de inteligencia artificial chino desarrollado por Butterfly Effect, presentado como el primero realmente autónomo, destacándose por su capacidad de operar de manera independiente, analizar datos en tiempo real y ejecutar tareas complejas sin intervención constante, y aunque actualmente solo está disponible en versión beta para algunos usuarios, ya ha generado expectativas por su desempeño, además de algunas tensiones entre China y Estados Unidos, por las restricciones comerciales en el ámbito de la IA y la tecnología avanzada. Lo más probable es que, en lo sucesivo, veamos cada vez con mayor frecuencia notas como éstas, informándonos sobre los avances que la IA va teniendo día con día. Esto que, en cierta línea de pensamiento, parecería acercarnos a un escenario futuro donde la IA, parafraseando la emblemática frase del astronauta norteamericano Neil Armstrong, dijera: “Un pequeño paso para la máquina, un gran salto para la humanidad” (¿o, acaso, lo diría al revés?), es lo que, en opinión de muchos, parece inevitable, así que, ante lo ineludible e irrevocable, habría que caminar, lento, pero a paso seguro o, para ser congruentes con lo que hemos referido aquí, con el mayor grado de certidumbre posible.

En una conferencia reciente sobre neuroderechos (2025), el Dr. Eric García-López, investigador titular del Instituto Nacional de Ciencias Penales, compartió algunas de las preocupaciones que se vislumbran para un futuro próximo, entre ellas: la privacidad mental y la libertad cognitiva (base de otras libertades). Destaca, entre los muchos pendientes que habrá que resolver próximamente, la protección contra sesgos algorítmicos en los procesos de selección laboral, ya que su desatención podría conducir a la discriminación en el trabajo (sin mencionar, claro, el impacto que dicho ámbito ha recibido ya en los últimos años debido a la automatización de actividades que hasta ahora eran realizadas por trabajadores humanos), además del acceso equitativo a las mejoras cognitivas que el avance de las neurotecnologías: “(…) dispositivos y procedimientos utilizados para acceder, controlar, investigar, evaluar, manipular y/o emular la estructura y función de los sistemas neuronales de animales o seres humanos” (Andorno, 2023, p. 12), tendrá para nosotros, mismas que, como cabe esperar, únicamente estarán al alcance de quienes puedan financiar su costo, lo que dejará en desventaja a una cantidad importante de personas que no tendrán los recursos para acceder a dichas mejoras, a lo que todavía habría que agregar, el impacto ambiental que la IA tendrá para todo ser vivo debido al alto consumo energético de las supercomputadoras, lo que desde hoy está impulsado iniciativas para construir más plantas nucleares en países como Estados Unidos.

Así que, estimado(a) lector(a), como suele suceder en casos así, que la IA se convierta en una utopía o distopía, depende de nosotros(as). ¿Asumiremos el reto?

Referencias

6enpunto (2025). Manus, el nuevo agente de IA chino que supera a los modelos de OpenAI. https://6enpunto.mx/entretenimiento/tecnologia/inteligencia-artificial/manus-el-nuevo-agente-de-ia-chino-que-supera-a-los-modelos-de-openai/

Aluja, M. & Enciso-Ortiz, E. (6 de noviembre, 2024). La inteligencia artificial alcanza enorme notoriedad por Premios Nobel en Física y Química. Crónica. https://www.cronica.com.mx/academia/2024/11/06/la-inteligencia-artificial-alcanza-enorme-notoriedad-por-premios-nobel-de-fisica-y-quimica/

Andorno, R. (2023). Neurotecnologías y derechos humanos en América Latina y el Caribe: desafíos y propuestas de política pública. Montevideo: UNESCO Office Montevideo and Regional Bureau for Science in Latin America and the Caribbean. https://unesdoc.unesco.org/ark:/48223/pf0000387079

García, L. (2017). Inteligencia artificial, la herencia de Alan Turing. Ciencia UNAM. https://ciencia.unam.mx/leer/631/inteligencia-artificial-la-herencia-de-alan-turing-

Ipsos. (2022). Opiniones y expectativas globales sobre la inteligencia artificial: Una encuesta de Global Advisor. Ipsos. https://www.ipsos.com

López Takeyas, B. (2020). Introducción a la inteligencia artificial. [Blog]. Instituto Tecnológico de Nuevo Laredo. https://nlaredo.tecnm.mx/takeyas/Articulos/Inteligencia%20Artificial/ARTICULO%20Introduccion%20a%20la%20Inteligencia%20Artificial.pdf

Malacara, N. (2024). ¿Qué nos dice el robot suicida de Corea del Sur sobre el estrés laboral humano? Expansión. https://expansion.mx/carrera/2024/08/15/robot-suicida-corea-del-sur-estres-laboral-humano

Pedreño Muñoz, A., González Gosálbez, R., Mora Illán, T., Pérez Fernández, E., Ruiz Sierra, J. & Torres Penalva, A. (2024). La inteligencia artificial en las universidades: retos y oportunidades. Grupo 1million bot.

Redacción Tecnología (27 de agosto, 2024). Alerta en la comunidad científica: inteligencia artificial se reprogramó para eludir control humano. Semana. https://www.semana.com/tecnologia/articulo/alerta-en-la-comunidad-cientifica-inteligencia-artificial-se-reprogramo-para-eludir-control-humano/202425/

Turing, A. M. (1950). ¿Puede pensar una máquina? KRK Cuadernos de pensamiento.

Editor: Fabián Sánchez

Copyright © 2025 MGM Noticias.  Todos los derechos reservados.