El miedo a la inteligencia artificial

Ricardo A. Peña Silva

Miembro fundador de AIpocrates
Profesor Asociado, Facultad de Medicina, Universidad de los Andes
Twitter: @DrRicardoPena

Desde los inicios de la humanidad el hombre ha buscado modificar la naturaleza o crear herramientas para desempeñar, de forma mucho más eficiente, sus tareas del día a día. El ideal es que algunas de estas herramientas hagan las tareas de forma automática. Algunas de estas soluciones tecnológicas antiguas se quedaron en la mitología, como es el caso de Talos, un gigante autómata diseñado por Hefesto, y que protegía la Isla de Europa (Fig 1).

By Unknown artist – Jastrow (2006), Public Domain, https://commons.wikimedia.org/w/index.php?curid=828070 Fig. Imagen del gigante de Talos encontrada en una moneda antigua.

Otras soluciones si llegaron a ser realidad, y un ejemplo de ellas es el “mecanismo de Antikythera” (Fig 2). Este artefacto se encontró bajo el agua, en restos antiguos de un buque naufragado, y consiste de un complejo set de círculos acoplados de forma mecánica y que era un calendario astronómico de muy alta precisión. Se podría decir que el mecanismo de Antikythera fue el primer computador mecánico.

CC BY 2.5, https://commons.wikimedia.org/w/index.php?curid=469865 Fig 2. Imagen del mecanismo de Antikythera. Dispositivo encontrado en un naufragio antiguo y que parece ser un muy preciso calendario astronómico.

A pesar de su utilidad, la creación de muchas de estas herramientas también vino acompañada de “miedo” acerca de las posibles implicaciones de estas creaciones en la sociedad  (Chymis, 2020). Por siglos, y especialmente durante la edad media, el progreso tecnológico de la humanidad se vio frenado por el poder de individuos o organizaciones que veían un peligro en la creación, o implementación de tecnologías que podían atentar contra el “status quo” de las sociedades.

La real academia de la lengua define el miedo como

1. Angustia por un riesgo o daño real o imaginario.

2. Recelo o aprensión que alguien tiene de que le suceda algo contrario a lo que desea. (RAE, 2022)

Estas definiciones muestran como nuestras emociones y expectativas guían la interpretación del impacto de algunos fenómenos o elementos, en nuestro destino o planes.

La implementación de la inteligencia artificial (IA) en tareas de nuestra vida cotidiana no es ajena a estos miedos. Cada persona expresará algunas reservas respecto a la aplicación de la inteligencia artificial de acuerdo con su percepción de:

  • el conocimiento personal de las bases de la IA
  • la precisión de los desenlaces de la IA
  • el impacto que puede tener la IA en nuestros sistemas económicos y sociales
  • el riesgo que podría generar esta tecnología para nuestra especie.

Nuestro conocimiento acerca de la IA

Las definiciones acerca de la IA pueden cambiar según el campo y la persona a la que se le pregunte. En muchos campos prácticos se ha tomado la inteligencia artificial como aquellos procesos donde un sistema electrónico es capaz de automatizar un proceso, interpretando una señal de ingreso y dando una respuesta apropiada (de acuerdo con un programa diseñado por humanos). Para algunas personas esto puede incluir sistemas tan sencillos como los son termostatos, donde el sistema censa la temperatura de un medio y ajusta un efector, de manera que la temperatura del medio se mantenga cerca de un punto de ajuste.

Otras definiciones académicas buscan definir la IA en términos del pensamiento y las formas de actuar de los humanos. Estas definiciones consideran la función de un agente (un sistema desarrollado para ejecutar una tarea), según la forma en que el sistema piensa o actúa de forma humana o racional (Fig 3). Las combinaciones de estas variables utilizan nuestro saber acerca del conocimiento humano (contenido y representación), el lenguaje, funciones biológicas (como la visión), definiciones de lógica, y resultados de experimentos psicológicos, para evaluar el grado en que las tareas desempeñadas por un computador se acercan a la inteligencia humana. (Russell S, 2022)

Fig 3. Ejemplo de análisis de una aplicación de inteligencia artificial relacionada con la visión de computador en imágenes diagnósticas. En este caso un sistema (agente) es diseñado para ver (acción) imágenes diagnósticas de forma similar a la que lo harían expertos en radiología (humanos).

Es por lo tanto importante reconocer que cuando hablamos de inteligencia artificial nos referimos a una serie de soluciones, que toman en cuenta diferentes principios del pensamiento humano, para responder una necesidad puntual de nosotros como población. Es importante también conocer el concepto de algunos expertos que discuten que realmente la inteligencia artificial, en este momento, no se asemeja a la inteligencia humana. Incluso, algunos autores plantean que hacer que la “inteligencia” de un computador emule la inteligencia humana, no debería ser el objetivo mas importante de estos desarrollos tecnológicos.

“Los sistemas de inteligencia artificial no están ni mucho menos lo suficientemente avanzados como para sustituir a los humanos en muchas tareas que implican razonamiento, conocimiento del mundo real e interacción social. Estos sistemas muestran una competencia de nivel humano en habilidades de reconocimiento de patrones de bajo nivel, pero a nivel cognitivo se limitan a imitar la inteligencia humana, sin comprometerse profunda y creativamente”

Michael I Jordan. Profesor de la Universidad de California en Berkeley. (Pretz, 2021)

La precisión de los desenlaces de la inteligencia artificial

Otra preocupación de la comunidad es cuál es la utilidad real de las recomendaciones o resultados que se obtienen por medio de la IA. Esta preocupación se alimenta de la comunicación de los desarrolladores que, en algunos casos, tienden a inflar la importancia de sus creaciones, y cuando la comunidad tiene la oportunidad de evaluar los resultados reales, encuentran que la expectativa supera por mucho a la realidad. Muy recientemente, noviembre de 2022, Meta (la empresa propietaria de Facebook) lanzó Galactica. Galactica es un modelo de inteligencia artificial que busca convertirse en un gran modelo de interpretación de lenguaje para la comprensión de la ciencia. Anuncios muy recientes decían que galactica era capaz de interpretar y producir literatura académica, solucionar problemas matemáticos, y procesar información del comportamiento de moléculas, con base en la información científica que existe.

Algunos de los primeros resultados del uso de galactica mostraban que era capaz de construir textos con una estructura y lenguaje similar al lenguaje que utilizan los humanos en el momento que comunican ciencia, por ejemplo a través de un artículo científico. Sin embargo, aunque la estructura del lenguaje es similar, su contenido no tenía mucho sentido. La demostración de prueba de Galactica fue cerrada a los 3 días de su lanzamiento debido a que se encontró que pudo ser fácilmente manipulado para crear de textos racistas y que podían promover la desinformación. (Heaven, 2022).

Este es sólo un ejemplo de cómo las expectativas acerca del impacto o nivel de desarrollo de la inteligencia artificial, en algunos casos, superan su desempeño real. Sin embargo, no debemos olvidar que algunos modelos sencillos y que no han sido publicitados de una manera ambiciosa, realmente son capaces de mejorar o complementar procesos de razonamiento humanos. Un ejemplo de estos es el uso de inteligencia artificial en la interpretación de imágenes diagnósticas, que puede apoyar la toma de decisiones en radiología. El ejemplo de Galactica también nos muestra como los modelos son tan útiles como los datos y la información con los que fueron creados o son alimentados. Por lo tanto, para obtener mejores resultados con la IA es importante que los humanos (y la información) que alimentan y desarrollan los modelos busquen estar libres de sesgos, estén abiertos a la evaluación por la comunidad y comuniquen adecuadamente sus expectativas y resultados..

El impacto que puede tener la inteligencia artificial en nuestros sistemas económicos

Una gran preocupación de la sociedad es que la inteligencia artificial provoque desempleo debido a que muchas ocupaciones podrían ser fácilmente reemplazadas por sistemas que usen IA o robótica para ejecutar una tarea.

Este miedo ha existido a lo largo de todas las revoluciones industriales. En el siglo XIX, se creó un movimiento de trabajadores de la industria textil, los luditas, que se oponian a la implementación de maquinas en su sector productivo, porque consideraban que ellas los dejarían sin empleo (Chymis, 2020). La historia nos enseña que algunas tareas si desaparecen por acción de tecnologías (que facilitan algunos procesos), sin embargo, el número de empleos permanece estable o aumenta (Revisado por Chymis, 2020). Esta observación nos muestra que las sociedades deben reaccionar a la implementación de tecnologías, no con reservas, sino con políticas que promuevan educación y entrenamiento de trabajadores, de manera que estos puedan adaptarse a los nuevos espacios que abre la tecnología. En el campo de la salud es importante que a todo nivel (asistencial, administrativo, académico e investigación) los trabajadores reciban entrenamiento en aplicaciones de la inteligencia artificial y la informática en sus ocupaciones.

Tambien existen reservas acerca de como la tecnología podría aumentar la inequidad entre sociedades. Datos de las últimas decadas revelan que la tecnología ha reducido costos de productos y servicios en diferentes comunidades, ademas la globalización permite que empleados altamente calificados tengan una mayor movilidad o puedan participar en organizaciones innovadoras, mucho más facilmente que lo que ocurria en el pasado (Chymis, 2020). Es importante entonces que los gobiernos generen estructuras económicas, financieras , de innovación y desarrollo que busquen la implementación, y por que no, el desarrollo de tecnología, aprovechando la mayor conectividad de los individuos.

La amenaza de la inteligencia artificial para nuestra especie.

Reconocidos científicos como Stephen Hawking y Elon Musk han mencionado que la IA podría ser la mayor amenaza del tiempo presente para la humanidad. Parte de sus argumentos se basan en la idea de que el dominio del hombre sobre la naturaleza se ha dado por nuestra mayor inteligencia. Por lo tanto, que podría suceder cuando los computadores alcancen un nivel de inteligencia superior al de la especie humana. Estas ideas están relacionadas con el concepto de singularidad y la inteligencia artificial general (Chymis, 2020).

Expertos consideran que el nivel actual de la IA permite que los sistemas computacionales desarrollen tareas de bajo nivel, y muy específicas bajo supervisión humana (Pretz, 2021). Todavía estamos muy lejos de que los modelos de IA alcancen las particularidades, profundidad y cobertura de las capacidades cognitivas humanas. Por lo tanto, no hay razón para considerar que la IA general sea una amenaza. Esto no quiere decir que la sociedad no deba considerar cuáles serían las implicaciones de la IA general y se aliste para el momento en que ese nivel de desarrollo sea cercano.

El papel de la educación en la percepción de seguridad y utilidad de la inteligencia artificial

Un comentario de 2019 publicado en Academic Medicine, nos invita a considerar la utilidad de la inteligencia artificial en la salud (Li, Kulasegaram, & Hodges, 2019). Este comentario, emocionalmente positivo, busca mostrar como la IA puede ayudar a que el trabajo del personal de salud sea más eficiente y preciso. Publicaciones como esta, nos invitan a pensar que profesiones como la radiología no desaparecerán por la acción de la IA. Sin embargo, el trabajo del personal de radiología si pudiese cambiar ligeramente y su trabajo podría incluir la interpretación de una probabilidad diagnóstica asignada por un sistema de IA.

La IA y la robótica pueden reemplazar la necesidad de trabajadores que realicen tareas repetitivas, y pueden proponer mejores planes de tratamiento que un especialista de medicina. Pero, el especialista como persona puede identificar variables del entorno del paciente que afectan la respuesta terapéutica y en ese momento puede refinar la recomendación de un sistema de IA. Las facultades de ciencias de la salud, por lo tanto, deben adaptar sus currículos para que sus estudiantes se entrenen en habilidades cognitivas de alto nivel, que van más allá de la memorización, y que les permitan ser actores que navegan eficientemente sistemas de salud, apoyados por tecnología.

Es común ver que los profesionales de salud invierten mucho de su tiempo de consulta frente a una pantalla, diligenciando historias clínicas y completando formularios. El hecho que la IA pueda realizar algunas tareas rutinarias de la práctica médica podría abrir, paradójicamente, el tiempo para que el acto médico vuelva a ser un espacio de interacción humana entre el médico y el paciente y sus familias.

Finalmente, las facultades de ciencias de la salud tienen la emocionante tarea de promover la educación en IA y tecnologías disruptivas en los campos de la salud. Esta es una oportunidad de dar valor y sentido a cursos de matemáticas o física, a los que muchas veces los estudiantes asisten sin entender el por qué. Una sólida base de cursos que promuevan pensamiento analítico, matemático y programación puede ayudar a potenciar programas de ciencias biomédicas, áreas clínicas, epidemiología y salud pública.

Nota del autor:

Muchas gracias a las personas que voluntariamente compartieron sus ideas acerca de los elementos que generan ansiedad o miedo en relación con la inteligencia artificial, a través de Twitter.

Bibliografía

Russell S, N. P. (2022). Artificial intelligence, a modern approach.

RAE. (2022). Real Academia Española. Obtenido de Real Academia Española: https://dle.rae.es/miedo

Heaven, D. (2022). Why Meta’s latest large language model survived only three days online. Obtenido de MIT Technology Review: https://www.technologyreview.com/2022/11/18/1063487/meta-large-language-model-ai-only-survived-three-days-gpt-3-science/

Chymis, A. (2020). Should we fear artificial intelligence? En W. Amman, Artificial Intelligence and Its Impact on Business (págs. 39-53).

Li, d., Kulasegaram, K., & Hodges, B. D. (2019). Why We Needn’t Fear the Machines: Opportunities for Medicine in a Machine Learning World. Academic Medicine, 623-625.

Pretz, K. (2021). Stop Calling Everything AI, Machine-Learning Pioneer Says. Obtenido de IEEE Spectrum: https://spectrum.ieee.org/stop-calling-everything-ai-machinelearning-pioneer-says#toggle-gdpr

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: