¿La Inteligencia Artificial (IA) va a reemplazarme?

Del transhumanismo y otros demonios

Reflexiones sobre el Space en Twitter

Luis Eduardo Pino V.

Médico especialista en Medicina Interna y Hematología/Oncología, Oncología Molecular, Especialista en Ciencia de Datos e IA

CEO Oxler Medicina Exponencial, Coordinador de OxLER Lab Sandbox médico

Fundador de AIpocrates

@OxlerCeo

https://www.linkedin.com/in/luispinodatascience/?originalSubdomain=co

1      Metodología

Se realiza la transcripción del audio a texto del space a través de la herramienta ofimática de Word de reconocimiento de voz https://twitter.com/i/spaces/1MnGnpgkYQVxO  y luego se realiza una corrección de estilo utilizando una modalidad híbrida Chat-GPT4 / Humano.

2      Introducción

La rápida evolución de la inteligencia artificial, especialmente la IA generativa que es evidente en plataformas como Chat-GPT de OpenAI, ha llevado a replantear la capacidad de las máquinas para simular actividades cognitivas humanas en tiempo real y de manera paralela. Se generan entonces interrogantes como ¿hemos alcanzado la inteligencia artificial general? ¿pueden las máquinas asumir la responsabilidad y los humanos delegar?, ¿como va a ser el trabajo humano desde hoy?

Aunque el tema de la inteligencia artificial puede parecer técnico y complejo, es importante entenderlo, especialmente en el campo de la medicina. La IA puede mejorar la atención médica, desde el diagnóstico hasta el tratamiento, se puede usar la IA para analizar grandes cantidades de datos, encontrar patrones y correlaciones que pueden ser difíciles de detectar para un humano, entre otras muchas aplicaciones.

En nuestro medio local, la inteligencia artificial así como el metaverso siguen siendo conceptos abstractos o de ciencia ficción, aunque la IA ya está presente en aplicaciones y plataformas que usamos todos los días, como los asistentes virtuales y las herramientas ofimáticas.

Los miembros del cuerpo médico continúan apáticos, y la velocidad de los desarrollos y su mediatizacion aumenta el número de personas con temor, lo cual demora la implementación adecuada de la tecnología en nuestro mundo de la salud.

3        Carta de Musk y Wozniak para el Institute for the Future of Life (29/mar/2023)

En la última semana de marzo de 2023 nos vimos sorprendidos por la noticia, en la que muchas de las figuras más prominentes en el desarrollo informático de los últimos 20 años suscribieron una carta en la que piden entre otras una pausa en el desarrollo de tecnologías basadas en inteligencia artificial. 

3.1     La carta

Este es el texto traducido al español y publicado en https://futureoflife.org/open-letter/pause-giant-ai-experiments/

“Los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad, como lo demuestran las investigaciones exhaustivas[1] y lo reconocen los principales laboratorios de IA. [2] Como se indica en los  Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos adecuados. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se han visto atrapados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de manera confiable.

Los sistemas contemporáneos de IA se están volviendo competitivos para los humanos en tareas generales,[3] y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y mentiras?  ¿Deberíamos automatizar todos los trabajos, incluidos los satisfactorios?  ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, inteligencia, hacernos obsoletos y reemplazarnos?  ¿Debemos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse a líderes tecnológicos no elegidos. Los sistemas de IA potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables.  Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI  con respecto a la inteligencia general artificial, afirma que «en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos».  Estamos de acuerdo. Ese momento es ahora.

Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no puede promulgarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

Los laboratorios de IA y los expertos independientes deben utilizar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. [4] Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.

La investigación y el desarrollo de la IA deben reenfocarse en hacer que los sistemas poderosos y de vanguardia de hoy sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Al mismo tiempo, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas robustos de gobernanza de IA. Estos deberían incluir, como mínimo: nuevas y capaces autoridades reguladoras dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes grupos de capacidad computacional; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear fugas de modelos; un robusto ecosistema de auditoría y certificación; responsabilidad por daños causados por la IA; una financiación pública sólida para la investigación técnica sobre seguridad de la IA; e instituciones bien dotadas de recursos para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente para la democracia) que la IA causará.

La humanidad puede disfrutar de un futuro floreciente con la IA. Después de haber logrado crear poderosos sistemas de IA, ahora podemos disfrutar de un «verano de IA» en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y damos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho pausas en otras tecnologías con efectos potencialmente catastróficos en la sociedad. [5] Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos sin preparación a un otoño”.

3.2     Interpretación de la carta.

Esta carta plantea la discusión en torno a las capacidades reales de estos modelos, la potencial reemplazabilidad del ser humano y a tratar de regular o más bien de hacer un alto en el camino en los desarrollos de la inteligencia artificial, especialmente en los modelos fundacionales y la evolución de la inteligencia artificial generativa.

Contexto actual:

  • Desarrollo rápido de sistemas de inteligencia artificial altamente capaces, la inteligencia artificial es el presente.
  • Los sistemas de IA contemporáneos están llegando a ser competitivos con los humanos en tareas generales.
  • La IA avanzada podría representar un cambio profundo en la historia, por lo cual debe planificarse y administrarse con el cuidado y los recursos adecuados.
  • En el pasados la humanidad ha frenado otras tecnologías con efectos potencialmente catastróficos para la humanidad.

Denuncia:

  • Desafortunadamente este a nivel de planificación y gestión no está sucediendo.
  • En los últimos meses los laboratorios de IA se han visto atrapados en una carrera fuera de control para desarrollar y desplegar mentes digitales, cada vez más poderosas que ni siquiera sus creadores pueden comprender, predecir ni controlar de manera confiable.
  • Existe la posibilidad de desarrollar mentes no humanas con capacidad para superar a los humanos en número e inteligencia, hacerlos obsolescentes y reemplazarlos.

Llamado a la acción:

  • Preguntarnos si deberíamos:
    • Permitir que se inunde con propaganda falsa y mentiras.
    • Automatizar todos los trabajos.
    • No delegar la toma de decisiones a los líderes tecnológicos no elegidos.
  • Asegurarnos que los sistemas de Inteligencia artificial potentes sean desarrollados solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables.
  • Pausar inmediatamente, de manera pública y verificable, al menos por 6 meses el entrenamiento de sistemas más potentes que GPT-4.
    • Expertos independientes deben utilizar esta pausa para desarrollar e implementar conjuntamente con entes gubernamentales protocolos para el diseño y desarrollo de IA avanzada, rigurosamente auditados y supervisados.
    • Protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de cualquier duda razonable.
    • Reenfocarse en hacer que los sistemas poderosos y de vanguardia de hoy sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales, para el desarrollo de sistemas robustos de gobernanza de IA, establecer una escala de responsabilidad por daños causados por la IA
  • Una revisión independiente antes de comenzar a entrenar futuros sistemas y acordar limitar la tasa de crecimiento computacional.
  • Incluir a todos los actores clave.
  • Un paso atrás en la peligrosa carrera hacia modelos de cajas negras impredecibles cada vez más grandes y con capacidades emergentes.
  • La investigación y el desarrollo de la inteligencia artificial deberían centrarse en mejorar los sistemas actuales haciéndolos más precisos, seguros, interpretables, transparentes, robustos, confiables y leales.
  • Los desarrolladores de IA deben trabajar con los responsables políticos para acelerar el desarrollo de:
    • Sistemas de gobernanza robustos e incluir nuevas autoridades regulatorias dedicadas a la supervisión y seguimiento de sistemas de inteligencia artificial altamente capaces y grandes capacidades.
    • Ecosistema de auditoría y certificación robusto.
    • Sistema de responsabilidades por el daño causado por la IA.
    • Mecanismos que faciliten diferenciar lo real de lo sintético, como marcas de agua y rastrear fugas de modelos.
    • Mecanismos de financiamiento público sólido para la investigación técnica de seguridad.
    • Instituciones bien financiadas para hacer frente a las dramáticas disrupciones causaría a la economía, política y a la democracia.
  • Disfrutar de un «verano de IA» y no apresurarnos a un otoño por falta de preparación.

Desacuerdos

  • Los sistemas de inteligencia artificial los muestran como competencia a la inteligencia la humana.
  • Los gobiernos deberían intervenir independiente de si se puede o no promulgar la pausa.

Esta carta de algunos líderes tecnológicos, generó controversia, pues la postura de frenar el desarrollo de modelos computacionales fundacionales o modelos computacionales generativos, ha sido calificada por algunos como hipócrita, ya que no piden frenar el desarrollo de otras tecnologías basadas en inteligencia artificial en las que están moviéndose algunos de los firmantes como el vehículo autónomo o el metaverso, con lo que creo que esta propuesta podría tener en un segundo plano un elemento comercial, una situación que puede tener fricción entre actores del universo de la tecnología y la inteligencia artificial, recordemos que finalmente Microsoft ha sacado ventaja de la IA generativa mediante su adquisición de OpenAI y la integración de GPT-4 a sus productos.

3.3     Principios de IA de Asilomar (Conferencia 2017)

La inteligencia artificial ya ha proporcionado herramientas beneficiosas que son utilizadas todos los días por personas de todo el mundo. Su desarrollo continuo, guiado por los siguientes principios, ofrecerá oportunidades increíbles para ayudar y empoderar a las personas en las próximas décadas y siglos.

3.3.1       Temas de investigación

1) Objetivo de la investigación:  El objetivo de la investigación de IA debe ser crear no inteligencia no dirigida, sino inteligencia beneficiosa para la humanidad.

2) Financiación de la investigación:  Las inversiones en IA deben ir acompañadas de financiación para la investigación que garantice su uso beneficioso, incluidas cuestiones difíciles en informática, economía, derecho, ética y estudios sociales, tales como:

  • ¿Cómo podemos hacer que los futuros sistemas de IA sean altamente robustos, para que hagan lo que queremos sin funcionar mal o ser pirateados?
  • ¿Cómo podemos aumentar nuestra prosperidad a través de la automatización mientras mantenemos los recursos y el propósito de las personas?
  • ¿Cómo podemos actualizar nuestros sistemas legales para que sean más justos y eficientes, para seguir el ritmo de la IA y para gestionar los riesgos asociados con la IA?
  • ¿Con qué conjunto de valores debería alinearse la IA y qué estatus legal y ético debería tener?

3) Vínculo Ciencia-Política: Debe haber un intercambio constructivo y saludable entre los investigadores de IA y los responsables políticos.

4) Cultura de investigación: Se debe fomentar una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de IA.

5) Evitar carreras: Los equipos que desarrollan sistemas de IA deben cooperar activamente para evitar reducir las normas de seguridad.

3.3.2       Ética y Valores

6) Seguridad: Los sistemas de IA deben ser seguros y protegidos durante toda su vida útil, y verificables cuando sea aplicable y factible.

7) Transparencia de fallas: Si un sistema de IA causa daño, debería ser posible determinar por qué.

8) Transparencia judicial: Cualquier participación de un sistema autónomo en la toma de decisiones judiciales debe proporcionar una explicación satisfactoria auditable por una autoridad humana competente.

9) Responsabilidad: Los diseñadores y constructores de sistemas avanzados de IA son partes interesadas en las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y la oportunidad de dar forma a esas implicaciones.

10) Alineación de valores:  Los sistemas de IA altamente autónomos deben diseñarse de modo que se pueda garantizar que sus objetivos y comportamientos se alineen con los valores humanos a lo largo de su operación.

11) Valores humanos: Los sistemas de IA deben diseñarse y operarse de manera que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.

12) Privacidad personal: Las personas deben tener derecho a acceder, administrar y controlar los datos que generan, dado el poder de los sistemas de IA para analizar y utilizar esos datos.

13) Libertad y privacidad: La aplicación de la IA a los datos personales no debe restringir injustificadamente la libertad real o percibida de las personas.

14) Beneficio compartido: Las tecnologías de IA deben beneficiar y empoderar a tantas personas como sea posible.

15) Prosperidad compartida: La prosperidad económica creada por la IA debe compartirse ampliamente, para beneficiar a toda la humanidad.

16) Control humano: Los humanos deben elegir cómo y si delegar decisiones a los sistemas de IA, para lograr los objetivos elegidos por los humanos.

17) No subversión: El poder conferido por el control de sistemas de IA altamente avanzados debe respetar y mejorar, en lugar de subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.

18) Carrera armamentista de IA: Se debe evitar una carrera armamentista en armas autónomas letales.

3.3.3       Problemas a largo plazo

19) Precaución de capacidad: Al no haber consenso, debemos evitar suposiciones sólidas con respecto a los límites superiores de las capacidades futuras de IA.

20) Importancia: La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos acordes.

21) Riesgos: Los riesgos planteados por los sistemas de IA, especialmente los riesgos catastróficos o existenciales, deben estar sujetos a esfuerzos de planificación y mitigación proporcionales a su impacto esperado.

22) Automejora recursiva: Los sistemas de IA diseñados para automejorarse o autorreplicarse recursivamente de una manera que podría conducir a un rápido aumento de la calidad o cantidad deben estar sujetos a estrictas medidas de seguridad y control.

23) Bien común: La superinteligencia solo debe desarrollarse al servicio de ideales éticos ampliamente compartidos, y para el beneficio de toda la humanidad en lugar de un estado u organización.

4      Una breve reseña histórica de la inteligencia artificial

La palabra «algoritmo» deriva del nombre del matemático persa Al-Khwārizmī, define un conjunto de instrucciones que se utilizan para resolver un problema o realizar una tarea específica de manera lógica y precisa.

La inteligencia artificial (IA) tiene sus raíces en la matemática y la lógica. Ada Lovelace, a mediados del siglo XIX, fue la primera en idear una máquina que pudiera generar música a través de una secuencia de instrucciones. En la década de 1930, el matemático y lógico Kurt Gödel desarrolló el teorema de la incompletitud, que demostró que cualquier sistema formal de lógica matemática tendría limitaciones. Esto llevó a la creación de los algoritmos de decisión, que se utilizan para resolver problemas lógicos complejos.

En la década de 1940, se desarrolló el algoritmo simplex, que es un método para resolver problemas de programación lineal. En 1943, McCulloch y Pitts crearon un modelo que constaba de neuronas artificiales conectadas entre sí por sinapsis artificiales. Esto permitía que la red neuronal pudiera realizar cálculos complejos y tomar decisiones en función de la información recibida, aunque era muy simple.

En la década de 1950, se crearon algoritmos para resolver problemas de optimización, los cuales son ampliamente utilizados en campos como la ingeniería, la economía y la física. El desarrollo de la inteligencia artificial realmente comenzó en la década de 1950 con el artículo de Alan Turing, «Computing Machinery and Intelligence», donde propuso el test de Turing, que implica que una persona evalúe si un programa de computadora puede hacerse pasar como humano en una conversación escrita, lo que sería una indicación de que la máquina tiene una inteligencia similar a la humana.

Claude Shannon, en la misma época, desarrolló la teoría de la información, la cual se utiliza para la compresión de datos y la transmisión de señales digitales, y es una de las bases teóricas de la inteligencia artificial. El primer programa de IA funcional fue escrito en 1951 por Christopher Strachey para jugar al ajedrez.

El término «inteligencia artificial» fue acuñado por cuatro amigos genios de la computación, John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon, en 1956 en la Conferencia de Dartmouth, una de las conferencias anuales de informática más importantes del mundo, organizada por John McCarthy. Allí se mencionó que había alguna posibilidad de crear máquinas capaces de pensar y resolver problemas de forma similar a como lo hace un ser humano, lo que sentó las bases para el desarrollo futuro de la IA.

En 1958, Frank Rosenblatt creó el Perceptrón, un modelo de red neuronal de aprendizaje supervisado. Sin embargo, pronto se descubrió que el Perceptrón tenía limitaciones y no podía resolver problemas complejos.

En los años 60, Newell y Simon desarrollaron el programa «General Problem Solver», que podía resolver problemas de forma autónoma.

En la década de 1970, se desarrollaron algoritmos de búsqueda y clasificación que se utilizan para buscar y organizar grandes cantidades de información.

En la década de 1980, se crearon algoritmos de encriptación que se utilizan para proteger la privacidad y la seguridad de los datos y John Hopfield desarrolló una red neuronal de memoria asociativa.

En la actualidad, los modelos de lenguaje a gran escala como GPT-3,5 y 4 utilizan IA para generar texto y responder a preguntas. Estos modelos se basan en redes neuronales y técnicas de aprendizaje profundo.

5      Que es la inteligencia artificial.

La inteligencia artificial es un centro de convergencia de diversos campos como la ciencia de datos, el machine learning, el deep learning, la matemática, el álgebra lineal, el cálculo, la lógica y la estadística, entre otros. Todos estos campos están enfocados en una apuesta conceptual: intentar reproducir lo que conocemos como intelecto o inteligencia en un agente que no es humano, una máquina. Este campo ha crecido en la medida en que la capacidad computacional ha aumentado.

Estos desarrollos se han asociado con la evolución de las formas y los métodos en los cuales enseñamos a estas máquinas. Existen diferentes tipos de entrenamiento, como la supervisión, la no supervisión o el reforzamiento, que hacen que la máquina resuelva problemas, principalmente de predicción o clasificación, si se unen con la tecnología, se generan componentes de automatización o sistemas inteligentes que pueden agilizar muchas de las tareas que los seres humanos hacemos en el campo de la salud.

Sin embargo, el concepto de inteligencia artificial sigue siendo muy etéreo. Aunque la vemos en nuestros hospitales y consultorios en el día a día de un médico, hay médicos asistenciales con baja exposición a estos desarrollos tecnológicos. Esto ha hecho que el sector salud sea más lento y escéptico en adoptar la inteligencia artificial e integrarla con la inteligencia natural, lo que da paso al concepto de inteligencia aumentada.

Temas actuales como el aprendizaje supervisado, no supervisado, reforzado, el deep learning, las redes neuronales y las redes neuronales profundas pueden parecer aburridos y técnicos para algunos colegas. Esto puede favorecer la apatía y la posterior generación de miedos, lo cual en los humanos es normal, «el miedo a lo desconocido y el escalofrío ante la incertidumbre».

Hay una expectativa aumentada de la inteligencia artificial, una sobreestimación de sus capacidades actuales y posiblemente futuras. Adicionalmente, se ha confiado mucho en la evolución de las tecnologías exponenciales y el perfeccionamiento humano. Esto puede llevarnos hacia niveles impensables, niveles de la ciencia ficción. Creo que debemos trazar un límite en lo que realmente puede hacerse o no con inteligencia artificial, entre la perspectiva y la posibilidad.

6      ¿La IAG?

Hay un tema que es crítico y de alguna manera es lo que nos trae a este punto,  durante muchos años se ha soñado con poder lograr el concepto de la inteligencia artificial general.

La inteligencia artificial general no es un tema sencillo, una inteligencia no humana que abraza diversas funcionalidades, sería como un meta-modelo, un modelo de modelos, se sumarían modelos de predicción, clasificación, modelos automáticos, modelos que se comuniquen con internet de las cosas médicas, por ejemplo monitoreo directo de signos vitales, análisis de tendencias de series temporales, que estuvieran todos conectados y que a su vez fuera un sistema intuitivo, autoajustable, algoritmos y sistemas que permitan a las máquinas aprender de manera más flexible y autónoma, lo que les permitiría adaptarse a una amplia variedad de tareas y situaciones, en una escala global, es decir, no es una suma de modelos de diversos modelos de inteligencia artificial que hacen una cosa particular o suma de inteligencias artificiales estrechas, sino un ecosistema de modelos que actuarán en cadena o en paralelo y que esto permitiera un mundo en piloto automático. 

Durante muchos años e inclusive recientemente tuve la oportunidad de estar en un encuentro sobre inteligencia artificial general (https://consultorsalud.com/regresar-a-casa-y-seguir-creyendo-int-artific/ ), una conclusión es que posiblemente no la tendremos en los siguientes años y estamos aún más lejos de lo que se describió como la superinteligencia, que es esencialmente una inteligencia muy superior a la humana y que nos lleve a una distopía, a un nuevo mundo, ya que computacionalmente hay limitaciones y ni siquiera con el pronto advenimiento de la computación cuántica se logre. A medida que avanzamos hacia la IAG, es importante considerar los desafíos éticos y sociales asociados con la creación de sistemas de IA avanzados.

7      Qué hizo OpenAI y chat-GPT

En el mundo de la inteligencia artificial, el machine learning y el aprendizaje profundo son básicamente entrenamiento de máquinas con técnicas con las que se le enseña a la máquina a manipular datos de diverso tipo como: tabulares, imágenes, texto, señales, entre otros, y así poder resolver los problemas humanos, teóricamente con menos sesgos y con menos ruido, aquellos que los humanos por nuestra capacidad mental limitada no podemos solucionar.

Hay un campo que se encarga principalmente del análisis del contexto, un proceso complejo y difícil porque se tienen que establecer y analizar relaciones bajo multicolinealidad de muchas variables, una aplicación es el procesamiento del lenguaje natural, no hay nada más difícil que las características textuales, especialmente en idiomas complejos, esto hacen que los procesadores de lenguaje natural transformen una arquitectura textual en matrices matemáticas,  para poder desfragmentar y construir algo que se llaman embeddings y generar a través de estos los modelos de interpretación. 

Estos procesadores matemáticos eran limitados hasta 2017, cuando aparece una arquitectura denominada transformers, las redes neuronales generativas y posteriormente los auto-encoder variacionales,  que son modelos matemáticos robustos y logran disminuir la altísima dimensionalidad y complejidad de los datos como el lenguaje, información que en su mayoría se encuentra en forma de texto no estructurado.

Entre el 2017 y el 2021 los intentos habían sido fallidos, pues el modelo generaba salidas inexactas, peligrosas y antiéticas. Aquí hubo un punto de inflexión, que permitió hacerlos útiles, unas estrategias matemáticas, que en ciencia de datos llamamos “fine tuning” o un ajuste fino, estas son técnicas de optimizacion para que las salidas del modelo sean menos inciertas y/o peligrosas.

Open AI decidió retomar un modelo  de ajuste fino del 2019 para optimizar su modelo de lenguaje a gran escala (GPT-3 con 173 Billones de parámetros), un modelo de aprendizaje reforzado con feedback humano (RLHF), el cual utiliza además la intervención de seres humanos que hacen un filtrado de los outputs logrando finalmente la evolución a GPT 3.5 el cual alojó y liberó al mundo posteriormente como chat-GPT en diciembre de 2022.

Se generó entonces un modelo de lenguaje natural pre-entrenado (General Pretrained Transformer GPT) que utiliza una gran cantidad de datos y recursos informáticos para aprender patrones lingüísticos y generar texto coherente y relevante, perteneciente y derivada de una familia de programas informáticos llamada modelos fundacionales o “foundation models”.

Estos modelos son la base o «fundación» de otros modelos más específicos y personalizados que se crean a partir de ellos, estos digamos son la raíz a partir de los cuales se derivan otros dos submodelos como son los de gran escala (LLM) y los modelos estadísticos de lenguaje (SLM). Para efectos de compilación se resumen sus diferencias en la siguiente tabla (generada por GPT-4).

CaracterísticaModelo FundacionalLLMSLM
Tamaño del modeloEnorme (miles de millones de parámetros)Grande (varios cientos de millones de parámetros)Pequeño (varios millones de parámetros)
Pre-entrenamientoEntrenado con enormes cantidades de datos sin una tarea específica en menteEntrenado con grandes cantidades de datos y tareas específicas en menteEntrenado con datos más pequeños y específicos y tareas limitadas en mente
GeneralizaciónAltamente generalizado, capaz de realizar una variedad de tareas de lenguaje naturalGeneralizado, pero mejor en tareas específicas para las que fue entrenadoEspecializado en tareas específicas para las que fue entrenado
PersonalizaciónPuede ser personalizado para tareas específicas a través de entrenamiento adicionalPuede ser personalizado para tareas específicas a través de entrenamiento adicionalLimitado en su capacidad de personalización debido a su tamaño y enfoque
Uso comúnUtilizado como base para crear modelos personalizados para una variedad de tareas de lenguaje naturalUtilizado en aplicaciones empresariales y en la investigación académicaUtilizado en aplicaciones móviles y pequeñas aplicaciones de inteligencia artificial

Por otro lado, el entrenamiento bajo un modelo reforzado (reinforcement learning), es quizá lo más parecido a como aprendemos los seres humanos. Este requiere de un agente (quien realiza una acción) en un ambiente o ecosistema, el agente mediante su acción puede lograr o no una recompensa que puede ser sumatoria y con refuerzo positivo o negativo, los diversos tipos de acciones se llaman política. Mediante modelos matemáticos se puede definir cuál es la mejor política para lograr la recompensa. En GPT 3.5 por ejemplo eligieron un algoritmo que se llama la política de optimización proximal (PPO), y así entrenaron un modelo con 175 billones de parámetros de información cruda de internet. Sin embargo, y como puede verificarse, el modelo GPT 3.5 se queda corto en algunos dominios específicos de la ciencia.

OpenAI, hoy compañía de Microsoft, transformó el concepto de inteligencia artificial clásica a generativa, a través de su tranformador preentrenado (GPT) y el ajuste fino de un lenguaje de gran escala (LLM), este es el primer desarrollo informático que en un mes ha logrado 100 millones de usuarios. Hoy gracias a la retroalimentación de estos usuarios ha logrado evolucionar a la versión GPT-4, el cual tiene la capacidad de incorporar como inputs datos mucho más complejos como imágenes y a la vez generar outputs de este tipo y otras más como códigos de programación multilenguaje.

Por primera vez gracias a estos ajustes matemáticos, la inteligencia artificial no solamente aprende de algo que le estamos enseñando como en el pasado, sino que es capaz de generar contenido a partir de unos prompts o instrucciones asignadas por el usuario.

Otros ejemplos de modelos fundacionales en la actualidad son:

  • T5 (Text-to-Text Transfer Transformer): es un modelo fundacional desarrollado por Google Brain que utiliza una arquitectura de transformer para realizar tareas de lenguaje natural basadas en texto a texto, como la traducción, resumen de texto, generación de código, y más.
  • RoBERTa (A Robustly Optimized BERT Pretraining Approach): es un modelo fundacional desarrollado por Facebook AI Research y la Universidad de Washington que utiliza una variante mejorada del pre-entrenamiento de BERT para mejorar la capacidad del modelo para realizar tareas de lenguaje natural, como el análisis de sentimientos, la respuesta a preguntas y la generación de texto.
  • GShard: es un modelo fundacional desarrollado por Google que utiliza una arquitectura escalable de transformer para permitir que el modelo sea entrenado en múltiples GPUs y para permitir una mejor generalización en tareas de lenguaje natural, como la traducción y la generación de texto.

8      ¿Hay Bloqueo?

Se hace referencia a una carta generada por personalidades a partir del uso del modelo generativo GPT-4, el cual ha demostrado ser superior a otros modelos generativos como Google BART. Muchas empresas que trabajan en el desarrollo de inteligencia artificial se están conectando a la API de Chat-GPT 3.5 y esperan la liberación de la API de la versión 4.0, lo que les permitirá integrar análisis contextuales robustos a través de este modelo generativo.

Se prevé una carrera entre empresas productoras de inteligencia artificial generativa, con Microsoft y Google ya compitiendo en este campo y moviendo las dinámicas del sector, creo que eso es lo que está generando en parte la petición del “bloqueo”.

A partir del 31 de marzo de 2023, se ha ordenado la suspensión temporal de Chat-GPT en Italia, debido a la supuesta recopilación ilícita de datos personales y la falta de un sistema de verificación de edad para los usuarios, pues el servicio está reservado para mayores de  13 años. La autoridad nacional sostiene que la empresa carece de una base jurídica que justifique la recopilación y el almacenamiento masivos de datos personales para entrenar los algoritmos de Chat-GPT, y que la suspensión se mantendrá hasta que la empresa cumpla con el Reglamento General de Protección de Datos Europeo.

9      ¿Debo aprender de IA?

Hace seis meses, al terminar mi entrenamiento en inteligencia artificial, pensaba que sabía lo suficiente sobre machine learning, deep learning y cómo industrializar un modelo. Sin embargo, ahora creo que esos conocimientos son el mínimo vital necesario para entender lo que está ocurriendo. La velocidad del volumen del conocimiento es impresionante y es imposible seguir tanto el hilo conductor como el ritmo de publicación. Estamos presenciando una explosión sin precedentes y no sabemos hasta dónde nos llevará.

En mi opinión, más importante que adquirir la capacidad de dedicarse a la inteligencia artificial es desarrollar habilidades para adaptarse y utilizarla para mejorar, sin necesidad de profundizar en su complejidad. Por supuesto, si alguien quiere profundizar, es bienvenido, pero creo que lo más importante es conocer y estar capacitado para integrar la inteligencia artificial de manera efectiva y real.

10   Temores, Impacto en el trabajo – Qué tan reemplazables somos por las máquinas y la IA

Hay miedo en muchas personas, ya que según ellos se puede terminar con la humanidad. En fin, también hay un componente ficcional bien importante. Realmente hay que pensarlo y analizarlo muy bien. Ya hay muchos artículos que están hablando de estos modelos generativos, los que están aprobando exámenes de certificación médica y equiparándose en respuestas a expertos de dominio, algunos se han atrevido incluso a cuantificar el IQ de GPT 4 en 155. Quiero ser muy claro: los modelos de lenguaje que mejor desempeño tienen en dominios específicos, como la medicina por ejemplo, son los modelos de lenguajes de procesamiento de pequeña escala (SLM) pero de dominio profundo.

Entre los lenguajes de gran escala y los lenguajes pequeños, hay muchas empresas que están tratando de generar entrenamientos intermedios. Por ejemplo, se busca que GPT-4 sea capaz de realizar análisis más profundos en algunas ciencias. Los mismos creadores de Chat-GPT 4 publicaron hace unos años un artículo en el cual generaron un modelo de evaluación, en este se definió un indicador de potencial impacto económico en el trabajo. Se aplicó este criterio a los datos ocupacionales de la economía de los Estados Unidos, obtenidos principalmente de la base de datos O*NET.

Ese análisis indica que aproximadamente el 19% de los trabajos tienen al menos el 50% de sus tareas expuestas al considerar tanto las capacidades actuales del modelo como las herramientas anticipadas construidas sobre ellas. Las evaluaciones humanas sugieren que solo el 3% de los trabajadores estadounidenses tienen más de la mitad de sus tareas expuestas a GPT, al considerar las capacidades de lenguaje y código existentes sin software o modalidades adicionales. (ver columna sobre el tema en AIpocrates: El impacto de los Lenguajes de Gran Escala y otras tecnologías, basadas en inteligencia artificial, en el mercado laboral)

Los roles que dependen en gran medida de habilidades científicas y de pensamiento crítico muestran una correlación negativa con la exposición, mientras que las habilidades de programación y escritura están asociadas positivamente con la exposición a LLM. Algunos incluso afirman que si eres un programador o matemático promedio, podrías ser más rápidamente reemplazado por un modelo generativo.

Es decir, es posible que el impacto real de la exposición a GPT, excepto quizá en algunos submundos de la medicina como la educación médica, sufra unos cambios muy importantes con estos modelos generativos. Tendremos que saber cómo incorporar adecuadamente estos modelos al flujo de trabajo. A pesar de la carta de estas figuras mundiales, la posibilidad de que se detengan estos desarrollos es mínima. Es como intentar frenar el tema del calentamiento global desde los países que más producen emisiones o frenar la carrera armamentística nuclear por parte de las potencias mundiales, esto no ha pasado y posiblemente no pasará ¡nadie va a hacer caso!

11   El transhumanismo

Los temas filosóficos son controversiales, entre ellos el transhumanismo, que no es algo nuevo, lleva mucho años, y esencialmente es una corriente que tiene varios contextos de soporte y que esencialmente se basa en predicciones humanas, proyecciones ficcionales de qué tanto podremos o no los humanos evolucionar apoyados por las tecnologías de perfeccionamiento humano, algunos hablan de la inmortalidad, otros hablan de unas vidas muy prolongadas de 200 a 300 años, otros hablan de capacidades superiores tanto mentales, como físicas, es decir superhumanos o la exploración de nuevos mundos, porque si a esto le sumamos metaverso,  que son mundos de tecnologías inmersivas mucho más avanzadas de las que conocemos hoy, como la realidad virtual y realidad simulada; otros por supuesto hablan de la desaparición de la humanidad como la conocemos hoy y la coexistencia con unas especies nuevas como los cyborgs, los bots, los androides y demás que obviamente nos retan un poco esa realidad en la que estamos acostumbrados a vivir.

Esta corriente transhumanista tiene a su vez diversas vertientes, algunas de ellas compiladas en la siguiente tabla:

CorrienteEnfoqueObjetivo
Transhumanismo democráticoAcceso equitativo a la tecnología y mejora de la condición humana para todos los individuosQue la mejora de la condición humana a través de la tecnología sea accesible para todos los individuos, independientemente de su estatus social o económico.
Transhumanismo libertarioLibertad individual para elegir el camino hacia la mejora de la condición humanaQue cada persona tenga la libertad de elegir su propio camino hacia la mejora de la condición humana a través de la tecnología.
Transhumanismo posthumanistaCreación de una nueva forma de vida a través de la fusión entre humanos y tecnologíaCrear una nueva forma de vida basada en la fusión entre humanos y tecnología, y que permita a los humanos superar sus limitaciones físicas y mentales.
Transhumanismo singularitarioCreencia en que la IA superará a la inteligencia humana y dará lugar a un cambio radical en la evolución humanaPreparar a la humanidad para un cambio radical en la evolución humana que se producirá cuando la IA supere a la inteligencia humana.
Transhumanismo cosmistaExploración del espacio y posibilidad de extender la existencia humana más allá de la TierraExplorar el espacio y desarrollar tecnologías que permitan a la humanidad extender su existencia más allá de la Tierra.

Todas estas corrientes de hecho no son mutuamente excluyentes, muchos transhumanistas se identifican con más de una de ellas y habrá seguramente nuevas corrientes que avancen a medida que avanzan también los desarrollos tecnológicos, tendremos que redefinir entonces, qué es ser un ser humano dentro de un mundo, en el cual hay nuevas formas de vida que hoy desconocemos, y dentro de muchos nuevos mundos que se nos plantean.

11.1   ¿Qué vamos a hacer?

Actualmente hay expectativas sobredimensionadas sobre la inteligencia artificial (hype de la IA), todavía en salud  son pocas las cosas a las cuales le podemos decir que gracias a la inteligencia artificial se salvó una vida, por ejemplo, tenemos todavía desarrollos absolutamente cavernarios como son las historias clínicas electrónicas, tenemos a médicos y enfermeras realizando actividades médicas y no médicas que son absolutamente inútiles, tenemos un pensum de educación médica derivados del informe Flexner ¡de 1910!.

Creo que hay unas brechas también gigantescas entre el mundo moderno y las realidades en los países latinoamericanos, esto hace que nuestros ciudadanos latinoamericanos vean esto como si estuviera ocurriendo en una película en otro mundo, que no hace parte de sus realidades.

Adicionalmente, la brecha se incrementa porque la situación de los latinoamericanos se describe con una metáfora: en este tema estamos esperando el bus, los que se han formado de alguna forma en este tipo de temas van en una bicicleta, los que están metidos profundamente en el tema van en un carro y definitivamente todo este tema de modelos generativos y analítica cognitiva van en un jet. Los que estamos en el paradero, si nos quedamos allí, solo tendremos la opción de ser consumidores pasivos, a precios muy altos y no necesariamente extrapolables o de valor.

Enfocándonos en el sector salud, es increíble la desconexión conceptual y contextual, por ejemplo la de los directores de hospital, por supuesto no los de hospitales públicos de provincia que no tienen ni una aspirina, ni una penicilina y que por estar sobreviviendo pues discusiones sobre  la inteligencia artificial generativa no tienen cabida; sino de hospitales que tienen la capacidad de desarrollar este tema, pero cuando uno habla de esto con ellos son muy pocos los que entienden y mucho menos los que interiorizan que esto no es un tema de crear un departamento de innovación y entregárselo a los del departamento de tecnología, esto es un tema crítico y estratégico y que por tanto pues tiene que manejarse así, es decir es un tema cultural de de ver la necesidad y desarrollar soluciones.

He recibido varios chats de colegas especialistas en medicina asistencial clásica que están muy preocupados por lo que está sucediendo en el campo de la inteligencia artificial y esta pregunta me la hacen con mucha frecuencia mis colegas: ¿tengo que dejar de ser cardiólogo y dedicarme a la inteligencia artificial?

A veces noto un sentimiento de ansiedad y angustia, que aumenta al ver como en revistas como el New England Journal of Medicine y JAMA se está hablando de inteligencia artificial y eso está llevando a la gente a pensar que van a morir si no son expertos en este tema.

En mi opinión, como con cualquier competencia en una tecnología de propósito general, es necesario aprender lo básico y tratar de entender cómo se aplica en nuestro mundo profesional y personal. Obviamente, también hay que adaptarse. La adaptabilidad es clave para generar inteligencia híbrida o asistida y entender bien los retos que esto conlleva. No es necesario que los médicos se conviertan en expertos en programación, pero es importante aumentar nuestras capacidades humanas, como el entendimiento, el análisis de contexto, la curiosidad y la empatía, para protegernos y blindarnos ante los cambios tecnológicos. Quiero mencionar que en esta evolución y transhumanismo, es esencial aumentar nuestras capacidades humanas. Es importante comprender que la discusión se está volviendo parte de la vida cotidiana y de la práctica profesional y aunque no estamos en un punto en el que la superinteligencia o la inteligencia artificial general sean una realidad, sí estamos viendo cambios significativos, junto con el metaverso, que es un  universo inmersivo que se enfoca en la hiper-personalización de la experiencia. Es un tema complejo que vincula valores societarios con los desarrollos tecnológicos. Estamos viendo un cambio en nuestra sociedad y una aceleración social debido a la velocidad de los avances tecnológicos.

12   La bioética

El contexto bioético en el transhumanismo es uno de los temas más interesantes y controvertidos de la bioética. En el caso de la inteligencia artificial y la carta mencionada, hay un profundo llamado ético para reflexionar antes de que sea demasiado tarde. El tono de la carta puede parecer apocalíptico, pero cuando una personalidad como Wozniak la firma, es difícil ignorarla. Desafortunadamente, es poco probable que se le preste mucha atención. Es poco realista pensar que empresas que están invirtiendo enormes sumas de dinero en la producción de estos modelos se detendrán por cuestiones éticas. Es posible que terminemos adoptando un enfoque similar al estilo colombiano: pongámoslo en marcha y solucionemos los problemas a medida que surjan. Sin embargo, esto plantea desafíos enormes y complejos.

13   Intervenciones Drs Quintero, Roselli, Martinez, Leon.

En el futuro, los médicos tendrán que saber muchas cosas mecánicas, lo que se volverá una tarea bastante interesante y, en ese sentido, nos volveremos mucho más interdisciplinarios de lo que somos hoy. Reitero la necesidad de instruirnos en otros temas como la bioética, el transhumanismo y las tecnologías actuales, que serán complementarias si sabemos administrar, gestionar y regular adecuadamente.

Debemos aceptar el desarrollo de la IA como una de esas realidades que enfrentamos en el pasado, como sucedió con la imprenta y el internet, en donde había gente reacia a vincularse con esos nuevos paradigmas. Además, creo que es fundamental hablar sobre el manejo de los datos de las historias clínicas, la confidencialidad y la seguridad de los datos en salud. Estamos rezagados con respecto a lo que está sucediendo en otros campos, como el sector financiero y el sector comercial en general, en donde van avanzando mucho más rápido que nosotros. Si no nos vinculamos con el tema, nos quedaremos atrás. Ahora es innegable que los avances en la tecnología representan y representarán un cambio fundamental en la manera como se ejerce la medicina, la ciencia, la producción científica y la redacción misma de los artículos. La IA está cambiando todo de una manera sustancial, por lo que o nos pegamos al tema o nos quedaremos atrás, indudablemente.

El tema de la inteligencia artificial me ha inquietado bastante en los últimos días, sobre todo porque desde mi perspectiva, sí la veo como una realidad inmediata en el futuro.

La carta que enviaron recientemente los autoproclamados líderes tecnológicos expresa su temor hacia una evolución que ya es un hecho. No solo los líderes tecnológicos tienen miedo, sino también los líderes de diferentes profesiones, como se menciona en el artículo que nos compartiste hace unos días. Este artículo cubre una amplia gama de actividades técnicas y científicas, y mientras más técnica y científica sea la actividad, más reemplazable es por la inteligencia artificial.

En mi opinión, es un hecho que algunas áreas de la salud son muy reemplazables en términos asistenciales, como la farmacia, que en la mayoría de los lugares del mundo ha sido reemplazada por máquinas, aunque en Colombia todavía hacemos medicamentos a mano. Estos avances generarán revuelo en el sector salud. No veo que necesariamente debamos apuntar a ser expertos en el tema de inteligencia artificial, sino más bien a utilizar todas las herramientas disponibles.

Ha habido cambios tecnológicos a los que nos hemos tenido que adaptar en el pasado, y aun así, la medicina y la medicina basada en la evidencia siguen existiendo.

En mi área, la farmacia sigue siendo relevante y esto me obliga a estar atento a las innovaciones tecnológicas que se presentan. No debemos sentirnos reemplazados por la tecnología, sino ver cómo nuestra profesión, al igual que la medicina y la farmacia, ha evolucionado y se ha transformado para hacer uso de las tecnologías disponibles. Hace 50 años, no utilizábamos la historia clínica electrónica ni se pensaba en un dispensador automático de medicamentos basado en machine learning, lo cual parecía impensable. Además, algunos exámenes de laboratorio que hoy se pueden automatizar antes eran muy complicados. Asimismo, hace 50 años era impensable que un ordenador pudiera diseñar un medicamento, pero hoy en día es una realidad.

No sé si están de acuerdo, pero obviamente es ncesario una adaptación a la IA, en ocasiones, las revoluciones resultan ser menos revolucionarias de lo que se piensa. En realidad, creo que muchos expertos coinciden en que se ha sobredimensionado la expectativa en torno a la IA, a pesar del hito que supuso la inteligencia generativa y es hsta ahora que se ha implementado masivamente. En un chat de colegas oncólogos, alguien escribió algo así como: «¿Tanto revuelo con la IA y ni siquiera ha sido capaz de brindarnos un modelo predictivo en cáncer que sea suficientemente bueno?». Por tanto, la IA y su percepción es bastante heterogénea, pero el aspecto humano es clave para lograr una buena adaptabilidad.

En el congreso europeo de Hematología del año 2019, un colega japonés bastante relevante en el mundo de la hematología hizo una charla sobre inteligencia artificial en medicina, básicamente la hizo sobre la utilidad en la lectura de la histopatología de algunas neoplasias hematológicas y además en la radiología, pero lo que más me sorprendió fue la frase que le puso al final que decía: «la inteligencia artificial no va a reemplazar a los médicos pero los médicos que utilicen inteligencia artificial sí van a reemplazar a los que no la utilicen» atribuida a Dr. Kai-Fu Lee, un experto en inteligencia artificial y ex-presidente de Google China.

En un chat compartimos un artículo que destaca la posibilidad de que los pacientes utilicen chat-GPT para obtener información acerca del manejo óptimo de su enfermedad. Esta herramienta puede proporcionar respuestas bastante aproximadas a lo que los médicos liderando el manejo del paciente pueden responder, lo que nos insta a estar preparados para responder ante estas situaciones, basados en nuestra experiencia y conocimientos.

Recuerdo cuando pensaba que la idea de un traductor japonés era una fantasía de la ciencia ficción que llegaría en el futuro. Sin embargo, hoy en día es una realidad y me hace reflexionar sobre cómo la tecnología ha avanzado a pasos agigantados en muy poco tiempo.

En un momento dado, empecé a preguntarme qué ha estado sucediendo en el campo de la medicina en relación con la inteligencia artificial. Desde entonces, he descubierto que ha habido muchos avances en este ámbito que son realmente emocionantes.

Por ejemplo, a través del blog del Dr. Pino, hemos estado al tanto de los últimos avances y descubrimientos, especialmente en estos últimos meses que han sido de gran relevancia en la medicina. También he participado en algunas investigaciones en las que creo que la inteligencia artificial podría habernos ayudado a hacer un mejor trabajo, como en el caso del comportamiento estacional de algunas enfermedades hematológicas. Aunque utilizamos los registros individuales de prestación de servicios para corroborar la existencia de este comportamiento estacional en Colombia, aún no sabemos por qué ocurre. Por eso, creo que estas herramientas pueden ayudarnos a encontrar respuestas que aún no tenemos.

De acuerdo con el Dr Roselli, no somos expertos, pero tendremos que empezar a hablar sobre este tema y a informarnos para saber cómo podemos utilizarla en nuestra práctica profesional.

Humberto, es un tema muy importante. Primero, necesitamos tener herramientas como mallas o matrices automáticas para poder analizar toda la literatura que se está generando con modelos de inteligencia artificial en medicina. Esta es una capacidad que no se tiene en todo el mundo, de hecho, no es un problema exclusivo de Latinoamérica. Cuando se envía un artículo a cualquier journal, pueden pasar días sin que se consiga un experto editor o un revisor especializado en temas complejos de inteligencia artificial. Esto es algo que debemos tener como capacidad los que trabajamos en salud e investigación. En ese sentido, se están desarrollando algunas herramientas interesantes que aún no están estandarizadas, pero que eventualmente lo estarán. Así como sabemos cómo analizar un metaanálisis o un estudio fase 3, también debemos saber cómo analizar modelos de ensamble, redes neuronales o modelos generativos en salud, utilizando herramientas de aprendizaje automático.

Esto es algo que debe poner en alerta a los comités de ética en investigación de nuestras instituciones, porque lo que queremos es seguir investigando y creando modelos que nos ayuden en el campo de la medicina. Como bien dices, hay estructuras que serán más efectivas utilizando machine learning o deep learning, pues no podemos hacer análisis de señales o texto utilizando una matriz convencional de epidemiología clásica.

Es importante saber dónde vamos a utilizar estas herramientas y no caer en el esnobismo científico de colocar nombres rimbombantes a los modelos solo para que nos publiquen el artículo. Es común encontrar basura publicada en journals muy prestigiosos sobre modelos de inteligencia artificial aplicada en salud. Debemos adaptar los comités, estructuras y capacidades de las personas que hacen investigación hoy en día.

Cada equipo de investigación en medicina debería tener algún tipo de intersección con el tema de los datos. Prácticamente debemos involucrar a un científico de datos y un ingeniero de datos, y pronto también a un ingeniero en los equipos de investigación. Esto no solo aplica a la medicina, sino a cualquier área del conocimiento donde se quiera hacer investigación relevante.

Humberto. Es muy importante lo que has dicho y tenemos compromisos adicionales que derivan de ello. Este espacio es para explicar un poco qué es lo que está pasando y contextualizar el objetivo del debate. No solo se trata de GPT versus el mundo, sino de la evolución de un sub campo de la inteligencia artificial que es la generativa. Es una evolución que seguramente pasará por la inteligencia artificial computacional y en algún momento por la inteligencia artificial general. Todo esto será incremental. No podemos pensar que mañana todo cambiará radicalmente. Debemos tener la oportunidad de formarnos y adquirir capacidades en torno a esto, porque realmente nos harán falta en todas las áreas del conocimiento.

Prácticamente debemos involucrar a un científico de datos, un ingeniero de datos y muy pronto, un ingeniero informático en los equipos de investigación en medicina. Yo creo que en los equipos de investigación de cualquier ciencia o área del conocimiento hoy en día, debe haber alguna intersección con el tema de datos. De otra forma, es muy difícil lograr hacer investigación relevante con estos movimientos.

El fin es contextualizar, no pensar solo en que el tema es GTP versus el mundo, sino que esto es una evolución de un subcampo de la inteligencia artificial que es la generativa, y que luego vendrá, seguramente la computación cuántica. Pasaremos en algún momento por los lados de la inteligencia artificial general en algunas áreas del mundo. Pero esto no va a suceder de la noche a la mañana, es decir, esto también será incremental. Quiero, también, de alguna forma, quitar un poco el tono apocalíptico. Pero si tienen la oportunidad de formarse y adquirir capacidades en torno a esto, háganlo, porque realmente nos van a hacer falta, no solo en medicina, sino en todas las áreas del conocimiento.

2 comentarios sobre “¿La Inteligencia Artificial (IA) va a reemplazarme?

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: