Autor: Andres Rico. MD Internista. CEO AIpocrates
Un detrás de escena revelando cómo la IA está cambiando la atención médica más allá de la apariencia y los sentidos.

La historia del hardware
La historia de como las máquinas han entrado en nuestra vida cotidiana nos permite entender como nuestro día a día va cambiando, antes con cada siglo, luego con cada generación y últimamente cada año. En 1965, el cofundador de Intel, Gordon Moore, predijo que el número de transistores en un chip se duplicaría aproximadamente cada dos años, con un aumento mínimo en el costo (Ley de Moore). Pat Gelsinger, CEO de Intel, menciona que la computación omnipresente, como la nube o la computación en la niebla, sin dejar de lado la computación edge, la conectividad y lainteligencia artificial, han aumentado la demanda de computación, creando un empuje continuo, cita que elmundo crea 270.000 petabytes (es decir, 27 x1019) de datos cada día, se espera para final de esta década, en promedio, 1 petaflop o 1015 operaciones de cómputopor segundo y 1 petabyte de datos a menos de 1 milisegundo de distancia (intel).
¿Cómo hemos llegado hasta aquí? En el artículo del Ábaco a las Redes Neurales de Pino LE, Rico AE y Hernández A. vemos una perspectiva que podemos resumir las distintas fases:
Mecánica:
Después del ábaco hace más de 2000, para la realización de cálculos matemáticos se utilizaron dispositivos mecánicos, que usaban engranajes, ruedas dentadas, poleas y otros, las primeras muestras se dandesde el siglo XVII, cuando Wilhelm Schickard un matemático diseñó basado en el ábaco y un dispositivo llamado los huesos de Naiper, una calculadora mecánica que sumaba y restaba números de hasta seis dígitos, utilizaba varillas y bolas para representar números y realizar cálculos mediante la manipulación de los componentes.
Pascal en la década de 1640 diseñó y supervisó la elaboración de su «pascalina», una calculadora no pasó de la fase de ensayo.
Luego Charles Babbage en el siglo XIX, diseña lallamada «máquina analítica», una calculadora mecánica capaz de realizar operaciones programable a través de tarjetas perforadas, como logaritmos, funciones trigonométricas y polinomios entre otros. Hubo que esperar a 1851 a que Thomas de Colmar creara la primera cálculo que podía realizar las cuatro operaciones aritméticas básicas de manera automática y secuencial, sin necesidad de reconfiguración manual.

Electrónica:
A principios del siglo XX se diseñaron dispositivos queutilizaban resistencias, condensadores y diodos para realizar operaciones de procesamiento de datos, reemplazados luego por los dispositivos con tubos de vacío, que permitían realizar cálculos más complejoscomo operaciones lógicas. Estas máquinas eran grandes, costosas y requerían mucho mantenimiento, pero eran más rápidas y precisas que sus predecesoras mecánicas.
A inicios de la década de 1940, se desarrollaron las primeras computadoras electrónicas, que utilizaban circuitos electrónicos para realizar cálculos, luego
los tubos de vacío se reemplazaron por “relés electromecánicos”, basado en engranajes, combinación de rotores, contactos eléctricos, cables y circuitos, la muestra de ellos fue “La Bomba” de Alan Turing, usada para realizar operaciones criptográficas complejas durante la Segunda Guerra Mundial.
El modelo «Perceptrón» desarrollado por el psicólogo Frank Rosenblatt en 1943, se basó en una la máquina construida con elementos electrónicos como resistencias, condensadores y diodos, tratando de simular el comportamiento de una neurona biológica y fue la primera en utilizar la retroalimentación para ajustar sus pesos sinápticos, siendo el preámbulo de redes neuronales más complejas en el futuro.
En la década de 1950, se desarrollaron los transistores, que permitieron la construcción de circuitos más pequeños y eficientes que reemplazaron a los relés.

Integración, los circuitos integrados:
En la década de 1960 se desarrollaron los circuitos integrados, lo que permitió colocar múltiples componentes electrónicos en un solo chip de silicio, dando paso a dispositivos más pequeños, baratos,eficientes y a los ordenadores personales, en la década de 1970, permitiendo a las personas acceso a la informática, democratizó el acceso a la tecnología informática. La suma de los desarrollos en las décadas siguiente ha dado paso a tecnologías de procesamiento de datos, como la computación en la nube, como ha mencionado Pino LE en la columna computación en la Niebla en los Servicios de Salud.
Cuántica:
Las computadoras cuánticas son todavía experimentales y están siendo desarrolladas por un número limitado de empresas y universidades, sin embargo en la columna de Izquierdo L. y Pino LE Cerebros Artificiales y la Del hombre y la Mujer Biónica al Médico Cuántico de Hernández A podemos tener unas perspectivas del futuro que se acerca.
La historia del software

Los lenguajes de programación son herramientas para crear software y automatizar procesos. Existen diferentes tipos de lenguajes con características y propósitos específicos.
El primer lenguaje de programación fue el lenguaje de máquina, consistía en códigos numéricos que permitían a las primeras computadoras electrónicas ejecutar instrucciones específicas.
En los años 50, se crearon los primeros lenguajes de programación de alto nivel, es decir, permitía a los programadores escribir código de una manera más parecida al lenguaje humano. Ejemplos de estos lenguajes son Fortran, COBOL y Lisp.
En los años 60, surgieron nuevos lenguajes como BASIC (1964), Algol y C (1972).
En los 70s, se desarrolló el lenguaje de programación Pascal, muy utilizado en la educación e investigación.
En los años 80, aparecieron lenguajes como C++ (1983), que combinaba características de programación estructurada y orientada a objetos, así como lenguajes de scripting como Perl (1987).
En los años 90, surgieron lenguajes de programación como Python (1991) y R (1993) para análisis de datos, y Java (1995) se convirtió en uno de los más utilizados. También se desarrollaron lenguajes de programación para la web como PHP (1995) y JavaScript (1995).
Los aspectos relevantes de la historia de la Inteligencia artificial se han tratado en escritos previos, como el artículo del Ábaco a las Redes Neurales de Pino LE, Rico AE y Hernández A. y la columna de Pino LE ¿la inteligencia artificial va a reemplazarme?
La inteligencia artificial entre nosotros.
Los avances en los lenguajes de programación y los en el poder computacional (circuitos integrados y la Ley Moore), que se reflejan en el computador personal, las tablets y los celulares, en especial los smarthphones y accesorios como los relojes, han permitido una mayor penetración de la informática en nuestra vida; sin dejar de lado las supercomputadoras 285,000 núcleos de CPU y 10,000 GPU, de la computación en la nube, referida en las columnas la columna de Pino LE ¿la inteligencia artificial va a reemplazarme? y Modelos Generativos en Medicina.
Los lenguajes dieron a luz software que no requieren de una programación explícita y aprenden de iteraciones, ósea, de los datos y la experiencia.
Esto ha hecho que la Inteligencia Artificial esté presente sin que nuestros sentidos o nuestro raciocinio lo perciba, por ejemplo, los asistentes virtuales tipo Siri, Alexa o Google Assistant; redes sociales o tiendas virtuales que personalizan la sugerencia de productos y ofertas adaptados a los gustos y necesidades aprendidos de elecciones previas del cliente.
Así mismo, detectan alteraciones en los patrones para prevenir fraudes y ataques cibernéticos.
Aunque la automatización no es un equivalente de la inteligencia artificial, pero si es un componente de ella y automatizar tareas repetitivas aumenta la eficiencia en el lugar de trabajo y experiencias de entretenimiento como la sugerencia de películas, programas de televisión y música.
No se puede dejar de lado la “conducción autónoma”que permite a los conductores delegar algunas tareas a los vehículos, sin que estos sea un reemplazo.
En el hogar, a través de comandos de voz o aplicaciones se controlan los electrodomésticos y sistemas de seguridad, se planean las finanzas, con base en el análisis de datos se hacen predicciones sobre el mercado y las oportunidades de inversión.
En la educación a través de la personalización de la experiencia de aprendizaje, adaptando el contenido y la metodología a las necesidades y habilidades del estudiante, facilitando el análisis y traducción de la información, además de escenarios simulados para desarrollo de habilidades, como se menciona en la columna de simulación de la Dra Jiménez.
La ciencia del estudio del movimiento se ha visto modificada, la inteligencia artificial analiza y visualiza los datos relacionados con el rendimiento deportivo de los atletas y los equipos.
En la planeación de viajes una de las Apps más reconocidas es Waze, cuyos software de inteligencia artificial facilita la planificación y proporciona recomendaciones personalizadas de destinos y experiencias, otras brindan información en tiempo real sobre el clima.
La perspectiva
Un algoritmo es un conjunto ordenado de instrucciones o pasos que se siguen para resolver un problema o realizar una tarea en particular y puede ser utilizado para crear un programa de computación, que es un conjunto de instrucciones escritas en un lenguaje de programación que le indica a la computadora qué tarea realizar, que es parte del software, término que se refiere a todos los programas y datos que se utilizan en una computadora, incluyendo sistemas operativos, aplicaciones, controladores de dispositivos, entre otros.
Los lenguajes han generado programas que logran que las computadoras simulen funciones cognitivas humanas, que con un gran número de arquitecturasque combinan ciencias computacionales, estadística,capacidad de análisis de grandes volúmenes de datos, predicción, clasificación, hallazgo de patrones, tomade decisiones, aprendizaje, adaptación, razonamiento,solución de problemas, contextualización y entendimiento del lenguaje natural, además de la capacidad de generación como ChatGPT, DALLE-2, entre otros, cumplen labores específicas sin una programación explícita.
En este momento la inteligencia artificial está entre nosotros, sin que lo percibamos a través de los sentidos suplen nuestras necesidades, pero la inteligencia artificial requiere humanos como se mencionó en el artículo Herramientas de soporte para el razonamiento clínico en medicina interna basadas en inteligencia artificial para:
• El diseño y programación de los algoritmos, lageneración de modelos, la interpretación y contextualización de los resultados generados desde el punto de bioestadísticos y el clínicos.
• Identificación de modelos que generan resultados débiles, espurios o sesgados
• El juicio clínico, interpretar, dar contexto en la medicina de la información obtenida es una responsabilidad del médico.
• Dar un bueno uso de las herramientas y de los datos obtenidos.
El médico del 2024
Antes se tenía la perspectiva del médico del 2050 en un ambiente futurista, o el del médico al final de este decenio, el médico del 2030, pero lo real, es que cada vez más hay artículos científicos con investigaciones preclínicas y clínicas del performance de algoritmos, hay en el comercio dispositivos para el examen físico que potencian las capacidades del médico, cada vez es mayor el número de médicos que hacen parte de grupos exponenciales que buscan una inteligencia artificial ética que logre mejorar la salud de sus pacientes.


Excelente artículo
Como modificará la IA la Epidemiologia Clinica?
Me gustaMe gusta