Fundamentos de la IA para profesionales de la salud
Nos da gusto darte la bienvenida a este curso. Vamos a guiarte en los conceptos básicos de inteligencia artificial para profesionales de la salud, para que puedas comenzar a usarla con mayor confianza en tu práctica médica diaria.
Índice de contenidos
¡Empecemos!
Iniciaremos explorando la inteligencia artificial detrás de las herramientas más populares como ChatGPT, Gemini o Perplexity… Porque, honestamente, cuanto más aprendas a usarlas, más poderosas se vuelven. Así que hagamos un repaso rápido de sus elementos básicos:
¿Cómo aprenden, entienden y generan lenguaje humano? Todas parten de algo llamado Modelos de Lenguaje Extensos - o LLM por sus siglas en inglés. ¡Pero, espera!
Antes de que ese término raro te haga salir corriendo de aquí... Lo sé, el concepto Modelos de Lenguaje Extensos puede sonar un poco aterrador pero, te mostraré solo lo más esencial para que puedas entender esto fácilmente.
Aunque no tengas formación técnica, como profesional de la salud puedes —y deberías— entender los principios básicos de la inteligencia artificial. ¿Por qué? Porque eso te permitirá aprovechar mejor esta tecnología tanto en tu consulta como en la atención al paciente.
👉 Lo primero que hay que tener claro: la IA no es una sola cosa.
Es más bien una colección completa de tecnologías que trabajan en conjunto.
Recuerda tus clases en la escuela: quizás llevabas “Ciencias" como materia pero, dentro de ella habían distintas ramas como Física, Biología y Química.

️🔥 Calentamiento: La IA que pasa desapercibida en tu día a día
Antes de entrar de lleno a cómo se aplica la IA en la práctica médica diaria, vamos a hacer un ejercicio rápido.
Piensa cuántas herramientas impulsadas por IA ya usas en tu día a día —¡a veces sin darte cuenta!
Para ayudarte, algunos ejemplos organizados según su uso habitual:
- Asistentes de voz como Gemini, Alexa o Siri: buscan información, agendan citas o te recuerdan cosas solo con tu voz.
- Chatbots como ChatGPT, Gemini, Microsoft Copilot o DeepSeek: responden preguntas, resumen textos e incluso generan imágenes o documentos.
- Texto predictivo y autocorrector: te sugiere palabras o corrige errores automáticamente. Esta función utiliza IA para analizar tus patrones de escritura y predecir la palabra que vas a utilizar.
- Finalmente, plataformas como Netflix, Spotify o YouTube, todas ellas se basan en inteligencia artificial analizando tu historial y preferencias, para recomendarte contenido que podría gustarte.
Así que, aunque no lo hayas notado, la IA ya está bastante integrada en muchos aspectos de tu vida diaria.
En este curso vamos a ir más allá: veremos cómo la IA puede ayudarte directamente en ciertos aspectos de tu consulta médica: desde la documentación hasta la comunicación con tus pacientes.
La inteligencia detrás de ChatGPT, Gemini y otras herramientas populares basadas en IA.
Iniciaremos explorando la inteligencia artificial detrás de las herramientas más populares como ChatGPT, Gemini o Perplexit
Porque cuanto más aprendas a usarlas, más poderosas se vuelven. Así que hagamos un repaso rápido de sus elementos básicos: ¿Cómo aprenden, entienden y generan lenguaje humano?
Todas parten de algo llamado Modelos de Lenguaje Extensos, o LLM por sus siglas en inglés.
El concepto puede sonar un poco aterrador, pero verás solo lo más esencial para que puedas entender esto fácilmente.
La metafora del robot en la librería
Este un ejemplo que te hará entenderlo mejor:
Imagina a un robot dentro de una librería gigantesca con personas que están consultando sus libros. Este robot ha leído millones de esos libros, artículos, páginas web e incluso está al tanto de las conversaciones que ocurren entre las personas de esa librería.
Este robot no piensa como una persona, pero es buenísimo utilizando todos esos datos para reconocer cómo hablamos, escribimos y cómo hacemos preguntas.
Eso es lo que hace un LLM: es un tipo de IA que ha aprendido a «hablar» y «entender» el lenguaje humano de una forma muy, muy sofisticada porque ha sido entrenada con una enorme cantidad de datos.
A través de este proceso, reúnen la información necesaria para construir una comprensión profunda del mundo, y esa comprensión (o inteligencia) les permite realizar muy bien tareas completamente nuevas.
Esto es clave porque no queremos usarlos solo para lo que aprendieron durante su entrenamiento ni para generar textos basados en los libros que “leyeron”. Queremos hacerles preguntas que nunca han visto antes y esperar respuestas inteligentes (y las dan).
🕵️ Funciona como un detective: después de leer y revisar tantos datos, comienza a reconocer patrones.
Por ejemplo, si preguntas “¿Cómo está el clima hoy?”, sabe que la respuesta debe hablar sobre el sol, la lluvia o las nubes.
🔮 Predice la siguiente palabra: pero no solo completa frases, también puede escribir textos completos, responder preguntas, traducir o resumir y mucho más.
Es una máquina superinteligente que genera contenidos coherentes y relevantes en función de las indicaciones que le des. Es como tener un chef experto: tú le pides la receta de un platillo y él busca entre millones de recetarios, páginas web y aplicaciones de cocina para darte la mejor receta posible.
En resumen, un LLM es un tipo de inteligencia artificial entrenada para entender y generar lenguaje como lo haría un ser humano, analizando grandes volúmenes de datos.
Un claro ejemplo de esto es la forma en que Google responde ahora directamente a tus preguntas. Antes, Google era una especie de directorio que te indicaba dónde encontrar las respuestas por medio de enlaces a páginas web. Ahora, con LLM, se ha convertido en un compendio de información que intenta darte la respuesta de manera directa.
Imagina que quieres encontrar las mejores opciones de tratamiento para un paciente recién diagnosticado con diabetes tipo 2.
Antes, Google te mostraba una lista de enlaces a artículos científicos o guías clínicas.
Ahora, gracias a los LLM, te da una respuesta resumida, incluyendo tratamientos de primera línea, recomendaciones de estilo de vida e incluso posibles interacciones farmacológicas… todo en un lenguaje claro y conversacional.

Con tantas plataformas de IA nuevas apareciendo casi a diario, es normal sentirse perdido, especialmente si no tiene conocimientos técnicos específicos sobre IA. ¿Te suena familiar?
Justamente por eso, esta parte del curso te ayudará a elegir la herramienta adecuada según lo que necesitas hacer.
Antes de crear un prompt: entiende las capacidades principales de las herramientas de IA
Lo primero a tener en cuenta es que lo que una IA puede o no puede hacer depende de cómo fue entrenada. A continuación, resumimos las 5 capacidades más comunes de las herramientas basadas en LLM y cómo pueden aplicarse. Las plataformas más populares hoy (OpenAI/GPT, Google/Gemini, Anthropic/Claude) combinan varias de ellas.
Capacidad 1: generación de texto
Es la capacidad más básica y común: generar texto a partir de texto. Funciona muy bien para creatividad, resúmenes y preguntas abiertas. Te permite crear contenido nuevo (no solo repetir información).
👉 Dónde destaca:
- Redacción, edición y resumen de textos
- Responder preguntas directas o generales
- Generar ideas y conceptos creativos (¡revisa los hechos!)
- Estructurar información, por ejemplo plantillas, listas de verificación o documentos formateados
2. Capacidad número dos: generación de medios
La generación de imágenes convierte instrucciones escritas en contenido visual. Describes lo que quieres ver y el modelo crea una imagen que se ajusta a tu idea. Esto es especialmente útil en salud, donde lo visual facilita la comprensión.
👉 Dónde destaca:
- Crear explicaciones visuales para pacientes (procedimientos, pasos, instrucciones)
- Preparar imágenes para redes sociales de tu consultorio
- Producir íconos o ilustraciones para presentaciones, cursos o educación al paciente
- Ayudarte a visualizar distribuciones de la clínica, flujos de trabajo u organización de espacios
Herramientas útiles: Midjourney (imagen), Sora (generación de video), Veo (generación de video), Nano Banana* (imagen)
Curiosidad: modelos más nuevos como Nano Banana Pro pueden llevar esto al siguiente nivel y crear resultados bastante avanzados. Ver ejemplo
3. Capacidad número tres: razonamiento
El razonamiento va más allá de predecir la siguiente palabra y generar lenguaje. Sigue una lógica paso a paso, lo que permite que la IA resuelva problemas, analice información compleja y explique cómo llegó a sus conclusiones.
En la práctica, las capacidades de razonamiento se activan o mejoran “detrás de cámaras”*, permitiendo que el modelo profundice en lugar de limitarse a lo más probable.
👉 Dónde destaca:
- Ayuda a desglosar casos clínicos complejos o con mucha data en una lógica paso a paso.
- Apoya en triaje y priorización: organiza listas de pacientes, marca casos urgentes o sugiere qué síntomas requieren atención rápida.
- Mejora de calidad y análisis de flujo de trabajo: analiza pasos en un proceso clínico y sugiere mejoras lógicas para reducir retrasos o errores.
*Depende del proveedor/modelo; a veces hay que activarlo manualmente, como el modo “extended thinking” de Claude.
4. Capacidad número cuatro: búsqueda web
Los LLM estándar generan respuestas a partir de lo que aprendieron durante el entrenamiento. Los agentes con búsqueda web combinan el modelo de lenguaje con fuentes en vivo, por lo que pueden “buscar” información en tiempo real y usar esas fuentes para armar la respuesta. En situaciones más avanzadas, pueden tener múltiples herramientas (no solo búsqueda web) y decidir de forma autónoma cuándo usar cada una.
👉 Dónde destaca:
- Encontrar las noticias más recientes
- Evaluar múltiples fuentes antes de responder
- Citar referencias de dónde proviene la información
- Apoyar investigaciones de mercado o análisis competitivos con datos actualizados
5. Capacidad número cinco: investigación profunda (Deep research)
Es la combinación de “razonamiento” + “búsqueda web”. No se trata solo de hacer búsquedas, sino de buscar y pensar sobre la información.
Por ejemplo, puede indagar datos en rincones de internet que tú no revisarías y evaluar si son relevantes para incluirlos en la respuesta final.
👉 Dónde destaca:
- Escanear múltiples fuentes y seleccionar lo confiable, en lugar de abrumarte con decenas de enlaces
- Sintetizar información dispersa en una sola respuesta clara (p. ej., guías, estudios, regulaciones, datos de mercado)
- Identificar tendencias o patrones que no son evidentes a primera vista
- Comparar distintos puntos de vista y explicar cuáles son más sólidos y por qué
- Algunas capacidades útiles en herramientas populares:
- Perplexity: modo rápido de investigación profunda que revisa muchas fuentes y entrega respuestas con citas.
- Google Gemini: combina Google Search con razonamiento multimodal para investigaciones ricas y actualizadas.
- ChatGPT: realiza navegación en varios pasos, analiza fuentes y produce reportes detallados con citas.
- Anthropic Claude: mezcla razonamiento avanzado con búsqueda web y explica claramente las fuentes usadas.
- Algunas capacidades útiles en herramientas populares:
¡Algunos tip extra!
#1
Cuando cambies de tema o tarea, abre un nuevo chat con la IA.
Así reinicias el contexto y evitas que la IA se confunda con lo anterior.
#2
Escribir no siempre es práctico, sobre todo si estás atendiendo pacientes.
Hoy en día, muchas plataformas permiten la entrada de voz: solo hablas y listo.
#3
¿Te interesa una charla médica en YouTube, pero no tienes tiempo para verla completa?
Copia el enlace, pégalo en el chat y pídele un resumen.
Te dará los puntos clave y podrás decidir si vale la pena verla completa o ahorrarte ese tiempo!
⚙️ Ingeniería de prompt
Después de haber entendido los básicos de los LLM, el siguiente tema importante es aprender la mejor forma de interactuar con estas herramientas.
Es momento de hablar sobre ingeniería de prompts o indicaciones.
Primero que nada: ¿Qué es un prompt?
Un prompt o indicación, es el mensaje, la pregunta o la instrucción que le haces a una IA para obtener una respuesta. Es tu forma de “hablar” con la IA: ya sea para pedirle ayuda, generar contenido, resolver un problema o buscar información.
Cuando escribes un prompt, la herramienta usa su memoria a corto plazo (la información que das en ese momento) junto con su memoria a largo plazo (el conocimiento que aprendió durante el entrenamiento) para entender tu solicitud y darte la mejor respuesta posible. Ambas influyen en el resultado.
→ Ve este ejemplo: Imagina que quieres explicarle a un paciente joven qué es la hipertensión. Podrías utilizar alguno de los siguientes prompts: “¿Cómo le explicarías qué es la hipertensión a alguien sin formación médica?”
o
“Dame una explicación corta y clara de qué es la hipertensión, para que un paciente de 23 años de edad sin formación médica pueda entenderla”?
¿Lo ves? En modelos basados en LLM, cuanto más clara y contextualizada sea tu instrucción o tu prompt, mejor será la respuesta que recibirás.
Consejo: Los LLM no acceden a su memoria a largo plazo de forma rápida; a veces recuerdan datos de su entrenamiento, pero no es algo muy fiable. Sin embargo, cuando les das información dentro del prompt (por ejemplo, un capítulo de un libro), utilizan muy bien esa memoria a corto plazo y ofrecen resúmenes o explicaciones precisas.
En la próxima lección, te mostraré la fórmula perfecta para construir tu prompt.
Próximo episódio: La fórmula para el prompt perfecto... y más consejos.

Descubre la IA que que resume tus visitas en el historial clínico
Prueba la IA en tu consultorio. Solicita una demo de las soluciones de Doctoralia
Soluciones pensadas para profesionales de la salud