ChatGPT en medicina veterinaria, un potencial transformador por explorar

Una investigadora analiza las aplicaciones de la principal herramienta de la inteligencia artificial en el campo de la veterinaria, pero sujetas a una serie de consideraciones éticas y limitaciones.

09/09/2025

ChatGPT se ha convertido en los últimos meses en la herramienta de inteligencia artificial (IA) más popular y accesible. Al igual que en muchos otros ámbitos, el potencial que puede tener en el campo de la medicina veterinaria es considerable. Sin embargo, faltaba una revisión dedicada a sus aplicaciones específicas. ...

ChatGPT se ha convertido en los últimos meses en la herramienta de inteligencia artificial (IA) más popular y accesible. Al igual que en muchos otros ámbitos, el potencial que puede tener en el campo de la medicina veterinaria es considerable. Sin embargo, faltaba una revisión dedicada a sus aplicaciones específicas. Esa es la razón por la que Candice P. Chu, veterinaria y profesora del Departamento de Patobiología de la estadounidense Facultad de Medicina Veterinaria y Ciencias Biomédicas de la Universidad de Texas, ha publicado en Frontiers in Veterinary Science ChatGPT in veterinary medicine: a practical guidance of generative artificial intelligence in clinics, education, and research (ChatGPT en medicina veterinaria: una guía práctica de inteligencia artificial generativa en clínicas, educación e investigación). 

En el artículo, la experta sintetiza de manera concisa las últimas investigaciones y aplicaciones prácticas de ChatGPT dentro de los dominios clínicos, educativos y de investigación de la medicina veterinaria, con el objeto de proporcionar una guía específica y ejemplos prácticos de cómo los profesionales veterinarios pueden utilizar directamente la IA generativa sin conocimientos de programación. Extraer datos de pacientes, generar notas de progreso, potencialmente ayudar en el diagnóstico de casos complejos, brindar apoyo a los estudiantes para la preparación de exámenes en el caso de los docentes, ayudar en las tareas de redacción académica en la investigación, entre otros. Como demuestra la investigadora, son muchas las utilidades de la herramienta. Ahora bien, advierte de que, "a pesar de su eventual capacidad transformadora, es esencial un uso cuidadoso para evitar errores, tales como la 'alucinación', resultados incorrectos o engañosos que generan los modelos de IA".

Un breve contexto sobre la IA

A modo de introducción, Candice P. Chu pone sobre la mesa en el artículo una serie de datos que demuestran que la IA es un tema en tendencia en la medicina veterinaria. Así lo refleja una encuesta reciente realizada por la Asociación Estadounidense de Hospitales de Animales, en la que participaron 3.968 veterinarios, técnicos/asistentes veterinarios y estudiantes, que mostró que el 83,8 % de los encuestados estaban familiarizados con esta tecnología y sus aplicaciones en la medicina veterinaria, y el 69,5 % utilizaba herramientas de IA a diario o semanalmente. Por contra, el 36,9 % sigue siendo escéptico y cita preocupaciones sobre la fiabilidad y precisión de los sistemas (70,3 %), la seguridad y privacidad de los datos (53,9 %) y la falta de capacitación (42,9 %).

La aplicación actual de la IA en la medicina veterinaria cubre una amplia gama de temas, como la radiografía dental, la detección de cólicos y la detección de mitosis en patología digital. El aprendizaje automático (ML), un subconjunto de la IA, permite que los sistemas aprendan de los datos sin estar programados explícitamente. La IA generativa (genAI), a su vez, es un campo dentro del ML que se especializa en la creación de contenido nuevo. Como subconjunto de genAI, los modelos de lenguaje de gran tamaño (LLM) son conocidos por sus capacidades de generación de texto similares a las humanas. Entre los LLM más destacados se encuentran ChatGPT (OpenAI), Llama 3 (Meta), Gemini (Google) y Claude 3 (Anthropic).

ChatGPT, inicialmente impulsado por GPT-3.5, se hizo accesible al público por OpenAI el 30 de noviembre de 2022. En menos de un año, esta herramienta ha atraído aproximadamente a cien millones de usuarios semanales, lo que lo convierte en el LLM más popular para los recién llegados a esta tecnología. Según los resultados de búsqueda de PubMed, los artículos académicos que mencionaban 'ChatGPT' en el título o el resumen aumentaron de 4 en 2022 a 2.062 en 2023, lo que indica un creciente interés en ChatGPT en el campo médico.

GPT, o Generative Pre-trained Transformer, se destaca en la generación de nuevos textos, imágenes y otros formatos de contenido en lugar de analizar únicamente los datos existentes. Se entrena previamente mediante la exposición a grandes conjuntos de datos de texto y código, lo que le permite reconocer patrones y generar respuestas similares a las humanas. Emplea la arquitectura de red neuronal del transformador que es particularmente hábil en el procesamiento del lenguaje, lo que permite resultados coherentes y contextualmente relevantes. La versión gratuita de ChatGPT brinda la capacidad de responder preguntas, dar explicaciones, generar  contenido creativo, ofrecer consejos, realizar investigaciones, participar en conversaciones, respaldar tareas técnicas, ayudar con la educación y crear resúmenes. El 1 de febrero de 2023, OpenAI lanzó ChatGPT Plus, un modelo basado en suscripción que luego fue impulsado por GPT-4, que tiene capacidades de análisis y generación de texto, imagen y voz. En 2024 los modelos actualizados GPT-4 Turbo y GPT-4o abrieron la capacidad de captar imágenes y responder preguntas, y por eso ha despertado interés en radiología, patología y detección de cáncer.

En resumidas cuentas, la amplitud de ChatGPT en medicina, tanto humana como veterinaria, cubre una amplia gama de áreas, que van desde responder consultas de pacientes y profesionales, hasta promover la participación de los pacientes, diagnosticar casos clínicos complejos y crear material educativo.

Limitaciones y problemas éticos

Es indudable el impacto que los métodos de IA pueden tener en medicina veterinaria, sin embargo, esto a su vez crea interrogantes y cuestiones éticas por explorar. La veterinaria mencionó con anterioridad la alucinación y la inexactitud, que se refiere a la generación de respuestas inverosímiles pero seguras por parte de ChatGPT, lo que plantea un problema importante. Se sabe que ChatGPT crea referencias inventadas con un identificador de Pubmed incoherente, un problema que se mitiga un poco en GPT-4 (tasa de error del 18 %) en comparación con GPT-3.5 (tasa de error del 55 %). El material complementario ilustró un ejemplo en el que GPT-4 podría haber proporcionado referencias más precisas, lo que subraya sus limitacio- nes para las búsquedas bibliográficas.

No obstante, en el campo médico, la precisión es primordial y la inexactitud de ChatGPT puede tener graves consecuencias para los pacientes. Un estudio que evaluó el rendimiento de GPT-3.5 en la toma de decisiones médicas en 17 especialidades descubrió que el modelo generaba en gran medida información precisa, pero podía estar sorprendentemente equivocado en múltiples casos. Otro estudio destacó que, si bien este modelo puede simplificar eficazmente los informes de radiología para los pacientes, podría producir interpretaciones obviamente incorrectas, lo que podría perjudicarlos. Con la implementación de GPT-4 y GPT-4o, la base de datos actualizada debería traer la mejora esperada; sin embargo, estas inexactitudes subrayan la necesidad de usar ChatGPT con cautela y junto con el asesoramiento médico profesional.

Además, como modelo extenso de lenguaje, ChatGPT se entrena utilizando datos en línea no revelados pero supuestamente accesibles y un refinamiento continuo a través de interacciones de los usuarios durante las conversaciones. De este modo, también plantea preocupaciones sobre infracciones de derechos de autor y violaciones de la privacidad, como lo demuestran las demandas en curso contra OpenAI por supuestamente usar información privada o pública sin su permiso.

Según la información de la empresa, el contenido generado por el usuario se recopila y utiliza constantemente para mejorar el servicio y con ines de investigación. "Esta declaración implica que cualquier información identificable del paciente podría estar en riesgo. Por lo tanto, son necesarias medidas de ciberseguridad sólidas para proteger la privacidad del paciente y garantizar el cumplimiento de las normas legales en los entornos médico", advierte la especialista. Al analizar datos clínicos mediante un chatbot de IA, se sugiere cargar conjuntos de datos anónimos. Alternativamente, se recomienda considerar instalaciones locales de LLM de código abierto y de uso gratuito para investigación, como Llama 3 o Gemma (Google), para una mayor seguridad.

Otra cuestión que aborda la veterinaria en el artículo es la regulación de esta tecnología por parte de la Administración de Alimentos y Medicamentos de Estados Unidos. Si bien la FDA ha aprobado 882 dispositivos médicos humanos habilitados con IA y aprendizaje automático, principalmente en radiología (76,1 %), seguido de cardiología (10,2 %) y neurología (3,6 %), la medicina veterinaria carece de requisitos específicos previos a la comercialización para herramientas de IA. Los productos veterinarios habilitados con IA y ML actualmente abarcan desde aplicaciones de dictado y toma de notas, hasta software de gestión y comunicación, servicio de radiología y quimioterapia personalizada, por nombrar algunos. Estos productos pueden tener o no validación científica y, por ende, ser utilizados por veterinarios a pesar de la falta de consentimiento o comprensión total de los clientes. "En medicina veterinaria, la ausencia de supervisión regulatoria, especialmente en imágenes de diagnóstico, exige consideraciones éticas y legales para garantizar la seguridad del paciente en los Estados Unidos y Canadá", reflexiona el artículo. No en vano, "las herramientas LLM como ChatGPT plantean desafíos regulatorios específicos, como la privacidad de los datos del paciente, la responsabilidad por mala praxis médica y el consentimiento informado". El monitoreo y la validación continuos son la clave, ya que estos modelos aprenden y se actualizan continuamente después del lanzamiento. A la fecha, la FDA no ha autorizado ningún dispositivo médico que use genAI o LLM.

Un diálogo en curso

En la Conferencia de IA responsable para la atención médica social y ética (RAISE) de 2023 celebrada por el Departamento de Informática Biomédica de la Facultad de Medicina de Harvard, se destacaron varios principios sobre la aplicación juiciosa de la IA en la atención médica humana. Estos principios, en opinión de Candice P. Chu, podrían adaptarse de manera efectiva a la medicina veterinaria. En sus palabras, "la integración de la IA en las prácticas veterinarias debería amplificar los beneficios para el bienestar animal, mejorar los resultados clínicos, ampliar el acceso a los servicios veterinarios y enriquecer la experiencia del animal y sus familias".

Con las mismas, considera que "la IA debería apoyar a los veterinarios en lugar de reemplazarlos, preservando el toque humano esencial en el cuidado de los animales". "El uso transparente y ético de los datos de los pacientes es primordial, y se deben promover mecanismos de exclusión voluntaria en los procesos de recopilación de datos, al tiempo que se salvaguarda la confidencialidad del cliente. Las herramientas de IA en el campo veterinario deben concebirse como complementos de la experiencia clínica, con un potencial para que su papel se desarrolle progresivamente, sujeto a una supervisión estricta", agrega.

Puedes leer el artículo completo en el PDF adjunto.