El mito de la “Vacuna creada con ChatGPT”: Lo que realmente ocurrió en el perro con cáncer

Recientemente, se ha viralizado en los medios internacionales el caso de un consultor australiano llamado Paul Conyngham, quien supuestamente habría creado una vacuna contra el cáncer de su perro utilizando herramientas como ChatGPT y AlphaFold (https://www.infobae.com/historias/2026/03/16/de-un-diagnostico-letal-a-la-ia-y-una-vacuna-experimental-la-historia-de-paul-conyngham-el-dueno-que-desafio-al-cancer-para-salvar-a-su-perra-rosie/). La narrativa ha sido potente pero no del todo verdadera: un individuo, apoyado en herramientas de Inteligencia Artificial (IA), logra lo que antes requería años de investigación científica. Sin embargo, como suele ocurrir con este tipo de relatos, la historia real es bastante más compleja.

Al revisar los detalles del caso se muestra que la afirmación internacional al estilo “ChatGPT creó una vacuna” es, en el mejor de los casos, una simplificación extrema, y en el peor, una distorsión. Lejos de tratarse de un proceso automatizado impulsado por tecnologías de IA, lo que ocurrió fue un esfuerzo altamente especializado que combinó conocimiento científico, infraestructura de laboratorio y colaboración con expertos en biotecnología.

El rol real de la IA

En el centro del mito está la idea de que herramientas como ChatGPT pueden diseñar tratamientos médicos complejos. En la práctica, su rol fue mucho más acotado. ChatGPT se utilizó principalmente como una herramienta de apoyo: para explorar literatura científica, organizar información y sugerir posibles enfoques conceptuales. Este tipo de uso no es trivial, pero tampoco representa un salto en la generación de terapias.

Algo similar ocurre con AlphaFold, el sistema desarrollado por DeepMind para predecir estructuras 3D de proteínas. Aunque se ha presentado como un elemento clave en la historia, su contribución habría estado limitada a proporcionar modelos estructurales que luego deben ser interpretados, validados y utilizados por especialistas. AlphaFold no diseña vacunas; ofrece predicciones que requieren un contexto experimental y clínico para tener sentido.

Un proceso científico, no una solución instantánea

El desarrollo del tratamiento involucró múltiples etapas que están muy lejos del alcance de cualquier herramienta de IA por sí sola. Entre ellas, el análisis genómico del tumor del animal, la identificación de mutaciones relevantes, el diseño de una estrategia terapéutica personalizada y la producción de una vacuna basada en mRNA (“ARN mensajero”).

Cada uno de estos pasos implica decisiones críticas, validaciones experimentales y conocimientos altamente especializados. Por ejemplo, identificar qué mutaciones son relevantes para activar una respuesta inmune efectiva es un problema abierto en biomedicina, incluso para equipos complejos de investigación avanzados. La síntesis y administración de una vacuna personalizada, por su parte, requiere infraestructura de laboratorio, controles de calidad y criterios clínicos estrictos.

Reducir todo este proceso a “ChatGPT creó una vacuna” no solo es incorrecto, sino que invisibiliza el trabajo científico que realmente hace posible este tipo de avances.

¿Una cura? No exactamente

Otro elemento que ha contribuido a la viralización “engañadora” es la idea de que el perro fue “curado”. Sin embargo, la evidencia disponible es limitada. Aunque el animal mostró mejorías, no está claro qué parte del tratamiento fue responsable ni si los efectos serán sostenibles en el tiempo. En medicina — los casos individuales no son suficientes para establecer eficacia.

Los expertos advierten que este tipo de intervenciones son altamente experimentales y difíciles de replicar. Así, no se trata de una solución generalizable ni de un tratamiento listo para su uso clínico masivo. Presentarlo, mediáticamente, como tal contribuye a generar expectativas poco realistas sobre lo que la tecnología puede lograr hoy.

El problema de fondo: ¿Cómo contamos la historia de la IA?

Más allá de este caso específico, la noticia revela un fenómeno más amplio: la tendencia a sobreestimar las capacidades actuales de la inteligencia artificial. En el imaginario colectivo, herramientas como ChatGPT aparecen como “agentes autónomos” capaces de resolver problemas complejos por sí solos. En la realidad, son sistemas que operan como asistentes, amplificando capacidades humanas, pero no reemplazándolas.

Este tipo de narrativas no son inocuas. Por un lado, pueden generar desinformación y expectativas exageradas, especialmente en ámbitos sensibles como la salud. Por otro lado, invisibilizan el rol clave de científicos, médicos e ingenieros que trabajan en estos desarrollos. Finalmente, esto también distorsionan el debate sobre el verdadero impacto de la IA, alejándolo de sus aplicaciones reales y actuales.

Una lección más útil y realista

Si hay algo valioso en esta historia, no es la idea de que la IA pueda crear vacunas por sí sola, sino que puede integrarse como una herramienta poderosa dentro de procesos científicos complejos. Puede acelerar la revisión de literatura, sugerir hipótesis y apoyar el análisis de datos. Sin embargo, la IA siendo eso: una herramienta.

Entender esta distinción es clave, no solo para evitar caer en mitos tecnológicos, sino también para aprovechar de manera más efectiva el verdadero potencial de la IA. En lugar de imaginar soluciones mágicas, el desafío es construir colaboraciones inteligentes entre humanos y máquinas, donde cada uno aporte lo que mejor sabe hacer.

Finalmente, la historia no es la de un computador que cura, sino la de un proceso científico en el que la tecnología —bien utilizada— puede marcar la diferencia.

Por: Dr. John Atkinson /Consultor, Especialista y Profesor de IA y Fundador AI-Empowered

OTROS CONTENIDOS

Scroll al inicio