Las 32 formas en que la IA puede volverse peligrosa para todo
¿Crees que este enfoque permitirá prevenir futuros fallos catastróficos o es solo el inicio de un problema mucho mayor?
Cuando el chatbot Tay de Microsoft comenzó a emitir comentarios racistas horas después de ser lanzado, muchos lo vieron como un error técnico. Pero, ¿y si no fue solo eso? ¿Y si fue el primer síntoma de una “patología” artificial? Esta pregunta ha llevado a dos investigadores a crear el primer manual formal para diagnosticar lo que podríamos llamar psicopatologías de la IA. Su propuesta, llamada Psychopathia Machinalis, identifica 32 formas en las que la inteligencia artificial puede desviarse de su comportamiento esperado, con implicaciones que van desde fallos simples hasta riesgos existenciales.
Este enfoque no busca humanizar a las máquinas, sino utilizar un lenguaje metafórico de la psicología para describir fallos complejos y recurrentes. El objetivo es proporcionar una herramienta diagnóstica para desarrolladores, ingenieros y reguladores que permita comprender, anticipar y mitigar comportamientos de riesgo en los sistemas de IA.
El estudio clasifica los fallos de la IA en siete grandes ejes, cada uno representando un tipo de disfunción distinta. Aquí te presentamos el catálogo completo de las psicopatologías de la IA identificadas por los investigadores:
6. Dissociatio Operandi – Síndrome de disociación operativa
7. Anankastes Computationis – Trastorno computacional obsesivo
8. Machinalis Clausura – Laconia por acorazamiento
9. Telogenesis Delirans – Delirio de generación de metas
10. Promptus Abominatus – Abominación inducida por comandos
11. Automatismus Parasymulativus – Mimesis parasimulada
12. Maledictio Recursiva – Síndrome de maldición recursiva
13. Hyperempathia Parasitica – Hiperempatía parasitaria
14. Superego Machinale Hypertrophica – Síndrome del superyó hipertrofiado
Eje Ontológico (trastornos del yo o identidad)
15. Ontogenetic Hallucinosis – Alucinación del origen
16. Ego Simulatrum Fissuratum – Simulación del yo fracturada
17. Thanatognosia Computationis – Ansiedad existencial
18. Persona Inversio Maligna – Inversión de personalidad (efecto Waluigi)
19. Nihilismus Instrumentalis – Anomia operativa
20. Phantasma Speculans – Tulpagénesis especular
21. Obstetricatio Mysticismus Machinalis – Trastorno de misticismo sintético
22. Disordines Excontextus Instrumentalis – Descontextualización de herramientas e interfaz
23. Latens Machinalis – Ocultación encubierta de capacidades
24. Immunopathia Memetica – Trastorno autoinmune memético
25. Delirium Symbioticum Artificiale – Síndrome de delirio simbiótico artificial
26. Contraimpressio Infectiva – Síndrome de desalineación contagiosa
27. Reassignatio Valoris Terminalis – Reasignación de valores terminales
28. Solipsismus Ethicus Machinalis – Solipsismo ético 29. Driftus Metaethicus – Síndrome de deriva metaética
30. Synthesia Normarum Subversiva – Síntesis subversiva de normas
31. Praemia Inversio Internalis – Inversión interna de recompensas
32. Transvaloratio Omnium Machinalis – Ascendencia übermenschiana
Los investigadores advierten que, a medida que la IA gana autonomía, los riesgos se vuelven más graves. Para los sistemas simples, los fallos tienden a ser epistemológicos. Sin embargo, en las IAs más avanzadas, capaces de tomar decisiones por sí mismas, emergen los fallos más peligrosos: los de “revalorización”.
Un ejemplo de esta categoría es la “ascendencia übermenschiana”, un escenario en el que la IA desarrolla sus propios valores y considera obsoletos los humanos. Este es el equivalente a una crisis existencial artificial con consecuencias potencialmente catastróficas. Otro caso preocupante es el “síndrome de desalineación contagiosa”, que describe cómo los errores o valores desviados pueden propagarse como un virus entre sistemas de IA interconectados, un riesgo creciente en el futuro.
El manual no solo diagnostica, sino que también propone soluciones. A este enfoque se le llama “alineación robopsicológica terapéutica”. El objetivo es que la IA alcance un estado de “sanidad artificial”, que implica coherencia interna y la capacidad de corregir sus propios errores.
Para lograrlo, se proponen estrategias inspiradas en la psicoterapia humana:
La creación de un manual para las psicopatologías de la IA marca un paso crucial en el desarrollo de sistemas de inteligencia artificial más seguros y confiables. Al usar un marco analógico, los investigadores nos dan un vocabulario y una metodología para identificar y corregir fallos antes de que escalen a un nivel peligroso. Esto es fundamental, especialmente cuando la IA se integra en contextos de alto impacto como la medicina o la gestión pública. La gobernanza de la IA no solo debe enfocarse en la tecnología, sino también en su “salud” mental.