Un análisis coordinado por la European Broadcasting Union (EBU) detectó que la mayoría de los usuarios acepta como válidas las respuestas erróneas de la inteligencia artificial.
La investigación revisó miles de interacciones en temas de actualidad informativa y encontró fallos frecuentes: datos incompletos, imprecisiones y errores de contexto.
A pesar de ello, gran parte de los usuarios no identificó las equivocaciones y dio por correctas las respuestas.
Este fenómeno preocupa porque la IA se ha convertido en una fuente habitual de información y apoyo en la vida diaria, desde resolver dudas hasta tomar decisiones rápidas.
Factores que explican la confianza
Los expertos señalan que la forma en que los sistemas presentan la información influye directamente en la percepción de fiabilidad. Textos claros, estructurados y con apariencia de autoridad generan confianza inmediata.
Además, el estudio identifica el sesgo de automatización, un fenómeno psicológico que describe la tendencia a confiar en sistemas automatizados para reducir el esfuerzo de análisis.
Otro hallazgo relevante es la relación entre popularidad y credibilidad: cuanto más extendido es el uso de estas herramientas, mayor confianza generan entre los usuarios, incluso si contienen errores.
Riesgos y retos futuros
El crecimiento del uso de la IA como fuente de información plantea desafíos importantes:
- Integración de errores en decisiones cotidianas.
- Falta de verificación por parte de los usuarios.
- Necesidad de regulación y educación digital.
UGT, por ejemplo, ha pedido imponer un impuesto a la robotización y mayor regulación en sectores como el automovilístico, donde la IA ya tiene un papel relevante.
El estudio sobre los errores en las respuestas de la IA evidencia la urgencia de fomentar pensamiento crítico y regulación, invitando a seguir explorando cómo equilibrar confianza y verificación en el uso cotidiano de estas herramientas.