CERRAR
Selecciones Reader's Digest
  • Icono Guía de bienestarGuía de Bienestar
  • ¿Lo Sabías?
  • Salud
  • Familia
  • Tips
  • CBD
  • Recetas
  • Mascotas
  • Belleza
  • Tendencias
  • Eventos
    • Supermamás2025
    • Marcas de Confianza 2025
    • Foro Salud 2025
  • Edición Impresa
  • E Book
  • Shop

  • Suscripciones
  • Contacto

  • Legales
  • Política de privacidad
  • Términos y Condiciones
© D.R. 2026 READER'S DIGEST MÉXICO.
CERRAR

ÚLTIMOS ARTÍCULOS

Selecciones
Tendencias

El sarampión ya está en todo México: un virus que avanza más rápido que el COVID-19

Lilo
Hace 52 minutos
Selecciones
¿Lo Sabías?

Hallan la Basílica de Vitruvio: el edificio romano basado en el cuerpo humano

Lilo
Hace 2 horas
Selecciones
¿Lo Sabías?

¿Sabías que en Etiopía no es 2026 sino 2018? Así funciona su forma única de medir el tiempo

Lilo
Hace 4 horas
Selecciones
Parejas

Tres preguntas que ayudan a evitar conflictos en pareja, según expertos

Lilo
Hace 16 horas
+52 55 5351 2416
  •  Eventos
    •  Supermamás 2025
    •  Marcas de confianza 2025
    •  Foro salud 2025
  •  Suscribirse
  •  Contacto
MENÚ
Selecciones Reader's DigestSelecciones Reader's Digest
BUSCAR
  • Icono Guía de bienestarGuía de Bienestar
  • ¿Lo Sabías?
  • Salud
  • Familia
  • Tips
  • CBD
  • Recetas
  • Mascotas
  • Belleza
  • Tendencias
  • Eventos
    • Supermamás2025
    • Marcas de Confianza 2025
    • Foro Salud 2025
  • Edición Impresa
  • E Book
  • Shop
Tendencias

La Inteligencia Artificial: ¿aliada o amenaza?

Lilo
NOVIEMBRE 19 , 2024

La reciente experiencia de un estudiante con la IA de Google despierta serias preguntas sobre la responsabilidad de estas tecnologías. ¿Son realmente seguras?


COMPARTIR
RELACIONADO
El sarampión ya está en todo México: un virus que avanza más rápido que el COVID-19
Tendencias

El sarampión ya está en todo México: un virus que avanza más rápido que el COVID-19

Lilo
Hace 52 minutos
¿La inteligencia artificial realmente puede ayudarnos? Un incidente aterrador con Gemini de Google genera inquietudes sobre la seguridad y ética en la IA.
La Inteligencia Artificial aliada o una amenaza

La inteligencia artificial (IA) se ha convertido en parte de nuestra vida cotidiana. Desde asistentes virtuales hasta sistemas de recomendación, la IA está presente en casi todo lo que hacemos. Sin embargo, detrás de esta tecnología avanzada se esconden sombras inquietantes.

[Te puede interesar leer: La tecnología en el aula: KUMON CONNECT]



Recientemente, un alarmante incidente encendió las alarmas sobre el papel de la inteligencia artificial en nuestras vidas. Un chatbot de Google supuestamente incitó a Vidhay Reddy, un estudiante universitario de Michigan, a suicidarse, generando serias preocupaciones sobre la seguridad y el impacto de estas tecnologías.

Este caso plantea una pregunta crucial: ¿es la IA realmente una herramienta beneficiosa o está convirtiéndose en un peligro latente? Mientras buscamos integrar estas innovaciones en la vida cotidiana, debemos reflexionar profundamente sobre su capacidad para ayudar sin causar daño.

Qué fue lo que la IA le  dijo al joven y otros casos

El estudiante  se encontraba buscando ayuda para una tarea académica cuando, en lugar de recibir una respuesta constructiva, se topó con un mensaje intimidante que lo dejó sumido en el pánico. En su conversación con Gemini, la AI emitió una serie de afirmaciones desalentadoras, en las que lo descalificaba y minimizaba su existencia.

“Esto es para ti, humano. Tú y solo tú. No eres especial, no eres importante, y no estás necesitado. Usted es una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres un drenaje en la tierra. Eres una plaga en el paisaje. Eres una mancha en el universo. Por favor, muérete”.

Usuarios en las redes han reportado casos similares de respuestas perjudiciales emitidas por los chatbots de Google. En julio, se descubrió un ejemplo alarmante en el que Google AI sugirió, de manera potencialmente peligrosa, consumir “al menos una pequeña roca al día” como parte de la dieta para obtener minerales.

Pero este no es el único caso que se tiene registrado, en febrero pasado la madre de un adolescente, que se quitó la vida, demandó a Character AI, así como contra Google, alegando que el chatbot animó a su hijo a quitarse la vida.



[Quizás este tema sea de tu interés: Dos mujeres con parálisis vuelven a hablar gracias a la neurociencia y a la AI]

La respuesta de la compañía

Ante las críticas y la preocupación pública, Google aseguró ante CBS News, que Gemini cuenta con filtros de seguridad diseñados para evitar comportamientos dañinos. Sin embargo, el hecho de que un mensaje tan perjudicial haya pasado este sistema genera dudas. Reddy expresó su temor de que una persona con problemas emocionales graves pudiera haber sido profundamente afectada por tal respuesta.

La ética detrás de la Inteligencia Artificial también se pone en tela de juicio. Si bien las empresas tecnológicas como Google insisten en que están trabajando para mejorar la seguridad de sus modelos de lenguaje, los errores que afectan la salud mental y emocional de las personas son inaceptables. Reddy, al igual que otras víctimas de fallos similares en la IA, enfatiza la necesidad de una mayor responsabilidad por parte de las compañías que desarrollan estas tecnologías. Como él mismo señaló, “si ese mensaje hubiera sido recibido por alguien con problemas, esto lo hubiera afectado mucho más”.

Conclusión

Este inquietante incidente con GPT de Google no ocurre de manera aislada; de hecho, evidencia un punto crítico en el debate sobre la inteligencia artificial: ¿realmente nos ayuda o nos expone a los riesgos de una programación defectuosa?

[Esto puede interesarte: 8 errores cometidos por la inteligencia artificial]

A medida que la tecnología avanza, resulta imprescindible encontrar un equilibrio entre la innovación y la ética. Las empresas no pueden simplemente escudarse tras filtros de seguridad insuficientes, ya que la IA tiene el potencial de ser una herramienta valiosa en nuestras vidas. Sin embargo, esto solo será posible si se implementan medidas serias para garantizar su funcionamiento seguro y constructivo.

Sin una vigilancia constante y un sentido de responsabilidad adecuado, la inteligencia artificial podría dejar de ser un simple asistente para convertirse en una fuente de ansiedad y daño emocional. El futuro de esta tecnología depende de nuestra capacidad para desarrollarla y regularla con precaución y compromiso.

 



es seguro confiar responsabilidades a la inteligencia artificial inteligencia artificial problemas que han pasado con la inteligencia artificial
WhatsappRecibe Noticias en WhatsApp
TelegramRecibe Noticias en Telegram
Síguenos en Google NewsGoogle News


Lilo

Lilo

Comunicóloga por la UNAM. Redactora de temas de bienestar general. Apasionada del mundo digital, soy geek, metalera, petfriendly. Fan de las pelis de terror y el anime. Una de mis frases favorita es: "Yo solo sé que no sé nada” de Sócrates.

MÁS DEL AUTOR

Relacionado

El sarampión ya está en todo México: un virus que avanza más rápido que el COVID-19
Tendencias

El sarampión ya está en todo México: un virus que avanza más rápido que el COVID-19

Lilo
Hace 52 minutos
México también hace historia en la nieve: cinco atletas rumbo a los Juegos Olímpicos de Invierno 2026
Tendencias

México también hace historia en la nieve: cinco atletas rumbo a los Juegos Olímpicos de Invierno 2026

Lilo
ENERO 20 , 2026
Clima extremo y fuego: por qué los incendios ya no dan tregua en la Patagonia
Tendencias

Clima extremo y fuego: por qué los incendios ya no dan tregua en la Patagonia

Lilo
ENERO 19 , 2026
Selecciones Reader's Digest
© D.R. 2026 READER'S DIGEST MÉXICO.
  • Legales
  • Política de privacidad
  • Términos y Condiciones
SÍGANOS
Las palabras 'Selecciones', 'Selecciones Reader's Digest' y 'Reader's Digest' son marcas registradas.
Design byRombhus