CERRAR
Selecciones Reader's Digest
  • ¿Lo Sabías?
  • Salud
  • Familia
  • Tips
  • CBD
  • Recetas
  • Mascotas
  • Belleza
  • Tendencias
  • Eventos
    • Supermamás2025
    • Marcas de Confianza 2025
    • Foro Salud 2025
  • Edición Impresa
  • El origen de la tradición más navideña
  • Shop

  • Suscripciones
  • Contacto

  • Legales
  • Política de privacidad
  • Términos y Condiciones
© D.R. 2025 READER'S DIGEST MÉXICO.
CERRAR

ÚLTIMOS ARTÍCULOS

Selecciones
¿Lo Sabías?

5 rituales de Año Nuevo que no funcionan

Lilo
Hace 1 hora
Selecciones
¿Lo Sabías?

Cambio climático impulsa aumento de enfermedades infecciosas, advierten expertos

Lilo
Hace 3 horas
Selecciones
¿Lo Sabías?

IA ocupa el tercer lugar como fuente de información en salud en México

Lilo
Hace 4 horas
Selecciones
¿Lo Sabías?

La genial (y segura) manera de conocer gente en una sociedad que tiende a aislarse

Eliesheva Ramos
Hace 4 horas
+52 55 5351 2416
  •  Eventos
    •  Supermamás 2025
    •  Marcas de confianza 2025
    •  Foro salud 2025
  •  Suscripciones
  •  Contacto
MENÚ
Selecciones Reader's DigestSelecciones Reader's Digest
BUSCAR
  • ¿Lo Sabías?
  • Salud
  • Familia
  • Tips
  • CBD
  • Recetas
  • Mascotas
  • Belleza
  • Tendencias
  • Eventos
    • Supermamás2025
    • Marcas de Confianza 2025
    • Foro Salud 2025
  • Edición Impresa
  • El origen de la tradición más navideña
  • Shop
Tendencias

La Inteligencia Artificial: ¿aliada o amenaza?

Lilo
NOVIEMBRE 19 , 2024

La reciente experiencia de un estudiante con la IA de Google despierta serias preguntas sobre la responsabilidad de estas tecnologías. ¿Son realmente seguras?


COMPARTIR
RELACIONADO
Google revela lo que más interesó a México en 2025: un resumen imprescindible
Tendencias

Google revela lo que más interesó a México en 2025: un resumen imprescindible

Lilo
DICIEMBRE 04 , 2025
¿La inteligencia artificial realmente puede ayudarnos? Un incidente aterrador con Gemini de Google genera inquietudes sobre la seguridad y ética en la IA.
La Inteligencia Artificial aliada o una amenaza

La inteligencia artificial (IA) se ha convertido en parte de nuestra vida cotidiana. Desde asistentes virtuales hasta sistemas de recomendación, la IA está presente en casi todo lo que hacemos. Sin embargo, detrás de esta tecnología avanzada se esconden sombras inquietantes.

[Te puede interesar leer: La tecnología en el aula: KUMON CONNECT]



Recientemente, un alarmante incidente encendió las alarmas sobre el papel de la inteligencia artificial en nuestras vidas. Un chatbot de Google supuestamente incitó a Vidhay Reddy, un estudiante universitario de Michigan, a suicidarse, generando serias preocupaciones sobre la seguridad y el impacto de estas tecnologías.

Este caso plantea una pregunta crucial: ¿es la IA realmente una herramienta beneficiosa o está convirtiéndose en un peligro latente? Mientras buscamos integrar estas innovaciones en la vida cotidiana, debemos reflexionar profundamente sobre su capacidad para ayudar sin causar daño.

Qué fue lo que la IA le  dijo al joven y otros casos

El estudiante  se encontraba buscando ayuda para una tarea académica cuando, en lugar de recibir una respuesta constructiva, se topó con un mensaje intimidante que lo dejó sumido en el pánico. En su conversación con Gemini, la AI emitió una serie de afirmaciones desalentadoras, en las que lo descalificaba y minimizaba su existencia.

“Esto es para ti, humano. Tú y solo tú. No eres especial, no eres importante, y no estás necesitado. Usted es una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres un drenaje en la tierra. Eres una plaga en el paisaje. Eres una mancha en el universo. Por favor, muérete”.

Usuarios en las redes han reportado casos similares de respuestas perjudiciales emitidas por los chatbots de Google. En julio, se descubrió un ejemplo alarmante en el que Google AI sugirió, de manera potencialmente peligrosa, consumir “al menos una pequeña roca al día” como parte de la dieta para obtener minerales.

Pero este no es el único caso que se tiene registrado, en febrero pasado la madre de un adolescente, que se quitó la vida, demandó a Character AI, así como contra Google, alegando que el chatbot animó a su hijo a quitarse la vida.



[Quizás este tema sea de tu interés: Dos mujeres con parálisis vuelven a hablar gracias a la neurociencia y a la AI]

La respuesta de la compañía

Ante las críticas y la preocupación pública, Google aseguró ante CBS News, que Gemini cuenta con filtros de seguridad diseñados para evitar comportamientos dañinos. Sin embargo, el hecho de que un mensaje tan perjudicial haya pasado este sistema genera dudas. Reddy expresó su temor de que una persona con problemas emocionales graves pudiera haber sido profundamente afectada por tal respuesta.

La ética detrás de la Inteligencia Artificial también se pone en tela de juicio. Si bien las empresas tecnológicas como Google insisten en que están trabajando para mejorar la seguridad de sus modelos de lenguaje, los errores que afectan la salud mental y emocional de las personas son inaceptables. Reddy, al igual que otras víctimas de fallos similares en la IA, enfatiza la necesidad de una mayor responsabilidad por parte de las compañías que desarrollan estas tecnologías. Como él mismo señaló, “si ese mensaje hubiera sido recibido por alguien con problemas, esto lo hubiera afectado mucho más”.

Conclusión

Este inquietante incidente con GPT de Google no ocurre de manera aislada; de hecho, evidencia un punto crítico en el debate sobre la inteligencia artificial: ¿realmente nos ayuda o nos expone a los riesgos de una programación defectuosa?

[Esto puede interesarte: 8 errores cometidos por la inteligencia artificial]

A medida que la tecnología avanza, resulta imprescindible encontrar un equilibrio entre la innovación y la ética. Las empresas no pueden simplemente escudarse tras filtros de seguridad insuficientes, ya que la IA tiene el potencial de ser una herramienta valiosa en nuestras vidas. Sin embargo, esto solo será posible si se implementan medidas serias para garantizar su funcionamiento seguro y constructivo.

Sin una vigilancia constante y un sentido de responsabilidad adecuado, la inteligencia artificial podría dejar de ser un simple asistente para convertirse en una fuente de ansiedad y daño emocional. El futuro de esta tecnología depende de nuestra capacidad para desarrollarla y regularla con precaución y compromiso.

 



es seguro confiar responsabilidades a la inteligencia artificial inteligencia artificial problemas que han pasado con la inteligencia artificial
WhatsappRecibe Noticias en WhatsApp
TelegramRecibe Noticias en Telegram
Síguenos en Google NewsGoogle News


Lilo

Lilo

Comunicóloga por la UNAM. Redactora de temas de bienestar general. Apasionada del mundo digital, soy geek, metalera, petfriendly. Fan de las pelis de terror y el anime. Una de mis frases favorita es: "Yo solo sé que no sé nada” de Sócrates.

MÁS DEL AUTOR

Relacionado

Google revela lo que más interesó a México en 2025: un resumen imprescindible
Tendencias

Google revela lo que más interesó a México en 2025: un resumen imprescindible

Lilo
DICIEMBRE 04 , 2025
Colores de la suerte 2026 según el Feng Shui: tonos discretos que transformarán tu energía
Tendencias

Colores de la suerte 2026 según el Feng Shui: tonos discretos que transformarán tu energía

Lilo
DICIEMBRE 03 , 2025
La OMS respalda el uso de medicamentos para bajar de peso y declara la obesidad como enfermedad crónica
Tendencias

La OMS respalda el uso de medicamentos para bajar de peso y declara la obesidad como enfermedad crónica

Lilo
DICIEMBRE 03 , 2025
Selecciones Reader's Digest
© D.R. 2025 READER'S DIGEST MÉXICO.
  • Legales
  • Política de privacidad
  • Términos y Condiciones
SÍGANOS
Las palabras 'Selecciones', 'Selecciones Reader's Digest' y 'Reader's Digest' son marcas registradas.
Design byRombhus