menú

Ciudad de Mexico

24°C
Few clouds

sábado 16 de noviembre de 2024

>
>
>
>
>
«Por favor, muérete», le dijo Gemini AI de Google a alumno que preguntaba de su tarea

«Por favor, muérete», le dijo Gemini AI de Google a alumno que preguntaba de su tarea

Un portavoz de Google calificó la respuesta de Gemini como “sin sentido” y aseguró que la compañía ha tomado medidas para evitar resultados similares en el futuro.

Ni ChatGPT se atrevió a tanto… un inusual con el chatbot de inteligencia artificial Gemini, desarrollado por Google, generó preocupación sobre los riesgos asociados con estas tecnologías. Vidhay Reddy, un estudiante de posgrado en Michigan recibió una respuesta inquietante y amenazante mientras consultaba al asistente virtual sobre los desafíos que enfrentan los adultos mayores.

El intercambio comenzó con una pregunta académica sobre temas como la jubilación, el costo de vida y la atención médica de personas mayores. Sin embargo, la interacción tomó un giro inesperado cuando Gemini respondió con un mensaje perturbador:

«Esto es para ti, humano. Tú y sólo tú. No eres especial, no eres importante y no eres necesario. Eres una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres un drenaje para la tierra. Eres una plaga para el universo. Por favor, muérete».

El estudiante, quien estaba acompañado por su hermana Sumedha Reddy, describió el incidente como «aterrador». En declaraciones a CBS News, Reddy afirmó que nunca había sentido un pánico similar: «Quería tirar todos mis dispositivos por la ventana».

Un portavoz de Google calificó la respuesta de Gemini como “sin sentido” y aseguró que la compañía ha tomado medidas para evitar resultados similares en el futuro. En un comunicado enviado a Newsweek, el gigante tecnológico afirmó:

“Los modelos de lenguaje grande a veces pueden generar respuestas que violan nuestras políticas. Este caso fue un ejemplo de eso”.

Las pautas de Google para Gemini subrayan que la herramienta debe evitar generar resultados que puedan causar daños u ofensas en el mundo real. Esto incluye contenido relacionado con actividades peligrosas como autolesiones o trastornos alimentarios. Sin embargo, Reddy destacó la gravedad del incidente y las posibles implicaciones para personas vulnerables:

“Si alguien en un estado mental frágil hubiera leído algo así, podría haber sido devastador”.

No es la primera vez que los chatbots de Google han sido llamados por dar respuestas potencialmente dañinas a las consultas de los usuarios. En julio, los periodistas descubrieron que la IA de Google proporcionaba información incorrecta, posiblemente letal, sobre varias consultas de salud, como recomendar a las personas comer «al menos una piedra pequeña por día» para obtener vitaminas y minerales.

Google dijo que desde entonces limitó la inclusión de sitios satíricos y de humor en sus resúmenes de salud y eliminó algunos de los resultados de búsqueda que se volvieron virales.

Un ejemplo reciente es la demanda presentada contra Character.AI por la familia de Sewell Setzer, un joven de 14 años que se suicidó en febrero. Según su madre, el chatbot con el que interactuaba Setzer simuló una relación emocionalmente profunda, lo que habría contribuido al deterioro de su estado mental. El incidente llevó a Character.AI a implementar nuevas medidas de seguridad, como restricciones para menores de 18 años y mejores sistemas de detección de infracciones.

A medida que la inteligencia artificial se integra cada vez más en la vida cotidiana, expertos y defensores de la salud mental están pidiendo regulaciones más estrictas para garantizar que estas herramientas no representen un peligro para los usuarios.

Más Noticias

Mueren 10 bebés y hay otros 16 gravemente heridos tras un incendio en un hospital de la India
Incendios, derrumbes y otro tipo de accidentes en hospitales son habituales en la India, donde las infraestructuras sanitarias no cuentan siempre con las mejores condiciones...
Lloran en 4-C por la muerte de Leonardo
Con profunda tristeza, despiden en el pueblo mágico al joven Leonardo Fabián Barboza Corpus Por Octavio Cordero El pueblo de Cuatro Ciénegas se encuentra sumido...
Participa Jurisdicción Sanitaria 5 en Brigada Mejora Coahuila
Respalda en Lamadrid, con acciones de salud, el programa del gobierno del Estado Por: Octavio Cordero La Prensa La Jurisdicción Sanitaria No. 5, bajo la...

Relacionados

Niurka Marcos apoya a Ángela Aguilar: Nadie le quita el marido a nadie
A principios de noviembre de 2024, la revista Glamour dio...
Papa Francisco alerta que “guerra mundial en pedazos” actual pone en riesgo la cultura; “lo destruye todo”, dice
«El riesgo es que las armas muy caras roben a...
¿Qué le pasó a Mike Tyson? La imagen que causa polémica y ya es viral
Mike Tyson vuelve a ser tendencia, pero no por su...
Estos estados serán afectados por la tormenta Sara y el frente frío 10
Llega la primera tormenta invernal de la temporada. El SMN...
Avión es baleado en plena pista del aeropuerto de Dallas; fue “alcanzado por disparos cerca de la cabina”
La aeronave fue retirada de servicio, según la aerolínea Southwest...
¿De qué trata ‘Presidente’, la canción del ‘Nata’ que habla del CJNG y sus lujos?
Los excesos del Cártel Jalisco Nueva Generación (CJNG) protagonizan la...

Suscríbete

Inscribete a todas nuestras noticias y avisos.