menú

Ciudad de Mexico

24°C
Few clouds

viernes 7 de febrero de 2025

>
>
>
>
>
La descripción general de la IA de Google parece producir respuestas engañosas

La descripción general de la IA de Google parece producir respuestas engañosas

Una de las nuevas funciones clave de la IA de Google se ha convertido en objeto de escrutinio y bromas en las redes sociales; esto es lo que sabemos.

Una de las nuevas funciones clave presentadas en la conferencia de desarrolladores Google I/O la semana pasada (resúmenes generados por IA sobre los resultados de búsqueda) se ha convertido en objeto de escrutinio y bromas en las redes sociales después de que los usuarios parecieron mostrar la función mostrando respuestas engañosas y, en algunos casos, información errónea peligrosa.

HECHOS CLAVE

Varios usuarios de Google, incluidos periodistas, han compartido lo que parecen ser múltiples ejemplos del resumen de IA, llamado “Resumen de IA”, citando fuentes dudosas, como publicaciones de Reddit escritas como bromas, o sin entender que los artículos sobre Onion no son objetivos.

La científica informática Melanie Mitchell compartió un ejemplo de la característica que muestra en una respuesta una teoría de conspiración de derecha de que el presidente Barack Obama es musulmán, en lo que parece ser un intento fallido de resumir un libro de la plataforma de investigación de Oxford University Press.

En otros casos, el resumen de IA parece plagiar texto de blogs y no elimina o altera las menciones a los hijos del autor.

Muchos otros ejemplos compartidos en las redes sociales incluyen que la plataforma se equivoque en hechos básicos, como no reconocer a los países de África que comienzan con K y sugerir que las pitones son mamíferos , ambos resultados que Forbes pudo replicar.

Otros resultados inexactos que se han vuelto virales, como el de Obama o el de poner pegamento en la pizza, ya no muestran un resumen de IA sino artículos de noticias que hacen referencia a los problemas de búsqueda de IA.

CITA CRUCIAL

Forbes se comunicó con Google sobre los resultados, pero un portavoz de la compañía le dijo a Verge que los errores aparecían en “consultas generalmente muy poco comunes y no son representativos de las experiencias de la mayoría de las personas”.

LO QUE NO SABEMOS

No está claro qué está causando exactamente el problema, qué tan extenso es y si Google puede verse obligado una vez más a frenar el lanzamiento de una función de inteligencia artificial. Los modelos de lenguaje como GPT-4 de OpenAI o Gemini de Google, que impulsa la función de resumen de IA de búsqueda, a veces tienden a alucinar. Esta es una situación en la que un modelo de lenguaje genera información completamente falsa sin previo aviso, y a veces ocurre en medio de un texto que de otro modo sería preciso. Pero los problemas de la función de IA también podrían deberse a la fuente de datos que Google elige resumir, como artículos satíricos sobre Onion y publicaciones de trolls en plataformas sociales como Reddit. En una entrevista publicada por The Verge esta semana, el director ejecutivo de Google, Sundar Pichai, abordó el tema de las alucinaciones, diciendo que eran un “problema sin resolver” y no se comprometió con un cronograma exacto para una solución.

ANTECEDENTES CLAVE

Este es el segundo lanzamiento importante de IA de Google este año que ha sido objeto de escrutinio por ofrecer resultados inexactos. A principios de este año, la compañía lanzó públicamente Gemini, su competidor del generador de imágenes ChatGPT y DALL-E de OpenAI. Sin embargo, la función de generación de imágenes rápidamente fue criticada por generar imágenes históricamente inexactas, como vikingos negros, soldados nazis racialmente diversos y una papa. Google se vio obligado a disculparse y detuvo la capacidad de Gemini para generar imágenes de personas. Después de la controversia, Pichai envió una nota interna diciendo que era consciente de que algunas de las respuestas de Gemini “han ofendido a nuestros usuarios y mostrado parcialidad” y añadió: “Para ser claros, eso es completamente inaceptable y nos equivocamos”.

POR: FORBES

Más Noticias

El bloqueo de DeepSeek se extiende a países de cuatro continentes; temen espionaje y vulneraciones de seguridad
Hasta el momento, Estados Unidos, Italia, Países Bajos, Irlanda, Corea del Sur, Australia y Taiwán han restringido la descarga de esta aplicación y algunos han...
Investigan a médico por hacerle una resonancia a su gatita... en el hospital donde trabaja
El médico, que hizo la radiografía en el hospital donde labora, podría enfrentar cargos como “desperdicio de dinero público” y “privar a los pacientes de...
Jake Paul le manda mensaje al Canelo Álvarez; "me esquivó, en toda su carrera no ha hecho nada"
El peleador mexicano tiene pactado 3 peleas en Arabia Saudita y 1 en Estados Unidos Aunque en los últimos días los rumores de la pelea...

Relacionados

Detienen a mujer implicada en la muerte del periodista mexicano Adán Manzano; cuenta con antecedentes penales
La detenida, Danette Colbert, es al momento la principal sospechosa...
Luna de Nieve 2025 en México; ¿por qué se le llama así al fenómeno astronómico de febrero?
Conoce el origen del nombre de este evento astronómico que...
Guerra en Ucrania: Trump recibirá la próxima semana a Zelensky en EU; con Putin hablará por teléfono
“Me gustaría que esa guerra terminara”, dijo Trump en declaraciones...
“Hay que tener mucho cuidado” Adal Ramones pide respeto para María Elena Saldaña
Adal Ramones es un reconocido conductor de televisión que ganó fama después...
AFI Awards: premian a Emilia Pérez sin Karla Sofía Gascón
La mexicana Adriana Paz acompañó a Zoe Saldaña, Édgar Ramírez...
Trump firmará decreto contra los popotes de papel y promete "volver al plástico"
La orden ejecutiva que prepara Trump no aborda únicamente los...

Suscríbete

Inscribete a todas nuestras noticias y avisos.