menú

Ciudad de Mexico

24°C
Few clouds

jueves 5 de diciembre de 2024

>
>
>
>
>
Sesgos con inteligencia artificial: los rostros blancos son más realistas

Sesgos con inteligencia artificial: los rostros blancos son más realistas

La proporcionalidad, familiaridad y “lo común” de las imágenes generadas con IA favorece a que las personas piensen que se trata de fotografías reales

infobae. Las capacidades generativas de la inteligencia artificial para producir rostros humanos que tengan apariencia real es ampliamente conocida por los usuarios curiosos y editores de fotografías experimentados. Sin embargo esto puede generar casos curiosos en los que se considere que la cara de una persona que fue completamente creada con esta tecnología se vea “más realista” que la perteneciente a un humano real.

Este fenómeno, llamado “hiperrealismo” en el que se considera que un rostro creado por computadora se ve incluso “más real” que uno existente, fue analizado por investigadores de la Universidad Nacional Australiana, quienes detectaron que en particular aquellas imágenes que representan a personas de piel blanca eran consideradas de mayor realismo a comparación de aquellas de personas con piel morena.

El documento, que fue publicado por la revista “Psycological Science” con el título “Hiperrealismo de la IA: por qué los rostros de la inteligencia artificial se perciben como más reales que los humanos”, indica que las imágenes creadas con programas de este tipo hace tres años eran percibidas como más reales que fotografías de personas existentes.

El experimento realizado consistió en que una serie de encuestados eligiera las fotos que consideran como reales o falsas de una colección conformada por 100 fotografías creadas con inteligencia artificial y otras 100 que representan a personas reales. Los investigadores también solicitaron que los participantes indiquen el nivel de confianza en su respuesta.

Encuesta indica que los rostros de piel blanca generados con inteligencia artificial son más realistas para los usuarios. (Ars Technica)

Como resultado de la encuesta, en la que participaron 124 personas, el 66% de las imágenes creadas por inteligencia artificial fueron calificadas como humanas mientras que las fotografías reales solo fueron reconocidas como tales en el 51% de los casos. En el caso de personas de color, tanto las imágenes generadas con IA y las fotos reales fueron identificadas en el 51% de las veces.

A diferencia de otros estudios en los que se utilizan como objetos de análisis a los programas de inteligencia artificial más recientes como ChatGPT, DALL-E2, Stable Diffusion, entre otros, el análisis fue realizado teniendo como estándar el contenido generado por un modelo llamado “StyleGAN2″ lanzado oficialmente en el año 2020 por la empresa Nvidia.

Otro de los resultados destacados del estudio indican, por ejemplo, que usualmente las personas que se equivocan de forma más constante durante la evaluación de las fotografías creadas con inteligencia artificial son comúnmente las que se muestran más seguras de su capacidad para identificar de forma eficaz qué imágenes son reales.

En particular, algunos de los motivos que llevaba a las personas que participaron del estudio a identificar un rostro como “más realista” pese a que en realidad se trataba de una creación de una inteligencia artificial eran que la proporcionalidad, familiaridad y “lo común” de estas imágenes favorecía a la asignación de esta categoría.

La proporcionalidad, familiaridad y “lo común” de las imágenes generadas por inteligencia artificial favorecía a que las personas piensen que se trata de fotografías reales. (Imagen ilustrativa Infobae)

Por otro lado, aquellas imágenes que tenían rostros con diferentes proporciones eran catalogadas como “menos realistas” pese a que en realidad correspondían a una persona de verdad. En estos casos, los investigadores sí crearon un modelo de inteligencia artificial que sí es capaz de identificar con una presición del 94% qué fotografías eran creadas con IA generativa.

Según la publicación académica, el hecho de que los modelos de inteligencia artificial puedan crear imágenes que algunos usuarios podrían no reconocer como falsas solo aporta al sesgo racial en la sociedad, lo que puede llevar a caer en engaños como el fraude o el robo de la identidad.

Por otro lado, se indica que el hecho de que los programas de inteligencia artificial generen resultados que las personas pueden calificar como “más realistas” de forma más constante es producto de que estos sistemas son principalmente entrenados con otras imágenes en las que se represeta a personas con piel blanca.

Más Noticias

Promete Carlos mejoras en el transporte público
El alcalde electo de Monclova, Carlos Villarreal Pérez, realizó un recorrido por la ruta Guerrero del Transporte Público Municipal con el objetivo de dialogar directamente...
Encabezará “Lola la Trailera” desfile
Participarán 60 tractocamiones en caravana para promocionar la apertura de una nueva escuela para choferes de carga pesada en Monclova Fabiola Sánchez LA PRENSA La...
Ingresará Frente Frío doce a región 
Pendiente PC de Monclova para auxiliar a las personas vulnerables y de escasos recursos que requieran apoyo ante las bajas temperaturas Por Wendy Riojas LA...

Relacionados

Fomentan cultura financiera en niños de Nuevo León
Monterrey, N.L. Diciembre de 2024.- Con el objetivo de contribuir...
One Direction estaba en pláticas para un reencuentro antes de la muerte de Liam Payne
La banda planeaba ofrecer un último concierto como despedida One...
Precio del dólar hoy 5 de diciembre de 2024
Mercados aumentan las probabilidades de una reducción de las tasas...
La previsión del tiempo para hoy en Monclova
Hoy en Monclova, parcialmente nuboso esta mañana, con temperaturas alrededor de 15°C. -Por...
AUMENTAN CALIFICACIÓN CREDITICIA DEL MUNICIPIO DE RAMOS ARIZPE AL LLEGAR A DEUDA CERO
La Agencia Internacional HR Ratings elevó la calificación crediticia y...
Ermita 318
Por Jesús Medina FIESTAS NAVIDEÑAS SEGURAS… El Gobernador de Coahuila...

Suscríbete

Inscribete a todas nuestras noticias y avisos.