Usuarios detectaron un sesgo racial en una de las funciones de la red social, que excluía a personas de raza negra.
Twitter se disculpó por el algoritmo que fue acusado de “racista”, luego de que algunos usuarios hallaron que la función se enfocaba únicamente en reconocer las caras de personas blancas y no las de personas negras.
Al respecto, la red social a cargo de Jack Dorsey, aseguró que habría probado el algoritmo en busca de sesgos antes de lanzarlo a la plataforma pero acepta, que no fue suficiente.
Una de las funciones de Twitter con este nuevo algoritmo es recortar de manera automática las imágenes que el usuario comparte en su timeline, para evitar que ocupen demasiado espacio en la fuente principal y para que se muestren varias imágenes en el mismo tuit.
La compañía utiliza varias herramientas algorítmicas para tratar de enfocarse en las partes más importantes de la imagen, tratando de asegurarse de que las caras y el texto permanezcan pese a la edición.
No obstante, algunos usuarios comenzaron a detectar fallas en la función durante el pasado fin de semana. El primero en destacar el problema fue el estudiante de doctorado Colin Madland, quien descubrió un sesgo racial.
Madland publicó una fotografía en la red social. Él es blanco, y su amigo de raza negra, pero cuando notó, Twitter había recortado a su amigo y únicamente lo mostraba a él.
Otros usuarios continuaron con los experimentos incluyendo al empresario Tony Arcieri, quien para su experimento compartió una imagen del senador estadounidense Mitch McConnell y al lado, la imagen del expresidente Barack Obama. Para su sorpresa, Twitter sólo mostraba la imagen de McConnell.
También pasó lo mismo cuando usuarios compartían imágenes de personajes de los Simpson como Lenny y Carl, e incluso, perritos labradores, en color dorado y negro.
Ante esto, en un comunicado, un portavoz de Twitter admitió que la empresa tenía trabajo por hacer y ofreció disculpas:
Nuestro equipo probó el algoritmo antes de lanzarlo y no encontró evidencia de prejuicio racial o de género en las pruebas. Pero a partir de estos ejemplos queda claro que tenemos que hacer más análisis. Continuaremos compartiendo lo que aprendemos, las acciones que tomamos y abriremos nuestro análisis para que otros lo puedan revisar y replicar.
Contenido relacionado:
Twitter etiquetará o borrará publicaciones engañosas
AFG