El abogado Jorge Monastersky presentó ante el Ministerio Público Fiscal de la Ciudad de Buenos Aires una denuncia en la que pide se investigue si el algoritmo que utiliza la red social Twitter para presentar las miniaturas de las imágenes que a ella se suben hace un recorte discriminatorio que pondera rostros de piel clara sobre aquellos de piel oscura.
El mecanismo denunciado cobró estado público el pasado 19 de septiembre cuando el criptógrafo estadounidense Tony Arcieri realizó un experimento que consistió en publicar en Twitter una imagen más alta que ancha con los rostros de una persona blanca en un extremo y del ex presidente Barack Obama en el opuesto, obteniendo como resultado que el recorte algorítmico siempre desechaba del primer plano al rostro afroamericano.
En diálogo con Télam, el abogado explicó que -ante la difusión de la noticia por medios de todo el mundo- decidió pedir a la justicia que investigue y tome medidas de prueba para constatar si efectivamente hay un sesgo discriminatorio, que se cite a las autoridades de la empresa imputada “por la comisión de acciones y conductas penalmente reprochadas en el marco de la ley N° 23.592” que penaliza en el país todo tipo de actos discriminatorios.
“Ya hay bastante jurisprudencia que demuestra que las empresas programan de cierta manera los algoritmos y no es aleatorio. Yo no puedo aseverar que esto sea así sino que esto sería así. La ley que tenemos en Argentina lucha contra la discriminación en todas sus formas”, explicó Monastersky.
El abogado explicó que las redes sociales “son parte de la vida de las personas, de la identidad, de las percepciones y comportamientos” y que se debe evitar la idea de que en ese espacio “se puede hacer cualquier cosa sin consecuencias”.
En caso de que se comprobara el sesgo, Monastersky entiende que existe una violación a la ley argentina y pretende la rectificación de esa situación.
Si bien la denuncia ya fue derivada a la Unidad Fiscal Oeste, es esperable que la misma recaiga sobre la Fiscalía Especializada en Discriminación.
Argumentos de la empresa
Mientras tanto, el pasado 21 de septiembre un portavoz de la empresa dijo al diario británico The Guardian que el equipo de Twitter había probado el modelo antes de su lanzamiento y que no había encontrado “evidencia de prejuicio racial o de género”.
“Pero a partir de estos ejemplos (que circulan en las redes) queda claro que tenemos más análisis por hacer. Continuaremos compartiendo lo que aprendemos, qué acciones tomamos, y abriremos nuestro análisis para que otros puedan revisar y replicar”, señaló el vocero.
Las pruebas realizadas por usuarios de la red demostraron que el algoritmo privilegia a los blancos sobre los negros no sólo en lo que se refiere a rostros humanos sino aún cuando se trata de dibujos de los Simpsons o de dos perros de la misma raza pero con distinto color de pelaje.
Fuente: Telam