Opinión Ingresá
Opinión

El racismo de los algoritmos contra los refugiados

4 minutos de lectura
Contenido exclusivo con tu suscripción de pago
Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

En la actualidad, la dinámica migratoria mundial está impregnada por el desarrollo y la aplicación de dispositivos tecnológicos digitales cada vez más sofisticados e invasivos, que condicionan en gran medida el destino de las personas e influyen en las estrategias de poder. En el marco de la ingeniería social, las tecnologías digitales potencian la discriminación mediante recursos de medición de las dimensiones biológicas y del comportamiento humano. También permiten relacionar estrategias políticas que van desde la microrrealidad del individuo hasta la macrorrealidad de las relaciones de poder transnacionales.

La guerra entre Rusia y Ucrania ya ha provocado el desplazamiento de más de ocho millones de personas hacia la Unión Europea (UE). Ante el desastre que se avecinaba, la Comisión Europea propuso activar, en febrero de 2022, la Directiva de Protección Temporal que tiene como objetivo proporcionar protección inmediata a los desplazados. Esta directiva, creada en 2001, nunca se había aplicado antes, a pesar de que masas de refugiados ya habían llamado a las puertas del bloque. Para algunos analistas, existe una resistencia política a aplicar determinados mecanismos legales basada en los prejuicios contra las personas de países no europeos, como atestigua el profesor doctor Meltem İneli Ciğer de la Facultad de Derecho de la Universidad Suleyman Demirel.

La decisión de aplicar la directiva converge con la propia política de información de la UE en materia de gestión de fronteras, movilidad humana y asilo, que se basa en la vigilancia permanente de los grupos considerados indeseables. Este marco político-jurídico se expresa en los propios dispositivos tecnológicos utilizados con el fin de crear barreras, en lugar de facilitar el acceso de las personas y garantizarles sus derechos como lo establecen los tratados internacionales que regulan el asilo y refugio.

Teniendo en cuenta la diferencia de trato con los refugiados en función de su raza, etnia, cultura y nacionalidad, da la impresión de que existe cierta suspensión de los procedimientos de identificación de los refugiados ucranianos, debido a la rápida movilización de los miembros de la UE en su recepción.

Por otro lado, las oleadas humanas que desde los países centroamericanos se dirigen hacia Estados Unidos huyen de la violencia, el hambre y el cambio climático. El trato que se otorga a los migrantes latinoamericanos que buscan refugio depende del gobierno de turno, pero invariablemente son objeto de políticas de contención mediante dispositivos de vigilancia de seguridad que operan en silencio y expresan desprecio, prejuicios sociales y racismo.

Es evidente el sesgo de los códigos programados para la identificación de perfiles personales, caracterizados por condiciones raciales, características de comportamiento y su relación con la gobernanza de las migraciones en su conjunto. Esta tendencia abarca un amplio arco de acciones e instituciones que se ocupan de la vigilancia para el seguimiento y el control. Se trata de una situación identificada por expertos y movimientos activistas como la investigación académica de Joy Buolamwini, del Instituto Tecnológico de Massachusetts (MIT), y que fue presentada en el documental Coded Bias.

En una investigación llevada a cabo en el MIT Media Lab, Buolamwini, que es negra, colocó su cara frente a los dispositivos de reconocimiento facial, pero no fue identificada. Sin embargo, cuando se colocó una máscara blanca en la cara fue reconocida inmediatamente. La conclusión es que existe un sesgo en la programación algorítmica en los sistemas de reconocimiento facial, basados en la inteligencia artificial. Es decir, los algoritmos están dirigidos por procesos de clasificación, dividiendo los grupos de personas que merecen ser reconocidos de los que son literalmente excluidos por el sistema.

Se produce, por tanto, una clasificación fenotípica y social a efectos de visibilizar personas y grupos a los que se permite el acceso a los bienes comunes de la ciudadanía, o de invisibilidad de los indeseables.

Por lo tanto, existe un sesgo en la estrategia política de la UE para discriminar a grupos enteros, en su mayoría procedentes de países pobres, que a menudo huyen de conflictos y que buscan refugio en territorio europeo. En relación con esta cuestión, la UE articula varios dispositivos jurídicos, políticos y tecnológicos para reforzar sus fronteras exteriores e impedir que estos grupos accedan a la UE.

Al mismo tiempo, los programas de asistencia a los refugiados dependen de las políticas y sistemas nacionales destinados a identificar el perfil de las personas que entran en los países de acogida. En otras palabras, la racialización algorítmica estaría, en estos términos, asociada a los intereses de la seguridad nacional.

Se produce, por tanto, una clasificación fenotípica y social a efectos de visibilizar personas y grupos a los que se permite el acceso a los bienes comunes de la ciudadanía, o de invisibilidad de los indeseables.

El color y otros elementos fenotípicos anticipan, o ejercen, una preclasificación de los seres humanos que merecen privilegios, diferenciándolos de los que ni siquiera tienen la posibilidad de ser evaluados y atendidos. Esto, incluso antes de que los inmigrantes crucen las fronteras. La claridad del color, así como el origen nacional de los migrantes, anticipa la detección de personas incluso antes de que sus datos aparezcan en las bases de datos.

Otros datos personales más sensibles, como las opiniones políticas y las creencias religiosas, se identifican más tarde cuando la información se coteja con otras bases de datos y, por tanto, pueden entrar en el procedimiento de evaluación en una fase posterior. Estas bases de datos están estructuradas de forma sesgada, legitimando las diferencias entre los seres humanos y reproduciendo las desigualdades entre los individuos.

Los procedimientos actuales no se caracterizan por ser acciones de excepción, sino que promueven permanentemente la división entre grupos privilegiados, por un lado, y por otro, la clasificación, la segregación, el aislamiento, el castigo y el destierro de los indeseables, bajo la justificación del riesgo para el Estado y la sociedad, al no formar parte del “club” social europeo blanco y cristiano.

Es fundamental comprender y repensar el papel de las políticas de información dirigidas a los sistemas de vigilancia para el control de la movilidad humana. En contra de lo que pueda parecer, incluso los inmigrantes de piel blanca, ojos azules y cristianos también pueden sufrir, de una forma u otra, en algún momento, la discriminación de sistemas que apuestan, sobre todo, por el miedo hacia el extranjero.

Bruno Nathansohn es doctor en Ciencias de la Información. Una versión más extensa de esta columna fue publicada originalmente en latinoamerica21.com.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

¿Te interesan las opiniones?
None
Suscribite
¿Te interesan las opiniones?
Recibí la newsletter de Opinión en tu email todos los sábados.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura