La inteligencia artificial (IA) se utiliza en muchos lugares hoy en día, desde escuelas hasta lugares de trabajo. Sin embargo, un área preocupante es cómo se usa la IA en la seguridad y el control migratorio. Esto puede causar discriminación racial, especialmente con el uso de tecnología en la frontera de Estados Unidos.
Recientemente, organizaciones como el Black Alliance for Just Immigration (BAJI) presentaron un informe sobre los efectos negativos de la IA en los migrantes negros y de color. Este informe sugiere que, a pesar de las leyes que prohíben la discriminación racial, la política de control fronterizo en la actualidad está afectando a estos grupos de manera desproporcionada.
Por ejemplo, antes de que los migrantes lleguen a la frontera, la Oficina de Aduanas y Protección Fronteriza (CBP) ya está utilizando sistemas de vigilancia impulsados por IA para rastrear sus movimientos. Esto incluye el uso de drones y torres de vigilancia que, aunque se dicen más eficientes, generan preocupaciones sobre la desigualdad racial. Muchos de los que están bajo vigilancia son personas que huyen de situaciones difíciles y que tienen derecho a buscar ayuda, pero la vigilancia excesiva aumenta el riesgo para estas personas.
La implementación de tecnología de vigilancia en la frontera se presenta como una solución moderna, pero los datos muestran que, en realidad, las tasas de mortalidad de los migrantes han aumentado. Esto es alarmante, ya que la violencia visible y la persecución deben ser abordadas con humanidad y comprensión. En lugar de proteger a las personas, la vigilancia puede tratar a los migrantes como criminales, algo que va en contra de las leyes de derechos humanos que Estados Unidos tiene la obligación de seguir.
Otro problema es cómo los sistemas de IA, como la aplicación CBP One, han fallado en reconocer adecuadamente a los solicitantes de asilo de color. Esto ha llevado a muchos a no poder acceder a los servicios que necesitan. Aunque la aplicación ya no está activa, el debate sobre su reimplementación continúa. Además, los sistemas utilizados para determinar quién es un “riesgo” en el proceso migratorio tienden a reforzar prejuicios existentes.
Dentro de Estados Unidos, los migrantes siguen enfrentando discriminación por parte de ICE, que usa algoritmos para decidir quién debe ser vigilado. La falta de transparencia sobre cómo se calculan estas puntuaciones crea un ambiente de miedo, ya que los migrantes no pueden entender el proceso que los afecta de manera tan directa.
Para mejorar esta situación, es fundamental que las comunidades afectadas tengan voz en el desarrollo y uso de la IA. BAJI propone adoptar un enfoque que considere la diversidad y la inclusión al desarrollar estas tecnologías. La filosofía de Cosmo uBuntu, por ejemplo, resalta la humanidad compartida y la conexión entre todos nosotros, en lugar de enfocarse solo en el individuo.
Finalmente, es esencial que se tomen medidas para proteger a los migrantes. Las leyes deberían prohibir el uso de IA que exacerbe la discriminación racial. Es crucial que haya un marco claro que priorice los derechos humanos y asegure que la IA no sea utilizada para perpetuar injusticias.
Discussion questions
- ¿De qué manera crees que la implementación de la inteligencia artificial en la seguridad fronteriza podría ser reformulada para ser más equitativa y justa?
- ¿Cómo puede la tecnología, como la IA, tanto ayudar como perjudicar a las comunidades de migrantes, y qué ejemplos específicos has observado o escuchado?
- En tu opinión, ¿cuál es la responsabilidad de los gobiernos en la regulación del uso de la inteligencia artificial para prevenir la discriminación racial?
- ¿Qué papel pueden jugar las organizaciones comunitarias en la defensa de los derechos de los migrantes frente al uso de tecnologías que pueden ser perjudiciales?
- ¿Cómo podemos fomentar un enfoque de desarrollo de inteligencia artificial que realmente refleje la diversidad y la inclusión que propone la filosofía de Cosmo uBuntu?