¡Bienvenidos al podcast de MTM!

El Migration and Technology Monitor presenta un podcast centrado en el despliegue de la tecnología y cómo esta afecta a las vidas de las personas. La tecnología se presenta como la solución a todos nuestros problemas, una parte inevitable de la vida. Sin embargo, cada vez vemos más cómo la toma de decisiones automatizada, la elaboración de perfiles en las redes sociales, la recopilación masiva de datos y los deepfakes están perjudicando a las personas y perturbando las sociedades. Únase a nosotros para conocer a periodistas, investigadores y desarrolladores tecnológicos de todo el mundo que debaten sobre los problemas y las posibles soluciones a las cuestiones más acuciantes de nuestro tiempo, siempre centrándose en la experiencia humana.

Episodio 1: La alteridad digital

Las tecnologías basadas en la inteligencia artificial necesitan enormes cantidades de datos para funcionar. Aunque mucha gente sigue pensando que la inteligencia artificial es neutral, numerosos estudios demuestran que estas tecnologías son sesgadas. No solo por cómo están programadas, sino porque los datos que se utilizan para alimentarlas contienen sesgos, racismo y patrones discriminatorios. La inteligencia artificial también agrava drásticamente las divisiones sociales y vulnera derechos fundamentales. Lo que estamos presenciando es la «otredad digital».

En este podcast exploramos cómo se ve esto en el mundo real y cómo las personas ya se ven afectadas por la «otredad digital». Cuatro especialistas comparten sus observaciones y puntos de vista. Su mayor preocupación: si se elimina la experiencia humana de la ecuación, las tecnologías seguirán siendo herramientas de opresión en lugar de empoderamiento.

En este episodio: Judith Cabrera, Grace Gichanga, Antonella Napolitano, Ankid Sarin, con el presentador Florian Schmitz.

Transcripción (también disponible en árabe, francés y español a través de nuestros subsitios):

[00:00:01.120]

Hola y bienvenidos al primer MTM, el primer podcast interno de Migration and Technology Monitor. Mi nombre es Florian Schmitz. Soy periodista y también superviso las becas del MTM. Hemos grabado este podcast en noviembre de 2025 en Nairobi, Kenia, al margen de una reunión muy especial. Con mucho trabajo y la ayuda de la Fundación Heinrich Böll y la Fundación Robert Koch, de Alemania, logramos reunir a becarios del MTM de tres años. Los becarios del MTM son profesionales de países de la mayoría global con experiencias vividas de migración y ocupación. Todos ellos trabajan en temas relacionados con la tecnología y los derechos humanos. En el MTM apoyamos su trabajo con una beca de 30 000 dólares. Pero, por supuesto, queremos más que eso. Los trajimos a Kenia para reunirlos con investigadores, periodistas, activistas y defensores de los derechos humanos, para que juntos pudieran debatir sobre el uso de la tecnología y cómo este uso puede chocar con los derechos humanos. Debían compartir sus conocimientos y aportar al debate el factor tan importante de la experiencia vivida. Es algo que en el norte global no hacemos muy a menudo.

[00:01:19.820]

Por desgracia, preferimos tomar decisiones sobre las personas sin involucrarlas. Y desarrollamos tecnologías con la promesa de resolver todos nuestros problemas, un fenómeno muy extendido que a menudo se conoce como «tecno-solucionismo». Y decimos que la tecnología es neutral. Pero, ¿lo es realmente? Los estudios han demostrado una y otra vez que la inteligencia artificial copia y potencia los prejuicios que tenemos como sociedades. El resultado: la brecha entre las personas de color y las personas blancas se amplía. Los refugiados y los migrantes son criminalizados. Se priva a las personas de sus derechos fundamentales. A este proceso lo llamamos «otredad digital». Y de esto trata nuestro primer podcast. He tenido el placer de hablar con cuatro expertos sobre este tema. Algunos son becarios MTM, otros no. Escucharéis a Antonella Napolitano, una investigadora italiana que es una de las pioneras en el campo de la tecnología y los derechos humanos en Europa. También escucharás a Grace Gichanga, una abogada de derechos humanos de Johannesburgo, que aportará su perspectiva sobre Sudáfrica, un país que, para los oídos estadounidenses y europeos, pasa totalmente desapercibido en lo que respecta a las cuestiones migratorias. El investigador y periodista indio Ankid explicará cómo la población de Cachemira, uno de los lugares más vigilados del mundo, sufre la invasión de la tecnología en sus vidas y su privacidad. 

[00:02:43.350]

Y la primera invitada que escucharás es Judith Cabrera. Judith es de Tijuana, donde dirige el Centro de Crisis Fronterizo. La frontera entre México y Estados Unidos ha sido noticia continuamente en los últimos años debido a la dura realidad que viven los solicitantes de asilo, que se enfrentan a dificultades y crueldad por parte de Estados Unidos. Pero también personas como Judith, que se quedaron solas ante este caos, el sufrimiento y los peligros que provoca un régimen fronterizo violento, se ven profundamente afectadas por la situación. Las políticas en constante cambio hacen que el trabajo de personas como ella sea impredecible. Los gobiernos de México y Estados Unidos las dejaron solas con la enorme carga de poner orden en este caos. En algún momento, incluso se les pidió que administraran listas con la obligación de decidir quiénes obtendrían una de las pocas entrevistas en la frontera y quiénes no. Una tarea terrible que las puso en medio de personas desesperadas, que esperaban en Tijuana durante meses o años, delincuentes, que intentaban sacar provecho de todo esto, y los propios servicios de seguridad. La tecnología, como habrás adivinado, se suponía que iba a resolver todo esto, pero escucha el relato de primera mano de Judith.

 

[00:03:56.340]

Estados Unidos integró una aplicación llamada CBP-1. ¿En qué medida cambió esto la situación en la frontera? ¿Alivió la presión? ¿Generó más presión? ¿Qué observó sobre el terreno?

 

[00:04:10.530]

CBP-1 es una aplicación que utiliza la Policía de Aduanas y Fronteras para gestionar el flujo migratorio. Todavía la utilizan. Si te alejas una determinada distancia de la frontera, tienes que solicitar un permiso especial. Ahora puedes hacerlo a través de CBP1. Y luego decidieron integrar el proceso de asilo en esta aplicación. Así que, en lugar de presentarte físicamente en la frontera y estar en su territorio, ahora solicitas una cita a través de esta aplicación y, cuando te llega el turno, te presentas y entonces empieza todo el proceso.

 

[00:04:55.490]

Imagino que registrarse en esta aplicación no es tan fácil como abrir una cuenta en Amazon. ¿Es complicado?

 

[00:05:04.780]

Era muy complicado. Y ahí es cuando empezamos a hablar de acceso. En primer lugar, es necesario tener un teléfono inteligente. Y no todos los solicitantes de asilo tienen un teléfono inteligente debido a la pobreza. Así que hay que tener un smartphone, hay que tener conexión a Internet, que no todo el mundo tiene. Y hay que saber utilizar este smartphone y tener conocimientos digitales, a los que no todo el mundo tiene acceso. Y vimos cómo los niños más pequeños asumieron de repente un papel protagonista en sus familias porque los mayores no sabían cómo manejar esta aplicación. Y especialmente cuando se trata de personas mayores, algunas de las cuales ni siquiera saben leer ni escribir. Entonces, ¿cómo te registras en una aplicación si no sabes leer? No tienes teléfono, no tienes Internet. Y cuando por fin consigues todo esto, después de mucho esfuerzo, ni siquiera sabes cómo usarlo. Ese era el problema y...

 

[00:06:04.400]

Pero hubo fallos, ¿verdad? ¿La aplicación funcionó bien o se colgó?

 

[00:06:09.440]

Tenía todo tipo de fallos. Y lo primero es que solo estaba en español e inglés. Y tenemos una gran población de personas procedentes de Haití, y hay una gran población en el mundo que no habla ni inglés ni español. Así que los haitianos lo tradujeron ellos mismos. Hay una organización llamada Haitian Bridge Alliance. Tradujeron todo el contenido y lo enviaron porque no eran lo suficientemente rápidos. Tuvimos que presionar mucho para que estuviera disponible en diferentes idiomas. Y luego, aunque tenía estos fallos, y aquí es donde se pone muy interesante: toma tus datos biométricos, te hace una foto. Pero ya se sabe que este software de reconocimiento facial tiene dificultades para reconocer las pieles más oscuras. Por lo tanto, toda la población haitiana tenía aún más dificultades para acceder a él.

 

[00:07:08.440]

¿Con qué frecuencia ocurría esto?

 

[00:07:09.800]

Todos los días. Todos los días. Y solo se podía solicitar la cita, por ejemplo, a las 6 de la mañana, así que todo el mundo se levantaba a las 6 para hacerlo al mismo tiempo, de seis a siete. Y la aplicación se colapsó porque había demasiada gente conectándose al mismo tiempo. No lo cambiaron hasta meses después.

 

[00:07:29.330]

Y otra información que quiero compartir es que, bueno, la gente podría preguntarse: si vinieron de Guatemala o de cualquier otro lugar, ¿por qué no utilizaron la aplicación allí? Hay que estar cerca de la frontera para poder registrarse, ¿no?

 

[00:07:43.330]

Geolocalización. Si no estás cerca de la frontera o en la Ciudad de México, no puedes, no puedes solicitarlo. Y entonces lo que pasó es que el crimen organizado, que tiene hackers, tiene gente que sabe lo que es una VPN, que es algo muy, muy avanzado para la mayoría de la gente. Y entonces, te cobraban por instalar una VPN y conseguirte la cita. Y luego, cuando solo era posible usarla de 6 a 7, bueno, en muchos lugares aún no había salido el sol, por lo que la iluminación no era buena. Y había gente allí durante semanas intentando registrarse, sin siquiera solicitar la cita. Así que era muy frustrante. ¿Y sabes lo que hizo el Gobierno? Proporcionó conexión a Internet a todos los refugios. Bueno, es como si dijeran: «¿Te quejas del acceso? Te pagaré Internet». «Ah, ahora puedes pagar mi Internet», y ahí es cuando ves el cumplimiento de los intereses de Estados Unidos, que siempre está presente. Así que hubo muchas quejas. Pero también puedo decirte, por experiencia personal, y esta no es una opinión popular, que CBP1, a pesar de todos sus problemas, era la forma menos problemática de solicitar asilo desde 2016, porque por fin la gente podía hacerlo por sí misma, más o menos.

 

[00:09:16.400]

Y no había nadie que pagara por esto porque ahora no depende de nadie para tener acceso. Por lo tanto, nadie se beneficia de esto, y no nos corresponde a nosotros hacerlo en las organizaciones y en el lado mexicano. Así que asumimos muchos riesgos y, finalmente, nos dio un poco de tranquilidad. Ahora tenemos que trabajar para que puedas acceder a la aplicación, pero no hay forma, ni aunque me apuntes con una pistola a la cabeza, de que pueda hacerlo más rápido por ti. Así que estábamos más seguros. Sí. Y luego otro problema era que no eran claros. No tienen política de privacidad. No sabíamos qué iba a pasar con esta información. Y seguíamos preguntando: «¿Qué vais a hacer con estos datos?». No nos respondían. ¿Y quién puede tener acceso a estos datos? No lo sabemos. ¿Y esto les va a ayudar a vigilar a las personas una vez que estén en Estados Unidos? No, no es para eso para lo que lo queremos. Pero entonces llega la segunda administración de Donald Trump, y pudieron localizar a todos los solicitantes de asilo en Estados Unidos y potencialmente deportarlos.

 

[00:10:29.860]

Ya sabes, y de hecho lo están haciendo.

 

[00:10:31.820]

Y realmente lo están haciendo. Sí.

 

[00:10:33.460]

Hoy he leído un artículo que decía que habían asaltado una guardería en algún lugar de Estados Unidos. Unas personas con máscaras simplemente arrancaron a una persona de... Ni siquiera sé de qué país era, pero simplemente, delante de todos los niños y padres, la agarraron y se la llevaron de la guardería. ¿Qué es eso?

 

[00:10:55.950]

Bueno, antes había espacios de refugio, como escuelas, hospitales y tribunales. Y nos quitaron todo eso. Por ejemplo, si tienes que ir al tribunal por tu proceso de asilo, pueden detenerte en la puerta porque aún no eres regular y deportarte desde allí. Entonces, ¿qué haces? ¿Vas al tribunal o no vas? Y si no vas, vas a perder todo el proceso. Así que es como cazar personas, ya sabes, es realmente horrible. Y luego lo que hicieron fue el 20 de enero... Lo siento, el 20 de enero fue realmente traumático para todos nosotros. El primer día que esta persona volvió a tomar posesión de la Casa Blanca, cerraron el asilo en un santiamén. Y tenerlo todo en una aplicación fue muy útil para esto. Ya sabes, simplemente eliminar esa función de la aplicación. Y mucha gente se quedó, como, varada de camino a la frontera. Mucha gente ya tenía su cita y la perdió. Mucha gente ya estaba en la frontera ese día porque había tres turnos en los que la gente podía entrar, y solo aceptaron el primer turno de la mañana, que creo que era a las 5 de la mañana, y luego la gente que debía entrar a las 9 de la mañana ya no tuvo acceso.

 

[00:12:19.400]

Y estás hablando de gente de todo el mundo otra vez. Estábamos ayudando a personas de Irán que se habían quedado varadas en Chiapas, nuestra frontera sur. Y ahora no pueden seguir adelante, no pueden volver atrás. ¿Qué van a hacer en un lugar donde nadie habla su idioma? Teníamos gente de Colombia. Llevaban consigo toda su vida. Pensaban que ese era el día en que iban a entrar en Estados Unidos y no volver nunca más. Y se quedaron abandonados en Tijuana. Fue devastador. Lo fue. Fue horrible.

 

[00:12:57.450]

Veo que hablar de estas cosas también te emociona mucho. Estoy seguro de que ves muchas dificultades y desesperación que, ya sabes, no puedes ayudar.

 

[00:13:08.700]

Sabes, fue muy difícil. Seguían trabajando en los fallos de la aplicación y todo eso. Y entonces se hizo muy evidente que el algoritmo estaba programado para retrasar las solicitudes de los mexicanos. Todas las demás nacionalidades podían ir más rápido, ya sabes, si eras, no sé, de Persia. Llegabas a Tijuana y dos semanas después tenías tu cita. Bueno, los mexicanos podían estar allí seis, siete, ocho meses. ¿Tienes idea de lo que supone para una persona vivir en un refugio durante ocho meses? Y luego, cuando por fin consigues tu cita, te dicen que se ha cancelado. ¿Volverá a haberla? ¿Vas a respetar el hecho de que ya tenía una cita? No. ¿Puedo esperar que se celebre en un par de meses? No, simplemente no va a suceder. Y teníamos algunas familias en el refugio que, tras una larga espera, finalmente consiguieron su cita. Y entonces tienes que explicarles que ni siquiera sabemos qué está pasando y que ni siquiera sabemos qué esperar. Y este tipo está firmando órdenes ejecutivas a diestro y siniestro.

 

[00:14:21.470]

Y sí, fue muy difícil. Fue muy difícil porque, de repente, no había esperanza. Quiero decir, todo lo que hemos estado hablando desde 2016, al menos había una manera. Quiero decir, era defectuoso y era, ya sabes, lento, pero había una manera. Y, por supuesto, también nos quejábamos de eso.

 

[00:14:40.300]

Con toda razón.

 

[00:14:43.820]

Gracias. Pero de repente ya no hay manera. Y ahora mismo hay muy poca gente en los refugios porque, al no haber manera de solicitar asilo, han empezado a integrarse en la ciudad más rápidamente, buscando trabajo, buscando un lugar donde alquilar cosas que antes no hacían porque tenían la esperanza de llegar a Estados Unidos. Y mucha gente ya ni siquiera llega a la frontera. Muchos de ellos han regresado. En Puebla hay una población de personas procedentes de Venezuela. Así que encuentran otros lugares menos hostiles que Tijuana y empiezan a establecerse allí. En cierto modo, esto alivia la presión y evita que se cree un atasco de personas varadas en la frontera. Pero es una situación realmente triste.

 

[00:15:38.190]

No es una solución. Y Antonella, te vi asintiendo con la cabeza cuando Judith hablaba de cómo te preguntaban qué haces con los datos, dónde los almacenas. Son preguntas con las que tú también llevas lidiando mucho tiempo. Eres investigadora y te centras en el umbral de la tecnología y los derechos humanos, con un fuerte enfoque en la migración. Lo que Judith describe, ¿hasta qué punto es una tendencia global? ¿Qué observas?

 

[00:16:10.880]

Creo que lo que Judith ha descrito lo resume muy bien, ya que muchos de los elementos de las tendencias globales que estamos viendo en Estados Unidos, México, pero también en Europa y en otras partes del mundo, son fronteras que, en cierto modo, se amplían gracias a la tecnología y se externalizan. Así, en el caso de la Unión Europea o el Reino Unido, existen políticas de externalización de las fronteras, y la tecnología y la tecnología de vigilancia son un elemento relativamente nuevo, no muy nuevo a estas alturas, pero relativamente nuevo en un proceso que lleva décadas en marcha. Por lo tanto, parte del trabajo que he realizado también analiza la forma en que la Unión Europea ha utilizado, por ejemplo, el Fondo Fiduciario de la UE para África u otros fondos, incluidos los fondos de desarrollo, para externalizar las capacidades de vigilancia a países como los africanos, así como a los Balcanes, proporcionando herramientas de vigilancia, equipos y formación, con el objetivo implícito o explícito de frenar la migración. A veces se hace con el pretexto de gestionar de forma más eficiente. Y se habla mucho de gestionar eficientemente la migración, abordando las causas fundamentales. Pero lo que ocurre es que esto afecta a las personas no solo en su viaje. Como mencionaba Judith anteriormente, esto puede empujar a las personas a buscar rutas más arriesgadas y mortíferas.

 

[00:17:47.070]

Pero estas tecnologías también se proporcionan a gobiernos autoritarios o a democracias muy frágiles. Y lo que ocurre es que también las utilizan contra disidentes, manifestantes, defensores de los derechos humanos y periodistas. Como resultado, estos países se vuelven más inestables. Así pues, existe la dimensión externalizada de las fronteras, existe la tecnología desplegada en la frontera. Y esto puede adoptar diferentes formas, puede adoptar la forma de una base de datos en la que hay que solicitar un visado y se recopilan y comparten tus datos, tus datos biométricos. Así, estas bases de datos recopilan cada vez más una enorme cantidad de datos. Estamos hablando de migración, estamos hablando de asilo. Pero esto se aplica a los migrantes, no solo a los solicitantes de asilo. Así pues, esta es la forma en que la Unión Europea y otras partes, como otros países del mundo, deciden recopilar datos para tomar decisiones sobre quién, entre comillas, merece un visado o el estatuto de asilo. Esto puede adoptar la forma de una tecnología más visible en las fronteras, en los campos de refugiados, que pueden estar muy controlados, que cuentan con sistemas para vigilar y controlar quién entra, quién sale, si se puede, si no se puede. Pero esto también se extiende más allá de las fronteras.

 

[00:19:17.170]

Sabemos de la detención de inmigrantes, pero también sabemos que en varios países, me refiero por ejemplo a países fuera de la Unión Europea, el Reino Unido ha implantado un sistema de tobilleras con GPS para las personas que salen de los centros de detención de inmigrantes. Estas medidas han sido rechazadas una y otra vez por los tribunales. Pero eso no impide que se sigan intentando. Y a pesar de que no se ha utilizado en la práctica en los países de la Unión Europea, ahora hay varias leyes en diferentes Estados miembros que proporcionan cobertura legal para su uso. Y de nuevo, incluso después de que las personas lleguen o soliciten asilo o tengan un estatus, estos sistemas, la puntuación algorítmica y diferentes formas de evaluación de datos se utilizan para proporcionar formas de bienestar o para supervisar las redes sociales. Una vez más, todos estos son sistemas que combinan diferentes técnicas y herramientas. Compartir como vivir en una recopilación ampliada de datos, aumentar el intercambio de datos donde las personas pierden el rastro de sus datos y eso significa perder la capacidad de actuar porque no saben qué decisiones se toman sobre ellos con sus datos, cuánto tiempo les va a afectar. Por lo tanto, la tecnología, como dije al principio, como ampliar las fronteras, hacerlas omnipresentes, pero también es una fachada para la violencia y el control que se produce.

 

[00:20:53.920]

Y solo para hacer una aclaración, porque también existe la idea de que la tecnología es una solución clara o algo que reduce la violencia. En primer lugar, la violencia se produce en las fronteras y en diferentes etapas, con o sin tecnología. Pero lo que la tecnología puede hacer es proporcionar más medios a los gobiernos y a las diferentes autoridades para ejercer este tipo de violencia sobre las personas.

 

[00:21:23.570]

Y no solo los gobiernos, sino que también el sector privado está muy involucrado en esto. Lo vemos en las fronteras exteriores de Europa, donde se está volviendo una locura con la extracción ilegal de cantidades masivas de datos de las personas. Exacto. Quiero decir, hicimos una investigación a principios de año y hablamos con personas en el campamento de acceso cerrado y controlado de Samos, que es el campamento de internamiento de refugiados más moderno. No hay otra forma de describirlo. Y están extrayendo datos de los teléfonos móviles, están recopilando otros datos biométricos de las personas sin que estas hayan firmado ningún formulario de consentimiento. ¿Por qué crees que recopilan todos estos datos? ¿Por qué las empresas están tan interesadas en ello?

 

[00:22:13.790]

Bueno, en primer lugar, el sector privado está muy involucrado en todo lo que podríamos llamar el complejo industrial fronterizo. No solo proporcionan la tecnología, sino también las narrativas. Y, de nuevo, tenemos que pensar en esto no solo como lo que vemos, por ejemplo, en el ámbito del asilo y los refugiados, sino como algo que se ha normalizado en la experiencia que todos los ciudadanos tienen en la frontera. La idea de una frontera inteligente, entre comillas, como una experiencia inteligente, limpia y sin fisuras. Todos estos son conceptos que se utilizan para transmitir la idea de que la tecnología va a resolver un problema. Al principio mencionaste el tecnosolucionismo. En algunos casos, estas empresas también participan en el diseño de esta tecnología y en su uso. Por lo tanto, esto ocurre con frecuencia en el contexto de las asociaciones público-privadas. Por poner un ejemplo del ámbito de la detención de inmigrantes y las alternativas a la detención en Australia, una herramienta de evaluación de riesgos para definir y decidir quién va a ser detenido por motivos de inmigración fue diseñada conjuntamente por el Gobierno australiano y una empresa llamada Serco, que se encarga de la detención de inmigrantes en muchos países del mundo.

 

[00:23:34.970]

Entonces, y esto es como una función pública, como un gobierno estatal que está colaborando con el sector privado, cuyo objetivo fundamental es obtener beneficios.

 

[00:23:45.290]

Por lo tanto, los gobiernos tienen que respondernos cuando les hacemos preguntas. Aunque, según mi experiencia, y estoy seguro de que usted comparte esta opinión, se pueden hacer todas las preguntas que se deseen, pero no se obtendrá una respuesta clara. La Unión Europea responderá, te enviará documentos que están todos censurados y en los que toda la información importante está tachada. Así que puedes leer toda la información aburrida, pero nunca la interesante, lo cual es extremadamente frustrante. Pero, ¿cuáles son los problemas con las empresas privadas y también con las instituciones semiprivadas como el ICMPD o el Centro de Estudios de Seguridad en Grecia? ¿Cuál es el problema cuando el sector privado penetra en este nivel de responsabilidades del gobierno?

 

[00:24:27.930]

Que no hay sistemas de rendición de cuentas. Por imperfectos y difíciles que sean, como acabas de describir, los gobiernos deberían al menos rendir cuentas. Hay mecanismos que se pueden mejorar, que se pueden cambiar, que se pueden crear. Has mencionado el acceso a la información. Pero también, en términos más generales, los políticos y los responsables políticos deberían rendir cuentas ante los ciudadanos. Así, un ciudadano puede decidir con su voto, con protestas, con un movimiento, que no está de acuerdo con lo que hace el gobierno. Pero si una empresa privada está haciendo algo, como ellos responden a su, no sé, al propietario, a los accionistas. Eso depende del tipo de empresa y de cuándo se subcontratan. Y esto es algo que está ocurriendo cada vez más en muchos sectores. Así que estamos hablando de migración, pero esto está ocurriendo cada vez más en la sanidad, en el bienestar, quién responde a los resultados, al efecto, al impacto que tiene en los ciudadanos, en las personas, en las empresas privadas. En realidad, no hay muchos mecanismos para que respondan, para que rindan cuentas de las decisiones que se toman. Y hay decisiones que cambian la vida, incluso, como has mencionado antes, el consentimiento, pero es que ni siquiera estamos en la fase del consentimiento, porque el consentimiento, si es real, debería poder retirarse.

 

[00:25:57.650]

Y las situaciones no deberían cambiar para ti. Pero estas son elecciones imposibles porque, aunque te guste, si la persona pudiera entender y dar su consentimiento informado, pero no tiene otra opción que dar su consentimiento, no es un consentimiento significativo. Así que estas son...

 

[00:26:11.380]

¿Te refieres a un campo de refugiados?

 

[00:26:12.820]

Sí, en un campo de refugiados.

 

[00:26:13.900]

El ejemplo que supongo que diría que no si supiera que esto afectaría sin duda alguna a mi proceso de asilo.

 

[00:26:19.180]

O en la frontera, si te lo piden. Así que ahora sabes que hay procedimientos en los que básicamente te obligan a proporcionar tus datos biométricos, incluso en la frontera de la UE, de niños de tan solo seis años. Y entonces, está bien, pero ¿cuál es la alternativa? Es como: «Oh, no, tienes que darme tus datos». Y entonces, ¿qué pasa con mis datos? No tengo control sobre mis datos. Y esto nos lleva de nuevo al sector privado. Se trata de datos que pueden entrenar sistemas. Son datos que pueden utilizarse para crear nuevos productos. Básicamente, pueden utilizarse también para otros fines, como lo que llamamos «desviación de objetivos». Recopilo datos para un fin determinado, tal vez incluso dentro de un marco legal. Pero luego puedo compartirlos con otra agencia. Puedo utilizarlos para otra cosa. Puedo compartir datos que se recopilan en un contexto determinado en la frontera con las fuerzas del orden. Así que, para hablar solo de las agencias, y luego pasaremos a las agencias no públicas. Ha habido investigaciones y el organismo de control europeo se ha pronunciado sobre la colaboración entre Frontex, que es la agencia fronteriza y no es una fuerza del orden, y Europol, que es una agencia europea de aplicación de la ley.

 

[00:27:38.200]

Y la forma en que estas dos agencias pueden recopilar datos es diferente, están reguladas de manera diferente. Pero compartían estos datos de una manera muy, digamos, creativa, pero definitivamente no muy legal. Hasta el punto de que el supervisor europeo de protección de datos dijo que esto era ilegal y que tenían que eliminar todos estos datos. Y luego están las organizaciones que no son organismos públicos, sino que están financiadas por la Unión Europea para gestionar estos proyectos, como los proyectos financiados por la UE que pueden versar sobre la integración o, de nuevo, sobre la gestión de fronteras. Y estas también son como el lenguaje, que también es bastante revelador. Es el lenguaje de la burocracia. Así que esto también es algo que es otra apariencia de respetabilidad para procesos que son intrínsecamente violentos y discriminatorios. Tenemos la gestión de fronteras, la gestión de la migración, la gestión eficiente. Pero lo que ocurre es que, de nuevo, investigaciones recientes han demostrado que este dinero y este tipo de proyectos se utilizaron básicamente para secuestrar a migrantes y abandonarlos en el desierto de Túnez, Mauritania y Marruecos. Esto se hizo con dinero de la UE. Otra investigación demostró que, una vez más, el dinero que se suponía que debía destinarse a la formación de las fuerzas fronterizas fue utilizado por las fuerzas policiales internas de Senegal para sofocar las protestas y reprimir a los disidentes.

 

[00:29:13.970]

Algunos de estos proyectos fueron gestionados por algunos Estados miembros nacionales, fuerzas del orden y algunas de estas agencias. Pero, por ejemplo, como italiano que soy, y sabiendo que mi Gobierno participa en la formación, puedo protestar, puedo crear soluciones, puedo intentar que mi Gobierno rinda cuentas. Pero si se trata de una agencia privada que recibe una importante financiación de la UE o de los Estados miembros, ¿a quién debo acudir para que rindan cuentas? ¿Cuál es el proceso? ¿Ante quién responden? Supongo que responden ante sus donantes, no ante el público.

 

[00:29:50.250]

Quiero decir, hay otra cosa que me parece muy interesante, especialmente... No soy una persona técnica. Bueno, no sé cómo crear tecnología. No entiendo muy bien cómo funcionan los algoritmos. Quizás estoy empezando a entenderlo. Pero lo que sí he entendido es que la calidad de los datos es muy importante para el funcionamiento de cualquier sistema que tengamos. Y lo que veo es que recopilan cualquier tipo de datos y tampoco hay una estandarización sobre cómo recopilarlos. Si un policía racista te entrevista en la frontera y eso va directamente a Eurodac, esos datos no son fiables. Son datos que provienen de una persona que ya tiene un sesgo. Eso también explica por qué los sistemas son tan sesgados, ¿no?

 

[00:30:35.480]

Quiero decir, estos sistemas, de nuevo, se trata de una idea errónea sobre la tecnología, que va a mejorar el proceso porque es neutral. Pero esto lo han creado los seres humanos. Es como si los algoritmos se entrenaran con datos recopilados y recopilados por seres humanos. El problema, sin embargo, es que cuando el algoritmo comienza a aprender de esos datos, se convierte en una especie de bucle. Por lo tanto, será mucho más difícil volver a los datos originales y decir: «De acuerdo, en realidad estos datos eran erróneos».

 

[00:31:08.130]

Pero además, otra cosa es que, muy a menudo, la gente no sabe que las decisiones se toman basándose en estos datos. Así que esto también es otro problema. Es algo que también hemos visto en la investigación sobre la vigilancia del bienestar social. Cuando hay algoritmos a nivel municipal o estatal que deciden si tienes derecho a recibir prestaciones sociales o protección social, y no sabes que te han denegado porque un algoritmo ha evaluado que, por ser migrante o madre soltera, eres más propensa a correr riesgos, que eres un factor de riesgo. Ni siquiera puedes impugnar esa decisión. Para mí, es un poco paradójico lo que leo, y he contribuido a parte de esta investigación; y lo que descubres es que los elementos que te hacen vulnerable, por lo que, en teoría, más merecedor de asistencia social, te convierten en un mayor riesgo y, por lo tanto, menos merecedor de asistencia social. Pero, ¿quién va a impugnar esta mentalidad si ni siquiera lo sabes? Así que, por ejemplo, en el caso de la investigación, mencioné el hecho de que los periodistas pudieron obtener las partes del algoritmo, lo que significaba que podían volver a la administración de la ciudad y decir: «Miren, estos son los elementos».

 

[00:32:17.910]

Y esto es como, por qué eso no funciona. Quiero decir, hay que reconocer que, al final, la administración municipal, que en ese caso era la ciudad de Róterdam, decidió dejar de utilizar el algoritmo. Pero, de nuevo, esto requiere mucho esfuerzo, muchos recursos y conocimientos tecnológicos que no deberían recaer sobre el individuo. Esto también es un problema. A veces la gente dice: «Pero deberías protegerte y utilizar esta técnica contra el reconocimiento facial o contra los datos». Ella dice: «¿Por qué la gente comparte tantos datos en Facebook? ¿Qué esperas? Pero esto no debería recaer en los usuarios individuales. Si utilizo Facebook para conectar con mis familiares en otro país, ¿por qué debería seguirme la empresa que recopila mis datos, los comparte, los vende y elabora mi perfil, lo que hoy se denomina capitalismo de vigilancia? También forma parte de los sistemas en los que los datos se convierten en algo que se puede monetizar. Pero el efecto te persigue. Es como un efecto dominó que ni siquiera sabes cuándo te va a afectar. Y no me refiero solo a la migración. Me refiero a los ciudadanos en diferentes aspectos de sus vidas.

 

[00:33:32.030]

También es una enorme máquina de hacer dinero. Y se utiliza con el pretexto de que Europa dice que no podemos acoger a más refugiados. Porque en Europa nos gusta pensar que todos los refugiados quieren venir a Europa. Y la mayoría de los refugiados ya están en Europa, lo cual es especialmente interesante porque estamos aquí, en Kenia, ¿verdad? Y la gran mayoría de los refugiados no están en el norte global, como Europa, sino en países de la mayoría global, como Kenia, de donde es mi invitada Grace, de hecho. Y cuando tenías 12 años, emigraste con tu familia a Sudáfrica, donde ahora trabajas como abogada de derechos humanos. Bueno, mi pregunta para ti es: ¿hasta qué punto es justo o injusto el sistema de asilo en Sudáfrica? ¿Y qué has observado en cuanto al nivel tecnológico? ¿Cómo se utiliza en Sudáfrica?

 

[00:34:27.090]

Si vamos a remontarnos al principio, creo que es importante hablar de los orígenes del sistema de asilo y del sistema migratorio sudafricanos, y de cómo están profundamente arraigados en los derechos humanos y la democracia, en gran parte debido al pasado, al pasado muy oscuro del país. Además, hay que tener en cuenta que Sudáfrica es una democracia muy joven y que, al elaborar la legislación posterior a 1994, la idea era «Nunca más». Eso era lo que se pensaba en gran medida. Nunca más. No más exclusión. Así que, incluso en la redacción de la Constitución, que de hecho ha sido elogiada como una de las mejores constituciones del mundo, muchos de los principios que contiene son muy inclusivos y abarcan a los migrantes. Por lo tanto, durante mucho, mucho tiempo, Sudáfrica fue muy acogedora con los migrantes y los refugiados, simplemente porque parecía comprender realmente el contexto en el que las personas se veían obligadas a huir. Pero en 2008 se produjo un cambio debido a las circunstancias geopolíticas cambiantes y a la caída de las economías, y Sudáfrica experimentó por primera vez una gran afluencia de migrantes. Y fue en ese momento cuando creo que la gente empezó a ver un cambio en el discurso, un cambio en la política, en la forma en que se percibía a los migrantes, en particular a los de origen africano.

 

[00:35:56.580]

Por desgracia, creo que es algo de lo que no aprendemos y parece que seguimos volviendo a esos espacios. Pero hablando del sistema de asilo y de cómo funciona, y en mi trabajo, mi trabajo diario con solicitantes de asilo y refugiados, lo que he observado, especialmente en los últimos 24 meses, es un mayor énfasis en limitar los derechos de los solicitantes de asilo y los refugiados, hasta el punto de querer retirar el estatuto de refugiado a aquellos que lo han obtenido hace más de 20 años. Por lo tanto, el sistema es muy lento, se basa mucho en el papeleo. Quiero decir, escuchaba a mis colegas y supongo que el reto al otro lado del mundo es cómo influye la tecnología y la recopilación de datos y lo que eso significa para las personas que se desplazan. Mientras que yo pensaría que en el sur, o más bien en el sur global, la gente quiere que se recopilen sus datos porque eso les da visibilidad, entonces eres alguien en el sistema, lo que significa que una vez que pasas por eso y te han tomado las huellas dactilares, tus datos biométricos, lo que sea, si la policía te detiene, eres alguien. Si no eres nadie, te meten en la parte trasera de la furgoneta, te detienen durante tres meses y te deportan de vuelta a la frontera.

 

[00:37:10.120]

Por lo tanto, creo que la experiencia del otro lado es que la gente quiere que se recopilen sus datos. Y Antonella hablaba sobre el consentimiento. ¿Es artificial o es un consentimiento real? Creo que, en esas circunstancias, piensan en la compensación. ¿Estoy sacrificando mi privacidad, el acceso a mis datos, y cuál es la compensación por ello? ¿Cuál es la contrapartida? Para mí y para mis hijos, nuestra capacidad para mantenernos, nuestra capacidad para acceder a los servicios, nuestra capacidad para integrarnos en la sociedad. Y para mucha gente, esa es la contrapartida que aceptan. Una vez más, ¿es eso un consentimiento real? No sé cómo podemos responder a esa pregunta, pero en este momento, eso es lo que hay. Y hablando de cómo se está comercializando algunos de estos espacios, solo por poner un ejemplo del día 10, creo que fue el 10 de octubre, o un poco antes, el sistema de gestión de asilo estuvo fuera de servicio durante más de un mes. Este es el sistema que permite a los solicitantes de asilo y a los refugiados renovar su estatus mediante un correo electrónico. Literalmente, envías un correo electrónico y te responden si te han renovado o no.

 

[00:38:26.190]

Ese sistema estuvo fuera de servicio durante un mes, pero apenas se informó de ello. Así que, como se puede imaginar, miles de personas enviaron sus solicitudes de renovación, pero estas seguían siendo rechazadas. Sin embargo, no hubo ninguna comunicación al respecto. No se informó de nada sobre el motivo del tiempo de inactividad del sistema. El efecto dominó de esto fue que se produjo un aumento de las detenciones, porque ahora la policía dice: «Bueno, tu permiso ha caducado» o «Tu permiso de solicitante de asilo ha caducado». Estás en el país de forma ilegal». Y, a menudo, cuando los migrantes no entienden que tienen derechos, especialmente en Sudáfrica, para motivarnos a explicarles por qué no pueden renovar su permiso es debido al sistema. Eso suele abrir la puerta a una conversación del tipo: «Vale, entonces hablemos en privado y veamos qué me puedes ofrecer». Porque el agente de policía lo sabe. El agente de policía sabe que, ¿sabes qué?, no es culpa suya. Pero también sabe, ¿cómo puedo decirlo? La cultura de las calles, donde la gente entiende que, vale, ¿quiero irme a casa con mi familia esta noche o quiero sentarme en una celda por principios?

 

[00:39:44.920]

Entonces, de nuevo, ¿son estas decisiones que las personas toman porque pueden, o son decisiones que toman por necesidad y supervivencia? Se siente mucha empatía, especialmente por los solicitantes de asilo y los refugiados que provienen de países como Zimbabue o Malaui, que no entran en la categoría de refugiados y solicitantes de asilo porque se les considera migrantes económicos. Creo que tenemos que trabajar mucho para redefinir quiénes son las personas que necesitan seguridad y protección. Pero a menudo forman parte del grupo más vulnerable porque, incluso desde el punto de vista legislativo, cuentan con una protección mínima. Así que, de nuevo, hablando del asilo en Sudáfrica, el Estado entiende sus responsabilidades. El Estado entiende los derechos que tienen todos los migrantes en el país. Pero, ¿impide eso que los políticos oportunistas se aprovechen de ello? No. ¿Impide el auge de los grupos vigilantes antimigrantes que se plantan delante de los hospitales y las clínicas e impiden el acceso a los migrantes, legales o ilegales? No. ¿Impide que en el nuevo año se haga un llamamiento para plantarse frente a las escuelas públicas e impedir que los niños, los niños migrantes, accedan a ellas? No. Por eso creo que cuando hablamos de tecnología, migración y política legislativa, lo que falta en esa conversación es el sentimiento sobre el terreno, ya sea positivo o negativo, y cómo podemos abordarlo de forma proactiva.

 

[00:41:28.260]

Porque si seguimos escondiendo la cabeza bajo el ala y hablando de que, bueno, la ley dice esto y la ley dice aquello, seguirá habiendo una creciente animadversión hacia las comunidades migrantes, y se hará muy poco por la integración o la cohesión social. Sé que nos estamos alejando de la tecnología y me estoy desviando del tema, pero estas son cuestiones realmente importantes. Son situaciones en las que las personas se encuentran entre la espada y la pared, y la decisión que deben tomar tiene que ver con la vida o la muerte y la supervivencia. Y, a menudo, ¿puede la tecnología ser un facilitador? Creo que sí. Creo que hay mucho margen para utilizar la tecnología, para educar, para empoderar, especialmente en África, porque creo que para cuando nuestros gobiernos lleguen al punto de utilizar la tecnología de la que han hablado Antonella y Judith, no creo que ese futuro esté muy lejos. Pero creo que en este momento tenemos una pequeña ventana mágica para educar a la gente sobre lo que podría suceder antes de que realmente suceda. ¿Los tribunales los detendrán? Creo que no será fácil para ellos. Especialmente en Sudáfrica. Los tribunales han demostrado ser casi como la última línea de defensa de los derechos humanos y los derechos humanos, el abuso oportunista de algunas de estas libertades.

 

[00:42:49.010]

¿Pero va a suceder? Creo que sí, porque una vez más lo plantearán como una medida para proteger nuestras fronteras, el interés nacional y la falta de recursos. También es una forma de plantearlo, y esto es lo que oímos mucho en las calles: que tenemos nuestros propios problemas y necesitamos que os vayáis para poder poner orden en casa. No podemos ignorar que este es el sentimiento general. ¿Cómo podemos abogar por la educación tanto de las comunidades de acogida como de las comunidades migrantes?

 

[00:43:21.180]

Sí, estoy totalmente de acuerdo. Y además, creo que también es una oportunidad para demostrar que lo que ocurre en otros lugares no es inevitable. Estamos viendo en muchos de estos temas que los países del norte global, como Estados Unidos hacia América Central y del Sur, la Unión Europea hacia los países africanos y otros países de otras regiones, están impulsando soluciones similares. Así que la solución es más detención. Vamos a financiar la detención. Como esta noticia de ayer, creo, de que Mauritania ha construido dos centros de detención de inmigrantes. Pero esto no es suficiente. No tiene por qué ser así. Y estoy totalmente de acuerdo contigo en que quizá no haya mucho tiempo, pero se puede entablar un diálogo y utilizar la tecnología para educar a la gente. Y sí, no tiene por qué ser así, puede haber otra forma de hablar, de mantener una conversación diferente, de decidir de otra manera cómo deben funcionar estas cosas, en la que las personas sean el centro. Y sí, creo que también una de las desventajas de la tecnología, que como has dicho, puede utilizarse en gran medida para empoderar a las personas para que se autoorganicen, y estamos viendo muchos ejemplos de ello, es que no es inevitable.

 

[00:44:46.080]

No necesitas tecnología para hacer ciertas cosas. No necesitas que la tecnología funcione de cierta manera para hacer ciertas cosas.

 

[00:44:52.240]

Pero se puede desarrollar tecnología para, por ejemplo, informar a la gente, que es lo que tú has estado intentando hacer. Por desgracia, el sector privado parece haberse propuesto hacer lo contrario, mantener a las personas que necesitan protección al otro lado de la frontera, sin importarles lo que les pueda pasar. Y, de nuevo, como ya has mencionado antes, la carga de desarrollar estas tecnologías recae una vez más sobre los hombros de abogados como tú. ¿Qué tipo de problemas encuentras al intentar desarrollar tecnología que ayude a las personas necesitadas?

 

[00:45:33.620]

Desarrollar tecnología es caro, sí, pero esa es la parte fácil. Construir la plataforma es la parte fácil. Crear el contenido es la parte fácil. Llevarlo a las comunidades, ahí es donde nos atascamos, porque no lo reconocemos. Creo que hemos erosionado gran parte de la confianza de la comunidad, especialmente de las comunidades migrantes, porque la sociedad civil ha sido vista como muy extractiva en su enfoque, y muchas comunidades dirán: «Sabemos que estás en esto por el dinero». Sabemos que, una vez que se agote la financiación, vosotros, vosotros, vosotros... No es que os preocupéis por nosotros y vengáis a hablarnos de este chatbot que nos va a educar y empoderar, es más bien como: ¿qué ganáis vosotros con esto y qué ganamos nosotros? Sé que suena terrible, pero siempre digo que la confianza es una moneda que hay que ganarse. E incluso al crear tecnología para el bien, hay que comprender y apreciar de dónde vienen, dónde les ha fallado el sistema, dónde les ha fallado la sociedad civil. Así que, aunque nos hayamos unido para crear algo que se supone que contrarresta gran parte de esta tecnología negativa y dañina, también tenemos que revisar nuestros privilegios y comprender que estamos tratando con una comunidad que también puede vernos con recelo.

 

[00:46:59.000]

Ahí estaba la dificultad. Desarrollar la tecnología, encontrar la plataforma. Gran parte de eso es fácil. Y esas conversaciones son fáciles. Pero la pregunta es: ¿la comunidad lo utilizará? Entonces, la cuestión es: ¿para quién lo estás desarrollando?

 

[00:47:13.330]

Pero claro, crear una base de datos enorme. Crear una base de datos enorme, no. No es tan fácil...

 

[00:47:15.330]

... no es tan fácil. Crear los conjuntos de datos, crear las medidas de seguridad. Pero, aun así, si se cuenta con los expertos adecuados, que tienen una misión alineada con los derechos humanos y con hacer el bien, podemos hacerlo. Creo que, para mí, siempre se reduce a la plataforma que se está construyendo. ¿Será útil para el público al que va dirigida, independientemente de quién esté en la sala y cómo? Porque se puede construir una plataforma preciosa, una plataforma perfecta. Desde el punto de vista del sistema, sí, costará mucho dinero, que muchos de nosotros no tenemos, pero una vez construida, ¿será solo otro proyecto inútil? Y nos daremos una palmadita en la espalda y diremos: «Hemos creado un chatbot que pueden usar las personas que se desplazan». Has dado ejemplos de cómo el reconocimiento facial tiene dificultades con los tonos de piel más oscuros. Mucho de eso se puede solucionar si se reúne a las personas adecuadas para debatir sobre quién está desarrollando la tecnología. Pero una vez hecho esto, ¿será beneficioso para esa madre soltera que ha empaquetado toda su vida en una mochila y lleva a su hijo a cuestas?

 

[00:48:31.130]

¿Podrá realmente obtener un valor real de lo que sea que creemos que ahora estamos poniendo en sus manos? ¿O más bien acudirá al Estado y dirá: «Tomen todos mis datos, les daré todas mis huellas dactilares, escaneen todo lo que quieran escanear». Porque para ella, la contrapartida es que entonces mis hijos y yo podremos estar a salvo.

 

[00:48:52.970]

Hemos estado hablando mucho sobre la tecnología que se supone que sirve para mantener a la gente fuera. Pero esa misma tecnología también puede utilizarse para mantener a la gente dentro. En los últimos meses hemos visto muchas imágenes horribles de Gaza, y sabemos que Israel es un país muy tecnificado. Están a la vanguardia de la tecnología de vigilancia y de la policía predictiva. Está Hebrón, que es prácticamente un laboratorio para las empresas tecnológicas y el Estado de Israel, donde comprueban hasta qué punto pueden perfilar a las personas, intimidarlas e invadir su privacidad. No mucha gente sabe que Cachemira es también un ejemplo muy duro de cómo las empresas privadas, en cooperación con los Estados, instalan prisiones y convierten los países en prisiones. Tengo aquí conmigo a Ankid, un investigador indio que se centra en este tema. Ankid, ¿podrías explicarme cuáles son realmente los problemas en Cachemira y cómo afectan a la población?

 

[00:50:08.370]

Muchas gracias, Florian. Creo que, en lo que respecta a la tecnología y a la alteridad digital, los cachemires son el Laboratorio 2.0. Si Palestina es 1.0, Cachemira es 2.0, porque utilizan la misma tecnología de reconocimiento facial llamada Red Wolf para rastrear los movimientos de las personas que viven en esta zona de conflicto. Así que hablaré primero de las fronteras. Cuando vas a la frontera, la frontera está a solo cien metros de distancia entre la India y Pakistán, y esas personas llevan más de 75 años viviendo en las fronteras, desde que el país se dividió en dos partes iguales. Lo que ocurrió en 1947, la partición, cuando Pakistán nació de la India y luego, en 1971, Bangladesh nació de Pakistán. Las fronteras, estas tres fronteras, son las más vulnerables. Voy allí a menudo como investigador. Veo a la gente. La gente está a cien metros de distancia. La esposa vive al otro lado del río y el marido vive aquí, el hermano vive aquí y la hermana vive al otro lado del río. Pero no pueden hablar entre ellos desde hace 36 años.

 

[00:51:38.470]

Así es como, así es como la tecnología divide Cachemira en una zona de conflicto. Y luego, si vas al otro lado de la frontera, llamado Uri, es un lugar muy, muy militarizado, donde se controla cada momento. Ni siquiera se te permite llevar tu teléfono a ese lugar para que puedas ver o al menos grabar lo que está sucediendo allí. Pero las personas que viven literalmente en esos cuarteles deben compartir los datos, deben compartir cuántos hijos han tenido hasta ahora, cuántos, cuántos, cuánto dinero ganan, ganaban. ¿Por qué, por qué se van a quedar? Incluso si tienen que salir a la calle para, por ejemplo, ir al médico. Pero por la mañana, no pueden salir por su cuenta. Es una comunidad cerrada. Tienen que obtener permiso del ejército para poder salir. La gente dice que la tecnología es un igualador digital, pero yo creo que es un divisor digital. Esto es lo que está ocurriendo sobre el terreno en Cachemira, donde el derecho a la alimentación depende de si tienes 80 años, en cuyo caso el Gobierno te da 5 kg de arroz subvencionado al mes.

 

[00:52:58.540]

Y si tus huellas dactilares no coinciden en la máquina, se te niega la comida. Y entonces tú mismo decides qué vas a hacer con, con, con, ya sabes, contigo, con tu vida. Y luego, en lo que respecta a los trabajadores, digamos que hay un programa que lleva el nombre del fundador de la India, el padre de la India, perdón, llamado Mahatma Gandhi. Se llama Programa Nacional de Garantía de Empleo Rural Mahatma Gandhi. Y el gobierno paga, el gobierno te da cien días de trabajo. Los trabajadores migrantes se inscriben en él. Y para inscribirse hay que registrarse en un portal concreto. Y Cachemira, ya sabes, es la capital mundial del cierre de Internet. El mayor número de cierres. En cualquier momento, se produce una protesta y hay un cierre. Y el Gobierno teme, vale, es como un interruptor. Quieres encender el interruptor, la luz se enciende y quieres apagarlo y la luz se apaga. Y cuando eso ocurre, lo que pasa es que se te niega el derecho a trabajar. Y cuando no puedes registrarte, no puedes trabajar. Y cuando no puedes trabajar, no puedes cobrar la mísera suma que el Gobierno paga por ello. Y, por supuesto, cuando estos trabajadores migrantes se registran para el trabajo que ofrece el Gobierno, tienen que hacerlo con una tarjeta llamada tarjeta Aadhar.

 

[00:54:31.510]

Es, es, es una tarjeta obligatoria. Es como un pasaporte. Sin ella, no se puede hacer nada. E incluso el Tribunal Supremo, el tribunal más alto del país, dice que no es obligatoria, pero en la práctica, sin ella no se puede hacer nada. Y si no tienes una tarjeta Aadhaar, no puedes registrarte. Y si no puedes registrarte, no puedes conseguir trabajo. ¿Y cómo se consigue esa tarjeta Aadhar? Se obtiene la tarjeta Aadhaar si se vive, si se es ciudadano permanente de un lugar concreto y si no se puede demostrar que se ha vivido en ese lugar durante los últimos 15 años, entonces se deniega la tarjeta Aadhaar o se deniega el certificado de domicilio.

 

[00:55:11.550]

También hemos escuchado esto de Judith y de todos los presentes aquí, básicamente, que la tecnología no ha estado a la altura de las esperanzas y las narrativas falsas que hemos estado escuchando sobre el tecnosolucionismo. Pero, ¿hasta qué punto? Y creo que aquí es donde Cachemira también es muy, muy especial. ¿Hasta qué punto la tecnología ha penetrado aún más en las vidas de las personas alejadas de las fronteras?

 

[00:55:36.480]

Así que voy a Cachemira, voy a la capital, Srinagar, con bastante frecuencia. Es el lugar donde aterrizas cuando vuelas desde Delhi. Una vez que sales del aeropuerto, ves que es el espacio más militarizado para 8 millones de personas. Hay un millón de soldados. Por si fuera poco, han creado un espía humano, ya sabes, que vigila tus movimientos o simplemente sospecha de ti. Ser un simple cachemir soltero caminando por las calles no era suficiente. Ahora tienen la tecnología. Así que, con este pretexto, tenemos que vigilar el tráfico en un lugar tan pequeño como Cachemira. Tienen algo llamado sistema integrado de gestión del tráfico. Son como cámaras B2Z con las que vigilan 180 grados. Dondequiera que esté instalado ese instrumento o ese dispositivo. Está instalado.

 

[00:56:42.460]

Es.

 

[00:56:42.780]

Ahora es obligatorio. Todas las tiendas, todas las escuelas, todos los establecimientos, por ejemplo, cualquier edificio textil, edificio privado, deben instalar estas cámaras ahora. Y nadie se atreve a preguntar por qué. Y dicen que solo hay que detener a los ladrones. Los ladrones merodean por aquí. Roban a la gente. Pero eso no es cierto. No hay datos que lo sugieran. Están vigilando a las personas que viven en este lugar altamente vigilado y militarizado. ¿Y qué hacemos nosotros, qué hacen ellos? ¿Y qué hacen con esos datos como activistas del RTI? Me refiero a la Ley del Derecho a la Información. Es la ley que aprobó el Parlamento indio en 2009. Según esta ley, se pueden hacer preguntas al Gobierno. Hay algunas excepciones. Es decir, no se puede hablar de defensa, no se puede hablar de comunicaciones, no se puede hablar de derechos humanos. Se utiliza la seguridad nacional como motivo. Sí, sí. Así que dicen, sí, bajo el pretexto de esto. Por lo tanto, no se puede ser alguien que cuestione los intereses nacionales del Gobierno. Y si ahora se hace una pregunta, se ha reducido a una ley inútil.

 

[00:58:11.490]

Porque si eres un activista de RTI, si presentas tu solicitud de RTI, solicitud de derecho a la información, te hacen muchas preguntas incómodas. No desde la comisión, sino desde la policía, desde las fuerzas del orden. Conocí a uno de los activistas del RTI. Me dijo: «Yo quería esta información». Y entonces el agente local, la forma más baja de gobierno que comienza en las aldeas, amenazó al activista del RTI y le preguntó: «¿Por qué, por qué, por qué necesitas esta información?». Y por si fuera poco, vino la policía y también lo amenazó: «Si no retiras tu solicitud, no nos hacemos responsables de tu vida».

 

[00:58:57.200]

Intentar ejercer tus derechos te expone a recibir amenazas. Amenazas.

 

[00:59:00.960]

Y entonces esa persona tuvo que mudarse del pueblo y ahora vive en la ciudad y no quiere volver porque ese lugar le resulta muy, muy intimidante. Como periodista, te sientes impotente. Como activista, te sientes impotente, y entonces no te queda otra opción que rendirte. Y si cuestionas, si cuestionas, eres un disidente. Tú, tú, tú, eres un alborotador. Y para los alborotadores, la única opción es la cárcel. Te meten entre rejas y allí te pudres.

 

[00:59:36.310]

Hablabas de activistas y nosotros hemos visto que esto también ocurre mucho en Europa, en Estados Unidos y, estoy seguro, en todas partes, donde activistas, periodistas e investigadores se convierten en blanco de ataques cuando abordan estas cuestiones tan incómodas. También lo vemos en los movimientos ecologistas en este momento. Pero, ¿qué pasa con las personas que no provocan, que no hacen preguntas? ¿No se ven afectadas por la tecnología?

 

[01:00:02.240]

Sí, sobre eso, ya sabes, cuando estas personas sienten que están siendo vigiladas, que están siendo controladas, incluso en las redes sociales, entonces, por supuesto, sienten que eso no es normal, que es anormal. Y luego sienten, cuando van al médico, cuando van al terapeuta, cuando van al psiquiatra, notan que hay cambios de comportamiento, notan que esa persona se siente ansiosa. Quiero decir, no ha pasado nada. Pero el simple hecho de que el Estado te vigile te hace sentir mal. Se observan muchos cambios de humor en la gente. Se ve a gente gritando en las calles, tocando el claxon sin necesidad. Voy y hablo con la gente de Cachemira, se sienten impotentes y silenciados. Están silenciados porque sienten que no tienen voz. Las grandes tecnológicas les han fallado. Y ellos lo sienten así. Según el informe de Médicos Sin Fronteras, uno de cada dos cachemires que camina por las calles sufre trastorno de estrés postraumático. Esto no es normal. Es algo muy anormal. Anormal en un lugar anormal con mucha vigilancia tanto por parte de humanos como de máquinas. Y como los cachemires están en silencio, lo que percibo en las calles es que, para ellos, el silencio es la protesta más sonora.

 

[01:01:48.720]

Creo que lo realmente importante en todo este año, cuando hablamos de tecnología, es incorporar la experiencia humana, porque solo eso nos guía realmente hacia el diseño de tecnologías mejores, más receptivas y que realmente funcionen, ya que sabemos que muchas de las tecnologías que se están implementando ya no funcionan. Judith ya ha dicho que el reconocimiento facial a menudo no funciona con personas de tez más oscura. También sabemos que un algoritmo o una IA no toman decisiones. Básicamente, hacen una aproximación basada en estadísticas. Y si nos fijamos en las decisiones judiciales también en la Unión Europea, en Grecia, por ejemplo, donde se detiene a los migrantes, se detiene a los refugiados en la playa y, básicamente, se les acusa de tráfico de personas de inmediato. La IA aprenderá todo esto. Será un juez severo de nuestros propios fracasos a la hora de aplicar las leyes que se supone que nos protegen a todos. Y creo que la gente subestima hasta qué punto la tecnología también les privará de sus derechos en algún momento. Pero para terminar, soy muy consciente de que, por desgracia, ninguno de ustedes podrá ofrecer una solución integral para todo esto.

 

[01:03:09.940]

Pero lo que me gustaría hacer es simplemente darnos un pequeño impulso. No uno largo, sino uno rápido. Desde tu punto de vista, desde la experiencia que has tenido, ¿cuáles son tus demandas, cuáles son tus esperanzas en cuanto a hasta qué punto se puede controlar esta situación, hasta qué punto podemos recuperar el control sobre ella? ¿Judith? Quizás, quizás tú.

 

[01:03:32.580]

Supongo que pienso más en términos del factor humano en todo esto, ya sabes, y es como si realmente no pudiera entender cómo, como humanidad, tenemos este nivel de tecnología y aún así no podemos tener una distribución más justa de la riqueza. Ya sabes, cómo podemos tener algo en lo que pienso, como los reyes de hace cien años, que no podían tener acceso a la información que tenemos ahora en un smartphone. En cierto modo, esto es riqueza, pero se utiliza, se ha convertido en un arma para aumentar aún más las brechas en el acceso, en la dignidad, y no puedo entenderlo por más que lo intento. No puedo. Hay recursos suficientes para que todo el mundo tenga una vida digna.

 

[01:04:27.020]

Entonces, ¿cuál es tu exigencia desde tu posición?

 

[01:04:29.620]

No creo que tenga exigencias. Creo que quiero retomar el punto que Grace estaba planteando cuando hablabas sobre el sentimiento, y dijiste: «Pero me estoy desviando del tema». No creo que te estés desviando del tema. Creo que este es un tema fundamental en la conversación sobre tecnología al que deberíamos prestar más atención. Debería cobrar importancia. Y como la tecnología no surge de la nada, sino que surge en un contexto, la forma en que se implementa tiene mucho que ver con el sentimiento en las calles, con el sentimiento en el gobierno, en las instituciones, ya sabes. Así que creo que quizá deberíamos prestar un poco más de atención a eso. Y tal vez se trate de cambiar la narrativa, lo cual ya suena un poco a cliché y está muy manido, pero tal vez haya algo más que podamos hacer con respecto al sentimiento. Tal vez potenciar nuestra conexión entre nosotros, tal vez crear más espacios como este donde podamos sentarnos con diferentes antecedentes y diferentes opiniones y diferentes propuestas de soluciones. Y lo que estamos haciendo aquí, reuniéndonos en persona, es alimentar esa conexión, esa conexión humana.

 

[01:05:53.190]

No creo que sea un cliché hablar de esto, porque creo que hemos visto lo poderosas que son las narrativas en el contexto negativo aquí, lo rápido que, yo soy de Alemania, lo rápido que la gente que en 2015 aplaudía a los refugiados que llegaban a las estaciones de tren se volvió contra los migrantes, y hasta qué punto esto desestabiliza el país. Creo que esto es algo que vemos muy claramente en Europa en este momento, cómo la extrema derecha está tomando el control. Y en Estados Unidos, tenemos personas en el poder que simpatizan con ideas como las monarquías de directores ejecutivos, que luchan activamente contra la Constitución. Y esto es algo nuevo y muy exacerbado por la tecnología. Antonella, como investigadora, ¿cuáles son tus demandas? ¿Qué te gustaría? Si pudieras cambiar ciertas agendas ahora y ciertas prácticas, digamos, ¿cuál sería tu primer intento? ¿Qué te gustaría cambiar de inmediato?

 

[01:07:01.680]

Bueno, ¿me gustaría trabajar en otra cosa para variar? No, quiero decir, creo que de nuevo hay un nivel de conversación que es como el que Judy acaba de explicar. Creo que gran parte de esta conversación ha sido impuesta artificialmente por un pensamiento muy cortoplacista. E incluso en muchos países europeos, la migración no se considera uno de los principales problemas, pero los políticos la han impulsado como el problema, como el problema que impide tener un mejor acceso a la sanidad o al bienestar. Lo sabemos, sobre todo porque llevamos una década con esto. Es algo que he estado escuchando una y otra vez durante los últimos 10 años. Por lo tanto, creo que es necesario un cambio en el debate. Hay que entender que la tecnología no se trata solo de tecnología. La tecnología se trata de para qué la gente intenta utilizarla. Y, en cierto modo, creo que desde el punto de vista de un investigador, solo para intentar responder un poco a tu pregunta, pero no como una exigencia a los gobiernos, sino como una exigencia a los investigadores, periodistas y personas que investigan estas cosas.

 

[01:08:21.870]

Creo que deberíamos mejorar en no utilizar la tecnología como un actor. Últimamente se habla mucho de la responsabilidad de la IA y creo que esto oscurece quién debe rendir cuentas. No es la IA la que debe rendir cuentas, sino los actores poderosos. ¿A quién deben rendir cuentas estas personas? La IA no es algo a lo que pueda acudir y pedirle que rinda cuentas por lo que hace. Por eso, creo que también debemos cambiar el lenguaje que utilizamos, el marco que utilizamos, y a veces tendemos a repetir lo mismo porque funciona, porque es lo que solíamos hacer, porque la financiación que recibimos tiene ese tipo de lenguaje, ese tipo de etiqueta. Así es más fácil conseguir una subvención, conseguir apoyo, conseguir audiencia. Creo que debemos pensar de forma más crítica. Y luego, por supuesto, en lo que respecta a los gobiernos, creo que ya tenemos leyes que no se respetan. Así que solo con aplicarlas ya sería un avance. Pero, de nuevo, como en el caso de lo que está sucediendo, no es inevitable.

 

[01:09:31.780]

No es como cuando oímos decir que la tecnología ha llegado para quedarse, es un tópico muy manido. Sí. No estoy diciendo que destruyamos la máquina, pero podemos volver a utilizar la tecnología de otra manera. Hemos visto, he visto en mi investigación más reciente, mucho trabajo liderado por la comunidad, liderado por la gente. No debería ser necesario dedicar tanto esfuerzo a proporcionar información que el gobierno no te da, esto debería ser como la forma en que se diseña la tecnología, debería tenerse en cuenta, debería vivirse así. ¿Cuáles son las necesidades? ¿Cómo estamos abordando las necesidades? Esto no está sucediendo, pero creo que es una de las cosas que podemos exigir, y podemos exigir, no solo a los políticos, sino que esto también puede suceder en muchos niveles diferentes. Hay ejemplos más exitosos y significativos, tal vez a nivel municipal o más local, que deben explorarse más. No solo el gran gobierno y la gran tecnología explotando a las personas, sino elevando más, ya sabes, ejemplos de diseño y colaboración significativos. Hay personas lideradas y comunidades lideradas.

 

[01:10:47.340]

Grace, desde tu perspectiva sudafricana y keniana, y teniendo en cuenta lo que está sucediendo en Europa y cómo se está implementando la tecnología, ¿cuál es tu opinión al respecto?

 

[01:10:58.620]

Lo que yo quiero decir es que todo se reduce a las personas. Creo que, como sociedad civil, debemos comprender que no estamos indefensos ante esto. Y hemos hablado mucho sobre cambiar las narrativas. Judith, tú mencionabas cómo la tecnología se desarrolla dentro del contexto. Por lo tanto, si cambiamos las narrativas sobre el terreno y trabajamos en esa dirección, tal vez no seamos capaces... los políticos no podrían manipular el sentimiento antimigrante y utilizarlo para ganar votos y distraernos de los verdaderos problemas socioeconómicos. Así que tal vez sea algo tan fundamental que debamos detenernos en ese punto. Entiendo que cada uno tiene su mandato y hace lo que tiene que hacer. Pero tal vez si no trabajáramos de forma aislada, tal vez si realmente trabajáramos y presentáramos un frente unido tanto al Estado como a las comunidades, entonces tal vez ese cambio podría empezar a producirse. Y la tecnología, en ese contexto, tal vez también cambiaría hacia una más progresista, participativa y basada en los derechos humanos. Pero en este momento todos estamos haciendo ruido porque todos intentan hablar al mismo tiempo.

 

[01:12:09.510]

Ankid. Termina el podcast.

 

[01:12:13.830]

Sí. Muchas gracias por el honor. Llevo seis o siete años haciéndolo en la radio. Creo. Sí, tienes razón. Los drones pueden esperar, pero los programas de bienestar social no. Sois la democracia más grande del mundo, pero al mismo tiempo encabezáis la lista del índice mundial del hambre. Así que los 9600 millones de rupias que estáis invirtiendo en cámaras de reconocimiento facial, o las 600 000 cámaras que tenéis en una población, en una ciudad que en realidad no las necesita. Podéis desviar fácilmente ese dinero. Podéis gastar ese dinero y pagar pensiones a las personas con discapacidad, a los migrantes, a las personas mayores que más lo necesitan. Creo que los negocios pueden esperar. La empatía no puede esperar y creo que debemos apoyar la campaña «Ban the Scan» de Amnistía Internacional y decirle al Gobierno que solo el 2 % de los resultados de su reconocimiento facial son precisos y que el 90 % o el 98 % son inexactos. Y lo que hacen es señalar. Gastan miles de millones de rupias en estas cámaras de reconocimiento facial solo para señalar a las minorías, solo para señalar a los musulmanes. Y los etiquetan como terroristas. Los etiquetan como alborotadores y antinacionales.

 

[01:13:59.140]

Sí, antinacionales, antisociales, o como quieran llamarlo. Pero la verdad es que hay que serlo. Al menos hay que intentarlo. Si no puedes ponerte en su lugar, al menos ten un poco de empatía. Y si estás diseñando estas políticas en salas con aire acondicionado, al menos imagínate allí, en la frontera o en la ciudad, y sé considerado y ten en cuenta que este mundo funciona según el karma. Lo que se siembra, se cosecha. Ten un poco de empatía, por favor.

 

[01:14:44.710]

Sí. Sé humano. Sé amable. Sé consciente. Infórmate. Levántate, toma la iniciativa. Creo que esto es lo que me llevo de este podcast y de toda esta reunión, en realidad. Y realmente aprecio que os hayáis tomado el tiempo de vuestra apretada agenda aquí, porque os mantenemos ocupados. Os mantenemos bastante ocupados. Y tenemos nuestra próxima cita, de hecho, hace media hora. Pero muchas gracias por compartir vuestras ideas, por compartir vuestras experiencias y... Bueno, que tengáis una buena reunión.

[01:15:17.680]

Gracias.

[01:15:19.200]

Gracias.