Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the astra-sites domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /var/www/vhosts/lasuperdiscoteca.com/httpdocs/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the feedzy-rss-feeds domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /var/www/vhosts/lasuperdiscoteca.com/httpdocs/wp-includes/functions.php on line 6114
Injusticia programada
Injusticia programada

De los Papeles de Pandora se pueden sacar muchas conclusiones. Una es que se supervisa mucho más a los ciudadanos pobres que a los que evaden y eluden impuestos. Parece que hay un derecho a hurgar en las vidas de quienes piden ayudas públicas y que sus datos pueden recopilarse sin pudor. La tecnología ha creado una asimetría brutal en la vigilancia y el control de riesgo: presupone que los que menos tienen son más egoístas, menos cuidadosos con el gasto, que van a atender peor a sus hijos y a exprimir al sistema en cuanto puedan.

Poco a poco vamos tomando conciencia de lo básico, como que las plataformas como Facebook, Twitter o Tik Tok usan nuestros datos para ganar dinero, o que las dictaduras vigilan a sus disidentes a través de Internet. El siguiente paso es comprender que la porquería no solo salpica a empresas privadas y a Estados autoritarios. Las democracias que presumen de garantistas también utilizan a los pobres como cobayas para probar tecnología invasiva. El año pasado, un tribunal en Holanda emitió una sentencia inédita en Europa que decía que el sistema de su Gobierno para detectar posibles fraudes violaba la privacidad y los derechos humanos de los afectados, que eran personas sin recursos e inmigrantes. Sobre la base de datos que habían recopilado las Administraciones sobre su renta, el tipo de casa en el que vivían, si tenían multas o deudas pendientes, entre otros, un algoritmo estimaba las posibilidades que tenían de cometer fraude.

Lo de mirar con lupa en qué gastan dinero los pobres lleva ocurriendo desde el siglo XIX, pero la inteligencia artificial intensifica esta práctica. Virginia Eubanks, autora de La automatización de la desigualdad (Capitán Swing, 2021), cree que las antiguas casas para pobres en las que se atendía (y encerraba) a los desamparados que pedían ayuda hoy se han trasladado al ámbito digital. Eubanks lleva dos décadas documentando cómo en Estados Unidos cuando una persona pide una ayuda pública, vive en un barrio con más control policial o cruza una frontera nacional se expone a un nivel mayor de recopilación de sus datos.

Los algoritmos permiten trabajar con muchísima información de manera eficaz, pero no necesariamente aséptica. Aunque parezcan herramientas más objetivas, menos desviadas, más limpias, perpetúan los sesgos que hay en la sociedad. Como dice Eubanks, el juicio moral al pobre es una tradición americana que viene de lejos: no tienes dinero porque no te has esforzado lo suficiente, porque no vales, no por la manera en la que hemos organizado nuestra economía y nuestra convivencia. Se desperdician muchos recursos, también digitales, haciendo que la gente acredite que es lo suficientemente pobre para recibir ayuda. Y que moralmente la merece.

@anafuentesf

Inicia sesión para seguir leyendo

Sólo con tener una cuenta ya puedes leer este artículo, es gratis

Gracias por leer EL PAÍS

About Author

WP2Social Auto Publish Powered By : XYZScripts.com
WP Radio
WP Radio
OFFLINE LIVE