viernes, 7 de noviembre de 2025

EL USO DE LA IA EN LAS ORGANIZACIONES SOCIALES

 

       

EL USO DE LA IA EN LAS ORGANIZACIONES SOCIALES

Recientemente participamos en el seminario web Entre algoritmos y poder: la nueva frontera de los derechos humanos y la inteligencia artificial”, donde los expertos expusieron sus aportes sobre el nuevo desafío que enfrenta la sociedad civil: participar activamente en las decisiones sobre el desarrollo y uso de la inteligencia artificial.

La conclusión del evento virtual fue que es urgente llevar la voz de las organizaciones sociales a los espacios donde se trate la IA, en una discusión que es estratégica y política; no es el futuro, ya es el presente.

Para validar que la IA es el presente, tomaremos lo señalado en un informe de Google (2024) evaluó a más de 4 mil organizaciones sin fines de lucro, y arrojó que 77% de las ONG consultadas ya usan regularmente la inteligencia artificial.

Estas organizaciones están usando la IA para la redacción de informes y propuestas, para el análisis de datos, la automatización de comunidades, el diseño de materiales pedagógicos y la elaboración de campañas. Hay un reconocimiento del potencial de la IA para el incremento de la productividad en momentos donde la falta de tiempo y el cansancio se han generalizado, y los equipos de trabajo están conformados por pocas personas, que cuentan con escasos recursos y tienen muchas responsabilidades.

El 90% de las organizaciones afirma que la inteligencia artificial les ahorra tiempo en tareas rutinarias. De ellas, el 17% reporta un ahorro de tiempo de, al menos, diez horas a la semana. Esto les permite enfocarse en acciones estratégicas: la incidencia política, la atención a comunidades, la formación y el fortalecimiento de redes.

Además, 70% de las OSC espera un impacto “mayor o transformador” en la creación de contenido y el marketing social, y una mejora en la comunicación y el alcance. La IA permite personalizar mensajes en múltiples idiomas para llegar a otras audiencias, crear narrativas de impacto y, en general, puede amplificar voces y causas invisibilizadas si se usa desde una perspectiva de justicia social.

El 46,5% de las organizaciones sociales pide formación práctica e inmediata sobre IA. Mientras que 57% reconoce no tener suficiente conocimiento práctico para implementar la IA en su labor diaria. Sin la formación adecuada, muchas organizaciones pueden quedar fuera del debate tecnológico, volviéndose dependientes de herramientas externas, sesgadas y opacas.

La brecha de conocimiento es una brecha de poder: quienes no entienden cómo funciona la IA, no pueden cuestionarla ni regularla. La IA se entrena con datos históricos que reflejan y refuerzan desigualdades: racismo, sexismo, clasismo, etc.

Si no se interviene críticamente, puede Invisibilizar el lenguaje feminista, antirracista o decolonial, discriminar en procesos automatizados de ayuda o selección, restringir el acceso a información relevante para comunidades marginadas. Esto es especialmente grave para mujeres, pueblos originarios y defensoras de derechos humanos.

¿Qué nos toca hacer?

Los mayores desarrollos en IA están liderados por corporaciones como Google, Meta y Microsoft. Estas empresas definen qué se investiga, para qué se diseña, y quién puede usar la tecnología. Si las organizaciones sociales no se organizan para incidir, el futuro digital será una extensión de la lógica de mercado y control, no de los derechos humanos.

Muchas organizaciones ven la IA solo como una herramienta técnica. El mayor riesgo no es usarla, sino usarla sin cuestionar sus implicaciones políticas. Si solo se adopta para “hacer más cosas” sin analizar cómo reconfigura el poder, la autonomía y los derechos, se pierde una gran oportunidad. Si se combina con pensamiento crítico, la IA puede potenciar la acción transformadora en lugar de limitarse solamente a la eficiencia técnica.

La IA ya está influyendo en los derechos, la democracia, la participación y la igualdad de género. Las OSC no pueden quedar al margen.

En tal sentido, Articulate Foundation y CEPAZ ha diseñado un curso que ofrece una respuesta política y pedagógica: Política, porque ambas organizaciones están construyendo una comunidad de pensamiento, práctica y articulación, con capacidad para incidir en cómo se está desarrollando la IA. Pedagógica, porque apuestan por la formación de liderazgos sociales que usen esta tecnología para el bien común, la justicia social y la transformación democrática, no para el control ni la exclusión.

La solución no es rechazar la IA, sino entenderla críticamente, apropiarnos de su potencial, y participar activamente en su diseño, uso y regulación.

 

Además, es necesario seguir reflexionando sobre cómo las organizaciones sociales pueden no solo proteger derechos en la era digital, sino también usar la inteligencia artificial como una aliada para fortalecer su sostenibilidad y capacidad operativa, y obtener las competencias para incidir en los nuevos espacios de decisión donde se define el futuro de la regulación tecnológica y la protección de derechos. Readaptado por CIBERPAZ/2025.