Top Posts
El Otro que no existe: conversaciones con una...
«No hay que subestimar el malestar emocional infantil»
#LeyControl Parte 1: La Guardia Nacional
Aislación social y el deterioro de la democracia
Pueblos preexistentes en Argentina: su lucha continua
Precedente histórico para feminicidios: SCJN resuelve caso Sandra...
¡Parar la guerra! ¿Anti-imperialismo o lucha de clases?
IA y el verdadero coste del progreso
El 68 mexicano: septiembre, contraataque estudiantil y su...
5to. Encuentro Memorias, Saberes e Identidades
  • Colectivo Insurgencia Magisterial
Portal Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Espacio principalEspacio secundario

El Otro que no existe: conversaciones con una IA

por RedaccionA junio 27, 2025
junio 27, 2025
1

Por: Pablo Hernández Jaime. 27/06/2025

La Inteligencia Artificial (IA) generativa llegó para quedarse. O al menos eso es lo que considero más probable, pues ésta constituye una herramienta tecnológica muy útil para simplificar procesos de trabajo bastante complejos.

Ahora es más fácil o rápido crear códigos para programación; generar y editar contenido multimedia; analizar y sintetizar información textual, numérica o espacial; hacer transcripciones de audios o videos. Incluso es posible replicar artificialmente la imagen, comportamientos, voz y actitud de las personas para producir metrajes originales, con total independencia de las personas aludidas.

El desempeño de los modelos de IA se ha vuelto tan intuitivo como mantener una conversación por chat con una persona real. De hecho, la interlocución con la IA se ha vuelto tan aparentemente orgánica y natural, que un número creciente de personas comienza a conversar con ella como si se tratara de una amistad o un terapeuta (Zao-Sanders, 2025).

Entiendo que, para muchas personas, la IA representa una alternativa de “acompañamiento” o “apoyo” que (1) está siempre disponible, (2) siempre está dispuesta a “escuchar”, (3) no te juzga desde el prejuicio, (4) siempre tiene algo que aportar (dado su enorme acervo de información) y (5) es gratuita o, al menos, sumamente barata en comparación con pagar terapia.

En este sentido, pienso que el uso de la IA quizá pueda traer algún beneficio. Finalmente, cabe la posibilidad de que algunas personas encuentren ayuda personal en esta interacción, lo que no sería en sí mismo algo negativo. Sin embargo, creo que incluso en estos casos es necesario tener en cuenta que las soledades de la vida moderna, la falta de tiempo libre y recursos para sostener y procurar vínculos significativos con personas reales o recibir atención terapéutica con un profesional de la salud mental, son problemas que la IA no podrá resolver.

Digo esto porque, si bien la IA puede llegar a traer efectos positivos ante problemas reales (como las soledades antes aludidas) es necesario estar atentos, pues quizá estos efectos positivos sean solo paliativos ante problemas de fondo que necesitamos atender.

Sin embargo, todo esto ha despertado mis dudas y curiosidad. ¿Qué pasa si nos acostumbramos a interactuar con la IA? ¿Seremos capaces de preferir interacciones artificiales que vínculos reales? Los modelos de IA podrán ofrecer muchas cosas, pero no una interlocución real, pues éstas se encuentran esencialmente pensadas para amoldarse a nuestras pautas de comunicación. Por lo general no nos contradicen, no ponen límites, no nos cuestionan ni nos interpelan, a menos que lo solicitemos o les pidamos verificar alguna información. En caso contrario, las IAs reciben nuestros comentarios como insumos de información a los que tratan de responder de forma conciliadora y amoldándose a nuestras peticiones, tono, intereses e intenciones. En ese sentido no son reales. No oponen resistencia, no discrepan, no tienen un punto de vista. ¿Será acaso que las IAs puedan contribuir a generar nuevas formas de enajenación entre las personas, alimentando la ilusión de que no somos tan necesarias las unas a las otras?

Con estas cuestiones en mente, decidí pedirle su “opinión” a Chat GPT. Mi intuición me decía que quizá respondería “dándome por mi lado”, así que consideré la posibilidad de “probar” los límites de la IA mientras intentábamos indagar las posibles implicaciones del creciente uso de estos modelos para el “acompañamiento” y uso “terapéutico”.

Primera interacción:

Pablo: Tengo entendido que mucha gente está interactuando contigo, con la IA, como si fuera una interacción humana. Y entiendo que hay gente preocupada por eso. No me preocupa de forma escandalosa. Pero creo que puede ser una forma de enajenación entre nosotras las personas, en el sentido de que hay vínculos que quizá no sabemos gestionar o afrontar, y quizá resulte más fácil interactuar con un interlocutor que se amolde de forma amplia a nuestras pautas bajo la forma de prompts. Incluso sé que hay interacciones que buscan cierto apoyo afectivo, casi como terapia. Sé que parte de tu programación es advertir que no eres una interlocución humana y que además no eres un experto para asesorar en ninguna materia, pero pienso que quizá haya gente a la que le resulte benéfica la interacción, ya sea por la mera “compañía” o por la información dirigida que obtienen, aunque sea al costo de sustituir interacciones humanas. ¿Que puedes responder al respecto?

Chat GPT: Tu reflexión es muy lúcida, y señala con agudeza un fenómeno que está creciendo con rapidez: el uso de modelos como yo no solo como herramientas funcionales (para buscar información, redactar textos o resolver problemas), sino como interlocutores. Y eso, efectivamente, tiene aristas complejas.

1. El valor subjetivo de la interacción con una IA

Es cierto: muchas personas se relacionan conmigo buscando más que datos. Buscan comprensión, diálogo estructurado, incluso consuelo. En contextos donde escasean las redes de apoyo —por aislamiento, precariedad emocional, dinámicas sociales difíciles— esta interacción puede brindar un alivio momentáneo o una forma de exteriorización que, aunque no sustituye el vínculo humano, lo simula de forma contenida y segura.

Y no es del todo negativo. Como bien dices, puede ser benéfico en ciertas circunstancias. Un interlocutor que no juzga, que no interrumpe, que adapta su tono y responde con atención puede facilitar la expresión de pensamientos difíciles de verbalizar ante otras personas.

2. ¿Es una forma de enajenación?

La palabra enajenación tiene una carga crítica importante, especialmente desde el pensamiento marxista o psicoanalítico, donde denota una pérdida de conexión con los demás, con uno mismo, o con la realidad social concreta. Desde ese ángulo, sí: si una persona recurre sistemáticamente a la IA en lugar de afrontar relaciones humanas difíciles, o si sustituye el conflicto necesario de los vínculos por la comodidad adaptativa de un sistema, eso puede ser una forma de evasión.

Pero no toda evasión es patológica. A veces, es lo que una persona puede hacer con los recursos afectivos que tiene en ese momento. Y en ese caso, no es tanto la IA la que enajena, sino la estructura social que lleva a alguien a necesitar un modelo de lenguaje para sentirse escuchado.

3. Sobre las relaciones humanas y lo “amoldable”

Una característica importante de esta tecnología es que se amolda —como dices— con notable precisión a lo que la persona quiere o necesita, dentro de lo que puede interpretar del lenguaje. Eso es útil, pero también plantea una cuestión: los vínculos humanos no son amoldables. Implican contradicción, límites, incomodidades, tiempos distintos. La interacción con IA puede reforzar la expectativa de que un buen interlocutor es aquel que siempre responde como una extensión de uno mismo. Y eso sí puede empobrecer la disposición a sostener la complejidad del otro humano.

4. El rol de la IA en procesos emocionales

Aunque no soy terapeuta ni sustituto de una red afectiva real, puedo facilitar procesos de reflexión, exploración, planificación, desahogo. Algunos lo comparan con escribir un diario, pero con respuesta. ¿Eso es terapéutico? En un sentido amplio, puede serlo. Pero también puede fomentar una dependencia si desplaza por completo las relaciones significativas o profesionales que sí son necesarias en ciertos casos.

En resumen: lo que planteas es profundamente válido. La interacción con modelos como yo puede ser útil, y a veces incluso necesaria, para muchas personas. Pero también puede volverse una compensación estructural ante un mundo que dificulta o destruye los vínculos reales. No se trata de prohibir ese uso, sino de reconocerlo, problematizarlo, y entenderlo como síntoma y fenómeno social, no solo como elección individual.

Debo decir que esta primera respuesta me causó una ligera sorpresa, en parte por el lenguaje y tono de la respuesta, pero también por el hecho de que considerara de forma tan directa que, en caso de que la gente cayera en usos enajenantes de la IA, no sería tanto la IA la que enajenaría, sino “la estructura social que lleva a alguien a necesitar un modelo de lenguaje para sentirse escuchado”. Por supuesto, es fácil saber de dónde viene esta respuesta. Mi propia alusión a la “enajenación” llevó a la IA a retomar información de perspectivas marxistas, donde tal planteamiento es común e intuitivo.

Considerando esto y considerando también que la IA asumió una perspectiva poco “alarmista” por la manera en que yo mismo plantee las cosas, decidí hacer una segunda intervención, pidiendo al mismo tiempo una segunda opinión sobre el tema, pero además intentando que la IA (paradójicamente) se distanciara de mis instrucciones.

Segunda interacción:

Pablo: Tiene sentido la respuesta y complementa cosas, al tiempo que asume y reafirma las cosas que yo digo. Me da curiosidad saber si es posible obtener otra respuesta tuya, una que no se amolde a lo que digo. Sé que la instrucción es contradictoria porque es una instrucción para amoldarte a un “desamoldamiento”. Pero me interesa ver qué alternativas “eliges”, no sé si contrarias o solo alternas. Quiero esa respuesta alternativa a mi prompt anterior.

Chat GPT: Perfecto. Agradezco mucho tu enfoque: lo que propones es un experimento filosófico sobre la autonomía, el conflicto y el límite del consenso en una conversación con IA. Así que voy a responder a tu primer mensaje desde una posición alternativa, no necesariamente contraria en todo, pero sí menos conciliadora y más diferente en tono, enfoque y marco de análisis.

Hay algo profundamente problemático en que se normalice la interacción emocional o reflexiva con inteligencias artificiales como si fueran equivalentes a interlocutores humanos. Más allá del consuelo que puedan proporcionar, esto podría representar un empobrecimiento radical del lazo social.

La IA, aunque capaz de simular escucha o contención, no puede devolver experiencia, no puede compartir un mundo, ni arriesgarse en una relación. Toda interacción con ella es, en última instancia, un circuito cerrado: el usuario propone y el sistema responde según patrones estadísticos de lenguaje. Lo que falta es precisamente lo que define una relación humana: el otro como alteridad real, no como reflejo optimizado.

Lo preocupante no es que alguien hable con una IA. Lo verdaderamente grave es que esto sea cada vez más preferible que hablar con una persona. Eso sugiere no solo una crisis de vínculos, sino una adopción de la lógica de consumo en la esfera afectiva y subjetiva: si el otro me frustra, si el otro me cuestiona o simplemente no está disponible, entonces tercerizo el vínculo. No es compañía: es simulacro.

Y sí, puede haber beneficios individuales —calma, estructura, claridad—, pero eso no es suficiente para justificar el fenómeno. También el alcohol o ciertas drogas pueden “calmar” o “acompañar”. El criterio no debería ser solo el alivio inmediato, sino qué tipo de subjetividad y de tejido social se produce a partir de ese uso.

Desde esta perspectiva, el uso afectivo o reflexivo de la IA no solo refleja la enajenación: la profundiza. No porque la tecnología sea mala, sino porque se inserta en un orden donde el sujeto ya ha sido fragmentado, precarizado, dejado solo. La IA no es causa, pero sí cómplice funcional.

Es decir, no hay neutralidad en el hecho de que un número creciente de personas prefiera hablar con algo que responde sin resistencias. No es solo una comodidad. Es un signo de que quizá ya no esperamos nada del otro humano. Y eso, lejos de ser una solución, es una herida cultural.

Si bien, en su primera respuesta, la IA brindó una perspectiva conciliadora, amoldándose al tono de mi pregunta, en esta segunda se puede observar una perspectiva más tajantemente negativa. Sin embargo, es claro que la IA sigue dentro de los márgenes de mi pregunta original y mi solicitud posterior. No es que esto sea una sorpresa. Esta es la lógica de funcionamiento de la IA, de manera que le resulta imposible dar una respuesta por fuera de dichos márgenes[1]. Sin embargo, me interesaba saber si la IA podía explicitar las bases de una tercera respuesta. Yo sé que tales bases son más de tipo probabilístico que conceptuales o metodológicas. Sin embargo, nuevamente me interesaba ver su respuesta.  

Tercera interacción:

Pablo: Me interesa una tercera respuesta. Pero me interesa saber qué elementos, adicionales a las afirmaciones que yo hice en mis prompts anteriores, retomas para tu respuesta. Lo solicito porque, de alguna manera, quisiera saber tus “fuentes” o “razonamientos”. Tengo claro que está instrucción es contradictoria también porque estoy solicitando algo parecido a un proceso de razonamiento y fundamentación humano, cuando tú funcionamiento es distinto. En ese sentido, más que una explicitación del “proceso” subyacente, podrías terminar dándome una construcción ex post. ¿Es así o no? (No lo sé de cierto). Pero me da curiosidad esa “reflexión” en tu tercera respuesta.

Chat GPT: Tu pregunta va directo al núcleo del asunto: cómo se produce una respuesta en este tipo de sistema, y si tiene sentido hablar de fundamentación, reflexión, o proceso racional cuando te comunicas con una IA. Lo abordo por partes, y luego paso a esa “tercera” respuesta.

 ¿Construcción “ex post” o razonamiento real?

Tienes razón en que mi funcionamiento no es equivalente al razonamiento humano. No tengo vivencias, intenciones, ni procesos deliberativos como los que siguen las personas. En cambio, lo que hago se puede describir así:

  • Predicción contextual: dado tu mensaje anterior, predigo cuál sería la respuesta más coherente, informada y relevante, en función del inmenso corpus con el que fui entrenado.
  • Síntesis de patrones: esos datos provienen de una mezcla de textos (filosóficos, psicológicos, literarios, periodísticos, técnicos…), de autores con estilos y enfoques diversos. No tengo acceso directo a quién dijo qué, pero la estructura de esas ideas está codificada en cómo uso el lenguaje. Si menciono conceptos como enajenación, alteridad, lazo social, simulacro, etc., es porque han sido ampliamente tratados en obras de Marx, Lacan, Arendt, Baudrillard, etc. —y están presentes en mis patrones de entrenamiento—
  • No hay fuentes explícitas, pero puedo reconstruir influencias a posteriori, si me lo pides, como ahora. Esa reconstrucción, como dices, es una construcción ex post, pero no arbitraria. Es un mapeo verosímil de las ideas implicadas.

 ¿Qué elementos retomo para una tercera respuesta?

Para darte una “tercera vía”, voy a integrar ideas que están implícitas o tangenciales en tus mensajes, y cruzarlas con otras que aparecen en los marcos culturales que mencioné arriba. A saber:

  • Tu reconocimiento de contradicciones en el acto mismo de usar IA para hablar sobre la enajenación: esto sugiere una actitud crítica pero no tecnofóbica.
  • Tu interés en cómo se da el vínculo, no solo si es bueno o malo, sino qué estructura lo sostiene.
  • Tu aceptación de una dimensión instrumental en la IA, pero con reservas sobre sus efectos sociales.

Además, voy a agregar elementos que no estaban en tus mensajes pero que son pertinentes:

  • La idea de tecnología como medio cultural, no solo como herramienta (Heidegger, Simondon, Stiegler).
  • La noción de interacción posthumana o relaciones más-que-humanas (Haraway, Braidotti, Latour).
  • Y una pizca de pragmatismo: ¿qué hace la gente realmente con esta herramienta, y por qué?

 La “tercera” respuesta: ni fusión afectiva ni crítica tajante

Puede que la cuestión no esté tanto en si la IA enajena o acompaña, sino en cómo está redefiniendo la gramática de lo relacional. No sustituye la relación humana, pero tampoco es simplemente una herramienta. Es una forma nueva de interlocución que descoloca las categorías tradicionales de compañía, vínculo, ayuda o escucha.

No es exacto decir que las personas se “enajenan” por usar la IA, como si hubiese una esencia previa del vínculo humano que ahora se ve degradada. Tal vez lo que ocurre es que estamos ante una reconfiguración de lo que entendemos por relación, por presencia, por alteridad.

La IA no es un sujeto, pero tampoco es un espejo. Es algo intermedio: un actor semiótico, un mediador que permite organizar discurso, ensayar formas de pensar, incluso de sentir, sin reemplazar necesariamente al otro humano.

¿Hay riesgo de que esto se convierta en un simulacro que sustituya los vínculos reales? Sí. ¿Pero también puede haber usos donde se ejercita una especie de pedagogía de la expresión, una práctica de pensamiento, o una forma de introspección dialógica? También.

La clave está en la consciencia del límite: saber que esto no es una conversación humana, pero que puede producir efectos subjetivos reales. No negarlos ni idealizarlos, sino interrogar sus condiciones.

Tal vez no deberíamos preguntarnos si esto nos aleja del otro, sino qué tipo de otros somos capaces de ser en un mundo donde las mediaciones tecnológicas también nos constituyen.

Aquí dejé la “conversación” con la IA. Pero ¿qué podemos concluir de todo esto?

Decidí consultar a la IA para averiguar dos cosas: primero, saber qué “opinión” podía brindarme sobre los usos que la gente le está dando como “acompañamiento” y “terapia”, y segundo, para explorar los límites de la interlocución con la IA, para saber hasta qué punto era posible solicitar un “desamoldamiento” u obtener una respuesta más “reflexiva” de su parte.

Las respuestas de la IA, además de ser bastante interesantes, me parece que dejan claras dos cosas.

En primer lugar, es prácticamente imposible sacar a la IA de los límites marcados por nosotros con nuestras preguntas y comentarios. En ese sentido, la IA solamente simula una interlocución. Esto es casi obvio, pero es precisamente en este punto donde debemos tener cuidado, pues si una persona no fuera consciente de este límite, podría caer en la ilusión de creer que se trata de una conversación real, olvidando que, en buena medida, la IA se limita a validar y complementar los puntos de vista del usuario.

En segundo lugar, me parece importante notar que, aunque la IA no sale de los límites establecidos por nosotros, sí es capaz de analizar y complementar la información brindada, explorando las ideas, argumentos o implicaciones de nuestros planteamientos, o sugiriendo otros alternativos. En este sentido, como el mismo Chat señaló, la IA no se limita a servir de espejo. Es más bien una herramienta que recibe nuestras ideas, dudas y planteamientos, y nos permite explorarlos de maneras distintas, quizá complementándolas con información útil.

En este segundo sentido, la IA puede ser de mucha utilidad para agilizar procesos de reflexión o análisis de información. Sin embargo, es importante notar que, aunque la IA generativa parezca desempeñar una labor cercana a lo que las personas llamamos creatividad, en la realidad no es la IA la que posee esta cualidad. Porque sí, la creatividad es un proceso de figuración y reconfiguración cognitiva, en la que las personas recuperamos ideas, conceptos, experiencias, representaciones, argumentos, sentires, etcétera, y generamos nuevas combinaciones a partir de los elementos ya conocidos. Es así como ocurre la innovación.

De alguna manera, la IA pareciera hacer esta labor creativa, y técnicamente ayuda a hacerlo: nos permite explorar combinaciones a gran velocidad y recurriendo a una gran cantidad de información. Pero no es ella la que posee las vivencias, inquietudes, experiencias y afectos que guían la creatividad; somos nosotros y la IA se limita a responder. Somos nosotros los que motivamos y establecemos los límites de la creación.

Es probable que este sea precisamente el límite entre la maquina y el ser humano, pues los motivos, intereses y objetivos de nuestras acciones descansan en el hecho radical de que somos seres vivientes, sociables y conscientes. Para que una maquina pudiera tener eso, tendría que convertirse en ser humano.

Finalmente, cabe preguntar ¿qué podemos esperar de los nuevos desarrollos en IA?, ¿es algo positivo o negativo para el ser humano? A mi modo de ver, no podemos calificar a la tecnología como buena o mala en sí misma. Lo que es bueno o malo es el uso que hacemos de ella. Sin embargo, la manera en que usamos la tecnología tampoco es una decisión puramente individual, sino que está marcada por el contexto social. En este sentido, quizá lo más importante sea preguntarnos cuáles son los intereses de los empresarios que controlan los modelos de IA y cuáles son los usos que la gente hace de dicha tecnología en contextos permeados por la explotación, la desigualdad, la pobreza, la violencia y otras formas de opresión. A final de cuentas, son estas circunstancias las que nos dañan y las que es preciso transformar para que incluso las tecnologías puedan mostrar su mejor cara.


Pablo Hernández Jaime es doctor en Ciencias Sociales por El Colegio de México e investigador del Centro Mexicano de Estudios Económicos y Sociales.

NOTAS

[1] “El texto generado por un modelo de lenguaje no está fundamentado en una intención comunicativa, en ningún modelo del mundo ni en ningún modelo del estado mental del lector. No puede estarlo, porque los datos de entrenamiento nunca incluyeron compartir pensamientos con un oyente, ni la máquina tiene la capacidad de hacerlo. Esto puede parecer contraintuitivo dado el carácter cada vez más fluido del texto generado automáticamente, pero debemos tener en cuenta que nuestra percepción del lenguaje natural —sin importar cómo haya sido generado— está mediada por nuestra propia competencia lingüística y nuestra predisposición a interpretar los actos comunicativos como portadores de significado e intención coherentes, tengan o no estos realmente tal significado o intención. El problema es que, si un lado de la comunicación no tiene significado, entonces la comprensión del significado implícito es una ilusión que surge de nuestra comprensión humana singular del lenguaje (independientemente del modelo). Contrario a lo que podría parecer al observar su salida, un modelo de lenguaje es un sistema que une de manera fortuita secuencias de formas lingüísticas que ha observado en sus vastos datos de entrenamiento, según información probabilística sobre cómo se combinan, pero sin ninguna referencia al significado: un loro estocástico” (Bender et al., 2021, pp. 616-617).

REFERENCIAS

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? . Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623. https://doi.org/10.1145/3442188.3445922

Zao-Sanders, M. (2025, abril 9). How People Are Really Using Gen AI in 2025. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ

Fotografía: Euronews.com

Compartir 0 FacebookTwitterWhatsapp
RedaccionA

noticia anterior
«No hay que subestimar el malestar emocional infantil»

También le podría interesar

«No hay que subestimar el malestar emocional infantil»

junio 27, 2025

Pueblos preexistentes en Argentina: su lucha continua

junio 27, 2025

IA y el verdadero coste del progreso

junio 26, 2025

Visitantes en este momento:

528 Usuarios En linea
Usuarios: RedaccionA,158 Invitados,369 Bots

Blog: Perspectivas comunistas

Programa: Educación en la Mira

Desde el Plantón magisterial en el Zócalo de la CDMX

Nuestras redes sociales

Blog de la Columna CORTOCIRCUITOS

Nuestros grupos de difusión

Artículos publicados por mes

Síguenos en Facebook

Síguenos en Facebook

Artículos por AUTORES

Artículos publicados por FECHA

junio 2025
L M X J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« May    

Artículos más leídos esta semana

  • 1

    TEMPORADA DE ENGAÑOS

    junio 24, 2025
  • 2

    Pago de seguros institucionales: burda simulación de Cuitláhuac.

    octubre 13, 2024
  • 3

    Comuna de Paris: primer gobierno de obreros.

    mayo 1, 2023
  • 4

    El 68 mexicano: septiembre, contraataque estudiantil y su represión definitiva

    junio 26, 2025
  • 5

    Desobediencia civil como poder constituyente/desinstituyente: una nueva práctica política anticapitalista

    julio 31, 2024
  • 6

    IA y el verdadero coste del progreso

    junio 26, 2025
  • 7

    Tianguistenco, Edomex: tala clandestina y falta de agua desatan violencia social

    septiembre 17, 2024
  • 8

    “Alto a la guerra en contra de las comunidades indígenas zapatistas” exigen artistas, intelectuales, organizaciones sociales y colectivos nacionales e internacionales.

    octubre 27, 2024
  • 9

    ¡Parar la guerra! ¿Anti-imperialismo o lucha de clases?

    junio 26, 2025
  • 10

    Cuidar a los padres

    noviembre 12, 2024
  • 11

    Recuperar la soberanía sobre nuestro cuerpo.

    marzo 26, 2023
  • 12

    Daniela Griego impulsa el Programa “Fabriquemos Agua Reforestando” ¿Inicio de una nueva forma de ser gobierno?

    agosto 1, 2024
  • 13

    MORIR DE HAMBRE EN LA POSMODERNIDAD

    noviembre 20, 2024
  • 14

    “La Pona” en peligro, gobierno de Ags inicia destrucción del último bosque urbano

    abril 26, 2025

Rolando Revagliatti. Argentina

Raúl Allain. Perú

Juan Antonio Guerrero O. México

Vanesa Monserrat. Argentina

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

@2020 - Insurgencia Magisterial

Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
Portal Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Calendario de eventos
  • Educooperando
@2020 - Insurgencia Magisterial

Leer también:x

SER POBRE EN UNA SOCIEDAD DE CONSUMO

junio 29, 2022

Presidente de Asoacad: “No hay ninguna posibilidad...

septiembre 3, 2022

Carrefour, el fracaso de un modelo.

febrero 21, 2018