Op-Ed: La jaula digital: el internet te está robando la paz y ni te das cuenta
La jaula digital: cómo las redes sociales están secuestrando tu tranquilidad sin qué te des cuenta
Op-ed por Angela Malpi
Violencia, política y ruido constante en línea te están matando la paz interna y volviéndote miserable
Yo no estaba intentando compartir violencia.
No estaba glorificando nada.
No estaba promoviendo odio, conflicto, ni nada peligroso.
Yo estaba intentando bloquearlo.
Como a muchas personas, abrí TikTok y me apareció una y otra vez el mismo tipo de contenido: videos tensos, agresivos, que te disparan la ansiedad — violencia policial y violencia contra la policía, enfrentamientos, arrestos, caos, gritos, miedo. Un tipo de contenido diseñado para engancharte aunque te haga sentir peor, como si el sistema supiera exactamente qué te altera… y lo empujara con más fuerza.
Entonces hice lo que estas plataformas dicen que podemos hacer:
Intenté tomar control de lo que veo.
Tomé una captura de pantalla para preguntarle a ChatGPT algo súper básico:
“¿Dónde están los tres puntitos? ¿Cómo bloqueo esta cuenta? ¿Cómo evito que esto me aparezca?”
Pero en lugar de ayuda, me encontré con otro muro.
No fue TikTok quien me bloqueó… fue ChatGPT quien bloqueó la imagen.
Y aquí viene lo absurdo: la captura no tenía nada gráfico. No había sangre. No había armas. No había nada explícito. Solo tenía texto: Venezuela y un hashtag: #LosQueremosDeVuelta.
Eso fue suficiente para activar un filtro automático.
Y ahí te das cuenta de que ya vivimos en un ecosistema digital donde pasan dos cosas al mismo tiempo:
- TikTok puede inundarte de contenido duro — violencia policial, violencia contra la policía, confrontación, tensión — aunque tú no lo busques.
- Pero cuando intentas protegerte, los sistemas de “seguridad” te tratan como si tú fueras el problema.
Es como si te obligaran a mirar un incendio… y luego te negaran el extintor porque detectaron la palabra “fuego”.
La ilusión de control
Las plataformas aman vendernos la idea de que tenemos poder:
- “Personaliza tu feed.”
- “Marca ‘No me interesa’.”
- “Bloquea cuentas.”
- “Filtra contenido.”
Pero la realidad se siente muy distinta cuando estás ahí, atrapado en ese ciclo.
El algoritmo no es neutral. Premia lo intenso. Premia lo que genera reacción inmediata. Premia lo que te acelera el corazón, lo que te deja con rabia, con miedo o con ansiedad. Y la violencia — especialmente cuando involucra policía, conflicto o caos — es un gancho perfecto para retener atención.
Luego te dan herramientas pequeñas para pelear contra una máquina enorme, como si bastara un clic para desactivar un sistema diseñado para empujarte justo lo que más te altera.
TikTok incluso dice que puedes mantener presionado un video y seleccionar “No me interesa” para influir en las recomendaciones.
Pero cualquiera que haya caído en ese túnel sabe que el “Para ti” tiene inercia. No se detiene con un solo toque. A veces necesitas repetirlo diez veces, veinte veces, para que el algoritmo entienda que no quieres ese veneno.
Filtros de seguridad que no entienden el contexto
Y aquí entra el segundo problema: la moderación automática.
En teoría, estos filtros existen para proteger a la gente de material dañino: violencia gráfica, amenazas, explotación.
Pero cada vez es más evidente que funcionan como alarmas ciegas: detectan palabras, no intención.
El sistema no entiende algo tan básico como esto:
Una captura de pantalla puede ser para reportar algo.
Puede ser para bloquear algo.
Puede ser el primer paso para cuidarte.
En lugar de eso, el filtro ve “Venezuela” y un hashtag, y decide bloquear la imagen como si estuvieras difundiendo propaganda o incitando violencia.
Eso no es seguridad. Eso es diseño defectuoso.
No está protegiendo a las personas de la violencia.
Está protegiendo al sistema de tener que comprender matices.
El resultado: ni siquiera te dejan escapar de lo que no pediste
Este es el punto que nadie quiere decir en voz alta:
Las plataformas pueden meterte contenido violento en la cara más rápido de lo que tú puedes bloquearlo… y cuando pides ayuda, te bloquean también.
Así, el usuario queda atrapado en una situación absurda:
- No puedes controlar tu feed lo suficientemente rápido.
- No puedes bloquear de forma clara y consistente.
- Ni siquiera puedes subir una captura para pedir ayuda sin que un filtro automático te cierre la puerta.
El costo emocional lo paga el usuario.
La plataforma se queda con el engagement.
El sistema se queda con su “cumplimos con seguridad.”
Y tu mente se queda con el daño.
Cómo se vería una seguridad real
La seguridad real no es censurar palabras al azar.
La seguridad real sería:
- Poder bloquear cuentas con un toque, de forma visible y simple
- Filtrar temas violentos de manera agresiva (incluyendo violencia policial y violencia contra la policía)
- Permitir capturas de pantalla para pedir ayuda o hacer troubleshooting sin castigar al usuario
- Diseñar herramientas que pongan el bienestar mental por encima del engagement
Porque ahora mismo, la “seguridad” se siente como teatro.
TikTok te muestra violencia.
Y cuando intentas salirte… el sistema también te cierra la puerta.
Eso no es protección.
Eso es una jaula.


