¿Qué hay sobre la mesa? Cinco líneas de acción fáciles de entender.
- Red voluntaria de influencers. No serán portavoces oficiales, sino creadores que aceptan un compromiso básico: conocer reglas de la UE, distinguir publicidad de contenido orgánico, evitar bulos y advertir cuando un video o audio pueda ser un deepfake. Su aporte es pedagógico: explicar cómo verificar una foto y promover hábitos sanos de consumo digital.
- Coordinación de verificadores independientes. Hoy existen equipos que revisan datos, pero trabajan dispersos. La UE impulsa una red para detectar más rápido, campañas coordinadas, compartir métodos y ofrecer contexto comprensible. El énfasis está en la evidencia: por qué un dato es falso, qué documento lo contradice y cuál es la versión correcta.
- Protocolos bajo el Reglamento de Servicios Digitales (DSA). Si una plataforma permite que se viralicen contenidos manipulados que ponen en riesgo un proceso cívico, la Comisión Europea puede pedir información, abrir investigaciones y exigir mitigaciones. El DSA no regula ideas, regula riesgos: transparencia algorítmica, manejo de cuentas falsas y reducción de daños en momentos sensibles.
- Respaldo a medios independientes. La Comisión admite que muchos medios están bajo presión por la concentración publicitaria en grandes plataformas. Por eso plantea instrumentos financieros y medidas de competencia para evitar abusos. Un medio con músculo investiga mejor, corrige a tiempo y sirve de barrera frente al rumor.
- Protección del terreno electoral. Habrá guías para el uso de inteligencia artificial en campañas, más transparencia en la financiación política y coordinación con los Estados para anticipar ataques. En Europa y su vecindad se denunciaron operaciones externas —la Comisión menciona a Rusia— con ciberataques, redes de cuentas falsas y videos manipulados para erosionar la confianza.
¿Por qué traer a los influencers a esta conversación? Porque la gente ya se informa a través de ellos. Si usan buenas prácticas —separar opinión de datos, marcar contenido patrocinado, citar origen de cifras—, su alcance se convierte en escudo. Si no, pueden amplificar engaños. El plan busca inclinar la balanza hacia el lado responsable.
Para el público, el beneficio es práctico. Si circula un video espectacular, un creador muestra cómo comprobar el origen, un verificador publica la evidencia y un medio aporta contexto. No hace falta borrar el contenido para que pierda fuerza: basta con que la versión verificada llegue igual de lejos y antes de que el daño sea irreversible.
¿Y los límites? Tres candados sostienen el enfoque: participación voluntaria, independencia editorial y transparencia. Voluntaria, porque nadie está obligado a sumarse. Independencia, porque medios, verificadores e influencers conservan su línea y pueden criticar a los gobiernos. Transparencia, porque plataformas y reguladores deben explicar qué deciden y por qué.
También hay preguntas abiertas. ¿Cómo evitar que un gobierno use estas herramientas para castigar adversarios? Con auditorías externas, criterios públicos y trazabilidad de cada intervención. ¿Qué pasa si una plataforma no coopera? El DSA prevé sanciones. ¿Y si un influencer miente? No habrá “policía del pensamiento”, pero sí responsabilidad: las comunidades premian la credibilidad y las marcas se alejan del contenido dudoso.
En síntesis, Bruselas no promete un mundo sin mentiras. Propone un ecosistema donde los engaños tengan menos espacio para crecer: cooperación entre creadores, verificadores y medios; plataformas que rinden cuentas; y normas que protegen el voto y la conversación pública. No es una guerra contra opiniones, sino una defensa frente a campañas coordinadas que buscan confundir y desgastar la democracia.
Ahora la discusión nos toca a todos, de Paraguay al mundo: ¿esto es un paso hacia la censura o una forma de protección ciudadana? Participá. Opiná. Ahora en la redes de La Tribuna (X, IG y Facebook).


