El domingo 22 de febrero de 2026, un operativo federal derivó en una reacción violenta posterior y, en cuestión de horas, se registraron bloqueos carreteros, incendios de vehículos y hechos violentos en múltiples puntos del país, con afectaciones relevantes a la movilidad y a la vida cotidiana. [4] [5] En escenarios así, la incertidumbre “real” (eventos verificables, riesgos en territorio) convive con una incertidumbre informativa: audios, mensajes reenviados, supuestos “testimonios” y relatos sin fuente que, en cuestión de minutos, pueden modificar conductas (salir o no salir, tomar o no una ruta, cerrar o no un negocio, colapsar líneas de emergencia). En la cobertura de aquellos hechos se documentó que la desinformación amplificó la inquietud pública, sumando presión emocional a una jornada ya tensa. [5]
Este artículo responde a una pregunta central para la comunicación de crisis y las relaciones públicas: ¿qué motiva a personas (no gobiernos ni empresas) a difundir, compartir o incluso generar “noticias” falsas durante episodios de alto riesgo? La respuesta, como muestran la psicología social y la ciencia de la información, rara vez es unidimensional: suele ser una combinación de emociones, sesgos cognitivos, necesidades sociales (estatus, pertenencia, identidad) y dinámicas de red (viralidad, grupos de mensajería, “prueba social”). [6]
De “noticias falsas” a desorden informativo
En investigación y política pública se recomienda cautela con el término “noticias falsas” (“fake news”) porque mezcla fenómenos distintos: errores honestos, propaganda deliberada, manipulación y contenido fuera de contexto, entre otros. En su lugar, se usa con frecuencia el marco de desorden informativo (“information disorder”), que distingue al menos tres categorías: misinformation (información falsa o inexacta, compartida sin intención de dañar), disinformation (información falsa creada o difundida con intención de engañar) y malinformation (información basada en hechos reales, usada de forma dañina, por ejemplo, para hostigar o criminalizar). [7]
Esta distinción importa para relaciones públicas porque las motivaciones de quien comparte no son las mismas que las motivaciones de quien fabrica. En crisis de seguridad, muchas personas no comparten por “malicia estratégica”, sino por una mezcla de miedo, urgencia, solidaridad mal calibrada (“te aviso para que te cuides”) y por el enorme valor social que tienen los hallazgos “exclusivos” en chats y redes. [10] [17]
También conviene incorporar la noción de infodemia, acuñada en salud pública para describir un exceso de información —incluyendo información falsa o engañosa— que produce confusión y erosiona la confianza, debilitando la respuesta colectiva. Aunque su definición formal se originó en brotes de enfermedad, el mecanismo (sobrecarga + incertidumbre + ansiedad + baja confianza) es altamente transferible a crisis de violencia y seguridad. [9] [34]
Motivaciones psicológicas individuales
La evidencia sugiere que, en personas comunes, compartir o generar contenido falso rara vez se explica por un solo rasgo (“ser mala persona”). Con más frecuencia, aparece como un comportamiento funcional (aunque riesgoso) que satisface necesidades psicológicas inmediatas.
1) Reducir ambigüedad y recuperar sentido
Clásicamente, la psicología del rumor plantea que este “viaja” cuando el tema es importante para la vida de las personas y cuando la evidencia es ambigua (falta de claridad, versiones contradictorias, dificultad para comprender qué ocurre). Además, se subraya que el rumor no es solo “sustituto” de información: expresa también una búsqueda de explicaciones (“esfuerzo por significado”) y una necesidad de “cierre” ante el caos. [10]
2) Regular emociones intensas
En la misma línea clásica se describen “familias” de rumores impulsadas por ansiedad, esperanza/deseo y hostilidad, donde la narración (aunque sea falsa) ayuda a procesar miedo, anticipar amenazas o justificar un enojo. De forma complementaria, estudios contemporáneos sobre viralidad y difusión muestran que el contenido con emociones de alta activación (por ejemplo, ansiedad/ira) tiende a compartirse más. [10] [20]
3) Desatención a la precisión al momento de compartir
Experimentos y revisiones proponen que una parte significativa de la difusión de desinformación ocurre no porque la persona “crea” firmemente lo falso, sino porque, en el entorno de scroll y reenvío, la decisión se guía por señales sociales (quién lo envía, si “suena importante”, si “podría ayudar”) más que por una verificación mínima. Intervenciones simples que redirigen la atención a la exactitud (“accuracy nudges”) mejoran la calidad de lo que la gente decide compartir, lo cual respalda la hipótesis de que, muchas veces, el problema es inatención, no necesariamente ideología o maldad. [12] [33]
4) Normalización moral por repetición
Cuando un mensaje se vuelve ubicuo (“me lo han mandado cinco veces”), puede sentirse “menos grave” reenviarlo. Experimentos en psicología social han encontrado que la exposición repetida a titulares engañosos puede reducir la percepción de que sería poco ético publicarlos o compartirlos, incluso cuando no se cree plenamente en ellos. [13] [39]
5) Estatus, influencia y poder social
En redes, compartir “primicias” puede convertirse en una forma de capital simbólico: ser quien “sabe”, quien “advierte”, quien “protege” al grupo. Un estudio halló que motivos de poder se asocian con sobrecompartir publicaciones y titulares, incluyendo desinformación, y con una búsqueda explícita de influencia (“actuar como broker”). [14]
6) Identidad social
En temas politizados o altamente tribales, sostener o difundir una narrativa puede funcionar como señal de pertenencia (“estoy con mi grupo”), aunque la exactitud sea secundaria. La literatura sobre “cerebro partidista” describe cómo la identidad puede sesgar procesos cognitivos y favorecer lealtad por encima de verdad en ciertos contextos. [15]
7) Distinción y unicidad (en ciertos perfiles)
Para algunas personas, creer o difundir explicaciones “ocultas” puede satisfacer el deseo de poseer información escasa (“yo sé lo que otras personas no”), lo que se ha observado en investigación sobre creencias conspirativas y necesidad de unicidad. [16]
Factores sociales y dinámicas de red que vuelven “atractivo” lo falso
Aunque el foco aquí son las personas, su comportamiento se potencia por el ambiente social y tecnológico. En redes y mensajería, la difusión se acelera por cuatro fuerzas principales.
1) Prueba social
“Si ya lo reenviaron muchas personas, debe ser cierto o, al menos, ‘por algo lo dicen’”. Fuentes divulgativas basadas en evidencia sintetizan que la gente comparte más desinformación cuando encaja con identidad o normas sociales percibidas, cuando es novedosa y cuando dispara emociones fuertes. [17]
2) Ventaja estructural de lo falso en viralidad
Un estudio masivo observó que la información falsa puede difundirse más lejos, más rápido y con mayor profundidad que la verdadera, y que el componente de novedad funciona como motor relevante; además, los bots no explican por sí solos el fenómeno, lo que sugiere un rol central del comportamiento humano. [19]
3) Lenguaje moral-emocional como combustible
Investigación en redes sociales ha mostrado que expresiones con carga moral y emocional incrementan la propagación del contenido, lo que ayuda a entender por qué “alertas” dramáticas (aunque infundadas) viajan mejor que rectificaciones sobrias. [20]
4) Arquitectura de mensajería privada (WhatsApp)
En WhatsApp, el cifrado y el diseño dificultan monitoreo público y corrección visible; los mensajes circulan por confianza interpersonal (familia, amistades, vecindario), lo que eleva su “credibilidad subjetiva”. Un estudio empírico en México documentó que muchos mensajes de desinformación en WhatsApp eran visuales (imágenes o videos) y que esos materiales migraban a otras plataformas, reforzando la idea de que el formato “rápido de consumir” y “fácil de reenviar” es clave. [22]
A esto se suma un problema conocido en psicología: incluso corregida, la desinformación puede dejar un efecto persistente en el razonamiento (continued influence effect), de modo que “desmentir” no siempre revierte del todo la huella cognitiva y emocional del primer mensaje. [23]
La dinámica de compartir falsedades “por destacar”
Además del miedo, en redes existe una motivación social muy concreta: destacar. Compartir primero, compartir “lo que no sale en medios”, o compartir con tono de alerta puede otorgar “capital social”: atención, gratitud, reputación de “persona informada” o incluso capacidad de influir en decisiones del grupo (“no salgan”, “cierren”, “cambien ruta”). [14]
Esa búsqueda de destaque se potencia con dos aceleradores:
a) Novedad: lo sorprendente y novedoso se reenvía más, y la información falsa suele presentarse como “exclusiva”. [19]
b) Lenguaje moral-emocional: el contenido que activa indignación, miedo u “obligación moral” tiende a viajar más. [20]
Hay, además, una tensión especialmente relevante para relaciones públicas: aunque compartir falsedades puede “dar visibilidad” en el corto plazo, también puede dañar reputación si el grupo percibe que la persona desinforma. En contextos donde la confianza es un activo, la ligereza informativa suele cobrarse factura. [23]
Lecciones del episodio del 22 de febrero de 2026 en México
Los hechos del 22–23 de febrero de 2026 ofrecen un caso didáctico: un evento real, grave y rápido, con un ecosistema informativo saturado.
Hechos verificables y “zona gris” informativa
De acuerdo con reportes periodísticos, tras la muerte del líder criminal se registraron represalias con bloqueos e incendios en distintas regiones; se describieron escenas de carretera bloqueada, incendios y llamados a resguardarse. [4]
En información atribuida a un reporte del Gabinete de Seguridad difundido por prensa local, se habló de 252 bloqueos en 20 entidades y de una concentración importante en el estado de Jalisco (65), así como de la intervención coordinada de fuerzas federales y locales para liberar vialidades. [25]
En paralelo, medios registraron que circulaban contenidos falsos o fuera de contexto, y autoridades llamaron explícitamente a evitar difundir información falsa y a consultar canales oficiales. [26]
Un indicador concreto de cómo opera la desinformación en crisis es el rumor de cancelación de un evento: circuló información sobre la supuesta cancelación del Abierto Mexicano Telcel de Acapulco, y la organización lo desmintió públicamente, pidiendo verificar solo en fuentes oficiales. [28]
Por qué, en ese contexto, prosperan narrativas como “infiltrados disfrazados”
Este tipo de rumor —personas criminales disfrazadas de personal público, retenes improvisados, amenazas masivas— suele prosperar cuando se combinan alto miedo, altísima relevancia personal (seguridad propia y de la familia) y vacíos de información confirmada, exactamente el escenario que la psicología clásica del rumor identifica como fértil para la propagación. [10]
Además, el rumor se vuelve verosímil cuando conecta con hechos previos reales (aunque no relacionados con el evento del día). Por ejemplo, a inicios de febrero de 2026 se viralizó un caso de delincuentes que se hicieron pasar por “trabajadores de limpia” para cometer un robo en una casa en la alcaldía Gustavo A. Madero; ese tipo de antecedentes puede “preparar” a una comunidad para aceptar con menos fricción la idea de “disfraces operativos”, aun sin evidencia de que ocurra en el episodio específico. [31]
Importante: durante la jornada del 22–23 de febrero de 2026 circularon contenidos falsos y hubo llamados oficiales y mediáticos a no propagar desinformación; sin embargo, no siempre existe un desmentido “uno a uno” para cada variante de rumor, porque se fragmentan en decenas de audios y capturas que cambian más rápido que la verificación institucional. [32]
En términos de gestión de crisis, esta limitación no es un detalle menor: significa que esperar a “desmentir todo” es, en la práctica, llegar tarde. Por eso, el enfoque más eficaz no consiste únicamente en reaccionar, sino en reducir la ambigüedad, ordenar el flujo informativo y ofrecer rutas claras de acción para las audiencias. Dicho de otro modo: frente al desorden informativo, la tarea de relaciones públicas es producir claridad operativa, sostener confianza y evitar que el vacío sea ocupado por narrativas no verificadas. Con esa lógica, a continuación, se propone un decálogo de acciones concretas, aplicables en oficinas, despachos y equipos de comunicación que trabajan en entornos de riesgo reputacional y de seguridad.
Decálogo de acciones para profesionales de relaciones públicas
Las siguientes diez acciones están diseñadas para oficinas, despachos y clientelas que operan en entornos de riesgo reputacional y de seguridad. Se apoyan en evidencia sobre desinformación (nudges, inoculación/prebunking, psicología del rumor) y en principios de comunicación de riesgos (rapidez, claridad, empatía, coordinación). [33] [35]
1) Instalar un “protocolo de triaje” informativo (verificar antes de difundir)
Definan una ruta breve y obligatoria: recibo → clasifico (rumor/alerta/petición) → verifico con dos fuentes → publico la postura. La psicología del rumor muestra que la ambigüedad y la importancia disparan circulación; un triaje reduce la ambigüedad interna antes de contribuir al ruido externo. [10]
2) Crear una “fuente única de verdad” y actualizarla con cadencia fija
En crisis, el silencio se llena con especulación. Una página o hilo oficial (sitio, micrositio, comunicado vivo) con hora/fecha y tres apartados (“qué sabemos / qué no sabemos / qué estamos verificando”) reduce el vacío y desincentiva rumores. Esto se alinea con principios de comunicación efectiva: ser accesible, oportuna, comprensible y confiable. [34]
3) Implementar escucha activa y bitácora de rumores (rumor log)
Registrar: rumor, canal, velocidad, audiencia, daño potencial, estatus de verificación y respuesta. Dado el efecto persistente de la desinformación, responder tarde equivale a responder cuando el daño ya se fijó en parte. [23]
4) Responder con una sola voz, coordinada con actorías clave
Coordinar clientela, personas aliadas, autoridades pertinentes y vocerías evita contradicciones que aumentan ambigüedad. En comunicación de riesgos se recomienda explícitamente “comunicar con una sola voz” y coordinar con aliados. [35]
5) Diseñar “mensajes reenviables” para chats: breves, verificables y con marca de origen
Construyan plantillas de alerta y desmentido: 5–7 líneas, un dato verificable, un “qué hacer ahora” y una firma/fuente. La evidencia sobre mensajería (y en particular WhatsApp) muestra el peso de formatos visuales y reenviables. [22] [36]
6) Aplicar “nudges de precisión” dentro de la organización y con vocerías comunitarias
Antes de reenviar, insertar la pausa: “¿qué evidencia lo respalda?, ¿de qué fecha es?, ¿cuál es la fuente primaria?”. Las intervenciones de atención a la precisión han mostrado mejoras en discernimiento de lo que se comparte. [33] [37]
7) Prebunking: anticipar tácticas típicas de rumor en crisis
Publicar preventivamente “señales de alerta”: capturas sin fuente, imágenes fuera de contexto, audios “de un amigo en gobierno”, etc., y explicar cómo reconocerlas. La investigación sobre inoculación y prebunking muestra que prevenir puede aumentar resistencia a narrativas engañosas. [38]
8) No amplificar el rumor al desmentir: priorizar conductas seguras y hechos verificables
Cuando lo falso viaja por miedo, repetirlo puede reforzarlo por familiaridad. Desmentidos centrados en: (a) hecho verificado, (b) acción concreta, (c) canales oficiales para actualización. La evidencia muestra que repetición y exposición pueden facilitar normalización y persistencia. [13] [39]
9) Entrenar a equipos y clientelas en psicología del rumor, no solo en “fact-checking”
Capacitar en: importancia + ambigüedad, emociones de alta activación, identidad y estatus, y por qué el contenido moral-emocional se comparte más. Entender el “por qué” reduce atribuciones simplistas y mejora la eficacia de la respuesta. [10] [20] [40]
10) Cerrar el ciclo con evaluación y métricas de integridad informativa
Después del episodio: medir tiempo a primera postura, volumen de rumores neutralizados, correcciones efectivas, canales con mayor propagación y aprendizajes. El objetivo es institucionalizar resiliencia, como recomiendan marcos de gestión de infodemias y comunicación de riesgos. [41]
La difusión de desinformación en crisis de violencia no es una anomalía ni un “problema de gente desinformada” a secas: es el resultado previsible de un ecosistema donde convergen miedo, alta relevancia personal, ambigüedad, incentivos de estatus, y arquitecturas de red que favorecen lo urgente, lo emocional y lo reenviable. En ese contexto, la comunicación institucional no compite solo contra “mentiras”, sino contra un mecanismo social que intenta recuperar control y sentido cuando la realidad se percibe amenazante.
Por eso, el reto para relaciones públicas y comunicación de crisis es doble: informar y, al mismo tiempo, contener el daño que produce el ruido informativo. La apuesta no es aspirar a la perfección —nadie puede verificar cada audio a la velocidad con que se reproduce—, sino construir capacidad organizacional para responder con oportunidad, coherencia y humanidad: mensajes breves, verificables, accionables, y sostenidos en una fuente confiable y consistente.
Si algo deja claro el episodio de febrero de 2026 es que, cuando el vacío informativo se expande, “cualquier relato” puede convertirse en guía de conducta. El decálogo propuesto busca justamente lo contrario: que, incluso en escenarios complejos, las audiencias tengan claridad, las organizaciones mantengan credibilidad, y la respuesta colectiva no sea rehén del rumor
Maestro Felipe Reyes Barragan / Presidente del Capítulo México de la Asociación Latinoamericana de Relaciones Públicas / WhatsApp 524774499216
Referencias (1–41)
[1] [22] [36] Misinformation messages shared via WhatsApp in Mexico during the COVID-19 pandemic: an exploratory study – PubMed
https://pubmed.ncbi.nlm.nih.gov/37140349/
[2] [8] [10] [11] [18] [21] [29] [40] romolocapuano.com (Allport & Postman, rumor)
https://www.romolocapuano.com/wp-content/uploads/2018/10/ALLPORT_POSTMAN_AN-ANALYSIS-OF-RUMOR.pdf
[3] [33] Shifting attention to accuracy can reduce misinformation…
https://www.nature.com/articles/s41586-021-03344-2?utm_source=chatgpt.com
[4] [24] [27] Reuters: Mexican drug lord killing sparks revenge attacks; cars and businesses set ablaze, highways blocked
https://www.reuters.com/world/americas/mexican-drug-lord-killing-sparks-revenge-attacks-cars-businesses-set-ablaze-2026-02-23/
[5] El País México: México regresa a la normalidad tras el desafío del narco al Estado
https://elpais.com/mexico/2026-02-23/el-gobierno-de-sheinbaum-anuncia-el-regreso-de-la-normalidad-con-el-fin-de-los-bloqueos-en-carreteras.html
[6] The science of fake news
https://comunicacaoeleitoral.ufpr.br/wp-content/uploads/2018/03/Lazer-et-al-2018-The-science-of-fake-news.pdf?utm_source=chatgpt.com
[7] Information disorder: Toward an interdisciplinary framework…
https://edoc.coe.int/en/media/7495-information-disorder-toward-an-interdisciplinary-framework-for-research-and-policy-making.html?utm_source=chatgpt.com
[9] Infodemic (WHO)
https://www.who.int/health-topics/infodemic?utm_source=chatgpt.com
[12] [37] Nudging Social Media toward Accuracy – PMC – NIH
https://pmc.ncbi.nlm.nih.gov/articles/PMC9082967/?utm_source=chatgpt.com
[13] [39] Encountering Fake-News Headlines Makes Them Seem… (PubMed)
https://pubmed.ncbi.nlm.nih.gov/31751517/?utm_source=chatgpt.com
[14] Why do people share (mis)information? Power motives in social media – ScienceDirect
https://www.sciencedirect.com/science/article/pii/S0747563224003212
[15] The Partisan Brain: An Identity-Based Model of Political Belief – ScienceDirect
https://www.sciencedirect.com/science/article/pii/S1364661318300172
[16] “I Know Things They Don’t Know!”: The Role of Need for…
https://econtent.hogrefe.com/doi/10.1027/1864-9335/a000306?utm_source=chatgpt.com
[17] How and why does misinformation spread? (APA)
https://www.apa.org/topics/journalism-facts/how-why-misinformation-spreads?utm_source=chatgpt.com
[19] The spread of true and false news online (Science)
https://www.science.org/doi/10.1126/science.aap9559?utm_source=chatgpt.com
[20] Emotion shapes the diffusion of moralized content in social… (PNAS)
https://www.pnas.org/doi/10.1073/pnas.1618923114?utm_source=chatgpt.com
[23] The psychological drivers of misinformation belief and its resistance to correction (Nature Reviews Psychology)
https://www.nature.com/articles/s44159-021-00006-y
[25] El Informador: Jalisco concentró la mayoría de bloqueos…
https://www.informador.mx/mexico/jalisco-concentro-la-mayoria-de-bloqueos-en-la-region-tras-la-caida-de-el-mencho-gabinete-de-seguridad-20260222-0172.html
[26] [32] El Informador: Mencho: Así amanece México tras caída…
https://www.informador.mx/jalisco/mencho-asi-amanece-mexico-tras-caida-de-nemesio-oseguera-este-lunes-20260223-0030.html
[28] AS.com: El Torneo de Acapulco desmiente su cancelación…
https://as.com/tenis/mas_tenis/el-torneo-de-acapulco-desmiente-su-cancelacion-tras-la-caida-de-el-mencho-en-jalisco-f202602-n/
[30] [35] Risk and Outbreak Communication – PAHO/WHO
https://www.paho.org/en/topics/risk-and-outbreak-communication?utm_source=chatgpt.com
[31] N+ / NMás: Detienen a falsos trabajadores de limpia…
https://www.nmas.com.mx/ciudad-de-mexico/detienen-a-5-personas-que-se-disfrazaron-de-personal-de-limpia-para-asaltar-casa-en-san-juan-de-aragon-gam/?utm_source=chatgpt.com
[34] WHO Strategic Communications Framework for effective…
https://www.who.int/docs/default-source/documents/communicating-for-health/communication-framework.pdf?utm_source=chatgpt.com
[38] Prebunking interventions based on “inoculation” theory can…
https://misinforeview.hks.harvard.edu/article/global-vaccination-badnews/?utm_source=chatgpt.com
[41] Risk communication, community engagement and… (WHO Europe)
https://www.who.int/europe/emergencies/our-work-in-emergencies/rcceim?utm_source=chatgpt.com



