
Manipulación y abuso en las redes sociales
Emilio Ferrara
Escuela de Informática y Computación, e Instituto de Ciencias de la Red de la Universidad de Indiana Universidad de Indiana, Bloomington, IN, EE. UU.
La comunidad de investigación en informática se ha interesado cada vez más en el estudio de las redes sociales debido a su omnipresencia en la vida cotidiana de millones de personas. Abundan las preguntas metodológicas y los desafíos técnicos a medida que más y más datos de las plataformas sociales están disponibles para su análisis.
Esta avalancha de datos no solo brinda la oportunidad sin precedentes de desentrañar preguntas sobre el comportamiento de las personas en línea a gran escala, sino que también permite explorar los peligros potenciales que la adopción masiva de las redes sociales trae a nuestra sociedad.
Estos canales de comunicación brindan muchos incentivos (tanto económicos como sociales) y oportunidades para el abuso. A medida que la actividad de las redes sociales se entrelazó cada vez más con los eventos del mundo fuera de línea, las personas y las organizaciones encontraron formas de explotar estas plataformas para difundir información errónea, atacar y difamar a otros, o engañar y manipular.
Durante las crisis, las redes sociales se han utilizado de manera efectiva para la respuesta de emergencia, pero las acciones de infundir miedo también han desencadenado histeria y pánico masivos. Las bandas criminales y las organizaciones terroristas como ISIS adoptan las redes sociales para propaganda y reclutamiento.
La actividad sintética y los bots sociales se han utilizado para coordinar campañas orquestadas de astroturf, para manipular las elecciones políticas y el mercado de valores.
La falta de sistemas efectivos de verificación de contenido en muchas de estas plataformas, incluidas Twitter y Facebook, genera preocupación cuando los usuarios más jóvenes se exponen al ciberacoso, el acoso o la incitación al odio, lo que genera riesgos como la depresión y el suicidio.
Este artículo ilustra algunos de los avances recientes que enfrentan estos problemas y analiza lo que queda por hacer, incluidos los desafíos a abordar en el futuro para hacer de las redes sociales un entorno más útil y accesible, más seguro y más saludable para todos los usuarios.
Introducción
Las redes sociales juegan un papel central en la vida social de millones de personas todos los días. Nos ayudan a conectarnos [Gilbert y Karahalios 2009; De Meo et al. 2014], acceder a noticias y compartir información [Kwak et al. 2010; Ferrara et al. 2013], conversar y discutir nuestros temas de interés [Ferrara et al. 2013; JafariAsbagh et al. 2014].
Podría decirse que la amplia adopción de las redes sociales trajo varios efectos positivos a nuestra sociedad: las redes sociales desempeñaron un papel fundamental durante las recientes movilizaciones sociales en todo el mundo [Conover et al. 2013; Conover et al. 2013], ayudando a democratizar la discusión de los problemas sociales [Varol et al. 2014]; se han utilizado durante emergencias para coordinar respuestas a desastres [Sakaki et al. 2010]; también han demostrado ser efectivos para mejorar la conciencia social sobre problemas de salud como la obesidad [Centola 2011], o aumentar la participación electoral durante elecciones políticas recientes [Bond et al. 2012].
Los investigadores en computación rápidamente se dieron cuenta de las nuevas oportunidades que trajo el auge de las redes sociales: combinando marcos computacionales, técnicas de aprendizaje automático y preguntas de las ciencias sociales y del comportamiento, hoy en día las ciencias sociales computacionales estudian el impacto de los sistemas sociotécnicos en nuestra sociedad. Lazer et al. 2009; Vespignani 2009].
Aunque se ha dedicado una gran cantidad de literatura al uso de las redes sociales [Java et al. 2007; Hubermann et al. 2008; Asur y Huberman 2010], solo recientemente nuestra comunidad comenzó a darse cuenta de algunos efectos potencialmente dañinos que el abuso de estas plataformas podría causar en nuestra sociedad. Debido a una mezcla de incentivos sociales y económicos, la falta de políticas efectivas contra el mal comportamiento y soluciones técnicas insuficientes para detectar e impedir el uso indebido a tiempo, las redes sociales se han caracterizado recientemente por un abuso generalizado. A continuación, ilustro cuáles son los peligros que surgen de algunas formas de abuso de las redes sociales, brindo ejemplos de los efectos de tales comportamientos en nuestra sociedad y discuto las posibles soluciones.
Desinformación, miedo, manipulación y abuso
El martes 23 de abril de 2013 a las 13:07 h. La cuenta oficial de Twitter de Associated Press (AP), una de las agencias de noticias más influyentes de Estados Unidos, publicó un tuit informando sobre dos explosiones en la Casa Blanca que supuestamente causaron que el presidente Barack Obama permaneciera herido.
El tuit cosechó varios miles de retuits en pocos minutos, y generó innumerables variantes que se propagaron sin control llegando a millones.
En el breve lapso de tiempo que tomó a otras agencias cuestionar la veracidad de esta noticia, y darse cuenta de que la cuenta de Twitter de AP había sido hackeada, el pánico de un ataque terrorista comenzó a cundir entre la población; como consecuencia directa, el Dow Jones se desplomó 147 puntos en cuestión de 3 minutos, una de las mayores caídas de puntos de su historia; poco después de la confirmación del hackeo, el Dow se recuperó pero el desplome borró $136 mil millones de dólares.
Este evento, capturado en la Fig. 1, es el primer caso reportado de desinformación a escala planetaria que se propaga con efectos tangibles en el mundo real y pérdidas económicas devastadoras. Una reivindicación posterior del Ejército Electrónico Sirio planteó preocupaciones sobre posibles formas nuevas de ciberterrorismo, aprovechando las redes sociales, con el objetivo de generar histeria masiva para desencadenar caídas del mercado.1
El hackeo de AP expuso los riesgos relacionados con la seguridad de las redes sociales de los ataques dirigidos a la suplantación de identidad o el robo de identidad. Sin embargo, lo que es más importante, mostró el poder y los efectos potencialmente peligrosos que tiene la conversación en las redes sociales en el mundo físico fuera de línea, especialmente en los mercados financieros frágiles y cada vez más interconectados. Este no fue un evento aislado: se han proyectado sombras [Hwang et al. 2012] sobre el papel de las redes sociales durante la infame caída repentina de la bolsa de valores en 2010,2 después de un informe no concluyente de la Comisión de Bolsa y Valores.3 Más recientemente, una empresa llamada Cynk Technology Corp experimentó la insondable ganancia de más de 36,000% cuando sus acciones de centavo aumentaron de menos de $0.10 a más de $20 por acción en cuestión de pocas semanas, alcanzando una capitalización de mercado de más de $6 mil millones.4 Investigaciones posteriores revelaron lo que parece ser un intento orquestado de promocionar el desempeño de las acciones a través de discusión en redes sociales, usando bots sociales y cuentas de spam [Ferrara et al. 2014; Yang et al. 2014]. La abundancia de contenido generado sintéticamente también tiene implicaciones directas para las empresas comerciales: las empresas de análisis e inteligencia comercial que utilizan las señales de las redes sociales para el análisis de mercado (por ejemplo, para predecir qué tan bien le irá a una película en la taquilla [Asur y Huberman 2010; Mestya´n et al., 2013], o para determinar cómo está siendo recibido un nuevo programa de televisión por su público objetivo) ven sus resultados afectados por el ruido que producen las cuentas sintéticas/spam.5
La presencia de bots sociales en las redes sociales socava las raíces mismas de nuestra sociedad de la información: pueden emplearse para falsificar el apoyo político de base (un fenómeno llamado astroturf) [Ratkiewicz et al. 2011; Ratkiewicz et al. 2011], o para llegar a millones de personas mediante el uso de algoritmos automatizados ajustados para una interacción óptima. Un ejemplo reciente lo proporciona ISIS, que está utilizando bots sociales para propaganda y reclutamiento [Berger y Morgan 2015], adoptando diferentes estrategias de manipulación según los objetivos de sus campañas.6 Los esfuerzos continuos de nuestra comunidad para luchar contra los bots sociales y la actividad sintética se resumen en una encuesta reciente [Ferrara et al. 2014].

Fig. 1. El tuit falso que provocó la caída del Dow Jones el 23 de abril de 2013 en 3 minutos borró $136 mil millones de dólares en valor bursátil.
La difusión de campañas de manipulación tiene efectos sociales abrumadores. En la política, por ejemplo, se han perpetrado ataques difamatorios para difamar a los candidatos y dañar su imagen pública durante varias elecciones, incluida la elección especial del Senado de Massachusetts de 2009 [Metaxas y Mustafaraj 2012] y la elección del Senado de EE. UU. de 2010 [Ratkiewicz et al. 2011], mientras que los gobiernos y otras entidades intentaron manipular la percepción pública sobre los obstáculos sociales7,8. La dinámica viral de la difusión de información en las redes sociales ha sido objeto de estudios recientes [Weng et al. 2013; 2014], sin embargo queda mucho por hacer para comprender cómo contener o dificultar la difusión de campañas peligrosas, incluidas las engañosas y las secuestradas.9,10

Fig. 2. La necesidad de difusión de información en Twitter (RTs y MTs).

Fig. 3. La difusión de contenido rico en miedo en diferentes comunidades de Twitter (RT y MT).
Tiempo | Contenido |
2014-10-17 13:33:57 | @FoxNews ¿POR QUÉ NO INFORMA QUE EL CRUCERO ESTÁ SIENDO NEGADA LA ENTRADA A BELICE? ¡CRUCIAL PARA CERRAR NUESTRAS FRONTERAS! |
2014-10-17 13:39:44 | @FoxNews Esos trabajadores de hc están totalmente chiflados. ¿Hoy deciden decirle a alguien que manipularon especímenes de ébola pt, especialmente en el barco y no están enfermos? |
2014-10-17 13:40:38 | @NBCNews Muchos países rechazan la entrada de vuelos de países del ébola. ¿Por qué no le preguntas a WH sobre su loca política? |
2014-10-17 13:56:20 | @CNN ¿Por qué dos médicos tratados por ÉBOLA e INFECTADOS a nadie más, incluido CARE GIVERS pero no es el mismo caso para TX? ¿Quién la cagó? |
2014-10-17 13:59:20 | @FoxNews ¿Están pagando dinero a estas posibles víctimas del ébola para subir a barcos y aviones? Estoy empezando a preguntarme realmente ¡DIOS MÍO! Él cld b infectado |
2014-10-17 14:09:03 | @NBCNews: ¿Quién es el hombre vestido de civil? durante el traslado de un paciente de #Ebola? vía @NBCDFW |
Tabla I. Ejemplos de tuits preocupados o llenos de miedo difundidos durante la emergencia del ébola del 17 de octubre de 2014.
Las redes sociales se han adoptado ampliamente durante crisis y emergencias [Hughes y Palen 2009], en particular para coordinar la respuesta a desastres [Yates y Paquette 2011], mejorar la conciencia situacional [Yin et al. 2012], y sentir el estado de salud de la población [Sakaki et al. 2010]. Sin embargo, la manipulación de la información (por ejemplo, la promoción de noticias falsas) y la difusión de información errónea pueden provocar pánico y miedo en la población, lo que a su vez puede convertirse en histeria colectiva. Los efectos de este tipo de abuso en las redes sociales se han observado durante el huracán Sandy a finales de 2012, después de los atentados con bomba en la maratón de Boston en abril de 2013, y cada vez más desde entonces.
Durante Sandy, una tormenta de noticias falsas golpeó la esfera de Twitter:11 los ejemplos de difusión de información errónea incluyen rumores, fotos engañosas o alteradas,12 compartir historias falsas y falsas alarmas o solicitudes de ayuda/apoyo sin fundamento. Después de los atentados de Boston, los tuits que informaban de muertes falsas o promovían campañas de donaciones falsas se difundieron sin control durante las primeras horas posteriores a los hechos [Gupta et al. 2013]. Rumores y falsas afirmaciones sobre la captura de los responsables del atentado se sucedieron a lo largo de los cuatro días posteriores al hecho (período durante el cual se llevó a cabo la persecución).13
Los ejemplos anteriores muestran cuán frecuente es el abuso de las redes sociales durante las crisis y emergencias. Mi investigación actual tiene como objetivo ilustrar algunas de las devastadoras consecuencias sociales de tal abuso: al extraer características del contenido relacionado con la crisis generado por diferentes tipos de productores de información (por ejemplo, agencias de noticias, personas influyentes de Twitter u organizaciones oficiales) a lo largo de diferentes dimensiones (sentimiento del contenido, patrones temporales, difusión en la red, etc.), podemos estudiar las características del contenido producido en las redes sociales en reacción a estímulos externos. Las conversaciones pueden exhibir diferentes clases de reacciones inducidas (p. ej., conciencia frente a miedo). Podemos destacar anuncios y noticias que probablemente desencadenen reacciones positivas en la población (conciencia) y señalar aquellos que probablemente generen comentarios negativos (miedo, pánico, etc.). Al identificar contenido rico en miedo y necesidades de información [Zhao y Mei 2013], podemos caracterizar la relación entre la comunicación de los medios/organizaciones y las respuestas emocionales (conciencia, preocupaciones, dudas, etc.) en la población. Podemos estudiar cómo los medios de comunicación y las comunicaciones oficiales desencadenan o mitigan el miedo y la preocupación, cómo esto depende del idioma, el momento, la demografía de los usuarios objetivo, etc.
La figura 2 muestra la difusión de la necesidad de información [Zhao y Mei 2013] en Twitter: los datos capturan todos los tuits producidos durante un breve intervalo de 1 hora el 17 de octubre de 2014, en el contexto de la discusión sobre la emergencia del ébola de 2014. Los nodos particularmente destacados en la discusión se etiquetan y se colocan de acuerdo con su centralidad; diferentes colores identifican diferentes comunidades tópicas [Ferrara et al. 2013; JafariAsbagh et al. 2014]. Desde un núcleo central de usuarios que comienzan a hacer preguntas e información sobre el ébola, el flujo de retuits (RT) y menciones (MT) llega a miles, lo que afecta incluso a comunidades muy alejadas de estos temas, incluidas aquellas relacionadas con cuentas influyentes como agencias de noticias.
La Fig. 3 ilustra otro ejemplo de dicho análisis, mostrando la difusión de contenido rico en preocupación y miedo durante el mismo intervalo de tiempo (en la Tabla 1 se informan algunos tuits de ejemplo). El posicionamiento, el tamaño y los colores representan nuevamente la prominencia de las cuentas involucradas en la discusión y las diferentes comunidades temáticas de Twitter. Podemos observar cómo el pánico y el miedo se propagan de forma viral, llegando a grandes audiencias a gran velocidad de difusión: la exposición a contenidos que aprovechan los miedos humanos ofusca nuestro juicio y, por tanto, nuestra capacidad para discriminar entre verdades fácticas y noticias exageradas.14 A su vez, esto favorece la difusión de desinformación, rumores y noticias no verificadas, lo que puede crear pánico en la población y generar más contenido negativo. Este mecanismo de auto-reforzamiento puede ser interrumpido por la implementación de campañas de intervención ad-hoc, diseñadas para ser efectivas sobre objetivos específicos, en función de sus características y susceptibilidad.
Instamos a un marco computacional para lidiar con el abuso en las redes sociales (especialmente durante las crisis) que vaya más allá del simple análisis de datos, capaz de diseñar e implementar activamente políticas efectivas para respaldar estrategias de toma de decisiones e intervenciones oportunas.
Conclusiones
En este artículo ilustré algunos de los problemas relacionados con el abuso en las redes sociales.
Fenómenos como la difusión de información errónea se magnifican en gran medida por el alcance masivo y la omnipresencia que las redes sociales obtuvieron últimamente.
Traje varios ejemplos de los riesgos tanto a nivel económico como social que surgen del abuso de las redes sociales, y discutí ejemplos de dicho abuso en el contexto de la discusión política, la manipulación del mercado de valores, la propaganda y el reclutamiento.
Finalmente expuse las consecuencias de la propagación del miedo y el pánico durante las emergencias, como consecuencia de la comunicación inadecuada en las redes sociales o la actividad de alarmismo de partes específicas.
Destaqué algunos de los avances recientes para desafiar estos problemas, incluida la detección de bots sociales, campañas y spam, pero argumenté que queda mucho por hacer para hacer de las redes sociales un entorno más útil y accesible, más seguro y más saludable para todos los usuarios.
En particular, estudios recientes ilustraron cómo poblaciones particulares, como los usuarios más jóvenes de las redes sociales, están aún más expuestas al abuso, por ejemplo, en forma de ciberacoso y acoso, o siendo objeto de estigmas y discursos de odio, lo que aumenta los riesgos para la salud como depresión y suicidio [Boyd 2008; 2014].
Como comunidad, debemos enfrentar los desafíos metodológicos y los problemas técnicos para detectar el abuso de las redes sociales para proteger las plataformas sociales en línea y, al mismo tiempo, intentar reducir los abundantes incentivos sociales y económicos mediante la creación de marcos de políticas efectivas contra el abuso de las redes sociales.
NOTAS
1 Los piratas informáticos sirios reclaman un ataque de AP que inclinó el mercado de valores en $ 136 mil millones. ¿Es terrorismo? - El Correo de Washington. com/blogs/worldviews/wp/2013/04/23/syrian-hackers-claim-ap-hack
2 Wikipedia: 2010 Flash Crash — en.wikipedia.org/wiki/2010_Flash_Crash
3 Conclusiones sobre los eventos del mercado del 6 de mayo de 2010 — http://www.sec.gov/news/studies/ 2010/marketevents-report.pdf
4 El curioso caso de Cynk, una empresa tecnológica abandonada que ahora vale $5 mil millones — mashable.com/2014/07/10/cynk
5 Las nuevas clasificaciones de televisión de Twitter de Nielsen son una estafa total. Este es el por qué. — defamer.gawker.com/nielsens-new-twitter-tv-ratings-are-a-total-scam-here-1442214842
6 La evolución de la propaganda terrorista: el ataque de París y las redes sociales — brookings.edu/research/testimony/2015/01/27-terrorist-propaganda-social-media-berger
7 protestas políticas rusas en Twitter ‘inundadas de spam’ — bbc.com/news/technology-16108876
8 cuentas de Twitter falsas utilizadas para promover el oleoducto de arenas bituminosas: theguardian.com/environment/2011/ aug/05/fake-twitter-tar-sands-pipeline
9 La campaña de Twitter de McDonald’s sale terriblemente mal #McDStories — businessinsider.com/
mcdonalds-twitter-campaign-va-terriblemente-mal-mcdstories-2012-1
10 La campaña de Twitter de la policía de Nueva York fracasa — usatoday.com/story/news/nation-now/2014/04/23/ nypd-twitter-mynypd-new-york/8042209/
11 El huracán Sandy trae una tormenta de fotos y noticias falsas a Nueva York — theguardian.com/world/us-news-blog/2012/oct/30/hurricane-sandy-storm-new-york
12 Snopes.com: fotografías del huracán Sandy — http://www.snopes.com/photos/natural/sandy.asp
13 Wikipedia: Bombardeos en la maratón de Boston — en.wikipedia.org/wiki/Boston_Marathon_ bombings
REFERENCIAS
ASUR, S. AND HUBERMAN, B. A. 2010. Predicting the future with social media. In 2010 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology. IEEE, 492–499.
BERGER, J. AND MORGAN, J. 2015. The ISIS Twitter Census: Defining and describing the population of ISIS supporters on Twitter. The Brookings Project on U.S. Relations with the Islamic World 3, 20.
BOND, R. M., FARISS, C. J., JONES, J. J., KRAMER, A. D., MARLOW, C., SETTLE, J. E., AND FOWLER, J. H. 2012. A 61-million-person experiment in social influence and political mobilization. Nature 489, 7415, 295–298.
BOYD, D. 2014. It’s complicated: The social lives of networked teens. Yale University Press.
BOYD, D. M. 2008. Taken out of context: American teen sociality in networked publics. ProQuest.
CENTOLA, D. 2011. An experimental study of homophily in the adoption of health behavior. Science 334, 6060, 1269–1272.
CONOVER, M. D., DAVIS, C., FERRARA, E., MCKELVEY, K., MENCZER, F., AND FLAMMINI, A. 2013. The geospatial characteristics of a social movement communication network. PloS one 8, 3, e55957.
CONOVER, M. D., FERRARA, E., MENCZER, F., AND FLAMMINI, A. 2013. The digital evolution of Occupy Wall Street. PloS one 8, 5, e64679.
DE MEO, P., FERRARA, E., FIUMARA, G., AND PROVETTI, A. 2014. On Facebook, most ties are weak. Communications of the ACM 57, 11, 78–84.
FERRARA, E., JAFARIASBAGH, M., VAROL, O., QAZVINIAN, V., MENCZER, F., AND FLAMMINI, A. 2013. Clustering memes in social media. In 2013 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining. IEEE, 548–555.
FERRARA, E., VAROL, O., DAVIS, C., MENCZER, F., AND FLAMMINI, A. 2014. The rise of social bots. arXiv preprint arXiv:1407.5225.
FERRARA, E., VAROL, O., MENCZER, F., AND FLAMMINI, A. 2013. Traveling trends: social butterflies or frequent fliers? In First ACM conference on Online social networks. ACM, 213–222.
GILBERT, E. AND KARAHALIOS, K. 2009. Predicting tie strength with social media. In 27th SIGCHI Confer- ence on Human Factors in Computing Systems. ACM, 211–220.
GUPTA, A., LAMBA, H., AND KUMARAGURU, P. 2013. $1.00 per RT #BostonMarathon #PrayForBoston: Analyzing fake content on Twitter. In eCrime Researchers Summit. IEEE, 1–12.
HUBERMAN, B., ROMERO, D., AND WU, F. 2008. Social networks that matter: Twitter under the microscope. First Monday 14, 1.
HUGHES, A. L. AND PALEN, L. 2009. Twitter adoption and use in mass convergence and emergency events. International Journal of Emergency Management 6, 3, 248–260.
HWANG, T., PEARCE, I., AND NANIS, M. 2012. Socialbots: Voices from the fronts. Interactions 19, 2, 38–45.
JAFARIASBAGH, M., FERRARA, E., VAROL, O., MENCZER, F., AND FLAMMINI, A. 2014. Clustering memes in social media streams. Social Network Analysis and Mining 4, 1, 1–13.
JAVA, A., SONG, X., FININ, T., AND TSENG, B. 2007. Why we Twitter: understanding microblogging usage and communities. In 2007 Workshop on Web mining and social network analysis. ACM, 56–65.
KWAK, H., LEE, C., PARK, H., AND MOON, S. 2010. What is Twitter, a social network or a news media? In 19th International Conference on World Wide Web. ACM, 591–600.
LAZER, D., PENTLAND, A. S., ADAMIC, L., ARAL, S., BARABASI, A. L., BREWER, D., CHRISTAKIS, N.,
CONTRACTOR, N., FOWLER, J., GUTMANN, M., ET AL. 2009. Life in the network: the coming age of computational social science. Science 323, 5915, 721.
MESTYA´ N, M., YASSERI, T., AND KERTE´SZ, J. 2013. Early prediction of movie box office success based on wikipedia activity big data. PloS one 8, 8, e71226.
METAXAS, P. T. AND MUSTAFARAJ, E. 2012. Social media and the elections. Science 338, 6106, 472–473. RATKIEWICZ, J., CONOVER, M., MEISS, M., GONC¸ ALVES, B., FLAMMINI, A., AND MENCZER, F. 2011. Detecting and tracking political abuse in social media. In 5th International AAAI Conference on Weblogs and Social Media. 297–304.
RATKIEWICZ, J., CONOVER, M., MEISS, M., GONC¸ ALVES, B., PATIL, S., FLAMMINI, A., AND MENCZER, F. 2011. Truthy: mapping the spread of astroturf in microblog streams. In 20th International Conference companion on World Wide Web. ACM, 249–252.
SAKAKI, T., OKAZAKI, M., AND MATSUO, Y. 2010. Earthquake shakes Twitter users: real-time event detection by social sensors. In 19th International Conference on World Wide Web. ACM, 851–860.
VAROL, O., FERRARA, E., OGAN, C. L., MENCZER, F., AND FLAMMINI, A. 2014. Evolution of online user behavior during a social upheaval. In 2014 ACM conference on Web science. ACM, 81–90.
VESPIGNANI, A. 2009. Predicting the behavior of techno-social systems. Science 325, 5939, 425.
Comments