lunes, 29 de junio de 2020

Starbucks declara un boicot publicitario a Facebook: ¿es el turno de PepsiCo?
La cadena de cafeterías Starbucks decidió sumarse al boicot declarado por muchas empresas y organizaciones a Facebook. A su vez, la multinacional PepsiCo no parece tener prisa en hacer lo mismo, si bien está trazando un plan parecido. Pero lo hace en silencio.


© AP Photo / Seth Perlman

Starbucks anunció que dejará de pagar por publicidad en todas las redes sociales y prometió mantener conversaciones internas y con sus socios sobre los derechos civiles para poner freno a la incitación al odio. Sin embargo, la cadena de cafeterías planea continuar lanzando publicidad en las redes sociales sin pagar por su promoción.

"Esperamos unir a las comunidades, tanto en persona como en línea, y nos manifestamos contra la incitación al odio. Esperamos que se haga más por crear comunidades en línea acogedoras e inclusivas, y esperamos que tanto los líderes empresariales como los políticos responsables se unan para lograr un cambio real", señalaron desde la compañía.

El boicot que inicialmente fue declarado contra Facebook ha acabado afectando a otras redes sociales. El 26 de junio Coca-Cola prometió detener la publicidad en todas las plataformas, mientras que el gigante de la alimentación y de productos para el hogar Unilever dejó de promocionarse en Facebook, Instagram y Twitter hasta el 31 de diciembre. 

A su vez, la multinacional PepsiCo, siendo la segunda mayor empresa del mundo especializada en la producción de alimentos y bebidas, se sumó silenciosamente al boicot. A diferencia de otras compañías que no han tardado en manifestar su frustración por las políticas de Facebook, PepsiCo aún no ha anunciado nada oficialmente. Sin embargo, considera adoptar medidas que estarán vigentes hasta julio y agosto del 2020, comunicaron a Fox News unas fuentes cercanas a la empresa. 

Cualquier movimiento contra el gigante de las redes sociales podría tener amplias implicaciones para PepsiCo, cuyos ingresos en 2019 alcanzaron los 67.000 millones de dólares. Cada año la multinacional gasta al menos 2.600 millones de dólares en marketing, promoción y publicidad. Igual que muchas otras grandes empresas, PepsiCo destina una parte de su presupuesto cada vez mayor a las redes sociales. Y a Facebook se le considera una de las mejores formas de llegar al público en internet.

Actualmente no solo las empresas muestran su descontento con la política de Facebook. También lo hacen las organizaciones. La Liga Antidifamación, la Asociación Nacional para el Progreso de las Personas de Color y otras entidades exhortaron a los grandes anunciantes de Facebook a manifestar que no apoyarán a la red social que "anteponga el beneficio a la seguridad". 

Las organizaciones pidieron que Facebook controle más estrictamente la incitación al odio y la desinformación y adopte otras medidas, incluida una que permita a los usuarios denunciar que han sido atacados debido a su raza o religión. A su vez, los anunciantes esperan tener la posibilidad de ver con qué frecuencia sus anuncios aparecen cerca del contenido que luego se elimina por distribuir una información errónea u odio, y contar con reembolsos por esos anuncios.


viernes, 26 de junio de 2020

La IA sigue luchando para ayudarnos a identificar 'deepfakes'
Facebook ha anunciado al ganador de un concurso de sistemas de inteligencia artificial para detectar vídeos ultrafalsificados de forma automática. Pero su precisión del 65 % sigue siendo insuficiente para ganar esta batalla. Puede que en el futuro ni siquiera las personas sean capaces de detectarlos.
por Will Douglas Heaven | traducido por Ana Milutinovic


Facebook

Las ultrafalsificaciones o deepfakes han captado muchísima atención, tanto de la sociedad como de los investigadores. Hay algo especialmente inquietante en estas imágenes generadas por inteligencia artificial (IA) de personas que parecen decir o hacer algo que no es verdad.

Con tantas herramientas para crear deepfakes ampliamente disponibles y relativamente fáciles de usar, a muchos les preocupa que se usen para difundir bulos peligrosos. Los políticos pueden acabar pronunciando las palabras de otras personas o participando en situaciones en las que no han estado, por ejemplo.

El miedo existe, pero la verdad es que, para un ojo humano, los deepfakes todavía resultan relativamente fáciles de detectar. Y según el estudio de la empresa de ciberseguridad DeepTrace Labs realizado en octubre de 2019, que sigue siendo el más completo hasta ahora, los contenidos ultrafalsificados no han sido utilizados en ninguna campaña de desinformación. No obstante, el mismo informe también señala que la cantidad de deepfakes publicados online crece rápidamente, con alrededor de 15.000 en los siete meses previos al estudio. En la actualidad, ese número será mucho mayor.

A las empresas de redes sociales les preocupa la posibilidad de que los deepfakes pronto inunden sus plataformas. Pero detectarlos automáticamente resulta difícil. Para abordar ese problema, Facebook quiere usar IA para luchar en contra de las falsificaciones generadas por IA y ha lanzado el mayor conjunto de datos de deepfakes (más de 100.000 vídeos creados con 3.426 actores y una serie de existentes técnicas de intercambio de caras) con el objetivo de entrenar su IA para detectar los vídeos manipulados.

El CTO de Facebook, Mike Schroepfer, detalla: "Los deepfakes no representan un gran problema actualmente. Pero la dura lección que aprendí en los últimos dos años es no quedarse desprevenido. Quiero estar bien preparado para todas las cosas malas que no ocurren hasta que pasan".

Facebook también ha comunicado el ganador de su concurso Deepfake Detection Challenge, en el que 2.114 participantes presentaron alrededor de 35.000 modelos entrenados en su conjunto de datos. El mejor modelo, desarrollado por el ingeniero de aprendizaje automático de la empresa de mapeo Mapbox Selim Seferbekov, pudo acertar si un vídeo era un deepfake con un 65 % de precisión cuando se probó en un conjunto de 10.000 vídeos nunca vistos antes, incluyendo una mezcla de vídeos nuevos generado por Facebook y los existentes tomados de internet.

Para complicar más las cosas, el conjunto de entrenamiento y el de la prueba incluyen vídeos con los que un sistema de detección podría confundirse, como personas que dan tutoriales de maquillaje y vídeos que han sido modificados al pegar texto y formas sobre las caras de los hablantes, cambiando la resolución u orientación o ralentizados.

En vez de aprender las técnicas forenses, como buscar huellas digitales en los píxeles de un vídeo después del proceso de generación de deepfakes, los cinco mejores modelos parece que han aprendido a notar cuándo algo parecía "fuera de lugar", como lo haría un humano.

Para conseguirlo, los ganadores utilizaron un nuevo tipo de red neuronal convolucional (CNN, por sus siglas en inglés) desarrollada el año pasado por los investigadores de Google, denominada EfficientNets. Las CNN se usan habitualmente para analizar imágenes y son buenas para detectar caras o reconocer objetos. No obstante, mejorar su precisión más allá de un cierto punto suele requerir ajustes específicos. EfficientNets ofrece una forma más estructurada de sintonización, facilitando el desarrollo de los modelos más precisos. Pero no está claro exactamente qué es lo que los ayuda a superar a otras redes neuronales en esta tarea, destaca Seferbekov.

Facebook no tiene planes de usar ninguno de los modelos ganadores en su plataforma. Por un lado, una precisión del 65 % aún no es lo suficientemente útil. Algunos modelos lograron más del 80 % de precisión con los datos de entrenamiento, pero su resultado empeoró con los vídeos nunca vistos. La parte más difícil del desafío era generalizar los nuevos vídeos, que podían incluir diferentes caras intercambiadas usando distintas técnicas, explica Seferbekov.

Él cree que una manera de mejorar la detección sería centrarse en las transiciones entre los fotogramas, rastreándolos a lo largo del tiempo. "Incluso los deepfakes de muy alta calidad tienen algunos parpadeos entre los fotogramas", sostiene. Las personas detectan bien estas inconsistencias, especialmente en las grabaciones de rostros. Pero descubrir estos defectos reveladores automáticamente requerirá más cantidad de datos de entrenamiento y mayor variedad y mucha más potencia informática. Seferbekov intentó rastrear estas transiciones de fotogramas, pero no lo logró. "La unidad central de procesamiento fue un verdadero obstáculo", afirma.

Facebook sugiere que la detección de deepfakes también se puede mejorar con el uso de las técnicas que van más allá del análisis de una imagen o de un vídeo en sí, como comprobar su contexto o procedencia.

El director del proyecto Witness que apoya a activistas de derechos humanos en su uso de tecnologías de vídeo, Sam Gregory, aplaude la inversión de las plataformas de redes sociales en la detección de deepfakes. Witness es miembro de la Alianza para la IA, que asesoró a Facebook en su conjunto de datos. Gregory está de acuerdo con Schroepfer en que hace falta prepararse para lo peor, y subraya: "No hemos tenido el apocalipsis de los deepfakes, pero estas herramientas son una adición muy desagradable a la violencia de género y a la desinformación". Por ejemplo, el informe de DeepTrace Labs descubrió que el 96 % de los deepfakes eran de pornografía no consensuada, en la que las caras de otras personas se pegan sobre las de los actores en los vídeos porno. 

Teniendo a millones de personas capaces de crear y compartir vídeos falsos, poder confiar en lo que vemos es más importante que nunca. Las noticias falsas se difunden a través de Facebook como si fueran incendios forestales, y la mera posibilidad de tener deepfakes siembra dudas, haciéndonos más propensos a cuestionar imágenes tanto reales como las falsas. Además, la detección automática pronto podría ser nuestra única opción. "En el futuro habrá deepfakes que los seres humanos no seremos capaces de distinguir", concluye Seferbekov.



domingo, 21 de junio de 2020

Facebook y Trump: la red social elimina anuncios de campaña de Trump por incluir un símbolo usado en la Alemania nazi




Facebook tomó acciones contra los controvertidos mensajes de campaña del presidente de Estados Unidos, Donald Trump.

La empresa informó este jueves que había eliminado publicaciones y anuncios del equipo de campaña para la reelección de Trump por violar sus políticas contra los mensajes de odio.

El material publicado mostraba un triángulo rojo invertido con texto pidiendo a los usuarios de Facebook que firmaran una petición contra Antifa, un movimiento de extrema izquierda, informa la agencia Reuters.

Trump había acusado al grupo de ser una "organización terrorista" en medio de la reciente ola de protestas contra el racismo y la brutalidad policial en Estados Unidos.

Los anuncios se publicaron en páginas pertenecientes a Trump y al vicepresidente, Mike Pence. También aparecieron en páginas ligadas a su equipo, generando controversia.

"Los nazis usaron triángulos rojos para identificar a sus víctimas políticas en campos de concentración. Usarlo para atacar a oponentes políticos es sumamente ofensivo", denunció el presidente de la Liga Antidifamación, Jonathan Greenblatt, en Twitter.

"La campaña de @POTUS (Donald Trump) necesita conocer su historia, la ignorancia no es excusa para utilizar símbolos relacionados con los nazis".


Facebook asegura que el contenido publicado por el equipo de campaña de Trump viola sus normas.

Un portavoz de Facebook explicó que las políticas de la empresa "prohíben usar un símbolo de un grupo de odio para identificar a presos políticos sin el contexto que condene o aclare ese símbolo".

Tim Murtaugh, portavoz de la campaña de Trump, defendió en un correo enviado a Reuters que "el triángulo rojo invertido es un símbolo utilizado por Antifa, por lo que fue incluido en un anuncio sobre" este grupo.

Murtaugh subrayó que Facebook "aún tiene un emoji de un triángulo rojo invertido en uso, que parece exactamente igual, así que es curioso que solo vayan contra este anuncio".

Trump se ha enfrentado recientemente a otras acciones similares en Twitter, por ejemplo, por sus mensajes más controvertidos.


Donald Trump acusó a Twitter de interferir con la libertad de expresión.

En mayo pasado, el equipo de Twitter decidió ocultar, sin llegar a borrarlo, uno de sus tuits, explicando que el mandatario había incumplido las reglas de la plataforma sobre glorificar la violencia.

En el comentario de Twitter, Trump se había a las protestas y saqueos ocurridos en Minneapolis, Minnesota, por la muerte del afroestadounidense George Floyd y llamó "delincuentes" a los manifestantes y advirtió: "Cuando comienzan los saqueos, empiezan los tiroteos".

La advertencia de Twitter fue el último episodio de una escalada de tensión entre Trump y su plataforma social favorita, que durante años se había resistido a las demandas para que hiciera algo contra los mensajes más controvertidos del presidente.

De hecho, entonces Facebook estuvo en el centro de las críticas, porque mantuvo sin ninguna advertencia la publicación de Trump que Twitter había ocultado.



viernes, 19 de junio de 2020

Elecciones en Estados Unidos: Facebook e Instagram ya permiten que el usuario desactive anuncios políticos
Podrán limpiar su timeline de campañas políticas.


El usuario podrá elegir entre ver o no ver anuncios políticos. (AP)


Facebook anunció una nueva función que permite que sus usuarios y los de Instagram puedan elegir no ver los anuncios políticos para las elecciones estadounidenses de 2020 en sus redes sociales.

Desde este miércoles, algunas personas en Estados Unidos podrán acceder a esta nueva función para "desactivar" los anuncios electorales o políticos de los candidatos a la presidencia, de "Super PAC" --organizaciones que recaudan fondos y los destinan a apoyar a un candidato-- o cualquier organización política.

Los usuarios podrán activar esta función directamente en Facebook o Instagram desde cualquier anuncio político o mediante la configuración de anuncios de cada plataforma, según explicó en un comunicado la vicepresidenta de gestión de productos e impacto social de la compañía, Naomi Gleit.

En caso de que el sistema no funcione y, aunque activen la función, los usuarios sigan viendo un anuncio que consideran político, podrán hacer clic en la parte superior derecha del anuncio e informar a la compañía.


"Desactivar" anuncios políticos: nueva función. (AP)

Hasta el momento, la nueva función estará únicamente disponible en Estados Unidos, pero la compañía señaló que su objetivo es añadirla en otros países "a finales de otoño".

Biblioteca de anuncios​

Asimismo, Facebook incorporó una nueva función en su biblioteca de anuncios (Ad Library), que permite realizar un seguimiento de los gastos en publicidad de los candidatos.

En enero, la compañía anunció una actualización de Ad Library cuyo objetivo es ofrecer a los usuarios un mayor nivel de transparencia además de darles más control sobre los anuncios de temas políticos y sociales que ven en Instagram y Facebook.

La biblioteca de anuncios es una herramienta que lanzó Facebook en mayo de 2018, que un archivo público que permite a cualquier persona ver todos los anuncios que los políticos y campañas están publicando en Facebook e Instagram y aquellos que publicaron en el pasado.

En las últimas elecciones en Argentina, cientos de políticos invirtieron millones de pesos en redes sociales, sobre todo en Facebook, para hacer campaña electoral.

Desde septiembre de 2019 hasta hoy, 15 de junio de 2020, en Facebook hay un total de 60.647 avisos políticos valuados en más de $ 115 millones de pesos.


Los avisos de Larreta, son en su mayoría institucionales y vinculados con el coronavirus en tiempos de pandemia.

El top five histórico de anunciantes lo encabeza Horacio Rodríguez Larreta, jefe de Gobierno porteño, con anuncios financiados por Juntos por el Cambio - Capital por 7,2 millones de pesos. Y otros 2,7 millones de pesos del GCBA. 

En el ranking de los cinco políticos que más pautan le siguen: el gobierno de Córdoba, el presidente Alberto Fernández; la exgobernadora María Eugenia Vidal y el diputado y excandidato presidencial de la Izquierda, Nicolás del Caño. 


Los políticos que más invierten en avisos de Facebook, según el recuento histórico.


martes, 16 de junio de 2020

¿Por qué nos convencen más las fake news que la información científica?
El cerebro “presiona” para que estemos más predispuestos a asimilar noticias falsas sobre datos certificados. ¿Cómo funciona ese mecanismo del engaño?


¿Por qué nos creemos más las fake news que la información confiable? El cerebro tiene la respuesta.


Los inventos, la proliferación de noticias para confundir o dañar a alguien han existido siempre, incluso cuando no contaban con los medios de comunicación de masas para replicarse, y se difundían con el boca a boca. Pero fue en las redes sociales, y rebautizados como fake news, donde encontraron el ambiente más propicio para nacer, crecer y multiplicarse. Y la pandemia por coronavirus​, con más gente asomada a esas redes y durante más tiempo, los ha potenciado muchísimo acelerando y ampliando su difusión. 

Pero, ¿por qué los creemos? ¿Cómo actúa nuestra mente para que seamos más o menos permeables a los datos falsos? ¿Por qué “nos tragamos” unos y a otros no les damos importancia?

“Estamos muy advertidos de que este fenómeno existe y de que aprovecha periodos de incertidumbre, de calamidad o de preocupación social para encontrar el hueco, para expandirse y ser más incontrolable y dañino; pero no por estar advertidos dejamos de picar”, afirma Rafael San Román, psicólogo de la plataforma Ifeel.

Beatriz Fagundo, doctora en neurociencia cognitiva, asegura que tiene mucho que ver con la forma de funcionar de nuestro cerebro y con una serie de sesgos cognitivos que alteran nuestro juicio, aunque también influyen cuestiones de personalidad o el estado emocional en que nos encontremos.

En este sentido, San Román subraya que en situaciones de tensión y preocupación como las actuales las personas somos más susceptibles, hay más cosas que nos resultan amenazantes, estamos a la expectativa y nos volvemos más reactivos y más hiper vigilantes, “y eso nos hace detectar lo que hay pero, si no estamos muy afinados, también lo que no hay, y se nos cuelan muchos falsos positivos, le damos credibilidad a ciertas noticias que no son reales porque sesgamos mucho nuestro procesamiento de la información”.

Con todo, en las mismas circunstancias unas personas pueden ver el truco y notar rápidamente que se trata de una burda invención o una mentira intencionada, y otros aceptarlo como verosímil y contribuir a su difusión. Y no siempre tiene que ver con que sean más o menos desconfiadas, más o menos críticas o más o menos inteligentes o formadas (aunque estos aspectos también influyen).

El sesgo de confirmación

Fagundo explica que el hecho de que unos se crean el invento y otros no tiene que ver con cómo funciona el cerebro y con nuestros patrones mentales, con lo que se conoce como el sesgo de confirmación. “Tenemos tendencia a dar por buenas las cosas que coinciden con lo que creemos, con nuestras ideas preconcebidas, de modo que si llega una información que va en la misma línea que tus esquemas mentales es más fácil que la integres”, sea verdad o no, comenta la neurocientífica.

A su vez, detalla que ello es así porque al cerebro le cuesta mucho –gasta mucha energía– crear un aprendizaje​, un patrón concreto de activación de neuronas, y una vez que lo logra lo guarda para poder recuperarlo. De esta forma, cuando recibe una información que va en línea de lo ya aprendido le cuesta menos, le es más fácil, y por eso tiene tendencia a creerse, a dar por bueno, aquello que encaja con lo que tiene aprendido, con lo que considera lógico y racional”.

Fagundo enfatiza que, igual que el cerebro absorbe como una esponja informaciones que coinciden con tu ideología (consecuencia de tu vida, tu historia, lo que te han enseñado, tus experiencias), ignorará la información contraria, la que no encaje con tus patrones, “porque genera disonancia cognitiva y eso provoca malestar, es decirle al cerebro que está equivocado, y eso cuesta mucho”.


Cuando una noticia falsa coincide más con nuestras creencias, somos muy proclives a asumirla como cierta por sobre la realidad.

De hecho, la única manera de luchar contra el sesgo de confirmación (y el resto de sesgos cognitivos) es ser consciente de su existencia y pararse a reflexionar de forma muy consciente, a pensar de forma racional cuánto de verdad hay o puede haber en lo que nos dicen, “pero eso no lo hacemos en el día a día ni en todo, lo reservamos solo para aquello que nos interesa mucho”, apunta la neuropsicóloga.

Claro que hay personas hipercríticas o extremadamente desconfiadas que tienden a ponerlo todo en tela de juicio y no se fían de nada ni de nadie aunque se sientan identificadas con ciertas ideas. “Hay gente muy rígida que necesita que una información reúna muchas características para darle crédito; igual que hay otras que porque son muy abiertas, muy flexibles o quizá muy incultas, pecan de ingenuidad” y es más fácil que sean víctimas de las fake news, apunta San Román.

La ilusión de conocimiento y control

Pero el sesgo de confirmación no es la única forma en que nuestro cerebro actúa para que nos creamos los inventos. También influye lo que en neurociencia denominan la ilusión de conocimiento y control. “Uno necesita tener la sensación de que su vida está controlada, que hace las cosas porque sabe que son así, y cuando hay situaciones que nos sobrepasan, donde tenemos mucha información pero muy ambigua, hemos de buscar estrategias para sentir que tenemos el control”, explica Fagundo.

Y continúa: “a eso se suma que todo el mundo piensa que sabe más de lo que realmente sabe, de modo que cuando en medio de la incertidumbre del coronavirus, por ejemplo, recibimos una información que pensamos que es privilegiada, somos proclives a creerla porque eso refuerza nuestra ilusión de conocimiento y nos hace pensar que tenemos el control sobre lo que está pasando”.


Según la neurociencia, necesitamos tener la sensación que la vida está controlada, y reforzar la ilusión de conocimiento sobre un tema para sentirnos a salvo.

El refuerzo social

Otro sesgo cognitivo que condiciona nuestra permeabilidad a las informaciones falsas es el del refuerzo social. No es sólo que el ser seres sociales nos impulse a creer una idea por el mero hecho de que esté muy extendida. Es también que si al compartir una idea o una noticia nuestros familiares, amigos o seguidores en redes sociales se muestran de acuerdo, eso nos hace sentir valorados y nos proporciona un refuerzo brutal.

“Nos provoca una dosis de dopamina, activa el mismo circuito cerebral que si practicáramos sexo o consumiéramos una droga, proporcionándonos placer”, detalla la especialista, y eso predispone a compartir informaciones y expandir inventos, los creamos o no. Y al final, si algo se repite y comparte mucho, más personas acabarán dándolo por cierto.

El efecto halo

A ello se suma el efecto halo, otra tendencia derivada de la forma en que funciona el cerebro que nos impulsa a hacer extensiva la buena impresión que tenemos de una persona en un aspecto concreto a otros ámbitos de su vida, aunque no tengan nada que ver. “Si el dato falso lo difunde una persona que es influyente, un deportista, un actor, un político, la tendencia del cerebro es pensar que, por el hecho de que ese individuo destaca en un ámbito, su opinión tiene un valor superior al que realmente tiene”, y eso confiere mayor credibilidad a las mentiras.

Porque, también fruto del sesgo de refuerzo social, si uno se aferra a hipótesis o tesis con las que el resto no está de acuerdo, se produce una sensación desagradable, de carencia y rechazo, y se activan los circuitos cerebrales de la ansiedad​.

Otros factores influyentes

Todos estos vericuetos cognitivos –muy especialmente el de confirmación– resultan determinantes para entender cómo actúa nuestra mente cuando nos llega un invento y por qué lo creemos o no. Pero Rafael San Román comenta que hay otros factores que también influyen. Por ejemplo, el nivel cultural. “La biblioteca interna de cada uno, la cantidad de conocimientos e información sobre el mundo y la vida que acumula, condicionan que el chisme cale o no; si uno sabe mucho de un tema es más difícil que le cuelen información falsa”, razona.

También condicionan ciertos rasgos de personalidad, como un narcisismo mal llevado. “Es el típico cuñadismo, el no tener bien afinado el nivel de conocimiento que uno tiene y pensar que su criterio siempre es el bueno; son personas convencidas de que tienen más información de la que en realidad manejan –lo que enlaza con el sesgo de ilusión de conocimiento y control– y eso les lleva a confundirse a la hora de filtrar la información, de modo que o no se creen nada o dan por "buenas" noticias que no lo son”, relata el psicólogo.


"La biblioteca interna de cada uno, la cantidad de conocimientos e información condicionan que el invento cale o no", dicen los especialistas.

Y más allá de cómo funcione nuestro cerebro, cuál sea nuestra personalidad o nuestro nivel cultural, hay un ingrediente fundamental para que nos creamos los inventos: su verosimilitud. Si es muy absurdo, por más sesgos cognitivos a que estemos sometidos, su recorrido será muy corto y pocas personas “picarán”. Si resulta muy real o tiene poca relevancia, tampoco tendrá mucha potencia. En cambio, si por forma y contenido resulta impactante y verosímil, aunque parezca contradictorio con la realidad que conocemos, es más fácil que le demos espacio. En especial, si además conferimos credibilidad a la fuente o persona que nos lo transmite.



lunes, 1 de junio de 2020

La mitad de los tuiteros que lanzan bulos sobre el coronavirus son bots
Además de promover teorías de la conspiración y tratamientos falsos, estas cuentas piden la reactivación de la economía en EE. UU. y el cese del confinamiento. También emplean estrategias para apuntar contra grupos de riesgo como los inmigrantes y las minorías y apoyan a usuarios reales a fomentar el odio.
por Karen Hao | traducido por Ana Milutinovic


Maddie Meyer / Getty

La directora del Centro para la Democracia Informada y la Ciberseguridad Social de la Universidad Carnegie Mellon (EE. UU.), Kathleen M. Carley, y su equipo llevan años analizando bots y campañas de influencia. Aseguran que durante los procesos electorales, desastres naturales y otros acontecimientos politizados, el nivel de participación de bots en las conversaciones sociales ronda entre el 10 % y el 20 %, aseguran.

Pero en un nuevo estudio, han descubierto que los bots pueden representar entre el 45 % y el 60 % de las cuentas de Twitter que hablan de coronavirus (COVID-19). Muchas de esas cuentas se crearon en febrero y desde entonces han difundido y amplificado información falsa y bulos, incluidos falsos consejos médicos, teorías de la conspiración sobre el origen del virus y esfuerzos para poner fin a las órdenes de quedarse en casa y reactivar Estados Unidos.

Estos bots siguen las bien conocidas estrategias de campañas coordinadas de influencia, y funcionan: desde el inicio de la crisis, los investigadores han observado una mayor polarización del debate en Twitter sobre este tema.

Hay varios factores que podrían explicar este aumento. La naturaleza global de la pandemia significa que hay un mayor número de partes interesadas en capitalizar la crisis para cumplir con sus agendas políticas. La desinformación también fluye de forma más coordinada, con un mayor número de empresas disponibles para ser contratadas con el objetivo de crear tales campañas de influencia.

Pero el volumen de cuentas no es lo único que preocupa a Carley. Sus patrones de comportamiento también se han vuelto más sofisticados. Los bots tienen conexiones más profundas con otras cuentas, lo que les ayuda a difundir sus mensajes ampliamente. También emplean más estrategias para apuntar contra grupos de riesgo como los inmigrantes y las minorías y ayudan a las cuentas reales que participan en los discursos de odio a formar grupos online.

Para realizar su análisis más reciente, los investigadores estudiaron más de 200 millones de tuits sobre el coronavirus desde enero. Utilizaron técnicas de análisis de redes y el aprendizaje automático para identificar qué cuentas estaban difundiendo desinformación y cuáles probablemente eran bots o cíborgs (cuentas administradas conjuntamente por bots y seres humanos).

El sistema busca 16 diferentes maniobras que las cuentas manipuladoras suelen realizar. Entre estas estrategias figuran las de "servir de puente" (bridging en inglés) entre dos grupos (conectar dos comunidades online), "respaldar" (backing en inglés) a un individuo (seguir una cuenta para aumentar el nivel de influencia percibida de una persona) y "bombardeo" (nuking en inglés) a un grupo (acciones que llevan a desmontar una comunidad online).

A través del análisis, los investigadores identificaron más de 100 tipos de información falsa relacionada con la COVID-19 y descubrieron que los bots no solo ganaban tracción y acumulaban seguidores, sino que representaban el 82 % de los 50 principales retuiteos más influyentes y el 62 % de los 1.000. La influencia de cada cuenta se calculó para reflejar el número de seguidores que alcanzó, así como el número de seguidores que lograron sus seguidores.

Los investigadores también han empezado a analizar Facebook, Reddit y YouTube para comprender cómo se propagan las noticias falsas entre estas plataformas. Su trabajo aún está en las primeras etapas, pero ya ha revelado algunos patrones inesperados. Por un lado, han encontrado que muchos bulos provienen de sitios web o blogs convencionales antes de ser recogidos y amplificados en las redes sociales. Los diferentes tipos de historias también tienen distintos modelos de procedencia. Las afirmaciones de que el virus es un arma biológica, por ejemplo, principalmente provienen de los llamados sitios de "noticias negras", páginas de noticias falsas diseñadas para difundir desinformación, que se suelen gestionar fuera de Estados Unidos. En cambio, la retórica de "reactivar América" ​​proviene principalmente de los blogs y páginas de Facebook administradas en Estados Unidos.

El estudio también revela que los usuarios responden a dicho contenido de maneras muy distintas en función de la plataforma. En Reddit, por ejemplo, los moderadores suelen desmentir y prohibir las noticias falsas. Cuando una campaña coordinada en torno a la reapertura de América apareció en Facebook, los usuarios de Reddit empezaron a debatir sobre ese fenómeno y a contrarrestar esos mensajes. "Decían: 'No crean nada de eso. No se puede confiar en Facebook'", afirma Carley.

Lamentablemente, no hay soluciones fáciles para este problema. Prohibir o eliminar cuentas no funciona, ya que se pueden crear muchas más por cada una que se elimine. Prohibir las cuentas que difunden información errónea tampoco resolverá nada. "Mucha desinformación ocurre a través de insinuaciones o declaraciones ilógicas, y son difíciles de descubrir", asegura.

Considera que los investigadores, las empresas y los gobiernos deben coordinarse mejor para elaborar políticas y prácticas efectivas para resolver este problema. Y añade: "Creo que necesitamos algún grupo de supervisión general. Porque ningún grupo es capaz de hacerlo por sí solo".