viernes, 8 de diciembre de 2017

La investigación que revela el ejército de perfiles falsos usados para influir en las elecciones de Brasil
por Juliana Gragnani


Hay robots informáticos intentando manipular la opinión pública en Brasil a través de las redes sociales desde 2012. (Ilustración: Kako Abraham/BBC)

Son las siete de la mañana y un joven de 18 años enciende la computadora en su casa de Espíritu Santo, en el sureste de Brasil. Comienza su rutina laboral.

Actualiza el estado de uno de los perfiles que maneja en Facebook. "¿Puede alguien recomendarme una película?", pregunta. Después, abre otro perfil: "Tan sólo querría estar durmiendo toda la tarde". Y un tercero: "Tengo mucha hambre". Intercala esos textos con otros en los que apoya a políticos brasileños.

Los 20 perfiles que controlaba en Facebook y Twitter no incluían ni su foto ni su nombre real; fueron alimentados con videos inventados y fotos robadas, y, usados, según él, activamente para influenciar, como un ejército virtual, el debate político en las redes sociales durante las elecciones presidenciales de Brasil de 2014.

Una investigación de tres meses de BBC Brasil encontró más de 100 perfiles supuestamente falsos en Facebook, pero sobre todo en Twitter, activos en Brasil desde 2012, que eran controlados por una suerte de cíborgs.

"Campaña negativa"

Los perfiles estaban en parte automatizados y en parte operados por humanos. Esa actividad humana rompe los patrones típicos vinculados a los bots (robots informáticos) y hace que su detección sea más difícil.

"Es un peligro para la democracia", dice Philip Howard, del Instituto de Internet de Oxford, en Reino Unido. A través de los perfiles falsos creaban grupos en Facebook para favorecer o perjudicar a ciertos candidatos e interactuaban con usuarios reales. (Foto: Facebook/reproducción)

"Las democracias funcionan bien cuando hay información precisa circulando en las redes sociales. Los cíborgs son parte de la técnica moderna de hacer campaña negativa".

De acuerdo con cuatro personas que dicen haber trabajado para la empresa y fueron entrevistadas en condición de anonimato, a partir de 2012 un empresario brasileño contrató a unas 40 personas de diferentes partes del país para gestionar entre 20 y 50 cuentas falsas.

Todos los entrevistados declararon que trabajaban para Facemedia, una agencia de marketing que dice proporcionar servicios de monitoreo de redes sociales.

"Nosotros nunca creamos perfiles falsos, ese no es nuestro trabajo", dice su propietario, Eduardo Trevisan.

El empresario ganó prominencia en Brasil con una cuenta de Twitter en la que alerta a sus 1,2 millones de seguidores sobre la ubicación de las operaciones policiales que buscan atrapar a conductores que sobrepasan el límite de consumo de alcohol.

Una rutina inventada

Varios elementos, concebidos con la ayuda de expertos, contribuyeron a que un perfil fuera identificado como falso.

El uso de fotos robadas (y a menudo manipuladas), el uso de herramientas externas, el tipo de mensajes que trataban de simular una rutina diaria, la repetición de palabras o expresiones, la publicación durante horas de trabajo, la participación activa en debates sociales, la acción para crear trending topics (temas tendencia) y los mensajes apoyando o atacando a candidatos.

"Teníamos que publicar dos veces al día en cada perfil. Cuando había un debate, lo comentábamos en tiempo real, como si fuéramos votantes. Tenía que hacer que esos perfiles tuvieran una rutina, una vida", dice un supuesto exempleado.

"Eres alguien detrás de una máscara. Tienes una respuesta poderosa. Sientes que estás marcando la diferencia en esa campaña", añade otro.

Las entrevistas y el análisis de la actividad en redes sociales de los perfiles falsos puso el foco en 14 políticos.

La investigación de BBC Brasil confirmó que hubo pagos legales a cuatro personas, incluida una transferencia de 360.000 reales (más de US$120.000) del comité nacional del Partido de la Social Democracia Brasileñal (PSDB), uno de los principales partidos de Brasil en 2014, cuando Aécio Neves, el candidato de la oposición, estaba en la carrera por la presidencia.

No hay pruebas que sostengan que los políticos conocían el uso de perfiles falsos como parte de los servicios en redes sociales aparentemente legales por los que pagaban.

Los pagos más recientes hallados por BBC Brasil provenían de la diputada federal de Río de Janeiro Laura Carneiro. Ella confirma haber contratado a Facemedia, pero niega tener conocimiento sobre "el uso inmoral de perfiles falsos".

Algunos de esos perfiles falsos siguieron aportando "Me gusta" y comentarios en el perfil de Carneiro hasta noviembre de este año.

En el debate social

En un solo post sobre vacunas contra la rabia, cinco de los ocho comentarios fueron generados por cíborgs y todos ellos fueron publicados en apenas unos minutos. "Romulo Borges" escribió: "Súper importante".

Tiene 71 amigos y comenzó a publicar en Facebook en marzo de este año, publicando cosas como "Esperando el momento para llegar a casa y comer restos de pizza" o "Lunes frío y lluvioso", todas ellas desde Hootsuite, una plataforma externa que permite acceder a diferentes cuentas al mismo tiempo.

Borges tenía también un perfil en Twitter. Fue creado en 2010 y estuvo activo entre julio y octubre de 2014.

Cuando publicaba tuits sobre su rutina diaria, solía usar las mismas expresiones. En ese momento, publicó cosas sobre un debate entre la entonces presidenta (y luego sometida a un proceso dejuicio político) Dilma Rousseff y el opositor Neves.

En sus comentarios, criticó el comportamiento de Rousseff.

Borges suspendió sus actividades coincidiendo con el final de las elecciones y regresó en marzo de 2017. Ahora sus "Me gusta" están en casi todos los posts (textos publicados en la red social) de Carneiro.

Los entrevistados dicen que los perfiles falsos que identificaron son apenas la punta del iceberg. Alegan que la compañía creó "miles" de cuentas supuestamente falsas. También dicen que hay otras empresas en Brasil que ofrecen los mismos servicios.

"Cuando analizamos la actividad de los perfiles falsos podemos ver claramente su recorrido interactuando entre ellas y con las cuentas de Twitter de Trevisan. Puedes ver los diferentes retuits, y cómo responden y comentan, tratando de promocionarse unas a otras en distintas redes", explica Fábio Malini, coordinador de un grupo de investigación en la Universidad Federal de Espírito Santo.

Malini ya había estudiado algunos de los perfiles cuando fue contactado por BBC Brasil.

Tanto Facebook como Twitter dicen que los perfiles falsos van en contra de su política y que pretenden perfeccionar sus sistemas para detectar y, en última instancia, eliminar esas cuentas.

"Se benefician de lo que se conoce como comportamiento gregario, generando discusiones y creando la sensación de que un argumento específico ha perdido o ganado el debate", explica Malini.

De diez políticos que se cree que contrataron la empresa durante campañas electorales, solo tres de ellos ganaron. Los falsos perfiles fueron más exitosos a la hora de crear trending topics.


Eduardo Trevisan es el propietario de la empresa Facemedia, que opera en Río de Janeiro. (Imagen: Facebook/reproducción)

El trabajo "secreto" de los "activadores"

Un supuesto exempleado dice que algunos de ellos fueron contratados pensando que trabajarían para la famosa cuenta de Trevisan. "Era un tipo de trabajo muy secreto", afirma.

Añade que cuando descubrió lo que estaba haciendo realmente, decidió ocultárselo a sus amigos y familiares. Hoy dice que le da miedo hablar sobre lo que hizo y que firmó un acuerdo de confidencialidad con la compañía: "Trabajé para gente muy importante".

Los salarios eran bajos para los estándares de Brasil, apenas por encima del salario mínimo y duplicándolo durante la época de elecciones.

En otras regiones de Brasil, algunos trabajaban desde casa y eran monitoreados vía Skype. Cuando se levantaban para ir al baño, tenían que explicar su ausencia al coordinador.


Intercambiaban frases de la vida cotidiana con opiniones políticas. (Imagen: Facebook/reproducción)

Los más jóvenes y mayoritariamente menos cualificados eran llamados "activadores", según las entrevistas. Recibían de sus superiores un informe detallado sobre cada una de las "personas" a las que tenían que representar: foto, historial familiar, profesión y aficiones.

Entonces, activaban el perfil y comenzaban a "alimentarlo" con publicaciones del día a día, antes de recibir instrucciones para ejecutar otras tareas. Todos tenían varias tarjetas SIM que les permitían verificar sus perfiles en las redes sociales.

Las fotos eran tomadas de bancos de imágenes, otras veces robadas de sitios de noticias y manipuladas. En un caso, usaron la imagen de una mujer víctima de asesinato.

Los posts más genéricos —"Buenos días", "Voy a comprar comida", "Buenas noches", "Estoy muy cansada" y otros similares— eran casi siempre programados.

Una de las tareas era responder a comentarios de usuarios reales. Esto era especialmente importante para crear la sensación de que el perfil era auténtico.

Añadían y seguían a gente al azar para obtener un número creíble de "amigos", lo cual ayudaba a forjar su "reputación". Los perfiles falsos también interactuaban entre ellos (incluso había parejas y familiares inventados).

Cuando un perfil era desacreditado por los usuarios, se reemplazaba por otro, que usaban de un gran banco de perfiles falsos de la compañía, dicen los presuntos exempleados.


Usaban fotos robadas en los perfiles. En esta cuenta de Twitter, el "activador" expresó opiniones sobre el político Paulo Hartung. (Imagen: Twitter/reproducción)

En torno a 25 de los perfiles hallados por BBC Brasil cesaron su actividad. Sus últimos posts y mensajes fueron publicados entre el 24 y el 27 de octubre de 2014.

La segunda ronda de las elecciones presidenciales en Brasil fue el día 26.

Durante uno o dos meses, los perfiles tuitearon únicamente sobre sus vidas, publicando textos similares para establecer una rutina y usando postsprogramados. Este patrón era roto a menudo con actividad muy intensa a favor de un candidato.

"Ganamos o bien por volumen, pues nuestro número de posts era considerablemente más alto que el que podía producir el público en general, o porque podíamos instigar a personas reales y hacer que activistas se implicaran en nuestra causa. Creamos una sensación de mayoría", dice uno de los supuestos exempleados.

Formaban parte también de una campaña para la cuenta de Twitter de Trevisan que fue nominada para un premio.

Además, dijeron que participaron en votaciones online e incluso tuvieron en cuenta que la visión política opuesta les llevó ventaja por un tiempo para dar la impresión de que todo era "orgánico y natural", en palabras de uno de ellos. "A veces, diez personas votaban durante ocho horas".

Seguidores fieles

Hubo casos en los que políticos contrataron la empresa para cuidar su imagen fuera de las campañas.

Uno de ellos es el expresidente de Senado Federal de Brasil Renan Calheiros. Él niega haber contratado la compañía.


Esta cuenta falsa usaba la imagen de un actor griego como foto de perfil. (Imagen: Twitter).

Pero en 2013, cuando hubo protestas que pedían su impeachment, los perfiles falsos crearon un hashtag (etiqueta), #MexeuComRenanMexeuComigo (si te metes con Renan, te metes conmigo) para defender al senador en las redes sociales.

Uno de sus defensores más leales, "Patrick Santino", publicó tuits a favor de Calheiros que fueron compartidos 777 veces. La foto de su perfil es la del actor griego Sakis Rouvas.


Otras fotos eran obtenidas de bancos de imágenes (Imagen: Twitter).

En 2009, Trevisan fue invitado a participar en el programa matinal de televisión más famoso de Brasil. Se presentó como consultor de marketing y dijo que había sido entrenado por los gurús de Twitter detrás de la campaña del entonces presidente estadounidense, Barack Obama.

Si se demuestra que su empresa fue responsable de la creación de perfiles falsos para influir en el debate político en Brasil, Trevisan y alguno de sus empleados podrían verse envueltos en actividades que implican acciones legales, desde suplantación de identidad hasta fraude.

La nueva legislación que fue aprobada este año por el Congreso este año —y por lo tanto no aplicable en casos pasados— prohíbe el uso de perfiles falsos para promover campañas políticas durante las elecciones.


En detalle: ¿qué dice Eduardo Trevisan?

"Facemedia es una empresa de comunicaciones digitales que lleva diez años en el mercado. Durante este tiempo, hemos ofrecido servicios a más de 100 clientes. Nuestra empresa se especializa en planificación estratégica de marketing digital, creación y mantenimiento de sitios y perfiles, monitoreo de redes de big data, y varias técnicas de marketing como SEO, SEM, copywriting, branding, design thinking y relaciones con influencers, entre otras cosas".

"Además de servir a una larga lista de clientes privados, Facemedia usa sus conocimientos en movilización digital para causas sociales. En 2011, por ejemplo, Facemedia recibió el "Premio Oscar en Twitter", del diario estadounidense New York Times, por su labor humanitaria hacia personas que habían perdido sus casas por inundaciones. (...) Los vínculos entre los perfiles son establecidos a través de criterios de las propias redes sociales. Los servicios de Facemedia en campañas electorales son descritos y registrados de manera transparente. Por cuestiones éticas y contractuales, Facemedia no puede proporcionar ninguna información sobre clientes privados.



Fuente: BBC Mundo

martes, 28 de noviembre de 2017

El gurú del 'big data': "Facebook sabe más de ti con 250 likes que tú mismo"
por Emilia Landaluce


Martin Hilbert durante una conferencia. EM


Martin Hilbert (39 años), profesor de la Universidad de California y asesor tecnológico de la Biblioteca del Congreso, es un gurú del big data. [En tosco: los datos procesados que permiten que usted reciba anuncios de una cafetera en sus redes sociales después de interesarse por el precio de algún modelo en internet]. Sin embargo, el big data no sólo tiene aplicaciones comerciales, como se ha visto en la elección de Trump (y de Obama) o recientemente, [dicen] en Cataluña.

Dicen que los rusos están manipulando las redes en favor del nacionalismo catalán. ¿Es posible

Claro. Durante las elecciones presidenciales, uno de cada cinco mensajes o noticias en Facebook o Twitter eran fakenews (mentiras). Eso es el 20%. ¡Y hubo un momento en el que había más noticias falsas que verdaderas! [Aunque quizás habría que preguntarse qué es una noticia falsa]. Después de las elecciones, Mark Zuckerberg, creador de Facebook, dijo que era «crazy» pensar que su red social tuviera alguna culpa de la elección de Trump. Ahora sabemos que 126 millones de estadounidenses recibieron mensajes falsos. Por su parte, Twitter admitió que había descubierto 100 o 200 cuentas falsas que habían sido utilizadas para manipular; en realidad fueron 3.000 cuentas falsas y 40.000 bots (robots informáticos) los que difundieron mensajes falsos.

¿Y Rusia está detrás?

Los mensajes que llegaron a 126 millones de personas en Facebook fueron pagados en rublos.

¿La democracia representativa está en peligro?  Macron dice que él no se mete en las redes sociales porque gobernar requiere distancia.

Así fueron diseñadas nuestras democracias representativas. Max Weber decía que el pueblo no puede pensar más allá del día después de mañana. La democracia directa permite al pueblo decidir sin tener en cuenta todas las consecuencias. ¿Y qué pasa? Que el pueblo mata a Sócrates. La idea de la democracia representativa es crear un proceso de deliberación en el que hay tiempo dedicado a razonar, a buscar una solución para los ciudadanos.

Algunos gobernantes sí miran las redes para decidir.

La transparencia digital lleva de un mandato libre del representante a un mandato imperativo. ¡Tenemos a los políticos en una casa de cristal como en Gran Hermano! Y la gente que sabe manejar bien esta dinámica del reality show se puede convertir en presidente de EEUU. Pero no sólo hay un flujo del pueblo al representante; también del representante al pueblo.

¿Con qué consecuencias?

Se usa nuestra huella digital de big data para tratar de controlarnos, para meternos en burbujas de filtrado, vendernos argumentos contradictorios -que son los que queremos escuchar- y lavarnos el cerebro con mensajes personalizados que nos llegan a nuestras redes sociales. Cuando Lincoln fue elegido en 1860, la gente en California no se enteró hasta una semana después porque el que tenía que llevar la noticia, iba caballo. Ahora vivimos en un mundo en el que la información va a la velocidad de la luz y todo algoritmo de inteligencia artificial conoce mi psicología mejor que yo mismo. Este diseño constitucional ya no funciona.

¿Es anacrónico?

Es lo que que Schumpeter llamaba destrucción creativa. Sucede en todas las revoluciones tecnológicas. La democracia es un proceso de comunicación e información y tiene que reinventarse por completo porque estas nuevas tecnologías le afectan directamente.

¿Hacia dónde vamos?

No sé. Con la Revolución Francesa, se inventó el Estado de Derecho. Y un algoritmo es una ley. Al mismo tiempo, la inteligencia artificial puede analizar la opinión del pueblo. Seguramente Facebook sabe más de la opinión del pueblo que los parlamentarios.

El pueblo es manipulable...

Como cualquier sistema. Como la democracia con los lobbies. La ventaja es que los bots son más fiables que los humanos. Es más sencillo reprogramar un algoritmo que cambiar el carácter de una persona.

¿Qué se está haciendo en EEUU para combatir la manipulación de las redes?

En Silicon Valley no podían creer que sus herramientas hubiesen ayudado a Trump a llegar a la Casa Blanca. Ellos también vivían en su propio filtro burbuja. A comienzos de 2017, Zuckerberg dijo que Facebook no debería contribuir a la polarización y que estaba dispuesto a perder dinero para remediarlo, pero la única razón de ser de las redes es que los usuarios pasen el mayor tiempo posible en la plataforma para lograr más ingresos. Y cuando los usuarios ven opiniones que no concuerdan con su manera de ver el mundo, se salen de la red. Por eso, se crean los filtros, las burbujas. Así se maximiza el tiempo que los usuarios están en la plataforma. Además, matemáticamente es más fácil mostrar a los usuarios lo que les gusta. Sólo hay una manera de estar de acuerdo, pero infinitas maneras de estar de desacuerdo.

¿Cómo hacen los rusos?

Ellos saben lo que le gusta a la gente. Ofrecen eso: farándula, conspiraciones...




Entonces, ¿cómo sacar a la gente de su burbuja?

En el pasado, si ibas al bar del pueblo y no te querías quedar solo, tenías que hablar con la gente. Ahora todo el mundo es como una taberna y sólo hablas con quien está de acuerdo contigo. En Silicon Valley es la pregunta del millón. ¿Cómo puedo maximizar el tiempo que el usuario permanece en la red sin que haya polarización? Nosotros hicimos un estudio con 100 estudiantes en YouTube y demostramos que con vídeos alegres hay polarización, pero con videos tristes o que dan miedo, la gente se une.

¿Por ejemplo?

Enseñamos un vídeo sobre las votaciones en un distrito. Cuando el vídeo era alegre, a muchos les encantaba pero otros lo detestaban. El filtro algorítmico nunca hubiera mostrado a los dos grupos el mismo vídeo. Por lo tanto había polarización. Si el mismo mensaje tenía un tono más triste -o que les provocara miedo- las reacciones emocionales de ambos grupos se acercaban.

El hombre es previsible.

Si se conoce la correlación entre perfil psicológico y los likes puedo utilizar Facebook para hacer psicología. Con 150 likes el algoritmo de aprendizaje automatizado puede detectar tu personalidad y con 200 te conoce más que tu pareja. Y con 250 likes puede saber más de ti que tú mismo. Ahora hay un estudio que demuestra que gracias a una nueva variable y el reconocimiento de caras se puede saber si una persona es homosexual.

Pues si vive en Irán...

Será muy útil para los anunciantes de Facebook.

Durante la campaña en EEUU, se crearon 170.000 versiones de un mismo mensaje de Trump que dependía del perfil al que fuera dirigido.

Fueron entre 30.000 y 50.000 versiones de sus mensajes de media al día.

Obama también lo hizo.

¿Por qué crees que se quedó tan callado cuando salió Snowden?

Parece peligroso que determinada gente sepa tanto de nosotros.

Ahora en Facebook se puede elegir entre 71 diferentes sexualidades. Las nuevas generaciones tienen una actitud muy diferente respecto a la privacidad, a la sexualidad. Eso ha cambiado por la transparencia digital, que ya es imparable. Las instituciones tal y como las conocemos están cambiando. Esto ya no es Uber contra los taxistas. Hay que reorganizar nuestras instituciones para que la inteligencia artificial nos permita tener un nivel de democracia como nunca la habíamos imaginado.

¿Cómo?

De momento, nadie ha puesto dinero sobre la mesa para desarrollar tecnología para la democracia pero es hacia donde debemos ir si no queremos que las instituciones se destruyan.

¿Y no facilitaría el control sobre nuestra vida?

Cada tecnología puede ser usada para el bien o para el mal. La primera visión de la llamada sociedad de la información es 1984 de Orwell. Los académicos empezamos a tratar el tema en los 80. Después hubo un tiempo en el que se sostenía que internet nos llevaría automáticamente a la libertad, a la democracia, a un mundo unido. Hay estudios de la Primavera Árabe de 2010 que argumentan que los medios sociales derrotarían a los dictadores. Y cinco años después, todo el mundo se sorprendió al comprobar cómo estas mismas herramientas ayudaron a que personalidades con caracteres antidemocráticos se hicieran con el poder.

Ahora estamos un proceso de transformación.

Cuando hay una nueva ola tecnológica, hay destrucción. Sólo lo apto sobrevive. Es brutal, pero así es.

Pensé que era optimista.

Lo soy. Por ejemplo, los incas fueron muy avanzados pero pasaban la mayoría del tiempo llevando agua para regar. Inventaron los acueductos y la mitad de la población se quedó sin empleo. ¿Y qué hicieron? Imaginaron cosas increíbles: la escritura con nudos, las astronomía... Hasta empezaron a guerrear con otros pueblos. Y nosotros ahora estamos tan ocupados haciendo el desayuno, conduciendo... que es difícil imaginar qué vendrá después cuando ya estemos estemos libres de estas tareas tan mecánicas. Vamos a inventar cosas locas. No podemos ni imaginar cómo será el mundo que nos viene.



Fuente:  elmundo.es

viernes, 24 de noviembre de 2017

Cómo será la "Internet libre" que promete el excéntrico creador de Megaupload
Busca combatir los problemas de privacidad y libertad en la red mediante el uso de nuevos protocolos de comunicación. Los detalles. 



El alemán-finlandés Kim Schmitz, alias Kim Dotcom, quiere lanzar una "Internet libre". (EFE)


Kim Dotcom, el cerebro detrás de la extinta web de descargas ilegales Megaupload, aseguró que se encuentra embarcado en un nuevo y ambicioso proyecto. Se trata de la llamada MegaNet, su respuesta a la medida del Gobierno estadounidense que pretende desregularizar la industria de la banda ancha y eliminar las normas que protegen la neutralidad de la red desde la era Obama.

"¿Qué les parecería una nueva Internet que no pueda ser controlada, censurada o destruida por los Gobiernos o corporaciones? Estoy trabajando en eso. MegaNet no se basa en IP. No mas DDoS ni hackeos. No más censura. No más espionaje. Todos nuestros teléfonos se convertirán en una red cifrada. Les sorprenderá saber cuánto espacio sin utilizar y ancho de banda tienen los teléfonos. MegaNet convertirá esa capacidad infrautilizada en una nueva red", había publicado el excéntrico empresario alemán en su cuenta de Twitter.

La idea de convertir los teléfonos en nodos de una red global cifrada y descentralizada, con un papel importante del sistema blockchain -una base de datos compartida- en su desempeño, volvió a tomar fuerza a raíz de la proyecto impulsado por la Casa Blanca que se votará el 14 de diciembre.

Básicamente, la eliminación de la neutralidad en Internet le daría a las operadoras y a las prestadoras de servicio un poder que condicionaría no solo el acceso a la información, si no también cobrar precios diferenciados -o ralentizar o bloquear la conexión- en función de los contenidos.


La nueva Internet de Kim Dotcom promete convertir los teléfonos en nodos de una red global cifrada y descentraliza. (Foto: EFE/EPA/IAN LANGSDON)


En respuesta a la iniciativa estadounidense, Dotcom anunció que las redes y los dispositivo móviles estarán preparados para albergar a MegaNet en un plazo de 4 a 5 años. "Romper la neutralidad de la red solo acelerará la adopción de una nueva red", sentenció.

Mientras tanto, la Asociación de Internet (que nuclea a las principales empresas del sector, como Facebook, Google y Amazon, entre otras) fue otra de las voces que salió a cuestionar la propuesta del Gobierno estadounidense para eliminar la llamada neutralidad en la red y denunció que la iniciativa "desafía la voluntad de millones".

"La propuesta del presidente (de la Comisión Federal de Comunicaciones, Ajit) Pai, de ser implementada, representa el fin de la neutralidad de la red tal como la conocemos y desafía la voluntad de millones de estadounidenses que apoyan la Orden de Internet Abierto 2015", consideró en un comunicado.

"Esta propuesta deshace casi dos décadas de acuerdo bipartidista sobre los principios básicos de neutralidad de la red que protegen la capacidad de los estadounidenses de acceder a Internet por completo", continuó el texto firmado por Michael Beckerman, presidente de la entidad que reúne a Google, Facebook, Amazon, Netflix, Airbnb, eBay, Microsoft, Spotify y Twitter, entre otros gigantes del sector.



Fuente: clarin.com

domingo, 19 de noviembre de 2017

Big Data: cómo está ocurriendo la revolución de los datos ocultos y los secretos más íntimos
Nuestras fantasías sexuales, las probabilidades en las carreras de caballos y los pronósticos más fiables de las elecciones presidenciales, todo eso y más comienza a ser accesible como nunca antes. Cómo se transforma un mundo inundado de cifras en información útil y valiosa
Por Javier Estrada





Si nos detenemos a imaginar a dónde se dirige el mundo en los próximos veinte -o incluso diez- años, podemos decir que nos encontramos en la segunda etapa de una revolución que abarca desde mediados del siglo XX, pero que recién hoy comienza a vislumbrar sus consecuencias más intrínsecas.

Así como la máquina de vapor y el ferrocarril marcaron el detonante de la primera revolución industrial, en nuestros tiempos la computadora se ha convertido en símbolo de una etapa histórica tan abarcativa y transformadora que una sola palabra no ha sido suficiente para describirla. Hablamos de la revolución tecnológica, digital y de la era de la información para referirnos a distintos movimientos y transiciones, pero los tres términos remiten a una época actual cuyo exponente puede identificarse con la invención de la computadora y el desarrollo del Internet.


La revolución tecnológica está recién comenzando.

Nos encontramos en la segunda etapa de la revolución porque esta tecnología, que ha sido marcada por hitos históricos como el desarrollo de ARPANET en 1969 y el del World Wide Web en 1989, ha iniciado un proceso de nuevos descubrimientos que prometen cambiar todos los aspectos de nuestra vida diaria.

Así como la máquina de vapor fue la tecnología detrás del ferrocarril, cada vez más expertos concuerdan que la tecnología detrás de la moneda virtual Bitcoin –blockchain– con el tiempo modificará el funcionamiento del Internet así como el automóvil revolucionó el transporte y sustituyó al ferrocarril en el siglo XX. Una dinámica similar también se desenvuelve con la robótica, que hasta ahora ha sido fundamental para el progreso de varias industrias pero que en los próximos años, con el continuo avance de la inteligencia artificial, probablemente seamos testigos de la emigración de los robots desde las fábricas y los laboratorios científicos a nuestro mundo cotidiano.


Big Data es el análisis de mundo continuamente inundado de datos


Otro componente esencial de esta revolución es el progresivo avance en el campo de la información en forma de Big Data. En una columna de opinión para este portal, Mario Bolo, director adjunto del Departamento de Ingeniería Informática del ITBA (Instituto Tecnológico de Buenos Aires), define Big Data como el conjunto de datos e información "que existen en el mundo o los que se crean diariamente".

"Big Data significa todos los datos, en todas sus formas, que incluyen no sólo los datos tradicionales sino también correos electrónicos, comentarios en redes sociales, fotos, audio y video, datos de instrumentos y sensores, y hasta el tono emocional de una comunicación verbal o escrita. Pero Big Data es más: también incluye el variado conjunto de tecnologías que permiten analizar esos datos", precisa Bolo.


Seth Stephens-Davidowitz y su nuevo libro, “Everybody Lies”

En su libro "Everybody Lies: Big Data, New Data, and What the Internet Can Tell Us About Who We Really Are" (Todos mienten: Big Data, nueva data y lo que Internet puede decirnos sobre quiénes realmente somos), Seth Stephens-Davidowitz argumenta que Big Data está convirtiendo a las ciencias sociales en una verdadera ciencia, "y esta nueva y verdadera ciencia está preparada para mejorar nuestras vidas".

"Estoy ahora convencido de que las búsquedas en Google son el conjunto de datos más importante jamás recopilado sobre la psiquis humana", dice Stephens-Davidowitz, un científico de datos que trabajó como analista cuantitativo en Google y actualmente es columnista para el periódico estadounidense The New York Times.

Así como Bitcoin es la primera aplicación práctica de la revolucionaria tecnología blockchain, la herramienta de búsqueda Google Trends introdujo al mundo por primera vez un método eficiente de analizar parte del gran universo que es Big Data. "Google Trends, una herramienta lanzada con poca fanfarria en 2009, informa a los usuarios con que frecuencia una palabra o frase ha sido buscada en diferentes lugares y en diferentes momentos", explica el científico.


Google Trends permite analizar las búsquedas de las personas en Internet (Google)

"En aquel momento, los datos de búsqueda de Google no parecían ser una fuente de información adecuada para una investigación académica 'seria'. A diferencia de las encuestas, los datos de búsqueda de Google no fueron creados para ayudarnos a entender la psiquis humana. Google se inventó para que la gente pudiera aprender sobre el mundo, no para que los investigadores pudieran aprender sobre las personas", escribe en la introducción de su libro.

"Pero resulta que los rastros que dejamos mientras buscamos conocimiento en Internet son tremendamente reveladores. En otras palabras, la búsqueda de información es, en sí misma, información", agrega.

Veamos algunos ejemplos.


¿Qué fantasías y disfunciones sexuales busca la gente en Internet?

Las búsquedas de pornografía revelan sorprendentes proclividades sexuales de las personas

Una de las grandes ventajas de algunas fuentes de Big Data como el buscador de Google es que, al ser herramientas impersonales que se pueden utilizar en anonimato, suelen funcionar como un confesionario al que muchas personas recurren para expresar lo que no quieren o pueden admitir en público. "El poder de los datos de Google es que la gente le dice a los grandes buscadores cosas que no le dirían a nadie más", advierte Stephens-Davidowitz.

No es el caso de las redes sociales como Facebook, Twitter e Instagram, -otra gran fuente de Big Data-, ya que, al ser plataformas que uno utiliza para relacionarse con la sociedad, existe un incentivo para mostrarse de una manera que uno realmente no es. "No hay manera de que todos sean tan exitosos, ricos, atractivos, relajados, intelectuales y alegres como aparentan ser en Facebook", afirmó Stephens-Davidowitz en una de sus columnas para el periódico neoyorquino.

Si utilizamos los datos presuntamente honestos de buscadores como Google y aprovechamos la transparencia con la cual podemos acceder a ellos, podemos descubrir comportamientos, deseos o preocupaciones que quizá nunca consideramos como características generales de los seres humanos. Por ejemplo, si buscamos la expresión "mi esposo quiere…" en Google Trends, descubrimos que en India, la búsqueda más común con esta fórmula es "mi esposo quiere que lo amamante".


Amamantar, el secreto deseo sexual característico de Asia del Sur

De hecho, las búsquedas pornográficas de imágenes de mujeres que amamantan a los hombres son cuatro veces más altas en la India y en Bangladesh que en cualquier otro país del mundo, una observación que quizá nunca hubiésemos registrado sin que los datos de Google la saquen a la luz.

Otra observación: mientras que los hombres inundan a Google con consultas sobre el tamaño de sus penes, la mayor inseguridad corporal de las mujeres, según el buscador, es el olor de su vagina. De hecho, las mujeres tienen casi tantas preguntas sobre sus vaginas como los hombres sobre sus penes. Quieren saber cómo afeitarla, apretarla y hacer que su sabor sea mejor. El olor de su vagina es realmente una inquietud seria: algunas de las búsquedas de Google más frecuentes se preocupan que sus vaginas huelen a pescado, seguido por vinagre, cebolla, amoníaco, ajo, queso, olor corporal, orina, pan, blanqueador, heces fecales, sudor, metal, pies, basura y carne podrida.

¿Tenía razón Sigmund Freud?

Sigmund Freud, el padre del psicoanálisis

Como advertimos al principio de esta nota, Stephens-Davidowitz sostiene que una de las grandes ventajas de Big Data es que puede convertir a las ciencias sociales en una verdadera ciencia. Es decir, puede producir conocimiento susceptible a la experimentación y a la prueba con datos concretos.

Cuando las teorías de Freud atrajeron por primera vez a la atención pública, muchos intelectuales se preguntaron si sus hipótesis podían ser demostradas. Frente a esta incógnita, el gran filósofo Karl Popper se inclinaba a decir que no: las teorías de Freud simplemente no eran falsificables; no había forma de probar si eran verdaderas o falsas.


El Complejo de Edipo se refiere al deseo inconsciente de mantener una relación sexual incestuosa con el progenitor del sexo opuesto

"Hasta ahora", afirma Stephens-Davidowitz.

Aunque en sus investigaciones el analista cuantitativo refuta algunas de las teorías freudianas, uno de sus descubrimientos más alarmantes fue que un impactante número de personas que visitan los principales sitios pornográficos buscan satisfacer sus fantasías incestuosas.

De las cien búsquedas más populares por hombres en PornHub, uno de los sitios pornográficos más populares, dieciséis de ellas buscan videos de incesto, como "hermano y hermana", "madre e hijo" y "hermana y hermano verdadero". Por su parte, nueve de las principales cien búsquedas por mujeres en el mismo sitio buscan la misma temática, como "padre e hija".

En Google Trends, de todas las búsquedas que comienzan con el formato "quiero tener sexo con mi…" o "estoy atraído a mi…", la forma más común de completar la frase incluye la palabra "mamá".

Podemos concluir, -quizá definitivamente-, entonces, que al menos un tenue eco del Complejo de Edipo de Freud forma parte de la psicología humana.

¿Podemos apostar al ganador en una carrera de caballos gracias a Big Data?




En 2013, un empresario cervecero egipcio llamado Ahmed Zayat viajó a Nueva York para participar en un remate de 151 caballos en el cual pretendía vender un animal propio y comprar algunos más. Para ello contrató a una pequeña firma de expertos, EQB, cuyo director, Jeff Seder, no era un hombre de campo con años de experiencia sino un graduado de Harvard nacido en Filadelfia.

Durante dos días, los expertos analizaron a todos los caballos del remate con la intención de seleccionar a cuatro o cinco para reemplazar al de Zayat, el número 85.

Sin embargo, los expertos regresaron con una recomendación inesperada: "No podemos cumplir con su petición", dijeron. "Simplemente no puedes vender el caballo número 85. Venda su casa, pero no venda este caballo".


American Pharoah, con el jinete Victor Espinoza, gana la carrera de caballos Breeders’ Cup Classic el sábado 31 de octubre de 2015, en Lexington, Kentucky. (AP Photo/Garry Jones)

Con poco entusiasmo, el caballo número 85 fue comprado por USD 300.000 por un tal "Incardo Bloodstock". Bloodstock, se reveló después, era un pseudónimo utilizado por Zayat, quién por reglas que no permitían retirar a "número 85" del remate, compró su propio caballo en un acto casi sin precedentes. 

Lo bautizó con el nombre "American Pharoah". Dieciocho meses después, en 2015, se convirtió en el primer caballo en más de tres décadas en ganar la Triple Corona.

¿Qué sabía Jeff Seder sobre el caballo número 85 que nadie más sabía?

Luego de años de investigar cómo predecir el éxito de un caballo con datos que exceden el pedigrí del animal, Seder decidió medir el tamaño de los órganos internos de los caballos.


American Pharoah

Entonces, descubrió una correlación asombrosa: encontró que el tamaño del corazón, y en particular el tamaño del ventrículo izquierdo, era un predictor sumamente efectivo para medir el éxito de un caballo. También notó que otra variable importante era el tamaño del bazo: los caballos con bazo pequeño no ganaban prácticamente nada.

Cuando Seder analizó a American Pharoah, parecía ser un caballo normal. En su primer año de vida, registraba una altura dentro del percentil 56, un peso de percentil 61 y un pedigrí de percentil 70.

¿Pero su ventrículo izquierdo? Percentil 99,61. ¿Qué más? El resto de sus órganos, incluyendo su corazón y el bazo, también eran extraordinariamente grandes. American Pharoah era un caballo único.


American Pharoah

Como demuestra está experiencia, cuando analizamos Big Data no es tan importante identificar la explicación detrás de nuestras observaciones (Seder no podía explicar exactamente por qué el ventrículo izquierdo es tan importante para predecir el éxito del caballo), sino percibir que cierta correlación efectivamente existe y funciona en el mundo real.

Lo demás es objeto de estudio del cardiólogo o el hematólogo.

¿Era posible predecir que Donald Trump ganaría las elecciones presidenciales de Estados Unidos en 2016?


Donald Trump y Hillary Clinton (AFP)

Cuando Barack Obama ganó, con cierta facilidad, las elecciones presidenciales estadounidenses de 2008 y luego un segundo mandato en 2012, varias encuestadoras profesionales sugerían que la raza ya no era un factor determinante en cómo votaban los estadounidenses. La Encuesta Gallup, por ejemplo, concluyó de sus investigaciones que a los votantes estadounidenses no les importaba que su presidente sea negro.

Durante la presidencia de Obama, la creencia popular parecía indicar que Estados Unidos, un país cuya historia traza una larga época de esclavitud y leyes de Jim Crow que culminaron en la Guerra de Secesión y el Movimiento por los derechos civiles, finalmente se había librado de su larga tradición de discriminación y disfrutaba de una época post-racial en la cual los prejuicios remanentes se limitaban a un pequeño porcentaje de los estadounidenses – la mayoría de ellos Republicanos conservadores viviendo en el Sur del país.

Cuatro años después, las mismas encuestadoras pronosticaban una y otra vez que Donald Trump, un magnate inmobiliario y presentador de televisión, no tenía chances de ganar las Primarias Republicanas ni las elecciones presidenciales de 2016 contra Hillary Clinton.


Donald Trump y Barack Obama (Reuters)

Pero Google Trends tenía otra historia que contar.

"Las búsquedas en Google presentaban una imagen de Estados Unidos que era sorprendentemente diferente a la utopía post-racial esbozada por las encuestas", afirma Stephens-Davidowitz en su libro. "En Estados Unidos, la palabra 'nigger' [una palabra para referirse a las personas negras que ha adquirido una connotación profundamente peyorativa] -o su plural, 'niggers'- se incluyó en aproximadamente el mismo número de búsquedas que las palabras 'migraña(s)', 'economista' y 'Lakers'".

"En la noche de las elecciones", continúa el autor, "las búsquedas y las inscripciones a Stormfront, un sitio supremacista blanco con una popularidad sorprendentemente alta en los Estados Unidos, fueron más de diez veces superiores a lo normal. En algunos estados, hubo más búsquedas de 'presidente nigger' que 'primer presidente negro'".


La mayor concentración de búsquedas racistas no se confinaban al Sur de Estados Unidos sino a toda la Costa Este de EEUU

Aún más alarmante, estas búsquedas no se confinaban a los estados mayormente republicanos y conservadores del Sur. "Los lugares con las tasas más altas de búsquedas racistas incluían al norte del estado de Nueva York, el oeste de Pensilvania, el este de Ohio, Michigan industrial e Illinois rural, junto con Virginia Occidental, el sur de Luisiana y Misisipi".

"La verdadera división, sugerían los datos de búsqueda de Google, no era Sur contra Norte, sino Este contra Oeste. No se ve este fenómeno mucho más al oeste del río Misisipi y el racismo no se limitaba a los Republicanos. De hecho, las búsquedas racistas no fueron más altas en lugares con un alto porcentaje de Republicanos que en lugares con un alto porcentaje de Demócratas", escribe Stephens-Davidowitz.


El apoyo a Donald Trump en las Primarias Republicanas refleja una clara correlación con el mapa del índice de búsquedas racistas

En total, "Obama perdió aproximadamente 4 puntos porcentuales en todo el país debido únicamente al racismo explícito", calculó el analista cuantitativo.

"Había una oscuridad y un odio que estaba oculto a las fuentes tradicionales de información, pero que era bastante evidente en las búsquedas que la gente hacía" en Google. "Pero esas horribles búsquedas no son difíciles de reconciliar con el éxito de un candidato que -en sus ataques contra los inmigrantes, en sus cóleras y resentimientos- a menudo apelaba a las peores inclinaciones de la gente", opina el columnista de The New York Times.

Más allá de revelaciones sobre los prejuicios raciales de la sociedad, Big Data también puede ayudar a pronosticar los resultados de una elección utilizando métodos de análisis poco convencionales y no accesibles a las encuestas tradicionales, como descifrar el número de electores que ejercerán su derecho a votar el día de las elecciones. "Más de la mitad de los ciudadanos que no votan le dicen a las encuestas inmediatamente antes de una elección que piensan hacerlo, distorsionando nuestra estimación de la participación electoral, mientras que búsquedas en Google sobre 'cómo votar' o 'dónde votar' semanas antes de una elección pueden predecir con precisión qué partes del país van a tener una gran presencia en las urnas", señala el graduado en filosofía de la Universidad de Stanford y en economía de Universidad Harvard.


Donald Trump (AFP)

No solo eso: las búsquedas en Google también pueden revelar información sobre el candidato a quien probablemente votará un votante indeciso. Analizando los datos de las elecciones, el profesor de finanzas en la Universidad de California, Stuart Gabriel, y Stephens-Davidowitz descubrieron que "un gran porcentaje de las búsquedas relacionadas con las elecciones contienen consultas con los nombres de ambos candidatos. Durante las elecciones de 2016 entre Trump y Hillary Clinton, algunas personas buscaron 'Encuestas Trump Clinton'. Otros buscaron lo más destacado del 'Debate de Clinton Trump'. De hecho, el 12 por ciento de las búsquedas con 'Trump' incluían también la palabra 'Clinton'. Más de una cuarta parte de las consultas de búsqueda con 'Clinton' también incluyeron la palabra 'Trump'".

Entonces, ¿Cómo pueden unas búsquedas aparentemente neutrales darnos algunas pistas sobre el candidato a quién votarán algunos electores indecisos?

Por "el orden en que aparecen los candidatos", concluyeron los analistas. "Nuestra investigación sugiere que en una búsqueda que incluye los nombres de ambos candidatos, una persona es significativamente más propensa a poner al candidato que apoya primero".




Este último ejemplo nos ayuda a apreciar los primeros tres de los cuatro poderes de Big Data y de su análisis que destaca Stephens-Davidowitz en su libro, aunque a continuación enumeramos su lista completa:


1. Big Data ofrece nuevos tipos de datos
2. Big Data ofrece datos más honestos
3. Big Data nos permite focalizarnos en grupos más precisos de individuos
4. Big Data permite realizar muchos experimentos causales en poco tiempo


Si pretendemos integrarnos a la economía del futuro, es importante entender que, indudablemente, Big Data conformará una parte central de ella. Cada vez más y más datos inundan el mundo (un promedio de 2,5 trillones de bytes por día, para ser exactos), y el abanico de posibilidades que se abre con nuestra capacidad de analizarlos es realmente inagotable.

La revolución de las ciencias sociales ha comenzado.



Fuente:  infobae.com

martes, 14 de noviembre de 2017

Los pioneros de Facebook critican su deriva hacia la manipulación masiva
Un nuevo estudio muestra cómo la red usa la persuasión psicológica para explotar "debilidades"
por Javier Salas


El líder de Facebook, Mark Zuckerberg, en un acto reciente. JEFF ROBERSON AP


El primer presidente de Facebook, y su principal impulsor en 2004, Sean Parker, aseguró la semana pasada que “solo Dios sabe lo que esta tecnología le está haciendo al cerebro de nuestros niños”. Parker reconocía abiertamente que, en los inicios del lanzamiento de la red social, todos los implicados sabían perfectamente que estaban creando una plataforma que se aprovecha de las “debilidades psicológicas humanas”.

El mentor de Mark Zuckerberg y uno de los primeros inversores en su compañía, Roger MacNamee, considera que Facebook “ha combinado conscientemente la tecnología con técnicas de persuasión desarrolladas por propagandistas y la industria del juego en modos que amenazan la salud pública y la democracia”, según escribió este mismo sábado en The Guardian.

El ingeniero que desarrolló el mítico botón de Like de Facebook, Justin Rosestein, ha borrado todas las aplicaciones sociales de su móvil porque considera que la economía de la atención —que ayudó a fortalecer— saca lo peor de la humanidad, la distrae convirtiéndola en objetos que comprar y pone en “riesgo” la autonomía individual y colectiva. Por su parte, Leah Pearlman, la evangelizadora de ese “botón alucinante” que se convirtió en el mayor éxito de Facebook, se gana la vida ahora como ilustradora y tiene contratada una persona para compartir en redes su trabajo. No quiere tener ningún contacto con el producto que ayudó a levantar, para huir de la adictiva espiral de recompensas de la red social.

En las últimas semanas ha comenzado a difundirse este reverso tenebroso de la plataforma, que cuenta con 2.000 millones de usuarios mensuales, en gran medida por sus propios errores en la gestión de crisis como la de la difusión masiva de desinformación en favor de Trump por parte de peones del Kremlin.

El estudio defiende que "esto es solo el primer paso en un desarrollo continuo de la persuasión psicológica masiva"

La capacidad de manipular a sus usuarios con trucos psicológicos suele estar en el centro de esa polémica. Hoy se publica un estudio que muestra, tras varios experimentos que implican a millones de personas, como las herramientas que ofrece Facebook a los anunciantes la convierten en una máquina perfecta de persuasión masiva. La plataforma ingresó el último trimestre más de 9.000 millones de dólares en anuncios, su único modelo de negocio. Como dijo Jeff Hammerbacher, antiguo jefe de datos de Facebook: “Las mejores mentes de mi generación se dedican a pensar cómo hacer que la gente pinche en anuncios. Es un asco”.

“La orientación psicológica puede usarse para explotar la debilidad en el carácter de las personas y persuadirlas para actuar en contra de su interés. Por ejemplo: pueden dirigirse anuncios de casinos online a individuos que tienen rasgos psicológicos asociados con la ludopatía”, advierte Sandra Matz, investigadora de la Universidad de Columbia y autora principal del estudio, que publica hoy PNAS. En sus conclusiones, el estudio defiende que "esto es solo el primer paso en un desarrollo continuo de la persuasión psicológica masiva".
El reverso tenebroso

Investigaciones recientes muestran que se pueden predecir con detalle las características psicológicas a partir de la huella digital de las personas, como sus likes y sus tuits. Partiendo de esta base, los investigadores examinaron los efectos de la persuasión psicológica en el comportamiento real de la gente por medio de tres experimentos reales con anuncios diseñados específicamente para un perfil psicológico muy concreto, que alcanzó a 3,7 millones de personas. Matz y sus colegas descubrieron que encajar el contenido de los reclamos con las características psicológicas del usuario altera significativamente su comportamiento. Al mostrar anuncios pensados para personas extrovertidas a usuarios de este perfil lograron un 40% más de clics y un 50% más de compras que con individuos aleatorios.

Los investigadores, que también pertenecen a las universidades de Stanford, Pensilvania y Cambridge, advierten de que sus resultados son muy conservadores, puesto que solo usaron un rasgo de personalidad muy genérico y la plataforma permite centrar el foco sobre numerosos detalles personales de los usuarios. Una investigación de ProPublica mostró que se pueden combinar hasta 52.000 atributos personales, y en la mayoría de los casos los usuarios no son conscientes de que están siendo vendidos a los anunciantes con rasgos e intereses que no son explícitos para ellos. Facebook vende estos atributos para que otras compañías puedan, por ejemplo, decidir cómo seremos atendidos al llamar a un call center sin que nunca lo sepamos.

“El hecho de que a menudo ni el público ni los políticos sean conscientes de que las tecnologías como la orientación psicológica existen, y que son efectivas influyendo en el comportamiento, es exactamente el motivo por el que empezamos esta investigación”, asegura Matz. “Nuestra esperanza es que teniendo una discusión pública podamos desarrollar soluciones y contrapesos en forma de políticas, normas y contramedidas tecnológicas que se aseguren de que esta tecnología sirve para el bien y no para el mal”, añade esta investigadora.

La capacidad para conocer en detalle las debilidades de las personas y usarla en favor de los anunciantes es un eje básico de la economía de la atención que ha hecho inmensamente ricas a compañías como Google. “No estamos diciendo que sea algo que solo puede hacerse en Facebook. Al contrario, esto es algo que podría desarrollarse en casi cualquier plataforma publicitaria que permita a los comerciales apuntar en función de sus intereses”, defiende.

El problema es que esa manipulación personalizada y masiva puede llevarse mucho más allá de la clásica relación entre anunciante y consumidor. Un ejemplo: en 2012, Facebook dio a conocer un estudio masivo con 60 millones de usuarios en el que demostraba que había sido capaz de movilizar a 340.000 abstencionistas para que fueran a votar. En las últimas elecciones presidenciales de EE UU podría haberse usado esa tecnología a la inversa: el equipo de Trump habría usado estas técnicas de propaganda personalizada para desmotivar a los electores demócratas y lograr que se quedaran en casa en lugar de votar por Clinton.



Fuente: elpais.com

sábado, 4 de noviembre de 2017

La propagación de noticias falsas por medio de “bots” podría llegar a ser una amenaza para las democracias



Shao, Chengcheng, Ciampaglia, Giovanni Luca.. “The Spread of Fake News by Social Bots”. Arxiv, 2017

La difusión masiva de noticias falsas ha sido identificada como un riesgo global importante y se ha alegado que podría influir en las elecciones y amenazar a las democracias.

Los científicos de la comunicación, los cognitivos, los sociales y los informáticos se dedican a estudiar las causas complejas de la difusión viral de la desinformación digital y a desarrollar soluciones, mientras que las plataformas de búsqueda y redes sociales están empezando a desplegar contramedidas. Sin embargo, hasta la fecha, estos esfuerzos han sido principalmente informados por evidencia anecdótica en lugar de datos sistemáticos.

En esta investigación se analizaron 14 millones de mensajes que propagan 400 mil reclamos en Twitter durante y después de la campaña presidencial de 2016 en Estados Unidos y las elecciones. Encontrándose evidencias de que los bots sociales juegan un papel clave en la difusión de noticias falsas, ya que las cuentas que difunden activamente la desinformación son significativamente más propensas a ser bots.

Las cuentas automatizadas son particularmente activas en las primeras fases de propagación de las reclamaciones virales y tienden a dirigirse a usuarios influyentes. Los seres humanos son vulnerables a esta manipulación impulsada por bots de retweeting que publican noticias falsas. Las fuentes exitosas de afirmaciones falsas y sesgadas están fuertemente apoyadas por bots sociales. Estos resultados sugieren que frenar los bots sociales puede ser una estrategia eficaz para mitigar la propagación de la desinformación en línea.




Fuente: universoabierto.org

viernes, 27 de octubre de 2017

Operaciones 3.0: cómo trabaja el ejército de trolls que busca incidir en la opinión pública
Extraen datos de los usuarios reales y crean cuentas apócrifas. Una misma persona llega a administrar hasta 5000 personajes virtuales
por Javier Borelli 




No tienen documento, no pagan impuestos, ni votan; pero pueden incidir en una elección. No tienen información genuina, no hablan con nadie, ni se preocupan por dar argumentos; pero pueden instalar temas en agenda. Nacen en “granjas”, no tienen moral y se mueven como ejército; pero nunca los vas a cruzar por la calle. Son trolls, identidades virtuales diseñadas sobre la base de algoritmos y estadísticas demográficas para intervenir en la disputa por el sentido, y no dan tregua. ¿Quiénes están detrás de las operaciones políticas 3.0?

“Veinte cuentas contribuyeron con el 18% de los tweets sobre la noticia falsa de Maldonado. 20 cuentas que hicieron 837 tweets en 2 horas”, escribió Luciano Galup, especialista en redes sociales y comunicación política, en su cuenta de Twitter el 9 de octubre último. Ese día los trolls habían alimentado una nueva operación mediática que buscaba confundir sobre la colaboración de la familia de Santiago Maldonado en la causa que investiga su desaparición forzada. Lo hicieron enviando hasta 102 tuits desde una misma cuenta y promoviendo temas de debate que buscaban revictimizar a la familia. 

Siguiendo el rastro que dejaron esas cuentas, la Revista Mu pudo identificar patrones comunes. Por ejemplo todas opinaron en simultáneo y en sintonía sobre los mismos temas: “la conferencia de prensa de Cristina Kirchner, el barril enterrado en el jardín de la casa del sindicalista Pata Medina, la causa AMIA y los sospechosos de atacar a la prensa en la última marcha por Santiago Maldonado, presentados como militantes kirchneristas”, resume el artículo.

Los titiriteros

“Trabajé durante un año en una agencia de comunicación que hacía este tipo de campañas sin distinción de candidato. Lo hice para Daniel Scioli y para Diego Santilli”, cuenta Florencia, de 33 años y licenciada en Ciencias de la Comunicación. A ella le tocó manejar unos cinco mil perfiles distintos de manera simultánea y, para ello, le habían desarrollado un software especial para coordinar las interacciones.

“En la agencia había diseñadores gráficos que hacían memes, community managers que manejaban cuentas más importantes y algunos chicos que creábamos contenidos para el batallón de trolls”, recuerda en diálogo con Tiempo. La estrategia de su agencia consistía en promover algunos usuarios como “influenciadores” cuidando más artesanalmente la construcción de su identidad mientras que los trolls replicaban a los primeros y empujaban con mensajes menos elaborados para crear tendencia por volumen. 

“Lookeaba las cuentas y robaba imágenes para los perfiles. A eso le llamamos 'incubar'”, detalla Pamela que trabajaba de miércoles a domingo por unos 9000 pesos al mes. Todos los días recibía alguna indicación del jefe de campaña con los temas importantes del momento. Si había alguna actividad de campaña o si había que atacar a alguien. 

Magdalena, de 28 años, tuvo una experiencia semejante. “Para nosotros era como un trabajo freelance. Trabajábamos desde casa para un coordinador que nos asignaba por día entre 20 y 40 usuarios y nos daba una consigna: hay que salir a matar a tal, hoy presenta un proyecto en el congreso y quiere posicionar un tema, o algo semejante. Después cada uno ponía lo suyo y había que ser cuidadoso para que no se dieran cuenta”, agrega quien se formó como actriz pero cuya experiencia laboral la hizo en el marco de la comunicación política. En 2016 cobró 20 mil pesos por 30 horas semanales por esta tarea.

“A mi me tocó defender o agredir, pero eran temas de corrupción o denuncias políticas. Lo hacía escribiendo cosas que no me representaban, lo que me generaba mucha frustración y angustia. Pero la mayoría de los trabajos producen eso y tenía límites. Nunca hubiera hecho lo que hicieron con la familia de Santiago Maldonado”, reflexiona Magdalena. 

Germán tiene 40 y coordina el trabajo de redes sociales en su agencia. “Tenemos un mini ejército de avatares, cada uno con su perfil y sus características”. Son cuentas de Twitter y Facebook. “Con las primeras tratamos de instalar tendencias y con la segunda intervenimos en las notas de los diarios ya que la mayoría de los portales te piden usuario”, añade. En su mayoría, explica, se dedican a “campañas del bien” como promocionar temas en Twitter para ONG o causas sociales. Pero también han hecho trabajos políticos.

“Nos ha pasado que el equipo de prensa de un candidato a concejal que va mal nos pide que levantemos su imagen. Entonces lo pintamos a él de bueno, a un competidor de chorro y al otro de inútil. Se arman memes y se lanza la campaña. Son dos horas intensas. Lo que no lograste en ese rato no lo vas a lograr en 10 horas”, explica. 

“A mi me llamaron este año para ofrecer un trabajo de troll en apoyo al actual presidente ecuatoriano, Lenin Moreno”, cuenta Guillermo, periodista de 33 años. “Me pedían que cree y administre unas 20 cuentas y que escriba a razón de cinco tweets por día. Ellos me iban a dar un mensaje que había que transmitir y yo tenia que customizarlo según el perfil del personaje”, explica. 

“Como en ese momento Moreno estaba en plena pelea con el ex presidente Rafael Correa, querían que las cuentas que yo usara salieran a contestarle cada vez que él tuiteara”, recuerda. Le pedían que esté activo sábados y domingos y que haga “mantenimiento” durante la semana por unos 12 mil pesos. “La plata venía bien y me permitía trabajar desde casa, pero lo que tenía que hacer no me gustaba y me iba a volver loco creando historias para tantas personas de otro país”, explica.

Trolls de Estado

“Al menos 28 países tienen equipos gubernamentales, militares o políticos comprometidos en la manipulación de la opinión pública en las redes sociales”, asegura el informe “Ciber tropas, trolls y provocadores: un inventario global de la manipulación organizada de las redes sociales” publicado por la Universidad de Oxford en septiembre. 

Según el informe, que se basa en denuncias realizadas por medios y ONG de los distintos países (incluida la Argentina), “los regímenes autoritarios no son los únicos ni los mejores en la manipulación de las redes sociales. Los reportes más antiguos del involucramiento de los gobiernos en el empujón de la opinión pública aparecen en las democracias, y las innovaciones tecnológicas de comunicación política surgen durante las elecciones”, detalla.

Según informó Tiempo en agosto de 2016, la Secretaría de Comunicación Pública cuenta con un equipo especial destinado a intervenir en redes sociales y que funciona dentro de la Subsecretaría de Vínculo Ciudadano, dirigida hasta mayo último por Guillermo Riera. En octubre de 2016, por medio de un pedido de acceso a información pública realizado por La Nación, se supo que esa Subsecretaría cuenta con 30 personas destinadas exclusivamente a las redes sociales y que en 2016 contó con un presupuesto de 163 millones. Si bien el monto destinado a esa Subsecretaría no está discriminado, se sabe que el presupuesto 2017 de toda la Secretaría de Comunicación Pública subió un 13,5% y en el proyecto para 2018 el aumento estimado es de un 12% adicional. 

Tecnología vs Ciencia

En diciembre de 2016, en plena toma del Ministerio de Ciencia y Tecnología en reclamo por el recorte presupuestario y la baja de un 60% en el ingreso de investigadores al Conicet, una campaña en redes sociales pretendió desvalorizar el planteo. 

Analía Luis y Yamila Abbas, dos investigadoras de la Facultad de Ciencias Sociales de la UBA, probaron que la "conversación" sobre el Conicet fue pareja en consideración positiva (52%) y negativa (48%). Esta última estuvo dominada por una menor cantidad de cuentas (la mayoría sin identificación real) y caracterizada por un mayor número de retuits. Además observaron que mientras que los comentarios positivos mantuvieron un comportamiento similar durante los 12 días analizados, los negativos bajaron mucho en los fines de semana, como si cumplieran horario de oficina. 



Fuente:  tiempoar.com.ar