sábado, 20 de enero de 2018

Cómo las redes sociales nos idiotizan
Por Jesse Singal


Steven Pinker, profesor de la Universidad de Harvard. Credito: Victor J. Blue/Bloomberg, vía Getty Images


Recientemente se divulgó un video de Steven Pinker, un profesor de la Universidad de Harvard, en el que al parecer alababa a miembros de un movimiento racista. El video, que fue grabado en noviembre durante un evento en Harvard organizado por la revista Spiked, mostraba a Pinker mientras se refería a “la gente a menudo muy educada, muy inteligente que tiene tendencias de extrema derecha” y destaca que son “conocedores del internet y los medios”.

La grabación se hizo viral. La derecha lo celebró y la izquierda se enfureció. El sitio web neonazi Daily Stormer redactó un artículo con un titular que, en parte, decía: “Profesor judío de Harvard admite que la extrema derecha y la derecha tienen la razón en todo”.

Un tuit del video publicado por Alex Witoslawski, una persona que se describe como un “provocador de la chusma y simpatizante de la extrema derecha”, obtuvo cientos de retuits incluyendo uno de Richard Spencer, un líder nacionalista blanco.

“Steven Pinker desde hace tiempo ha sido un favorito de la extrema derecha supremacista y blanca”, señaló el periodista Ben Norton, quien simpatiza con la izquierda. “Y él les corresponde”, añadió. Otros reaccionaron al rumor con simple exasperación: “Dios santísimo”, dijo el comentarista liberal y biólogo PZ Myers, quien también escribió un texto en el que denunció a Pinker por esta supuesta alianza.

La idea de que Pinker —un profesor de psicología que es judío y liberal— sea fanático de un movimiento antisemítico y racista en internet es totalmente absurda, así que se podría rechazar esta historia como una exageración al igual que cualquier otro ejemplo de lo que las redes sociales hacen mejor: generar indignación.

Sin embargo, es un episodio que vale la pena desentrañar porque enfatiza una tendencia perturbadora que empeora cada vez más en las redes sociales y mediante la cual esas lealtades tribales están remplazando los tradicionales conocimientos empíricos.

Quizá “subtribal” es el término más preciso y adecuado en este caso. Una cosa es decir que la izquierda y la derecha no están de acuerdo sobre hechos simples de la historia del mundo: ese tipo de fragmentación informativa ha estado ocurriendo durante un tiempo y precede a Twitter. Lo que las redes sociales hacen es acercar la lupa cada vez más, por lo que es más difícil que la gente que está de acuerdo en cuanto a su ideología general no lo esté sobre hechos básicos de los sucesos noticiosos.

Eso se debe a que las nocivas dinámicas sociales de estos espacios en línea promueven la idea de que cualquiera que no esté de acuerdo contigo sobre un tema controvertido, aunque sea un leve desacuerdo, es incorregiblemente tonto, malvado o sospechoso. En una amplia y creciente gama de temas no existen los desacuerdos de buena fe.

La furia en línea dirigida a Pinker es el ejemplo perfecto. El video era engañoso. Si se ven los ocho minutos completos del pánel del cual lo extrajeron está claro que el punto de Pinker es que las creencias de la extrema derecha son falsas e ilógicas, pero que la izquierda necesita hacer un mejor trabajo a la hora de combatirlas.

El video comienza con Pinker diciendo que está de acuerdo con los otros panelistas (dos periodistas y un abogado) acerca de que “la corrección política ha dañado muchísimo a la sección de la población que podría ser… no quisiera decir ‘susceptible’, pero sí cuya afiliación podría estar disponible para quien la busque”.

Este problema se presenta cuando se trata de “las personas muy educadas y muy inteligentes que tienen tendencias de extrema derecha: conocedoras del internet y los medios que a menudo se radicalizan y ‘eligen la pastilla roja’, como dice el dicho, una referencia a la película The Matrix“.

Pinker continúa argumentando que cuando los miembros de ese grupo se encuentran por primera vez con ideas que desaprueban o que se callan en los círculos liberales —aseveraciones como que la mayoría de los atacantes con bombas son musulmanes o que los miembros de distintos grupos raciales cometen delitos a tasas más altas, por ejemplo— de inmediato “se infectan con un sentimiento de indignación causada porque estas verdades son indecibles” y así “no hay barrera que les impida tomar conclusiones bastante repulsivas”.

Esa es una situación desafortunada, argumenta Pinker, porque aunque alguien use esos hechos para apoyar opiniones intolerantes, no tendría por qué ser así pues “para cada uno de ellos, hay argumentos muy poderosos sobre por qué no fomentan el racismo, el sexismo y el anarcocapitalismo, etcétera”.

Después se dispone a explicar con cuidado esos argumentos contrarios: por ejemplo, aunque en este momento es cierto que, según la Oficina de Estadísticas de Justicia, la tasa de homicidios es más alta entre las personas de raza negra que para los blancos, eso en realidad no nos dice nada de ese grupo de gente puesto que, en distintos momentos de la historia, diferentes sectores de la población han tenido elevadas tasas de crímenes; en algún momento fueron los irlandoestadounidenses. Según la misma lógica, dice Pinker, “los grupos extremistas de derecha cometen la mayoría del terrorismo nacional” y no los musulmanes.

Cada vez es más difícil hablar de cualquier tema controvertido en internet sin que cada opinión sea convertida en una caricatura creada por los oportunistas que comercian con la indignación.

Sería imposible que una persona razonable vea el video de ocho minutos y piense que el punto de Pinker es alabar a la extrema derecha en vez de establecer un argumento psicológico sobre la corrección política, el reclutamiento de la extrema derecha y cómo combatir mejor las ideas fanáticas de ese movimiento.

Ahora bien, quizá no estás de acuerdo con ciertas partes de ese argumento —como en mi caso, pues creo que Pinker exagera la intensidad de la corrección política en los campus universitarios— pero es difícil entablar ese debate en primer lugar cuando una versión tan gravemente distorsionada de la opinión de Pinker se está esparciendo cual incendio forestal en internet.

Steven Pinker estará bien. Una exageración momentánea en Twitter no afectará su larga y exitosa carrera como intelectual en el ámbito público. Sin embargo, esto sucede cada vez más y, en muchos casos, le pasa a personas que no tienen ni el posicionamiento ni la reputación de Pinker.

Cada vez es más difícil hablar de cualquier tema controvertido en internet sin que cada opinión sea convertida en una caricatura creada por los oportunistas que comercian con la indignación de modo que todos, por temor a quedar atrapados en la escaramuza que está a punto de explotar, nos refugiamos en nuestras trincheras ideológicas donde podemos exaltar nuestra rectitud colectiva sanos y salvos.

En este caso sería algo como: “¡Steven Pinker dijo que la extrema derecha es buena! ¡Pero la extrema derecha es mala! ¡Debemos defender este principio!”.

Caer en eso nos está convirtiendo en personas más tontas.



Fuente: nytimes.com

jueves, 18 de enero de 2018

Seis técnicas de persuasión que usan los estafadores en internet y cómo identificarlas


La ingeniería social se basa en la interacción humana y les permite a los estafadores tenderles trampas a los internautas.


Puede que alguna vez hayas leído o escuchado la expresión "ingeniería social", pero ¿sabes lo que significa?

En ciencias políticas, el término se usa para hablar sobre las influencias y acciones que emplean ciertos gobiernos y clases de poder sobre la sociedad para intentar cambiarla.

Pero en seguridad informática, la expresión se refiere a las técnicas de manipulación psicológica que usan los ciberdelincuentes para tenderles trampas a los internautas.

La ingeniería social es el arte del engaño.

El objetivo puede ser diverso, desde obtener información hasta realizar fraudes o acceder de manera ilegítima a ciertos documentos.

Para lograrlo, los estafadores se valen de una serie de métodos y herramientas con las que buscan confundir al usuario.

Estas son algunas de ellas.

1. Principio de simpatía

A través de la observación de los movimientos que haces cuando navegas por la red o de la información que hay publicada sobre ti, los estafadores pueden recopilar muchos datos, desde tu dirección de correo electrónico hasta tu número de teléfono, el nombre de tu mascota o tu lugar de residencia.


Los hackers observan lo que publicas y después usan esa información a su favor.

Conseguir datos puede ser más sencillo de lo que muchos piensan. Compruébalo tú mismo. ¿Qué tanto puede saber un extraño sobre ti analizando tus redes sociales?

La manipulación viene después: los hackers usan esa información para hacerse pasar por una persona de tu confianza y tenderte trampas.

"El principio de simpatía, también traducido como de afición, gusto o atracción, nos señala algo que a primera vista puede parecer simple: estamos más predispuestos a dejarnos influir por personas que nos agradan, y menos por personas que nos producen rechazo.", explica el psicólogo y escritor estadounidense Robert Cialdini, quien escribió en 1984 Influence: The Psychology of Persuasion ("Influencia: la psicología de la persuasión") y definió los seis principios.

Lo mejor es que evites dar demasiados datos sobre ti a quien no conoces. Tendemos a confiar más en extraños cuando navegamos por internet. Recuerda que más vale prevenir que curar.

La observación también puede referirse a los documentos que tienes en el equipo. Por eso, cuanta menos información dejes a la vista en el escritorio, mejor.

UN CONSEJO: Si no quieres compartir demasiados datos sobre ti en internet, desactiva la geolocalización para que otros usuarios de internet no sepan dónde te encuentras. También es recomendable comprobar tu perfil público o visitar directorios de internet para saber qué información tienen sobre ti.

2. Principio de escasez

"Date prisa". "Es urgente". "Cambia ya tu contraseña". "¡Llama ya!".


Una de las trampas más habituales consiste en meterles presión a los internautas.

Meter presión a los usuarios para lograr sus objetivos es una de las técnicas más habituales de los ciberdelincuentes.

A través de esa presión buscan pasar inadvertidos, dándole menos oportunidad al usuario de que caiga en la trampa.

Muchas veces usan ese sentido de urgencia para enviar "ofertas que no te puedes perder" y todo tipo de "oportunidades" que, en realidad, no son tan "exclusivas" como aseguran en esos emails o mensajes de texto.

Y esa urgencia está muy relacionada con lo que en psicología se define como el "principio de escasez", el cual nos hace estar más dispuestos acercarnos a algo si notamos que es escaso o difícil de conseguir.

3. Principio de autoridad

La amenaza a menudo viene de la mano de la urgencia. Por ejemplo: "Es urgente. Si no cambias ahora mismo tu contraseña, perderás tu cuenta para siempre".

Y la amenaza viene de la mano de lo que se conoce como principio de autoridad.

Según explica Cialdini, "estamos más predispuestos a dejarnos influenciar cuando somos interpelados por una autoridad".


Los estafadores a menudo se hacen pasar por personas o entidades que transmitan autoridad. Por ejemplo, una entidad bancaria o el jefe de la víctima.

No se trata de coaccionar o ejercer poder, sino con "el aura de credibilidadque la autoridad supone".

"Tendemos a creer que quienes están en posiciones de liderazgo tienen más conocimiento, más experiencia, o más derecho a opinar", añade en su libro el especialista.

Para ello, a menudo los hackers intentan hacerse pasar por una entidad o persona de confianza de la víctima. A esta técnica se la conoce como phishing.

4. Principio de reciprocidad

A través de una serie de preguntas de índole personal, los estafadores desarrollan los perfiles de sus víctimas.

Gracias a ello, logran establecer vínculos para identificar los temas hacia los que pueden reaccionar de manera más favorable para ellos.


Intentan ganarse la confianza. Para ello, suelen crear perfiles falsos en redes sociales y plataformas web.

Muchas veces, usan perfiles falsos para lograr el engaño. Este tipo de conexiones también se usan para fraudes de "sextorsión".

A través de estas estrategias aplican lo que se conoce en psicología como "principio de reciprocidad", el cual establece que tendemos a tratar a los demás de la misma manera en que nos tratan a nosotros.

Por ejemplo, si recibimos un regalo o beneficio, sentiremos la necesidad de devolver el favor. La eficacia de este método psicológico es mayor si el regalo es percibido como algo personal.

Lo mismo ocurre si nos cuentan una confidencia o un secreto íntimo: es muy probable que queramos contar también algo nuestro.

UN CONSEJO: No establezcas diálogos con desconocidos sobre tu vida personal. ¿Por qué te hace tantas preguntas? ¿Para qué necesita saber toda esa información?

5. Principio de compromiso y coherencia

Al haber observado tus comportamientos previos y saber sobre ti, los hackers son capaces de captar la atención de sus víctimas.

Si, por ejemplo, quieren que la persona tome una decisión de manera impulsiva, será más fácil lograrlo siendo coherente con el perfil de esa persona, con los gustos que tiene, con cómo se define...

Además, ese principio establece que cuando una persona se compromete con algo, tiene más probabilidades de cumplir con su compromiso, incluso cuando su motivación original haya desaparecido.

Por eso, a veces, los estafadores se valen de formularios y preguntas clave que te obligan a comprometerte con algo específico.

6. Principio de aprobación social


Seguir al rebaño no tiene por qué ser lo más inteligente.

Este principio, al que también se denomina "consenso" o "seguir el rebaño", establece que tendemos a acomodarnos a lo que opina la mayoría de la gente.

Eso quiere decir que si mucha gente da algo por bueno, nosotros probablemente lo hagamos también (y viceversa).

Los estafadores intentan convencernos de que cierto antivirus (que en realidad es un programa malicioso que intentan vender en ventanas emergentes) es el que usa todo el mundo... y por eso lo "necesitamos" instalar nosotros también.

O que mucha gente participó en un sorteo y a mucha gente le tocó un precio: "¡Tú también puedes lograrlo!"

No te dejes engañar.



Fuente: BBC Mundo

jueves, 14 de diciembre de 2017

Estados Unidos pone fin a las normas que aseguraban la neutralidad de la red y el acceso igualitario a internet


El nuevo director de la FCC, Ajit Pai, ha dicho que las normas sobre neutralidad de la red fueron un error.

La Comisión Federal de Comunicaciones de Estados Unidos (FCC, por sus siglas en inglés) revocó este jueves la normativa de 2015 que protegía la neutralidad de la red, que aseguraba el acceso igualitario a internet de todos los individuos y compañías.

Esa reglamentación aprobada durante el gobierno de Barack Obama impedía a los proveedores de servicios de banda ancha bloquear, ralentizar o dar prioridad a algunos contenidos disponibles en línea, algo que ahora sí se podrá hacer.

El objetivo de la neutralidad de la red es asegurar una internet libre y abierta, en la que haya condiciones igualitarias para todos los consumidores al tiempo que se evita que los prestadores de servicio de banda ancha favorezcan sus propios contenidos o los de las empresas que paguen un canon.

El cambio de las reglas aprobado este jueves bajo el auspicio del gobierno de Donald Trump ha sido duramente criticado por las organizaciones que defienden una internet libre e igualitaria, así como por grandes compañías del sector como Facebook y Alphabet, la empresa matriz de Google, y el Partido Demócrata.

Los partidarios del fin de la neutralidad sostienen que la normativa de 2015 dificultaba el progreso y la inversión en el área de las telecomunicaciones.

Victoria para las grandes compañías

El líder de la mayoría republicana en el Senado, Mitch McConnell, dijo que con esta medida la FCC "regresaría internet a un mercado controlado por los consumidores y libre de regulaciones que perjudican la innovación".


Las grandes empresas de telecomunicaciones como Comcast pueden ser las grandes beneficiarias de las nuevas reglas.

La decisión de la FCC es una victoria para los grandes proveedores de servicios de banda ancha en EE.UU. como AT&T, Comcast y Verizon, que desde hace tiempo veían con frustración como no lograban obtener beneficios adicionales del uso intensivo que los usuarios hacen de sus redes para consumir ciertos contenidos.

Estas empresas han dicho que no prevén bloquear el acceso, pero que podrían dar prioridad a la entrega de ciertos contenidos aprovechando que la nueva normativa les permitirá cobrar a los sitios de internet para llevar sus contenidos hasta los usuarios.

En ese sentido, sin embargo, la nueva regulación les impone la obligación de mantener informados a los consumidores acerca de cuáles son las características del servicio que están prestando.

El cambio de normativa fue impulsado por el nuevo director de la FCC, Ajit Pai, un republicano nombrado en ese cargo por el presidente Donald Trump.

Pai ha dicho que las normas sobre neutralidad de la red fueron un error. "Eso ha hecho disminuir la inversión en la construcción y expansión de las redes de banda ancha", afirmó en una declaración hace un par de semanas.

"Por casi 20 años, internet prosperó gracias a un enfoque regulatorio ligero establecido por el presidente Clinton junto a un Congreso republicano. Ese marco bipartidista llevó al sector privado a invertir US$1.500 billones construyendo redes de comunicación a través de todo Estados Unidos. Y eso nos dio la economía de internet que se convirtió en la envidia del mundo", agregó.

Voto dividido

La decisión de revertir las regulaciones sobre la neutralidad de la red fue tomada en una votación que quedó 3 a 2, en la que se impuso la posición de los 3 comisionados de la FCC de tendencia republicana.


La comisionada Jessica Rosenworcel cuestionó la decisión tomada por la FCC.

Jessica Rosenworcel, una de las comisionadas disidentes (de tendencia demócrata), dijo en una declaración escrita divulgada este jueves que a través de la nueva normativa se otorga un "extraordinario nuevo poder" a los proveedores de internet.

"Ellos tienen la habilidad técnica y los incentivos económicos para discriminar y manipular el tráfico de internet. Y ahora esta agencia (la FCC) les ha dado luz verde para que avancen", afirmó.



Fuente: BBC Mundo

viernes, 8 de diciembre de 2017

La investigación que revela el ejército de perfiles falsos usados para influir en las elecciones de Brasil
por Juliana Gragnani


Hay robots informáticos intentando manipular la opinión pública en Brasil a través de las redes sociales desde 2012. (Ilustración: Kako Abraham/BBC)

Son las siete de la mañana y un joven de 18 años enciende la computadora en su casa de Espíritu Santo, en el sureste de Brasil. Comienza su rutina laboral.

Actualiza el estado de uno de los perfiles que maneja en Facebook. "¿Puede alguien recomendarme una película?", pregunta. Después, abre otro perfil: "Tan sólo querría estar durmiendo toda la tarde". Y un tercero: "Tengo mucha hambre". Intercala esos textos con otros en los que apoya a políticos brasileños.

Los 20 perfiles que controlaba en Facebook y Twitter no incluían ni su foto ni su nombre real; fueron alimentados con videos inventados y fotos robadas, y, usados, según él, activamente para influenciar, como un ejército virtual, el debate político en las redes sociales durante las elecciones presidenciales de Brasil de 2014.

Una investigación de tres meses de BBC Brasil encontró más de 100 perfiles supuestamente falsos en Facebook, pero sobre todo en Twitter, activos en Brasil desde 2012, que eran controlados por una suerte de cíborgs.

"Campaña negativa"

Los perfiles estaban en parte automatizados y en parte operados por humanos. Esa actividad humana rompe los patrones típicos vinculados a los bots (robots informáticos) y hace que su detección sea más difícil.

"Es un peligro para la democracia", dice Philip Howard, del Instituto de Internet de Oxford, en Reino Unido. A través de los perfiles falsos creaban grupos en Facebook para favorecer o perjudicar a ciertos candidatos e interactuaban con usuarios reales. (Foto: Facebook/reproducción)

"Las democracias funcionan bien cuando hay información precisa circulando en las redes sociales. Los cíborgs son parte de la técnica moderna de hacer campaña negativa".

De acuerdo con cuatro personas que dicen haber trabajado para la empresa y fueron entrevistadas en condición de anonimato, a partir de 2012 un empresario brasileño contrató a unas 40 personas de diferentes partes del país para gestionar entre 20 y 50 cuentas falsas.

Todos los entrevistados declararon que trabajaban para Facemedia, una agencia de marketing que dice proporcionar servicios de monitoreo de redes sociales.

"Nosotros nunca creamos perfiles falsos, ese no es nuestro trabajo", dice su propietario, Eduardo Trevisan.

El empresario ganó prominencia en Brasil con una cuenta de Twitter en la que alerta a sus 1,2 millones de seguidores sobre la ubicación de las operaciones policiales que buscan atrapar a conductores que sobrepasan el límite de consumo de alcohol.

Una rutina inventada

Varios elementos, concebidos con la ayuda de expertos, contribuyeron a que un perfil fuera identificado como falso.

El uso de fotos robadas (y a menudo manipuladas), el uso de herramientas externas, el tipo de mensajes que trataban de simular una rutina diaria, la repetición de palabras o expresiones, la publicación durante horas de trabajo, la participación activa en debates sociales, la acción para crear trending topics (temas tendencia) y los mensajes apoyando o atacando a candidatos.

"Teníamos que publicar dos veces al día en cada perfil. Cuando había un debate, lo comentábamos en tiempo real, como si fuéramos votantes. Tenía que hacer que esos perfiles tuvieran una rutina, una vida", dice un supuesto exempleado.

"Eres alguien detrás de una máscara. Tienes una respuesta poderosa. Sientes que estás marcando la diferencia en esa campaña", añade otro.

Las entrevistas y el análisis de la actividad en redes sociales de los perfiles falsos puso el foco en 14 políticos.

La investigación de BBC Brasil confirmó que hubo pagos legales a cuatro personas, incluida una transferencia de 360.000 reales (más de US$120.000) del comité nacional del Partido de la Social Democracia Brasileñal (PSDB), uno de los principales partidos de Brasil en 2014, cuando Aécio Neves, el candidato de la oposición, estaba en la carrera por la presidencia.

No hay pruebas que sostengan que los políticos conocían el uso de perfiles falsos como parte de los servicios en redes sociales aparentemente legales por los que pagaban.

Los pagos más recientes hallados por BBC Brasil provenían de la diputada federal de Río de Janeiro Laura Carneiro. Ella confirma haber contratado a Facemedia, pero niega tener conocimiento sobre "el uso inmoral de perfiles falsos".

Algunos de esos perfiles falsos siguieron aportando "Me gusta" y comentarios en el perfil de Carneiro hasta noviembre de este año.

En el debate social

En un solo post sobre vacunas contra la rabia, cinco de los ocho comentarios fueron generados por cíborgs y todos ellos fueron publicados en apenas unos minutos. "Romulo Borges" escribió: "Súper importante".

Tiene 71 amigos y comenzó a publicar en Facebook en marzo de este año, publicando cosas como "Esperando el momento para llegar a casa y comer restos de pizza" o "Lunes frío y lluvioso", todas ellas desde Hootsuite, una plataforma externa que permite acceder a diferentes cuentas al mismo tiempo.

Borges tenía también un perfil en Twitter. Fue creado en 2010 y estuvo activo entre julio y octubre de 2014.

Cuando publicaba tuits sobre su rutina diaria, solía usar las mismas expresiones. En ese momento, publicó cosas sobre un debate entre la entonces presidenta (y luego sometida a un proceso dejuicio político) Dilma Rousseff y el opositor Neves.

En sus comentarios, criticó el comportamiento de Rousseff.

Borges suspendió sus actividades coincidiendo con el final de las elecciones y regresó en marzo de 2017. Ahora sus "Me gusta" están en casi todos los posts (textos publicados en la red social) de Carneiro.

Los entrevistados dicen que los perfiles falsos que identificaron son apenas la punta del iceberg. Alegan que la compañía creó "miles" de cuentas supuestamente falsas. También dicen que hay otras empresas en Brasil que ofrecen los mismos servicios.

"Cuando analizamos la actividad de los perfiles falsos podemos ver claramente su recorrido interactuando entre ellas y con las cuentas de Twitter de Trevisan. Puedes ver los diferentes retuits, y cómo responden y comentan, tratando de promocionarse unas a otras en distintas redes", explica Fábio Malini, coordinador de un grupo de investigación en la Universidad Federal de Espírito Santo.

Malini ya había estudiado algunos de los perfiles cuando fue contactado por BBC Brasil.

Tanto Facebook como Twitter dicen que los perfiles falsos van en contra de su política y que pretenden perfeccionar sus sistemas para detectar y, en última instancia, eliminar esas cuentas.

"Se benefician de lo que se conoce como comportamiento gregario, generando discusiones y creando la sensación de que un argumento específico ha perdido o ganado el debate", explica Malini.

De diez políticos que se cree que contrataron la empresa durante campañas electorales, solo tres de ellos ganaron. Los falsos perfiles fueron más exitosos a la hora de crear trending topics.


Eduardo Trevisan es el propietario de la empresa Facemedia, que opera en Río de Janeiro. (Imagen: Facebook/reproducción)

El trabajo "secreto" de los "activadores"

Un supuesto exempleado dice que algunos de ellos fueron contratados pensando que trabajarían para la famosa cuenta de Trevisan. "Era un tipo de trabajo muy secreto", afirma.

Añade que cuando descubrió lo que estaba haciendo realmente, decidió ocultárselo a sus amigos y familiares. Hoy dice que le da miedo hablar sobre lo que hizo y que firmó un acuerdo de confidencialidad con la compañía: "Trabajé para gente muy importante".

Los salarios eran bajos para los estándares de Brasil, apenas por encima del salario mínimo y duplicándolo durante la época de elecciones.

En otras regiones de Brasil, algunos trabajaban desde casa y eran monitoreados vía Skype. Cuando se levantaban para ir al baño, tenían que explicar su ausencia al coordinador.


Intercambiaban frases de la vida cotidiana con opiniones políticas. (Imagen: Facebook/reproducción)

Los más jóvenes y mayoritariamente menos cualificados eran llamados "activadores", según las entrevistas. Recibían de sus superiores un informe detallado sobre cada una de las "personas" a las que tenían que representar: foto, historial familiar, profesión y aficiones.

Entonces, activaban el perfil y comenzaban a "alimentarlo" con publicaciones del día a día, antes de recibir instrucciones para ejecutar otras tareas. Todos tenían varias tarjetas SIM que les permitían verificar sus perfiles en las redes sociales.

Las fotos eran tomadas de bancos de imágenes, otras veces robadas de sitios de noticias y manipuladas. En un caso, usaron la imagen de una mujer víctima de asesinato.

Los posts más genéricos —"Buenos días", "Voy a comprar comida", "Buenas noches", "Estoy muy cansada" y otros similares— eran casi siempre programados.

Una de las tareas era responder a comentarios de usuarios reales. Esto era especialmente importante para crear la sensación de que el perfil era auténtico.

Añadían y seguían a gente al azar para obtener un número creíble de "amigos", lo cual ayudaba a forjar su "reputación". Los perfiles falsos también interactuaban entre ellos (incluso había parejas y familiares inventados).

Cuando un perfil era desacreditado por los usuarios, se reemplazaba por otro, que usaban de un gran banco de perfiles falsos de la compañía, dicen los presuntos exempleados.


Usaban fotos robadas en los perfiles. En esta cuenta de Twitter, el "activador" expresó opiniones sobre el político Paulo Hartung. (Imagen: Twitter/reproducción)

En torno a 25 de los perfiles hallados por BBC Brasil cesaron su actividad. Sus últimos posts y mensajes fueron publicados entre el 24 y el 27 de octubre de 2014.

La segunda ronda de las elecciones presidenciales en Brasil fue el día 26.

Durante uno o dos meses, los perfiles tuitearon únicamente sobre sus vidas, publicando textos similares para establecer una rutina y usando postsprogramados. Este patrón era roto a menudo con actividad muy intensa a favor de un candidato.

"Ganamos o bien por volumen, pues nuestro número de posts era considerablemente más alto que el que podía producir el público en general, o porque podíamos instigar a personas reales y hacer que activistas se implicaran en nuestra causa. Creamos una sensación de mayoría", dice uno de los supuestos exempleados.

Formaban parte también de una campaña para la cuenta de Twitter de Trevisan que fue nominada para un premio.

Además, dijeron que participaron en votaciones online e incluso tuvieron en cuenta que la visión política opuesta les llevó ventaja por un tiempo para dar la impresión de que todo era "orgánico y natural", en palabras de uno de ellos. "A veces, diez personas votaban durante ocho horas".

Seguidores fieles

Hubo casos en los que políticos contrataron la empresa para cuidar su imagen fuera de las campañas.

Uno de ellos es el expresidente de Senado Federal de Brasil Renan Calheiros. Él niega haber contratado la compañía.


Esta cuenta falsa usaba la imagen de un actor griego como foto de perfil. (Imagen: Twitter).

Pero en 2013, cuando hubo protestas que pedían su impeachment, los perfiles falsos crearon un hashtag (etiqueta), #MexeuComRenanMexeuComigo (si te metes con Renan, te metes conmigo) para defender al senador en las redes sociales.

Uno de sus defensores más leales, "Patrick Santino", publicó tuits a favor de Calheiros que fueron compartidos 777 veces. La foto de su perfil es la del actor griego Sakis Rouvas.


Otras fotos eran obtenidas de bancos de imágenes (Imagen: Twitter).

En 2009, Trevisan fue invitado a participar en el programa matinal de televisión más famoso de Brasil. Se presentó como consultor de marketing y dijo que había sido entrenado por los gurús de Twitter detrás de la campaña del entonces presidente estadounidense, Barack Obama.

Si se demuestra que su empresa fue responsable de la creación de perfiles falsos para influir en el debate político en Brasil, Trevisan y alguno de sus empleados podrían verse envueltos en actividades que implican acciones legales, desde suplantación de identidad hasta fraude.

La nueva legislación que fue aprobada este año por el Congreso este año —y por lo tanto no aplicable en casos pasados— prohíbe el uso de perfiles falsos para promover campañas políticas durante las elecciones.


En detalle: ¿qué dice Eduardo Trevisan?

"Facemedia es una empresa de comunicaciones digitales que lleva diez años en el mercado. Durante este tiempo, hemos ofrecido servicios a más de 100 clientes. Nuestra empresa se especializa en planificación estratégica de marketing digital, creación y mantenimiento de sitios y perfiles, monitoreo de redes de big data, y varias técnicas de marketing como SEO, SEM, copywriting, branding, design thinking y relaciones con influencers, entre otras cosas".

"Además de servir a una larga lista de clientes privados, Facemedia usa sus conocimientos en movilización digital para causas sociales. En 2011, por ejemplo, Facemedia recibió el "Premio Oscar en Twitter", del diario estadounidense New York Times, por su labor humanitaria hacia personas que habían perdido sus casas por inundaciones. (...) Los vínculos entre los perfiles son establecidos a través de criterios de las propias redes sociales. Los servicios de Facemedia en campañas electorales son descritos y registrados de manera transparente. Por cuestiones éticas y contractuales, Facemedia no puede proporcionar ninguna información sobre clientes privados.



Fuente: BBC Mundo

martes, 28 de noviembre de 2017

El gurú del 'big data': "Facebook sabe más de ti con 250 likes que tú mismo"
por Emilia Landaluce


Martin Hilbert durante una conferencia. EM


Martin Hilbert (39 años), profesor de la Universidad de California y asesor tecnológico de la Biblioteca del Congreso, es un gurú del big data. [En tosco: los datos procesados que permiten que usted reciba anuncios de una cafetera en sus redes sociales después de interesarse por el precio de algún modelo en internet]. Sin embargo, el big data no sólo tiene aplicaciones comerciales, como se ha visto en la elección de Trump (y de Obama) o recientemente, [dicen] en Cataluña.

Dicen que los rusos están manipulando las redes en favor del nacionalismo catalán. ¿Es posible

Claro. Durante las elecciones presidenciales, uno de cada cinco mensajes o noticias en Facebook o Twitter eran fakenews (mentiras). Eso es el 20%. ¡Y hubo un momento en el que había más noticias falsas que verdaderas! [Aunque quizás habría que preguntarse qué es una noticia falsa]. Después de las elecciones, Mark Zuckerberg, creador de Facebook, dijo que era «crazy» pensar que su red social tuviera alguna culpa de la elección de Trump. Ahora sabemos que 126 millones de estadounidenses recibieron mensajes falsos. Por su parte, Twitter admitió que había descubierto 100 o 200 cuentas falsas que habían sido utilizadas para manipular; en realidad fueron 3.000 cuentas falsas y 40.000 bots (robots informáticos) los que difundieron mensajes falsos.

¿Y Rusia está detrás?

Los mensajes que llegaron a 126 millones de personas en Facebook fueron pagados en rublos.

¿La democracia representativa está en peligro?  Macron dice que él no se mete en las redes sociales porque gobernar requiere distancia.

Así fueron diseñadas nuestras democracias representativas. Max Weber decía que el pueblo no puede pensar más allá del día después de mañana. La democracia directa permite al pueblo decidir sin tener en cuenta todas las consecuencias. ¿Y qué pasa? Que el pueblo mata a Sócrates. La idea de la democracia representativa es crear un proceso de deliberación en el que hay tiempo dedicado a razonar, a buscar una solución para los ciudadanos.

Algunos gobernantes sí miran las redes para decidir.

La transparencia digital lleva de un mandato libre del representante a un mandato imperativo. ¡Tenemos a los políticos en una casa de cristal como en Gran Hermano! Y la gente que sabe manejar bien esta dinámica del reality show se puede convertir en presidente de EEUU. Pero no sólo hay un flujo del pueblo al representante; también del representante al pueblo.

¿Con qué consecuencias?

Se usa nuestra huella digital de big data para tratar de controlarnos, para meternos en burbujas de filtrado, vendernos argumentos contradictorios -que son los que queremos escuchar- y lavarnos el cerebro con mensajes personalizados que nos llegan a nuestras redes sociales. Cuando Lincoln fue elegido en 1860, la gente en California no se enteró hasta una semana después porque el que tenía que llevar la noticia, iba caballo. Ahora vivimos en un mundo en el que la información va a la velocidad de la luz y todo algoritmo de inteligencia artificial conoce mi psicología mejor que yo mismo. Este diseño constitucional ya no funciona.

¿Es anacrónico?

Es lo que que Schumpeter llamaba destrucción creativa. Sucede en todas las revoluciones tecnológicas. La democracia es un proceso de comunicación e información y tiene que reinventarse por completo porque estas nuevas tecnologías le afectan directamente.

¿Hacia dónde vamos?

No sé. Con la Revolución Francesa, se inventó el Estado de Derecho. Y un algoritmo es una ley. Al mismo tiempo, la inteligencia artificial puede analizar la opinión del pueblo. Seguramente Facebook sabe más de la opinión del pueblo que los parlamentarios.

El pueblo es manipulable...

Como cualquier sistema. Como la democracia con los lobbies. La ventaja es que los bots son más fiables que los humanos. Es más sencillo reprogramar un algoritmo que cambiar el carácter de una persona.

¿Qué se está haciendo en EEUU para combatir la manipulación de las redes?

En Silicon Valley no podían creer que sus herramientas hubiesen ayudado a Trump a llegar a la Casa Blanca. Ellos también vivían en su propio filtro burbuja. A comienzos de 2017, Zuckerberg dijo que Facebook no debería contribuir a la polarización y que estaba dispuesto a perder dinero para remediarlo, pero la única razón de ser de las redes es que los usuarios pasen el mayor tiempo posible en la plataforma para lograr más ingresos. Y cuando los usuarios ven opiniones que no concuerdan con su manera de ver el mundo, se salen de la red. Por eso, se crean los filtros, las burbujas. Así se maximiza el tiempo que los usuarios están en la plataforma. Además, matemáticamente es más fácil mostrar a los usuarios lo que les gusta. Sólo hay una manera de estar de acuerdo, pero infinitas maneras de estar de desacuerdo.

¿Cómo hacen los rusos?

Ellos saben lo que le gusta a la gente. Ofrecen eso: farándula, conspiraciones...




Entonces, ¿cómo sacar a la gente de su burbuja?

En el pasado, si ibas al bar del pueblo y no te querías quedar solo, tenías que hablar con la gente. Ahora todo el mundo es como una taberna y sólo hablas con quien está de acuerdo contigo. En Silicon Valley es la pregunta del millón. ¿Cómo puedo maximizar el tiempo que el usuario permanece en la red sin que haya polarización? Nosotros hicimos un estudio con 100 estudiantes en YouTube y demostramos que con vídeos alegres hay polarización, pero con videos tristes o que dan miedo, la gente se une.

¿Por ejemplo?

Enseñamos un vídeo sobre las votaciones en un distrito. Cuando el vídeo era alegre, a muchos les encantaba pero otros lo detestaban. El filtro algorítmico nunca hubiera mostrado a los dos grupos el mismo vídeo. Por lo tanto había polarización. Si el mismo mensaje tenía un tono más triste -o que les provocara miedo- las reacciones emocionales de ambos grupos se acercaban.

El hombre es previsible.

Si se conoce la correlación entre perfil psicológico y los likes puedo utilizar Facebook para hacer psicología. Con 150 likes el algoritmo de aprendizaje automatizado puede detectar tu personalidad y con 200 te conoce más que tu pareja. Y con 250 likes puede saber más de ti que tú mismo. Ahora hay un estudio que demuestra que gracias a una nueva variable y el reconocimiento de caras se puede saber si una persona es homosexual.

Pues si vive en Irán...

Será muy útil para los anunciantes de Facebook.

Durante la campaña en EEUU, se crearon 170.000 versiones de un mismo mensaje de Trump que dependía del perfil al que fuera dirigido.

Fueron entre 30.000 y 50.000 versiones de sus mensajes de media al día.

Obama también lo hizo.

¿Por qué crees que se quedó tan callado cuando salió Snowden?

Parece peligroso que determinada gente sepa tanto de nosotros.

Ahora en Facebook se puede elegir entre 71 diferentes sexualidades. Las nuevas generaciones tienen una actitud muy diferente respecto a la privacidad, a la sexualidad. Eso ha cambiado por la transparencia digital, que ya es imparable. Las instituciones tal y como las conocemos están cambiando. Esto ya no es Uber contra los taxistas. Hay que reorganizar nuestras instituciones para que la inteligencia artificial nos permita tener un nivel de democracia como nunca la habíamos imaginado.

¿Cómo?

De momento, nadie ha puesto dinero sobre la mesa para desarrollar tecnología para la democracia pero es hacia donde debemos ir si no queremos que las instituciones se destruyan.

¿Y no facilitaría el control sobre nuestra vida?

Cada tecnología puede ser usada para el bien o para el mal. La primera visión de la llamada sociedad de la información es 1984 de Orwell. Los académicos empezamos a tratar el tema en los 80. Después hubo un tiempo en el que se sostenía que internet nos llevaría automáticamente a la libertad, a la democracia, a un mundo unido. Hay estudios de la Primavera Árabe de 2010 que argumentan que los medios sociales derrotarían a los dictadores. Y cinco años después, todo el mundo se sorprendió al comprobar cómo estas mismas herramientas ayudaron a que personalidades con caracteres antidemocráticos se hicieran con el poder.

Ahora estamos un proceso de transformación.

Cuando hay una nueva ola tecnológica, hay destrucción. Sólo lo apto sobrevive. Es brutal, pero así es.

Pensé que era optimista.

Lo soy. Por ejemplo, los incas fueron muy avanzados pero pasaban la mayoría del tiempo llevando agua para regar. Inventaron los acueductos y la mitad de la población se quedó sin empleo. ¿Y qué hicieron? Imaginaron cosas increíbles: la escritura con nudos, las astronomía... Hasta empezaron a guerrear con otros pueblos. Y nosotros ahora estamos tan ocupados haciendo el desayuno, conduciendo... que es difícil imaginar qué vendrá después cuando ya estemos estemos libres de estas tareas tan mecánicas. Vamos a inventar cosas locas. No podemos ni imaginar cómo será el mundo que nos viene.



Fuente:  elmundo.es

viernes, 24 de noviembre de 2017

Cómo será la "Internet libre" que promete el excéntrico creador de Megaupload
Busca combatir los problemas de privacidad y libertad en la red mediante el uso de nuevos protocolos de comunicación. Los detalles. 



El alemán-finlandés Kim Schmitz, alias Kim Dotcom, quiere lanzar una "Internet libre". (EFE)


Kim Dotcom, el cerebro detrás de la extinta web de descargas ilegales Megaupload, aseguró que se encuentra embarcado en un nuevo y ambicioso proyecto. Se trata de la llamada MegaNet, su respuesta a la medida del Gobierno estadounidense que pretende desregularizar la industria de la banda ancha y eliminar las normas que protegen la neutralidad de la red desde la era Obama.

"¿Qué les parecería una nueva Internet que no pueda ser controlada, censurada o destruida por los Gobiernos o corporaciones? Estoy trabajando en eso. MegaNet no se basa en IP. No mas DDoS ni hackeos. No más censura. No más espionaje. Todos nuestros teléfonos se convertirán en una red cifrada. Les sorprenderá saber cuánto espacio sin utilizar y ancho de banda tienen los teléfonos. MegaNet convertirá esa capacidad infrautilizada en una nueva red", había publicado el excéntrico empresario alemán en su cuenta de Twitter.

La idea de convertir los teléfonos en nodos de una red global cifrada y descentralizada, con un papel importante del sistema blockchain -una base de datos compartida- en su desempeño, volvió a tomar fuerza a raíz de la proyecto impulsado por la Casa Blanca que se votará el 14 de diciembre.

Básicamente, la eliminación de la neutralidad en Internet le daría a las operadoras y a las prestadoras de servicio un poder que condicionaría no solo el acceso a la información, si no también cobrar precios diferenciados -o ralentizar o bloquear la conexión- en función de los contenidos.


La nueva Internet de Kim Dotcom promete convertir los teléfonos en nodos de una red global cifrada y descentraliza. (Foto: EFE/EPA/IAN LANGSDON)


En respuesta a la iniciativa estadounidense, Dotcom anunció que las redes y los dispositivo móviles estarán preparados para albergar a MegaNet en un plazo de 4 a 5 años. "Romper la neutralidad de la red solo acelerará la adopción de una nueva red", sentenció.

Mientras tanto, la Asociación de Internet (que nuclea a las principales empresas del sector, como Facebook, Google y Amazon, entre otras) fue otra de las voces que salió a cuestionar la propuesta del Gobierno estadounidense para eliminar la llamada neutralidad en la red y denunció que la iniciativa "desafía la voluntad de millones".

"La propuesta del presidente (de la Comisión Federal de Comunicaciones, Ajit) Pai, de ser implementada, representa el fin de la neutralidad de la red tal como la conocemos y desafía la voluntad de millones de estadounidenses que apoyan la Orden de Internet Abierto 2015", consideró en un comunicado.

"Esta propuesta deshace casi dos décadas de acuerdo bipartidista sobre los principios básicos de neutralidad de la red que protegen la capacidad de los estadounidenses de acceder a Internet por completo", continuó el texto firmado por Michael Beckerman, presidente de la entidad que reúne a Google, Facebook, Amazon, Netflix, Airbnb, eBay, Microsoft, Spotify y Twitter, entre otros gigantes del sector.



Fuente: clarin.com

domingo, 19 de noviembre de 2017

Big Data: cómo está ocurriendo la revolución de los datos ocultos y los secretos más íntimos
Nuestras fantasías sexuales, las probabilidades en las carreras de caballos y los pronósticos más fiables de las elecciones presidenciales, todo eso y más comienza a ser accesible como nunca antes. Cómo se transforma un mundo inundado de cifras en información útil y valiosa
Por Javier Estrada





Si nos detenemos a imaginar a dónde se dirige el mundo en los próximos veinte -o incluso diez- años, podemos decir que nos encontramos en la segunda etapa de una revolución que abarca desde mediados del siglo XX, pero que recién hoy comienza a vislumbrar sus consecuencias más intrínsecas.

Así como la máquina de vapor y el ferrocarril marcaron el detonante de la primera revolución industrial, en nuestros tiempos la computadora se ha convertido en símbolo de una etapa histórica tan abarcativa y transformadora que una sola palabra no ha sido suficiente para describirla. Hablamos de la revolución tecnológica, digital y de la era de la información para referirnos a distintos movimientos y transiciones, pero los tres términos remiten a una época actual cuyo exponente puede identificarse con la invención de la computadora y el desarrollo del Internet.


La revolución tecnológica está recién comenzando.

Nos encontramos en la segunda etapa de la revolución porque esta tecnología, que ha sido marcada por hitos históricos como el desarrollo de ARPANET en 1969 y el del World Wide Web en 1989, ha iniciado un proceso de nuevos descubrimientos que prometen cambiar todos los aspectos de nuestra vida diaria.

Así como la máquina de vapor fue la tecnología detrás del ferrocarril, cada vez más expertos concuerdan que la tecnología detrás de la moneda virtual Bitcoin –blockchain– con el tiempo modificará el funcionamiento del Internet así como el automóvil revolucionó el transporte y sustituyó al ferrocarril en el siglo XX. Una dinámica similar también se desenvuelve con la robótica, que hasta ahora ha sido fundamental para el progreso de varias industrias pero que en los próximos años, con el continuo avance de la inteligencia artificial, probablemente seamos testigos de la emigración de los robots desde las fábricas y los laboratorios científicos a nuestro mundo cotidiano.


Big Data es el análisis de mundo continuamente inundado de datos


Otro componente esencial de esta revolución es el progresivo avance en el campo de la información en forma de Big Data. En una columna de opinión para este portal, Mario Bolo, director adjunto del Departamento de Ingeniería Informática del ITBA (Instituto Tecnológico de Buenos Aires), define Big Data como el conjunto de datos e información "que existen en el mundo o los que se crean diariamente".

"Big Data significa todos los datos, en todas sus formas, que incluyen no sólo los datos tradicionales sino también correos electrónicos, comentarios en redes sociales, fotos, audio y video, datos de instrumentos y sensores, y hasta el tono emocional de una comunicación verbal o escrita. Pero Big Data es más: también incluye el variado conjunto de tecnologías que permiten analizar esos datos", precisa Bolo.


Seth Stephens-Davidowitz y su nuevo libro, “Everybody Lies”

En su libro "Everybody Lies: Big Data, New Data, and What the Internet Can Tell Us About Who We Really Are" (Todos mienten: Big Data, nueva data y lo que Internet puede decirnos sobre quiénes realmente somos), Seth Stephens-Davidowitz argumenta que Big Data está convirtiendo a las ciencias sociales en una verdadera ciencia, "y esta nueva y verdadera ciencia está preparada para mejorar nuestras vidas".

"Estoy ahora convencido de que las búsquedas en Google son el conjunto de datos más importante jamás recopilado sobre la psiquis humana", dice Stephens-Davidowitz, un científico de datos que trabajó como analista cuantitativo en Google y actualmente es columnista para el periódico estadounidense The New York Times.

Así como Bitcoin es la primera aplicación práctica de la revolucionaria tecnología blockchain, la herramienta de búsqueda Google Trends introdujo al mundo por primera vez un método eficiente de analizar parte del gran universo que es Big Data. "Google Trends, una herramienta lanzada con poca fanfarria en 2009, informa a los usuarios con que frecuencia una palabra o frase ha sido buscada en diferentes lugares y en diferentes momentos", explica el científico.


Google Trends permite analizar las búsquedas de las personas en Internet (Google)

"En aquel momento, los datos de búsqueda de Google no parecían ser una fuente de información adecuada para una investigación académica 'seria'. A diferencia de las encuestas, los datos de búsqueda de Google no fueron creados para ayudarnos a entender la psiquis humana. Google se inventó para que la gente pudiera aprender sobre el mundo, no para que los investigadores pudieran aprender sobre las personas", escribe en la introducción de su libro.

"Pero resulta que los rastros que dejamos mientras buscamos conocimiento en Internet son tremendamente reveladores. En otras palabras, la búsqueda de información es, en sí misma, información", agrega.

Veamos algunos ejemplos.


¿Qué fantasías y disfunciones sexuales busca la gente en Internet?

Las búsquedas de pornografía revelan sorprendentes proclividades sexuales de las personas

Una de las grandes ventajas de algunas fuentes de Big Data como el buscador de Google es que, al ser herramientas impersonales que se pueden utilizar en anonimato, suelen funcionar como un confesionario al que muchas personas recurren para expresar lo que no quieren o pueden admitir en público. "El poder de los datos de Google es que la gente le dice a los grandes buscadores cosas que no le dirían a nadie más", advierte Stephens-Davidowitz.

No es el caso de las redes sociales como Facebook, Twitter e Instagram, -otra gran fuente de Big Data-, ya que, al ser plataformas que uno utiliza para relacionarse con la sociedad, existe un incentivo para mostrarse de una manera que uno realmente no es. "No hay manera de que todos sean tan exitosos, ricos, atractivos, relajados, intelectuales y alegres como aparentan ser en Facebook", afirmó Stephens-Davidowitz en una de sus columnas para el periódico neoyorquino.

Si utilizamos los datos presuntamente honestos de buscadores como Google y aprovechamos la transparencia con la cual podemos acceder a ellos, podemos descubrir comportamientos, deseos o preocupaciones que quizá nunca consideramos como características generales de los seres humanos. Por ejemplo, si buscamos la expresión "mi esposo quiere…" en Google Trends, descubrimos que en India, la búsqueda más común con esta fórmula es "mi esposo quiere que lo amamante".


Amamantar, el secreto deseo sexual característico de Asia del Sur

De hecho, las búsquedas pornográficas de imágenes de mujeres que amamantan a los hombres son cuatro veces más altas en la India y en Bangladesh que en cualquier otro país del mundo, una observación que quizá nunca hubiésemos registrado sin que los datos de Google la saquen a la luz.

Otra observación: mientras que los hombres inundan a Google con consultas sobre el tamaño de sus penes, la mayor inseguridad corporal de las mujeres, según el buscador, es el olor de su vagina. De hecho, las mujeres tienen casi tantas preguntas sobre sus vaginas como los hombres sobre sus penes. Quieren saber cómo afeitarla, apretarla y hacer que su sabor sea mejor. El olor de su vagina es realmente una inquietud seria: algunas de las búsquedas de Google más frecuentes se preocupan que sus vaginas huelen a pescado, seguido por vinagre, cebolla, amoníaco, ajo, queso, olor corporal, orina, pan, blanqueador, heces fecales, sudor, metal, pies, basura y carne podrida.

¿Tenía razón Sigmund Freud?

Sigmund Freud, el padre del psicoanálisis

Como advertimos al principio de esta nota, Stephens-Davidowitz sostiene que una de las grandes ventajas de Big Data es que puede convertir a las ciencias sociales en una verdadera ciencia. Es decir, puede producir conocimiento susceptible a la experimentación y a la prueba con datos concretos.

Cuando las teorías de Freud atrajeron por primera vez a la atención pública, muchos intelectuales se preguntaron si sus hipótesis podían ser demostradas. Frente a esta incógnita, el gran filósofo Karl Popper se inclinaba a decir que no: las teorías de Freud simplemente no eran falsificables; no había forma de probar si eran verdaderas o falsas.


El Complejo de Edipo se refiere al deseo inconsciente de mantener una relación sexual incestuosa con el progenitor del sexo opuesto

"Hasta ahora", afirma Stephens-Davidowitz.

Aunque en sus investigaciones el analista cuantitativo refuta algunas de las teorías freudianas, uno de sus descubrimientos más alarmantes fue que un impactante número de personas que visitan los principales sitios pornográficos buscan satisfacer sus fantasías incestuosas.

De las cien búsquedas más populares por hombres en PornHub, uno de los sitios pornográficos más populares, dieciséis de ellas buscan videos de incesto, como "hermano y hermana", "madre e hijo" y "hermana y hermano verdadero". Por su parte, nueve de las principales cien búsquedas por mujeres en el mismo sitio buscan la misma temática, como "padre e hija".

En Google Trends, de todas las búsquedas que comienzan con el formato "quiero tener sexo con mi…" o "estoy atraído a mi…", la forma más común de completar la frase incluye la palabra "mamá".

Podemos concluir, -quizá definitivamente-, entonces, que al menos un tenue eco del Complejo de Edipo de Freud forma parte de la psicología humana.

¿Podemos apostar al ganador en una carrera de caballos gracias a Big Data?




En 2013, un empresario cervecero egipcio llamado Ahmed Zayat viajó a Nueva York para participar en un remate de 151 caballos en el cual pretendía vender un animal propio y comprar algunos más. Para ello contrató a una pequeña firma de expertos, EQB, cuyo director, Jeff Seder, no era un hombre de campo con años de experiencia sino un graduado de Harvard nacido en Filadelfia.

Durante dos días, los expertos analizaron a todos los caballos del remate con la intención de seleccionar a cuatro o cinco para reemplazar al de Zayat, el número 85.

Sin embargo, los expertos regresaron con una recomendación inesperada: "No podemos cumplir con su petición", dijeron. "Simplemente no puedes vender el caballo número 85. Venda su casa, pero no venda este caballo".


American Pharoah, con el jinete Victor Espinoza, gana la carrera de caballos Breeders’ Cup Classic el sábado 31 de octubre de 2015, en Lexington, Kentucky. (AP Photo/Garry Jones)

Con poco entusiasmo, el caballo número 85 fue comprado por USD 300.000 por un tal "Incardo Bloodstock". Bloodstock, se reveló después, era un pseudónimo utilizado por Zayat, quién por reglas que no permitían retirar a "número 85" del remate, compró su propio caballo en un acto casi sin precedentes. 

Lo bautizó con el nombre "American Pharoah". Dieciocho meses después, en 2015, se convirtió en el primer caballo en más de tres décadas en ganar la Triple Corona.

¿Qué sabía Jeff Seder sobre el caballo número 85 que nadie más sabía?

Luego de años de investigar cómo predecir el éxito de un caballo con datos que exceden el pedigrí del animal, Seder decidió medir el tamaño de los órganos internos de los caballos.


American Pharoah

Entonces, descubrió una correlación asombrosa: encontró que el tamaño del corazón, y en particular el tamaño del ventrículo izquierdo, era un predictor sumamente efectivo para medir el éxito de un caballo. También notó que otra variable importante era el tamaño del bazo: los caballos con bazo pequeño no ganaban prácticamente nada.

Cuando Seder analizó a American Pharoah, parecía ser un caballo normal. En su primer año de vida, registraba una altura dentro del percentil 56, un peso de percentil 61 y un pedigrí de percentil 70.

¿Pero su ventrículo izquierdo? Percentil 99,61. ¿Qué más? El resto de sus órganos, incluyendo su corazón y el bazo, también eran extraordinariamente grandes. American Pharoah era un caballo único.


American Pharoah

Como demuestra está experiencia, cuando analizamos Big Data no es tan importante identificar la explicación detrás de nuestras observaciones (Seder no podía explicar exactamente por qué el ventrículo izquierdo es tan importante para predecir el éxito del caballo), sino percibir que cierta correlación efectivamente existe y funciona en el mundo real.

Lo demás es objeto de estudio del cardiólogo o el hematólogo.

¿Era posible predecir que Donald Trump ganaría las elecciones presidenciales de Estados Unidos en 2016?


Donald Trump y Hillary Clinton (AFP)

Cuando Barack Obama ganó, con cierta facilidad, las elecciones presidenciales estadounidenses de 2008 y luego un segundo mandato en 2012, varias encuestadoras profesionales sugerían que la raza ya no era un factor determinante en cómo votaban los estadounidenses. La Encuesta Gallup, por ejemplo, concluyó de sus investigaciones que a los votantes estadounidenses no les importaba que su presidente sea negro.

Durante la presidencia de Obama, la creencia popular parecía indicar que Estados Unidos, un país cuya historia traza una larga época de esclavitud y leyes de Jim Crow que culminaron en la Guerra de Secesión y el Movimiento por los derechos civiles, finalmente se había librado de su larga tradición de discriminación y disfrutaba de una época post-racial en la cual los prejuicios remanentes se limitaban a un pequeño porcentaje de los estadounidenses – la mayoría de ellos Republicanos conservadores viviendo en el Sur del país.

Cuatro años después, las mismas encuestadoras pronosticaban una y otra vez que Donald Trump, un magnate inmobiliario y presentador de televisión, no tenía chances de ganar las Primarias Republicanas ni las elecciones presidenciales de 2016 contra Hillary Clinton.


Donald Trump y Barack Obama (Reuters)

Pero Google Trends tenía otra historia que contar.

"Las búsquedas en Google presentaban una imagen de Estados Unidos que era sorprendentemente diferente a la utopía post-racial esbozada por las encuestas", afirma Stephens-Davidowitz en su libro. "En Estados Unidos, la palabra 'nigger' [una palabra para referirse a las personas negras que ha adquirido una connotación profundamente peyorativa] -o su plural, 'niggers'- se incluyó en aproximadamente el mismo número de búsquedas que las palabras 'migraña(s)', 'economista' y 'Lakers'".

"En la noche de las elecciones", continúa el autor, "las búsquedas y las inscripciones a Stormfront, un sitio supremacista blanco con una popularidad sorprendentemente alta en los Estados Unidos, fueron más de diez veces superiores a lo normal. En algunos estados, hubo más búsquedas de 'presidente nigger' que 'primer presidente negro'".


La mayor concentración de búsquedas racistas no se confinaban al Sur de Estados Unidos sino a toda la Costa Este de EEUU

Aún más alarmante, estas búsquedas no se confinaban a los estados mayormente republicanos y conservadores del Sur. "Los lugares con las tasas más altas de búsquedas racistas incluían al norte del estado de Nueva York, el oeste de Pensilvania, el este de Ohio, Michigan industrial e Illinois rural, junto con Virginia Occidental, el sur de Luisiana y Misisipi".

"La verdadera división, sugerían los datos de búsqueda de Google, no era Sur contra Norte, sino Este contra Oeste. No se ve este fenómeno mucho más al oeste del río Misisipi y el racismo no se limitaba a los Republicanos. De hecho, las búsquedas racistas no fueron más altas en lugares con un alto porcentaje de Republicanos que en lugares con un alto porcentaje de Demócratas", escribe Stephens-Davidowitz.


El apoyo a Donald Trump en las Primarias Republicanas refleja una clara correlación con el mapa del índice de búsquedas racistas

En total, "Obama perdió aproximadamente 4 puntos porcentuales en todo el país debido únicamente al racismo explícito", calculó el analista cuantitativo.

"Había una oscuridad y un odio que estaba oculto a las fuentes tradicionales de información, pero que era bastante evidente en las búsquedas que la gente hacía" en Google. "Pero esas horribles búsquedas no son difíciles de reconciliar con el éxito de un candidato que -en sus ataques contra los inmigrantes, en sus cóleras y resentimientos- a menudo apelaba a las peores inclinaciones de la gente", opina el columnista de The New York Times.

Más allá de revelaciones sobre los prejuicios raciales de la sociedad, Big Data también puede ayudar a pronosticar los resultados de una elección utilizando métodos de análisis poco convencionales y no accesibles a las encuestas tradicionales, como descifrar el número de electores que ejercerán su derecho a votar el día de las elecciones. "Más de la mitad de los ciudadanos que no votan le dicen a las encuestas inmediatamente antes de una elección que piensan hacerlo, distorsionando nuestra estimación de la participación electoral, mientras que búsquedas en Google sobre 'cómo votar' o 'dónde votar' semanas antes de una elección pueden predecir con precisión qué partes del país van a tener una gran presencia en las urnas", señala el graduado en filosofía de la Universidad de Stanford y en economía de Universidad Harvard.


Donald Trump (AFP)

No solo eso: las búsquedas en Google también pueden revelar información sobre el candidato a quien probablemente votará un votante indeciso. Analizando los datos de las elecciones, el profesor de finanzas en la Universidad de California, Stuart Gabriel, y Stephens-Davidowitz descubrieron que "un gran porcentaje de las búsquedas relacionadas con las elecciones contienen consultas con los nombres de ambos candidatos. Durante las elecciones de 2016 entre Trump y Hillary Clinton, algunas personas buscaron 'Encuestas Trump Clinton'. Otros buscaron lo más destacado del 'Debate de Clinton Trump'. De hecho, el 12 por ciento de las búsquedas con 'Trump' incluían también la palabra 'Clinton'. Más de una cuarta parte de las consultas de búsqueda con 'Clinton' también incluyeron la palabra 'Trump'".

Entonces, ¿Cómo pueden unas búsquedas aparentemente neutrales darnos algunas pistas sobre el candidato a quién votarán algunos electores indecisos?

Por "el orden en que aparecen los candidatos", concluyeron los analistas. "Nuestra investigación sugiere que en una búsqueda que incluye los nombres de ambos candidatos, una persona es significativamente más propensa a poner al candidato que apoya primero".




Este último ejemplo nos ayuda a apreciar los primeros tres de los cuatro poderes de Big Data y de su análisis que destaca Stephens-Davidowitz en su libro, aunque a continuación enumeramos su lista completa:


1. Big Data ofrece nuevos tipos de datos
2. Big Data ofrece datos más honestos
3. Big Data nos permite focalizarnos en grupos más precisos de individuos
4. Big Data permite realizar muchos experimentos causales en poco tiempo


Si pretendemos integrarnos a la economía del futuro, es importante entender que, indudablemente, Big Data conformará una parte central de ella. Cada vez más y más datos inundan el mundo (un promedio de 2,5 trillones de bytes por día, para ser exactos), y el abanico de posibilidades que se abre con nuestra capacidad de analizarlos es realmente inagotable.

La revolución de las ciencias sociales ha comenzado.



Fuente:  infobae.com