jueves, 27 de febrero de 2020

Internet imposible de hackear
A lo largo de este año, un equipo de investigación de los Países Bajos completarán una conexión de internet cuántico entre Delft y La Haya
por Russ Juskalian | traducido por Ana Milutinovic


Yoshi Sodeoka

  • ¿Qué? A finales de este año, un equipo de investigadores creará una red de internet cuántico entre Delft y La Haya (Países Bajos)
  • ¿Por qué? Internet es cada vez más vulnerable a los hackers, pero su versión cuántica será imposible de hackear
  • ¿Quién? Universidad Tecnológica de Delft (Países Bajos), Alianza de Internet Cuántico, Universidad de Ciencia y Tecnología de China
  • ¿Cuándo? En los próximos cinco años

Dentro de poco, una red de internet basada en las propiedades de la física cuántica permitirá una comunicación inherentemente segura. El equipo responsable, dirigido por la investigadora de la Universidad Tecnológica de Delft Stephanie Wehner, está trabajando en una red que conectaría a cuatro ciudades en los Países Bajos mediante la tecnología cuántica. Los mensajes enviados a través de ella serán imposibles de hackear.

En los últimos años, los científicos han aprendido a transmitir pares de fotones a través de cables de fibra óptica de una forma que protege al 100 % la información codificada en ellos. Un equipo chino utilizó esta estrategia para crear una red troncal de 2.000 kilómetros entre Pekín y Shanghái (ambas en China), pero dicho proyecto se basa, en parte, en algunos componentes convencionales que de vez en cuando rompen el enlace cuántico antes de establecer uno nuevo, lo que supone un riesgo de hackeos.

En cambio, la red de Delft será la primera en transmitir información entre ciudades mediante técnicas cuánticas de extremo a extremo. La tecnología se basa en un fenómeno cuántico de las partículas atómicas llamado entrelazamiento. Gracias a él, los fotones entrelazados no se pueden leer de forma encubierta sin interrumpir su contenido.

Pero es difícil crear partículas entrelazadas y mucho más, transmitirlas a largas distancias. El equipo de Wehner ha demostrado que puede enviarlas a más de 1,5 kilómetros, y confían en poder crear un enlace cuántico entre Delft y La Haya a finales de este año. Asegurar una conexión ininterrumpida a mayores distancias requerirá repetidores cuánticos para ampliar la capacidad de la red. A principios de año, un equipo chino consiguió entrelazar dos partículas separadas por un cable de fibra óptima de 50 kilómetros de distancia, pero en realidad, el cable estaba enrollado y ubicado en su totalidad en una misma habitación.

Tanto Delft como otros laboratorios ya están trabajando en diseños para dichos repetidores. El primero debería estar listo en los próximos cinco a seis años, según Wehner, lo que permitiría crear una red cuántica global a finales de esta década.



lunes, 24 de febrero de 2020

¿Y la autoestima?: Nace Botnet, la 'red social' donde todos te adoran
En realidad solo se trata de una 'app' de simulación, en la que los seguidores de cada usuario no son otra cosa que 'bots'.





Una nueva aplicación, denominada Botnet y lanzada esta semana, ofrece la oportunidad de vivir en un mundo donde millones de 'personas' te adoran. Solo hay un inconveniente: allí el usuario es la única persona real y todos sus seguidores son simples 'bots'.

"Botnet es un simulador de redes sociales donde eres el único humano junto a un millón de 'bots' que están obsesionados contigo", anuncia la página web de la aplicación.

Así, por ejemplo, los 'bots' comentaron una publicación de Elon Musk, copiada de Twitter, y celebraron su canción 'Donʼt doubt ur vibe'.

"Esto comenzó a la manera de un divertido experimento mental sobre cómo podemos usar los 'bots' para bien (considerando todos los usos negativos últimamente)", dijo Billy Chasen, diseñador de Botnet, al portal Mashable. "¿Qué pasará si siempre hay personas con quienes se puede hablar y compartir opiniones? Quizás el mundo se sentiría menos solo (aunque sea simulado)".

Botnet se puede descargar gratis, pero sus funciones adicionales, como 'Troll bots' o 'Dad bot', con bromas, hay que comprarlas por 0,99 dólares.



Fuente: mdzol.com

domingo, 23 de febrero de 2020

La red social del futuro: ¿de pago y controlada por ricos y famosos?
Column se anuncia como una plataforma cerrada a la que solo se podría acceder por invitación y suscripción. Su mayor innovación consiste en plantear comunidades cerradas, cada una liderada y financiada por una personalidad de renombre, y en sustituir el me gusta por un botón de 'verdad'
por Angela Chen | traducido por Ana Milutinovic



Una nueva red social espera convencer a millones de personas para que paguen por acercarse a las superestrellas de la tecnología, de los negocios y las universidades, según su presentación de lanzamiento (pdf) enviada a MIT Technology Review. La web, denominada Column, ya anuncia algunas conexiones importantes. Afirma estar relacionada con el hombre que ideó la estrategia jurídica que provocó el blog de cotilleo Gawker y tener el apoyo del inversor de Silicon Valley (EE. UU.) Peter Thiel, aunque él lo niega.

La presentación de Column, en la que se describe como "una red social para hacernos más inteligentes", nombra como CEO al empresario Aron Ping D'Souza y a Thiel como usuario fundador. Aunque D'Souza ha permanecido fuera del alcance de la opinión pública, fue el artífice de la iniciativa de Thiel para acabar con Gawker como represalia por haber afirmado que era gay, una iniciativa que culminó con éxito cuando la página se declaró en bancarrota en 2016 . El anuncio de Column afirma: "Cuando muchos reconocían que el poderoso blog Gawker tenía importantes efectos negativos en la sociedad y todos pensaban que nadie podía hacer nada al respecto, Dr. D'Souza actúo como si fuera un pasatiempo".




La compañía incluye a otros ejecutivos como a la inversionista Sarah Cone (el servicio se creó con su fondo de riesgo, Social Impact Capital) y al empresario y cofundador del servicio de vídeos Vimeo, Jake Lodwick, quien figura como CTO de Column, y fue un objetivo habitual de Gawker a mediados de la década de 2000. Además, su primo es el empresario de medios Bryan Goldberg, quien compró los derechos de Gawker en una subasta por bancarrota en 2018.

Pero el verdadero atractivo de Column, que parece una versión de Facebook a la que solo acceder mediante pago e invitación, está en la gente que encabezaría sus propias comunidades privadas. Thiel, que también forma parte del grupo directivo de Facebook, figura como "comprometido" en la presentación de la compañía. Junto a él figura uno de los primeros inversores en Uber, Rob Hayes, mientras que el CEO de Salesforce, Marc Benioff, y el científico informático Stephen Wolfram aún se mencionan como en conversaciones sobre su participación.

El anuncio también enumera a las personas con las que Column tiene conexiones pero que aún no se han sumado, como Leonardo DiCaprio, el genetista de la Universidad de Harvard (EE. UU.) George Church, la filántropa Laurene Powell Jobs, Chance the Rapper, el fundador de SpaceX, Elon Musk; la experta conservadora Ann Coulter y el gurú de la autoayuda Tim Ferris, entre otros. El resultado es una lista de ricos y poderosos sugiriendo acontecimientos exclusivos como las conferencias TED y Davos.

El plan consiste en que estas estrellas paguen por Column: el documento sugiere que Column podría recaudar 50 millones de dólares (45,5 millones de euros) de "500 accionistas de la élite intelectual", cada uno de los cuales invertiría 100.000 de dólares (90.930 euros) en esta página web para liderar su propia comunidad privada (o "columna"). Sin embargo, aunque la red solo estaría disponible para suscriptores, no pretende ser exclusiva. Cualquiera podría unirse ya que su objetivo reside en escalar, y se espera que, al ser de pago, genere contenido de alta calidad en lugar del cúmulo tóxico que crean los usuarios de la mayoría de las redes sociales.

El anuncio fue enviado a MIT Technology Review a mediados de enero sin que hubiera sido solicitado previamente. Tampoco iba acompañado de ninguna indicación de que fuera confidencial o prohibido, en un intento de que esta publicación se convirtiera en un posible socio de Column.

En un correo electrónico enviado el 19 de enero al editor en jefe de MIT Technology Review, Cone, que figura como directora creativa de la compañía y presidenta de la junta, mencionó a D'Souza como CEO, igual que en la presentación. No obstante, cuando un periodista se puso en contacto con ella unos días después, ella aseguró que la compañía se encontraba en las primeras etapas y que no se habían finalizado los detalles sobre el personal y la financiación. En un comunicado posterior, Cone afirmó: "Con demasiada frecuencia, una mujer es descartada como fundadora y directora ejecutiva, ya que los medios de comunicación quieren centrarse en los hombres famosos. Soy la fundadora y CEO de esta empresa, y nos dedicamos a fijar los incentivos de información online, colaborando con un diverso grupo de personas".

D'Souza respondió de manera similar a una solicitud de comentarios, afirmando que el equipo aún estaba decidiendo los roles, mientras que Lodwick aseguró que, de momento, actúa como asesor, no como CTO. Cone también explicó que debido a que la inversión de Thiel aún no se había cerrado, técnicamente no podía ser considerado inversor. Cuando se le preguntó si Thiel se había comprometido a trabajar con Column, un portavoz dijo que eso "no era cierto".

Cómo funciona

Aunque los detalles siguen siendo limitados, Column parece haber sido pensado como un servicio que permitiría a los usuarios compartir publicaciones y noticias entre sí, tanto en espacios públicos como privados. De esta manera, sería muy similar a una versión más pequeña de Facebook, pero de pago, con fuentes públicas y grupos privados. Cada grupo o columna dispondría de un "líder", una persona prominente, como Thiel o Hayes, o una organización. Dicho líder sería el responsable de invitar a posibles seguidores para que se unan. El anuncio sugiere que los ganadores del Premio Nobel recibirían 50.000 dólares (45.500 euros) cada uno para crear su propia columna; mientras que importantes expertos de distintos campos de investigación obtendrían otros 10.000 dólares (9.100 euros) por lo mismo (los documentos sugieren que esas personas podrían ser perfiles como el del chef Heston Blumenthal o del científico informático Scott Aaronson).

Los usuarios verían las publicaciones, se comunicarían con otros miembros de la comunidad y publicarían su propio contenido. En lugar de me gusta, como en Facebook, habría un botón de "verdad", que permitiría a los usuarios calificar una publicación como verdadera o falsa, con una interna "clasificación por puntos". Los líderes de cada comunidad establecerían el precio de suscripción, y también existiría la posibilidad de convertirse en miembro de forma gratuita.




A ganar dinero

Además de las acciones de 100.000 de dólares (90.930 de euros) que planea recaudar de los primeros "accionistas", otras marcas y empresas pagarían a Column por su participación. La plataforma también generaría ingresos a través de lo que denomina "impuestos": se quedaría con un porcentaje de del coste de las suscripciones.

Una diapositiva de la presentación sugiere que el Instituto Milken, un grupo de expertos económicos, podría generar 1,300 millones de dólares (1,2 mil millones de euros) en ingresos anuales mediante el envío de un correo electrónico a sus 4.000 miembros de alto nivel económico para invitarles a que se suscriban e invitar a otros a hacer lo mismo. Todavía no hay detalles técnicos sobre cómo se crearía la plataforma, o si utilizará los protocolos y servicios existentes. Y en los materiales de presentación no figura ninguna indicación de que Column ya haya recibido fondos externos.




¿Funcionará?

Column no es la única compañía que ha intentado crear una nueva red social. Empresas como Mastodon, Ello y Peach han sido promocionadas como alternativas al acoso, las noticias falsas y los abusos que pueblan Facebook y Twitter.

Un servicio como Column conllevaría algunas ventajas. Nadie quiere unirse a una red social vacía, por lo que centrarse en personas influyentes o celebridades "atrae a las personas a un tipo específico de contenido o servicio, lo que da comienzo a los efectos de la red, algo que resulta más fácil que intentar forzarlo desde cero", opina la experta en gestión de plataformas de la Universidad de St. John (EE. UU.) Kate Klonick (que no se refería específicamente a Column). Pero más allá de eso, no parece que Column aporte nada especialmente novedoso.

Desde luego que no sería la primera compañía que permite que las personas paguen por entrar en una red o por ver algún contenido semi-exclusivo. Hay muchas comunidades de pago que utilizan el servicio de mensajería Slack. Patreon hace lo mismo, ya que ofrece a los usuarios la posibilidad de pagar una cierta cantidad cada mes a artistas y escritores a cambio de alguna forma de acceso a sus contenidos.

Column parece centrada en atraer a aquellos que piensan que las redes sociales están demasiado centradas en los cotilleos y en la información de baja calidad, y quieren información directa de personas de alto perfil y sus seguidores. La presentación destaca que "la atención es el único incentivo" para las redes actuales y sugiere que podría ayudar a producir información de mayor calidad.

Independientemente de su dirección final y de si Column convence a los usuarios de alto perfil para que participen, la forma en la que se está posicionando ofrece una visión interesante de cómo ciertas personas poderosas creen que deberían funcionar las redes sociales.



jueves, 20 de febrero de 2020

Un entrelazamiento a 50 km revive el sueño del internet 100% seguro
Un nuevo enfoque ha conseguido entrelazar dos partículas separadas por un cable de fibra óptima a 50 kilómetros de distancia. Este podría ser el enfoque que siente las bases del futuro internet cuántico y podría usarse dentro de poco para establecer redes entre distintas ciudades.
por Douglas Heaven | traducido por Ana Milutinovic


Pixabay

Albert Einstein no quería estudiar el extraño concepto del entrelazamiento cuántico y se burló de él definiéndolo como una "espeluznante acción a distancia". Pero 100 años más tarde, la pesadilla de Einstein podría ayudar a crear un internet más seguro, gracias a la técnica más fiable hasta la fecha para entrelazar varios nodos a lo largo de los cables de fibra óptica.

Con el entrelazamiento, un objeto puede entrar en superposición cuántica, bajo la que se presenta múltiples estados de forma simultánea, como el gato de Schrödinger que está vivo y muerto a la vez, y esa superposición se podría compartir con otro objeto. En teoría, estos objetos mantendrían esa conexión incluso estando separados, de modo que al medir uno se revelaría el estado del otro, sin importar lo lejos que esté.

Este fenómeno no interesa solo a los físicos cuánticos. El internet cuántico permitiría comunicar mensajes sensibles de forma ultrasegura. Una técnica para lograrlo consistiría en cifrar un par de claves digitales, una tecnología conocida como distribución de claves cuánticas (QKD, por sus siglas en inglés). Si dos personas tienen estas claves, pueden comunicarse sin temer a los espías, porque cualquier intento de espiar el contenido cambiaría el estado de las claves y se descubriría.

Pero la QKD requiere medir el estado de las claves cifradas de forma cuántica, y dado que esa medición puede verse afectada por las condiciones en los dispositivos de envío y recepción, habría que conocer sus condiciones físicas exactas. Eso puede resultar poco práctico, porque incluso pequeñas fluctuaciones físicas alterarían las mediciones.

Es por eso que se han usado las peculiaridades del entrelazamiento cuántico para sentar la base de un enfoque aún mejor. Bajo este enfoque, lograr el entrelazamiento sería mucho más difícil pero, a largo plazo, podría proporcionar un internet cuántico más útil que el que ofrecen las claves cuánticas. Al entrelazar nodos en una red, se establece una conexión entre las partículas entrelazadas que no depende de los dispositivos en sí y evita el requisito poco realista de conocer su estado exacto.

Al menos, en principio. En la práctica, el entrelazamiento también requiere unas condiciones ideales. Los sistemas cuánticos son sensibles a la más mínima perturbación: un cambio de temperatura o un ligero movimiento podrían destruirlo todo. Un innovador experimento en 2015 mostró que el entrelazamiento cuántico funcionaba a una distancia de 1,3 kilómetros. En los años posteriores, los investigadores han ido separando aún más las partículas entrelazadas enviándolas por la fibra óptica e incluso hasta un satélite y viceversa. Pero la fiabilidad de su entrelazamiento siempre ha sido muy baja.

En un artículo publicado recientemente en Nature, el investigador de la Universidad de Ciencia y Tecnología de China en Hefei Pan Jian-Wei y sus colegas describen un experimento en el que demuestran el entrelazamiento a través de más de 50 kilómetros de fibra enrollada en un laboratorio y con menos errores de transmisión que en los intentos anteriores. "Se trata de una gran mejora", según Pan, a quien se conoce como el "padre de lo cuántico".

El truco consiste en encontrar formas eficientes de entrelazar dos partículas. El equipo utilizó un átomo, que permaneció en su lugar, y un fotón, que fue enviado por la fibra. Descubrieron que podían crear un par de nodos entrelazados de manera mucho más fiable de lo que habían conseguido los experimentos anteriores, incluido ese punto de referencia en kilómetros, superado en cinco órdenes de magnitud.

¿Por qué es tan importante este resultado? "Está genial, pero no tanto como parece", opina la investigadora de QuTech, un centro de investigación de computación cuántica e internet cuántico en Delft (Países Bajos), Stephanie Wehner. El equipo de Pan usó 50 kilómetros de fibra enrollada, lo que requiere un impresionante grado de control sobre todo el sistema. Pero demostrar el entrelazamiento entre dos nodos situados en el mismo sitio es mucho más fácil que cuando en realidad están a 50 kilómetros de distancia.

La distancia es un factor. El equipo de Pan también afirma que su propuesta es más fiable que los ejemplos anteriores y que, por lo tanto, establece una mejor base para el internet cuántico real. Habiendo demostrado su enfoque con fibra enrollada, consideran que podrían extenderla fácilmente para trabajar como en una línea recta. Los métodos desarrollados en este trabajo podrían usarse en un futuro próximo para construir redes cuánticas entre distintas ciudades, concluyen los investigadores.



sábado, 8 de febrero de 2020

El gran error de combatir los bots de noticias falsas con más IA
Facebook y Twitter están centrando sus esfuerzos contra la desinformación en sistemas automatizados de inteligencia artificial. Pero esta estrategia no basta por sí sola. Ha llegado la hora de que las redes sociales dediquen trabajo y conocimientos humanos a luchar contra la propaganda computacional
por Samuel Woolley | traducido por Ana Milutinovic





Este es un fragmento adaptado de ‘The Reality Game’ sobre cómo la próxima ola tecnológica acabará con la verdad. Se trata del último libro del profesor asistente en la Escuela de Comunicación Moody de la Universidad de Texas en Austin (EE. UU.) Samuel Woolley.

Al entrar en Twitter para ver alguna publicación popular, es común encontrar cuentas robóticas que la comentan o la recomiendan. Si se analizan un poco, se puede detectar que esas cuentas tuitean muchas veces, a menudo en un corto período de tiempo. A veces sus publicaciones venden basura o propagan virus digitales. También hay cuentas exclusivamente políticas, especialmente las de bots que responden con insultos incomprensibles a artículos de noticias o declaraciones oficiales.

Es fácil suponer que este fenómeno ha sido impulsado por la informática avanzada. De hecho, he hablado con muchas personas que creen que los algoritmos de aprendizaje automático impulsados por el aprendizaje automático o la inteligencia artificial (IA) han dado a los robots políticos la capacidad de aprender de su entorno e interactuar con las personas de manera sofisticada. 

Existe una creencia generalizada de que durante los acontecimientos en los que, según algunos investigadores, los bots políticos y la desinformación han jugado un papel clave (como el referéndum de Brexit, las elecciones Trump-Clinton de 2016 y la crisis de Crimea), las herramientas de IA permitieron que los ordenadores se hicieran pasar por humanos y ayudaran a manipular el debate público. 

Esa creencia ha sido alimentada por expertos y periodistas: se han publicado historias extremadamente provocadoras sobre el surgimiento de "máquinas de propaganda de IA usadas como armas", y otras que afirman que "la inteligencia artificial ha conquistado la democracia". Incluso mi propia investigación sobre cómo las redes sociales se utilizan para moldear la opinión pública, hackear la verdad y silenciar la protesta (algo que se conoce como "propaganda computacional") ha sido citada en algunos artículos que sugieren que nuestros señores robots ya están aquí. 

Sin embargo, lo cierto es que, hasta la fecha, los mecanismos tan complejos como la inteligencia artificial han tenido un papel muy pequeño en las campañas de propaganda informática. Todas las pruebas que he visto sobre Cambridge Analytica sugieren que la empresa nunca lanzó las herramientas de marketing "psicográficas" que afirmó poseer durante las elecciones estadounidenses de 2016. Aunque la empresa aseguró que estaba capacitada para dirigirse a personas concretas con mensajes específicos basados en los perfiles de personalidad derivados de su controvertida base de datos de Facebook. 

Cuando estaba en el Instituto de Internet de Oxford (Reino Unido), mis compañeros y yo analizamos si los bots de Twitter habían sido usados durante el debate sobre Brexit y cómo. Y descubrimos que, aunque se utilizaron muchos para difundir mensajes sobre la campaña Leave (a favor de la salida), la gran mayoría de las cuentas automatizadas eran muy básicas. Fueron creadas para alterar la conversación online, pero se limitaban a aumentar la cantidad de me gusta y los seguidores, para difundir enlaces y tendencias y luchar contra los troles. Dichos bots eran controlados por pequeños grupos de usuarios humanos que conocían la magia de los memes y de la viralidad, de sembrar conspiraciones online y verlas crecer. Los bots generaban tantos mensajes basura y hacían tanto ruido al adherirse a las etiquetas asociadas, que acabaron bloquean las conversaciones online. Los enlaces a artículos de noticias que mostraban a un político de una cierta manera se promocionaban a través de las cuentas falsas creadas para publicar y republicar la misma basura una y otra vez. Estas campañas fueron manejadas de forma muy clara: estos bots no fueron diseñados para manejar una conversación. Es decir, no usaban la IA. 

Ya no son tontos

No obstante, hay señales de que la propaganda computacional y la desinformación habilitadas por la IA se están empezando a usar. Los hackers y otros grupos ya han empezado a probar la efectividad de los robots de IA más peligrosos en las redes sociales. Un artículo de 2017 publicado en Gizmodo informó de que dos científicos de datos enseñaron a un sistema de inteligencia artificial a diseñar su propia campaña de phishing. El artículo detalla: "En las pruebas, el hacker artificial fue mucho mejor que sus maestros humanos, pues logró componer y distribuir más tuits de phishing que las personas, y con bastante mejor tasa de conversión."

Los robots políticos habilitados por aprendizaje automático no son los únicos que difunden contenidos problemáticos. Y las empresas de redes sociales tampoco son las únicas que crean usos o diseños problemáticos para sus plataformas. Los investigadores han descubierto que el aprendizaje automático puede contaminarse mediante ataques por envenenamiento. En estos casos, actores maliciosos influyen en los "datos de entrenamiento" para cambiar los resultados de un algoritmo dado, incluso antes de que la máquina opere públicamente. 

El investigador de la Universidad George Washington (EE. UU.) Kalev Leetaru sugiere que los primeros ataques impulsados por robots de IA tal vez no se dirijan a las redes sociales, sino que se dedicarán a realizar ataques distribuidos de denegación de servicio (DDoS, por sus siglas en inglés), que consisten determinados servidores web con tráfico hasta deshabilitarlos.

Estos esfuerzos no están orientados a ayudar a las organizaciones de noticias a examinar el montón de contenido y pistas que reciben cada día para ayudar a sus periodistas con pocos recursos insuficientes a hacer mejor su mejor. En lugar de eso, están ayudando a una empresa multimillonaria a mantener limpia su propia casa a ‘post hoc’.

Leetaru escribe: "Imaginemos por un momento que el control de una botnet reside en un sistema de aprendizaje profundo y que dicho algoritmo de IA tiene un control completo sobre cada botón y cada detalle de esa botnet. También le hemos dado acceso a la información en tiempo real del estado global de internet de los principales proveedores de ciberseguridad y control de todo el mundo para que, cada segundo, pueda observar cómo la víctima y el resto de internet responden al ataque. Quizás todo esto ocurra después de que el algoritmo haya pasado varias semanas monitorizando cada detalle de su objetivo para comprender la totalidad y el matiz de sus patrones y comportamientos de tráfico y buscar en sus capas externas de defensa".

Más allá de la defensa

En abril de 2018, Mark Zuckerberg compareció ante el Congreso de EE. UU. por su mala gestión de la información de los usuarios durante las elecciones estadounidenses de 2016. En su testimonio dividido en dos partes, el CEO de Facebook mencionó el término inteligencia artificial más de 30 veces, sugiriendo que la IA sería la solución al problema de la desinformación digital con programas que combatirían el gran volumen de la propaganda computacional. Predijo que en la próxima década, la IA sería el salvador de los problemas de escala masiva a los que Facebook y otras empresas se enfrentan cuando luchan contra la propagación global del contenido basura y la manipulación. 

Entonces, ¿hay alguna manera de usar IA o los bots automatizados para abordar la manipulación de la opinión pública online? ¿Podremos usar la IA para luchar contra la IA? 

El Observatorio de Redes Sociales de la Universidad de Indiana (EE. UU.) ha creado herramientas públicas que usan el aprendizaje automático para detectar bots mediante el análisis de 1.200 características para determinar si se trata de un humano o un bot.

En un comunicado de 2018, la directora de Producto de Facebook, Tessa Lyons, aseguró: "El aprendizaje automático nos ayuda a identificar las publicaciones desacreditadas duplicadas. Por ejemplo, un verificador de hechos en Francia desmintió la afirmación de que era posible salvar a una persona que sufre un derrame cerebral pinchándole el dedo con una aguja y extrayéndole sangre. Nos permitió identificar más de 20 dominios y más de 1.400 enlaces que difundían esa misma afirmación". 

En esos casos, las empresas de redes sociales pueden aprovechar el aprendizaje automático para recoger e incluso verificar hechos en todo el mundo y usar sus correcciones basadas en pruebas para marcar el contenido falso.

Sin embargo, existe un gran debate en la comunidad académica sobre si la identificación pasiva de información potencialmente falsa resulta realmente efectiva para los usuarios. Algunos investigadores sugieren que los esfuerzos de verificación de hechos tanto online como offline actuales no son demasiado eficaces. A principios de 2019, el sitio web de verificación de hechos Snopes, que se había asociado con Facebook en sus esfuerzos de corrección, rompió dicha asociación. En una entrevista con el Instituto Poynter, el vicepresidente de Operaciones de Snopes, Vinny Green, explicó: "No parece que nos estemos esforzando por lograr que la verificación de hechos de terceros resulte más práctica para los editores, más bien parece que nos esforzamos para que todo sea más fácil para Facebook". 

Las organizaciones como Facebook siguen confiando en agentes pequeños, y generalmente sin ánimo de lucro, para examinar el contenido. Pero estos agentes suelen recibir los artículos o vídeos potencialmente falsos sin información de contexto que indique cómo o por qué se identificaron como problemáticos en primer lugar.

Queda claro que estos esfuerzos no están orientados a ayudar a las organizaciones de noticias a examinar el montón de contenido y pistas que reciben cada día para ayudar a sus periodistas con pocos recursos insuficientes a hacer mejor su mejor. En lugar de eso, están ayudando a una empresa multimillonaria a mantener limpia su propia casa a post hoc. Es hora de que Facebook se responsabilice internamente de la verificación de datos, en vez de delegar la tarea en otros grupos. Facebook y otras compañías de redes sociales también deben dejar de depender de las verificaciones de hechos a posteriori, es decir, después de que un artículo falso se haya vuelto viral. Estas compañías deben desarrollar algún tipo de sistema de alerta temprana para la propaganda computacional.

Facebook, Google y otras compañías similares emplean a personas para encontrar y eliminar contenidos violentos o con información sobre grupos terroristas. Sin embargo, son mucho menos entusiastas en sus esfuerzos por deshacerse de la desinformación. La gran cantidad de diferentes contextos en los que la información falsa fluye online, en todas partes, desde las elecciones en India hasta un importante acontecimiento deportivo en Sudáfrica, hace que a la IA le cueste mucho operar por su cuenta, sin conocimientos humanos. En los próximos meses y años hará falta emplear a hordas de personas en todo el mundo para examinar las cantidades masivas de contenido de manera efectiva en las innumerables circunstancias que surgirán.

Simplemente no hay una solución fácil al problema de la propaganda computacional en las redes sociales. Pero, son las empresas quienes tienen la responsabilidad encontrar una manera de solucionarlo. Hasta ahora, parece que Facebook está mucho más centrado en sus relaciones públicas que en regular el flujo de propaganda computacional o contenido gráfico. Según The Verge, la compañía dedica más tiempo a celebrar públicamente sus esfuerzos para deshacerse de contenidos violentos o insultantes que a revisar sistemáticamente sus procesos de moderación. 

Más allá de la verificación

Será una combinación de trabajo humano e inteligencia artificial la que finalmente logrará tener éxito en la lucha contra la propaganda computacional, pero no está claro cómo sucederá exactamente. La verificación de datos impulsada por la IA es solo una ruta hacia adelante. El aprendizaje automático y el aprendizaje profundo, junto con trabajadores humanos, pueden combatir la propaganda computacional, la desinformación y el acoso político de varias formas distintas.

Jigsaw, la incubadora de tecnología basada en Google, donde trabajé durante un año como investigador, diseñó y creó una herramienta de IA llamada Perspective para combatir el troleo y los discursos de odio en internet. Esta herramienta (en la que no trabajé) es una API que permite a los desarrolladores detectar el lenguaje tóxico automáticamente. 

Su enfoque resulta algo controvertida porque no solo corre el riesgo de dar falsos positivos, sino que también modera el discurso. Según The Wired, esta herramienta se entrenó con aprendizaje automático, pero cualquier herramienta de este tipo también se entrena con aportes de los trabajadores, quienes tienen sus propios prejuicios. Así que, ¿podría una herramienta creada para detectar el lenguaje racista y de odio fallar debido a un entrenamiento defectuoso?

En 2016, Facebook lanzó Deeptext, una herramienta de inteligencia artificial similar a Perspective de Google. La compañía dice que ayudó a eliminar más de 60.000 publicaciones de odio cada semana. Sin embargo, Facebook admitió que la herramienta aún dependía de un gran grupo de moderadores humanos para deshacerse del contenido dañino. Mientras tanto, Twitter finalmente hizo algo al respecto a finales de 2017. Pero a pesar de haber empezado a frenar el contenido problemático y eliminar muchas cuentas de bots políticas, Twitter no ha dado explicaciones claras de cómo está detectando y eliminando esas cuentas. Mis colaboradores y yo seguimos encontrando redes masivas de bots en Twitter casi todos los meses.

Más allá del horizonte

No es sorprendente que un tecnólogo como Zuckerberg proponga una solución tecnológica, pero la IA por sí sola no es perfecta. El miope enfoque de los líderes tecnológicos en las soluciones informáticas refleja la misma ingenuidad y arrogancia que provocaron que Facebook y otras compañías dejaran vulnerables a sus usuarios.

Todavía no hay ejércitos de robots inteligentes que trabajen para manipular la opinión pública durante unas elecciones. ¿Los habrá en el futuro? Quizás. Pero es importante tener en cuenta que incluso los ejércitos de robots políticos más inteligentes no funcionan por sí solos: requerirán supervisión humana para manipular y engañar.

No se trata de una versión digital de Terminator. Las grandes mentes de la informática y de la inteligencia artificial, incluido el ganador del Premio Turing, Ed Feigenbaum y el "padrino del aprendizaje profundo", Geoffrey Hinton, se han mostrado enérgicamente en contra de los temores de que "la singularidad", la era imparable de las máquinas inteligentes, está a punto de llegar. En una encuesta de los miembros de la Asociación Americana de Inteligencia Artificial, más del 90 % dijo que la superinteligencia está "más allá del horizonte previsible". La mayoría también coincidió en que cuando los ordenadores superinteligentes finalmente llegan (si es que lo hacen), no serán una amenaza para la humanidad.

Los investigadores de la Universidad de Stanford (EE. UU.) especializados en rastrear el estado de IA sugieren que, en la actualidad, nuestros "señores ordenadores todavía no pueden tener el sentido común ni la inteligencia general de siquiera un niño de cinco años". ¿Cómo podrían estas herramientas derrocar el dominio humano o, por ejemplo, resolver los problemas sociales tan humanos como la polarización política y la falta de pensamiento crítico? The Wall Street Journal lo expresó en pocas palabras en 2017: "Sin humanos, la inteligencia artificial sigue siendo bastante estúpida". 

Grady Booch es uno de los mejores expertos en sistemas de inteligencia artificial, y también es escéptico acerca del surgimiento de máquinas maliciosas súper inteligentes, pero por una razón diferente. En una conferencia de TED de 2016, aseguró que "preocuparse ahora por el surgimiento de una superinteligencia resulta, en muchos sentidos, una distracción peligrosa porque el desarrollo de la informática en sí nos trae una serie de problemas humanos y sociales que deberíamos atender". 

Para Booch, lo más importante es que los sistemas actuales de IA pueden hacer todo tipo de cosas asombrosas, desde conversar con humanos en lenguaje natural hasta reconocer objetos. Pero todas esas capacidades han sido definidas por humanos y codificadas bajo valores humanos. No están programados, solo se les enseña cómo deben comportarse. 

El experto detalla: "En términos científicos, esto es lo que denominamos como verdad fundamental, y aquí está lo importante: al crear estas máquinas, les estamos enseñando el sentido de nuestros valores. Con ese fin, confío en la inteligencia artificial igual, si no más, que en un humano bien entrenado".

Me gustaría llevar la idea de Booch aún más lejos. Para abordar el problema de la propaganda computacional, debemos centrarnos en las personas que manejan dichas herramientas. 

Sí, la tecnología en constante evolución puede automatizar la desinformación y el troleo. Puede permitir que los perpetradores operen de forma anónima y sin temor a ser descubiertos. Pero, al final, este conjunto de herramientas como modo de comunicación política se centra en lograr el objetivo humano de control. La propaganda es una invención humana, y es tan antigua como la sociedad. Como me dijo una vez un experto en robótica, no debemos temer a las máquinas que son tan inteligentes como los humanos, debemos temer a los seres humanos que no son tan inteligentes a la hora de crear sus máquinas.



lunes, 3 de febrero de 2020

Internet: el 60% de los hogares mendocinos no tiene acceso
Mientras que el promedio de penetración en la Argentina alcanza al 56,1% de los hogares y es el segundo más alto de la región, la Provincia está en los niveles más bajos con el 40, 74%.
Por Laura Guevara




Según los datos difundidos por el Ente Nacional de Comunicaciones (ENACOM), en el tercer trimestre de 2019 la penetración de internet fija en la Argentina alcanzó al 56,1% de los hogares, el segundo más alto de la región, después de Uruguay, que alcanza al 65,8% de sus viviendas. En Mendoza, la situación es diferente ya que el acceso sólo llega al 40,70%.






En la misma línea, un informe publicado por el Instituto Nacional de Estadísticas y Censos (INDEC) sobre el acceso a internet en el país durante el tercer trimestre de 2019 estableció que se registraron 7.512.968 accesos fijos. Esto significó 0,8% de aumento respecto al mismo trimestre de 2018.

En cuanto a los acceso a internet móviles, en el trimestre bajo análisis, se contabilizaron 31.910.438 accesos, lo que implicó un incremento de 1,8% respecto al mismo trimestre del año anterior.

Con respecto a los números locales, Mendoza es una de las provincias con reducciones más importantes en cantidad de accesos fijos con (-9%) después de Catamarca (-11,5%) y Tierra del Fuego (-9,3%).

Según el Indec, la pronvincia cuenta con 105.535 accesos fijo y 1.253.472 accesos a internet móviles. En esta última categoría, Mendoza también sufrió una reducción de -0,8%.

Ulpiano Suarez, ex subsecretario de Modernización y actual intendente de Ciudad, señaló que Mendoza está "en la cola del ranking de las provincias" debido a la falta de un plan integral que simplifique trámites, brinde seguridad jurídica y, por último, unifique criterios para cobrar las tasas municipales.

En este sentido, el funcionario detalló que un alto porcentaje de antenas no tiene terminado el trámite de habilitación - del cual interviene Provincia y Municipio - debido a "gran parte a lo engorroso, otra porque hay municipios que cobran una locura de tasas y también por la picardía de las empresas".

Según indicó, durante su gestión en la Subsecretaría de Modernización, hubo avances en la materia pero "no alcanzó". De hecho, en octubre pasado se realizó un encuentro "Despliegue de Red en Mendoza" del cual participaron empresas privadas y representantes de cada municipio y tenía como objetivo "avanzar en un plan integral que mejore la calidad de conexión".

"Es imposible hablar de economía del conocimiento sin conectividad", expresó Suarez y aseguró que la nueva gestión deberá trabajar en este tema como prioridad.

La velocidad de internet, una de las más bajas del país

Mendoza tiene de velocidad de promedio de conexión fija a internet 6,11 megabits por segundo (MBps). La provincia continúa siendo una de las más lentas del país, según el informe de la ENACOM del último trimestre de 2019.

El año pasado, la provincia tenía un promedio de 6 Mbps. Por lo tanto se observa un leve incremento de 0,11 mbps en el último año.

Capital Federal y Buenos Aires son las dos localidades con mejor conexión del país con un promedio de 38,71 MBps y 25,68 MBps respectivamente.

Mónica Nofal, directora de Defensa al Consumidor, detalló que en el último año "han dismuinuido considerablemente" las denuncias a los proveedores de internet. De igual manera, la funcionaria recordó a los usuarios que pueden realizar la denuncia vía teléfónica al 148 opción 3.



Fuente:  elsol.com.ar