martes, 25 de agosto de 2020

Las visitas a noticias falsas sobre coronavirus se disparan en Facebook
Las páginas que contribuyen a la desinformación sanitaria consiguieron casi 500 millones de visitas durante abril. Pese a que la red social afirmó que mejoraría la verificación de las noticias, el grupo de derechos humanos Avaaz reclama que modifique su algoritmo para que sean menos visibles.
por Charlotte Jee | traducido por Ana Milutinovic 


Associated Press


La noticia: las páginas que difunden desinformación sanitaria obtuvieron unas 3.800 millones de visitas en Facebook este año hasta el mes de mayo, según un reciente análisis del grupo de derechos humanos Avaaz. El estudio también indica que las vistas a esas páginas alcanzaron un máximo de casi 500 millones solo en abril de 2020, justo cuando la pandemia crecía rápidamente a nivel mundial. El contenido de diez sitios web que propagan noticias falsas recibió casi cuatro veces más visitas estimadas en Facebook que las publicaciones de diez fuentes confiables, como la Organización Mundial de la Salud y los Centros para el Control y la Prevención de Enfermedades de EE. UU. En total, Avaaz estudió 82 páginas web de desinformación sobre salud, como campañas antivacunas, afirmaciones de falsas curas para el coronavirus (COVID-19), en ocasiones letalmente peligrosas, y artículos que aseguran de forma engañosa que el número de muertos por coronavirus se ha exagerado.

El impacto: este no es un problema sin víctimas. Un estudio publicado la semana pasada en la revista American Journal of Tropical Medicine and Hygiene descubrió que al menos 800 personas en todo el mundo podrían haber muerto y 5.800 haber acabado ingresadas en un hospital como resultado de la desinformación sobre el coronavirus en los primeros tres meses de 2020, muchas de ellas después de ingerir metanol o productos de limpieza que creían que podían curar la COVID-19. 

¿Qué se puede hacer al respecto? Una solución podría ser que Facebook simplemente prohibiera los sitios web que Avaaz ha identificado en su plataforma. La compañía prometió en abril empezar a adoptar un enfoque más proactivo para verificar los hechos y eliminar la información errónea sobre la COVID-19, pero todo se quedó en afirmar que alertaría a las personas que han visto o compartido falsedades. 

En su informe, Avaaz señala que dar este paso podría empezar a reducir el número de personas que creen en la información errónea. También considera que Facebook debería "desintoxicar" su algoritmo degradando esas publicaciones en las noticias de los usuarios, disminuyendo así su alcance. "Facebook aún tiene que aplicar de manera efectiva estas soluciones a la escala y con la sofisticación necesaria para vencer esta infodemia, teniendo en cuenta los repetidos llamamientos de los médicos y expertos en salud", concluye el informe.

Respuesta de Facebook: un portavoz de la compañía afirmó que desde abril hasta junio de este año la empresa ha aplicado indicaciones de advertencia a 98 millones de piezas de información errónea sobre la COVID-19. "Compartimos el objetivo de Avaaz de limitar la desinformación, pero sus hallazgos no reflejan las medidas que hemos tomado para evitar que se extienda en nuestros servicios", señala.



jueves, 6 de agosto de 2020

Facebook y Twitter actúan contra cuentas de Trump por "desinformación" relacionada con el coronavirus


Es la primera vez que Facebook retira un post de la cuenta del presidente de Estados Unidos por algo relacionado con la pandemia.


Facebook retiró por primera vez una publicación de la cuenta del presidente de Estados Unidos, Donald Trump, por violar las normas de la compañía sobre desinformación relativa al coronavirus.

El post retirado este miércoles es un video de una parte de una entrevista de Trump con el canal Fox News en la que el mandatario decía que los niños eran "casi inmunes" a la covid-19.

"Este video incluye afirmaciones falsas de que un grupo es inmune a la covid-19, lo que es una violación de nuestras políticas sobre desinformación dañina sobre la covid", dijo un portavoz de Facebook.

Poco después, Twitter dijo que había congelado una cuenta de la campaña de Trump hasta que se retirara un tuit con el mismo video, ya que suponía "una violación de las normas de Twitter de desinformación sobre Covid-19".

Aunque no es la primera vez que Facebook retira contenido de la cuenta del presidente, el portavoz confirmó que sí es la primera por desinformación relacionada con la pandemia.

Tanto Trump como el Partido Republicano acusan a ambas redes sociales de actuar en su contra y a favor del Partido Demócrata.

Qué dijo Trump

Trump habló por teléfono en el programa Fox and Friends este miércoles y argumentó que era ya hora de reabrir las escuelas en todo el país.

"Si miras a los niños, los niños son casi -yo diría casi definitivamente- casi inmunes a la enfermedad. Uno pocos incluso tienen, es difícil de creer (...), tienen sistemas inmunes más fuertes que nosotros para esto".

"Y no tienen problema, simplemente no tienen problema", agregó.


Twitter congeló una cuenta de la campaña de Trump.


Trump quiere promover la apertura de las escuelas, pero muchas han rechazado el plan por el repunte de casos de Estados Unidos en las últimas semanas.

Unos 20 de los 25 distritos escolares más grandes del país han anunciado que regresarán a las clases de forma remota, tal y como concluyó el curso pasado.

Cuán peligroso es el coronavirus para los niños

Aunque en menor proporción que los adultos ha habido niños afectados por la enfermedad y más allá de cómo les impacte pueden ser transmisores del virus como los adultos.

Las autoridades de salud de Estados Unidos dejan claro que los niños no tienen inmunidad frente a la covid-19.

Los niños pueden ser contagiados y transmitir el virus, pero tienen menor riesgo de enfermarse. Los adultos, sobre todo los más mayores, tienen más posibilidades de enfermarse de gravedad y de morir por complicaciones.

El mayor estudio hecho sobre el asunto hasta la fecha, en el que estuvieron involucrados más de 55.000 pacientes, encontró que de ellos sólo el 0,8% era menor de 19 años.

Un estudio reciente en Estados Unidos con casos de coronavirus en 7.780 niños de 26 país concluyó que una quinta parte no desarrolló síntomas y que otra quinta tuvo afectación pulmonar.

Un 3,3% fue admitido en cuidados intensivos y se reportaron siete muertes, según la investigación del Centro de Ciencias de la Salud de la Universidad de Texas, en San Antonio.



Fuente:  bbc.com

lunes, 3 de agosto de 2020

QAnon, la imparable teoría de la conspiración de la ultraderecha
Varios expertos coinciden en que las recientes medidas de Twitter y Facebook para frenar este movimiento conspirativo no lograrán limitar su alcance y consideran que su impacto debería ser tratado como el de una secta. Sus campañas coordinadas no hacen más que ganar adeptos.
por Abby Ohlheiser | traducido por Ana Milutinovic


NordWood Themes vía Unsplash

Twitter se ha convertido en un altavoz perfecto para la extrema derecha: es fácil convertirse en trending topic, los periodistas pasan muchísimo tiempo en la plataforma y, si hay suerte, el presidente de Estados Unidos podría retuitear.

La teoría de la conspiración pro-Trump en constante evolución, conocida como QAnon, funciona bien en Twitter igual que otras ideologías exitosas creadas en internet. Solo hay que utilizar la plataforma para manipular la información, atención y distribución, todo al mismo tiempo. Por eso, a mediados de julio, Twitter dio un paso para limitar el éxito de QAnon, con la supresión de alrededor de 7.000 cuentas que promueven la conspiración. También calificó a QAnon como "actividad dañina coordinada" e impidió que aparezcan términos relacionados en tendencias y en los resultados de búsqueda.

Twitter anunció: "Suspenderemos de forma permanente las cuentas que tuiteen sobre estos temas que sabemos que participan en la violación de nuestra política de cuentas múltiples, coordinando el abuso en torno a las víctimas individuales, o tratando de esquivar una suspensión anterior". La compañía añadió que habían detectado un aumento en esas actividades en las últimas semanas. 

The New York Times informó que este mes Facebook planea "tomar medidas similares para limitar el alcance del contenido de QAnon en su plataforma", citando a dos empleados de la compañía que hablaron de forma anónima. Y hace poco más de una semana, TikTok bloqueó varios hashtags relacionados con QAnon de sus resultados de búsqueda.

Este reciente impulso para limitar el alcance de QAnon sigue a dos campañas de alto nivel impulsadas por teorías de la conspiración. La primera fue sobre la famosa modelo estadounidense Chrissy Teigen, con más de 13 millones de seguidores en Twitter, que acabó siendo el objetivo de una intensa campaña de acoso. Luego, las cuentas de QAnon se usaron para difundir una falsa teoría de conspiración de tráfico de personas relacionada con el mercado de muebles Wayfair. Las afirmaciones se extendieron desde la barra de tendencias de Twitter a las cuentas de Instagram y TikTok promocionando la teoría entre sus seguidores.

"Esa actividad ha elevado el nivel de un problema que existe desde hace tiempo, el de la coordinación de brigadas. Ese tipo de acoso masivo tiene un gran impacto en la vida de las personas", afirmó la directora de Investigación en el Observatorio de Internet de la Universidad de Stanford (EE. UU.) y experta en desinformación online, Renee DiResta. 

Pero su dominio de Twitter solo representa una pequeña parte de la influencia de QAnon, es y solo un ejemplo de cómo las plataformas amplifican opiniones marginales y actividades dañinas. Según los expertos, frenar realmente a QAnon requeriría mucho más trabajo y coordinación. Si es que aún es posible.

La gran conspiración

QAnon nació a finales de 2017 después de que el presidente de EE. UU., Donald Trump, hiciera una broma en una rueda de prensa sobre la "calma antes de la tormenta" generada por una serie de publicaciones misteriosas en 4chan atribuidas a "Q", prediciendo el próximo arresto de Hillary Clinton. Aunque eso no sucedió, "Q" siguió publicando, afirmando saber todo sobre un plan secreto dirigido por Trump para arrestar a sus enemigos. 

"QAnon tiene su origen en una conversación en varias plataformas que comenzó en las redes sociales, en un entorno de seudónimos, donde no hay consecuencias para el discurso", explica el investigador principal del Proyecto de Tecnología y Cambio Social del Centro Shorenstein de la Universidad de Harvard (EE. UU.) Brian Friedberg. Las publicaciones se han movido de un sitio a otro después de las prohibiciones, y ahora aparecen en un foro de mensajería llamado 8kun.

Las publicaciones han atraído a seguidores que pasan su tiempo interpretando estos mensajes, sacando conclusiones y liderando campañas para ayudar a que los mensajes sean más visibles. Algunos seguidores de QAnon han dirigido campañas coordinadas de acoso contra periodistas, comunidades rivales online, celebridades y políticos liberales. Otros se han presentado en los mítines de Trump llevando puestos algunos productos con "Q". El presidente ha retuiteado mensajes de las cuentas de Twitter relacionadas con Q o con las teorías de conspiración, docenas de veces, aunque no se sabe si está consciente de lo que representa Q, más allá de un movimiento que apoya su presidencia en internet. Y ha habido varios incidentes de violencia en la vida real vinculados a los partidarios de QAnon. 

La comprensión tradicional de QAnon era que sus ideas eran difundidas por un número relativamente pequeño de partidarios a los que se les daba muy bien ejercer la manipulación en redes sociales para obtener la máxima visibilidad. Pero la pandemia de coronavirus lo hizo más complicado, ya que QAnon comenzó a mezclarse con bulos sobre la salud y rápidamente aumentó su presencia en Facebook. 

Ahora, QAnon se ha convertido en una gran teoría de conspiración, asegura DiResta: ya no se trata solo de algunas publicaciones en algún foro de mensajes, es un movimiento generalizado que promueve muchas ideas diferentes y vinculadas. Los investigadores saben que el hecho de creer en una teoría de la conspiración puede conducir a la aceptación de otras, y los poderosos algoritmos de recomendación de las redes sociales han acelerado básicamente ese proceso. Por ejemplo, según DiResta, la investigación ha demostrado que los miembros de los grupos antivacunas de Facebook estaban viendo las recomendaciones para los grupos que promovían la teoría de la conspiración de Pizzagate en 2016. 

"El algoritmo de recomendación parece haber reconocido una correlación entre los usuarios que compartieron la convicción de que el Gobierno estaba ocultando una verdad secreta. Los detalles de la verdad secreta variaban", sostiene. 

Los investigadores saben desde hace años que las diferentes plataformas juegan distintos papeles en las campañas coordinadas. Las personas se coordinan en una aplicación de chat, en un foro de mensajería o en un grupo privado de Facebook, dirigen sus mensajes (incluidos los del acoso y del abuso) en Twitter y publican vídeos sobre el asunto en YouTube.

En este ecosistema de información, Twitter funciona como una campaña de marketing para QAnon: el contenido se crea para ser visto por las personas ajenas para poder interactuar con ellas. Por otro lado, Facebook es un centro neurálgico de coordinación, especialmente para los grupos privados. 


Foto: "Q" ha hecho muchas predicciones incorrectas y sigue promoviendo la creencia de que existe un complot de "estado profundo" en contra de Donald Trump.

Reddit solía ser el lugar principal de actividad de QAnon, hasta que el sitio comenzó a reprimirlo en 2018 por incitar a la violencia y por violar repetidamente sus términos de servicio. Pero en vez de perder su poder, QAnon simplemente se trasladó a otras plataformas de redes sociales convencionales donde su prohibición era menos probable. 

Todo esto significa que cuando una plataforma actúa para bloquear o reducir el impacto de QAnon, solo aborda una parte del problema. 

Para Friedberg, parece como si las plataformas de redes sociales estuvieran "esperando un acto de violencia masiva" para coordinar un esfuerzo de suspensión más agresivo. Pero el posible daño de QAnon ya es obvio si se deja de considerar como una curiosidad pro-Trump y empieza a verse como lo que realmente es: "un mecanismo de distribución de bulos de diversos tipos", resalta, y sus seguidores están dispuestos a promoverlo abiertamente e identificarse con él, independientemente de las consecuencias. 

"Tres años sin restricciones"

El terapeuta de salud mental y experto en sectas que escapó de la Iglesia de Unificación de Sun Myung Moon, conocida como "Moonies", Steven Hassan, cree que referirse a los grupos como QAnon como si solo fueran un problema de desinformación o de algoritmos no es suficiente. Y añade: "Considero que QAnon representa un tipo de secta. Cuando alguien acaba reclutado para una secta de control mental y lo adoctrinan en un nuevo sistema de creencias... gran parte de su comportamiento está motivado por el miedo". 

"Han tenido tres años de acceso casi ilimitado para desarrollarse y expandirse."

"La gente se puede desconectar. Pero quienes tendrán más éxito serán los familiares y amigos de los seguidores", asegura Hassan. Las personas que ya están cerca de un seguidor de QAnon podrían recibir formación para tener "distintas interacciones con el tiempo" con la esperanza de sacar a esa persona de ahí. 

Y opina que si las plataformas quisieran abordar seriamente las ideologías como QAnon, harían mucho más de lo que hacen.

Primero, Facebook tendría que enseñar a los usuarios no solo cómo detectar las noticias falsas, sino también cómo entender cuándo están siendo manipulados por algunas campañas coordinadas. Los esfuerzos coordinados en redes sociales son un factor importante en el creciente alcance de QAnon en las plataformas principales, según el reciente informe de The Guardian. Este grupo ha adoptado explícitamente la "guerra de información" como una táctica para ganar influencia. En mayo, Facebook eliminó una pequeña cantidad de cuentas asociadas a QAnon por comportamiento no auténtico.

Y, en segundo lugar, Hassan recomienda que las plataformas no permitan que la gente descienda a los túneles algorítmicos o de las recomendaciones relacionadas con QAnon. En lugar de eso, deberían ofrecer contenido sobre personas como él, que han sobrevivido y han escapado de sectas, especialmente de aquellos que fueron arrastrados por QAnon y lograron salir de ahí. 

Friedberg, que ha analizado el movimiento en profundidad, cree que es "absolutamente" demasiado tarde para que las principales plataformas de redes sociales detengan a QAnon. Aunque sí ve algunas cosas que podrían hacer para, por ejemplo, limitar la capacidad de sus seguidores para evangelizar en Twitter.

"Han tenido tres años de acceso casi sin restricciones a ciertas plataformas para desarrollarse y expandirse", destaca Friedberg. Además, los partidarios de QAnon tienen una relación activa con la fuente de la teoría de la conspiración, que constantemente publica nuevos contenidos y menciona a los seguidores de Q en sus publicaciones. Reducir la influencia de QAnon requeriría romper la confianza entre "Q", una figura anónima sin características definitorias, y sus seguidores.

Dado que el largo historial de predicciones erróneas de Q no ha roto esa confianza, será difícil llevarlo a cabo, y la cobertura crítica de los medios de comunicación o la suspensión de las plataformas aún no han hecho mucho en ese frente. En todo caso, solo alimentan a los creyentes de QAnon para pensar que están a punto de descubrir algo. 

Las mejores ideas para limitar QAnon requerirían un cambio drástico y un examen de conciencia de las personas que dirigen las empresas en cuyas plataformas ha prosperado. Pero, ni siquiera sus recientes medidas son lo suficientemente drásticas como podrían parecer al principio: Twitter aclaró que no aplicaría automáticamente sus nuevas reglas contra los políticos que promueven el contenido de QAnon, incluidos varios promotores que se postulan como candidatos para los puestos más altos en el ejecutivo de Estados Unidos.

Y, según Friedberg, los partidarios de QAnon están "preparados para desafiar estas limitaciones, y ya lo están haciendo". Por ejemplo, Twitter prohibió que se compartieran ciertas URL relacionadas con la conspiración, pero la gente ya tiene otras alternativas para llevarlo a cabo. 

Al final, hacer algo al respecto requeriría "repensar todo el ecosistema de información", sentencia DiResta, y concluye: "Y lo pienso en un sentido mucho más amplio que solo reaccionando a un grupo de conspiración".


domingo, 2 de agosto de 2020

Santiago Bilinkis: "Estamos viviendo la vida para mostrarla en las redes"
“Uno busca en las redes calmar la angustia y lo único que obtiene es más angustia, como las bebidas azucaradas que dan más sed", compara el tecnólogo y economista. Una advertencia sobre la adicción digital y una invitación a la "desconexión programada".
Por Sergio Sánchez




En el libro Guía para sobrevivir al presente el tecnólogo y economista Santiago Bilinkis analiza cómo las empresas que diseñan plataformas digitales y aplicaciones para el celular –Google, Facebook, Amazon, Apple, Netflix, Microsoft-- utilizan todo tipo de estrategias de manipulación para “conquistar nuestro tiempo y nuestra atención”. La dependencia a las pantallas que las grandes corporaciones tecnológicas generan es funcional a sus negocios, pero muchas veces va en contra de los intereses de los usuarios, incluso en detrimento de su salud. “Esta es la primera vez que una herramienta, apenas comenzamos a usarla, empieza a usarnos a nosotros”, alerta Bilinkis, quien realizó estudios de posgrado sobre inteligencia artificial, robótica, biotecnología, neurociencia y nanotecnología en la Singularity University, ubicada en una sede de la NASA en Silicon Valley.

“Lo primero que me pasó cuando arrancó la cuarentena fue que las redes me saturaron. La avidez informativa me hizo estar ultraconectado los primeros días y eso es pésimo para la salud física y mental”, dice el especialista en tecnología. “Uno busca en las redes calmar la angustia y lo único que las redes provocan es más angustia, como las bebidas azucaradas que las tomás porque tenés sed pero te dan más sed. Uno busca el alivio en la red pero lo único que te genera es necesidad de más red. La cuarentena me hizo adoptar una postura mucho más drástica para controlar el tiempo de conexión en redes: implementé sistemas que permiten ponerle un tiempo máximo al uso de cada aplicación. Los sistemas de mensajería tienen un montón de mecanismos embebidos que te generan la ansiedad de estar continuamente pendiente de lo que pasa, incluido WhatsApp, el ‘está escribiendo’, ‘está online’, el doble tilde”...


-Lo que tienen las redes es que nunca se acaban…

-Históricamente, cualquier contenido que consumíamos tenía principio y fin. Una revista la empezabas y la terminabas, un capítulo de una serie televisiva empezaba y terminaba, y después había un periodo de espera obligado hasta que había otro para ver. Una semana para que salga un nuevo número de la revista o el próximo capítulo de la serie. Ahora todo está ahí. No hay nada externo que te ponga un tope, entonces el freno lo tenemos que poner nosotros. Y hay que inventar estos mecanismos medio artificiales para que Instagram se acabe, porque siempre hay una foto o una story más para mirar. Hay que crear el límite. Las plataformas tienen un montón de mecanismos para no dejarte ir. Y lo loco es que el método que usan para atraparte es más sutil que lo que uno cree.

-¿Cómo lo logran?

-Hay un recurso poderoso: el de las máquinas tragamonedas. No existe un juego más tonto en su esencia que esas máquinas. No tienen habilidad alguna, tirás una palanca y lo que sale es variable, no depende de cómo tirás la palanca. Sin embargo, es el juego que más adicción produce, que más ludopatía produce. ¿Cómo se explica? Hay un mecanismo psicológico que se conoce como recompensas variables intermitentes. Es tan simple como que cada vez que tirás la palanca a veces no sale nada, a veces sale un premio chiquitito y muy de vez en cuando sale un premio grande. Ese mecanismo es tremendamente adictivo. Y eso es lo que pasa cada vez que hacés refresh en tu muro de Instagram: a veces no te sale nada, a veces sale algo que está un poquito bueno y a veces algo genial. Es esa timba la que te mantiene constantemente queriendo mirar un poquito más. La sobreestimulación constante multisensorial hizo añicos nuestra capacidad de atención.

-Con el aislamiento, muchas dimensiones de la vida se trasladaron a la virtualidad. ¿Este es el escenario ideal para las compañías que diseñan software?

-No quiero abonar teorías conspirativas, pero que este escenario les conviene, no hay dudas. No es solo estar en casa, también es tener tiempo para las pantallas y que muchas actividades que se hacían presenciales, pasen a tener a la tecnología como actor principal. Para los chicos es asistiendo a la escuela a través de clases remotas, para los adultos teletrabajando o haciendo las compras del supermercado de manera virtual. Para las compañías es una situación ideal porque tenés más tiempo y también porque dejás más impronta. Gran parte del negocio depende de la información que puedan capturar acerca de los usuarios. Si vos siempre hacías tus compras en el supermercado, no había rastro digital de tus hábitos de consumo. Ahora hay información valiosísima para quien la pueda manejar. Claramente es una situación muy conveniente para las compañías, y que nos obliga a elevar nuestros mecanismos de defensa. La otra cosa que es muy importante hacer es desactivar todas las notificaciones.

-¿Y eso qué le permite?

-Yo no me entero cuando llega un WhatsApp: no vibra, no suena, no prende luces, tengo todo eso deshabilitado. Es una barrera incómoda para el que quiere contactarse conmigo, porque yo contesto cuando lo veo, no cuando me llega un mensaje. Vuelve la comunicación un poco más pausada, más asincrónica, pero me permite tener control de mi vida, de mi agenda, decidir cuándo me quiero conectar y no estar perpetuamente conectado. Y eso es fundamental. Las notificaciones no tienen como propósito notificarte, tienen como propósito interrumpirte y distraerte. Cuando la herramienta que usás es un dispositivo digital, en el momento que lo agarrás hay un montón de software adentro de tu teléfono al que le conviene que vos hagas algo diferente a lo que estabas por hacer. Es la primera herramienta que, cuando vos la empezás a usar, te empieza a tratar de usar a vos. Cada plataforma va a usar el mejor anzuelo disponible para tratar de que no hagas lo que pensabas hacer y hagas otra cosa. WhatsApp no se puede cerrar, eso debería estar prohibido, ¿cómo va a haber una app que no podés cerrar? Deberíamos tener derecho a desconectarnos sin desinstalar los programas.

-¿Se está discutiendo ese derecho a la desconexión?

-No se plantea en esos términos, como un derecho, pero sí está sobre la mesa el corazón del problema: qué tipo de información pueden las empresas recolectar y en qué medida sabemos qué información nuestra están recolectando. La mayoría de las personas somos muy ingenuas en este punto. Hoy tenés un montón de aplicaciones que te piden la localización, incluso en momentos en los que no estás usando la app. Y eso es injustificable, salvo que sea una aplicación de mapas. Hubo cierta mejora porque cuando instalás una app, pide que consientas los permisos que se otorgan. Y eso pasa por la presión social, pero para la mayoría de la gente sigue siendo algo muy oscuro. Das ok porque querés usar la aplicación, sin entender mucho en qué consentiste y sin mucha posibilidad de decir que no.

-En el libro hace una analogía entre el consumo de comida chatarra y las redes sociales, ¿cómo es ésa relación?

-Me gusta esa analogía. Porque la gente fue tomando conciencia de los temas alimenticios y es obvio que tu cuerpo está hecho de lo que comés: si comés demasiada grasa, te sube el colesterol. Si te alimentás mal, desarrollás problemas de salud. Si estamos haciendo macanas, lo sabemos. Con el contenido digital todavía no pasó eso. Así como tu cuerpo está hecho de lo que comés, tu mente está hecha del contenido digital que consumís. Si estás mirando documentales sobre ecología tu cabeza se arma de una manera y si mirás contenido sobre la vida de los ricos y famosos se arma de otra, es inevitable. Pero no tenemos la misma conciencia de que Internet está lleno del equivalente digital de la comida chatarra. Hace unos meses hubo una campaña de publicidad gráfica de un canal de series con el eslogan: "si es adictivo, está acá". Eso es de locos ¿En qué otro contexto alguien podría usar la palabra adicción como un atributo positivo? Eso pasa porque en lo digital todavía la palabra adicción tiene una connotación positiva, parece algo cool o divertido. Una de las categorías de Netflix es "series para mirarte infinitos capítulos". Tenemos que cambiar el chip porque la adicción es mala en cualquier contexto, especialmente uno que se mete con tu ideología, con tus hábitos de consumo y con tus relaciones interpersonales.

-¿Los estados deberían tener más injerencia en estos temas y regular las prácticas antiéticas de las empresas?

-Idealmente sí, pero el problema es que en general las personas que integran los gobiernos tienen una falta de familiaridad tecnológica alarmante. La mayoría tienen un community manager que les maneja los tweets y eso es lo que entienden de redes sociales. No es un problema específico de Argentina. Cuando fue la interpelación a Mark Zuckerberg en el Congreso de Estados Unidos (en 2018, por el uso de datos personales de los usuarios de Facebook durante la campaña presidencial de 2016), te aseguro que Zuckerberg debe haber estado tres semanas encerrado con sus asesores tirándole las preguntas más difíciles, y preparándose para esquivar todas las balas. Pero cuando ves las preguntas que le hicieron los legisladores, son un papelón. El tipo estaba preparado para que le tiren bombas nucleares y le tiraron con una cerbatana y papelito masticado. Te dabas cuenta que las preguntas los legisladores ni siquiera entendían que hacían, alguien se las había escrito, y no oodían repreguntar porque no entendían las respuestas. Hay una asimetría tan grande entre la sofisticación de las compañías y la poca sofisticación de los funcionarios en estos temas, que es muy difícil dar respuestas a estos problemas.

-La hiperconexión digital es un fenómeno muy nuevo, de los últimos diez años. ¿Cómo afecta todo esto a los más chicos?

-Antes, cuando querías vender un producto para bebés, se lo vendías a la madre. Pero a fines de los noventa descubrieron a los bebés como un target consumidor al que se podía apuntar de manera directa. Empezó con un sistema de videos que se llamaba Baby Einstein, diseñado por una compañía que te prometía hacer a tus hijos "más inteligentes". Y lo que tenían era una sucesión de imágenes muy coloridas, con un tipo de movimiento y músicas que provocaban un efecto adictivo en el bebé. Vos le ponías esto y quedaba obnubilado por horas. Después aparecieron los Teletubbies y una serie de productos dirigidos a un target de edad que hasta ese momento no era tenido en cuenta por la publicidad. Esto generó algo tremendamente funcional a los adultos a cargo, porque los chicos chiquitos son muy demandantes y sobre todo cuando están aburridos. Si vos le das un juguete, el chico se entretiene cinco o diez minutos, pero si le das un celular, se entretiene tres o cuatro horas o hasta que lo desconectes. Esto es muy cómodo para los adultos pero es súper nocivo para los chicos y no hay tanta conciencia de eso. Hoy dejamos a los chicos usar Internet sin ningún acompañamiento o explicación. Eso es una locura. Y tiene que ver con que muchos padres y madres no conocen los riesgos de Internet y no sabrían cómo explicárselos a sus hijos. La recomendación de la Asociación Argentina de Padiatría es que hasta los dos años no se usen ningún tipo de dispositivo. Pero la realidad es que el noventa por ciento de los chicos usan dispositivos antes de esa edad.

-¿Y cómo operan en la autoestima estos “caramelitos mentales” y mecanismos de distracción que implementan las redes sociales?

-La cantidad de seguidores y los likes son la moneda en la que hoy se comercia la aceptación social. Porque si bien siempre fue cierto que había gente más popular y gente más retraída, ahora es explícito y es público, está a la vista de todos. La cantidad de seguidores y de likes es el señalamiento hacia el mundo de cuán aceptado sos. Y obviamente la aceptación de los demás es crucial para cualquier persona. Si antes era más sutil, ahora todo el mundo puede ver cuál es tu grado de popularidad o aceptación. Entonces, empezás a modificar tus actos para conformar la norma y conseguir seguidores y poder mostrarle al mundo que sos aceptado. Y eso lleva a que empecemos a vivir la vida para mostrarla más que para disfrutarla. Vas al Glaciar Perito Moreno y en vez de dejarte inundar por la impresionante grandiosidad de la escena, estás pensando desde dónde va a salir mejor la selfie y la cantidad de likes que vas a tener por haber estado ahí. Y eso contamina todo el día a día, estamos más tiempo pensando qué vamos a mostrar que en lo que estamos haciendo. Todo el esquema de los likes y la cantidad de seguidores hizo añicos nuestra autoestima. Y no se limita a los adolescentes. Los adultos estamos tan entrampados como los chicos. En este momento realmente vivimos la vida para mostrarla. 

-Hizo una columna radial que suscitó polémicas, sobre cómo las clases virtuales, sin planificación, cambiaron de manera abrupta la dinámica de los docentes, alumnos y familias. ¿Cómo ve el escenario de la escuela pospandemia?

-La tecnología bien utilizada y puesta al servicio de nuestros fines es una herramienta espectacular. El problema es que en este momento está siendo utilizada, en general, para volvernos funcionales a los fines de otros. En el ámbito de la educación tuvimos una inercia brutal de resistencia de cambio. A pesar de que otros órdenes de la vida han cambiado mucho, la educación no ha cambiado prácticamente nada. La educación mía y la de mis hijos es la misma. Es como si la educación no hubiera tomado nota de que existe la tecnología y que ofrece posibilidades increíbles. Curiosamente es la pandemia la que nos obligó compulsivamente a incorporar la herramienta tecnológica y ahora el desafío es pensar cómo la usamos. Porque el riesgo que tenemos es que quede, de nuevo, al servicio del interés de otros. 

-Usted propone una especie de enseñanza mixta: que los alumnos puedan ver en sus casas algunas clases grabadas y que el aula sea un espacio de interacción, consulta, debate, ejercicios, exposición de trabajos. ¿Es viable su aplicación?

-Es un terreno bastante inexplorado y hay que hacer mucho laburo de aprendizaje. Las clases remotas no son el futuro de la educación, no es que queremos a los chicos encerrados en sus casas en lugar de estar en la escuela. Pero hay un montón de cositas que pasaron "por accidente", basadas en la circunstancia de que los chicos no pueden ir a la escuela, que están buenísimas. Y que son pequeños bloques para construir la educación que viene. Las clases remotas nos obligaron por primera vez en la historia a cambiar en serio los métodos de evaluación. Porque el método de evaluación más difundido desde siempre era la prueba a libro cerrado con preguntas fácticas que se responden de memoria. Ese mecanismo de evaluación, que no sirve para nada, no se puede hacer ahora. Porque en la computadora o el celular donde los chicos tienen que hacer el examen está Google. Y tienen WhatsApp para preguntarle a su compañero y copiarse. Eso es genial. Porque en la vida, cuando yo tengo un problema y tengo que escribir un artículo sobre determinado tema, pienso a quién conozco que sepa de eso y le pregunto, busco ayuda, investigo, hasta que construyo un discurso propio sobre el tema. Y eso es lo que te entrena un examen a libro abierto o a “internet abierto”: es una habilidad muchísimo más interesante y más rica que aprenderte de memoria todos los ríos de Europa y olvidártelos al día siguiente de la prueba. Lo hicimos por accidente y por obligación, pero es genial. Cuando puedan volver las clases presenciales, ojalá no volvamos atrás en los mecanismos de evaluación.



Fuente:  pagina12.com.ar