¿Somos todos ratas de laboratorio digitales?

¿Somos todos ratas de laboratorio digitales?

¿Somos todos ratas de laboratorio digitales?

Las redes sociales juegan con nuestros sentimientos.

Hace casi tres años atrás un escándalo azotaba las redes, aunque nunca le prestamos la atención que merecía. Por eso es oportuno volver al 11 y 18 de enero del 2012 como usuarios de Facebook que todos somos.

Ese día, como cualquier otro, nuestras actualizaciones de estado mostraban que nos sentíamos tristes o alegres. Todo perfectamente natural, tal vez. Después de todo se trata del juego de exponer en público nuestros estados de ánimo. Aunque como siempre puede haber allí gato encerrado y eso es lo que nos/les ocurrió a los 689.003 usuarios involuntarios seleccionados para un experimento para determinar si las emociones son contagiosas, como efectivamente pasó, generándose un escandalete registrado en posts famosos pero cuyas consecuencias (y antecedentes) seguimos desconociendo.

Los resultados fueron publicados en marzo de 2014 bajo el sugestivo título 'Experimental evidence of massive-scale emotional contagion through social networks'. Haciéndose eco del último trabajo de Michael Schrage para quien lo mejor que podemos hacer para entender el mundo es diseñar experimentos (ver su novísimo libro 'The Innovator's Hypothesis: How Cheap Experiments Are Worth More than Good Ideas', donde señala que todas las plataformas sociales están en condiciones ideales para construir estos diseños experimentales), los mandamases de Facebook ajustaron el algoritmo de canales de noticias de los usuarios seleccionados (que a lo mejor fuimos nosotros sin saberlo).

La mitad de los usuarios empezaron (¿empezamos?) a recibir una cantidad de noticias pesimistas, otro grupo recibía un suministro de noticias más optimista. La pregunta tentadora se caía de madura: "¿Los usuarios estarían más inclinados a sentirse bien o mal anímicamente dependiendo de qué tipo de noticias recibían?".

Curiosamente, a pesar de décadas de negar las hipótesis hipodérmicas de la comunicación (ensalzando exageradamente la potencia crítica del receptor, algo que pudo haber funcionado en ciertos estratos y condiciones, pero que en la era memética derrumba las barreras de resistencia de una forma contundente), vemos que sigue tan operativa (o más aun) que nunca.

Memetismo emocional

El informe es contundente y devastador. Los estados emocionales pueden ser transferidos a otras personas y, encima, sin el consentimiento de nadie. Se trató de un experimento casi ilegal, antiético, que seguramente se repitió innumerable cantidad de veces.

Para aclarar/oscurecer más el panorama Christian Rudder, un matemático de Harvard y fundador del sitio de citas OkCupid, escribió un post titulado 'We Experiment on Human Beings!', manipulando aviesamente a sus clientes al darle a parejas potenciales con solo un 30% de compatibilidad, un 90% de compatibilidad.

La intención de OkCupid era clarísima, se trataba de descubrir si la mera sugerencia llevaría a gente abiertamente incompatible a gustarse más entre sí. Y la respuesta fue nuevamente un contundente sí.

Placebos tecnológicos

En ambos casos se trató de placebos tecnológicos. El poder de la sugestión funciona pero también lo hace el algoritmo 'fide bona' de OkCupid. Si el paper pudo pasar inadvertido no ocurrió lo mismo con el libro en el que devino 'Dataclysm: Who We Are (When We Think No One's Looking)', donde se describía cómo OkCupid guardaba los mensajes que enviaba a las citas posibles, así como los mensajes que eran borrados antes de ser enviados.

Haciéndonos eco de algunas perspectivas en Big Data, en Humanidades Digitales y diseño experimental, podemos convenir que "los datos somos como nos sentimos de verdad", un camino hacia las verdades sociológicas tan válido como cualquier otro, independientemente de si son generadas por la experimentación, deducidas de mensajes eliminados o cosechadas a partir de tweets públicos.

Dame tus estados vivido y te devolveré sus fantasmas

Deleuze nos enseñó que el psicoanálisis puede reducirse a un contrato (muchas veces no explicitado) entre el paciente y el terapeuta "Dame tus estados vivido y te devolveré sus fantasmas". ¿Equivaldrá la firma de los términos y condiciones de uso de las plataformas sociales a un contrato parecido en el cual consentimos que se experimente con nosotros (sin saberlo) para mejorar los sistemas que estamos utilizando?, ¿forma parte de nuestra conducta concesiva y permisiva que los arquitectos de las plataformas se conviertan en arquitectos de las emociones?

No hace falta ser un teólogo o predicador, un evangelista o un moralista de salón, para indignarnos por estas manipulaciones que nos recuerdan los mejores diálogos, en el límite de la legalidad y la decencia, que pueblan la serie Suits.

Alguien que domina el artes de la persuasión como Mark Earls, quien publicara una década atrás 'Herd: How to change mass behaviour by harnessing our true nature', una obra clave para entender por qué tomamos las decisiones que tomamos (presionados o no por los medios o las arquitecturas de aprendizaje social), condenó severamente el doble estándar de Facebook que por un lado construye espacios probados de interacción entre la gente y después los explota a su antojo.

Datos que generan sus propias hipótesis, hasta cierto límite

Después de todo, hace rato que las ciencia sociales descubrieron que las emociones son contagiosas. Para Earls lo que Facebook estaba tratando de hacer (sintonizando muy bien con la célebre tesis de Chris Anderson de una nueva ciencia desprovista de hipótesis) es demostrar que hay formas 'analíticas' de hacer ciencia social y de paso pasar el mensaje a las empresas que publicitan en Facebook sobre cuánto poder (de diseño de comportamiento) tiene en sus manos.

Las observaciones de Earls apuntan a un nicho muy preciso, el ethos de anti-regulación que hoy reina en el mundo digital, defendido a ultranza por los consumidores y que termina, paradójicamente, beneficiando de un modo extraordinario (acorde con sus ganancias) a estas plataformas que dicen poder autorregularse de un modo que no ocurre en los medios tradicionales. El problema no es que debamos regular Internet, el problema es quién debe regularla. Obviamente hoy lo hacen las propias empresas, algo insostenible. La otra opción es que lo haga el Estado, tan o menos confiable que aquellas. En ese dilema nos movemos y mientras pasan escándalos como el espionaje manipulatorio de Facebook sin que muchos se inmuten.

Si Facebook y Twitter juegan y manipulan los 'timelines' no es tanto para reinventar la ciencia sino para consolidar los negocios. Lo interesante no es lo que ocurre con los datos que filtramos a cada paso (sabemos que se compran y se venden, analizan y almacenan), pero su verdadera contribución es a la forma en que podemos ser influenciados para actuar en el futuro.

Experimentar (sin pedir permiso) es el nombre del juego, sobre todo en la política

Un grupo de profesores e investigadores norteamericanos publicó un informe en 2012 bajo el título 'A 61-Million-Person Experiment in Social Influence', el cual detalla que el 2 de noviembre de 2010 se provocó un ensayo no aleatorio del que participaron todos los usuarios de Facebook de más de 18 años. Los usuarios fueron asignados al azar a un grupo de 'mensajes sociales', otros a un grupo de 'mensajes informativos' y otros finalmente a un grupo de control. Los dos primeros grupos recibieron un mensaje en la parte superior de sus 'feeds' de noticias alentándolos a votar.

El grupo de 'mensajes sociales' también tuvo la oportunidad de hacer clic en el botón de "Yo voté", y ver una selección de imágenes de perfil de amigos que también habían votado. Hacer clic en ese botón permitió a los investigadores 'medir la auto-expresión política' que es probable que haya sido más que afectada por el grado en que un usuario desea ser visto por otros como un votante.

Haciendo coincidir estos 6,3 millones de usuarios con los registros de votantes (disponibles públicamente) permitió a los investigadores sostener que "ver las caras de amigos contribuyó significativamente al efecto global del mensaje sobre el voto en el mundo real". La gente quería ser vista.

Los resultados sugieren que el mensaje social de Facebook aumentó la participación directa en 60.000 votantes, e indirectamente a través del contagio social de otros 280.000 votantes. La conclusión del insólito, inesperado y controversial experimento fue que más del 0,60 por ciento del crecimiento en la participación en las votaciones por habitante entre 2006 y 2010 pudo haber sido causado por un solo mensaje en Facebook.

¿Hasta dónde se puede (o se debe) llegar con estos jueguitos?

La iniciativa de la inducción de contagio social apuntó a modificar el comportamiento político de una enorme cantidad de gente, pero no dice nada acerca del contenido del voto: ¿también eso se puede manipular?

Habría que preguntarle a Harry Brignull especialista en UX (experiencia de usuario) a cargo de Darkpatterns.org, sitio web que alerta a los consumidores frente a los trucos de prestidigitación digital de innumerables sitios utilizados para estafar a los visitantes, induciéndoles a comprar lo que no quieren y otras trampas por el estilo.

Brignull tiene más que claro que Internet es "un experimento mayúsculo en psicología aplicada" (¿cómo no pudimos darnos cuenta después de usarla - o más bien ser usados por ella - durante casi 25 años?). Algo que viene ocurriendo ininterrumpidamente desde el año 2000 (gracias a la banda ancha) y sobre todo sin que se sepa que estamos siendo operados como ratas de laboratorio digitales.

La base de esta técnica de personalización son las pruebas A/B, 'The A/B Test: Inside the Technology That's Changing the Rules of Business', es decir los sitios web que sirven diferentes versiones de sus páginas al azar buscando las que los usuarios privilegian como 'mejores'.

No se trata de nada nuevo, ya que desde 1967 Ogilvy & Mather promovían el diseño de anuncios diferentes de acuerdo a los distinto públicos objetivo y entre éstos buscaban a los que provocaban mayores respuestas. Pero lo que antes se hacía a nivel minoritario hoy cuenta con gigantescas factorías para replicar indefinidamente y hasta portentos como el Huffington Post lo prueban cada mañana con sus titulares a medida.

De Obama a todos nosotros y de vuelta

Dan Siroker, CEO y cofundador de Optimizely demostró que los testeos A/B que sirven para los negocios operan también en la política con una exactitud llamativa y peligrosa. De lo que se trataba era de convertir al sitio web de Obama de un portal de visita desde el navegador a un espacio de suscripción serial. Todo estaba a la mano para elegir lo que a uno más le gustara (imágenes, textos, consignas) y funcionó con un éxito rotundo. En 2008 se sumaron 4 millones de direcciones de correo y se obtuvieron 100 millones de dólares en fondos a partir de estos testeos múltiples.

Los publicistas (como los abogados) tienen una respuesta para todo, en vez de apuntar al engaño que estas estrategias suponen las justifican en términos de evolución experimental y de estrategias evolutivas. Si la biología juega con nuestros genes ¿por qué nosotros no podríamos o deberíamos hacer lo mismo con los memes?

Que cada tanto haya movidas de descreimiento, señalamientos de mala praxis y cuestionamiento de la venta de los click a los anunciantes, es registrado por estos oportunistas como consentimiento mutuo. Porque así les conviene y lava conciencias en una era de cinismo generalizado. ¿Que creamos que vale la pena que nos dejen usar las plataformas de forma gratuita a cambio de este espionaje consentido convierte todas estas iniciativas en válidas y legítimas?, ¿la complicidad es consentimiento o agravio?, ¿debemos alegrarnos de que un algoritmo decida (en vez de nuestro juicio o criterio) qué noticias debemos ver de nuestros amigos?

Queda claro que a medida que la red conecta a más gente, logra más consentimiento o disfraza mejor sus estrategias de manipulación, la credibilidad de la gente es explotada acorde y el diseño de comportamiento (¿contra nuestros intereses?) logra mejor su cometido. Algo de lo que seguramente no podemos ni debemos alegrarnos.

Referencias

Bond, Robert M. et al. 'A 61-Million-Person Experiment in Social Influence'. Nature No. 12, Septiembre de 2012.

Earls, Mark 'Herd: How to Change Mass Behaviour By Harnessing our True Nature'. John Wiley & Sons, (2009).

Hogg, Clare Dwyer. 'We're all part of the social experiment'.

Kramer, Adam D. I. et al. 'Experimental evidence of massive-scale emotional contagion through social networks'. Junio 17 de 2014.

Oates, John. 'Generic Ethics Principles in Social Science Research' Academy of Social Sciences Briefings'. Número 3, Octubre de 2013.

Rudder, Christian. 'We Experiment on Human Beings!'. (2014)

Schrage, Michael. 'The Innovator's Hypothesis: How Cheap Experiments Are Worth More than Good Ideas'. (2014)

Visto 4765 veces
Alejandro Piscitelli

@piscitelli

Nació en Buenos Aires. Con formación en filosofía, sistemas y ciencias sociales. Actualmente es director del TadeoLab, laboratorio de innovación de la Universidad Tadeo Lozano. Profesor Titular de Humanidades Digitales en la Universidad de Buenos Aires, ha publicado numerosos libros entre los que se destacan 'Nativos Digitales' (2009) y 'El paréntesis de Gutenberg' (2011).