“Google o Amazon hacen experimentos de psicología con nosotros sin avisarnos de ello”

por | 15 febrero, 2019

Aparentemente estamos ante una época dorada para el estudio sociológico de las masas, ¿verdad?Desinformación, redes sociales, ‘fake news’, bulos por WhatsApp… y todo ese material está ahí para ser escogido, analizado y manipulado.

Por ejemplo, en la última semana varios ‘estudios’ basados en las búsquedas de Google nos han enseñado que Nevada es el estado que más bacon vegano pidió durante la SuperBowl o que los británicos hacen cada año 170.000 búsquedas antisemitas. Pero… ¿es esto ciencia? Desde luego, sí que es un pozo de frustración para investigadores serios como Helena Matute, psicóloga experimental en la Universidad de Deusto y parte del Consejo Científico de la Fundación Gadea.

“Nosotros en psicología experimental, tradicionalmente hemos hecho los experimentos siempre en laboratorio, con hasta cien sujetos, muy controlado, simplificando a tope las situaciones, con programas de ordenador desarrollados por nosotros mismos donde presentamos unos estímulos y medimos el tiempo de respuesta”, explica Matute. “Hay como mínimo dos versiones del mismo programa que, como sujeto, te pueden tocar y miramos en cuál de ellas se aprende mejor o cuál produce más interferencia en la memoria o sesgos cognitivos”.

Eso se ha hecho así durante muchos años, aunque más recientemente se ha empezado a hacer experimentos por internet, básicamente mediante programas de encuestas ‘online’. Pero virtual o no, hay una cosa imprescindible: a diferencia de los ciudadanos de Nevada que piden bacon vegano, quienes participan en estos estudios saben que están participando en un estudio científico.

Pregunta: ¿Un experimento hecho por internet es equivalente a uno hecho en persona?

Respuesta: Cuando empezaron los estudios por internet tenían muchas críticas, se decía que iban a dar datos muy ruidosos. Lo cierto es que nosotros veíamos que, con el mismo experimento hecho en internet y en el laboratorio, por lo general se confirmaban los datos. Nosotros buscábamos procesos muy básicos de pensamiento, memoria o atención. Pero ya hay muchas plataformas que permiten hacerlo todo en internet. Amazon tiene una plataforma de sujetos (Mechanical Turk) en la que paga por tiempo empleado, y no son los únicos. Nosotros siempre tenemos la precaución de repartir los sujetos con los del laboratorio para verificarlo todo.

P: Mucha gente está estudiando ya también lo que ponemos en redes sociales, pero nunca en el contexto de un experimento sino solo registrando lo que se tuitea en reacción a determinados estímulos. ¿Eso es ciencia?

R: Ese es un punto muy importante, porque eso es justo lo que hacen las empresas, que a mí me parece fatal. No te avisan de que estás participando en un experimento y eso es una barbaridad desde el punto de vista ético, nosotros no podemos hacer eso. Nosotros hicimos un experimento en Twitter justo antes de Navidad y la verdad es que la gente se volcó, pero decíamos clarísimamente ‘estamos haciendo un experimento, lo tenemos colgado en esta plataforma y agradeceríamos mucho que participes o lo retuitees’.

Hoy en día hay empresas, sobre todo gigantes de internet como Google o Amazon que están haciendo continuamente experimentos de psicología con nosotros sin decirnos que están haciendo experimentos. Se saltan todas las normas éticas y además, otra particularidad es que estos experimentos los hacen con millones de personas, algo que en la universidad ni soñamos. Cuando tienes un universo de 60 millones de personas, ¿qué más te da que los datos sean ruidosos? ¡Eso me importará a mí, que hago experimentos con solo 200 personas! Nos ponen estímulos y saben a qué reaccionamos, no solo como individuos sino como grupos: ‘los que son vascos y de tal edad van a reaccionar así’ y luego van y, lo prueban. No solo nos manipulan sino que además validan los datos.

P. Todo con la publicidad de fondo.

R: A mí ya me han dicho ‘claro, pero la publicidad personalizada siempre ha existido’. Pero antes iban a ciegas porque, una de dos, o se fiaban de lo que publicábamos los psicólogos o intentaban replicarlo ellos mismos. Ahora sin embargo tienen de partida muchísima más información que nosotros y mediciones que no tenemos, saben lo que funciona y lo que no funciona, ahora no van a ciegas.

P: Bueno, también se equivocan mucho. Recuerde el proyecto Google Flu Trends, en el que decían ser capaces de predecir una epidemia de gripe basándose en las búsquedas. Falló en varias ocasiones.

R: Se equivocan porque están empezando, todos hemos visto alguna vez publicidad que no tiene nada que ver con nosotros, pero cada vez se equivocan menos.

P: Viendo sus últimos trabajos veo un interés persistente en los sesgos. ¿Qué cosas le interesan de ellos?

R: Pues está relacionado con todo esto que hemos hablado de los algoritmos. Mucha gente dice ‘no hagas caso al algoritmo’ pero claro, ¡los algoritmos saben explotar nuestros sesgos! Llevamos muchos años trabajando en sesgos cognitivos y últimamente le estamos dando más a temas relacionados con inteligencia artificial. Ambos están muy relacionados en cuanto al mal uso de la tecnología. Si éste nos hace daño es precisamente porque tenemos sesgos, si fuéramos seres robóticos nos daría igual. ¿En qué nos fijamos nosotros? Principalmente en lo que llamamos el sesgo de causalidad o la ilusión de causa-efecto, la idea es que muchas veces nos da la sensación de que dos cosas están ocurriendo por una relación de causa y efecto entre ellas y sin embargo ocurren por puro azar. Ahí hay muchos ejemplos como el de las pseudoterapias.

P: ¿Nuestro cerebro detecta un hueco y tiene que cubrirlo a toda costa porque no soporta la incertidumbre, es eso?

R: Sí, y además hay algo quizá más básico. En el día a día, nosotros y cualquier animal tenemos que detectar relaciones de causa-efecto de manera muy rápida para saber por qué ha ocurrido tal cosa. Estimamos causas y efectos de manera intuitiva. Entonces, una de las claves que más usamos es el hecho de que dos cosas ocurran juntas. Si me tomo esta pastilla y me encuentro mejor es porque habrá sido efectiva, no le doy más vueltas. Esa sensación la tenemos todos.

P: ¿Y sus estudios qué dicen al respecto? ¿Esa forma de asociar es algo orgánico o tiene bases sociales o culturales?

R: El hecho de asociar sucesos que ocurren juntos ocurre en todas las personas y todas las culturas. Es decir, no creo que sea algo cultural, las asociaciones son la forma más básica y efectiva de aprendizaje, incluso en animales. Mire el perro de Pavlov, se activa una campanilla y a continuación va a la comida. Lo que estudiamos en el laboratorio es qué situaciones favorecen esas creencias y manipulamos muchas variables para descubrirlo.

P: Las pseudociencias y sus adeptos es uno de los campos más fértiles para estudiar ese sesgo.

R: Efectivamente, y de ahí la necesidad del método científico, que no es otra cosa que la herramienta que hemos desarrollado los humanos para reducir esos sesgos cognitivos. Sabiendo que no tenemos capacidad para poder percibir la realidad, recordarla bien o razonarla, necesitamos un método que nos ayude a frenar, a ver las cosas desde otro ángulo, a medirlas porque nuestra capacidad sensorial no nos permite hacerlo a ojo… desde el ángulo de la psicología es como más bonito resulta el método científico, porque es una herramienta para reducir sesgos.

P: ¿Y las empresas tratan de utilizar esos sesgos a sabiendas?

R: Sí, sí. La verdad es que es curioso, porque hasta hace muy poco en psicología todos los estudios que había sobre sesgos eran formas de reducirlos buscando el beneficio de la humanidad. Se usaban en publicidad pero de una forma relativamente ‘light’, pero claro, hoy en día sí que me preocupa que grandes empresas de internet estén realmente usando todo ese conocimiento para explotar los sesgos de la gente, y somos muy vulnerables. Estos algoritmos realmente están diseñados para detectar nuestros sesgos y sacar provecho de ello.

P: Precisamente estos días Facebook ha anunciado que bloqueará todas las aplicaciones que nos permitían saber cómo la red social decidía que éramos un ‘target’ para empresas de bebidas, de ropa para bebés o de videoconsolas.

R: Es tremendo. Y todavía vemos a mucha gente que dice que el robo de datos le da igual porque no son nadie o no tienen nada que ocultar. ¡Pero tienen mucho que manipular! La cuestión también es que de todo eso se publica muy poco, se hace mucha investigación pero pocas llegan a las revistas académicas. Y las que llegan ponen los pelos de punta. Por ejemplo ese estudio con 60 millones de usuarios de Facebook a los que animaban a ir a votar en las elecciones estadounidenses. A un grupo les animaban a votar diciéndoles que sus amigos habían ido ya a votar y al otro con un ‘banner’ publicitario de ‘vaya usted a votar’. Qué pasaba, que los del primer grupo fueron a votar en mayor proporción.

P: Porque estimularon su pertenencia grupal.

R: Claro, pero lo que se publica es que acudieron a votar, que lograron modificar el comportamiento de la gente. Pero no te dicen si de paso hicieron otro estudio en el que les animaron a votar X, ni te lo van a contar. Ya sabemos que de tus amigos dependerá el tipo de noticias que leas, pero lo peor es que no son tus amigos, sino aquellos mensajes de tus amigos que el algoritmo haya decidido enseñarte. El algoritmo, recordemos, solo tiene una meta: que pases más tiempo en esa web haciendo click.

P: No importa dónde se haga click ni lo que se lea.

R: Da igual que sea verdad o mentira, sólo importa que todos tus amigos están leyéndolo. El algoritmo es ciego a motivaciones humanas, no tiene intereses ni tiene maldad. Simplemente va a buscar aquello que consigue más clicks.

P: Hay un estudio reciente suyo que he podido leer sobre los sesgos causales relacionados con política. ¿Podría detallarme un poco sus motivaciones?

R: Es un tema muy bonito. La idea básica de este experimento es que ocurren cosas positivas por azar. Entonces nosotros teníamos dos grupos de voluntarios. A unos les decíamos que el partido que está en el gobierno es de derechas y a los otros que es de izquierdas. Y en cada ensayo les decíamos que el partido del gobierno había puesto a funcionar un plan determinado y el resultado había sido positivo o negativo. Antes de empezar el experimento pedimos a los voluntarios que se posicionaran en una escala del cero, extrema izquierda, al diez, extrema derecha.

P: Creo que puedo imaginarme los resultados…

R: ¿Qué es lo que vimos? Que cuanto más de derechas eran, si las cosas positivas ocurrían con un partido de derechas, se las atribuyen al gobierno, pese a que eran puro azar, mientras que si el partido en el gobierno es el contrario, sí se percatan que las cosas ocurren gracias al azar.

P: ¿Y eso ocurría en ambos casos?

R: Exacto, lo mismo que ocurre con la gente de derechas ocurre con los de izquierdas. Especialmente con eventos positivos este sesgo es muy claro, nuestra tendencia política nos hace interpretar el mismo dato de forma distinta, y esto sucedía tanto entre voluntarios españoles como británicos. Sin embargo, con acontecimientos negativos está más discutido, ya que cuando algo va mal cuesta más atribuir de quién es la culpa.

Fuente: www.elconfidencial.com

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *