conectados y manipulados

2
66 BRANDO 1114 ILUSTRACIÓN DE Tony Ganem A apuntes : internet POR NATALIA ZUAZO CONECTADOS Y MANIPULADOS > En enero de 2012, Facebook hizo un experimento con los sentimientos de sus usuarios para testear el poder de las redes sociales. La ética corporativa quedó al desnudo. APUNTES 104 apertura.indd 66 16/10/14 17:06:56

Upload: natalia-zuazo

Post on 17-Jul-2016

21 views

Category:

Documents


0 download

DESCRIPTION

Publicado en revista Brando, noviembre 2014 - En enero de 2012, Facebook hizo un experimento con los sentimientos de sus usuarios para testear el poder de las redes sociales. La ética corporativa quedó al desnudo.

TRANSCRIPT

66 BRANDO 11•14 ILUSTRACIÓN DE Tony Ganem

A apuntes : internetPOR NATALIA ZUAZO

CONECTADOS Y MANIPULADOS> En enero de 2012, Facebook hizo un experimento con los sentimientos de sus usuarios para testear el poder de las redes sociales. La ética corporativa quedó al desnudo.

APUNTES 104 apertura.indd 66 16/10/14 17:06:56

11•14 BRANDO 67

¿ESTAMOS TRISTES PORQUE USAMOS

las redes sociales? ¿O usamos las redes sociales

porque estamos tristes? ¿Cuánto afecta nuestro

ánimo lo que vemos diariamente en ellas?

Facebook sabe que mucho. O al menos intuía,

como plataforma donde expresamos nuestras

emociones y vemos las vidas de los otros

durante cuarenta minutos promedio, que la

relación es muy cercana. Y decidió comprobarlo.

Durante una semana de enero de 2012, su

equipo de investigadores y científicos de la

Universidad de Cornell llevaron adelante un

estudio que luego fue publicado en la prestigiosa

revista Procedimientos de la Academia Nacional

de Ciencias. Tomaron a 700.000 usuarios y

los dividieron en dos grupos. Al primero,

le alteraron el algoritmo para que recibiera

actualizaciones positivas, basadas en un filtro

de palabras relacionadas (feliz, alegría, bueno).

Al segundo, para leer lo contrario: noticias

negativas, imágenes de tragedias, frases con la

palabra “no”. Al terminar la semana, tomaron

nota de qué posteaban los usuarios de uno y

otro grupo. El resultado fue obvio: quienes

habían recibido estímulos positivos publicaban

cosas felices, y viceversa. Los investigadores

comprobaron lo que habían ido a buscar: las

redes sociales tienen un enorme poder de

contagio y los usuarios somos directamente

vulnerables a él. El problema es que ninguno

de los sometidos al estudio fue avisado de que

estaba siendo parte de él.

En junio de 2014, dos años después de la

investigación, la experiencia se hizo pública.

De inmediato, los medios, las redes sociales

y otros científicos se lanzaron a criticarlo. Y

Facebook tuvo que salir a dar explicaciones.

“La investigación se realizó solamente

durante una semana y ningún dato utilizado

estaba ligado a una persona en particular”,

dijo Isabel Hernández, vocera de Facebook.

La empresa también se defendió diciendo

que solo se afectó al 0,04% de los usuarios y

que su intención era mejorar el servicio para

mostrar contenido más relevante. Pero las

críticas seguían y Adam Kramer, coautor del

estudio, fue expuesto para dar la explicación

pública: “Nos importa el impacto emocional

de Facebook en las personas que lo usan,

por eso hemos hecho el estudio. Sentíamos

que era importante investigar si el contenido

positivo de los amigos los hacía seguir dentro

o si el hecho de que se contara algo negativo

los invitaba a no visitar Facebook. No

queríamos enojar a nadie”.

Lo interesante es que Facebook nos avisó,

pero también nos traicionó. Sus términos y

condiciones –que firmamos al abrir una cuenta–

tienen 9.000 caracteres, unas tres carillas de

Word que nadie realmente lee. Directamente,

ponemos “Aceptar” para estar conectados (y,

digamos la verdad, para no enterarnos de lo que

ya sabemos que harán). En todo ese palabrerío,

actualmente la empresa menciona dos veces

la palabra “investigación”, informando a los

usuarios que pueden ser parte de experimentos.

Sin embargo, la revista Forbes reveló que la

palabra fue incluida en mayo de 2012, cinco

meses después del estudio. Y la comunidad

científica aclaró: existen reglas estrictas para

que los participantes de un estudio brinden

un consentimiento informado ante cada

procedimiento. No existe algo así como un

“consenso general”.

Pero Facebook no solo hizo esta

investigación. Su equipo de Data Science, un

grupo de sociólogos e informáticos que se

dedican a transformar la big data de la red en

resultados sobre los comportamientos y las

expectativas de los usuarios, trabaja “a plena luz

del día”, da entrevistas y publica sus estudios en

los medios. En esta ocasión, en vez de estudiar

si los enamorados bajan su nivel de interacción

cuando se ponen de novios, alteró emociones

sin consentimiento previo. Pero aun cuando

lo admitan, siguen siendo responsables y

pasibles de reclamo, como lo hacemos cuando el

Estado se mete con nuestros datos o lo hace una

empresa privada. “Sería inimaginable que una

empresa farmacéutica pudiera experimentar,

aleatoriamente, con una droga, en cientos de

miles de personas. Imaginen al investigador

diciendo: ‘Yo no sabía si te iba a afectar, y no te

molesté para hacerlo’”, escribió Jaron Lanier,

filósofo de la tecnología, en el New York Times.

La red social fue tan lejos que el profesor

de Cornell Jeff Hancock, coautor del estudio,

admitió a la revista The Atlantic: “El algoritmo

de Facebook es algo raro que la gente no

entiende. No lo hemos discutido mucho como

sociedad. Hay un tema de confianza alrededor

de las tecnologías”. ¿Cinismo? ¿Pragmatismo?

¿Descaro abierto? La respuesta es: todo junto.

El argumento de Hancock es que hasta sus

propios alumnos no entienden cómo funciona

el algoritmo de Google.

¿Pero el problema se termina en Facebook o

en Hancock? Definitivamente no. ¿El problema

es si la red usa nuestros datos, nos investiga y

vende los resultados a las empresas? ¿O somos

nosotros que aceptamos no solo ser parte sino

brindarle estados de ánimo, fotos, opiniones

y pensamientos? La respuesta es clara; somos

nosotros. Pero aceptarlo requiere dos cosas

que no son fáciles de practicar como usuarios-

consumidores: responsabilidad y control.

La responsabilidad parte de saber que

las redes sociales (en realidad, todo internet)

no son un ámbito privado. Son un espacio

público, como una plaza, donde lo que decimos

o mostramos puede verlo cualquiera que pase

por ahí. Pero agregan una complejidad: al

tiempo que son públicas, están controladas

por empresas privadas que establecen las

condiciones de la convivencia y las modifican

según requieran sus objetivos comerciales.

Entonces, ¿por qué en el mundo físico

conocemos –y exigimos conocer y que se

cumplan– las leyes, pero no lo hacemos en el

mundo digital? ¿Qué hace que no pongamos

una foto de nuestro bebé en la puerta de casa

pero sí lo hagamos en una red social? La

responsabilidad, en ese punto, supera a las

empresas, malas o buenas. Es nuestra, como

ciudadanos de las redes.

También está en nuestras manos el control.

¿Estamos felices porque nos enamoramos o

porque subimos una foto con nuestro novio,

nuestras amigas nos dan like y nuestro ex

se entera de que lo superamos? Sí, todos

necesitamos que nos halaguen, ¿pero a qué

precio? Es claro que a veces usamos las redes

sociales como vía de escape. En las redes, el

mundo es lindo. Hay fotos de vacaciones, bebés

y gatitos. La droga es efectiva. El problema es

tomarla con todo lo que viene adentro sin leer el

prospecto. Si lo hiciéramos, tal vez elegiríamos

sentirnos un rato más solos y participar un poco

menos de un modelo de negocios, el de internet,

que no considera más que su felicidad en forma

de anuncios y que se alimenta de nuestros likes.

A veces, usamos las redes sociales como escape.

ESTOY ESCRIBIENDO MI PRIMER LIBRO. CADA DÍA, CUANDO LOGRO UNOS PÁRRAFOS QUE ME GUSTAN,

PIENSO QUE ESCRIBIR ES LA FORMA MÁS HERMOSA DE AUTOSUPERACIÓN

DEL SER HUMANO.

APUNTES 104 apertura.indd 67 16/10/14 17:06:59