[Entrevista] Uma opção fundamentalmente ilegítima

Matéria escrita por Sam Biddle que saiu no The Intercept, no dia 2 de fevereiro de 2019.


“Uma opção fundamentalmente ilegítima”: Shoshana Zuboff fala sobre a Era do Capitalismo de Vigilância

O livro “A Era do Capitalismo de Vigilância”, de Shoshana Zuboff, já está sendo comparado com investigações socioeconômicas seminais, como “Silent Spring”, de Rachel Carson, e “O Capital”, de Karl Marx. O livro de Zuboff merece essas comparações e muito mais: como o primeiro, é uma exposição alarmante sobre como os interesses comerciais envenenaram nosso mundo e, como o segundo, fornece uma estrutura para entender e combater esse veneno. Mas “A Era do Capitalismo de Vigilância”, termo agora popular, cunhado por Zuboff há cinco anos, também é uma obra-prima de horror. É difícil lembrar de um livro que me deixou tão atormentado quanto o de Zuboff, com suas descrições de gárgulas algorítmicos que nos seguem a quase todos os instantes, todos os dias, para nos sugar os metadados até não poderem mais. Mesmo aqueles que fizeram um esforço para rastrear a tecnologia que nos acompanha ao longo da última década ficarão arrepiados, incapazes de olhar para os lados da mesma maneira.

AgeOfSurveillance-4-1548713060

Uma lição incontornável de “A Era do Capitaismo de Vigilância” é, essencialmente, que tudo é ainda pior do que você pensava. Mesmo se você acompanhou as notícias e as tendências históricas que sustentam a análise de Zuboff, sua narrativa pega o que parecem exageros sobre privacidade e deslizes na manipulação de dados e os reformulam como movimentos intencionais de um sistema global projetado para explorar você como uma fonte de receita. “O resultado é que tanto o mundo quanto nossas vidas são representados, em todos os aspectos, como informação”, escreve Zuboff. “Você está reclamando de sua acne ou participando de um debate político no Facebook, procurando uma receita ou informações sensíveis sobre saúde no Google, comprando sabão em pó ou tirando fotos de seu filho de nove anos, sorrindo ou pensando com raiva, assistindo TV ou dando cavalinhos de pau no estacionamento, tudo isso é matéria-prima para este texto que desabrocha permanentemente.” Os escândalos de privacidade na área de tecnologia, que têm aparecido com maior frequência tanto na indústria privada quanto no governo, não são incidentes isolados, mas vislumbres breves de uma lógica econômica e social que tomou todo o planeta enquanto desfrutávamos do Gmail e do Instagram. Sabe o clichê de que se você “não está pagando por um produto, você é o produto”? Muito fraco, diz Zuboff. Tecnicamente, você não é o produto, explica ela ao longo de várias centenas de páginas tensas, porque você é algo ainda mais degradante: é apenas uma entrada para o produto real, que são previsões sobre o seu futuro, vendido por quem der mais para que esse futuro possa ser alterado. “A conexão digital agora é um meio para os fins comerciais de outras pessoas”, escreve Zuboff. “Na sua essência, o capitalismo de vigilância é parasitário e autorreferencial. Revive a antiga imagem de Karl Marx do capitalismo como um vampiro que se alimenta de trabalho, mas com uma reviravolta inesperada. Em vez de trabalho, o capitalismo de vigilância se alimenta de todos os aspectos da experiência de todo ser humano.”

Esta entrevista foi condensada e editada para maior clareza.

Eu gostaria que você dissesse algo sobre esse jogo semântico que o Facebook e outros corretores de dados semelhantes estão fazendo quando dizem que não vendem dados.

Lembro-me de estar sentada à mesa no meu escritório, no início de 2012, e ouvir um discurso que [o então presidente executivo da Google] Eric Schmidt fez em algum lugar. Ele estava se gabando de como a Google é consciente da privacidade e disse: “Nós não vendemos seus dados”. Peguei o telefone e comecei a ligar para os vários cientistas de dados que conheço e lhes perguntar: “Como Eric Schmidt pode dizer que não vendemos seus dados, em público, sabendo que estava sendo gravado? Como ele consegue se safar disso?” É exatamente a pergunta que eu estava tentando responder no começo de tudo isso.

Digamos que você esteja navegando ou esteja no Facebook colocando coisas em uma postagem. Eles não estão pegando suas palavras e indo a algum mercado para vendê-las. Essas palavras, ou se eles sabem que você atravessou um parque ou o que seja, essa é a matéria-prima. Eles estão apenas secretamente garimpando constantemente sua experiência privada como matéria-prima e estocanda-a. Eles vendem produtos de previsão para um novo mercado. E o que esses caras estão realmente comprando? Eles estão comprando previsões do que você fará. Existem muitas empresas que querem saber o que você vai fazer e estão dispostas a pagar por essas previsões. É assim que conseguem se safar quando dizem: “Não estamos vendendo suas informações pessoais”. É assim que eles também escapam ao dizer, como no caso do GDPR [recentemente implementado na lei europeia de privacidade]: “Sim, você pode ter acesso aos seus dados”. Porque os dados aos quais eles terão acesso são os dados que você já forneceu. Mas não estão dando acesso nenhum ao que acontece quando a matéria-prima entra na máquina, nos produtos de previsão.

Você vê isso como substancialmente diferente do que vender a matéria-prima?

Por que eles venderiam a matéria-prima? Sem a matéria-prima, eles não têm nada. Eles não querem vender matéria-prima, querem coletar toda a matéria-prima na terra e tê-la como proprietários. Eles vendem o valor agregado da matéria-prima.

Parece que o que estão realmente vendendo é muito mais problemático e muito mais valioso.

Claro, esse é o objetivo! Hoje em dia temos mercados de clientes comerciais que estão vendendo e comprando previsões de futuros humanos. Acredito nos valores da liberdade e autonomia humanas como elementos necessários de uma sociedade democrática. À medida que a concorrência desses produtos de previsão aumentou, ficou claro que os capitalistas da vigilância descobriram que as fontes mais preditivas de dados são aquelas que entram e intervêm em nossas vidas, em nossas ações em tempo real, para moldar nossa ação em uma determinada direção alinhada com o tipo de resultado que eles desejam garantir aos seus clientes. É aí que eles estão ganhando dinheiro. Essas são intervenções descaradas em cima do exercício da autonomia humana, o que chamo de “direito ao tempo futuro”. A própria ideia de que posso decidir o que quero para o meu futuro e projetar as ações que me levam daqui para lá, essa é a essência material da ideia de livre arbítrio.

Escrevi sobre o comitê do Senado [dos EUA] nos anos 1970, que revisou a modificação comportamental do ponto de vista do financiamento federal e considerei a modificação comportamental como uma ameaça repreensível aos valores da autonomia humana e da democracia. E aqui estamos nós, anos depois, tudo a mesma coisa. Isso está crescendo ao nosso redor, esse novo meio de modificação comportamental, sob os auspícios do capital privado, sem proteções constitucionais, feitas em segredo, projetadas especificamente para nos manter ignorantes de suas operações.

Quando você coloca dessa maneira, com certeza a questão de saber se o Facebook está vendendo nosso número de telefone e endereço de email vira apenas uma curiosidade.

De fato. E esse é exatamente o tipo de desorientação em que eles apostam.

Isso me fez refletir, sem muita animação, sobre os anos que passei trabalhando na Gizmodo cobrindo tecnologia de consumo. Por mais cético que eu tentasse permanecer, relembro todos os anúncios de produtos da Google e da Facebook que abordamos como “notícias de produtos”.

[A imprensa está] enfrentando essa enorme massa de capital privado que tem com o objetivo de confundir, enganar e desorientar. Há muito tempo, acho que era 2007, eu já estava pesquisando esse tópico e estava em uma conferência com várias pessoas da Google. Durante o almoço, eu estava sentada com executivos da Google e fiz a pergunta: “Como faço para sair do Google Earth, para não aparecer lá?” De repente, a sala inteira ficou em silêncio. Marissa Mayer, [vice-presidente da Google na época], estava sentada em uma mesa diferente, mas se virou, olhou para mim e disse: “Shoshana, você realmente quer atrapalhar a organização e a disponibilização de informações sobre o mundo?” Levei alguns minutos para perceber que ela estava recitando a declaração de missão da Google.

Zuboff-author-photo--1548713646

Outro dia, eu estava olhando a seção da minha conta do Facebook que lista os interesses que o Facebook me atribuiu, ou seja, as coisas que a empresa acredita que você gosta. Fiz o mesmo com o Twitter – e fiquei impressionado, em ambos os casos, como ele estavam errados. Gostaria de saber se você acha reconfortante que muitas dessas coisas pareçam hoje bastante desajeitadas e imprecisas.

Acho que há nuances aqui. Algumas delas ainda parecem desajeitadas e irrelevantes e isso produz em nós talvez um suspiro de alívio. Mas, por outro lado, há coisas que são assombrosamente precisas, realmente atingindo seu alvo no momento certo. E como só temos acesso ao que eles nos permitem ver, ainda é bastante difícil julgar com alguma certeza qual é o alcance dessa [precisão].

E que você diria do risco de intervenção comportamental baseada em premissas falsas? Não quero que uma empresa tente intervir no curso de minha vida diária com base na crença equivocada de que gosto de pescar, assim como não quero que elas intervenham com base no interesse real que tenho.

É por isso que estou argumentando que precisamos examinar essas operações e decompô-las. Todas elas derivam de uma premissa fundamental que é ilegítima: que nossa experiência privada é livre para ser usada como matéria-prima. Portanto, é quase secundário se suas conclusões sobre nós estão certas ou erradas. Em primeiro lugar, eles não têm o direito de intervir no meu comportamento. Eles não têm direito ao meu tempo futuro.

Existe algo como um “anúncio do bem” em 2019? É possível implementar uma forma de publicidade on-line que não seja invasiva e comprometa nossos direitos?

Uma analogia que eu traçaria seria negociar quantas horas por dia uma criança de 7 anos de idade pode trabalhar em uma fábrica.

Entendo isso como um não.

Deveríamos estar contestando a própria legitimidade do trabalho infantil.

Fiquei surpreso com o número de pessoas que conheço, que considero muito experientes no que diz respeito à tecnologia, que são interessadas e preocupadas com tecnologia, preocupadas com o Facebook, e que mesmo assim compraram um dispositivo como Alexa ou Google Assistant para sua sala de estar. É essa estranha combinação de saber e render-se à conveniência de tudo isso. O que você diria para alguém assim?

O capitalismo da vigilância em geral tem sido tão bem-sucedido porque a maioria de nós tem se sentido tão importunada, tão desassistida por nossas instituições do mundo real, seja assistência médica, sistema educacional, banco … Em todo lugar, só encontramos desgraça. As instituições econômicas e políticas têm nos deixado hoje muito frustradas. Todas nós fomos conduzidas dessa forma para a Internet, para esses serviços, porque precisamos de ajuda. E ninguém mais está nos ajudando. Foi assim que nos fisgaram.

Você acha que procuramos Alexa por estarmos em desespero?

Obviamente também há uma nuance aqui. Para algumas pessoas, o tipo de caricatura de “só queremos um pouco de conforto, somos tão preguiçosos” funciona. Mas sou muito mais complacente com essas necessidades do que a caricatura nos levaria a acreditar. Nós precisamos de ajuda. Não precisaríamos de tanta ajuda caso nossas instituições no mundo real não precisassem ser consertadas. Mas, na medida em que precisamos de ajuda e olhamos para a Internet, essa é uma opção fundamentalmente ilegítima que agora somos forçados a escolher como cidadãos do século XXI. Para obter a ajuda de que preciso, tenho que marchar pelas cadeias de abastecimento do capitalismo de vigilância. Como a Alexa, o Google Home e todas as outras bugigangas que têm a palavra “smart/inteligente” na frente, todo serviço que tem “personalizado” na frente nada mais são do que interfaces da cadeia de abastecimento para que o fluxo de matéria-prima seja traduzido em dados, e estes sejam transformados em produtos de previsão, e estes sejam vendidos em mercados futuros comportamentais, para que acabemos financiando nossa própria dominação. Se queremos resolver isso, não importa o quanto achamos que precisamos dessas coisas, precisamos chegar num lugar onde estamos dispostos a dizer não.