;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL

O algoritmo é mais embaixo

Como a promessa de liberdade da internet resultou em invasão de privacidade e ameaças à democracia

Foram 1406 horas de monitoramento no Facebook. O suficiente para saberem que eu não tenho religião, não frequento academias e prefiro roupas confortáveis a estilosas. Também fui classificada como extrovertida, aberta a mudanças, competitiva e levemente impulsiva. Encontraram desafetos e descobriram interesses. Nenhuma dessas informações foi cedida conscientemente. Elas foram resultado de uma coleta de dados invisível, incessante, dentro do Facebook, e depois organizadas numa extensão para o navegador Chrome chamada Data Selfie.

O projeto foi criado em 2017 pela pesquisadora Hang Do Thi Duc. Enquanto cursava o mestrado, ela descobriu que, com um código, era possível saber se uma pessoa clicava em algo, movia o mouse, rolava a tela ou digitava. "Isso mudou a forma como eu navegava na internet", conta. "O meu uso do Facebook começou a ficar estranho. Ficou claro para mim que 'eles realmente sabem o que está na minha mente'".

Então, em vez de ser rastreada pela plataforma, ela preferiu rastrear a si própria. Criou o Data Selfie como um autoexperimento, mas o projeto se tornou um laboratório de conscientização sobre privacidade, que faz a mesma leitura e previsões que o Facebook faria sobre você. "Eu fiquei muito surpresa com o quanto os resultados são precisos", afirma. "Apenas pense no tempo todo em que você ficou dando dados para o Facebook", completa a pesquisadora.

O modelo de negócios da rede social está em xeque desde que veio à tona o vazamento de dados para a consultoria de marketing político Cambridge Analytica, que levou o mundo inteiro a reconhecer: existe um problema sério de privacidade na maneira como as redes sociais usam a gente (e não necessariamente em como nós as usamos).

O pesquisador Alexander Kogan criou um teste de personalidade no Facebook, recolheu dados comportamentais de 87 milhões de pessoas e os vendeu para a Cambridge Analytica e para outras consultorias. A ideia era traçar perfis detalhados para identificar pessoas mais vulneráveis a mudar de opinião – portanto, mais suscetíveis a anúncios apelativos ou fake news com fins políticos. A consultoria foi contratada pelas campanhas bem-sucedidas a favor do Brexit, no Reino Unido, e na eleição de Donald Trump, nos EUA.

Até mesmo quando você apenas rola a tela e consome informação, como eu fazia, você está cedendo seu dados

Hang Do Thi Duc, criadora do Data Selfie

Quando veio à tona que a consultoria vitoriosa usou informações dos usuários do Facebook sem consentimento, progressistas e democratas ficaram furiosos. E a pressão veio também pelo bolso: o Facebook perdeu US$ 95 bilhões em valor de mercado. Até o Ministério Público do Brasil abriu um inquérito para investigar, já que a empresa tinha um braço no país. O Procon-SP, por sua vez, notificou o Facebook e quer explicações sobre os riscos dos usuários. A empresa estima que 443 mil brasileiros possam ter tido seus dados compartilhados indevidamente. "Isso representa 0,5% das pessoas que podem ter sido afetadas no mundo todo", explicou o Facebook. Quem foi afetado receberá uma notificação na plataforma.

O fundador do Facebook, Mark Zuckerberg, foi chamado para depor na Câmara e no Senado dos EUA para esclarecer questões sobre a rede social. Vestindo terno e gravata – uma mudança que não ou despercebida, já que o bilionário é conhecido por usar sempre a mesma calça jeans e blusa preta – e visivelmente abatido, ele reconheceu que a empresa não tomou os devidos cuidados na proteção dos dados dos usuários utilizados por terceiros.

Em dez horas de sabatina, Zuckerberg precisou explicar pontos básicos do funcionamento do Facebook para os parlamentares que claramente não entendiam de internet, mas também foi pressionado. Reconheceu que a empresa errou, que ela não tem concorrente (o que, a grosso modo, configura um monopólio), que monitora a navegação dos usuários mesmo fora do Facebook e que o vazamento foi maior do que o noticiado inicialmente: Kogan vendeu os dados para muitas outras empresas. O caso pode ser o "escândalo do século", nas palavras de Giovanni Buttarelli, supervisor de privacidade da União Europeia. E nós, segundo ele, "só enxergamos a ponta do iceberg".

O Facebook tentou, sem sucesso, manter a narrativa de que o erro, no caso da Cambridge Analytica, foi dos desenvolvedores que romperam os termos de uso ao rear as informações coletadas adiante. Mas essa versão não se sustentou. Isso porque, embora tenha atingido grandes proporções, o caso não é isolado. Também não foi exatamente um "vazamento" – o Facebook permite que desenvolvedores em dados pessoais dos usuários nos aplicativos que rodam na plataforma. Todos os apps que são de alguma forma vinculados à rede social coletam dados dos usuários – alguns mais, outros menos.

"A gente sabia que um dia ou outro ia acontecer", diz Danilo Doneda, professor na Uerj (Universidade do Estado do Rio de Janeiro) e pesquisador na área de privacidade. "Foi representativo não só do Zuckerberg, mas de toda uma indústria", completa.

Embora ninguém saiba ao certo se o chamado "microtargeting" (ou seja, anúncios direcionados a perfis bastante específicos) possam, de fato, alterar o cenário eleitoral, sabe-se que esse tipo de segmentação psicológica é bastante eficiente do ponto de vista comercial. "Ficou muito mais fácil aproveitar, inclusive utilizando aspectos subjetivos, inerentes aos sentimentos ou emoções", diz Yasodara Córdova, programadora e pesquisadora em internet e democracia no Berkman Klein Center, da Universidade de Harvard.

E esse tipo de segmentação é feita, também, no nível econômico – quem demonstra ter mais dinheiro recebe um tipo de anúncio ou conteúdo, quem tem menos vê outros. "Essa lógica impacta porque estratifica ainda mais a sociedade, cerceia o direito de escolha de pessoas que têm menor poder aquisitivo, solidifica preconceitos e politicamente ajuda a transformar a participação política em um ato muito parecido com o de compra."

Mal-estar dos algoritmos

Em 2011, o pesquisador bielorusso Evgeny Morozov publicou um ensaio alertando para o perigo de se transformar a internet em um "shopping", em vez de uma praça pública, o que era a proposta original de seus criadores. Naquela época, as redes sociais não tinham as dimensões que têm hoje e o mundo assistia às possibilidades que elas traziam – a Primavera Árabe foi a mais emblemática delas.

A opinião de Morozov destoou de outros pensadores mais otimistas. Ele dizia que, se as empresas se voltassem para a publicidade, ficariam à mercê daquele setor – a personalização era uma delas.

Eu acho que se as pessoas soubessem como a web é feita, elas seriam radicalmente contra colocar dados pessoais na mão de plataformas como o Facebook

Yasodara Córdova, programadora e pesquisadora em internet e democracia no Berkman Klein Center, da Universidade de Harvard

O alerta se tornou quase profecia. A tendência de coletar dados para oferecer uma experiência personalizada se concretizou e se tornou massiva na internet de hoje. E poucos gigantes concentram grande parte dos serviços – e do nosso tempo – online.

"É o fato de ter ocupado, em escala global, um espaço que deveria ser público e aberto, e por consequência, diverso. A empresa mostrou competência em atender o apetite por conveniência e facilidade de uso, especialmente entre os usuários com menor conhecimento sobre a rede e suas possibilidades", diz José Murilo Júnior, ex-coordenador de Cultura Digital do Ministério da Cultura e gestor do Brasil.gov.br. "Hoje muita gente pelo mundo acha que Facebook e internet é a mesma coisa. Isso é um problema grande", diz ele. Segundo pesquisa da Fundação Mozilla, hoje 55% dos brasileiros acham que o Facebook é a própria internet.

O Facebook tem atualmente mais de 2 bilhões de usuários. Mais de dois terços deles entram na rede social todos os dias. A taxa de crescimento é de cerca de 18% ao ano. Seu valor de mercado está na casa dos US$ 450 bilhões (mesmo após o escândalo e o prejuízo). O sucesso estrondoso da rede social se deve, principalmente, a dois fatores: a eficiência tecnológica de seus algoritmos, criados e melhorados para gerar interesse e engajamento, e um modelo de negócios que se beneficia justamente disso.

Nossa atenção é um recurso valioso em meio à quantidade de informação disponível na internet – e, quanto mais personalizada a nossa experiência (com algoritmos eficientes), maior a chance de armos muito tempo rolando o feed ou interagindo com posts e marcas. Assim, os algoritmos aprendem que tipo de posts retém mais a nossa atenção e am a priorizar conteúdos semelhantes.

Acabamos consumindo apenas informações parecidas com as nossas, que confirmam a nossa visão de mundo, e nem ficamos sabendo o que acontece do lado de fora. É o que o jornalista Eli Pariser chamou de "filtros-bolha", em que os usuários só têm o a opiniões semelhantes às suas. Nessa lógica, fica mais fácil – e faz mais sentido para os nossos mecanismos cerebrais – compartilhar conteúdos que gerem likes nas nossas redes.

Assim, conteúdos sensacionalistas ou falsos encontram terreno fértil para se espalhar. Em um estudo com 200 mil releases e posts no Facebook de congressistas americanos, o instituto Pew Research Center percebeu que conteúdos que apresentaram "discordância indignada" – ou seja, polêmicos – recebiam três vezes mais comentários e eram duas vezes mais compartilhados do que os outros.

É por isso, também, que notícias falsas se espalham rapidamente. Em uma pesquisa publicada na revista “Science”, pesquisadores do MIT (sigla em inglês para Instituto de Tecnologia de Massachusetts) perceberam que notícias falsas têm 70% mais chance de serem compartilhadas do que as verdadeiras. Isso acontece, segundo os pesquisadores, porque os usuários gostam de ar a sensação que estão "por dentro". E as notícias falsas são feitas justamente para despertar gatilhos emocionais, que funcionam para prender a atenção e gerar likes.

Grande parte dos detalhes das redes sociais, aliás, são voltados para esse mesmo objetivo: prender a nossa atenção. É a dinâmica do like, que estimula mecanismos cerebrais de recompensa e prazer. "As tecnologias que usamos se tornaram compulsões", escreve Nir Eyal, autor de "Hooked: How to Build Habit-Forming Products". É possível falar até em "vício". Não é acidente que os usuários sintam o tempo todo um impulso de checar as redes sociais atrás de notificações. "Foi exatamente a intenção dos designers."

O controle sobre a vida das pessoas afeta o livre-arbítrio e diminui as escolhas possíveis para uma pessoa fazer. E isso está no coração do sistema democrático

Danilo Doneda, professor na Uerj

"O Facebook tem 14 anos e durante todo esse tempo foi moldando muito a forma como interagimos online. A lógica dos likes e compartilhamentos se tornou massiva por causa dessa plataforma", diz Joana Varon, mestre em Direito e fundadora da Coding Rights, organização de defesa de direitos humanos na internet. "Isso molda não só a interação online, como também a psicologia humana. O que significa crescer em uma sociedade que busca aceitação não apenas em gestos cotidianos de afeto, mas principalmente em exposição, likes e shares">

Fale com o TAB

[email protected]

Publicado em 16 de abril de 2018

Direção: Rodrigo Flores; Edição: Daniel Tozzi; Reportagem: Mirella Nascimento, Rodrigo Bertolotto; UX/Design: Marcelo Gerab, Solenn Robic; Vídeo: Mariah Kay, Ugo Soares;