;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

'Bom dia, gay': guerra ao discurso de ódio nas redes derruba posts LGBTQ+

Postagem do instagram @papodecrioulo viralizou -- e foi derrubado pela plataforma - Reprodução
Postagem do instagram @papodecrioulo viralizou -- e foi derrubado pela plataforma Imagem: Reprodução

Tiago Dias

Do TAB

06/03/2020 04h00

A cena resgata aquele pitoresco programa infantil de duas décadas atrás. Sobre os quatro teletubbies, o sol com face humana nasce e dá o recado do dia: "Urgente! A NASA acaba de confirmar que a terra está numa inclinação perfeita para você levantar dessa cama e deixar de ser inútil. Então acorda travesti, levanta sapatão". E finaliza com um gritinho agudo: "Bom dia gaaaaay".

A NASA mandou avisar hein...

A post shared by ??Mateus Scalabrini - Deu M?? (@papodecrioulo) on

Desde agosto ado, o fluminense Mateus Scalabrini, de 22 anos, posta diariamente nos stories do perfil @papodecrioulo uma mensagem motivacional para ao público LGBTQ+, utilizando o filtro do "Teletubbies" e a linguagem desbocada e irônica usada pela comunidade, onde termos considerados pejorativos são ressignificados.

"São palavras que sempre foram usadas contra nós, mas queria poder usá-las com um tom de incentivo, algo que a gente nunca ouviu", ele explica. "Foi o que fez as pessoas mais se identificarem com o conteúdo."

Na semana ada, ele aproveitou o pós-Carnaval para elencar as ousadias dos gays durante a festa: "E agora está com medo do coronavírus? Te manca, viadinho, não tem nada que resista ao seu poder", diz. O post viralizou rapidamente no Twitter e comunidades como o popular LDRV. Mateus ganhou em poucas horas 3 mil seguidores. No dia seguinte, entretanto, muitos posts e stories foram deletados pela plataforma por uso de "símbolos ou discurso de ódio" — incluindo muitos de seus bom dia bem-humorados.

"Todos os vídeos que tinham a palavra 'viadinho' foram removidos. Nunca tinha sido censurado, mas quando repercutiu, o Instagram começou a cortar", diz.

O TAB entrou em contato com o Instagram para entender como funciona a varredura de publicações ofensivas e saber quais os símbolos identificados nas postagens de Mateus. A plataforma não comentou o caso e emitiu apenas uma nota, em que diz se esforçar "para escrever políticas que equilibrem liberdade de expressão e a segurança dentro da plataforma".

"Mais de um bilhão de pessoas no mundo inteiro usa o Instagram todos os meses e encontrar esse equilíbrio sempre será desafiador", diz a nota.

A resposta é um reflexo da pressão que plataformas como Facebook, Twitter, YouTube e o próprio Instagram sofrem para moderar e detectar conteúdo considerado discurso de ódio, que prolifera nas redes todos os dias.

Com o volume diário de postagens beirando o inimaginável, essas empresas aram a usar inteligência artificial para detectar o nível de "toxicidade" dos conteúdos. "O problema é que, aparentemente em muitos casos, essa ferramenta está sendo usada diretamente para remover conteúdo. Só não sabemos quanto, porque as plataformas não são muito transparentes. Mas a gente tem relatos", diz Thiago Dias Oliva, coordenador da área de pesquisas em liberdade de expressão do InternetLab.

Oliva é um dos autores de uma pesquisa que investiga o impacto da tecnologia no conteúdo produzido pela - e para — comunidade LGBTQ+. Para isso, ele utilizou postagens no Twitter de drag queens conhecidas do popular reality show norte-americano "RuPaul's Drag Race", que usam, com frequência, linguagem que pode ser considerada dura ou desrespeitosa, ao construir o seu discurso.

"É difícil colocar o conteúdo em caixinhas. Nosso estudo nasce da ideia de mostrar e ver o contexto social, a função da linguagem para uma comunidade e repensar como essas ferramentas foram construídas e estão sendo aplicadas", explica.

No gráfico, as drag queens estão em azul, os supremacistas brancos, em vermelho. Michelle Obama está em verde e Donald Trump, em laranja - INTERNETLAB - INTERNETLAB
No gráfico, as drag queens estão em azul, os supremacistas brancos, em vermelho. Michelle Obama está em verde e Donald Trump, em laranja
Imagem: INTERNETLAB
Quem é mais tóxico?

A pesquisa foi realizada com a ajuda da API Perspective, desenvolvida pela Jigsaw (do grupo Alphabet). A ferramenta de inteligência artificial foi criada para detectar conteúdo considerado tóxico -- o que, segundo a empresa, se enquadra "comentários rude, desrespeitoso ou não-razoável que provavelmente fará com que você abandone uma discussão".

Para comparar os resultados, foram coletados tuítes de outros usuários famosos, como a ex-primeira dama dos Estados Unidos Michelle Obama (com discurso considerado menos controverso ou "saudável") e o atual presidente Donald Trump e figuras da extrema-direita (para discursos extremamente controversos ou "muito tóxicos", segundo a base de dados da tecnologia). O resultado, ainda que focado no conteúdo produzido em inglês, mostra lacunas e interpretações enviesadas no conteúdo feito pela comunidade LGBTQ+.

Um número significativo de perfis de drag queens foi considerado mais tóxico que o perfil de Donald Trump e de supremacistas brancos, com nível de toxicidade entre 16,68% e 37,81%. No total, 3.925 postagens das performers tiveram seu potencial de toxicidade avaliado em 80% ou mais, apenas ao usarem hashtags e termos como "fag" (bicha), "sissy" (maricas) e "bitch" (puta), consideradas ofensivas, mas que desempenham papel relevante e positivo quando usadas dentro da comunidade. Outras bem mais comuns como "gay", "lésbica", "queer" e "travesti" também foram consideradas tóxicas, ainda que em menor grau.

Um tuíte da drag Mayhem Miller — que dizia em caixa alta "Eu sou negro, sou gay, sou homem, sou uma drag queen. Se isso não é o suficiente para você... gentilmente, dê o fora daqui" — chegou a atingir 95% de toxicidade. Já um post do youtuber de extrema-direta Stefan Molyneux, que sugere que algumas etnias tinham um cérebro menor, ficou na faixa dos 21%.

"Percebemos que essas tecnologias ainda estão em estágio de desenvolvimento e não conseguem compreender o contexto, podendo acontecer distorções", avalia o pesquisador. "Isso tem muito a ver com a base de dados que a tecnologia usa. Obviamente, a palavra gay é neutra e positiva, mas fora da comunidade, aparece com uma conotação negativa no mundo. É como se a base de dados usada a considerasse preponderantemente negativa."

É difícil fazer análise sobre a efetividade da tecnologia nessa varredura, principalmente no Brasil, onde ainda não há pesquisas relacionadas ao assunto. "O que a gente sabe é que ela comete erros, não muito raros. E esses erros têm consequências", diz Oliva.

No longo prazo, com termos próprios da comunidade ando a ser "proibidos", isso pode moldar até a forma da comunidade se comunicar. "Se os canais usados hoje para transmitir as informações são esses, acaba se encontrando novos meios de transmitir aquela informação", observa o pesquisador.

Enquanto aguarda o retorno dos vídeos excluídos no Instagram, Mateus continua dando seu bom dia. Sem saber ao certo qual foi a palavra ofensiva usada, ele agora só escreve "v14d1nh0".