SciELO - Scientific Electronic Library Online

 
vol.25GENOCÍDIO NEGRO E SEGURANÇA PÚBLICA: POLÍTICA DE EXTERMÍNIO EM AÇÕES POLICIAISSENTIDOS SUBJETIVOS DA VIOLÊNCIA CONSTRUÍDOS POR MENINAS EM PRIVAÇÃO DE LIBERDADE índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

artigo

Indicadores

Compartilhar


Revista Psicologia Política

versão On-line ISSN 2175-1390

Rev. psicol. polít. vol.25  São Paulo  2025  Epub 02-Maio-2025

https://doi.org/10.5935/2175-1390.v25e23986 

Artigo

SUBJETIVIDADE E VIGILÂNCIA ALGORÍTMICA: NOTAS SOBRE O AGENCIAMENTO TECNOLÓGICO DAS PLATAFORMAS DE REDES SOCIAIS

Subjetividad y vigilancia algorítmica: notas sobre la agencia tecnológica de las plataformas de redes sociales

Subjectivity and algorithmic surveillance: notes on the technological agency of social media platforms

SÉRGIO RODRIGO DA SILVA FERREIRA1 
http://orcid.org/0000-0002-9899-4378

1Doutor em Comunicação e Cultura Contemporâneas pela Universidade Federal da Bahia (UFBA), Estágio Pós-doutoral no Programa de Pós-graduação em Comunicação e Territorialidades da Universidade Federal do Espírito Santo (UFES). E-mail: sergiorodrigosf@gmail.com


RESUMO

Com a “plataformização” da internet nossos fluxos diários de interação e ações vividas são tornados fluxos digitais que sejam capturáveis de modo que ganhem uso econômico por meio de práticas de vigilância e modulação comportamental. O crescimento desse modelo imbrica-se com os processos de subjetivação de tal modo que se torna um desafio às pesquisas sobre o agenciamento tecnológico das plataformas de redes sociais. Neste artigo, apresentamos as implicações da visibilidade algorítmica e dos sistemas das plataformas que elencam o conhecimento válido e identificam seus componentes mais relevantes para melhor nos permitir examinar processos subjetivos enredados. Argumentamos como a criação de uma noção de “objetividade anormativa” dos algoritmos geram a sensação de que eles espelham uma normatividade imanente à sociedade apenas (re) produzindo-a e multiplicando-a. Esses algoritmos produzem espaços de convivência on-line imunes à diferença, usando estruturas de validação de saberes nas quais outras vozes relevantes são ativamente excluídas e desacreditadas.

Palavras-chave: Subjetividade; Plataformas de redes sociais; Vigilância; Agenciamento; Câmara de Eco

RESUMEN

Con la “plataformización” de Internet, nuestros flujos diarios de interacción y acciones vividas se convierten en flujos digitales que son capturables para que obtengan un uso económico a través de prácticas de vigilancia y modulación del comportamiento. El crecimiento de este modelo se superpone con los procesos de subjetivación de tal manera que se convierte en un desafío para investigar sobre la agencia tecnológica de las plataformas de redes sociales. En este artículo, buscamos presentar las implicaciones de la visibilidad algorítmica y los sistemas de plataforma que enumeran el conocimiento válido e identifican sus componentes más relevantes para examinar los procesos subjetivos entrelazados. Argumentamos que la creación de una noción de “objetividad anormal” de los algoritmos genera la sensación de que reflejan una normatividad inmanente en la sociedad sólo (re) produciéndola y multiplicándola. Estos algoritmos producen espacios de convivencia en línea inmunes a la diferencia, utilizando estructuras de validación del conocimiento en las que otras voces relevantes son activamente excluidas y desacreditadas.

Palabras clave Subjetividad; Plataformas de redes sociales; Vigilancia; Agencia; Cámara de eco

ABSTRACT

With the “platformization” of the internet, our daily flows of interaction and lived actions are transformed into digital flows that can be captured and used economically through practices of surveillance and behavioral modulation. The growth of this model is intertwined with the processes of subjectivation in such a way that it becomes a challenge to research on the technological agency of social media platforms. In this article, we seek to present the implications of algorithmic visibility and platform systems that list valid knowledge and identify its most relevant components for examining entangled subjective processes. We argue that the creation of a notion of “abnormative objectivity” of algorithms generates the feeling that they mirror a normativity inherent to society only by (re)producing and multiplying it. These algorithms produce online spaces of coexistence that are immune to difference, using structures of knowledge validation in which other relevant voices are actively excluded and discredited.

Keywords Subjectivity; Social Media Platforms; Surveillance; Agency; Echo Chamber

INTRODUÇÃO

Desde o começo deste século, tem interessado pesquisadores do campo da comunicação a relação entre subjetividade e tecnologias da informação e comunicação. Especialmente a interface entre a visibilidade e a produção de subjetividade (Bruno, 2013), e os modos como as tecnologias digitais online modulam tal produção e atravessam a relação do sujeito consigo mesmo e com o Outro. Um desafio ao lançar luz sobre tais objetos em um processo crescente de plataformização (D’Andrea, 2017), é elencar aspectos técnicos de coleta e processamento dos dados produzidos pelos usuários e sua interferência da produção intersubjetiva em plataformas de redes sociais como Facebook, Twitter e Instagram. Este trabalho promove uma conversa teórica a fim de estabelecer a relação entre aspectos tecnológicos das plataformas de redes sociais e seus agenciamentos nas subjetividades.

Subjetividade é um conceito que nos coloca o problema da distinção dos “Eus” (como eu me entendo como um sujeito único, diferente dos Outros, com características que me singularizam) e de que modo o relacionar-se consigo mesmo, uma atividade “interior” do sujeito, está enviesado por questões de fora-do-sujeito (Rolnik, 2018), como outros sujeitos, a cultura e o regime de verdade no qual está inserido. Essa experiência e relação com o si mesmo (self) se dá em um plano de organização (Rose, 2001). Esse plano de organização acontece ao desenvolvermos formas para nos entender como uma singularidade e nos formarmos como sujeitos por meio de agenciamentos, “cujos vetores, forças e interconexões subjetivam o ser humano, ao nos reunir . . . com partes, forças, movimentos, afectos de outros humanos, animais, objetos, espaços e lugares” (Rose, 2001, p. 143).

Importa o modo como se monta a composição com diferentes partes para formar um todo. Tal arranjo segue uma lógica interna que, apesar de variar sempre, se reconfigura para tentar manter uma integridade. A lógica organizativa é o agenciamento. São os agenciamentos que produzem o efeito de ser um sujeito e, como tal, somos reunidos sob um agenciamento, que está a nos compor e nos recompor.

Há cada vez uma maior centralidade das chamadas plataformas em redes sociais no nosso dia a dia, em relacionar-se, organizar-se politicamente, informar-se sobre aspectos da vida e da sociedade, e sentimo-nos pressionados na dimensão política pela mediação dessas plataformas. Tais mídias funcionam por meio de uma refinada articulação entre tecnologias, políticas legislativas e acordos econômicos cujo funcionamento não é possível entender sem considerar esses aspectos para pensar seus usos.

O Facebook é um caso emblemático de incorporação técnica do que se tem chamado de ‘plataformização da rede mundial de computadores’, que se baseia justamente no modelo infraestrutural e econômico das mídias sociais (D’Andrea, 2017). Esse fenômeno é tão radical que, para o público médio, a própria experiência de estar na internet é muitas vezes a de estar alternando o uso de uma plataforma para outra. A internet pode ser muitas coisas, mas foi tão significativamente colonizada por megacorporações e suas plataformas para fazer a intermediação dos usuários entre si e às informações que nem sequer podemos enxergar seu real potencial.

O uso econômico da coleta dos dados dos usuários, o acirramento de práticas de vigilância e modulação comportamental (Silveira, 2017) enfatizam como questões técnicas, legais e éticas estão tão enlaçadas, que não é possível desconsiderá-las quando a maleabilidade técnica e a opacidade das plataformas que operam algoritmos de seleção e hierarquização de conteúdos são capturadas para finalidades que fogem ao usuário. O mais grave é que plataformas como o Facebook têm se imposto como modelo em muitas espacialidades online e mesmo fora da plataforma somos forçados a ceder nossa privacidade para ter acesso a certos serviços. Isso fica evidente quando percebemos que se torna cada vez mais comum ter como uma possibilidade de acesso a certos serviços online a conexão por meio da conta da plataforma.

Os mecanismos de plataforma do Facebook funcionam através da interação entre tecnologias, na forma de estruturas de dados, algoritmos e interfaces; estratégias comerciais; práticas de usuário desenvolvidas por indivíduos, assim como por empresas, instituições estatais e organizações sociais. Tais mecanismos alteram arranjos institucionais estabelecidos e alguns valores públicos tradicionais. Van Dijck, Poell e Waal (2018) vão elencar três aspectos principais desses mecanismos: datificação (datification), comoditização (commodification) e seleção.

A datificação refere-se à capacidade das plataformas em rede de transformar em dados muitos aspectos da vida e do mundo, não só os aspectos demográficos, mas também os metadados comportamentais automaticamente derivados dos usos dos dispositivos. A comoditização equivale à ação de transformar, no ambiente online, objetos, atividades, emoções e ideias do offline em mercadorias negociáveis. Já a seleção acontece sob o viés das duas últimas, quando a plataforma orienta a interação do usuário através de uma espécie de curadoria na qual se categorizam e hierarquizam tópicos, termos, atores, objetos, ofertas, serviços mais relevantes. A seleção diz respeito aos mecanismos de personalização, reputação, tendências e moderação dentro da plataforma e é feita por seus algoritmos.

Mas afinal, o que são algoritmos? De quais algoritmos estamos falando? Por que e como as plataformas de redes sociais os usam? De que modo o algoritmo incide em processos de subjetivação? E, por fim, quais questões consideraremos ao pensar as subjetividades imersas num contexto de interações influenciadas por algoritmos?

ALGORITMOS DE RELEVÂNCIA PÚBLICA E A VISIBILIDADE MATEMÁTICA DO SUBJETIVO

Quase toda operação digitalizada é composta por um algoritmo, que nada mais é do que uma programação que pega algum problema dado e devolve um resultado por meio de fórmulas matemáticas que operam um comando. No sentido mais amplo, são procedimentos codificados em etapas para transformar dados de entrada em uma saída desejada, com base em cálculos especificados. O fato é que os algoritmos fazem coisas, e sua sintaxe incorpora um comando estrutural que permite que isso aconteça. Desse modo, podemos entender os computadores como máquinas algorítmicas que são projetadas para armazenar e ler dados, aplicar comandos matemáticos e oferecer informações como resposta (Gillespie, 2012).

Os algoritmos possuem importância cada vez mais central na escolha da informação considerada relevante, estando efetivamente presente em nossas interações em ambientes digitais. Eles estão nos motores de busca e permitem a procura por informação em imensos bancos de dados ou mesmo por quase todo conteúdo acessível na web. Alguns desses algoritmos têm a função de classificar a informação e, desse modo, mapeiam as preferências do usuário, ao comparar suas ações na rede, sugerindo elementos semânticos para que se possa encontrar a melhor resposta para uma determinada busca. É desse mesmo modo que hoje eles gerenciam interações em sites de redes sociais, destacando as publicações de certos “amigos” e “escondendo” as de outros, ao escolher, de modo automatizado, os conteúdos que são mostrados e elencados (Gillespie, 2012).

Assim, tratamos de um algoritmo específico, o qual Tarleton Gillespie (2012) chama de ‘algoritmo de relevância pública’, que são procedimentos automatizados que produzem e certificam conhecimentos. A avaliação algorítmica da informação possui uma lógica de conhecimento particular, que se baseia em pressupostos específicos sobre o que é o conhecimento válido e sobre como identificar seus componentes mais relevantes (Gillespie, 2012). Ou seja, a máquina pré-codificada é quem de modo automatizado nos diz o que ou quem é relevante conhecer ou dar atenção.

Esses algoritmos que têm como função elencar o que há de mais interessante a partir de uma programação específica e complexa estão ao mesmo tempo “escondendo” ou tirando de cena uma boa quantidade de informação que dessa perspectiva não condiz ao interesse do usuário a partir do que o programa calcula. Desse modo, tais programações conduzem a experimentação online quando fornecem modos de encontrar as informações e pessoas, apontando para o que há a se saber e conhecer, e de que forma se deve fazê-lo. Estão, assim, ativamente influenciando usuários na participação social e política nos ambientes digitais, pois são elas que estão a reger os fluxos das informações e das relações junto ao usuário e atuando sobre suas percepções.

Desse modo, ao utilizar as redes sociais online como uma importante forma de se expressar e interagir na atualidade, ao alimentarmos a máquina com vestígios de nossas atividades, opiniões, afetos, imagens, preferências e lugares, estamos nos sujeitando e sujeitando nossos discursos e relações à mediação da máquina algorítmica e à vigilância de grandes empresas transnacionais, como o Facebook, o Twitter e o Google.

A produção algorítmica de métricas a partir da captação, análise e correlação massiva de dados nos dá a impressão de que a tecnologia capta as coisas como elas são, fora de uma norma prévia. É a ideia de que essas tecnologias possuem uma ‘objetividade anormativa’, isto é, elas encarnam o novo regime de verdade digital em uma “multiplicidade de novos sistemas automáticos de modelização do ‘social’, ao mesmo tempo a distância e em tempo real, acentuando a contextualização e a personalização automática das interações securitárias, sanitárias, administrativas, comerciais” (Rouvroy & Berns, 2018, pp. 107-108). Essa objetividade anormativa dos algoritmos soa como se eles espelhassem uma normatividade imanente à sociedade apenas (re)produzindo-a e multiplicando-a.

Um exemplo já bastante conhecido é o sistema de busca do Google que, como se sabe, elenca os resultados a partir de um perfil do usuário criado e mantido pela plataforma. Se duas pessoas diferentes que usam a plataforma em dispositivos e contas distintas digitarem o mesmíssimo termo no motor de busca, ele apresentará resultados diverso (tanto de elementos, como de ordenação). A plataforma produz métricas que considerariam gostos e interesses dos usuários a partir de buscas anteriores.

Esses resultados apontam para o fato de que no motor de busca da plataforma, dão a impressão que a “seleção, a classificação, a correlação e outras técnicas costumam repetir vieses ambientais, pois são capazes de imitar as condições sociais e pessoas” (Almeida, 2018, p. 144). Subjetiva e politicamente, portanto, podem modular comportamentos, censura, reproduzir exclusões e hierarquias sociais, violações de propriedade, abuso mercadológicos, efeitos sobre a cognição e até sujeição a leis exteriores (Almeida, 2018).

Mas afinal, como esses algoritmos produzem um perfil do usuário a partir de suas interações na plataforma?

MINERAÇÃO DE DADOS E DATIFICAÇÃO DA VIDA

Antoinette Rouvroy e Thomas Berns (2018) tiram o foco da coconstrução entre dispositivos tecnológicos e atores humanos para colocar no sistema de mineração de dados (datamining) que tem como finalidade a elaboração e reconstrução de perfis por meio de uma lógica de correlação. Ou seja, os algoritmos de mineração de dados associam um nó na rede a uma gama de informações, sem relacioná-los a uma norma geral. Eles apenas associam um caso singular, um nó da rede (perfil, usuário, IP), “a um sistema de relações, eminentemente evolutivas, entre diversas medidas, irredutíveis a qualquer média” (Rouvroy & Berns, 2018, p. 109).

Esse sistema algorítmico é “autodidata”, ele é programado para reconhecer padrões, sejam eles quais forem, identificá-los, caracterizá-los, reproduzi-los e tomar decisões e ações baseadas nessa métrica, a qual está sendo constantemente recalculada. Quanto mais interagimos com a rede e com nossos dispositivos, mais informações são associadas a esse “perfil” que o algoritmo constitui de nós.

Ao contrário dos sistemas estatísticos tradicionais que geralmente ordenavam, separavam e diferenciavam certos dados para quantificação a fim de criar elementos para pensarmos o espaço público, Rouvroy e Berns (2018) avaliam que o sistema de mineração de dados se baseia numa hipertrofia do privado. Resultado: a filtragem que esses sistemas fazem, geram uma imunização informacional, levando à “radicalização das opiniões e ao desaparecimento da experiência comum” (Rouvroy & Berns, 2018, p. 110).

Do ponto de vista dos desenvolvedores, o que se quer é a captação da atenção para fins mercadológicos e para o bom funcionamento dos calculos estatísticos decisórios feitos pela extração automatizada de dados massivos a fim de criar predições sobre hábitos, gostos e ações dos usuários; quanto maior for o número de dados e a diversidade de qualidade deles, melhor. O chamado Big Data não produz apenas na sua grande quantidade, mas também no seu crescimento constante e na sua complexidade, no chamado 5’Vs: volume, velocidade, variedade, veracidade e valor (Del Prá Netto, Moro, & Ferreira, 2015).

A potência preditiva da mineração de dados não se dá pelo imenso volume de dados apenas, mas também na sua possibilidade de relacionar esses dados. O valor está na produção de padrões que estabelece, após extrair e agregar os dados, fazendo conexões “entre dados, sobre um indivíduo, sobre indivíduos em relação a outros, sobre grupos de pessoas ou simplesmente sobre a estrutura da informação em si” (Boyd & Crawford, 2012, pp. 1-2, tradução nossa).

A mineração de dados nas plataformas acontece em três etapas que se confundem – e confundirem-se faz parte de seu bom funcionamento. A primeira é a coleta massiva de dados não classificados1 e sua conservação em “armazéns de dados” (datawerehouses). São dados brutos extraídos do seu contexto original. Aqui “textão do Face”, emoções, movimentos do rosto, deslocamentos feitos com o dispositivo, a mensagem que quis escrever desistiu e apagou, o tempo que passa lendo o post da sua ex mesmo que não interaja com ela... tudo vira dado.

“Um dado não é mais que um sinal expurgado de toda significação própria” (Rouvroy & Berns, 2018, p. 112), é um valor que atribuímos a algum aspecto de um objeto (um objeto pode ser uma persona online). Justamente por retirar o dado direto do objeto é que a mineração de dados produz o efeito de objetividade. Porém, não podemos esquecer que, do outro lado, uma entidade humana é quem escolheu medir algum aspecto dessa realidade, possivelmente com alguma intencionalidade.

A segunda etapa é o tratamento de dados e produção de conhecimento, e é onde acontece a mineração propriamente dita. Nessa etapa são feitas correlações sutis entre os dados, e saberes são produzidos a partir da informação anteriormente não classificada de modo automatizado. O fato de ser automatizado mais uma vez reforma uma ilusão de objetividade, já que é feita pela máquina. É o que temos chamado de aprendizado de máquina (machine learning), o que permite “tornar diretamente possível a produção de hipóteses a partir dos próprios dados” (Rouvroy & Berns, 2018, p. 113). O fato de que a própria máquina identifica padrões e cria saberes que nos dão a impressão de que as normas emergem dos dados aponta para o outro fato de que não importam apenas as correlações, mas também a ‘confiança’ nos efeitos autoperformativos dessas correlações (Rouvroy & Berns, 2018).

Por fim, a terceira etapa, é a de ações sobre os comportamentos que acontecem por meio de uma elaboração algorítmica de perfis dos usuários. É importante aqui diferenciar a ‘informação ao nível individual’, é aquela observável e perceptível pelos sujeitos, que são aquelas às quais nos relacionamos diretamente, do ‘saber produzido no nível de elaboração de perfis’, que não nos é acessível, nem perceptível. São informações que são aplicadas sobre os sujeitos e interferem sobre ele diretamente no banco de dados das plataformas. Nessa etapa, por meio de previsões probabilísticas, o sistema da plataforma quer antecipar comportamentos a partir de perfis criados pela mineração dos dados massivos e diversos de cada usuário. A intervenção acontece ao nível do “ambiente”, a interface que o usuário se representa e se relaciona com os outros, com o porém de que “o ambiente é ele mesmo reativo e inteligente, isto é, ele próprio recolhe dados em tempo real pela multiplicação de captores, transmite-os e trabalha-os para se adaptar sem cessar a necessidades e perigos específicos” (Rouvroy & Berns, 2018, pp. 114-115). Esse perfil criado pelo aprendizado da máquina adapta-se ao indivíduo sem o uso de categoria discriminante prévia; ele leva em conta o que há de mais particular em cada indivíduo (perfil/usuário), constituindo uma normatividade sem referenciar uma classe ou uma categoria geral. Portanto, “não se trata mais de excluir o que sai da média, mas de evitar o imprevisível, de tal modo que cada um seja verdadeiramente ele mesmo” (Rouvroy & Berns, 2018, p. 115).

VIGILÂNCIA E O “EU” DATIFICADO

O que é preciso ficar evidente é que, quando tratamos desse tipo de algoritmo – que gera um perfil do usuário pela associação de dados e age modificando o ambiente online em que ele interage – não estamos apenas falando de uma vigilância que acontece como uma câmera a registrar ações acontecidas, mas falamos também de “um motor conduzindo a sociedade em uma determinada direção”, de “uma fonte moduladora de eus” (Pasquale, 2015, online, tradução nossa).

Se nem toda vigilância é ruim – se pensarmos, por exemplo, em violações aos direitos humanos – ao pensar a vigilância algorítmica como está colocada pelas empresas proprietárias dessas plataformas, falamos tanto de um controle sobre o futuro quanto de uma gravação do passado, uma (super)visão que molda comportamentos para determinados fins (Pasquale, 2015). Quanto maior e mais sofisticada for essa vigilância, maior será o controle exercido por aqueles que dominam os algoritmos, permitindo a for mulação de diretrizes para o controle comportamental dos usuários em uma dada rede digital, muitas vezes por motivos financeiros. Para Horning (2012), esse tipo de subjetividade imersa em redes influenciadas por algoritmos é capitalizado em geração de inovação barata, fornece mão de obra imaterial a baixo custo, possibilita melhor propagação de propaganda e torna o processo de promoção da demanda mais fácil.

Algoritmos como aparelhos de vigilância também contribuem para criar modelos de sociabilidades, ao empregar uma dinâmica dupla de conteinerização (no sentido de trabalhar grandes pacotes de aplicações e automatizar processos) e modulação dos afetos para com a finalidade modificar comportamentos de sujeitos em larga escala. O comportamento é modulado em conformidade com quem tem o poder de programação do sistema (Pasquale, 2015). Um exemplo disso são ações de censura prévia pelo Facebook que bloqueia e suspende usuários por postarem imagens de mamilos femininos ou, em alguns casos reportados em 2016, por usarem palavras como “sapatão” ou “travesti”2, mesmo quando usadas por ativistas LGBTQIA+.

É assim que dentro dos ecossistemas de informação algumas questões precisam ser levantadas para elencar aspectos políticos que estão na sombra do algoritmo e que estão a modular as subjetividades dos usuários de plataformas de redes sociais. Gillespie (2012) enumera seis dimensões dos algoritmos de relevância pública que têm desdobramentos políticos. A primeira diz respeito aos ‘padrões de inclusão’ desses códigos. Não sabemos quais são os critérios que fazem com que um item (informação, postagem, pessoa) seja incluído em primeiro lugar em um índice, nem qual é a lógica de exclusão de outros e de que maneira os dados são realmente tratados pelos algoritmos. A segunda trata dos ‘ciclos de antecipação’ no qual se questiona em que implica as tentativas de provedores de algoritmos desconhecer e prever seus usuários, e o que as conclusões a que eles chegam podem impor. A terceira dimensão é a ‘avaliação da relevância’, procurando entender os julgamentos pelos quais os algoritmos determinam o que é relevante, de que maneira esses critérios são ocultados e como eles fazem escolhas que são consideradas apropriadas e legítimas. A quarta dimensão é a ‘promessa de objetividade algorítmica’, tratando da maneira pela qual o caráter técnico/matemático do algoritmo está posicionado como uma suposta garantia de imparcialidade, ignorando a intencionalidade na produção do código, além da base de discurso que reforça tal ideia. A penúltima dimensão é o ‘imbricamento com a prática’, tratando do aspecto em que os usuários remodelam suas práticas de acordo com as características e os modos de funcionamento do algoritmo e como esses usuários podem transformá-los em terrenos para competição política, às vezes até mesmo para interrogar a política do próprio algoritmo. E, por último, a dimensão que diz respeito à ‘produção de públicos calculados’, como a apresentação algorítmica dos públicos se volta para eles mesmos no sentido de moldar o senso coletivo de si mesmo, e quem está melhor posicionado para se beneficiar desse conhecimento.

Construímos objetos e esses mesmos objetos estão a nos construir. Não somos apenas parte da rede, mas também somos definidos pelo que pode ser encontrado em bancos de dados sobre nós, que produzem significados a partir do que se encontra, que, em muitos casos, pode ser resultado das interações complexas e em grande parte invisível com algoritmos que fazem a mediação com as interfaces de redes sociais online (Markham, 2013).

Nesse sentido, o algoritmo atua como uma espécie de inconsciente digital, uma espécie de ente invisível conduzindo e influenciando nossas relações conosco e com os outros, mas a cujos modos de funcionamento não temos acesso. Tampouco temos acesso às suas intencionalidades de programação nem em que ponto atua e com quais critérios, nem a qualquer controle de alteração.

O algoritmo de relevância é uma máquina de modular subjetividades e relacionamentos no ambiente digital. Sendo cada vez mais constante o processo de constituição de relações online e como os usuários são tratados de forma algorítmica (ou seja, como um conjunto de pontos de dados sujeitos a mecanismos de reconhecimento de padrões), esse tipo de tratamento acaba condicionando relações, fazendo com que tratemos os outros de modo similar (Pasquale, 2015). Nossos desejos estão se implicando nesses modos de funcionamento e é cada vez mais comum que o sistema encontre padrões em nossas redes e vá nos dando sugestões de perfis de contatos para que possamos adicionar. Recentemente um amigo me enviou um printscreen das sugestões de contatos de Facebook e todos eram de homens brancos de barba e cabelos pretos e gordos, pois o sistema detectou tal preferência de desejo de meu amigo.

É assim que se constitui o que o teórico cultural Rob Horning (2012) chama de um “si mesmo de dados” ou um «eu dataístico” (data self), que surge através do processo de compartilhar, ser compartilhado, estar em um gráfico social, tendo recomendações automatizadas e sendo processado por algoritmos, induzindo mudanças na autoconcepção e no comportamento das pessoas. O eu dataístico está investindo em gerenciar suas identificações online de maneiras distintas a antes que as plataformas tornassem as ações do sujeito potencialmente públicos, e experimentando o mundo pela mediação dos algoritmos funcionando como estruturas profundas.

A novidade histórica não é a relação entre tecnologia e identidade, mas a influência do algoritmo de relevância, pois esse faz o sujeito questionar sua autoimagem identificada pelos sistemas, além de como as interações com eles nos aproximam de certos sujeitos e como agir sobre esse eu constituído de dados que não são facilmente acessíveis, mas que possuem evidente agência sobre ele (Markham, 2013).

A lógica da imagem do eu dataístico está muitas vezes a tentar negociar com os algoritmos de reputação e busca, visando à otimização dentro dos sistemas e da sua convergência, e produzindo boas práticas de estratégia de autopromoção, mesmo com o sistema algorítmico oculto. Essas tecnologias, portanto, não são apenas instrumentais, mas também constitutivas, alterando modos de pensar e agir e reforçando certos traços subjetivos específicos.

O eu dataístico busca ser o influenciador bem conectado, flexível, compartilhador e autoconfessional em fluxos de divulgação contínuos de informações e, portanto, corre à frente de qualquer necessidade de consistência. As vantagens promovidas desse tipo de subjetividade para o usuário são influência, conexão, acesso, possibilidade de múltiplas relações. A noção de autenticidade é rejeitada, segundo Horning, em favor da construção, não sendo necessário ser coerente em relação a um eu preexistente; constrói-se ativamente o melhor eu dataístico para o momento dado, contexto ou situação. Se isso não era de todo inviabilizado em contexto offline, é potencializado em ambientes digitais. Distintas noções de eu emergem através do processo de processamento de informações (Horning, 2012).

As subjetividades no contexto da mineração de dados estão sob a governamentalidade algorítmica, que é “um certo tipo de racionalidade (a)normativa ou (a)política que repousa sobre a coleta, a agregação e a análise automatizada de dados em quantidade massiva, de modo a modelizar, antecipar e afetar, por antecipação, os comportamentos possíveis” (Rouvroy & Berns, 2018, pp. 115-116). A ideia de uma normatividade objetiva que emerge da leitura maquínica faz com que o sujeito se implique nas plataformas no movimento de tornar-se a si mesmo, aderindo acriticamente.

A questão é que há uma dupla estatística sendo computada. Uma refere-se às relações que o sujeito online está estabelecendo e a outra, ao “real”, do offline. O sujeito em si, o humano, é ignorado, e o resultado desse perfil gerado por dados infraindividuais pelo algoritmo recai sobre ele como um perfil supraindividual. Aqui não há falha, não há o que foge à norma, pois qualquer “desvio” é reassimilado e torna o sistema mais refinado e preciso (Rouvroy & Berns, 2018).

O algoritmo funciona mais rastreando do que propriamente diagnosticando. É assim que a governamentalidade algorítmica recai sobre o sujeito: investindo sobre ele por meio de múltiplos perfis atribuídos de maneira automática pelos seus rastros digitais. Funciona, assim, como um dispositivo de segurança, aos modos foucaultianos, por querer não fixar ou manter fronteiras, mas assegurar a circulação (Foucault, 2008). Você não pode parar de produzir, registrar-se, produzir dados sobre si, sobre os outros e sobre o ambiente, pois a precisão da previsão funciona melhor com a quantidade e diversidade de dados gerados.

Nessa economia, a questão da individuação é acentuada, pois o maquinário algorítmico quer acelerar fluxos de desejo. A grande quebra de paradigma de sistemas estatísticos anteriores é que nessa realidade é como se o significado não fosse necessário ou importante para o funcionamento da máquina. A gerência humana sobre ela se perde, inclusive, porque o usuário não faz a menor ideia de como a máquina funciona, quais de seus dados estão sendo usados e de que forma, mesmo com alguma suspeita de que seu comportamento esteja sendo de algum modo “manipulado”. Essas

semióticas a-significantes operam uma sincronização e uma modulação dos comportamentos pré-individuais e pré-verbais da subjetividade, engendrando afetos, percepções, emoções etc., como peças, os componentes, os elementos de uma máquina (servidão maquínica) . . . o sistema não produz discurso, não fala, mas funciona, põe em movimento, conectando-se diretamente ao ‘sistema nervoso, ao cérebro, à memória etc.’, ativando relações afetivas, transitivas, transindividuais dificilmente atribuíveis a um sujeito, a um indivíduo, a um ‘eu.’ (Lazzarato citado por Rouvroy & Berns, 2018, pp. 121-122, grifo dos autores)

Nossos desejos, emoções, relações, histórias são engrenagens e combustíveis de uma máquina algorítmica que está a gerar lucro com nossa produção subjetiva ao mesmo tempo que condiciona modos de desejar e comportar-se. Somos convocados a expor-nos, falar de nossas vidas em um processo que pode ser entendido, como uma radicalização de um processo de hipersubjetividade do capitalismo em sua fase financeirizada, enquanto na mesma mão há um processo de dessubjetivação, que Rouvroy e Berns (2018) consideram não contraditórias.

A indiferença do algoritmo ao sujeito humano conduz a uma rarefação dos processos de subjetivação. Primeiro porque o controle do sujeito sobre o que será feito com seus dados e qual informação sobre si será capturada é fraco, e seu consentimento é limitado. Para isso basta fazer um exercício de quantos dados nossos estão na rede sem nosso consentimento, quantas vez somos marcados em postagens ou somos fotografados e identificados pelo algoritmo mesmo sem nossa vontade, mesmo com informações triviais e descontextualizadas.

Segundo porque, ao desconsiderar o indivíduo e focar totalmente nas relações que estão estabelecidas a partir dele, tais relações são transformadas em substantivadas. Nesse contexto o sujeito não existe, na perspectiva da máquina, mas apenas uma gama de relações. Dentro da governança algorítmica, o sujeito está preso numa certa cadeia – vejam só – de relações. Esse formato extrai toda possibilidade de devir, impede o efetivo processo subjetivo, uma vez que não há espaço para o convívio da diferença e a constituição do díspar. As possibilidades de um regime de existência são drasticamente diminuídas.

CÂMARA DE ECOS

Outro conceito fundamental para entendermos processos de subjetivação inseridos em plataformas de redes sociais e sua relação com os algoritmos de seleção é a questão da produção de câmara de ecos. A discussão dos fenômenos de notícias pós-verdade e falsas frequentemente envolve redes epistêmicas fechadas produzidas nas mídias sociais. O senso comum turvou a distinção entre dois fenômenos epistêmicos distintos nessas ambiências: as bolhas e as câmaras de eco. De modo geral, vemos as estruturas descritas pasteurizadas geralmente com o termo “bolha das mídias digitais” e outras variações. Entretanto, a diferenciação de ambas é central para entender tais fenômenos como veremos a seguir.

Uma bolha epistêmica é uma estrutura social de produção e circulação de saberes na qual outras vozes relevantes foram deixadas de fora, até mesmo acidentalmente. Uma câmara de eco, por outro lado, é uma estrutura epistêmica social na qual outras vozes relevantes foram ativamente excluídas e desacreditadas. Se os membros das bolhas epistêmicas não são expostos a certas informações e argumentos relevantes, os membros das câmaras de eco, por outro lado, foram levados a desconfiar sistematicamente de todas as fontes externas. Ademais, se em bolhas epistêmicas outras vozes não são ouvidas; nas câmaras de eco outras vozes são ativamente defenestradas.

O professor e pesquisador C. Thi Nguyen (2020) argumenta como é fundamental manter a distinção entre esses dois fenômenos porque as câmaras de eco podem explicar os fenômenos de pós-verdade e da desinformação de uma forma que as bolhas epistêmicas não podem. Além disso, cada tipo de estrutura requer uma intervenção distinta. Por exemplo, enquanto a mera exposição a evidência contrária a certos a rg u me nt o s po d e r i a a cab a r c om u m a bol ha e pist êm ica , e ssa me sm a expo sição p o de efet iva me nt e r eforça r uma câmara de eco. Nguyen declara, ainda, que as câmaras de eco são muito mais difíceis de escapar, sob sua influência, um agente pode agir com virtude epistêmica, mas o contexto social modulará essas ações. Sair de uma câmara de eco exigiria uma reiniciação radical do sistema de crenças do sujeito (Nguyen, 2020).

Câmara de Ecos diz respeito, portanto, aos fenômenos em que os usuários de plataformas seletivamente se envolvem com outras pessoas, conteúdos e ideias semelhantes e alinhadas ideologicamente as suas, raramente sendo exposto às ideias conflitantes que compõe a esfera agonística, processo que é agravado pela curadoria algorítmica das plataformas com base nas atividades dos usuários. A limitação técnica à novidade e diversidade leva a agrupamento e polarização, a “situação ou espaço nos quais crenças pré-existentes são repetidas e reforçadas” (Terren & Borge-Bravo, 2021, p. 100, tradução nossa), como reverberações em uma câmara de ecos acústica. Voltada para a homofilia, a tendência humana de interagir e associar-se a outros semelhantes; exposição seletiva, que está ligada a processos de evasão a questionamentos e busca de reforço, se traduz na tendência de consumir informações alinhadas ideologicamente; ou viés de confirmação, propensão, portanto, a buscar, escolher e interpretar informações alinhadas com o próprio sistema de crenças. Ao contrário do que acreditou autores e teóricos dos anos 2000 de que a nova esfera pública independente produzida em ambiência digitais e sua maior exposição a divergência política e de notícias produziria uma diversificação da ação comunicativa e dos pontos de vista, vemos que, em muitos casos, houve, na realidade, a produção de câmaras de eco que tem levado a polarização e formação de grupos online homogêneos e radicalizados em suas crenças.

CONSIDERAÇÕES FINAIS

Se como nos diz Deleuze, “a tecnologia é então social antes de ser técnica” (2005, p. 49), somos convocados a estabelecer quais questões sociais forjam a existência, sucesso e permanência de plataformas de redes sociais como o Facebook, Twitter ou Instagram. A prática da autorrepresentação fragmentária e autodocumentação está associada a essas formas tecnológicas, que garantem que boa parte dos eventos de nossa vida sejam registrados (lifelogging), tomando a forma de dispositivos que servem para documentar, traduzir e qualificar o cotidiano da vida (Puar, 2017). Os eventos são, nesses dispositivos, orientados por dados informativos e experienciais: a digitalização da informação circulando entre a memória e o arquivamento.

É nesse sentido que plataformas de redes sociais, do ponto de vista da subjetividade, atuam como dispositivos de vigilância que regulam a formação de sujeitos, tornando-se parte integrante do que significa se tornar um alguém na contemporaneidade. Elas imputam práticas ciborgues que colapsam as fronteiras tradicionais entre público e privado, tensionam os afetos sobre os corpos, alteram formas de atenção, prática e repetição. Puar (2017) sugere que tais plataformas poderiam ser usadas de forma mais generosa para a experimentação e autoelaboração, em vez de amplificar a normatizações. A partir do discutido neste artigo, acrescentaríamos ainda a possibilidade de fomentar encontros criativos com a diferença do Outro, em vez de limitá-los em ambientes autorreferenciais, nas câmaras de ecos.

O protagonismo da memória, da lembrança, como forma de se reconhecer e de ser identificado pelo Outro, diz como modos de subjetivação são impactados quando essa memória não só mais depende do que vem das nossas entranhas, mas também está substancialmente amparada pelos registros digitais presentes nas plataformas. Ou seja, essa fonte de “verdades” sobre o sujeito para saber quem é e constituir a reputação também se encarna nos motores de busca dessas plataformas e de outras tecnologias de registro da própria vida, como os “álbuns” e as “lembranças” das plataformas e no próprio ranqueamento de conteúdo e dos outros usuários.

Essa digitalização de elementos a serem lembrados – aqui é importante destacar a diferenciação entre a memória como processo orgânico de armazenamento e recuperação de certos aspectos e a memória como suporte técnico a dados digitais com reminiscências do passado – monta uma narrativa de si com apagamentos pensados para tornar públicas selecionadas experiências passadas. É nesse sentido que a própria vida se torna uma espécie de espetáculo midiático performatizado para o olhar do Outro (Sibilia, 2018). É por isso que se torna imprescindível compartilhar aspectos da sua vida. É preciso exibir tudo o que se é, pois a provação do Outro é o que dá estatuto de verdade ao que é postado e que, de certo modo, é como o Eu gostaria de ser identificado.

Somos assim incitados a performar a nós mesmos. Tal incitação é produzida tecnicamente, quando nossos fluxos diários de interação e ações vividas são tornados fluxos digitais que sejam capturáveis (Couldry & Mejías, 2019). Não é à toa que as plataformas inserem uma série de artifícios de interação, como reações, módulos para que diga como se sente e o que está fazendo, para que voluntária ou involuntariamente o GPS dos nossos dispositivos diga onde estamos etc. Mas essa incitação para falar e registrar a si mesmo é também produzida na relação com os outros sujeitos.

A digitalização de si aparece em nossas pesquisas sobre subjetividade quando notamos que as subjetividades são coconstruídas na criação de uma narrativa do self que necessita do olhar do outro como aprovação. Esse olhar que apoia aparece nos comentários elogiosos e nas reações dos botões “curti”, “amei” que funcionam como aplausos para esse Eu espetacularizado, pouco importando o que é feito desses dados. O que tais ações têm, entretanto, gerado como produto subjetivo e político é a criação de ambientes imunizados àquilo que foge aos gostos, às opiniões e às visões de mundo e os próprios sujeitos performando ações algorítmicas moduladas pelas plataformas.

1São aqueles não estruturados, apresentados em estado bruto. Opõem-se aos organizados, geralmente tabelados, como por exemplo: “Sexo: M”, “Idade: 18” etc.

2Ramos, A. Facebook bloqueia ativistas por usarem as palavras ‘sapatão’ e ‘travesti’. ONDAA. http://ondda.com/noticias/2016/12/facebook-bloqueia-ativistas-por-usarem-as-palavras-sapatao-e-travesti.

FinanciamentoBolsista Capes do Programa de Desenvolvimento da Pós-graduação (PDPG) - Pós-doutorado estratégico (nº 16/2022).

Consentimento de uso de imagemNão se aplica.

Aprovação, ética e consentimentoNão se aplica.

REFERÊNCIAS

Almeida, Virgílio A. F. (2018). O que é governança de algorítmos? In Fernanda Bruno, Bruno Cardoso, Marta Kanashiro, Luciana Guilhon, & Lucas Melgaço (Eds.), Tecnopolíticas da Vigilância: perspectivas da margem (pp. 141-148). Boitempo. [ Links ]

Boyd, Danah, & Crawford, Kate (2012). Six Provocations for Big Data. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.1926431Links ]

Bruno, Fernanda (2013). Máquinas de ver, modos de ser: vigilância, tecnologia e subjetividade. Sulina. [ Links ]

Couldry, Nick & Mejías, Ulises A. (2019). Colonialismo de datos: repensando la relación de los datos masivos con el sujeto contemporáneo. Virtualis: Revista de Cultura Digital, 10(18), 78-97. http://www.revistavirtualis.mx/index.php/virtualis/article/view/289Links ]

D’Andrea, Carlos (2017). Rumos a uma plataformização do social. Letras, 12(53), 17. http://letras.cidadescriativas.org.br/wp-content/uploads/2018/12/Letras-53-PREVIA01.pdfLinks ]

Del Prá Netto, Adriana Sodré, Moro, Evandro Pioli, & Ferreira, Fernanda Folly (2015). Os 5 V’s do Big Data. GTA/UFRJ. https://www.gta.ufrj.br/grad/15_1/bigdata/vs.htmlLinks ]

Deleuze, Gilles (2005). Foucault. Brasiliense. [ Links ]

Foucault, Michel (2008). Segurança, território, população: Curso no Collège de France: 1977-1978. Martins Fontes. [ Links ]

Gillespie, Tarleton (2012). The relevance of algorithm. In T. Gillespie, P. Boczkowski, & K. Foot (Eds.), Media Technologies (pp. 167-194). http://www.tarletongillespie.org/essays/Gillespie - The Relevance of Algorithms.pdfLinks ]

Horning, Rob (2012, February 2). Notes on the “data self”. https://thenewinquiry.com/blog/dumb-bullshit/Links ]

Markham, Annette N. (2013). The Algorithmic Self: Layered Accounts of Life and Identity in the 21st Century. Selected Papers of Internet Research. http://mediaplaces2012.humlab.umu.se/program.htmlLinks ]

Nguyen, C. Thi (2020). Echo chambers and epis-temic bubbles. Episteme, 17(2), 141-161. https://doi.org/10.1017/EPI.2018.32Links ]

Pasquale, Frank (2015). The Algorithmic Self. Faculty Scholarship. https://digitalcommons.law.umaryland.edu/fac_pubs/1540Links ]

Puar, Jasbir K. (2017). The Right to Maim: Debility, Capacity, Disability. Duke University Press. [ Links ]

Rolnik, Suely (2018). A hora da micropolítica. n-1 Edições. [ Links ]

Rose, Nikolas (2001). Inventando nossos eus. In Tomaz Tadeu Silva (Ed.), Nunca fomos humanos (pp. 137-204). Autêntica. [ Links ]

Rouvroy, Antoinette & Berns, Thomas (2018). Governamentalidade algorítmica e perspectivas de emancipação: o díspar como condição de individualização pela relação? In Fernanda Bruno, Bruno Cardoso, Marta Kanashiro, Luciana Guilhon, & Lucas Melgaço (Eds.), Tecnopolíticas da Vigilância: perspectivas da margem (pp. 107-140). Boitempo. [ Links ]

Sibilia, Paula (2018). Você é o que o Google diz que você é: a vida editável, entre controle e espetáculo. In Fernanda Bruno, Bruno Cardoso, Marta Kanashiro, Luciana Guilhon, & Lucas Melgaço (Eds.), Tecnopolíticas da Vigilância: perspectivas da margem (pp. 199-216). Boitempo. [ Links ]

Silveira, Sergio Amadeu (2017). Tudo sobre tod@s: redes digitais, privacidade e venda de dados pessoais. Edições SESC/SP. [ Links ]

Terren, Ludovic & Borge-Bravo, Rosa (2021). Echo Chambers on Social Media: A Systematic Review of the Literature. Review of Communication Research, 9, 99-118. https://rcommunicationr.org/index.php/rcr/article/view/94Links ]

Vab Dijck, José, Poell, Thomas, & Waal, Martijn (2018). The Platform Society: public values in a connective world. Oxford University Press. [ Links ]

Recebido: 07 de Maio de 2022; Revisado: 16 de Agosto de 2023; Aceito: 28 de Novembro de 2023

Creative Commons License Este é um artigo publicado em acesso aberto (Open Access) sob a licença Creative Commons Attribution, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que o trabalho original seja corretamente citado.