Introdução
Para compreender a massa e a figura do líder no contexto digital, é essencial partir do fenômeno da algoritmização da vida promovida pela cibercultura1. Esta dinâmica interfere na constituição do Eu, facilitando tanto a manipulação quanto o agrupamento de sujeitos, favorecendo o surgimento e a formação das chamadas massas digitais. Neste cenário, novas formas de liderança emergem — despersonificadas, descentralizadas, muitas vezes invisíveis — exigindo que se esclareçam os conceitos de algoritmo, inteligência artificial (IA) e seus correlatos, a fim de compreendermos seu funcionamento e inter-relações.
O objetivo deste artigo é investigar como os dados são processados para capturar os sujeitos e direcioná-los a formas sutis e persistentes de sujeição subjetiva no universo digital. Com algoritmos de IA cada vez mais sofisticados, observa-se uma hiperpersonalização digital que influencia diretamente o funcionamento do Eu, modulando escolhas, crenças e afetos. Embora recente, este avanço tecnológico suscita inquietações quanto à sua capacidade de produzir novas formas de laço social, sustentar ilusões e intensificar mecanismos de sujeição psíquica.
O funcionamento técnico desse processo será detalhado a seguir, enquanto sua articulação com o conceito de ilusão — conforme proposto por Freud — será explorada em profundidade, sustentando o vínculo entre a psicanálise freudiana e o que envolve o fenômeno contemporâneo das massas digitais. Esta articulação é fundamental para sustentar o vínculo teórico entre eles.
Do dado à (ciber)liderança
Para compreendermos o funcionamento do universo da inteligência artificial (IA) e dos algoritmos, é essencial abordarmos conceitos que se entrelaçam ao campo, como o conceiuto de big data. Isolados, os dados não têm relevância; é o seu processamento que permite extrair informações significativas e operacionais. Este termo designa um modelo computacional capaz de processar e interpretar, em alta velocidade, uma quantidade massiva de dados, conferindo-lhes valor e utilidade em contextos decisórios, sociais e econômicos diversos.
No entanto, a velocidade e a escala deste processamento de dados trazem consigo uma implicação crucial - o viés é inevitável. A seleção do que será considerado relevante depende sempre de interesses, sejam mercadológicos e/ou ideológicos. Não há neutralidade possível na extração e interpretação dos dados. Justamente por meio destes vieses que se estabelece o potencial de manipulação algorítmica, reorganizando as formas de percepção e decisão na esfera digital. Para Kaufman e Santaella (2021, p. 216), big data é o “agigantamento e desmesura crescente dos dados gerados, armazenados e disponibilizados pelos meios digitais”. Segundo as autoras, vivemos na era da geração massiva e diversificada de dados. Este cenário vem promovendo mudanças significativas no processamento computacional, que exige inovações constantes nos métodos de tratamento e análise dos mesmos, levando-nos à transição para modelos mais avançados de IA.
Atualmente, as técnicas de IA que conseguem lidar de forma eficiente com tudo isso são as redes neurais de aprendizagem profunda (Deep Learning Neural Networks – DLNN), cujo funcionamento será detalhado mais adiante. Estas redes operam de maneira complexa e assertiva no tratamento de dados, possibilitando, inclusive, previsões de cenários futuros. No entanto, é importante destacar que as previsões são probabilísticas, sempre ancoradas na qualidade e no viés dos dados fornecidos, o que pode limitar sua eficácia ou introduzir erros sistêmicos.
Diante deste cenário, Kaufman e Santaella (2021) argumentam que vivemos uma verdadeira revolução dos dados, em que tudo é quantificado, comparado e transformado em informação — realidade que sustenta a personalização e a dependência gerada pelos algoritmos de IA. Portanto, no século XXI, o dado é a moeda de maior valor, pois, a partir dele, ocorre a personalização de experiências por meio dos algoritmos de IA. Estes algoritmos são desenvolvidos para criar estratégias de interação que não apenas personalizam, mas também geram dependência dos usuários ao mundo digital, especialmente em aplicativos.
Apesar do impacto já evidente, ainda não há como mensurar o alcance e as mudanças que estes processos provocarão. O que se observa é a influência profunda que a algoritmização exerce sobre o Eu e as relações interpessoais, redirecionando as formas de interação no cenário digital. Esta observação nos leva a refletir sobre as métricas utilizadas para realizar comparações e personalizações. Argumentamos que essas métricas são, na maior parte, forjadas por interesses mercadológicos e/ou ideológicos, direcionando os algoritmos para objetivos específicos que muitas vezes transcendem a neutralidade técnica.
Conforme observa Sichman (2021), não existe uma definição única para inteligência artificial (IA). De modo geral, ela pode ser compreendida como um conjunto de técnicas utilizadas por sistemas computacionais para otimizar processos de forma mais eficiente do que os seres humanos, ainda que sem a intenção de substituí-los completamente. Como ressaltam Sichman (2021), Russell e Norvig (2013), por ser a IA um campo aplicado a praticamente todas as atividades intelectuais, definir seu escopo de forma abrangente é um desafio. Sua conceituação varia conforme o objetivo de uso — da modelagem do comportamento humano à criação de soluções para problemas sociais. No entanto, segundo Ribeiro (2021), é difícil alcançar um consenso terminológico, especialmente porque o termo “inteligência” permanece fortemente vinculado à ideia de processos biológicos.
Kaufman (2022) destaca que, na atualidade, a IA não tem capacidade de pensar, mas de realizar previsões baseadas em uma complexa programação fundamentada na probabilidade. Embora alguns sistemas operem sem a necessidade de interferência humana, seria equivocado atribuir à IA a essência do pensamento. Inclusive, especialistas alertam que, apesar dos avanços técnicos, os modelos de IA continuam gerando “alucinações” — informações falsas apresentadas com alta confiança. Isto representa riscos graves em áreas como saúde, direito e educação, onde erros podem comprometer decisões críticas2.
Prosseguindo em nosso processo de entendimento conceitual deste universo, podemos considerar o algoritmo uma espécie de “cérebro” da IA3, que a abastece com dados e permite a interação no ambiente digital, a partir de técnicas programadas de IA. Uma IA é formada por um conjunto vasto de algoritmos. Já o computador, ou uma rede deles, funciona como um processador/ sequenciador desses procedimentos algorítmicos. Neste sentido, podemos entender o hardware como o “corpo” que dá suporte ao funcionamento, enquanto o software corresponde aos algoritmos e à própria IA.
Mas como definir um algoritmo? Segundo Russell e Norvig (2013), os algoritmos fazem parte de projetos computacionais voltados para buscas em espaços específicos, com diferentes formas de operação, que podem ser sistemáticas ou não. Ribeiro (2021) complementa definindo algoritmos como um raciocínio sequencial e sistemático, com instruções bem definidas para alcançar um objetivo – basicamente, um processo que segue uma sequência: input – processamento – output. Isto pode representar uma linearidade que, em se tratando dos algoritmos de IA, se transforma. Tais algoritmos têm uma complexidade que permite a tomada de decisões de forma autônoma. Importante reiterar que os algoritmos não são neutros; são criados para atender a demandas específicas, seja no campo político ou comercial, entre outros, o que os tornam ferramentas fundamentais para a personalização no ambiente digital. Para causar impacto na sociedade, a IA se desenvolve dentro do universo das probabilidades, apontando riscos e oportunidades em colaboração com os indivíduos. Essa dinâmica evidencia o papel dos algoritmos de IA, cujos efeitos são percebidos diariamente na interação dos sujeitos com as redes sociais.
No cenário contemporâneo, tudo se transforma em dados. Por esta razão, a capacidade de coletá-los, interpretá-los e manejá-los tornou-se imprescindível para a continuidade de qualquer atividade — seja comercial, política ou social. Neste contexto, os algoritmos passaram a demandar integração com modelos de inteligência artificial (IA) para alcançar níveis mais elevados de desempenho em processos decisórios. Torna-se, portanto, urgente o desenvolvimento de tecnologias capazes de sustentar sistemas de processamento baseados em técnicas avançadas de IA, voltados à resolução de problemas de alta complexidade. No entanto, esta evolução só será possível se tais sistemas superarem a lógica algorítmica estritamente programável, migrando para formas de autoaprendizado.
Desta forma, adentramos um ramo da IA chamado machine learning (ML), ou aprendizado de máquina. Trata-se de uma técnica composta por um conjunto específico de algoritmos, capaz de aprender com dados e identificar padrões. Como ramo da IA, ela permite que os sistemas que a utilizam não sigam apenas programações fixas, mas desenvolvam aprendizado a partir de bases de dados. Esse aprendizado ocorre por meio do reconhecimento de padrões, possibilitando tomadas de decisão com menor intervenção humana. Quanto maior e mais refinado o banco de dados, melhor será o desempenho da ML. No entanto, ela não está imune às distorções, já que depende exclusivamente da qualidade do banco de dados disponível. Dados tendenciosos, por exemplo, podem gerar decisões equivocadas.
Os algoritmos de ML aprendem de três maneiras, conforme descrito por Ribeiro (2021): aprendizado supervisionado; não supervisionado; e por reforço. No método supervisionado, os dados passam por uma classificação prévia, e o objetivo é criar um modelo treinado para uma aplicação específica, geralmente voltada à comercialização. No método não supervisionado, os dados não são classificados, e o algoritmo identifica padrões e agrupa dados semelhantes de forma autônoma. Por fim, no aprendizado por reforço, o algoritmo utiliza um processo de retroalimentação, coletando feedbacks sobre os dados processados e aplicando estas informações para aprimorar continuamente o modelo.
Apesar dos avanços desta tecnologia, a ML opera de forma linear, o que limita sua eficácia em contextos com muitas variáveis. Neste ponto entra em ação a tecnologia de deep learning (DL), uma forma de aprendizado profundo de IA que supera algumas das limitações do ML básico. A DL é estruturada para simular redes neurais de maneira semelhante ao funcionamento do cérebro humano, permitindo que algoritmos analisem grandes volumes de dados de maneira altamente complexa e eficaz. A subárea de aprendizado profundo (DL) aprimora os mecanismos da ML, por meio de redes neurais artificiais organizadas em diversas camadas, capazes de processar grandes volumes de dados em níveis múltiplos, refinando continuamente o aprendizado. Segundo Kaufman (2022), o objetivo central é desenvolver sistemas que aprendam com mínima interferência humana, substituindo a lógica formal de regras e padrões por uma configuração que permita o aprendizado autônomo a partir de dados processados. O termo “profundo” refere-se às múltiplas camadas neurais, utilizando funções matemáticas complexas para otimizar a análise e previsibilidade dos algoritmos.
A Deep Learning (DL), baseada em redes neurais artificiais (DLNN), utiliza algoritmos capazes de analisar dados com elevado grau de sofisticação — muitas vezes ultrapassando a capacidade perceptiva humana. Esta técnica tem sido amplamente empregada na previsão de cenários e na estimação de probabilidades, como a identificação precoce de doenças ou a previsão de falhas em equipamentos industriais. No entanto, sua complexidade torna difícil, para os próprios programadores, compreenderem integralmente seu funcionamento, conferindo aos sistemas o status de “caixa-preta”. Ainda assim, sua principal aplicação permanece voltada para atender às demandas de consumidores, por meio de respostas altamente customizadas e eficazes.
Esta lógica de customização não opera apenas em nível funcional: ela repercute diretamente na constituição do Eu. A repetição de padrões, o reforço de preferências e a oferta contínua de conteúdos sob medida atuam como dispositivos de sustentação narcísica, que visam minimizar o desprazer e alimentar ilusões. Freud (1921) já apontava que o psiquismo lança mão de mecanismos defensivos frente ao desamparo, organizando o desejo como tentativa de retorno a estados primários de satisfação. Sob esta ótica, os algoritmos passam a mediar a relação entre sujeito e mundo, estruturando laços não mais pelo reconhecimento do outro, mas por um espelhamento contínuo de si.
À medida que os algoritmos incorporam técnicas de aprendizado de máquina (ML) e de aprendizado profundo (DL), tornam-se aptos a solucionar problemas com autonomia crescente. Esta autonomia, contudo, implica também uma crescente opacidade: ao operarem por meio de redes neurais inspiradas na estrutura do cérebro humano, esses sistemas passam a atuar de modo cada vez mais intricado e veloz, dificultando a transparência e a compreensão dos processos decisórios — inclusive para seus criadores.
A transição do processamento computacional lógico para formas altamente personalizadas é guiada pelos métodos de IA baseados em redes neurais biológicas. Nessas estruturas, os “neurônios artificiais” interagem em múltiplas camadas, com níveis crescentes de complexidade interpretativa. Quanto maior a precisão das camadas e mais qualificados os dados, mais eficaz tende a ser o desempenho dos sistemas. Diferentemente da ML, que busca identificar causalidades, a DL prioriza correlações, visando gerar insights rápidos e ajustados à experiência do usuário.
O volume massivo de dados gerado continuamente exige técnicas cada vez mais refinadas para organizar e personalizar sua interpretação — desafio amplamente enfrentado pelas DLNN. Embora estas redes representem um avanço significativo, seu sucesso depende da confiabilidade dos dados. Quando alimentadas por bases enviesadas ou de baixa qualidade, podem amplificar desinformações, criar bolhas cognitivas e aprofundar dilemas éticos relacionados à manipulação algorítmica.
Dada à conexão entre os conceitos utilizados nesta investigação, bem como suas funções, priorizaremos o termo “algoritmo de IA”, considerando nosso foco em compreender os processos tecnológicos em diálogo com a teoria psicanalítica freudiana, especialmente no que concernem ao algoritmo como produtor de ilusões. Percebemos, então, que os algoritmos, operando por meio de redes neurais profundas (as DLNN), têm como objetivo promover a hiperpersonalização, aprisionando o sujeito em “bolhas digitais” ou “toca do coelho” – conceitos que serão detalhados adiante.
Por meio destes processos, evidencia-se a algoritmização das massas, fenômeno que amplia exponencialmente a capacidade de intervenção dos chamados ciberlíderes sobre os vínculos sociais e as formas de subjetivação. Tais lideranças, alicerçadas nos mecanismos técnicos de hiperpersonalização, operam novas modalidades de influência e captura, afetando diretamente os modos de relação intersubjetiva. Compreender tais dinâmicas, sob a ótica da teoria psicanalítica, é o objetivo central que estrutura este artigo.
Algoritmos de Ilusão: da Massa Freudiana ao Ideal Digital
Quando Freud (1921/2020) aborda as massas, uma de suas afirmações mais impactantes é que elas necessitam de ilusões para se sustentarem. No século XXI, estas ilusões ganham novas formas e significados, especialmente no ambiente digital. Propomos analisar como os algoritmos de IA e a vigilância digital contribuem para a formação de massas, articulando estes fenômenos à perspectiva freudiana. Também exploraremos a problemática do sujeito no mundo digital, marcada pelo narcisismo, pela alienação e pela dinâmica de controle promovidas pelas plataformas tecnológicas.
A necessidade de ilusões é fundamental para o funcionamento das massas, mas, no contexto contemporâneo, nos desafia a compreender os mecanismos que as geram no universo digital. Afinal, como afirma Rocha (2012, p. 270): “Os que vivem sonhando a vida acreditam ser verdadeiro o que é ilusório. Suas ilusões se desfazem sempre em desilusões”. Com base nisto, nos cabe, inicialmente, explorar o conceito freudiano de ilusão, para então analisarmos suas implicações no contexto digital.
Ao refletirmos sobre o conceito de ilusão, é importante não associá-lo simplesmente ao que é falso. A ilusão, antes de tudo, deve ser compreendida como um processo de causação psíquica, uma realidade que não está sujeita à contestação – trata-se da chamada realidade psíquica. Como Freud argumenta em O futuro de uma ilusão (1927/2020), o aspecto decisivo de uma crença ilusória não é sua falsidade, mas o fato de derivar de um desejo. A força da ilusão, portanto, reside na motivação psíquica que a sustenta, e não em sua correspondência com a realidade empírica. Em outras palavras, a ilusão é da ordem do singular do psiquismo. Os processos de formação ilusória podem ser entendidos como fundamentais para a causação do desejo, algo que se manifesta e começa a ser articulado desde o brincar da criança. O desejo e suas tentativas de satisfação são abordados por Freud em diferentes momentos de sua obra, desde 1914, com o conceito de narcisismo, até 1920, com a introdução da segunda tópica e o conceito de pulsão de morte. Sob qualquer destas perspectivas, Freud posiciona a satisfação do desejo como uma forma de fuga do desamparo.
Como interpreta Garcia (2007), em Introdução ao narcisismo(1914/2010), Freud sugere que o desejo pode operar como uma forma de retorno a estados anteriores de satisfação narcísica, funcionando como estratégia psíquica frente ao desamparo. A ilusão, neste contexto, emerge como expressão do desejo, situando-se entre dois polos estruturantes do psiquismo: o narcisismo e a dinâmica pulsional. Ainda que Freud não associe diretamente a ilusão à pulsão de morte, é possível pensar que sua função compensatória participa do jogo entre proteção narcísica e tensão pulsional.
A dinâmica de proteção proporcionada pelo desejo também fomenta a crença no líder, um tema amplamente discutido por Freud (1921/2020), em Psicologia das massas e análise do Eu. Podemos pensar o líder como um catalisador da tentativa de resistência ao princípio de realidade em prol da preservação do princípio do prazer. Na massa, a onipotência compartilhada representa um retorno a uma posição narcísica primária, sustentada pela ilusão de que “todos fossem amados de maneira igual por um só, o líder” (Freud, 1921, p. 198). Esse movimento regressivo manifesta uma resistência ao princípio de realidade e reafirma a onipotência coletiva, características centrais das massas. Em O futuro de uma ilusão(1927), Freud define a ilusão como uma defesa contra a transitoriedade da vida, um desejo que não necessita de acordos com a realidade. Religião e política, neste contexto, aparecem como grandes geradoras de ilusão, ao prometerem a certeza da completude e a verdade absoluta.
Estas promessas sustentam uma onipotência narcísica e uma compensação ilusória das limitações impostas pelo princípio da realidade. Em termos freudianos, representam a realização de desejos infantis recalcados diante do desamparo e da hostilidade do mundo. Penna (2014) entende essa negação como uma defesa contra o fantasma da cena primária, que leva os sujeitos agrupados a acreditarem que são iguais entre si, poderosos o suficiente para restaurar o narcisismo primário perdido, e capazes de se identificar projetivamente com um “seio bom”. A criação de nossas ilusões é fundamentada no que é oferecido pelo Outro da cultura. No contexto digital, os substratos para essa construção são cuidadosamente configurados por algoritmos de IA e conteúdos personalizados, que antecipam e oferecem ilusões “sob medida” para cada sujeito. As plataformas e tecnologias digitais cumprem o papel de fornecer estes elementos de forma pré-configurada, criando um ambiente que reforça as narrativas individuais.
É necessário, portanto, aprofundar a compreensão sobre o que constitui o digital, os fatores que o permeiam e como estes influenciam a criação de novas ilusões, cujos objetivos, em última análise, são o de atribuir significação à vida e sustentar a negação da castração. Sobre a relação do Eu com o mundo digital, Nobre e Moreira (2013) afirmam que ela opera no psiquismo em uma hiância entre o Id e a realidade, sustentando o individualismo narcísico alienante de cada sujeito, o que reforça a crença na realidade psíquica como a única realidade possível.
A internet, por sua vez, deixou de ser percebida como algo imaterial e passou a ser valorada como concreta: no digital, realidade e fantasia abrem caminhos para a existência em múltiplas dimensões. A posição onipresente da fantasia, proporcionada pelo ambiente digital, oferece ao sujeito identidades múltiplas, marcando um espaço quase impossível de ser abandonado, pois é garantidor de prazer. Este cenário contemporâneo nos convida a refletir sobre como as trocas sociais continuarão a se desenvolver e quais serão as consequências destas transformações na formação psíquica dos sujeitos.
Segundo Laurent (2017), a internet promove uma transformação radical nas relações sociais, trazendo a ilusão de acesso imediato a tudo e abrindo espaço para a loucura narcisista de cada sujeito, que passa a reinterpretar o mundo à sua maneira. Este cenário nos leva a examinar como a internet afeta os laços sociais. É importante ressaltar que não é a internet em si que provoca tais mudanças, mas o uso que se faz dela como espaço de dominação. Para Laurent (2017), embora a internet possa impactar profundamente as relações, ela não tem o poder de extingui-las. Entendemos o impacto gerado como responsável pela composição de novos modos de relação, visto que não é possível pensar a cultura digital de forma isolada: ela opera em mútua implicação com outros aspectos da sociedade.
Faustino e Lippold (2023) levantam uma reflexão valiosa sobre o cenário ameaçador das possíveis consequências do digital ao propor o seguinte questionamento: os algoritmos de IA controlam o homem ou é o homem quem os controla? Os algoritmos não se programam nem se alimentam sozinhos, ou seja, tudo depende de quem detém o controle. Neste sentido, aponta-se o papel das grandes corporações, cujo objetivo é a extração de mais-valor, evidência máxima das diferenças sociais, ou seja, da continuidade da luta entre capital e trabalho. Em sua pesquisa sobre os algoritmos e seu potencial destrutivo, O’Neil (2020) salienta que a falta de educação tecnológica torna os sujeitos ainda mais suscetíveis, pois os impede de questionar ou criticar adequadamente as implicações do trabalho de algoritmização. Sem letramento, as decisões automáticas são percebidas como inquestionáveis, dificultando a busca por alternativas ou a identificação de possíveis injustiças geradas por esses sistemas.
A partir desta afirmação de O´Neil (2020), é importante frisar que esse potencial destrutivo tem amplo alcance e pode tornar os sujeitos verdadeiros predadores da cultura. Eles passam a seguir cega e violentamente os conteúdos que vivenciam na rede, consumindo de forma irrefletida aquilo que é oferecido como alívio para suas frustrações, em um mergulho ideológico nos acontecimentos do momento, gerando consequências perigosas para si e para os outros à sua volta. Nesta perspectiva, compreendemos que as pessoas deixam de ser vistas como indivíduos e passam a ser tratadas como dados, os quais alimentam os algoritmos de IA e ditam o ritmo da vida no mundo digital. Observa-se um processo contínuo de retroalimentação, cujo propósito é a manipulação. A ausência de privacidade e liberdade no ambiente digital evidencia uma nova forma de controle, em que as corporações exercem uma crescente influência sobre a subjetividade e a vida cotidiana.
Vimos, de tal modo, que é impossível pensar o laço social contemporâneo desvinculado do digital. A interação social, a construção de identidades e as relações de poder passam, inevitavelmente, pelo filtro dos algoritmos de IA, e se potencializam para influenciar e manipular comportamentos e decisões. Assim, o meio digital torna-se o principal espaço de articulação do laço social, com implicações profundas para a subjetividade humana. A rede se alimenta desta constante troca de palavras e, com isso, constrói a maneira como pensamos. É mediante esse complexo processo da análise de nossa linguagem que o algoritmo de IA aumenta a capacidade de manipulação.
A análise da linguagem humana potencializa a manipulação algorítmica, com habilidades linguísticas crescentes e capazes de influenciar comportamentos. Tudo se transforma em um complexo padrão que permite prever, com alta precisão, os próximos passos de indivíduos de determinada região, credo, entre outras características. Nota-se que Google, Facebook, bem como as demais plataformas de conteúdo, conhecem com mais detalhes as rotinas dos usuários do que muitas vezes eles próprios. Tudo que estas pessoas fazem fica registrado nas plataformas. Estando o modelo de negócios das empresas baseado na monetização dos dados, verificamos que este processo extingue a privacidade, ao mesmo tempo que aproxima os usuários daquilo que eles “precisam” ou são direcionadas a saber e comprar, ou até com quem se relacionar. Nesta perspectiva, conclui-se que o verdadeiro cliente das plataformas digitais são os anunciantes e o governo; não são os usuários.
A respeito destes descompassos nas relações intersubjetivas, O’Neil (2020) afirma que o crescimento não supervisionado das técnicas de IA pode ter o poder de influenciar vidas e até o de destruir nações no futuro. Se a vida está na rede, e a partir dela estruturamos nossas relações, escolhas e decisões, o mapeamento sobre nós se tornará cada vez mais complexo e completo, conferindo à rede um poder inestimável, cuja base é a suposição de padrões do funcionamento subjetivo das pessoas. No ambiente digital, nada passa despercebido. Todas as informações lançadas na rede são analisadas e estudadas, gerando um potencial incalculável. Até nossos posts são direcionados conforme a escolha do programa em questão.
Seria impossível discorrer sobre todo esse processo manipulatório digital sem mencionar uma das maiores plataformas de pesquisa do mundo, o Google. Para Assange (2015), o Google se transformou em um monstro, uma megacorporação com poderes extremos na atualidade. Mais que uma empresa, é uma superpotência global que se abastece de informações sobre a vida das pessoas. Sendo assim, seu poder de influência comportamental é visto pela indústria da vigilância em geral como uma superestrutura que precisa estar alinhada a interesses maiores do que meramente prestar serviços aos usuários. Assange complementa (2015, p. 46): “se o futuro da Internet for o Google, isso deveria preocupar seriamente as pessoas do mundo todo”.
Salientamos que a cultura de conectividade não se desenvolve da mesma maneira nem na mesma velocidade para todas as pessoas, grupos ou países. O nível socioeconômico dita o ritmo da conectividade, da inserção digital, gerando desigualdades e causando prejuízos, porque o mundo digital se sobrepõe a todas as esferas. Em outras palavras, ou se está conectado ou se está impossibilitado de participar plenamente da sociedade. O conceito de social se transforma, deixando de ser algo separado para ser único e integrado ao digital.
A expansão da internet e das plataformas de interação intensificou o acesso ao outro. Constatamos uma constância no uso dos ambientes on-line e praticamente a inviabilização do off-line. Os novos códigos, muitas vezes desprovidos de ética, capturam os sujeitos com mais eficiência, justamente por facilitar atitudes que, no presencial, eram censuradas ou inviabilizadas. Cabe ressaltar que o uso excessivo vem ocorrendo em idades cada vez mais tenras, por indivíduos ainda desestruturados moralmente, expondo os mais jovens a contatos com desconhecidos, o que pode ser perigoso.
Para Quinet (2021), a sociedade contemporânea é escópica e vende a ilusão de que todos podem ter tudo o que querem. Para o autor, esta sociedade é governada por um “deus Internet”, onipotente, que vigia constantemente cada sujeito, gerando o paradoxo de uma liberdade digital - se somos vigiados o tempo todo, onde está nossa liberdade? Esse “deus Internet” evidencia um sistema que não apenas vigia e espiona, mas também conforma desejos e comportamentos, criando a ilusão de liberdade enquanto sustenta dinâmicas de controle. Desta dinâmica emerge a supremacia do discurso neoliberal, que transforma o digital em uma plataforma para consolidar seu domínio, ao mesmo tempo que reconfigura os ideais que estruturam a subjetividade. Notamos que o discurso neoliberal se torna o principal beneficiário de toda a ordem social, independentemente de quem o sustente. Este cenário nos obriga pensar o Ideal do Eu no século XXI, o “ideal digital”.
Para Freud (1921/2020), o líder ocupa esse lugar de Ideal do Eu, um líder representacional edípico narcísico, o sujeito que ama e acredita ser amado, uma ilusão sustentada pela identificação. Já na sociedade escópica, Quinet (2021) argumenta que a massa não depende desta identificação com um líder específico - o Ideal do Eu emerge como causa de desejo, no um a um, de forma escópica pelo digital. Esta dinâmica poderia ser uma resposta às novas configurações do Outro hoje?
É impossível pensar a formação de massas no século XXI sem considerar a tecnologia como produtora de ilusões. Os estímulos são inúmeros, e os dispositivos de captura operam diretamente sobre a subjetividade, organizando os sujeitos em massas digitais. Os algoritmos de IA, ao funcionarem como convocadores contemporâneos, manipulam e mobilizam afetos, ancorando-se na lógica da hiperpersonalização. Com isso, reatualizam o problema freudiano sobre o que vincula o Eu à massa – agora sob a égide de um Outro digital que vigia, captura e estrutura o Ideal do Eu nos moldes da hipervisibilidade digital.
Massas digitais: Freud e o algoritmo
O advento da digitalização das massas suscita novas interrogações sobre a relação da massa com o líder, bem como sobre o surgimento de outras formas de liderança. Acreditamos que esta problemática demanda uma urgente interlocução com o pensamento freudiano, que conforme veremos ainda se mostra potente para o entendimento destas novas configurações.
O fenômeno das massas digitais, não raramente, levanta questionamentos ou mesmo afirmações de que estas massas operam sem a presença de um líder. Contudo, entendemos que a formação de massas no mundo digital não ocorre sem algum tipo de liderança. Em alguns casos, o líder está presente de forma explícita, como no caso do bolsonarismo. Em outros casos, porém, o líder assume uma forma não humanizada, cujas manobras revelam um trabalho de manipulação realizado pelos algoritmos de IA. Programados, inicialmente, por pessoas cujos valores e ideais ficam implícitos, os algoritmos moldam a figura de uma espécie de liderança oculta. Essa liderança pode ser percebida quando se analisa, por exemplo, a exibição dirigida de conteúdos específicos para determinados usuários em seus feeds.
Um caso emblemático, neste sentido, foi o escândalo envolvendo a Cambridge Analytica e a manipulação de dados4. Em 2018, a empresa foi acusada de coletar informações pessoais de milhões de usuários do Facebook sem o devido consentimento. Utilizando um aplicativo de teste de personalidade, a Cambridge Analytica conseguiu acessar não apenas dados dos usuários que instalaram o aplicativo, mas também de seus amigos, resultando na coleta de informações de cerca de 87 milhões de perfis. Estes dados foram utilizados para criar perfis psicológicos detalhados, permitindo à empresa segmentar anúncios políticos de forma altamente direcionada, especialmente durante campanhas eleitorais, como a de Donald Trump, e a do referendo do Brexit, ambas em 2016. O caso levantou sérias questões sobre privacidade, consentimento e ética do uso de dados em campanhas políticas. Como consequência, o Facebook enfrentou intensa crítica e escrutínio regulatório, resultando em multas e mudanças nas políticas de privacidade da plataforma.
Este escândalo evidenciou o potencial das tecnologias digitais e dos algoritmos de IA para manipular opiniões e comportamentos, gerando um debate global sobre a regulamentação das redes sociais e sobre a proteção de dados pessoais. Subsequentes investigações por autoridades foram conduzidas em vários países, e o fundador do Facebook, Mark Zuckerberg, foi convocado a depor no Congresso dos Estados Unidos. Logo, o líder que emerge pela ação dos algoritmos de IA promove um ideal de manipulação com base nos conteúdos propositalmente oferecidos aos usuários em seus feeds. A liderança, desta forma, torna-se, em última instância, um produto digital. Importante destacar que esse processo, reiteramos, ocorre mesmo quando o líder está “humanizado”, como no bolsonarismo e no trumpismo, em que a liderança é claramente personificada, mas ainda assim amplificada e configurada pelos algoritmos de IA.
Esta dinâmica revela uma nova forma de liderança no contexto digital, nos casos em que a manipulação tecnológica atua como um meio para reforçar e disseminar ideais políticos e sociais, criando uma relação direta entre o líder e as massas, mediada por dispositivos tecnológicos. Em outras palavras, há um sujeito, um governo ou uma instituição coordenando outros sujeitos responsáveis pelos inputs nos dados que servirão como base para a programação dos algoritmos de IA, cujo objetivo é manipular o ajuntamento de pessoas para fins específicos.
Embora o modus operandi destas ações possa não refletir a estrutura tradicional de uma massa física, o ajuntamento de indivíduos no mundo digital não ocorre por acaso. Há uma intenção deliberada subjacente à manipulação, conduzida por agentes que controlam a formação digital de massas por motivos diversos, conforme visto anteriormente.
Neste ponto, parece-nos relevante um breve retorno a Freud para recuperar o entendimento dos conceitos de massa e de líder. Vimos que, segundo Freud (1921/2020), a massa pode ser considerada um ser provisório, impulsivo, de baixo rendimento intelectual e crente na autoridade. É composta por sujeitos interligados não apenas pelos fatores conscientes, mas também por motivos inconscientes, em condições que os permitam se libertar, temporariamente, de seus recalques e dar vazão direta a várias de suas moções pulsionais. Em outras palavras, estamos falando de um sujeito regredido, ou seja, um ser provisório que precisa de um líder, uma ideia ou um ideal que possa dominá-lo e a quem possa temer. O líder, ou o ideal que representa, é indispensável, pois, segundo Freud (1921/2020, p. 195) “a essência da massa não seria compreensível se negligenciássemos o líder”. Se estas ligações não acontecerem, não estaremos diante de uma massa, mas de uma multidão que eventualmente poderá transformar-se em massa a posteriori.
Nosso objetivo a partir de agora é destacar, com base em obras de autores contemporâneos, os fatores tecnológicos relacionados à formação e ao desenvolvimento das massas digitais. O cenário digital nos leva a afirmar que a digitalização apresenta novas configurações de liderança e de seguidores, que corroboram para estabelecer a massa digital como ilusão. Segundo Arão (2021), as massas digitais existem graças a sujeitos que ele denomina como “feiticeiros da tecnologia”. São pessoas que operam as redes sociais digitais para influenciar grupos com fins político-ideológicos, apontando o poderio bélico das redes para influenciar, agrupar e modificar o estado de coisas por meio da agenda política oferecida.
Pensar as massas digitais implica refletir sobre sua formação pela rede e seus aplicativos da moda, pelo trabalho complexo dos algoritmos de IA e, consequentemente, nos convoca a analisar como estas massas se articulam no contexto do big data. A deep learning (DL) é estruturada para simular redes neurais inspiradas no cérebro humano, permitindo o processamento de grandes volumes de dados, algo essencial no universo do big data, de forma altamente complexa e eficaz. Esta abordagem aprimora tanto o aprendizado quanto a precisão dos algoritmos, tornando-os capazes de prever cenários e calcular probabilidades de forma acurada, aplicável a contextos que lidam com vastas quantidades de informação. Assim, algoritmos de IA, baseados nas DLNN, estão cada vez mais precisos em antecipar resultados e atender às demandas dos usuários. Trata-se da hiperpersonalização extensamente discutida no capítulo anterior e que consideramos um elemento central na geração de massas digitais.
O uso político desta ferramenta pode ser considerado uma arma revolucionária para influenciar agrupamentos no século XXI. Embora a IA não tenha atingido ainda um nível avançado de inteligência autônoma, seu uso para esses fins vem apresentando resultados relevantes. Em outras palavras, as massas digitais surgem de cenários assim, em que a relação do sujeito com as informações – que são abundantes e incessantes – não é racional. A preocupação com a coerência se perde, já que o processo envolve uma regressão ao desamparo5 – conforme descrito por Freud (1921/2020) ao tratar o tema em sua teoria das ilusões. Entretanto, agora as ilusões contam com um cenário mais poderoso, com a força de influência das redes e com a manipulação de algoritmos de IA. Deduzimos, portanto, que as redes sociais digitais se configuram como as grandes geradoras das massas digitais, que continuam a se valer de afetos como o medo e o ódio – sentimentos amplamente conhecidos e explorados ao longo da história da humanidade – para se propagar. A ferramenta digital seria, portanto, a única diferença em relação aos escritos freudianos sobre esse tema. Esta, naturalmente, opera em outro ritmo e com outras variáveis interferindo de maneira distinta a relação do Eu perante a liderança.
Outro caso emblemático, semelhante ao da Cambridge Analytica, foi o da empresa canadense AggregateIQ. Conforme relatado no site The Register (2018, 24 de setembro), este caso está diretamente ligado ao escândalo da Cambridge Analytica e ao referendo do Brexit, com a empresa sendo acusada de utilizar indevidamente dados pessoais de eleitores. Durante a campanha do Brexit, a empresa canadense foi contratada por grupos como o Vote Leave e BeLeave para desenvolver campanhas digitais. A AggregateIQ utilizou algoritmos de IA para segmentar eleitores com base em dados comportamentais coletados por meio de redes sociais digitais, especialmente o Facebook. Contudo, foi acusada de violar as leis de proteção de dados, pois processou informações pessoais sem o conhecimento e consentimento dos usuários. A empresa recebeu um aviso de violação das regras pela Information Commissioner’s Office (ICO), do Reino Unido, que alegou que os dados foram manipulados para fins de publicidade política de maneira incompatível com os propósitos originais de sua coleta. A utilização de recursos tecnológicos facilitou a formação de bolhas informacionais, nas quais os eleitores foram expostos somente a conteúdos que reforçavam suas crenças preexistentes, influenciando assim o resultado do referendo do Brexit. Mais uma vez, observa-se um processo de manipulação possibilitado por algoritmos de IA baseados em redes neurais (DLNN).
Em ambos os exemplos, observamos a formação de uma massa digital guiada por alguma liderança, seja representada por um sujeito ou por um grupo, de maneira velada e utilizando mecanismos tecnológicos que agrupam seguidores em torno de informações fabricadas. Esse processo faz parecer que a massa atua de forma espontânea e sem direção, quando, de fato, há um líder oculto, simbolizando um ideal, que recorre intensamente às tecnologias de IA, especialmente aos subcampos de aprendizagem profunda (deep learning). Esse novo modus operandi inaugura um cenário obscuro e de difícil previsão, uma vez que sua evolução dependerá do desenvolvimento de mecanismos de hiperpersonalização, sobretudo, da ética que norteará seu uso. Esse fenômeno representa o que denominamos de “algoritmização das massas”.
A fim de manter a organização conceitual, é imprescindível assinalar diferença entre inteligência e produtividade. O neurocientista Miguel Nicolelis (2023) ironizou os limites da IA ao afirmar que “a IA não é inteligência e sim marketing para explorar o trabalho humano [...] quero ver o ChatGPT sobreviver a um jogo do Palmeiras”. Ele sustenta que a inteligência humana é produto de uma evolução de milhões de anos e que, por isso, não pode ser reduzida a um código binário. Segundo o cientista, o que a IA consegue realizar está mais associado a uma resposta rápida à lógica dos mercados, à necessidade de lucro e à maximização da produção. Essa eficácia não equivale a uma inteligência. A afirmação de Nicolelis provoca muitas reflexões. Por exemplo, o termo “inteligência artificial” pode ser enganoso. Muitas vezes, ele é usado para atribuir qualidades humanas, ou quase “mágicas”, a sistemas que, no fundo, operam de maneira altamente sofisticada, mas estritamente dentro de regras matemáticas e estatísticas. Embora seu poder de influenciar e mudar o destino das coisas seja inquestionável, ela não deve ser confundida com um organismo em processo de evolução, dotado de inteligência. Na verdade, o que chamamos de IA é a capacidade de processar dados em larga escala, identificar padrões e apresentar respostas com rapidez, isto é, com alta produtividade.
Esta capacidade, entretanto, não implica consciência, espontaneidade de criação ou evolução biológica. Na inteligência humana, destaca-se a capacidade de questionar e, por vezes, desobedecer. Neste ponto, precisamos brevemente conceituar a inteligência para a psicanálise. Segundo Sordi (2005), podemos considerar que, para Freud – que não abordou diretamente este conceito – a inteligência é uma forma de conhecimento não pré-formado e com capacidade de criar uma realidade a partir algo apresentado ao sujeito, desde que as representações pulsionais sejam inscritas nas experiências com outro sujeito. Sendo assim:
É necessário que se constituam as articulações lógicas do processo secundário abertas à significação e a relação que possibilita o conhecimento e que a repressão originária lhes dê um estatuto definitivo mediante a diferenciação entre os sistemas psíquicos. [...] Então, se a inteligência não é uma questão do inconsciente, mas do ego e, fundamentalmente, das leis do pré-consciente, essa inteligência que permite a operatória sobre o mundo é também a que possibilita trabalhar sobre esse objeto do mundo que é o inconsciente. (Sordi, 2005, p. 341)
A inteligência, como aponta Laurent (2017), provém da fala, do sentido que o ser falante atribui a ela. As cadeias significantes operam além do alcance de qualquer algoritmo. Em outras palavras, enquanto pudermos falar, separados dos algoritmos de IA, a fala continuará a ter o poder de nos salvar. Neste sentido, Turkle (2011) reforça que nenhuma máquina tem a capacidade de compreender a representação inconsciente do que um humano diz; ela pode, no máximo, tentar explicar. Portanto, mesmo a IA não tendo o que entendemos como inteligência, dispõe de mecanismos que a fazem parecer “inteligente” e de recursos eficazes de manipulação. Tal eficácia está diretamente relacionada ao funcionamento do psiquismo humano diante do Outro. Para ilustrar um pouco mais os mecanismos de manipulação no mundo digital, em Coded Bias, documentário da americana Shalini Kantayya (2020), apresenta a metáfora conceitual da “toca de coelho”. Este termo pretende explicar que nem tudo que os algoritmos de IA oferecem corresponde necessariamente ao que o usuário deseja ver. Seus propósitos são os de “hipnotizar” para agrupar. Por exemplo, ao pesquisar sobre os efeitos da vacina de Covid-19, corre-se o risco de ter seu feed bombardeado com assuntos similares que atendam a outros propósitos, como informações anticientíficas e conspiratórias. Este fenômeno evidencia a tendência dos algoritmos de IA para manipular e formar massas ou bolhas digitais.
Renée DiResta, gerente de pesquisa técnica do Stanford Internet Observatory, foi uma das principais pesquisadoras a se aprofundar nesse tema, especialmente durante a pandemia de Covid-19 – um momento que, segundo ela, evidenciou ao máximo a metáfora da “toca de coelho”. DiResta (2020) afirmou que o excesso de informações atualmente disponíveis na rede expõe uma fragilidade que permite o crescimento desta “toca de coelho”. O que é priorizado nas pesquisas on-line não é necessariamente o mais confiável, mas sim o que é mais popular. Em consonância com o ápice da pandemia, Fisher (2023) reforça que foram as redes sociais digitais, sem o devido controle do conteúdo publicado, que fomentaram o pânico causado pela desinformação. Como destaca Fisher (2023, p. 26), “esse movimento marginal era guiado por uma coisa que nem o CEO da empresa tinha como superar”. A frase, dita por Mark Zuckerberg, foi destacada por Fisher ao ser questionado sobre a passividade do Facebook diante da disseminação de fake news.
Johansen e Kruger (2022) introduzem a expressão “casulo de informação”, que descreve o recebimento de informações mediadas pela alimentação algorítmica personalizada – um cenário ideal para a formação de massas digitais. Assim podemos pensar o líder como uma figura que se assemelha à “própria IA”, isto é, alguém que oferece exatamente aquilo que os indivíduos desejam ouvir e se apresenta como capaz de resolver todas as questões para todos. Essa lógica de liderança, fundamentada na satisfação das demandas e na promessa de resolução de conflitos, salienta a conexão entre o funcionamento dos algoritmos de IA e a dinâmica de identificação e submissão das massas.
Acreditamos que o processo de funcionamento dos algoritmos de IA deve ser compreendido como uma forma de projeção do líder de massa e, ao mesmo tempo, como um instrumento que potencializa sua função. A vida contemporânea nos impõe um ritmo extremamente acelerado, que muitas vezes nos priva da reflexão sobre questões mais complexas. Os instrumentos que prometem soluções práticas, mas que operam por meio de manipulação, levam o sujeito a tomar decisões ou defender posições sem plena consciência do que está decidindo ou dos motivos que fundamentam suas escolhas.
Como já mencionado, o uso político-ideológico desta ferramenta amplifica, de maneira significativa, a formação de massas. Estas massas, entretanto, revelam-se tão ou mais perigosas do que aquelas descritas por Freud em 1921, pois agora contam com “ferramentas extras”, representadas pela tecnologia, que excedem os mecanismos tradicionalmente analisados. As ferramentas tecnológicas de controle são potentes e têm alta capacidade de disseminação. Este cenário fez emergir o que se convencionou chamar de milícias digitais, que também podem ser compreendidas como uma forma de massa digital. Estas milícias operam reduzindo o coletivo a particularidades e são constantemente influenciadas e influenciam o funcionamento da IA, visto que ela analisa tendências sem distinguir entre informações verdadeiras ou falsas. Se as milícias digitais inundam a rede com informações falsas, a IA, incapaz de diferenciar entre dados verdadeiros e falsos, acaba mobilizando informações equivocadas. Além disso, um viés pode ser reforçado pela manipulação intencional dos algoritmos de IA, potencializando ainda mais o ciclo manipulatório.
Estas ações podem gerar caos no laço social, já que, por meio de recursos tecnológicos, estimulam os sujeitos de forma individualizada, evidenciando o gozo e gerando uma massa aparentemente sem rosto. A proliferação de contas automatizadas e interações programadas levanta uma questão inquietante: até que ponto os sujeitos interagindo nas redes são de fato humanos, e não bots disfarçados de sujeitos? Refletimos sobre relações de poder:
Independente de suas motivações, na maioria das vezes a participação em redes sociais envolverá responsabilidades, direitos e tomadas de decisões [...] não necessariamente haverá uma organização vertical, pois poderá ser orientada pelos elos formados entre os membros. No entanto, sua organização horizontal não excluirá as relações de poder e dependência nas associações internas e externas mantidas pelas redes sociais. (Danziato et al., 2020, p. 279)
Segundo Dunker (2019), as massas digitais surgem a partir de 2013, inaugurando uma nova forma de identificação do sujeito. Um elemento significativo do cenário digital foi a criação de microgrupos em plataformas como o WhatsApp, formados por familiares ou colegas de trabalho. Estes microgrupos passaram a reproduzir a forma discursiva típica das grandes massas, pela qual o sujeito, em vez de confrontar suas convicções com a realidade externa, tende a se refugiar em um circuito fechado de validação mútua. Esse processo consolida um ambiente propício à manipulação e à influência ideológica. Observa-se, assim, a geração de uma regressão necessária ao estado de massas, conforme descrito por Freud (1921/2020), que contribui para o fechamento do sujeito em relação aos fatos, facilitando sua entrega e adesão às informações falsas e à desinformação.
Na esteira destes pensamentos, Braunstein (2020) introduz o conceito de “neomassas”. As neomassas não são mais formadas diretamente por pessoas, mas por um aglomerado de dados organizados pelos computadores. Os sujeitos são convocados por seus celulares, reúnem-se temporariamente, e depois retornam a estes dispositivos, aguardando novas informações geradas pelos algoritmos. Em outras palavras, as neomassas consistem em conglomerados de metadados, moldados por forças superiores até mesmo aos interesses dos próprios “ditadores” – agentes que exercem o controle sobre estas massas-, sejam essas forças de origem governamental e/ou vinculadas à iniciativa privada.
No século XXI, as neomassas representam desafios inéditos para a compreensão das massas, o que pensadores renomados do século XX não precisaram enfrentar. O sujeito da massa digital torna-se um cliente domesticado, orientado conforme os dados interpretados e disseminados em seus smartphones. Para Braunstein (2020), a neomassa não necessita de um líder humano; sua liderança é exercida por algoritmos de inteligência artificial (IA), concebidos para controlá-las. São massas amorfas e nômades, com objetivos transitórios, não raramente voltados a interesses mercadológicos e, muitas vezes, oportunistas. Tratam-se de massas projetadas para se desintegrar e serem esquecidas.
Diante do discorrido, propomos que a noção freudiana de massa, atualizada pela presença de lideranças algorítmicas, exige um deslocamento clínico e político: o laço social é hoje produzido sob condições técnicas de vigilância e gozo, operadas em larga escala por dispositivos de hiperpersonalização. Se o líder, como indicava Freud, encarnava o Ideal do Eu, o líder digital se torna um operador invisível da pulsão e da alienação. Resta à psicanálise não apenas compreender esse novo cenário, mas interrogar quais possibilidades de deslocamento subjetivo ainda restam diante da captura silenciosa operada pelos algoritmos.
Considerações finais
À guisa de concluir, afirmamos que estamos diante de um fenômeno novo e complexo, que exige o deslocamento das categorias tradicionais para que possamos compreender as massas digitais em sua especificidade. Embora o pensamento de Freud, especialmente em Psicologia das Massas e Análise do Eu (1921), tenha sido estruturante para a compreensão da formação das massas, a ascensão da liderança algorítmica inaugura novas formas de captura do sujeito — mais silenciosas, mais eficazes e potencialmente mais devastadoras.
As massas digitais não substituem a lógica da massa freudiana, mas a transformam em novos arranjos pulsionais. O líder, que outrora encarnava o Ideal do Eu e mobilizava as identificações libidinais dos membros da massa, assume agora feições maquínicas: algoritmos programados para suscitar adesão, repetição e obediência. A ilusão, conceito central em O Futuro de uma Ilusão (1927), torna-se digitalizada — não mais sustentada apenas por promessas coletivas de salvação ou justiça, mas por estratégias personalizadas de satisfação imediata, que afastam o sujeito da realidade e da limitação constitutiva.
Ainda assim, os aportes de Freud permanecem cruciais. A massa contemporânea continua sendo um agrupamento formado por sujeitos em condição de regressão, em busca de proteção contra o desamparo. O narcisismo das pequenas diferenças, a função do Ideal do Eu e os mecanismos de identificação seguem operando, ainda que mediados por tecnologias. A psicologia das massas continua válida, agora aplicada a um contexto em que a técnica se alia ao desejo de submissão para produzir agrupamentos altamente manipuláveis.
Freud nos adverte que a massa é, por essência, inimiga da dúvida e da razão — ela busca segurança, direção e unificação. Ao transformar os algoritmos em líderes invisíveis, o mundo digital oferece exatamente isso: um ideal programado que organiza os afetos, regula os vínculos e orienta o pensamento. A novidade, portanto, não está no desejo da massa por ilusão, mas na sofisticação técnica com que essa ilusão é produzida. Resta-nos interrogar: como sustentar a reflexão e o conflito psíquico num tempo em que as plataformas operam por repetição, reforço e prazer imediato? O que a escuta clínica pode ainda oferecer num cenário em que o recalque é suprimido em favor da transparência total dos dados e da exposição constante do Eu? Tais questões não encerram este trabalho, ao mesmo tempo em que o projetam como campo aberto de investigação clínica, cultural e ética.
As pesquisa futuras devem, portanto, investigar não apenas os efeitos psíquicos da datificação da experiência, mas, sobretudo, os desafios clínicos colocados pela presença de sujeitos capturados por ideais digitais, cujas identificações são fragmentadas, transitórias e tecnicamente mediadas. O campo psicanalítico precisa considerar a IA não apenas como contexto, mas como um novo operador simbólico, cuja lógica não pode mais ser ignorada na teoria nem na clínica.













