Entre o real e o artificial, IA desafia a percepção da verdade

Por Redação Hoje Centro Sul 8 min de leitura

Avanço de tecnologias capazes de criar vídeos, áudios e imagens hiper-realistas amplia riscos de desinformação e levanta questionamentos sobre confiança, comportamento e o futuro da verdade na sociedade

Vídeos de pessoas que nunca disseram determinadas frases, áudios que imitam vozes com perfeição e imagens de situações que nunca aconteceram. O avanço da inteligência artificial (IA) tem permitido a criação de conteúdos cada vez mais realistas — e, ao mesmo tempo, mais difíceis de identificar como falsos.

O fenômeno já faz parte do cotidiano e preocupa especialistas de diferentes áreas, que apontam impactos não apenas tecnológicos, mas também sociais, psicológicos e políticos.

Como a IA aprende a imitar a realidade

De acordo com a professora da Faculdade São Vicente, Patrícia de Paula, formada em Sistemas de Informação e especialista em Segurança da Informação e Desenvolvimento Web, o alto nível de realismo alcançado pelas inteligências artificiais está diretamente ligado ao uso de grandes volumes de dados e ao chamado aprendizado profundo.

“As inteligências artificiais chegaram a esse nível de realismo através de um processo chamado aprendizado profundo. Elas foram treinadas com volumes massivos de dados reais fornecidos, muitas vezes, pelos próprios usuários”. Segundo ela, ferramentas populares, como aplicativos de filtros de imagem, também contribuem para esse processo. “Se você usou um desses, contribuiu, sem saber, para o treinamento de uma IA”, afirma.

A especialista ressalta que os modelos generativos conseguem reproduzir elementos do mundo real com grande precisão. “Eles aprendem a estrutura estatística do mundo real e conseguem reconstruir imagens com um grau de fidelidade que engana até sistemas de detecção automatizados”, pontua. No caso das vozes, o processo segue lógica semelhante, com análise de entonação, ritmo e sotaque a partir de grandes bases de dados. O resultado, segundo a professora, não é uma simples cópia, mas uma reconstrução sofisticada dos padrões originais.

Por que é tão difícil identificar o que é falso?

Se a tecnologia evoluiu rapidamente, a capacidade humana de identificar conteúdos manipulados não acompanhou o mesmo ritmo. Patrícia explica que o principal obstáculo está no próprio funcionamento do cérebro humano. “A gente não analisa uma foto pixel por pixel. A gente dá uma olhada e sente: ‘parece real, então é real’”, afirma.

Ela ressalta ainda que os erros que antes denunciavam conteúdos gerados por IA estão desaparecendo com os modelos evoluindo muito mais rápido do que a capacidade de percepção humana.

Nesse cenário, o fator emocional também se torna um ponto crítico. Conteúdos que provocam reações intensas tendem a ser compartilhados com mais facilidade, sem verificação prévia. A recomendação, segundo a especialista, é simples: desacelerar e desconfiar antes de compartilhar.

Sociedade ainda não está preparada

Para o professor doutor Valter Estevam, coordenador do curso de Bacharelado em Engenharia de Software do IFPR Campus Irati, a sociedade ainda não está pronta para lidar com o avanço da inteligência artificial nesse nível. “O debate sobre essa questão está contaminado por radicalismo político e não está sendo conduzido por conhecimento científico”.

Ele explica que já existem tecnologias voltadas à identificação de conteúdos gerados por IA, mas alerta que elas ainda estão longe de resolverem o problema. “Muitas ferramentas utilizam o que chamamos de marca d’água de IA generativa. É uma técnica que insere informações imperceptíveis ao olho humano, mas que podem ser detectadas por sistemas computacionais”. Entre os exemplos, ele cita iniciativas como SynthID, do Google DeepMind; o padrão C2PA, adotado por empresas como Adobe, Microsoft e OpenAI; e o AudioSeal, desenvolvido pela Meta.

Apesar disso, o professor chama atenção para limitações importantes. “Esses recursos não são obrigatórios. Falta regulamentação sobre o tema”, pontua. Além disso, Estevam ressalta que o uso dessas ferramentas ainda não faz parte da rotina da população. “Mesmo que fossem obrigatórias, nem todos saberiam utilizar os detectores ou fariam essa verificação. Quem realmente checa uma informação antes de compartilhar em um grupo de WhatsApp?”, questiona.

Outro ponto crítico, segundo ele, é que a própria tecnologia pode ser contornada. “Do mesmo modo que existem ferramentas para inserir esses marcadores, também há sistemas capazes de burlar os detectores”. Na sua avaliação, esse cenário reforça um problema que vai além da tecnologia e envolve comportamento. Sem o hábito da verificação, conteúdos potencialmente falsos continuam circulando com facilidade, ampliando os riscos de desinformação.

Quando a verdade se torna uma escolha

Para além da tecnologia, o impacto mais profundo pode estar na forma como a sociedade constrói a própria ideia de verdade. O professor de Sociologia do IFPR Campus Irati, Joaquim Morais, considera que a fronteira entre o real e o simulado vem sendo progressivamente enfraquecida. “A sociedade deixa de discutir o que realmente aconteceu para questionar em quem escolhemos acreditar”, analisa.

Segundo ele, esse processo foi acelerado com o avanço da inteligência artificial. Ao citar o filósofo Jean Baudrillard, o professor aponta para a ideia de “hiper-realidade”, em que a cópia pode se tornar mais influente do que o próprio fato. “Quando imagens, vídeos e áudios sintéticos circulam com a mesma autoridade que o registro físico, a verdade deixa de ser uma correspondência com o fato”.

Verdade, identidade e crise de confiança

Outro efeito preocupante é a perda de confiança nas instituições tradicionalmente responsáveis por validar informações, como a imprensa, a ciência e o sistema judiciário. Morais destaca que, diante da possibilidade de falsificação quase perfeita, até fatos reais podem ser colocados em dúvida. “O simples fato de que a tecnologia existe permite que figuras públicas desmintam verdades reais alegando que são ‘deepfakes’”.

Nesse contexto, a dúvida deixa de ser apenas um instrumento de questionamento e passa a funcionar como estratégia. Sem uma base comum de fatos, o debate público se fragiliza e se fragmenta. “A construção da verdade deixa de ser um esforço coletivo e passa a ser fragmentada”, aponta o sociólogo.

Mais do que isso, o professor chama atenção para uma mudança ainda mais profunda: a verdade passa a ser guiada por identificação e pertencimento. As pessoas tendem a aceitar como verdadeiro aquilo que reforça suas crenças e identidades, enquanto rejeitam como falso — ou como produto de inteligência artificial — tudo o que as confronta. Nesse cenário, a informação deixa de ser analisada pela sua veracidade e passa a ser filtrada pela afinidade.

Entre a informação e a crença

Diante dessa perspectiva, especialistas alertam para a necessidade de desenvolver um olhar mais crítico diante das informações consumidas no dia a dia. Se antes ver era acreditar, hoje essa lógica já não se sustenta com a mesma segurança. Em um ambiente onde imagens, vozes e vídeos podem ser fabricados com precisão crescente, a verdade passa a disputar espaço com a crença, a emoção e o pertencimento.

Como resume o professor, em uma das análises mais contundentes, “a tecnologia não está apenas matando a verdade, ela está transformando a verdade em um bem de consumo identitário”. Mais do que nunca, informar-se exige não apenas acesso ao conteúdo, mas também a capacidade de questioná-lo.

Como identificar conteúdos falsos

Com o avanço da inteligência artificial, nem sempre é fácil perceber quando uma imagem, vídeo ou áudio foi manipulado. Ainda assim, alguns cuidados podem ajudar:

  • Desconfie de conteúdos muito impactantes. Se causar choque, raiva ou emoção forte, pare antes de compartilhar
  • Verifique a fonte, veja quem publicou e se o conteúdo aparece em veículos confiáveis
  • Observe detalhes, pois movimentos estranhos, falhas de sincronização labial ou inconsistências podem indicar manipulação
  • Busque confirmação, procurando a mesma informação em outros sites ou canais
  • Evite compartilhar impulsivamente porque a pressa é uma das maiores aliadas da desinformação

Fernanda Hraber

Gostou? Compartilhe!