Fundado em 11/10/2001
porto velho, sexta-feira 30 de janeiro de 2026
Há um instante quase invisível em que o olhar vacila e a desconfiança se amplia. O dedo desliza pela tela e, por um momento, não dá para saber se o sorriso é genuíno ou ensaiado, se o desabafo nasceu de alguém inquieto ou de um algoritmo preciso. Vivemos num tempo em que a autenticidade é duvidosa, e a tecnologia tenta imitá-la como pose e com perfeição incômoda.
Enquanto governos correm atrás de regulações e empresas disputam modelos cada vez mais potentes, analistas tratam 2026 como um ponto de virada onde quem controlar essa inteligência incansável definirá parte do futuro econômico e político, mas também alertam que o esgotamento está chegando. É uma nova “bolha”, inflada por expectativas, capital e fadiga. No meio desse cenário, ficamos ruminando: o que ainda é verdade quando tudo pode ser fabricado?
A dúvida sobre a origem de qualquer texto (se ele é humano ou sintético) já não soa exagerada. Deepfakes replicam rostos e vozes com poucos segundos de material, capazes de enganar especialistas, influenciar mercados e provocar crises antes que qualquer checagem alcance o estrago. Paralelamente, pesquisas mostram que a confiança no que circula online despencou; autenticidade virou um recurso raro.
É nesse ambiente que este texto se coloca: imperfeito, limitado, assumidamente humano. Ele carrega escolhas e incertezas, escrito por alguém que ainda tenta pensar com cuidado em meio ao excesso de ruído.
Estamos cansados do “conteúdo perfeito”?
Talvez o papel do autor, hoje, não seja competir com máquinas nem reivindicar superioridade criativa, mas ocupar a contradição, dar forma ao desconforto e sustentar perguntas que não cabem em respostas automáticas. Escrever, nesse cenário, não resolve nada, mas enfrenta e recusa o silêncio que acomoda.
A inteligência artificial avança sem retorno, mas a exclusão cognitiva cresce junto, criando um fosso que poucos percebem. Ainda assim, enquanto houver quem diga “isso é complexo”, “isso tem implicações”, “isso não afeta todos da mesma forma”, permanece um espaço estreito, vulnerável, porém é humano e onde a consciência ainda importa.
Já existe um certo “enfado” com essa perfeição. Grupos já se mostram cansados da foto milimetricamente editada, do vídeo com cortes cirúrgicos, da legenda que parece ter sido testada em laboratório. Cansados da sensação de que todo mundo tem um roteiro de vida, menos a gente. Não é à toa que cresce a fome por bastidores, erros, vulnerabilidade, voz trêmula, câmera torta, casa bagunçada.
Só que o mercado é rápido. A “estética do natural” também virou produto. Agora existe luz planejada para parecer improvisada, texto revisado para soar despretensioso, vídeo roteirizado para dar a impressão de que foi gravado em um impulso. A espontaneidade marca o figurino e, quando até o “real” é encenado, como é que a gente reconhece o que sente?
Nisso, a inteligência artificial entra nesse palco como espelho e como fantasma. Espelho, porque ela devolve para nós o que já fazemos há anos: copiar estilos, repetir fórmulas, imitar o que funciona. Um modelo de linguagem nada mais é do que um grande compilado de padrões tal qual nós também somos, em alguma medida, criaturas de padrão. A diferença é que a máquina não se cansa, não se fere, não se ofende. Ela apenas calcula. Ao menos, por enquanto.
Fantasma, porque ela ronda o nosso lugar no mundo. Se um sistema consegue escrever um e-mail, um relatório, um roteiro, uma legenda “melhor” do que a gente, o que sobra para nós? Se um algoritmo pode gerar um rosto que nunca existiu, mas que parece mais confiável do que o nosso, o que acontece com a nossa própria cara?
Autenticidade performática.
Não é só o influenciador que performa autenticidade; nós também. Editamos mensagens, regravamos áudios, calibramos desabafos e ensaiamos espontaneidades. Nem sempre por malícia, pode ser porque aprendemos a viver num palco permanente. As redes sociais nos empurraram para esse papel onde um “eu” precisa funcionar bem em público, mesmo quando a vida real tropeça, pausa ou simplesmente não rende.
A IA só entra como mais uma ferramenta nesse processo. Ela polimenta, sugere, corrige, facilita. Às vezes ajuda; às vezes nos acomoda ou anestesia. E, sem perceber, vamos deixando que ela organize pedaços da nossa expressão muito mais por hábito, por cansaço, por conveniência do que por falta de autenticidade.
O ponto não é demonizar a tecnologia nem fingir que já fomos totalmente espontâneos um dia. Sempre editamos o que mostramos. A diferença é que agora fazemos isso dentro de um ambiente saturado de versões possíveis de nós mesmos, onde a fronteira entre pessoa e performance ficou mais sutil do que gostaríamos de admitir.
Exclusão Cognitiva.
Estudos recentes mostram que o fosso digital educacional permanece profundo, mesmo em países com alta penetração de internet. Em 2024, quase 30% dos estudantes em idade escolar nos EUA não usavam internet nem em casa nem na escola, e outros 22% só tinham acesso doméstico precário, sem mediação pedagógica. Em outras palavras: a tecnologia existe, mas não chega como ferramenta de emancipação.
A literatura educacional mais recente já não define “exclusão digital” apenas como falta de acesso a dispositivos, mas como déficit de letramento informacional e computacional, portanto os novos "excluídos" cognitivamente. O problema central não é “ter ou não ter tecnologia”, mas saber interpretar, questionar e usar criticamente sistemas digitais complexos. Nesse sentido, o cidadão comum não domina a IA; ele é operado por ela.
Há algo perigosamente sedutor na ideia de que a inteligência artificial é irreversível. Ela sugere progresso, inevitabilidade, futuro. Dá a impressão de que estamos todos no mesmo barco, avançando juntos rumo a uma nova era — mais eficiente, mais conectada, mais inteligente. Mas essa imagem é confortável demais. E, como toda narrativa confortável, esconde o que realmente importa.
A inteligência artificial pode até ser irreversível como infraestrutura, mas não é universal como experiência. Ela avança, sim, mas não avança para todos do mesmo jeito, nem com as mesmas consequências. Enquanto sistemas se sofisticam, uma parte significativa da sociedade lê menos, compreende menos e participa menos. Muito pouco por escolha individual, mas por um conjunto de condições materiais, educacionais e culturais que a tecnologia, sozinha, não resolve e muitas vezes aprofunda.
O uso massivo de aplicativos e mídias sociais não sustenta a tese de domínio cidadão da IA. Sustenta exatamente o oposto. Porque essas plataformas simplificam a experiência, escondem a lógica algorítmica e transformam sistemas complexos em interfaces intuitivas, o resultado é uma ilusão de familiaridade: as pessoas “usam” IA o tempo todo, mas não sabem que estão usando, nem como, nem com quais consequências. E não há o menor esforço para que avancem seu entendimento.
A OCDE já aponta que o maior risco atual não é a falta de tecnologia, mas a desigualdade de competências digitais, que aprofunda desigualdades sociais, educacionais e políticas. Em outras palavras: quanto mais fluida a interface, menos consciente o usuário.
Algumas reações como incorporação curricular (BNC Informática) e temas de cultura digital estão sendo tentadas, mas são frágeis demais para a intensidade e velocidade da sedução imposta pela presença de IA ou mídias. Mas como todo recomeço, sem nenhuma estratégia consistente de monitoramento e melhorias cognitivas.
Contexto local.
Existe um equívoco recorrente no debate público onde se tenta confundir presença tecnológica com domínio tecnológico. O fato de estudantes e professores usarem aplicativos, plataformas digitais e redes sociais não significa que compreendam os sistemas que operam por trás dessas interfaces. O uso cotidiano da tecnologia não produz, automaticamente, pensamento crítico, letramento digital ou autonomia intelectual. Pelo contrário.
A lógica dos aplicativos é justamente ocultar a complexidade, reduzir escolhas, automatizar decisões. Quanto mais “amigável” a interface, menos o usuário precisa ou consegue entender o que está acontecendo. Nesse cenário, a inteligência artificial não é uma ferramenta nas mãos do cidadão comum. Ela é um ambiente invisível, que organiza fluxos de informação, atenção e comportamento sem pedir permissão nem explicação.
Talvez seja aqui que o meu texto precise se dobrar sobre si mesmo.
Porque, ao falar de IA, de exclusão cognitiva, de leitura em declínio, eu também escrevo dentro de um ecossistema que valoriza velocidade, reação, simplificação. Eu também publico em plataformas que recompensam engajamento mais do que reflexão. Eu também disputo atenção num ambiente saturado de estímulos.
Então, onde fico eu? Não fico fora do problema. Fico implicada nele. Ter consciência disso não me absolve; mas me posiciona. A pergunta atravessa este texto é: “o que adianta ter consciência disso tudo?”
Adianta pouco, se consciência virar apenas lucidez melancólica.
Adianta pouco, se servir apenas para nomear o problema e seguir adiante, como se nada pudesse ser feito. Mas adianta para além do óbvio: impede a naturalização.
A consciência não desmonta o sistema, mas desmonta a ilusão de que ele é neutro, inevitável ou igualmente benéfico para todos. Ela cria fricção; e a fricção é o que impede que tudo deslize sem resistência.
Saiba Mais.
OECD. (2026). OECD Digital Education Outlook 2026: Towards an effective digital education ecosystem. OECD Publishing.
https://www.oecd.org/education...;(Discussão sobre desigualdade digital, exclusão cognitiva e o fato de que tecnologia não se traduz automaticamente em aprendizagem ou compreensão.)
World Economic Forum. (2024). Global Risks Report 2024: Misinformation, AI and systemic vulnerabilities. https://www.weforum.org/report...; (A ideia de que a IA é irreversível como infraestrutura global, mas também amplifica riscos sociais, políticos e informacionais.)
Pew Research Center. (2023). Most Americans are concerned about deepfakes and AI-generated misinformation. https://www.pewresearch.org/sh... (A crise de autenticidade, a desconfiança crescente e o colapso da percepção do “real”.)
ENISA – European Union Agency for Cybersecurity. (2023). Threat Landscape: Deepfakes and Synthetic Media.
https://www.enisa.europa.eu/pu...;(A dificuldade de distinguir humano e sintético, e o impacto disso na esfera pública.)
OECD. (2023). Digital divide in education.
https://www.oecd.org/education...;(O acesso não é domínio, uso não é compreensão).