
Nos últimos anos, produzir conteúdo deixou de ser um esforço para se tornar um processo quase automático. Com ferramentas de inteligência artificial, textos, imagens e vídeos passaram a ser gerados em segundos, em uma escala difícil de acompanhar.
Mas o resultado não foi apenas mais conteúdo, e sim um novo tipo de material: rápido, superficial, pouco contextualizado e orientado principalmente para engajamento. Esse fenômeno, chamado de “AI slop”, não é necessariamente falso, mas também não é exatamente confiável. Ele ocupa uma zona cinzenta que funciona bem o suficiente para circular, mas não para sustentar conhecimento.
Um estudo da Kapwing mostra que cerca de 20% dos vídeos exibidos para contas novas no YouTube já são classificados como conteúdo de baixa qualidade gerado por IA, o que indica que esse tipo de produção já não é exceção, mas parte relevante do que consumimos.
O problema vai além da qualidade do conteúdo. O incentivo econômico favorece volume, velocidade e repetição, fazendo com que a lógica da quantidade se sobreponha à da qualidade. Isso começa a tensionar não só plataformas, mas também sistemas mais sensíveis, como a ciência, onde já há alertas sobre o aumento de artigos gerados por IA sem validação adequada.
Ao mesmo tempo, há um efeito mais discreto: a exposição constante a esse tipo de material reduz nosso esforço de verificação e desgasta nosso critério ao longo do tempo. Quando tudo parece plausível, distinguir o que merece atenção deixa de ser automático e passa a exigir energia, algo que nem sempre estamos dispostos a investir.
Você tem percebido esse desgaste no seu próprio critério ao consumir conteúdo, ou ainda sente que consegue separar com clareza o que realmente vale seu tempo?
__
Este texto é a edição #21 da série “Vc já ouviu falar de…?” publicada pelo autor em seu perfil no Linkedin.