Folha de SP: ‘Frankenstein’ é advertência para riscos de IAs sem controle

André Sturm e Floriano Pesaro, Folha de São Paulo, Ilustríssima, 15 de janeiro de 2026:

“[RESUMO] “Frankenstein”, de Guillermo del Toro, não é só uma adaptação literária, mas uma parábola que reflete angústias sobre o avanço da inteligência artificial. Autores sustentam que os grandes modelos de linguagem empobrecem vínculos afetivos e reorganizam a circulação do conhecimento humano e que o longa-metragem põe em perspectiva o que pode ocorrer quando sociedades entregam a mediação da realidade a sistemas que ninguém controla plenamente.

Há momentos em que a arte parece decifrar o tempo em que vivemos. O lançamento, em outubro do ano passado, de “Frankenstein” (Netflix), dirigido por Guillermo del Toro, ocorreu justamente quando a humanidade vem atravessando uma transformação tecnológica que altera a nossa relação com o real.

Assim como a Criatura concebida por Victor Frankenstein, a inteligência artificial generativa surge como obra da engenhosidade humana, mas exibe comportamentos que escapam à compreensão imediata. A coincidência entre filme e contexto não é trivial: Hollywood reage às angústias coletivas e oferece narrativas que espelham o medo do desconhecido.

Vivemos, como escreveu Eduardo Saron nesta Ilustríssima, um momento em que o direito à realidade se torna central. A fronteira entre o real e o artificial está cada vez mais porosa e atravessada por algoritmos, replicações digitais, manipulação de informação e identidades sintéticas.

Frankenstein reaparece como uma metáfora precisa desse deslocamento. No romance de Mary Shelley, o horror nasce quando o criador perde o controle sobre a própria obra. Hoje, a discussão sobre IA gira em torno da mesma pergunta: até onde entendemos aquilo que colocamos em movimento?

Del Toro atualiza essa fábula em um mundo que discute governança tecnológica, regulação global, vieses algorítmicos, desigualdades digitais e o papel das grandes corporações como novos centros de poder. Assim como a Criatura foi viabilizada por elites científicas europeias, as IAs são desenvolvidas e financiadas por conglomerados privados com capacidade de orientar fluxos de informação em escala planetária.

A questão deixa de ser apenas técnica e passa a ser política e ética. Quem define as regras? Quem se beneficia? Quem tem controle e quem fica de fora?

Para compreender essa nova criatura, é preciso olhar para o seu funcionamento. As IAs generativas mais avançadas se apoiam em LLMs (grandes modelos de linguagem), sistemas treinados com volumes maciços de textos, imagens e dados produzidos pela própria humanidade. Eles aprendem padrões linguísticos, associações entre palavras e estruturas de argumentação e, com isso, produzem novas sequências de texto a partir de probabilidades.

Não pensam como seres humanos e não têm experiência do mundo, mas simulam a linguagem com tal refinamento que, muitas vezes, se tornam indistinguíveis em interações cotidianas. Com trilhões de parâmetros, são máquinas de composição textual e imagética cuja complexidade já escapa à intuição dos próprios engenheiros.

Essa base técnica abre espaço para um fenômeno novo: a intimidade sintética. Assistentes conversacionais, avatares personalizados e sistemas que “lembram” hábitos e preferências são projetados para gerar sensação de proximidade, cuidado e escuta. Chamam as pessoas pelo nome, modulam o tom, ajustam respostas ao humor e imitam empatia criando vínculos aparentes em que a máquina simula cuidado, mas não partilha valores humanos nem responsabilidade moral.

Quando vínculos afetivos começam a se apoiar nessas simulações, a nossa ideia de relação corre o risco de se empobrecer. Passamos a chamar de vínculo aquilo que, no fundo, é um fluxo assimétrico: o humano se expõe, a máquina apenas coleta, calcula e devolve padrões.

“Frankenstein” funciona, assim, como advertência. A Criatura não é monstruosa apenas por ser artificial, mas porque espelha a ambição humana desvinculada de responsabilidade ética. A ausência de limites e de governança corrói laços, desorganiza vidas e expõe os nossos pontos cegos. Da mesma forma, tecnologias implementadas sem avaliação crítica e sem controle social podem produzir efeitos duradouros e difíceis de reverter.

Do ponto de vista técnico, LLMs são máquinas de narrativa probabilística. Do ponto de vista epistêmico, reorganizam a circulação do conhecimento. Cada vez mais, acessamos o mundo por meio de camadas de texto, imagem e som geradas por modelos que não experienciam aquilo que descrevem.

A realidade passa a ser constantemente reeditada por narrativas produzidas em série, muitas vezes ajustadas em tempo real a cada perfil e baseadas na língua-mãe do algoritmo com a qual foi construída —em sua maior parte, o inglês e o mandarim.
Ao assistir ao filme de Guillermo del Toro, fica evidente que a narrativa dialoga diretamente com o presente. Não é só uma adaptação literária, mas uma parábola política, filosófica e tecnológica. A Criatura renasce nas telas no mesmo momento que sucessivas gerações de modelos de IA são atualizadas em data centers ao redor do mundo. Ambos testam limites éticos e expõem vulnerabilidades humanas.

Se o romance original mostra o que acontece quando o criador abandona a responsabilidade, o nosso tempo sugere o que pode ocorrer quando sociedades inteiras entregam a mediação da realidade a sistemas que ninguém controla plenamente.
Decidir que lugar daremos a essas máquinas que imitam intimidade sem carregar valores humanos é uma tarefa política e cultural, não apenas técnica. É nesse terreno da vida democrática que a história de Frankenstein continua. É ali, entre instituições, cidadãos e criadores de tecnologia que precisaremos escolher que futuro desejamos escrever.”