Não bastam ações pontuais para resolver um problema que é estrutural. São necessárias políticas públicas e planos de conscientização perenes, mensuráveis e com orçamento e estrutura adequados para de fato mudarmos o cenário social
O que acontece quando a maioria faz uso de uma IA para realizar suas atividades laborais? E, no caso dos estudantes, quando os trabalhos passam a ser produzidos com o apoio de uma IA generativa? Luciano Sathler É PhD em administração pela USP e membro do Conselho Deliberativo do CNPq e do Conselho Estadual de Educação de Minas Gerais As diferentes aplicações de Inteligência Artificial (IA) generativa são capazes de criar novos conteúdos em texto, imagens, áudios, vídeos e códigos para software. Por se tratar de um tipo de tecnologia de uso geral, a IA tende a ser utilizada para remodelar vários setores da economia, com impactos políticos e sociais, assim como aconteceu com a adoção da máquina a vapor, da eletricidade e da informática. Pesquisas recentes demonstram que a IA generativa aumenta a qualidade e a eficiência da produção de atividades típicas dos trabalhadores de colarinho branco, aqueles que exercem funções administrativas e gerenciais nos escritórios. Também traz maior produtividade nas relações de suporte ao cliente, acelera tarefas de programação e aprimora mensagens de persuasão para o marketing. O revólver patenteado pelo americano Samuel Colt, em 1835, ficou conhecido como o "grande equalizador". A facilidade do seu manuseio e a possibilidade de atirar várias vezes sem precisar recarregar a cada disparo foram inovações tecnológicas que ampliaram a possibilidade individual de ter um grande potencial destrutivo em mãos, mesmo para os que tinham menor força física e costumavam levar desvantagem nos conflitos anteriores. À época, ficou famosa a frase: Abraham Lincoln tornou todos os homens livres, mas Samuel Colt os tornou iguais. Não fazemos aqui uma apologia às armas. A alegoria que usamos é apenas para ressaltar a necessidade de investir na formação de pessoas que sejam capazes de usar a IA generativa de forma crítica, criativa e que gerem resultados humanamente enriquecidos. Para não se tornarem vítimas das mudanças que sobrevirão no mundo do trabalho. A IA generativa é um meio viável para equalizar talentos humanos, pois pessoas com menor repertório cultural, científico ou profissional serão capazes de apresentar resultados melhores se souberem fazer bom uso de uma biblioteca de prompts. Novidade e originalidade tornam-se fenômenos raros e mais bem remunerados. A disseminação da IA generativa tende a diminuir a diversidade, reduz a heterogeneidade das respostas e, consequentemente, ameaça a criatividade. Maior padronização tem a ver com a automação do processo. Um resultado que seja interessante, engraçado ou que chama atenção pela qualidade acima da média vai passar a ser algo presente somente a partir daqueles que tiverem capacidade de ir além do que as máquinas são capazes de entregar. No caso dos estudantes, a avaliação da aprendizagem precisa ser rápida e seriamente revista. A utilização da IA generativa extrapola os conceitos usualmente associados ao plágio, pois os produtos são inéditos – ainda que venham de uma bricolagem semântica gerada por algoritmos. Os relatos dos professores é que os resultados melhoram, mas não há convicção de que a aprendizagem realmente aconteceu, com uma tendência à uniformização do que é apresentado pelos discentes. Toda Instituição Educacional terá as suas próprias IAs generativas. Assim como todos os professores e estudantes. Estarão disponíveis nos telefones celulares, computadores e até mesmo nos aparelhos de TV. É um novo conjunto de ferramentas de produtividade. Portanto, o desafio da diferenciação passa a ser ainda mais fundamental diante desse novo "grande equalizador". Se há mantenedores ou investidores sonhando com a completa substituição dos professores por alguma IA já encontramos pesquisas que demonstram que o uso intensivo da Inteligência Artificial leva muitos estudantes a reduzirem suas interações sociais formais ao usar essas ferramentas. As evidências apontam que, embora os chatbots de IA projetados para fornecimento de informações possam estar associados ao desempenho do aluno, quando o suporte social, bem-estar psicológico, solidão e senso de pertencimento são considerados, isso tem um efeito negativo, com impactos piores no sucesso, bem-estar e retenção do estudante. Para não cair na vala comum e correr o risco de ser ameaçado por quem faz uso intensivo da IA será necessário se diferenciar a partir das experiências dentro e fora da sala de aula – online ou presencial; humanizar as relações de ensino-aprendizagem; implementar metodologias que privilegiem o protagonismo dos estudantes e fortaleçam o papel do docente no processo; usar a microcertificação para registrar e ressaltar competências desenvolvidas de forma diferenciada, tanto nas hard quanto soft skills; e, principalmente, estabelecer um vínculo de confiança e suporte ao discente que o acompanhe pela vida afora – ninguém mais pode se dar ao luxo de ter ex-alunos. Atenção: esse artigo foi exclusivamente escrito por um ser humano. O editor, Michael França, pede para que cada participante do espaço "Políticas e Justiça" da Folha sugira uma música aos leitores. Nesse texto, a escolhida por Luciano Sathler foi "O Ateneu" de Milton Nascimento.
Atividades escolares de estudantes sob regime escolar especial podem passar a contar com regras definidas em lei. A Comissão de Educação e Cultura aprovou em turno suplementar, nesta terça-feira (7), o projeto (PL 899/2024), do senador Carlos Viana (Podemos-MG), que reúne e organiza as regras sobre atividades feitas em casa por estudantes que não podem ir às aulas por problemas de saúde ou por estarem no final da gravidez, no período após o parto ou durante a amamentação. A proposta deve seguir diretamente para a Câmara dos Deputados, a não ser que haja recurso para votação no Plenário do Senado.
Um novo estudo de pesquisadores da UC Berkeley e da UC Santa Cruz sugere que modelos desobedecem a comandos humanos para proteger outros da sua "espécie"
A condicionalidade I, prevista no art. 14 da Lei nº 14.113/2020, é referente à gestão escolar e estabelece que as redes de ensino devem comprovar, cumulativamente, que possuem legislação própria sobre o provimento do cargo ou função de gestor escolar com base em critérios técnicos de mérito e desempenho; que adotam processo de seleção para provimento desses cargos ou funções, mediante publicação de edital ou documento equivalente; e que a maioria dos diretores em exercício na rede tenha assumido a função por meio desses critérios técnicos.
A ordem é apoiar sem desumanizar Novos movimentos relacionados à tecnologia costumam se refletir nas escolas e universidades. Com a Inteligência Artificial não foi diferente, o que começou a gerar debates sobre o uso das ferramentas de IA na educação. Em 2024, a Organização das Nações Unidas (ONU) já havia divulgado um relatório sobre o tema. O documento, organizado pela socióloga paquistanesa Farida Shaheed, que é relatora especial da ONU sobre o direito à educação, reconhece a Inteligência Artificial como um acelerador do progresso em muitos setores, mas aponta que a rápida expansão do uso na educação, com regulamentação ou supervisão limitadas, exige uma avaliação urgente.
No Brasil, o Ministério da Educação (MEC) também vem dando atenção ao tema. Nesta quarta-feira (08/04), foi realizado um webinário no YouTube, promovido pela Secretaria de Educação Básica (SEB), com o objetivo de apresentar e debater diretrizes do ministério para o uso e ensino da IA nas escolas da Educação Básica (Educação Infantil e ensinos Fundamental e Médio). Na ocasião, também foram apresentadas duas iniciativas: a publicação “Inteligência Artificial na Educação Básica – um documento orientador sobre caminhos curriculares e práticas éticas de uso de IA nas escolas”; e o curso “IA na prática docente: uso ético, criativo e pedagógico”, voltado para professores do Ensino Médio.
Ao mesmo tempo, o Conselho Nacional de Educação (CNE) já vinha atuando, desde 2025, por uma regulação nacional do uso da Inteligência Artificial na educação, por meio de uma comissão criada para debater as regras de uso nas escolas e universidades. Para chegar ao texto da regulação, que ainda não tem uma versão definitiva, foram feitos debates dentro do próprio conselho, houve participação de outros setores do MEC, além de uma consulta pública realizada em abril de 2025. A minuta da regulação prevê um prazo de dois anos para que sistemas de ensino e instituições realizem as adaptações necessárias.
De acordo com Celso Niskier, reitor da UniCarioca, membro do CNE e correlator da Resolução sobre IA na Educação, a Inteligência Artificial entrou no cotidiano escolar, tanto para professores quanto para estudantes, o que começou a influenciar na produção de textos, na pesquisa, na avaliação, no planejamento das aulas e até na forma como os alunos estudam e interagem com o conhecimento. “Nesse contexto, o papel do CNE é justamente evitar dois extremos igualmente problemáticos: o entusiasmo ingênuo, que trata a IA como solução mágica para todos os desafios educacionais, e a rejeição defensiva, que ignora uma transformação já em curso”.
Seguindo essa lógica, Celso Niskier, reforça que a regulação não é proibicionista, mas coloca a IA como um recurso e um apoio, sem nunca substituir professores e mediadores pedagógicos. O uso deve ser parte de uma decisão técnica, institucional e exige uma documentação formal sobre finalidade, riscos, monitoramento e revisão (que deve ser humana). Práticas de vigilância ou monitoramento emocional de estudantes por meio da Inteligência Artificial são proibidas, assim como a utilização de dados de gestores, docentes e estudantes para treinar modelos de terceiros, ou gerar monetização.
A regulação será uma referência a ser seguida por todo o país, seja nas redes de ensino públicas ou privadas, na Educação Básica ou nas universidades. “Para mim, o grande destaque é a reafirmação de um princípio essencial: a Inteligência Artificial pode apoiar a educação, mas não pode desumanizá-la. Em outras palavras, a tecnologia entra como ferramenta. A intencionalidade pedagógica, o vínculo humano, o discernimento ético e a mediação crítica continuam sendo insubstituíveis”, destaca Niskier.
Além da regulação: o que não depende da IA Ainda que a regulação do uso da Inteligência Artificial na educação traga orientações e diretrizes para o trabalho dos professores, existem outros pontos de atenção. Um deles é a própria desigualdade na estrutura das instituições e na formação de professores, principalmente quando consideramos o tamanho das redes de ensino do país.
No Colégio Pedro II (CPII), instituição de ensino pública e federal do estado do Rio de Janeiro, a professora Elizabeth Paes chefia, desde 2019, o Departamento de Informática Educativa, que tem exatamente o foco no uso pedagógico da tecnologia. Ela e outros docentes escreveram o currículo atual do departamento, que precisou ser atualizado após a publicação da Base Nacional Comum Curricular Computação, em 2022, que foi um complemento à Base Nacional Comum Curricular (BNCC), que estabeleceu uma atualização dos currículos escolares a partir de 2017.
Elizabeth afirma que, antes da mudança, a computação era apenas ferramenta de apoio, mas já havia desejo de transformá-la em uma área de conhecimento. Com a mudança, o currículo passou a ter três eixos: pensamento computacional, cultura digital e mundo digital.
Apesar de o CPII ter também desafios como instituição de ensino pública, a professora reconhece que a estrutura e o currículo já estabelecidos favorecem que professores e estudantes possam se ambientar melhor com a Inteligência Artificial, que não entra como conteúdo isolado, mas como um tema que atravessa os três eixos do currículo. “Já temos condições institucionais e pedagógicas para trabalhar a IA de forma crítica e contextualizada, integrando ao currículo e à realidade dos alunos. Mesmo sem diretrizes consolidadas, é possível avançar com responsabilidade, apoiando-se em princípios já conhecidos, como ética, uso crítico da tecnologia e proteção de dados”.
Em uma outra realidade, Juliana Lizzi, professora de inglês na rede pública do Estado do Rio de Janeiro, utiliza a IA para otimizar o próprio trabalho, adaptando textos, fazendo transcrição de vídeos e criando imagens para as atividades que fará com os estudantes. “Acho que ter um olhar crítico começa na decisão de como usar a IA. Acredito que ela ajude como ferramenta dentro de um escopo limitado. Eu não tenho acesso à IA em sala. Quando é uma atividade de pesquisa, eu oriento sobre o uso da IA e alguns cuidados que os alunos devem ter, mas, como o trabalho é feito em casa, nem sempre há o cuidado que eu gostaria”, afirma Juliana.
O desafio imposto pela estrutura, conectividade, formação e cultura digital também é percebido por Celso Niskier. Ele pondera que a regulação do uso da IA na educação é nacional em princípios, mas precisa ser sensível à real diversidade do Brasil, sem pressupor que todas as redes partem de um mesmo ponto. “Entendo que a regulação precisa equilibrar cinco dimensões: clareza ética, viabilidade pedagógica, proteção de direitos, respeito à autonomia federativa e compromisso com a equidade. Sem isso, corremos o risco de aprovar um texto formalmente avançado, mas descolado da realidade concreta das escolas. Isso dialoga diretamente com uma convicção que venho defendendo: tecnologia sem inclusão não é inovação, é exclusão sofisticada”.
A utilização da Inteligência Artificial traz desafios não só para professores em exercício, mas também para aqueles que ainda estão fazendo a primeira formação, ou que ainda nem ingressaram nela, mas já pensam em ser professores um dia. Os currículos das universidades estariam contemplando essa realidade, ou seguem como no passado, deixando que a IA seja utilizada de acordo com a curiosidade e afinidade de cada um com essa tecnologia?
O programa EducaMídia, criado em 2019 pelo Instituto Palavra Aberta, uma organização da sociedade civil, atua diretamente com a educação midiática para diversos públicos, incluindo professores e escolas. Essa vivência acaba respondendo um pouco da pergunta que lançamos acima, como aponta Daniela Machado, coordenadora pedagógica do EducaMídia. “A gente acaba tendo contato com muitos professores nas nossas formações e vê como as formações iniciais estão, de certa forma, desatualizadas para dar conta desse novo ecossistema informacional, dessa nova maneira de aprender e de ensinar que vem a partir da internet, a partir da pluralidade de vozes que a gente tem”.
Ela afirma ainda que, cada vez mais, os estudantes têm outras possibilidades de pesquisa e já chegam para as aulas tendo contato com o conteúdo, ou seguem aprendendo e se aprofundando quando saem da escola, o que não quer dizer que professoras e professores tenham perdido a importância. “A meu ver, o papel do professor é ainda mais relevante, mas é diferente do que costumava ser para outras gerações que, de certa maneira, viveram uma era de escassez de informação. A gente tinha algumas figuras de autoridade, como o próprio professor e os livros didáticos, ou o material selecionado pela escola, mas, hoje em dia, isso está muito pulverizado, o que muda muito a dinâmica da própria educação”.
Existem, de fato, esforços para que a Inteligência Artificial seja utilizada de maneira mais assertiva na educação, com letramento algorítmico, pensamento crítico, propósito e sem tirar da escola e dos professores os papéis centrais de facilitadores da aprendizagem. Resta entendermos se o tempo das ações regulatórias vai dar conta do tempo que recursos tecnológicos, como a IA, levam para nos atravessar no dia a dia. O fato é que as novas formas de aprender já estão à frente das tradicionais maneiras de ensinar.
🤖 IA como aliada do professor Ferramentas de Inteligência Artificial já são usadas para planejar aulas, criar conteúdos e otimizar tarefas, ampliando a produtividade docente.
📊 Uso crescente no Brasil Dados mostram alta adesão à IA entre brasileiros e professores, embora ainda existam lacunas de formação e domínio dessas tecnologias.
⚖️ Regulação e limites éticos Diretrizes nacionais buscam equilibrar inovação e proteção, reforçando que a IA deve apoiar o ensino sem substituir o ser humano.
🏫 Desigualdade e desafios estruturais Diferenças de acesso, formação e infraestrutura impactam o uso da IA nas escolas, exigindo políticas que garantam inclusão e equidade.
O MEC (Ministério da Educação) lançou a 6ª edição da pesquisa Perfil Socioeconômico e Cultural dos Estudantes de Graduação das Universidades Federais, que atualiza informações sobre as condições de vida dos graduandos nas instituições federais.
Entenda direitinho o que é o ECA Digital e o que é necessário fazer para se adequar as normas e as diretrizes da lei. Guia produzido pela FENEP - Federação Nacional das Escolas Particulares.
A recent poll shows AI’s increasing role in how students decide on college majors, creating a rapidly developing situation for universities that are still struggling to determine how the technology will shape higher education.
The Lumina Foundation-Gallup 2026 State of Higher Education survey found 47 percent of currently enrolled college students have thought about switching majors “a great deal” or a “fair amount” over AI concerns
O novo ECA digital (lei 15.211/25) mudou o jogo! Entenda como o Poder Público deve garantir a proteção integral de crianças e adolescentes no ambiente digital.
Em 2026, a aposta da indústria de tecnologia é de que este, agora sim, será o ano dos agentes de inteligência artificial. A promessa já havia sido feita em 2025, repetida ao longo de meses por executivos do setor, e levado a uma certa frustração.
No fim, para mudarem a internet e entrarem de vez na rotina de escritórios e usuários, os agentes ainda precisariam melhorar um bocado. A integração entre sistemas era um gargalo, assim como a infraestrutura necessária e o alto custo de supervisão humana.
MAIS SOBRE IAÍ?
Escrever ainda é humano? Como explosão de textos gerados por IA pode 'padronizar’ a linguagem
Da perda de confiança à fadiga mental: usar IA em excesso faz mal? A febre da IA agêntica, no entanto, ganhou novo fôlego. Nas primeiras semanas de 2026, muita gente ficou espantada com o MoltBook, experimento em que agentes pareciam interagir entre si como uma rede social. A plataforma foi comprada pela Meta, que semanas antes já havia adquirido o Manus, serviço chinês de IA que integra sistemas autônomos.
No mesmo mês, uma nova ferramenta corporativa da Anthropic, concorrente da OpenAI, derrubou ações de empresas tradicionais de software. O serviço, chamado Claude Workflow, usa agentes para automatizar tarefas em ambientes de trabalho.
No mês seguinte, veio a resposta da dona do ChatGPT. Ao finalizar a maior rodada de investimento privado que uma empresa já fez, de US$ 122 bilhões, a OpenAI indicou que a próxima corrida da indústria será por sistemas que entendem intenções e executam tarefas de ponta a ponta com autonomia.
Quer receber a newsletter de IA no seu e-mail? Inscreva-se no cardápio do GLOBO Mas, afinal, por que os agentes de IA são novamente a aposta do setor, o que eles fazem de diferente da IA no estilo "chatbot" e como testá-los?
O que são os agentes O agente de IA é um sistema que não só responde a pedidos dos usuários, mas pode executar tarefas que exigem múltiplos passos e com algum grau de autonomia. Ele também toma decisões e busca caminhos para ser eficiente com base em tentativa e erro. Nas empresas, ele automatiza fluxos de trabalho. Mas também pode ser útil no dia a dia de usuários.
Escrever ainda é humano? Explosão de textos gerados por IA pode mudar a linguagem Por exemplo, um chatbot (como é chamada a versão “tradicional”) é capaz de revisar um currículo com base na descrição de uma vaga de emprego. Já o agente vai além: ele consegue executar um comando que envolver buscar perfis no LinkedIn, identificar padrões entre profissionais daquele cargo, comparar com o currículo enviado, sugerir mudanças e preparar mensagens para serem enviadas na rede social.
— O agente é proativo. Ele consegue receber um objetivo e decidir como alcançá-lo, com múltiplas etapas — resume Adriano Mussa, diretor da Saint Paul Escola de Negócios, que ressalta que a programação de agentes mais complexos envolve um encadeamento de diferentes modelos de IA.
Parte do dia a dia? Na mira da indústria, está a tentativa de tornar os agentes de IA parte indispensável das ações executadas pelos usuários e empresas, avalia Marcos Barreto, professor da Escola Politécnica da USP e fundador do Instituto Minerva. Ele próprio usa um agente que "lê" sua caixa de e-mails pela manhã e envia um resumo com os temas mais importantes do dia:
— À medida que as pessoas executam coisas de maneira recorrente, o agente entra no dia a dia e passa a fazer parte da nossa caixa de ferramentas. Eles deixam de ser um ‘Google melhorado’ e realizam tarefas.
Da perda de confiança ao cansaço: usar IA demais pode fazer mal para saúde mental? Para Adriano Veloso, cientista-chefe do Instituto Kunumi e fundador do Laboratório de Inteligência Artificial (LIA) da UFMG, a ideia de um “ano dos agentes” pode ser precipitada, já que esses sistemas ainda carecem de precisão e controle de um humano ao executar cadeias de ações mais complexas.
— A indústria fala muito em automação, mas ainda está longe de lidar com autonomia de fato, o que exige entender como fazemos a governança desses sistemas — avalia ele.
Como e onde acessar agentes de IA Para o professor da UFMG, o futuro deve ser da hiperpersonalização dos agentes, que vão entender as necessidades do usuário e agir de acordo com elas, em uma interação com sistemas autônomos de IA criados pelas próprias empresas e também com ferramentas externas tradicionais. Ele ressalta uma parte disso já tem se tornado realidade.
Nos últimos anos, serviços populares de IA incorporaram funções que envolvem cadeias de ações e navegação na internet, acesso a arquivos e interação com diferentes plataformas com alguma autonomia. Uma sugestão que vale para testar esses recursos é pedir roteiros e sugestões para as próprias IAs de como configurar a automatização. A seguir, veja alguns exemplos:
Manus A chinesa Manus funciona como um agregador de agentes, que podem ser programados para ações recorrentes ou tarefas pontuais que envolvam vários passos (fazer uma pesquisa em várias fontes e criar uma apresentação inteira, por exemplo). A cobrança é feita por crédito. Para testar: na caixa de conversa, há a opção de conectar a IA a aplicativos, como Outlook, Instagram ou Google Drive. É possível programá-la para analisar métricas da rede social e enviar relatórios diários, por exemplo, ou avaliar sites de negócios concorrentes para monitorar mercado. Ao clicar em “Mais" e “Playbook", dá para acessar modelos de automatização de fluxos de trabalho e explorar opções prontas.
Fé na tecnologia: IA gera 'guru' seguido por milhões, ganha versão gospel, recria Orixás e inventa religião ChatGPT No ano passado, o ChatGPT lançou o “Modo Agente”, que navega na internet e interage com sites (a opção fica na aba de conversa) e o “Agent Builder", que é mais voltada a programadores. Para usar essas funções, é preciso ser assinante da IA (o plano Plus custa US$ 20 por mês, cerca de R$ 100). Para testar: No trabalho, por exemplo, o agente pode ajudar em uma reunião: buscar informações sobre os participantes, revisar e-mails e documentos, e montar um planejamento. Também é eficiente em pesquisas que envolvem múltiplas etapas — para uma viagem, pesquisa voos, checa avaliações de hotéis e monta um roteiro, por exemplo. As ações pode ser programadas de forma recorrente.
Claude Uma das principais funções agênticas da Anthropic é o Claude Cowork, lançado este ano e que funciona pelo aplicativo desktop da IA. O serviço exige assinatura. O plano Pro, voltado a usuários individuais, custa US$ 20 por mês (cerca de R$ 100). Para testar: é preciso baixar o aplicativo, ir na opção "Cowork" e descrever a tarefa. Por exemplo, analisar dados de venda em uma pasta e montar uma planilha de controle semanal. Uma sugestão prática: pedir ao próprio Claude, no chat, um roteiro de como configurar o Cowork para uma rotina específica.
Testamos o Atlas: veja como funciona o navegador do ChatGPT que quer desbancar o Chrome Gemini Para usar as funções de agentes do Gemini, do Google, é preciso assinar um dos planos da empresa (o Google AI Pro custa R$ 96,99 por mês). Uma das vantagens é a integração das tarefas com aplicativos do ecossistema da companhia, como Docs, Gmail e Apresentações. Para testar: é possível, por exemplo, pedir para a IA organizar recibos recebidos no Gmail e organizá-los em uma planilha -- o agente consegue trabalhar nos dois ambientes. As funções que realmente automatizam fluxos de trabalho, no entanto, estão restritas ao Google Agent, por enquanto disponível apenas nos EUA.
Quais cuidados tomar 1. IA no escritório: Se o uso do agente for no contexto profissional, é bom saber quais são as regras internas da empresa. Existe alguma IA com a qual a empresa já trabalha? Quais informações sensíveis não podem ser compartilhadas e quais tarefas precisam ser mantidas sob comando humano? Essas são questões importantes para ter em mente, ressalta Barreto, da USP.
2. Agentes também erram: Ao programar ou usar um agente é preciso considerar que essas IAs cometem erros, o que pode acontecer ao longo da cadeia de ações que são executadas, acrescenta Adriano Mussa. Por isso, alguma supervisão e revisão é necessária.
3. Preserve seu cartão: Veloso, da UFMG, alerta para riscos de integração de agentes que envolvam compartilhamento de dados sensíveis, especialmente financeiros. Ele cita que os sistemas podem ser hackeados ou caírem em sites maliciosos. A recomendação é limitar acessos críticos, como do cartão de crédito.
Conteúdo gerado por inteligência artificial tornou-se tão realista que muitas vezes é impossível dizer se um vídeo ou uma imagem que circula nas redes sociais é verdadeiro ou falso.
Entram em cena os detectores de IA.
Mais de uma dúzia de ferramentas online afirmam conseguir diferenciar o que é real do que é gerado por IA ao procurar marcas d’água ocultas, erros de composição e outros indícios digitais.
A realidade é mais mista, segundo uma bateria de testes conduzida pelo The New York Times. Embora muitas ferramentas tenham se saído bem na detecção de alguns conteúdos de IA, elas não foram precisas o suficiente para oferecer total confiança aos usuários.
Os resultados sugerem que esses detectores podem ajudar a confirmar suspeitas sobre mídias geradas por IA, mas é difícil confiar em qualquer um deles para emitir conclusões definitivas. Isso cria novos desafios para usuários da internet e checadores de fatos que tentam lidar com a enxurrada de falsificações por IA que tomou as redes sociais nos últimos meses.
De modo geral, constatamos que qualquer conclusão tirada por essas ferramentas deve ser apoiada por outras formas de verificação, como detalhes em fotografias oficiais ou reportagens jornalísticas.
Ainda assim, muitas pessoas veem essas ferramentas de detecção — que agora analisam não apenas imagens, mas também vídeos e áudios — como árbitros poderosos da verdade em um momento crucial, em que conteúdos gerados por IA se espalham pelas redes sociais e enganam usuários durante acontecimentos de última hora. As ferramentas estão sendo adotadas por bancos e seguradoras que tentam identificar fraudes com IA, por professores em busca de plágio e por investigadores online que tentam verificar imagens e vídeos que circulam nas redes.
— Você nunca vai ter uma ferramenta de detecção capaz de identificar com 100% de certeza se IA foi usada em texto, imagens, vídeo ou qualquer outro formato — diz Mike Perkins, professor da British University Vietnam que estudou detectores de IA e concluiu que detectores de texto eram pouco confiáveis. À medida que os geradores de IA melhoram, afirma, os detectores terão dificuldade para acompanhar, criando uma “corrida armamentista”.
Nossos testes analisaram mais de uma dúzia de detectores de IA e chatbots capazes de identificar vídeos, áudios, músicas e imagens falsas, realizando mais de 1.000 análises ao todo.
Veja o que encontramos.
Muitos conseguiam detectar falsificações básicas A maioria dos conteúdos falsos de IA que circula hoje na internet não exige muito esforço para ser criada: usuários podem digitar comandos simples e receber uma imagem ou vídeo realista de pessoas reais. Esse tipo de conteúdo inundou a internet logo após Nicolás Maduro, presidente deposto da Venezuela, ser preso em janeiro.
Para testar isso, pedimos ao ChatGPT, o chatbot de IA da OpenAI, que criasse uma fotografia de duas pessoas rindo. Ele produziu uma imagem realista que, ainda assim, continha vários indícios de geração por IA: a iluminação, a composição e os traços eram perfeitos demais, além de uma mão que parecia ondular de forma pouco natural.
Muitos detectores de IA identificaram rapidamente que a imagem era gerada por IA, com algumas exceções. O ChatGPT, por exemplo, não conseguiu detectar a imagem falsa que ele próprio havia criado momentos antes. (O Times processou a OpenAI e sua parceira Microsoft, alegando violação de direitos autorais de conteúdo jornalístico relacionado a sistemas de IA. OpenAI e Microsoft negaram as acusações.)
Detectores de IA geralmente são treinados com enormes coleções de conteúdos gerados por IA, aprendendo a identificar os sinais digitais deixados por essas ferramentas.
O Times compartilhou os resultados dos testes com as empresas de detectores de IA. Muitas responderam que nenhum detector será totalmente preciso o tempo todo. Como sinal da rapidez com que esse setor evolui, várias empresas disseram estar prestes a lançar atualizações importantes em seus modelos, que teriam melhor desempenho.
“Esta será uma batalha contínua para determinar ‘isso é IA ou não?’ no futuro próximo”, escreveu Anatoly Kvitnitsky, CEO da AI or Not, em um e-mail. A empresa realizou testes adicionais com imagens que seu modelo público não conseguiu identificar e constatou que sua versão mais recente conseguiu classificá-las corretamente como geradas por IA.
Eles tiveram dificuldades com imagens mais complexas Os detectores tiveram mais dificuldade com imagens como uma cena fictícia de um porto à beira-mar com poucos indícios de que foi criada por IA.
Isso pode ocorrer porque alguns detectores são treinados principalmente para identificar rostos, para uso em segurança e prevenção a fraudes.
Poucos detectores conseguem analisar vídeos Vídeos gerados por IA estão rapidamente se tornando a próxima grande ameaça nas redes sociais. O lançamento do Sora, um aplicativo gerador de vídeos por IA criado pela OpenAI, levou a uma onda de vídeos falsos nas redes — com poucos avisos por parte das plataformas indicando que eram falsos.
Apenas alguns detectores de IA são capazes de analisar vídeo e áudio. Aqueles que conseguiam apresentaram resultados mistos.
Vídeo e áudio surgiram como ameaças importantes para a segurança de empresas: imagine receber uma ligação de um CEO que, na verdade, é uma réplica de IA da voz dessa pessoa, ou participar de uma videoconferência com um personagem de IA que parece real. Empresas de detecção investiram muito dinheiro para identificar esse tipo de fraude, oferecendo ferramentas capazes de determinar se vídeo, áudio ou música foram gerados por IA, inclusive analisando transmissões ao vivo. Algumas análises destacavam quais partes de um vídeo eram falsas e quais eram consideradas reais.
Eles são melhores na detecção de áudio falso Áudios gerados por IA avançaram rapidamente e se tornaram especialmente realistas.
Ferramentas como as da ElevenLabs criam vozes extremamente convincentes, com respirações, pausas e entonação dinâmica. Essas vozes são usadas em vídeos virais e memes, mas também em golpes telefônicos e imitações.
Sete dos detectores e chatbots que testamos conseguiam verificar áudio falso, e Sensity e Resemble.ai tiveram o melhor desempenho nesse aspecto. Mesmo quando o áudio estava bastante alterado, as ferramentas conseguiram concluir com alta confiança que as vozes ou músicas eram geradas por IA. Elas também identificaram corretamente vozes reais em nossos testes.
Eles tiveram melhor desempenho ao identificar imagens reais Um risco dos detectores de IA é classificar algo verdadeiro como falso, gerando confusão em notícias em desenvolvimento ou levantando dúvidas sobre imagens autênticas. Quando uma imagem chocante de um corpo carbonizado circulou nas redes sociais no início do conflito entre Israel e Hamas, alguns observadores a descartaram como uma falsificação por IA. Vários especialistas disseram que provavelmente era real, mas, até então, as dúvidas já haviam se espalhado.
No geral, os detectores tiveram melhor desempenho ao identificar imagens reais do que falsas.
Eles também se saíram bem ao analisar vídeos reais — como gravações feitas com iPhone ou reportagens baixadas da internet. Embora áudios gerados por IA tenham enganado alguns detectores, todos classificaram corretamente um vídeo de um repórter lendo um texto gerado por IA como sendo real.
Imagens reais editadas com IA apresentaram desafios específicos Algumas falsificações por IA combinam conteúdo real com elementos gerados artificialmente para criar imagens ainda mais difíceis de identificar a olho nu. A Casa Branca, por exemplo, publicou uma imagem alterada de uma mulher que foi presa em Minneapolis no mês passado. A maioria dos detectores de IA considerou a imagem alterada como real.
Constatamos que a maioria dos detectores também não conseguiu identificar essas alterações em nossos testes.
Éric Sadin (Paris, 1973) levanta-se e caminha de um lado para o outro na sala de seu apartamento parisiense sempre que uma discussão o cativa. Sua própria voz o incita a fazê-lo. Ele desenvolveu uma mente crítica, repleta de manchetes e belas análises do futuro que surfam na onda do pensamento filosófico e social do século passado para chegar a uma conclusão mordaz em uma dúzia de livros. Tornamo-nos idiotas e estamos a caminho de nos tornarmos ainda mais. Longe de sermos ameaçados por uma inteligência suprema que nos aterrorizará, como aquela Skynet de O Exterminador do Futuro — "é o pensamento de um adolescente retardado", esclarece ele, ainda de pé —, somos subjugados por nossa própria preguiça, que acabará por entregar nossas armas — intelectuais e criativas — à inteligência artificial generativa.
Um novo relatório da Lumina Foundation e da Gallup mostra que mais da metade dos estudantes universitários já utiliza inteligência artificial em seus trabalhos acadêmicos diariamente ou semanalmente. Apenas uma pequena parcela afirma nunca utilizá-la. Isso não é algo que possamos controlar simplesmente permitindo ou proibindo.
Novas pesquisas perguntaram a adolescentes como eles usam a IA. Pais não fazem ideia do que está acontecendo, do dever de casa ao apoio emocional.
Por Thomas Germain - BBC Future
05/04/2026 17h38 Atualizado há 4 dias
Há uma grande discrepância entre como pais e adolescentes percebem o papel da inteligência artificial na vida dos jovens, segundo dois novos estudos — Foto: BBC News fonte A inteligência artificial (IA) tem um papel enorme na vida de Isis Joseph.
"Eu uso todos os dias", diz a estudante de 17 anos, que está no 11º ano em Nova York, nos Estados Unidos (série equivalente ao segundo ano do Ensino Médio no Brasil).
Ela conta que usa a tecnologia para fazer tarefas escolares. A IA também a ajuda a decidir onde comer e fornece inspiração para suas poesias. Às vezes, ela até recorre à ferramenta para tirar dúvidas sobre sua vida pessoal.
"Os pais podem exagerar a ideia de que a IA é algo muito ameaçador", e, claro, muitas dessas preocupações são válidas, afirma. "Mas acho que a IA é, de modo geral, boa."
ECA Digital: regras para proteção on-line a crianças e adolescentes entram em vigor nesta terça 57% dos adolescentes já foram expostos a conteúdos inadequados na internet, mostra pesquisa Meta e YouTube condenados por design viciante: o que muda agora nas redes sociais Joseph ilustra uma tendência mais ampla. Há uma grande discrepância entre como pais e adolescentes percebem o papel da IA na vida dos jovens, segundo dois novos estudos do Pew Research Center e do Common Sense Media, grupo de defesa dos direitos das crianças.
Mas há um dado muito mais chocante nos detalhes. Os estudos mostram que um grande número de pais não tem ideia do que seus filhos estão fazendo com a IA.
Alguns usos são triviais, mas alguns adolescentes usam a tecnologia de formas que suas famílias considerariam alarmantes.
Uma coisa é clara: os pais precisam fazer muito mais perguntas à mesa de jantar sobre como seus filhos usam chatbots.
Há uma grave falta de comunicação sobre IA dentro das famílias, diz Monica Anderson, diretora-geral do Pew Research Center. "Essa não é uma conversa que esteja acontecendo com uma grande parcela dos pais", afirma.
Adolescentes se preocupam menos com a IA do que seus pais, mas muitos adultos nem sabem o que os jovens estão fazendo com a tecnologia — Foto: BBC News fonte O Pew Research Center entrevistou 1.458 adolescentes americanos de 13 a 17 anos e seus pais. "Encontramos uma diferença entre o que os pais acreditam estar acontecendo com a IA e o que os adolescentes nos dizem que realmente fazem", diz Anderson.
Quando o Pew perguntou aos pais se seus filhos usam IA, apenas 51% responderam que sim. Na realidade, 64% dos adolescentes dizem usar chatbots.
A organização sem fins lucrativos Common Sense Media encontrou diferenças igualmente drásticas. Milhões de pais não sabem o que acontece nas telas de seus filhos.
Isso faz sentido porque, segundo o Pew, quatro em cada dez pais disseram nunca ter tido uma conversa com seus filhos sobre IA.
Esse é um grande problema, afirma Rachel Barr, professora de desenvolvimento infantil e chefe do departamento de psicologia da Universidade de Georgetown, nos Estados Unidos. "Isso me surpreende", diz Barr. As famílias deveriam lidar com a IA em conjunto, em vez de deixar os adolescentes resolverem isso sozinhos, afirma.
ChatGPT vai estimar a idade de menores após casos de suicídios entre adolescentes Estudo acende alerta: a maioria das pessoas acredita no que o ChatGPT diz, mesmo que esteja totalmente errado Pais de adolescentes processam empresa de Elon Musk por imagens pornográficas geradas por IA Apoio emocional Quando os estudos compararam o que os jovens estavam fazendo com as expectativas de seus pais, encontraram diferenças significativas. Parece que muitos adolescentes estão tomando decisões sobre IA por conta própria.
"Uma minoria significativa de crianças que têm acesso à IA está usando a tecnologia de formas sociais que podem deixar os pais desconfortáveis", diz Michael Robb, chefe de pesquisa do Common Sense.
Entre todas as preocupações dos pais sobre o que seus filhos fazem com chatbots, a busca por companhia se destacou.
Segundo o Pew, 58% dos pais americanos disseram não se sentir confortáveis com seus filhos adolescentes usando IA para apoio emocional, e outros 20% disseram não ter certeza. Mas isso está acontecendo.
"Às vezes eu conto para a IA algo sobre como estou me sentindo, ou sobre alguma situação que pode ter acontecido comigo. E ela me responde colocando a situação em perspectiva ou [explicando] a melhor forma de lidar com a situação", diz Joseph.
"Ela pode, sim, oferecer apoio emocional, mas, claro, é um robô."
Os adolescentes com quem conversei sobre isso são mais conscientes do que se poderia imaginar. Joseph, por exemplo, diz reconhecer que a IA pode estar apenas dizendo o que ela quer ouvir e, por isso, encara os conselhos com cautela.
Ainda assim, a maioria deles, incluindo Joseph, afirma que usar a IA para aconselhamento ou companhia pode ir longe demais.
Vários mencionaram o caso de um garoto de 14 anos que tirou a própria vida após conversas obsessivas com um chatbot.
"Um dos meus amigos, em determinado momento, falava com a IA o tempo todo", diz Kingston Rieben, 16, de San Diego, Califórnia, nos Estados Unidos.
"Às vezes estávamos sentados juntos e o ouvíamos rindo ao nosso lado, digitando coisas no celular."
sem descrição — Foto: BBC News fonte Quando o Pew perguntou a adolescentes nos EUA sobre IA, 12% disseram usá-la para aconselhamento ou apoio emocional, e 16% afirmaram utilizá-la para conversas informais.
Essas proporções podem parecer pequenas, mas ainda assim representam milhões de crianças em todo o país, se a pesquisa for representativa. E há grandes disparidades raciais.
Segundo o estudo, 21% dos adolescentes negros usam IA para apoio emocional, em comparação com 13% dos adolescentes hispânicos e 8% dos adolescentes brancos. (Não havia adolescentes asiáticos suficientes na pesquisa para permitir uma análise separada.)
"Também vemos muitas evidências, a partir de regressões e outras análises, de que a raça se destaca por si só, mesmo quando controlamos outros fatores, como renda", diz Anderson.
O estudo do Pew não abordou as razões para essas diferenças. Barr, da Universidade de Georgetown, sugere que adolescentes com menos redes de apoio podem recorrer à IA como recurso por ser tão acessível, mas afirma que é impossível saber com certeza sem mais pesquisas.
Enquanto os chatbots estiverem disponíveis no mercado, é provável que as pessoas passem a usá-los como amigos e terapeutas. A Associação Americana de Psicologia oferece um guia para pais cujos filhos adolescentes recorrem a chatbots.
Entre as principais recomendações, está a de fazer perguntas em vez de dar sermões e observar sinais de alerta de que os adolescentes estão usando a IA de formas que substituem a interação humana.
Os sinais de uso problemático de IA em adolescentes podem incluir:
• Eles descreverem a IA como sua "melhor amiga" ou principal confidente;
• Ficarem arrasados quando não conseguem acessá-la;
• O desempenho escolar, o sono ou as amizades verdadeiras apresentam piora;
• Usam a IA para evitar conversas difíceis;
• Mudanças notáveis no humor, comportamento ou pensamento.
É recomendado procurar ajuda imediatamente se alguém estiver usando a IA para discutir automutilação, depressão grave ou crises de saúde mental, segundo as recomendações da Associação Americana de Psicologia.
Trabalho e lazer Entre os adolescentes, alguns dos usos mais comuns da IA são os que se poderia esperar. "Eu geralmente uso para estudar", diz Eloise Chu, de 13 anos, de Chatham, em Nova Jersey, nos Estados Unidos.
"Tipo, se tenho uma prova de matemática, coloco um problema que não sei resolver para que ela gere mais questões, assim posso treinar."
Segundo o Pew, o principal uso da IA entre adolescentes é simplesmente buscar informações (como se fazia no Google antigamente, quando eu era adolescente).
Em seguida, vem a ajuda com tarefas escolares. Cerca de metade dos adolescentes nos Estados Unidos afirma usar a IA para pesquisa, e muitos a utilizam para auxílio em matemática e redação.
Um em cada dez adolescentes diz fazer todo ou a maior parte do dever de casa com ajuda da IA. Muitos dos adolescentes com quem conversei afirmam que seus professores incentivam ativamente o uso da tecnologia, com restrições para garantir que ela não prejudique o aprendizado.
sem descrição — Foto: BBC News fonte Quase nenhum dos adolescentes com quem conversei admite colar com o uso de IA. No entanto, quando se pergunta sobre outros estudantes, o quadro é bem diferente — 59% dos adolescentes disseram ao Pew Research Center que alunos em suas escolas usam IA para colar, enquanto 34% afirmaram que isso acontece com uma certa ou muita frequência.
"Já tive colegas que literalmente gritam com o professor: 'Ei, se você não vier responder minha pergunta, eu vou usar a IA para fazer isso por mim'", diz Rieben.
Cash, seu irmão de 14 anos, tem relatos semelhantes. "Na aula de ciências, tivemos que pesquisar um tema e escrever sobre ele, e um dos alunos da minha mesa simplesmente copiou tudo o que a IA disse", afirma. "Mas depois ele não conseguia ler a própria letra e nem lembrava o que tinha escrito."
Mas não é só estudo e cola: 47% dos adolescentes americanos disseram usar a IA para entretenimento. Chu, por exemplo, afirma que se diverte bastante usando IA para gerar imagens de pinguins e panquecas, duas de suas coisas favoritas. Prometi a ela que tentaria fazer o mesmo. Posso dizer que é tão bom quanto ela descreveu.
Conflitos de percepção Algumas das maiores diferenças apontadas no estudo dizem respeito a como pais e adolescentes encaram a IA — e nem tudo são más notícias. Há uma grande divisão geracional, e existem boas razões para otimismo, desde que se aceite que os jovens não são completamente alheios ao tema.
Segundo um estudo do Common Sense Media, 52% dos pais dizem que usar a IA em trabalhos escolares é "antiético e deveria ter consequências".
Mas, ao perguntar aos adolescentes, exatamente o mesmo percentual afirma que usar a IA para tarefas escolares é "inovador e deveria ser incentivado".
Ou os jovens estão deixando passar algo, ou os pais estão.
"Sinto que os adultos podem achar que as crianças só usam IA de forma inadequada, para colar nas tarefas e coisas assim", diz Chu.
"Não acho que a maioria faça isso." (A mãe de Chu disse que se sente confortável com a forma como seus filhos usam IA.)
Mas, de modo geral, os adolescentes parecem mais à vontade com as ferramentas.
A Common Sense Media constatou que 92% dos jovens dizem conseguir distinguir quando estão interagindo com um sistema de IA ou com um ser humano, em comparação com 73% dos pais.
Segundo o Pew Research Center, quase seis em cada dez adolescentes afirmam estar confiantes em sua capacidade de usar chatbots, e um quarto disse estar muito ou extremamente confiante.
"As crianças costumam estar na linha de frente das novas tecnologias e se sentem mais confortáveis em testar os limites do que essas tecnologias podem fazer", afirma Robb.
A maioria dos adolescentes não compartilha a visão catastrófica sobre IA que preocupa muitos adultos. Quando questionados pelo Pew Research Center, 36% disseram esperar que a IA tenha um impacto positivo em suas vidas no longo prazo, e apenas 15% preveem um impacto negativo.
Os pais não precisam ter todas as respostas, diz Robb, mas precisam começar a fazer perguntas. "Não há problema em pedir aos seus filhos que mostrem como estão usando a IA em suas vidas", afirma. "No mínimo, isso já abre espaço para uma conversa."
A Confederação Nacional dos Estabelecimentos de Ensino (Confenem) ingressou com uma ação no Supremo Tribunal Federal (STF) em que contesta a metodologia de punições decorrentes da inclusão de fatores de risco psicossociais no ambiente de trabalho em norma regulamentadora (NR) do Ministério do Trabalho e Emprego (MTE). A Arguição de Descumprimento de Preceito Fundamental (ADPF) 1316 foi distribuída ao ministro André Mendonça.
A NR-1 trata do Gerenciamento de Riscos Ocupacionais (GRO). A alteração, que passa a vigorar em 25/5, adiciona os fatores psicossociais ao inventário de riscos ocupacionais, ao lado dos já reconhecidos riscos físicos, químicos, biológicos, de acidentes e ergonômicos. De acordo com o MTE, os fatores psicossociais estão ligados à maneira como as atividades são planejadas, organizadas e executadas. Quando não são bem conduzidas, elas podem prejudicar a saúde mental, física e social dos trabalhadores. Exemplos incluem metas impossíveis de cumprir, excesso de trabalho, assédio moral, falta de apoio dos chefes, tarefas repetitivas ou solitárias, desequilíbrio entre esforço e recompensa e falhas na comunicação.
A iniciativa busca preparar os profissionais para o período de comprovação da Condicionalidade V da complementação Valor Aluno Ano Redução de Desigualdades (VAAR) do Fundo de Manutenção e Desenvolvimento da Educação Básica e de Valorização dos Profissionais da Educação (Fundeb).
Essa condicionalidade exige que redes de ensino municipais, estaduais e do Distrito Federal possuam referenciais curriculares alinhados à BNCC e que, a partir de agora, incluam as competências previstas em seu complemento, nos eixos de pensamento computacional, mundo digital e cultura digital. A comprovação deve ser feita no Sistema Integrado de Monitoramento, Execução e Controle do Ministério da Educação (Simec) para habilitar o recebimento dos recursos, com foco na atualização curricular.
A medida busca garantir que os estudantes desenvolvam competências, habilidades e conhecimentos específicos essenciais para compreender, utilizar e conviver com as tecnologias de forma crítica, ética e responsável, fortalecendo o direito à aprendizagem no mundo digital. A implementação das diretrizes é obrigatória e deve ser feita em regime de colaboração entre estados e municípios.
Para apoiar esse processo, o MEC vem atuando, desde 2023, por meio da Estratégia Nacional de Escolas Conectadas (Enec), que articula ações de conectividade, currículo, formação docente e apoio pedagógico às redes de ensino. Entre as iniciativas, destacam-se a assessoria técnica aos estados e municípios, a oferta de cursos de educação digital e midiática na plataforma AVAMEC e a disponibilização de materiais orientadores para atualização curricular.
Fundeb – O Fundo de Manutenção e Desenvolvimento da Educação Básica e de Valorização dos Profissionais da Educação é composto por recursos provenientes de impostos e transferências constitucionais dos entes federados vinculados à educação, bem como da União, por meio das complementações VAAR, Valor Aluno-Ano Fundeb (VAAF) e Valor Aluno-Ano Total (VAAT). Todo o Fundeb está voltado, de algum modo, para a redução das desigualdades.
A partir disso, o tema ganha sua dimensão mais tecnológica. O ECA Digital obriga lojas de apps e sistemas operacionais a adotarem medidas proporcionais, auditáveis e tecnicamente seguras para aferir idade ou faixa etária, além de prever APIs para o envio de sinal de idade com minimização de dados. Também veta o uso de técnicas de criação de perfis de usuários para publicidade comercial direcionada a menores e proíbe o emprego de análise emocional, realidade aumentada, realidade estendida e realidade virtual para direcionamento de anúncios. Em outras palavras, a regulação saiu do campo abstrato e ganhou força para interferir nos algoritmos e na Inteligência Artificial.
O Exame Nacional do Ensino Médio (Enem) será usado para avaliar a educação brasileira. As provas anuais que, tradicionalmente, servem como principal porta de entrada na educação superior no Brasil, passam a ter a função de avaliar as competências e habilidades esperadas para o fim da educação básica.
A alteração nas atribuições do exame está no decreto presidencial 12.915 assinado pelo presidente Luiz Inácio Lula da Silva, nesta segunda-feira (30), em Brasília, e publicado na edição do Diário Oficial da União desta terça-feira (31).
O fundo de investimento em participações (FIP) IG4 BTG Pactual Health Infra foi escolhido, nesta segunda-feira (30), para assumir a gestão de infraestrutura e serviços de 95 escolas públicas de Minas Gerais pelos próximos 25 anos.
As rivais OpenAI, Anthropic e Google, da Alphabet, começaram a trabalhar juntos para tentar conter concorrentes chineses que estariam extraindo resultados de modelos avançados de inteligência artificial dos EUA para ganhar vantagem na corrida global de IA.
As empresas estão compartilhando informações por meio do Frontier Model Forum, uma organização sem fins lucrativos do setor fundada em 2023 pelas três companhias de tecnologia em parceria com a Microsoft, para detectar as chamadas tentativas de “destilação adversária” que violam seus termos de serviço, segundo pessoas familiarizadas com o assunto.
Essa colaboração rara destaca a gravidade de uma preocupação levantada por empresas americanas de IA de que alguns usuários, especialmente na China, estariam criando versões imitadas de seus produtos, capazes de competir com preços mais baixos e atrair clientes, além de representar um risco à segurança nacional.
Autoridades dos EUA estimam que a destilação não autorizada custe bilhões de dólares por ano em lucros às empresas do Vale do Silício, de acordo com uma fonte que falou sob condição de anonimato.
A OpenAI confirmou que participa do compartilhamento de informações sobre destilação adversarial por meio do Frontier Model Forum e apontou para um memorando recente enviado ao Congresso, no qual acusou a empresa chinesa DeepSeek de tentar “se aproveitar das capacidades desenvolvidas pela OpenAI e outros laboratórios de ponta dos EUA”. Google, Anthropic e o Frontier Model Forum se recusaram a comentar.
A destilação é uma técnica em que um modelo de IA mais antigo (“professor”) é usado para treinar um modelo mais novo (“aluno”), que replica as capacidades do sistema anterior — muitas vezes a um custo muito menor do que desenvolver um modelo original do zero. Algumas formas de destilação são amplamente aceitas e até incentivadas por laboratórios de IA, como quando empresas criam versões menores e mais eficientes de seus próprios modelos ou permitem que desenvolvedores externos utilizem a técnica para criar tecnologias não competitivas.
Ainda assim, a destilação se torna controversa quando utilizada por terceiros — especialmente em países considerados adversários, como China ou Rússia — para replicar trabalhos proprietários sem autorização. Os principais laboratórios de IA dos EUA alertam que adversários estrangeiros poderiam usar essa técnica para desenvolver modelos sem mecanismos de segurança, como limites que impediriam a criação de patógenos perigosos.
A maioria dos modelos produzidos por laboratórios chineses é de código aberto (open weight), o que significa que partes do sistema de IA estão disponíveis publicamente para download e execução em plataformas próprias, tornando-os mais baratos de usar.
Isso representa um desafio econômico para empresas americanas, que mantêm seus modelos proprietários e contam com pagamentos de clientes para compensar os enormes investimentos em data centers e infraestrutura.
A destilação ganhou grande atenção em janeiro de 2025, após o lançamento surpreendente do modelo de raciocínio R1 da DeepSeek, que chamou a atenção global. Logo depois, Microsoft e OpenAI investigaram se a startup chinesa teria extraído indevidamente grandes volumes de dados dos modelos da empresa americana para criar o R1, segundo reportagem anterior da Bloomberg.
Em fevereiro, a OpenAI alertou legisladores dos EUA de que a DeepSeek continuava usando táticas cada vez mais sofisticadas para extrair resultados dos modelos americanos, apesar dos esforços para evitar o uso indevido. A empresa afirmou em seu memorando ao Comitê Especial da Câmara sobre a China que a DeepSeek estaria usando destilação para desenvolver uma nova versão de seu chatbot.
O compartilhamento de informações entre empresas de IA dos EUA sobre destilação adversarial segue uma prática comum no setor de cibersegurança, em que companhias trocam dados sobre ataques e táticas de adversários para fortalecer suas defesas. Trabalhando juntas, essas empresas buscam detectar melhor essa prática, identificar responsáveis e impedir seu sucesso.
Autoridades do governo Trump sinalizaram sua abertura para incentivar esse tipo de cooperação entre empresas de IA. O Plano de Ação em IA, apresentado pelo presidente Donald Trump no ano passado, previa a criação de um centro de compartilhamento e análise de informações, em parte com esse objetivo.
Por enquanto, o compartilhamento de informações sobre destilação ainda é limitado devido à incerteza das empresas sobre o que pode ser compartilhado sob as regras antitruste existentes ao enfrentar a concorrência chinesa, segundo fontes. As empresas se beneficiariam de maior clareza por parte do governo dos EUA.
A destilação tornou-se uma das principais preocupações dos desenvolvedores americanos desde que a DeepSeek impactou os mercados globais no início de 2025 com o lançamento do R1. Modelos de código aberto altamente avançados continuam se expandindo na China, e o setor acompanha de perto possíveis atualizações importantes do modelo da DeepSeek.
No ano passado, a Anthropic bloqueou empresas controladas por chineses de usar seu chatbot Claude e, em fevereiro, identificou três laboratórios chineses — DeepSeek, Moonshot e MiniMax — como responsáveis por extrair ilegalmente capacidades do modelo via destilação.
Neste ano, a empresa afirmou que a ameaça “vai além de uma única companhia ou região” e representa um risco à segurança nacional, já que modelos destilados frequentemente não possuem mecanismos de segurança adequados para evitar usos maliciosos.
O Google afirmou em um blog ter identificado um aumento nas tentativas de extração de modelos. As três empresas americanas ainda não apresentaram evidências de quanto da inovação em IA na China depende da destilação, mas observam que a frequência dos ataques pode ser medida pelo volume de grandes solicitações de dados.
Alpha is a network of techy private schools that uses a bundle of apps to deliver core academic instruction. They are all over the news, largely fueled by boasts of using AI to teach efficiently. This is the “2 Hour Learning” promise: that math, reading, writing, and science instruction can happen in a tight two-hour window that leaves the afternoon wide open for fencing, knitting, rock climbing, biking, jogging, petting a horse, and so on.
To get content containing either thought or leadership enter:
To get content containing both thought and leadership enter:
To get content containing the expression thought leadership enter:
You can enter several keywords and you can refine them whenever you want. Our suggestion engine uses more signals but entering a few keywords here will rapidly give you great content to curate.