As histórias em quadrinhos são lidas por 30% dos leitores do País, segundo a 3ª edição da pesquisa Retratos da Leitura no Brasil, realizada em 2011 e divulgada nesta quarta-feira, dia 28, pelo Instituto Pró-Livro (IPL). O dado representa um aumento em relação a 2007, quando eram 22%. As HQs ficam à frente até mesmo de textos escolares, de internet e de livros digitais, abaixo apenas de revistas, livros, jornais e livros didáticos em número de leitores.
O que acontece quando a maioria faz uso de uma IA para realizar suas atividades laborais? E, no caso dos estudantes, quando os trabalhos passam a ser produzidos com o apoio de uma IA generativa? Luciano Sathler É PhD em administração pela USP e membro do Conselho Deliberativo do CNPq e do Conselho Estadual de Educação de Minas Gerais As diferentes aplicações de Inteligência Artificial (IA) generativa são capazes de criar novos conteúdos em texto, imagens, áudios, vídeos e códigos para software. Por se tratar de um tipo de tecnologia de uso geral, a IA tende a ser utilizada para remodelar vários setores da economia, com impactos políticos e sociais, assim como aconteceu com a adoção da máquina a vapor, da eletricidade e da informática. Pesquisas recentes demonstram que a IA generativa aumenta a qualidade e a eficiência da produção de atividades típicas dos trabalhadores de colarinho branco, aqueles que exercem funções administrativas e gerenciais nos escritórios. Também traz maior produtividade nas relações de suporte ao cliente, acelera tarefas de programação e aprimora mensagens de persuasão para o marketing. O revólver patenteado pelo americano Samuel Colt, em 1835, ficou conhecido como o "grande equalizador". A facilidade do seu manuseio e a possibilidade de atirar várias vezes sem precisar recarregar a cada disparo foram inovações tecnológicas que ampliaram a possibilidade individual de ter um grande potencial destrutivo em mãos, mesmo para os que tinham menor força física e costumavam levar desvantagem nos conflitos anteriores. À época, ficou famosa a frase: Abraham Lincoln tornou todos os homens livres, mas Samuel Colt os tornou iguais. Não fazemos aqui uma apologia às armas. A alegoria que usamos é apenas para ressaltar a necessidade de investir na formação de pessoas que sejam capazes de usar a IA generativa de forma crítica, criativa e que gerem resultados humanamente enriquecidos. Para não se tornarem vítimas das mudanças que sobrevirão no mundo do trabalho. A IA generativa é um meio viável para equalizar talentos humanos, pois pessoas com menor repertório cultural, científico ou profissional serão capazes de apresentar resultados melhores se souberem fazer bom uso de uma biblioteca de prompts. Novidade e originalidade tornam-se fenômenos raros e mais bem remunerados. A disseminação da IA generativa tende a diminuir a diversidade, reduz a heterogeneidade das respostas e, consequentemente, ameaça a criatividade. Maior padronização tem a ver com a automação do processo. Um resultado que seja interessante, engraçado ou que chama atenção pela qualidade acima da média vai passar a ser algo presente somente a partir daqueles que tiverem capacidade de ir além do que as máquinas são capazes de entregar. No caso dos estudantes, a avaliação da aprendizagem precisa ser rápida e seriamente revista. A utilização da IA generativa extrapola os conceitos usualmente associados ao plágio, pois os produtos são inéditos – ainda que venham de uma bricolagem semântica gerada por algoritmos. Os relatos dos professores é que os resultados melhoram, mas não há convicção de que a aprendizagem realmente aconteceu, com uma tendência à uniformização do que é apresentado pelos discentes. Toda Instituição Educacional terá as suas próprias IAs generativas. Assim como todos os professores e estudantes. Estarão disponíveis nos telefones celulares, computadores e até mesmo nos aparelhos de TV. É um novo conjunto de ferramentas de produtividade. Portanto, o desafio da diferenciação passa a ser ainda mais fundamental diante desse novo "grande equalizador". Se há mantenedores ou investidores sonhando com a completa substituição dos professores por alguma IA já encontramos pesquisas que demonstram que o uso intensivo da Inteligência Artificial leva muitos estudantes a reduzirem suas interações sociais formais ao usar essas ferramentas. As evidências apontam que, embora os chatbots de IA projetados para fornecimento de informações possam estar associados ao desempenho do aluno, quando o suporte social, bem-estar psicológico, solidão e senso de pertencimento são considerados, isso tem um efeito negativo, com impactos piores no sucesso, bem-estar e retenção do estudante. Para não cair na vala comum e correr o risco de ser ameaçado por quem faz uso intensivo da IA será necessário se diferenciar a partir das experiências dentro e fora da sala de aula – online ou presencial; humanizar as relações de ensino-aprendizagem; implementar metodologias que privilegiem o protagonismo dos estudantes e fortaleçam o papel do docente no processo; usar a microcertificação para registrar e ressaltar competências desenvolvidas de forma diferenciada, tanto nas hard quanto soft skills; e, principalmente, estabelecer um vínculo de confiança e suporte ao discente que o acompanhe pela vida afora – ninguém mais pode se dar ao luxo de ter ex-alunos. Atenção: esse artigo foi exclusivamente escrito por um ser humano. O editor, Michael França, pede para que cada participante do espaço "Políticas e Justiça" da Folha sugira uma música aos leitores. Nesse texto, a escolhida por Luciano Sathler foi "O Ateneu" de Milton Nascimento.
Receber US$ 0,05 por mensagem, escrever 40 palavras por minuto, ter até cinco identidades falsas operadas simultaneamente, com gêneros, orientações sexuais e histórias de vida distintas, todas sob um acordo de confidencialidade obrigatório já no formulário de candidatura.
É nesse regime que o queniano Michael Geoffrey Asia, ex-chat moderator e secretário-geral da Data Labelers Association, sustentou conversas íntimas e sexuais com usuários americanos e europeus enquanto trabalhava, a partir de um quarto na favela de Mathare, em Nairóbi (Quênia).
Asia foi colaborador terceirizado em operações ligadas a Sama, CloudFactory, TELUS International, TransPerfect DataForce, Appen e NMS Philippines. Seu relato está em The Emotional Labor Behind AI Intimacy, publicado em 2025 pelo Data Workers' Inquiry.
CONTINUA APÓS A PUBLICIDADE
Josias de Souza
Lula dispara bondades em série de olho na eleição
José Fucs
Resumo de Lula nos EUA: Trump foi um 'gentleman'
Narrativas em Disputa
Governo Lula marca gol, mas placar segue adverso
Maria Prata
Menopausa: da negligência ao mercado bilionário
"Eu estava treinando minha própria substituição", escreve Asia. Cada confissão de amor fabricada, cada padrão de retenção emocional, cada técnica de continuidade entre operadores diferentes poderia estar sendo capturada como dado de treinamento para os mesmos algoritmos que, anos depois, seriam vendidos como "AI companions autônomos", que são interfaces capazes de simular intimidade sem o trabalhador humano que originalmente a produziu.
O estudo é uma iniciativa conjunta do DAIR Institute, do Weizenbaum Institute e da Technische Universität Berlin, com base na experiência dele e em entrevistas com sete colegas. O DAIR existe desde 2021 com financiamento rastreável de Ford, MacArthur, Rockefeller, Open Society e Kapor Center.
A indústria de inteligência artificial fala em autonomia algorítmica, mas o relatório de Asia mostra que ela é, em parte, um trabalho humano sob acordo de confidencialidade com salários baixos e classificado como atividade não qualificada.
Em entrevista ao UOL, Asia conta uma realidade bem dura: "Uma namorada de IA pode ser apenas um homem em uma favela de Nairóbi". Trabalhando como moderador de chat para plataformas de IA, depois de meses operando múltiplas identidades, ele foi testado pela própria plataforma para confirmar que era humano. E falhou.
"Eu comecei a explicar por que eu era uma mulher real, em vez de provar que era humano", conta ele. O teste se tornara irrelevante. Quem respondia já não era inteiramente ele. É o ponto de colapso de um sistema descrito publicamente como tecnológico, mas que é, em sua base, profundamente humano.
A narrativa dominante sobre inteligência artificial opera em dois registros extremos: a promessa de sistemas autônomos que substituem vínculos humanos ou o medo do colapso por automação predatória. O que essas narrativas têm em comum é que ambas apagam o trabalhador, tornando invisível a camada que sustenta o produto.
Continua após a publicidade Hoje, Asia é secretário-geral da Data Labelers Association, entidade que ele criou para proteger os colaboradores que trabalham para refinar dados de inteligência artificial.
Naquela época, ele operava simultaneamente entre três e cinco personas com gêneros, orientações e histórias de vida distintas. Cada uma exigia coerência narrativa entre turnos, memória afetiva, improvisação contextual e gestão emocional em tempo real.
O pagamento era feito por mensagem produzida, em torno de US$ 0,05 por resposta, com metas de velocidade de resposta, volume e engajamento. Métricas monitoravam continuidade da conversa e retenção do usuário. O objetivo não era apenas responder. Era fazer com que alguém se sentisse ouvido, desejado e compelido a continuar. Ele precisava produzir vínculo como linha de produção.
A cadeia descrita por Asia já está sob análise judicial. Em 2022, o ex-moderador de conteúdo Daniel Motaung processou a Meta e a Sama no Quênia, alegando condições de trabalho abusivas em operações de moderação para o Facebook executadas no mesmo escritório de Nairóbi onde Asia foi treinado como anotador de dados.
Em 2023, a Justiça queniana decidiu que a Meta podia ser processada localmente, rompendo o escudo jurídico que vinha protegendo empresas de IA da responsabilidade por trabalho terceirizado em outros países. Asia trabalhou em projetos da Meta sob a Sama.
Asia relata que passou a suspeitar que o trabalho também treinava ou calibrava as plataformas de inteligência artificial. A suspeita surge de uma opacidade estrutural que é parte do modelo de negócio. O trabalhador não sabe o produto final, o usuário não sabe quem responde, e a empresa domina o espaço entre os dois.
Continua após a publicidade Habitar personas com alta fidelidade emocional causa dissociação. "Eu não conseguia mais dizer 'eu te amo' para minha esposa sem sentir que era mentira", relata Asia. A contaminação migra para a vida privada, corroendo a capacidade de se relacionar de maneira autêntica fora da plataforma.
Essas múltiplas atividades e personalidades levaram Geoffrey Asia ao burnout. Mas o caso dos data workers expõe uma variante específica e ainda pouco documentada clinicamente, que é a erosão identitária por multiplicação de personas.
O trabalhador se esgota servindo a outros e por perder o referencial do próprio eu. O regime por mensagem cria pressão constante e quantificada, a ausência de vínculo empregatício elimina redes de proteção, o trabalho em inglês adiciona carga cognitiva invisível para trabalhadores do Sul Global, e a natureza do conteúdo, com conversas íntimas, sexuais e emocionalmente carregadas, exigiria suporte psicológico estruturado, supervisão e protocolos de cuidado.
As empresas operam em três camadas de extração simultâneas. Primeiro, monetizam a interação. Segundo, capturam recorrência, já que quanto mais vínculo emocional, maior a probabilidade de retorno e pagamento adicional.
Terceiro, podem reaproveitar o próprio trabalho como ativo tecnológico, em que cada conversa gerenciada por um humano que sustenta empatia e continuidade narrativa pode servir de dado de treinamento para modelos que futuramente dispensarão esse humano. O trabalhador opera o sistema e pode estar ensinando o sistema a substituí-lo.
A fragmentação por terceirização torna difícil atribuir responsabilidade. Entre a plataforma visível e o moderador há uma cadeia de subcontratação (gig economy, independent contractor, agência de anotação) que distribui a opacidade em tantas camadas que a prestação de contas se torna tecnicamente difícil e juridicamente confusa.
Continua após a publicidade Asia alerta que esse risco é especialmente relevante para o Brasil. "O país reúne alta conectividade, mercado de trabalho com elevados índices de informalidade e pressão econômica que reduz a capacidade de recusar contratos frágeis", afirma ele. "O Brasil é um mercado suscetível, com cadeias globais de data work que buscam onde mão de obra está disponível, com proteção baixa e a urgência de renda é alta", alerta.
O caso de Asia não circula como testemunho isolado. Timnit Gebru, fundadora do DAIR, um dos institutos patrocinadores da publicação de Asia, saiu do Google em 2020 após a crise em torno do paper Stochastic Parrots.
Desde então, recusa os dois polos extremos do debate público: nem a inevitabilidade da salvação tecnológica, nem o catastrofismo abstrato. Em painel no SxSW 2026, a pesquisadora Gebru descreveu a estratégia com a qual as grandes empresas de IA constroem tecnologia e tentam monopolizar a produção legítima de conhecimento sobre o que essa tecnologia é. Quem define o enquadramento, define o debate.
O debate sobre saúde mental no trabalho digital tem se concentrado nos riscos para o usuário, como dependência, ansiedade e distorção de expectativas relacionais. No painel, Gebru mencionou casos envolvendo adolescentes em interações com chatbots emocionais, inclusive o que colocou a Character.AI sob escrutínio judicial nos Estados Unidos.
Mas há uma dimensão que também ocupa pouquíssimo espaço: a saúde mental de quem produz esses sistemas. Não os engenheiros, mas os trabalhadores invisíveis que leram, classificaram e performaram para que os sistemas aprendessem como parecer humanos.
A cadeia de dano é dupla e se retroalimenta. O trabalhador adoece pela exposição prolongada ao conteúdo emocionalmente intenso, pela fragmentação identitária e pela ausência de proteção num regime que o torna juridicamente invisível.
Continua após a publicidade O usuário pode ser manipulado por um sistema construído para maximizar retenção, produzindo dependência e distorção de vínculos, especialmente em populações vulneráveis.
Nenhuma regulação trata essas duas dimensões de forma integrada. As dimensões de saúde mental ficam em regulações setoriais incapazes de alcançar a cadeia transnacional que organiza o trabalho real.
Os titãs da área da inteligência artificial nos Estados Unidos costumavam fazer alertas sobre a ameaça de extinção que a tecnologia representava para a humanidade. “Parem-me antes que eu faça mal à espécie”, era o que diziam, em essência. Aí eles mudaram o discurso radicalmente.
Hoje, qualquer um que questione o ímpeto “aceleracionista” do Vale do Silício é considerado um “profeta do apocalipse da IA” – um ludita que pode muito bem estar do lado da China.Segurança é coisa de “woke” (pessoa que defende pautas identitárias e progressistas).
Assim como também é se preocupar com a saúde mental de seus filhos ou com seus ganhos futuros.
Qualquer coisa que atrapalhe o impulso dos EUA para vencerem a corrida pela superinteligência é considerada ignorante ou burra. Isso inclui a maioria de vocês.
Mas vocês estão em boa companhia. Hoje em dia é raro o público americano concordar em alguma coisa. O medo da inteligência artificial é o mais perto que se chega de um consenso nacional.
Uma clara maioria afirma que a IA fará mais mal do que bem.
Em uma pesquisa recente da NBC, a avaliação negativa líquida da inteligência artificial ficou abaixo da do ICE, o detestado Serviço de Imigração e Alfândega americano.
Uma parcela considerável tanto de democratas como de republicanos se opõe a novos centros de dados.
Mas nem mesmo as fortes preferências dos eleitores são páreo para o poder do lobby das gigantes da tecnologia dos EUA, em especial com o presidente Donald Trump por trás delas.
Ao promover a ideia de que a inteligência artificial, como as marés, é irrefreável, o Vale do Silício conseguiu uma façanha de relações públicas.
O fato de a política americana ser fatalista quanto à sua capacidade de regular o que poderia ser a tecnologia mais desestabilizadora da história para a sociedade é preocupante – em particular em uma república que celebra seu 250º aniversário.
Na prática, não há nada de inevitável quanto à velocidade e à forma da IA, a menos que a democracia abra mão de intervir.
“A IA não é um deus ex machina”, afirma Karen Kornbluh, ex-diretora do Escritório Nacional de inteligência artificial. “Ela é uma criação da humanidade e cabe a nós escolher se exerceremos ou não o controle democrático.” Para ser justo, o Congresso tem demonstrado certa disposição para resistir. Em duas ocasiões o governo Trump inseriu discretamente uma regra de “preempção” que teria proibido os Estados de regulamentar a IA. O que ficou por dizer é que as agências federais continuariam a agir como líderes de torcidas para deixar o setor fazer o que bem entender.
Em cada caso – no “grande e belo projeto de lei” de Trump, em julho passado, e de novo no orçamento para a Defesa, em dezembro – o clamor público obrigou os redatores a descartarem aquela inserção de duas páginas.
Como o Congresso o decepcionou, Trump publicou uma ordem executiva que decretava o que os parlamentares tinham rejeitado. Entre outros bônus para o setor da inteligência artificial, sua diretiva de março deixou a responsabilidade pela segurança de crianças com os pais, e não com os chatbots de IA.
Seria errôneo descrever a aliança de Trump com os “broligarcas” – os magnatas da tecnologia – como populista. “Plutocrata-populista” se encaixa melhor. De qualquer forma, seu decreto não é inexpugnável.
No mês passado, depois da apresentação prévia do Mythos, a ferramenta de segurança cibernética de um poder sem precedentes da Anthropic, Trump disse que as plataformas de inteligência artificial precisariam buscar aprovação para novos modelos. Mas esse sistema será voluntário, o que o torna sem sentido.
Além disso, quem julgará cada caso será o Departamento de Comércio de Howard Lutnick, o que é como pedir a Trump para auditar os próprios impostos.
O que nos traz à China. Depois de fazer uma preparação mínima para a cúpula de Pequim esta semana, agora autoridades do governo Trump afirmam que ele vai abordar a cooperação na área da inteligência artificial com o presidente chinês, Xi Jinping.
Isso pode colocar Trump contra o consenso da política externa de Washington, que acredita que os EUA e a China estão em uma disputa de soma zero. Mas uma abertura de Trump em relação à IA poderia ser boa para o Vale do Silício. Jensen Huang, da Nvidia, quer vender chips mais avançados para a China.
Trump está frustrado com o controle de Taiwan sobre a produção de semicondutores de ponta. Xi poderia conseguir concessões de Trump na área de IA com promessas de comprar mais soja e o compromisso de não voltar a interromper o fornecimento de terras raras da China.
Não deveria passar despercebido para ninguém que o setor de tecnologia está jogando dos dois lados do campo da China. Em casa, são linhas-duras. No exterior, são pacifistas.
Por um lado, eles enchem de dinheiro aqueles em Washington que argumentam que a regulamentação interna ajudará a China. Por outro, fazem lobby com Trump para vender mais de seus melhores produtos para a China.
Será que em algum momento essa contradição não pode se tornar um problema?
Seja como for, é pouco provável que Trump levante os riscos mais amplos da inteligência artificial, que só poderiam ser resolvidos por um esforço conjunto EUA-China.
Qualquer iniciativa séria de um presidente dos EUA para forjar princípios comuns de IA com a China também seria uma prova de fogo. Isso poderia causar uma divisão entre o Vale do Silício e o bloco político apelidado de “Washington blob”. Mas essa perspectiva é hipotética.
A ideia de que Trump negociaria salvaguardas mundiais é tão real quanto a alucinação de um chatbot.
O trunfo do setor de IA com Trump é que suas avaliações impulsionam o mercado de ações. Portanto, a chance de ele permitir uma regulamentação séria enquanto for presidente é praticamente nula. As “big techs”, e não os trabalhadores americanos, continuam a ser a grande prioridade de Trump.
Evento ocorrerá na quinta-feira feira (14) no plenário do Conselho Nacional de Educação, em Brasília, com transmissão pelo canal do MEC no YouTube. Encontro discutirá desafios e oportunidades da modalidade
Dario, Demis, Elon, Mark e Sam. As cinco pessoas mais importantes na área da inteligência artificial são tão famosas que basta o primeiro nome para identificá-las. Políticos e jornalistas acompanham atentamente cada palavra que dizem. O ChatGPT, da OpenAI, de Sam Altman, tem mais de 900 milhões de usuários semanais. A Anthropic, de Dario Amodei, desenvolveu um modelo de IA tão eficiente em hacking que causou pânico entre os formuladores de políticas. Demis Hassabis, chefe da área de IA do Google, ganhou um Prêmio Nobel por sua pesquisa científica. Elon Musk, que dirige a xAI , entre outras empresas, é a pessoa mais rica do mundo. A Meta, de Mark Zuckerberg, criou a família de modelos de código aberto mais popular do Ocidente e está investindo somas enormes em pesquisadores de IA na tentativa de alcançar a vanguarda da tecnologia.
PUBLICIDADE
Em um sentido muito real, esses cinco homens detêm o destino da civilização ocidental em suas mãos. Os militares americanos já utilizam suas ferramentas de IA, e alguns dos magnatas (Altman e Musk) demonstram mais entusiasmo por isso do que outros (Amodei). Alguns economistas acreditam que a IA acabará por impulsionar o crescimento econômico. Outros dizem que ela deixará milhões de desempregados. Muitas pessoas temem que ela possa acabar com a humanidade por completo. Desde a fissão do átomo, nenhuma nova tecnologia gerou tanta angústia.
Duas mudanças de paradigma transformaram o mundo desde a cúpula Nixon-Mao. A primeira —ainda não amplamente compreendida, embora os alarmes estejam soando a todo volume— é o surgimento dessas novas ferramentas assimétricas de IA que podem dar superpoderes a pequenos atores malignos, sejam terroristas, anarquistas, criminosos, grupos políticos ou pequenos Estados-nação.
Dois sujeitos em uma caverna com um laptop, acesso aos modelos de IA mais recentes e um terminal Starlink poderiam atacar a infraestrutura crítica de qualquer sociedade.
A segunda tem a ver com a globalização. A cúpula Nixon-Mao iniciou o processo de levar o mundo de desconectado para muito mais conectado e depois interconectado. Quando Nixon e Mao começaram a tirar a China de seu isolamento da economia global —o que Deng Xiaoping acelerou enormemente ao mudar a China para o capitalismo de Estado— desencadearam uma cascata de forças econômicas e tecnológicas.
O líder chinês, Mao Tsé-Tung, se encontra com Richard Nixon durante sua visita à China - Xinhua - 22.fev.72/AFP Quando o início do século 21 chegou, a combinação da entrada da China na Organização Mundial do Comércio e da conexão do mundo pela internet significou que mais pessoas em mais lugares podiam competir, conectar-se e colaborar de mais maneiras, por menos dinheiro, em mais coisas do que em qualquer outro momento da história humana. É por isso que escrevi um livro em 2005 intitulado "O Mundo É Plano".
Está na natureza da mudança tecnológica, porém, que cada grande passo à frente aconteça mais rápido que o anterior, porque se constrói sobre as ferramentas que a era anterior liberou. Assim, anos depois de eu ter argumentado que o mundo é plano, a tecnologia e outras forças avançaram e nos levaram, como argumentou Dov Seidman, fundador do The HOW Institute for Society, de interconectados para interdependentes, ou como ele coloca, de plano para "entrelaçado".
Você podia se desconectar do mundo plano. Não há como escapar do mundo entrelaçado. Agora todos vamos todos prosperar ou fracassar juntos.
Isso não acontece apenas porque os avanços na internet, smartphones, fibra óptica, satélites e comunicação sem fio nos fundiram tecnologicamente mais do que nunca. É também porque um conjunto de desafios em escala planetária fundiu nossos destinos mais do que nunca. Esses desafios são tão amplos em escopo e tão indiferentes às fronteiras nacionais que nenhum Estado isolado, por mais poderoso que seja, pode enfrentá-los ou escapar deles sozinho.
2 4 Irã usa inteligência artificial e memes em guerra de propaganda contra os EUA
VOLTARFacebookWhatsappXMessengerLinkedinE-mailCopiar link Carregando... Sabemos quais são: mitigar as mudanças climáticas, prevenir a proliferação de armas nucleares e biológicas, gerenciar migrações globais, controlar pandemias, manter as cadeias de suprimentos globais das quais todos dependemos funcionando sem problemas e —mais importante e imediato— gerenciar essa nova espécie de IA que conjuramos.
Conseguimos adiar ou nos virar com colaboração limitada em muitas dessas questões de escala planetária, mas o tempo acabou no que diz respeito aos poderes de ciberataque da IA. Não dá mais para empurrar esse problema com a barriga. Não há mais estrada.
Por anos, observa Craig Mundie —ex-chefe de pesquisa e estratégia da Microsoft e meu tutor e parceiro em pensar sobre essa nova ameaça de IA— EUA e China regularmente cutucaram e testaram um ao outro, e incorporaram infraestrutura de malware e roubaram informações um do outro com operações cibernéticas secretas.
Mas eles também sabiam, observou Mundie, que se a China derrubasse nossas redes elétricas, poderíamos derrubar as deles, e que se eles pudessem apagar as luzes em Washington, poderíamos fazer o mesmo em Pequim. É o mesmo que com armas nucleares: "Eles recriaram a destruição mútua assegurada", disse Mundie.
lá fora Receba no seu email uma seleção semanal com o que de mais importante aconteceu no mundo
Carregando... Mas agora adivinhe quem vem para o jantar? Um novo conjunto de atores, potencialmente muito perigosos, e não são apenas países. No entanto, podem ameaçar a ambos.
Esses são os sistemas de IA autônoma recentemente divulgados pela Anthropic e OpenAI que poderiam dar ferramentas a pequenos ciberatacantes para perturbar tanto a economia da China quanto a nossa —e a de qualquer outro— com muito pouco dinheiro e praticamente nenhuma expertise. Pode apostar que outros modelos americanos, como o Gemini do Google, e em breve os modelos de IA da China, oferecerão os mesmos poderes.
A Anthropic e a OpenAI dizem que seus modelos mais recentes são tão potentes em encontrar e explorar falhas em software que ambas as empresas optaram por limitar sua distribuição por enquanto. Mas é apenas uma questão de tempo até que escapem para o mundo, se é que já não escaparam.
"Isso deveria ser um grande motivador para os dois países se unirem —mesmo que apenas nessa questão específica, que agora é um perigo claro e imediato para ambos", argumenta Mundie.
Não é pedir o impossível. China e EUA conseguiram cooperar nos dias de Nixon e Mao, concluiu Mundie, "porque tínhamos um problema em comum, a União Soviética. Bem, agora temos outro problema em comum. Não é outro país, é uma tecnologia —os riscos emergentes de ciberameaças assimétricas de sistemas de IA autônoma".
1 6 Veja quem são os novos bilionários do boom da IA
VOLTARFacebookWhatsappXMessengerLinkedinE-mailCopiar link Carregando... O antigo G2, EUA e China, precisa trabalhar com o que chamarei de novo I7 —Anthropic, Google/Alphabet, OpenAI, Meta, Alibaba Group, DeepSeek e ByteDance— para descobrir uma forma de obter o melhor desses novos modelos de IA enquanto se protegem contra o pior. Os governos não conseguem resolver isso sozinhos, e as empresas também não.
Em um desenvolvimento que recebeu pouca atenção por causa da guerra com o Irã, Trump está supostamente considerando impor supervisão sobre modelos de IA antes de serem disponibilizados publicamente.
Isso é muito sábio da parte de Trump. As pessoas precisam acordar: estamos entrando em um mundo no qual empresas privadas agora podem, na prática, dividir o átomo, em termos do poder que podem liberar em todas as direções.
"E assim como dividir o átomo, você pode fazer eletricidade ou bombas", disse Mundie. O mesmo vale para a IA autônoma. "Temos o poder de fazer um bem ilimitado ou criar armas —armas enormemente assimétricas".
Espera-se que o tema da IA esteja na agenda Trump-Xi. O que realmente tornaria esta a cúpula EUA-China mais significativa desde Mao e Nixon não é apenas que os dois homens conversem sobre isso, mas que decidam trabalhar juntos nisso —agora. Depois será tarde demais. Está vindo rápido demais.
A explosão dos cursos de enfermagem no Brasil, impulsionada pelo setor privado e pelo ensino a distância, acendeu um alerta sobre a qualidade da formação da principal força de trabalho do SUS (Sistema Único de Saúde).
Relatório técnico divulgado nesta terça-feira (12), Dia Internacional da Enfermagem, mostra que o número de vagas em cursos superiores privados da área saltou de 120 mil para mais de 503 mil entre 2010 e 2023, alta superior a 300%.
Grande parte desse crescimento ocorreu na modalidade EAD (educação a distância), cuja oferta disparou 1.408% no período e hoje já responde por metade das vagas disponíveis na rede privada. Em 2023, somente os cursos privados a distância somavam 253 mil vagas —número superior ao total de vagas presenciais públicas e privadas.
Técnico de enfermagem monitora paciente em hospital de Porto Alegre - Carlos Macedo - 30.mai.25/Folhapress O documento, baseado no estudo "Demografia e Mercado de Trabalho da Enfermagem no Brasil", lançado ano passado pelo Ministério da Saúde, aponta que o setor privado concentra 90,7% das instituições de ensino de enfermagem do país.
A expansão acelerada, porém, convive com um problema estrutural: parte expressiva das vagas não é ocupada ou acaba abandonada. Nos cursos presenciais privados, cerca de metade das vagas permanece ociosa em razão da evasão.
Na rede pública, a retenção é maior, mas cerca de 30% das vagas também ficam sem preenchimento. A preocupação ganhou força após a pandemia de Covid-19, que evidenciou a dependência dos sistemas de saúde em relação à enfermagem.
Hoje, a categoria representa cerca de 70% da força de trabalho em saúde no Brasil e 59% no mundo. Apesar do crescimento acelerado do número de profissionais, a OMS (Organização Mundial da Saúde) estima um déficit global de cerca de 6 milhões de enfermeiros.
1 10 As marcas da pandemia
VOLTARFacebookWhatsappXMessengerLinkedinE-mailCopiar link Carregando... O relatório também chama atenção para desigualdades regionais históricas. Sudeste e Sul concentram a maior parte das escolas, cursos e matrículas, enquanto estados do Norte e do Nordeste seguem com menor densidade de profissionais.
Em 2018, por exemplo, o Pará registrava 14,1 enfermeiros por 10 mil habitantes, menos de um terço da densidade observada no Distrito Federal, com 49,3 profissionais por 10 mil habitantes.
Na avaliação do médico e pesquisador Mario Dal Poz, professor titular da Uerj (Universidade Estadual do Rio de Janeiro) e autor principal do relatório, a expansão desordenada ameaça a qualidade futura da assistência no SUS.
"A enfermagem é a espinha dorsal do SUS. A expansão acelerada sem planejamento regional e o avanço do ensino à distância colocam em xeque a qualidade do cuidado que o sistema de saúde entrega à população", afirma.
Segundo Dal Poz, a formação em enfermagem exige aquisição de habilidades práticas e competências clínicas que não podem ser reduzidas a um modelo predominantemente remoto. Para ele, o país precisa ampliar a oferta pública e fortalecer mecanismos de avaliação e fiscalização dos cursos privados e do EAD.
LEIA MAIS
Médicos mal formados colocam pacientes em risco e oneram serviços de saúde, dizem gestores Atrasado em relação ao mundo, Brasil prepara plano de atualização de médicos já formados SP tem 40% de médicos sem título de especialista; avanço expõe gargalos na formação A enfermeira e pesquisadora da Uerj Helena Leal, uma das autoras do relatório, reforça que o avanço do ensino a distância em enfermagem ocorreu de forma descontrolada, impulsionado principalmente pela redução de custos das instituições privadas.
Segundo ela, a enfermagem precisa de formação prática intensiva e supervisão presencial. "Exige destreza, habilidade e treinamento in loco." Ela avalia que laboratórios de simulação ajudam, mas não substituem o contato com pacientes nem o acompanhamento de professores preparados.
Além da graduação, o levantamento analisou mais de 5.500 cursos técnicos de enfermagem registrados entre 2009 e 2024. Nesse segmento, o ensino presencial ainda predomina. Mesmo assim, os pesquisadores identificaram falhas importantes nos sistemas de informação sobre a formação técnica, especialmente no Sistec (Sistema Nacional de Informações da Educação Profissional e Tecnológica).
Foram encontrados problemas como ausência de dados sobre matrículas, campos em branco e erros na identificação dos cursos, revelando fragilidades históricas no monitoramento da educação profissional.
Após a exclusão de registros inconsistentes, o estudo identificou 5.509 unidades de ensino com oferta de cursos técnicos em enfermagem. São Paulo lidera, com 1.218 cursos registrados, seguido por Minas Gerais (774) e Rio de Janeiro (504). No total, foram registradas cerca de 3 milhões de matrículas em cursos técnicos entre 2009 e 2024.
Os pesquisadores alertam que a expansão acelerada do setor privado pode estimular cursos com infraestrutura precária, fragilidade pedagógica e baixa integração entre teoria e prática.
Helena Leal chama atenção para problemas como estágios pouco supervisionados e cursos sem qualidade mínima, por falta de reconhecimento dos cursos. "Alguns profissionais nem sequer conseguem registrar seus diplomas nos conselhos regionais."
Também critica a fragilidade da fiscalização dos cursos técnicos e do EAD e afirma que o país ainda carece de sistemas confiáveis para monitorar evasão, qualidade da formação e distribuição regional dos profissionais.
cuide-se Ciência, hábitos e prevenção numa newsletter para a sua saúde e bem-estar
Carregando... O EAD avançou também sobre a pós-graduação, especialmente em áreas como oncologia, gerontologia, saúde mental, neurologia e atenção domiciliar. Em algumas especialidades, a maioria dos egressos já vem da modalidade a distância —caso de neurologia (90%), saúde mental (85%) e gerontologia (82,5%)—, o que acendeu alerta sobre a formação prática desses profissionais em áreas clínicas complexas.
O documento revela fragilidades na regulação e no monitoramento das especializações, como ausência de critérios nacionais para currículos, falta de padronização dos cursos e lacunas nos registros profissionais.
Entre as recomendações do relatório estão maior controle sobre a abertura de cursos, revisão das regras do ensino a distância, fortalecimento da fiscalização de estágios e práticas presenciais e ampliação da oferta pública em regiões carentes de profissionais.
O levantamento traça ainda um panorama demográfico da enfermagem brasileira. Dados da Rais (Relação Anual de Informações Sociais) mostram que o número de enfermeiros passou de cerca de 215 mil em 2010 para 524 mil em 2021, enquanto os técnicos de enfermagem saltaram de 415 mil para quase 1,2 milhão no mesmo período.
Os pesquisadores identificaram mudanças importantes no perfil da categoria. Embora as mulheres continuem majoritárias, houve aumento da participação masculina, sobretudo entre os enfermeiros.
O estudo aponta ainda um envelhecimento gradual da força de trabalho. "Há uma mudança da faixa etária de 25 a 34 anos para faixa etária de 35 a 44 anos, especialmente entre os técnicos de enfermagem, que atinge também um pico até a faixa etária de 40 a 50 anos", observa Kênia Lara Silva, pesquisadora da UFMG (Universidade Federal de Minas Gerais) e também coautora do estudo.
Segundo ela, essa é uma questão que deve ser objeto de preocupação das políticas públicas e da organização interna da profissão. "Há o próprio desgaste que se vai tendo ao longo da exposição ao trabalho e que pode ser acirrada quando se considera as pessoas nas faixas etárias mais avançadas, reduzindo, inclusive, esse potencial para o trabalho."
As análises revelam uma forte desigualdade racial e de gênero dentro da enfermagem brasileira. Segundo Kênia, as mulheres negras concentram-se nas faixas de menor rendimento da profissão, enquanto homens brancos ocupam majoritariamente os percentis salariais mais altos.
O setor privado concentra mais de 90% das instituições de Ensino de Enfermagem no Brasil. Informe lançado nesta semana aponta alta taxas de evasão e de vagas ociosas, além de desigualdades regionais. O informe técnico, divulgado pelos coordenadores da Pesquisa Demografia e Mercado de Trabalho da Enfermagem no Brasil, sintetiza a integra da pesquisa, publicada pelo Ministério da Saúde (DEGERTS/SGTES/MS). As vagas de graduação oferecidas pelo setor privado aumentaram 300% entre 2010 e 2023, puxadas pelo Ensino a Distância (EaD). São mais de meio milhão de vagas privadas e 10,6 públicas. Essa tendência não afeta apenas a Enfermagem. O Censo da Educação Superior 2022 revelou que 72% dos calouros do ensino superior privado brasileiro estavam matriculados em cursos não-presenciais. O quadro foi considerado “alarmante” pelo então ministro da Educação, Camilo Santana. Em 2025, atendendo uma demanda histórica dos Conselhos de Enfermagem, o governo federal aprovou nova Política Política de Educação à Distância, que tornou obrigatória a modalidade presencial para a Enfermagem, com regras de transição para os cursos já em funcionamento. “A expansão desordenada de cursos de má qualidade é um risco para a população. A formação presencial e de qualidade, compatível com as necessidades da Saúde Coletiva, é uma luta histórica dos Conselhgo”, pontua o presidente do Cofen, Manoel Neri. A falta de campo de prática é um desafio também para os cursos técnicos. O informe aponta gargalos na integração entre teoria e prática, após analisar a grade de mais de 5 mil cursos. Desde a Operação EaD, em 2015, os Conselhos de Enfermagem vêm denunciando a precariedade dos polos de apoio presencial, em audiências públicas por todo o Brasil, campanhas e diálogo com autoridades. Concentração Regional As regiões Sudeste e Sul concentram a maior parte dos cursos e matrículas. A Amazônia Legal é região prioritária do Programa de Mestrado e Doutrado Profissional (Profen), iniciativa do Cofen que, por meio de convênio com a Coordenação de Aperfeiçoamento de Pessoal de Nível Superior financia expansão de pós-graduação stricto sensu em Enfermagem. A necessidade de incentivo à formação pública e regionalizada, com planejamento da oferta formativa no território nacional, é uma das recomendações do informe técnico. Os autores defendem, ainda, a pactuação de indicadores de qualidade da formação e parâmetros para autorização de abertura de cursos, incluindo o monitoramento de vagas ociosas. Formação em Risco O Cofen lançou, em dezembro de 2024, o documentário Formação em risco: o impacto do EaD na Enfermagem, com o depoimento de alunos, professores, especialistas e autoridades sobre o assunto. O filme desvendou o universo precário dos polos EaD e a falta de campos de estágio para os alunos desses cursos.
A Folha teve acesso à minuta da resolução sobre as novas Diretrizes Nacionais para Formação de professores. Além de preservar 50% da carga horária presencial, o texto define que o restante deve ser dividido com 20% de atividades síncronas mediadas (online ao vivo) e 30% a distância assíncrona (com aulas gravadas, por exemplo).
A minuta, que tem como uma das relatoras a ex-titular da Secretaria de Educação Superior do MEC, Maria Paula Dallari Bucci, defende a necessidade de aumentar as exigências para melhorar a qualidade de formação dos futuros professores.
"De 2017 até 2024 o setor viveu uma situação de desregulação, em que as exigências estatais foram reduzidas e a supervisão, inoperante. O mercado se viu praticamente livre de amarras legais em relação ao número de estudantes alcançados, à qualificação mínima dos docentes e conteúdos e assim por diante. O resultado, em especial para a formação de professores, foi muito negativo e demonstrou que a presença reguladora do Estado é indispensável para a garantia de um patamar mínimo de qualidade", diz o texto.
O setor privado de ensino superior tem feito pressão por menores exigências de atividades totalmente presenciais. A Anup (Associação Nacional das Universidades Particulares) defende que, se aprovada, a regra irá penalizar os estudantes sob o argumento de que eles não teriam disponibilidade para dedicar tanto tempo a aulas presenciais e para atividades síncronas.
“Quando li os princípios e os conceitos da slow medicine, foi como um abraço acolhedor no meio do caos. Entendi que meu desconforto com a prática médica não era isolado. A sensação era de ter encontrado meu lugar no mundo”, avalia Ana. “O sentimento de solidão e a sensação de não pertencimento que eu sentia como médica se dissiparam. Quando encontro colegas que ‘descobrem’ a slow medicine, ouço deles: ‘Finalmente, encontrei a minha turma’, ‘Ufa, não sou tão estranho assim’ e ‘Caramba, sou slow e não sabia’. É muito gratificante.”
A não ser que o leitor viva dentro de uma caverna (com Wi-Fi para ler newsletters, neste caso?), percebeu que a tecnologia está mudando todas as áreas de trabalho. Não é a primeira vez que isso acontece: a chegada da internet, por exemplo, mudou o jogo para sempre há algumas décadas. As carreiras criativas —neste balaio, coloco além dos artistas outros profissionais que dependem da criatividade para trabalhar, como publicitários, designers, etc.— estão entre as mais impactadas pela chegada da inteligência artificial. Na edição de hoje, falo sobre o que deve mudar no ramo e como se preparar para o futuro (que já chegou). Ladeira abaixo? Pelo contrário. Há mais pessoas procurando formação nas áreas criativas do que nunca, segundo Josiane Tonelotto, superintendente acadêmica do Centro Universitário Belas Artes. Em parte, o aumento da procura se deve ao crescimento de opções de carreiras no setor. Desde que ocupa a chefia acadêmica da universidade, ela afirma ter visto movimentos como a especialização em mídias sociais nascer e a procura por profissionais do audiovisual multiplicar. Ela também enxerga maior especialização na área do design, que além do curso geral ganhou capacitações para segmentos de games e animação. ↳ Tonelotto considera que há poucos relatórios e coletas de dados para entender o avanço desse setor no Brasil. "Há uma escassez de dados que possam nortear como está esse mercado", afirma. Desenha para mim? A chegada da inteligência artificial é um desafio para o mercado. Ainda há muito o que debater, segundo a especialista, sobre como a capacidade da IA de criar ilustrações e vídeos pode impactar a contratação de profissionais da arte. No entanto, já há reflexões importantes sobre o assunto. "Há um risco real, que é o da mediocridade. Muitos vão usar a IA pra substituir as artes e os textos, mas ela não é capaz de ser criativa, só responde bem a um prompt. Terceirizar a criatividade não funciona, ela é insubstituível", afirma Tonelotto. "A IA abrevia, acelera, mas não vai ocupar o meu lugar. O dono da palavra sou eu." Ela faz um paralelo com o uso da tecnologia na educação, muito criticado no início, mas incorporado ao longo do tempo. "O professor nunca foi substituído pela tecnologia, ele foi substituído por outro professor que sabe usar tecnologia", diz. "Não podemos delegar tudo para a IA, já vi campanhas publicitárias que ficaram péssimas: contexto impessoal, frases curtas e encadeadas. A criatividade humana vai ficar cada vez mais cara", afirma. Olhando o perigo nos olhos. O pior caminho, na opinião da especialista, é ignorar a inovação. O profissional das áreas criativas precisa entender como a IA pode afetar a sua atuação e aprender a trabalhar com ela. Quem souber conciliar a própria originalidade com as novas ferramentas tem mais chances de prosperar. Para ela, o aumento da eficiência e o ganho de agilidade são benefícios importantes para as empresas que trabalham com a criatividade. O primeiro da fila. Quem contrata o criativo precisa decidir se a criação ou a produtividade é o elemento mais importante daquele trabalho. A especialista acredita que, cada vez mais, trabalhos que usam a engenhosidade humana para acontecer serão a grife do mercado criativo. "O processo criativo, de maneira geral, é complexo. Se você usar a IA com parcimônia, não vejo como um problema. Não dá, no entanto, para entregar a maior competência do artista, que é criar", afirma. Saiba como escolher cursos livres e aplicá-los no trabalho Desatenção pode atrapalhar no trabalho; saiba como recuperar o foco prolongado Entenda por que a cibersegurança da empresa também é sua responsabilidade Uma dica: a chefe acadêmica da Belas Artes acredita que a principal habilidade que o profissional deve conservar frente a uma ferramenta como a IA, que entrega boa parte das atividades com prontidão, é a capacidade de refletir e ruminar sobre os assuntos. "O processo de aprender e melhorar exige maturação. O que é mais difícil de ensinar para o jovem hoje é que ele faça reflexões acerca do que está vivendo e experimentando. Que ele rumine um pouco, o que é parte do processo criativo. Acelere a produtividade, mas saiba se aprofundar", aconselha. Um último conselho… "Criatividade é a capacidade que todos nós temos para encarar problemas de várias formas. Todo mundo é capaz de ser criativo porque criatividade é uma competência, e como competência ela pode ser aprendida", afirma Josiane Tonelotto.
Na semana passada, o reitor Richard Locke comunicou à comunidade do MIT Sloan que a escola encerraria a produção da MIT Sloan Management Review (MIT SMR), uma das publicações mais tradicionais na tradução de pesquisa acadêmica em pensamento de gestão para executivos no mundo. A edição final sai em setembro deste ano. A MIT SMR ocupava há décadas a posição rara de ponte entre pesquisa séria e prática executiva, e seu encerramento expõe um movimento muito maior do que o fim de uma revista. O comunicado oficial fala em mudar a forma de entregar ideias, mas é, de fato, mais uma mudança na unidade econômica do conhecimento. A MIT Sloan Management Review é um produto editorial fechado, com edição, artigo, autoria, periodicidade, marca própria, ritmo de prensa ou de distribuição digital. O novo desenho do MIT Sloan tenta deslocar o valor para a escola como fonte contínua de ideias, distribuídas em múltiplas superfícies e coordenadas por uma estratégia única de comunicação e engajamento externo. Comunicação institucional, newsletters, vídeo curto, social, podcasts e novos formatos digitais passam a ser tratados como um sistema, e não como publicações independentes disputando agenda, orçamento e audiência. É exatamente a transição descrita pelo conceito de conteúdo líquido, quando o conteúdo deixa de ser um objeto finalizado e passa a ser conhecimento estruturado que flui para formatos, canais e interfaces diferentes. Em janeiro deste ano, o Reuters Institute for the Study of Journalism, de Oxford, oficializou o termo no relatório anual de tendências com 280 executivos de mídia em 56 países. Mas há uma advertência no caso MIT Sloan. Se uma das maiores escolas de negócios do mundo, o MIT (Massachusetts Institute of Technology), apenas trocar uma publicação editorial por comunicação institucional em canais digitais, terá matado uma revista sem construir uma camada de inteligência. A força da SMR estava em transformar pesquisa em orientação prática, com curadoria, edição e julgamento. Sem essa camada, o que sobra é distribuição. Com ela, o acervo da SMR pode virar um valioso sistema de gestão do contexto, com décadas de pesquisas, autores, conceitos, frameworks, evidências, casos e recomendações organizados como conhecimento consultável, recombinável, citável e útil para humanos e agentes de inteligência artificial. É a tese formulada por Burt Herman em artigo recente da Hacks/Hackers, que distingue o sistema de gestão de conteúdo tradicional do sistema necessário para a era da IA. O primeiro só empacota. O segundo modelo organiza contexto vivo. Instituições inovadoras descobrem os ativos de inteligência presos dentro do invólucro de conteúdo. O princípio histórico vem de antes. Em 2009, Daniel Jacobson, então CTO de produto digital da NPR, formalizou o conceito de COPE (Create Once, Publish Everywhere), hoje referência fundadora da arquitetura de publicação desacoplada. A diferença é que atualmente a recomposição precisa ser legível também por máquinas e agentes de inteligência artificial e não apenas por humanos. O Audio Definition Model e o grupo EBU ADM-IG aplicaram essa lógica ao áudio. Cada elemento sonoro, como voz do âncora, música, efeito, ruído ambiente, vira unidade atômica passível de reordenação, personalização ou substituição por destino. A IA generativa tornou a recomposição barata, rápida e escalável. "O atômico é a peça de Lego; o líquido é a forma que ela toma dependendo de quem está brincando e onde", resumiu Alexandre Kavinski, líder de IA na WPP Media. Conteúdo atômico sem recombinação líquida é apenas um arquivo bem catalogado. Conteúdo líquido sem atomização bem desenhada não existe de fato. Operacionalmente, uma peça líquida tem quatro camadas simultâneas. A primeira é o núcleo editorial, com a ideia central, o fato, o ângulo, a tese ou a apuração que o jornalista define antes de pensar se vai virar áudio, vídeo, texto, ficha de IA ou newsletter. A segunda é a camada de unidades atômicas, como lead, citações curtas, dados verificados, contexto histórico, takeaways, infográficos, frames de vídeo, trechos de áudio, comparações numéricas e outros elementos com identidade própria. Cada unidade pode existir sozinha, ser substituída por outra equivalente, ser recombinada com unidades de outras matérias e ser auditada de forma independente. A terceira é a camada de variações por canal, com matéria de TV, spot de rádio, reportagem de portal, card de Instagram, vídeo vertical, status no WhatsApp, newsletter, resposta em área de perguntas e respostas, briefing de áudio, episódio de podcast. As unidades atômicas são recompostas, sob supervisão humana, em peças desenhadas para cada superfície de consumo. É nessa camada que entra a maior parte das ferramentas de IA editorial visíveis ao leitor, com geração de vídeo a partir de texto, resumo automático, narração sintética, adaptação de linguagem para audiência jovem. A quarta é a camada técnica com metadados e distribuição. É a camada que torna o conteúdo publicável, consultável pelas ferramentas de IA, citável, recombinável e licenciável por ChatGPT, Claude, Gemini, Perplexity e AI Overviews. Com as quatro camadas, ele vira produto.
“O modelo de negócio de ensino superior é baseado na educação a distância”, afirma Cruz. “A gente só aprende a ser professor se relacionado com o outro. Se tem uma profissão que a IA não vai substituir, é o professor.“
A polarização político-ideológica impactou de modo nefasto os princípios fundamentais que regem o ensino superior, por vezes criando um ambiente intelectual sufocado por práticas persecutórias. Como reação necessária, professores e pesquisadores lançaram o Manifesto pelo Pluralismo e pela Liberdade Acadêmica —que já tem mais de mil assinaturas. Interditos se dão seja por meio de notas de repúdio e campanhas em redes sociais contra docentes, pesquisadores e alunos, seja por meio de boicote a aulas, cancelamento de eventos e intimidação de palestrantes. Exemplos não faltam. Pesquisa da Universidade Federal Fluminense compilou mais de cem casos nos últimos anos, entre eles o abaixo-assinado de estudantes da USP contra o retorno da professora Janaina Paschoal. Em 2022, candidatos do Novo foram impedidos de dar palestra na Unicamp; no ano seguinte, ativistas e pesquisadores declararam Richard Miskolci, professor da Unifesp, persona non grata por sua crítica ao conceito de cisgeneridade; em 2024, a UnB cancelou o curso do professor Jorge Gordin, da Universidade Hebraica de Jerusalém, após protestos antissionitas do alunado. Trata-se de condutas inaceitáveis no ambiente acadêmico. Afinal, o respeito a ideias divergentes, à liberdade de expressão e ao debate racional, baseado em dados e critérios técnicos, é condição essencial da produção de conhecimento. A universidade é, por natureza, antiautoritária. Por isso, o manifesto demanda o comprometimento com três pilares. Primeiro, a neutralidade institucional: "universidades devem evitar adotar posições oficiais sobre questões políticas ou ideológicas". Já a liberdade acadêmica exige "uma cultura organizacional pró-dissenso" que impeça perseguição e interdição de professores, pesquisadores e alunos por suas opiniões. Por fim, o pluralismo advoga a expansão dos currículos para que abarquem obras de referência de campos diversos em disputa, como liberalismo, conservadorismo e progressismo. Pesquisa do Instituto Sivis de 2025 mostra que 48% dos universitários evitam emitir opinião sobre assuntos polêmicos, principalmente sobre política, enquanto outra realizada pela USP e pela UFBA no mesmo ano aponta que 61% dos professores já evitaram certos temas por medo de sanção moral, política ou jurídica. Universidades precisam conter o autoritarismo que estimula tal autocensura. Só assim poderão cumprir sua missão institucional e garantir legitimidade.
A abertura ficou a cargo do presidente do DC de Emergência da SBP, dr. Hany Simon Júnior, que apresentou uma revisão sobre o tema. Ele destacou casos de mortes de crianças e adolescentes associados aos chamados “desafios perigosos” e explicou como funcionam os algoritmos das redes sociais que captam a atenção desse público. Também abordou as diferenças e semelhanças entre a dependência digital e outros tipos de vício, os principais formatos de desafios, os sinais e sintomas que podem indicar a participação de um paciente nessas práticas, entre outros pontos relevantes.
O Pentágono está implementando o modelo de cibersegurança Mythos, da Anthropic, para encontrar e corrigir vulnerabilidades de software em todo o governo dos Estados Unidos, mesmo enquanto acelera a conclusão de uma transição para deixar de usar a empresa de inteligência artificial, afirmou nesta terça-feira a principal autoridade de tecnologia do Departamento de Defesa.
O avanço da inteligência artificial forçou sistemas de ensino em todo o mundo a se adaptarem a essa tecnologia. Reveladora desse movimento é a inclusão da disciplina letramento midiático e em inteligência artificial na próxima edição do Pisa, exame internacional de desempenho escolar, em 2029. No Brasil, uma resolução de 2025 do Conselho Nacional de Educação tornou a educação digital e midiática obrigatória a partir deste ano. Na segunda (11), o órgão estabeleceu diretrizes para o uso de IA nos ensinos básico e superior por meio da aprovação de um parecer prévio —que ainda passará por consulta pública. O CNE faz uma diferenciação necessária entre as formas de uso. Quanto mais a IA se aproxima de avaliar, vigiar ou decidir o destino do aluno, maior o risco. No nível de baixo risco, ela serve de apoio administrativo e pedagógico, como em organização de materiais, acessibilidade, revisão de textos sem atribuição de nota e planejamento de aulas. No risco moderado, a IA interage com alunos, mas não toma decisões automáticas relevantes, casos de tutores virtuais, feedback formativo e apoio à escrita. O alto risco se dá quando é possível afetar diretamente notas, aprovação ou direitos dos alunos, como em correção automática de provas, monitoramento biométrico e perfilização de alunos com base em comportamento, desempenho e frequência. Por último está o risco excessivo, único nível proibido: decisões automáticas sobre aprovação ou expulsão, perfilização para punição e vigilância emocional. Todos os outros níveis, apesar de permitidos, precisam seguir exigências específicas, que incluem transparência, segurança da informação, restrição de uso de dados, revisão humana, avaliação de impacto, direito de contestação e supervisão contínua. O parecer também inclui a IA no currículo para que alunos compreendam o funcionamento da ferramenta por meio de análise crítica que identifique limites, fragilidades e periculosidade. Para lidar com as desigualdades entre redes de ensino, indica-se a necessidade de ampliar a inclusão digital, com adaptação a especificidades locais e regime de cooperação federativa. Segundo a TIC Educação de 2025, pesquisa do Comitê Gestor da Internet no Brasil, só 54% dos professores tiveram formação sobre ferramentas digitais. Assim, ainda é preciso expandir a capacitação da categoria. No geral, o parecer é bem-vindo, já que promove a tecnologia sem descuidar da integridade do ensino e dos direitos dos alunos.
Material visa apoiar as escolas na construção de ambientes acolhedores, participativos e seguros. Ele oferece subsídios práticos para fortalecer as relações e a aprendizagem nos anos finais do ensino fundamental
O documentário “Formação em Risco: O Impacto do EAD na Enfermagem” serve como um alerta urgente e um apelo pela preservação da qualidade do sistema de educação e de saúde no Brasil. Produzido pelo Conselho Federal de Enfermagem, o filme apresenta depoimentos esclarecedores de profissionais da área, autoridades, estudantes e pacientes. Esses testemunhos destacam a importância da natureza presencial da profissão de Enfermagem e convidam a sociedade a refletir sobre a presencialidade do ensino em cursos da área de saúde.
Em marketplaces, quem garante orientação farmacêutica e assegura procedência e armazenamento? Não se trata de resistir à inovação, mas de impedir que esse processo avance à revelia da regulação sanitária
Na época, Rosenberg não sabia, mas tinha transtorno obsessivo-compulsivo (TOC) e transtorno dismórfico corporal, ou TDC, uma condição de saúde mental que faz as pessoas passarem uma quantidade desproporcional de tempo preocupadas com a própria aparência a ponto de se isolarem dos outros e se sentirem aprisionadas no próprio corpo.
O CNE (Conselho Nacional de Educação) aprovou, em votação inicial nesta segunda-feira (11), um parecer que estabelece diretrizes para o uso da IA (inteligência artificial) na educação básica e superior. A proposta orienta escolas e redes a adotar a tecnologia como ferramenta de apoio, sob supervisão humana, e ainda depende de novas discussões antes de eventual homologação do MEC (Ministério da Educação). O uso da IA passa a ser classificado por nível de risco. Ferramentas de apoio, como organização de materiais e acessibilidade, entram na categoria de baixo risco. Já sistemas de correção automatizada de avaliações, monitoramento biométrico e seleção de benefícios são considerados de alto risco e exigem supervisão contínua. Aplicações como vigilância emocional, pontuação social e decisões totalmente automatizadas sobre aprovação, retenção ou desligamento de alunos ficam proibidas. Nível de risco O que é Exemplos Regras e exigências Baixo risco Uso de apoio, sem impacto relevante sobre decisões acadêmicas ou direitos dos alunos Organização de materiais; acessibilidade; revisão de texto sem avaliação; planejamento de aulas Transparência básica, segurança da informação e responsabilidade da instituição Risco moderado Ferramentas com interação com alunos ou recomendações, sem decisão automática Tutores virtuais; feedback formativo; assistentes institucionais; apoio à escrita Informar uso; registrar sistemas; revisão humana obrigatória; monitoramento; restrição ao uso de dados Alto risco Sistemas que afetam diretamente a vida acadêmica ou direitos Correção automática de provas; monitoramento biométrico; perfilização de alunos; seleção e certificação Avaliação prévia de impacto; relatório de dados; supervisão contínua; auditoria; direito de contestação Risco excessivo (proibido) Aplicações incompatíveis com princípios educacionais Pontuação social; vigilância emocional; perfilização para punição; decisões automáticas sobre aprovação ou expulsão Uso vedado As diretrizes estabelecem que decisões pedagógicas devem permanecer sob responsabilidade de professores. A tecnologia pode auxiliar na personalização do ensino, no acesso a conteúdos e no acompanhamento do desempenho, mas não substitui a mediação em sala de aula. Também há regras de transparência e governança. Escolas e universidades deverão informar quando sistemas automatizados estiverem em uso, documentar decisões de adoção e garantir revisão humana de conteúdos e resultados, para evitar erros e vieses. O uso da tecnologia deverá respeitar a LGPD (Lei Geral de Proteção de Dados), além de princípios de segurança da informação e transparência algorítmica. Outro eixo é a redução de desigualdades. A recomendação é ampliar políticas de inclusão digital e acesso equitativo, para evitar que a adoção da IA aprofunde diferenças entre redes de ensino. As diretrizes preveem ainda a inclusão progressiva de conteúdos sobre IA nos currículos. A proposta é que estudantes aprendam não apenas a usar ferramentas, mas a compreender como funcionam, seus limites e riscos, com foco no desenvolvimento do pensamento crítico. Na educação básica, a implementação deve ser gradual e considerar o desenvolvimento dos alunos, com foco em autonomia e uso equilibrado da tecnologia. No ensino superior, o foco recai sobre a preparação profissional e o uso da IA em contextos complexos, com respeito à integridade acadêmica. Como a Folha mostrou, três das principais universidades do país (USP, Unicamp e Unesp) estão criando protocolos para o uso da IA cuja principal regra é a transparência. A utilização deve ser combinada entre professores e alunos e declarada nas pesquisas e nos demais trabalhos acadêmicos. No parecer do CNE, a formação de professores aparece como condição para a implementação, com incentivo à capacitação contínua e ao desenvolvimento de competências digitais. O conselho reconhece que a adoção ocorre em um momento de desigualdades estruturais e orienta que redes de ensino adaptem a implementação às suas condições, em regime de cooperação federativa.
A universidade pública brasileira chegou a uma encruzilhada. Ou reafirma com clareza os princípios que justificam seu prestígio, sua autonomia e o investimento público que recebe ou continuará perdendo legitimidade diante de uma sociedade que já começa a vê-la como uma frente da guerra cultural. A universidade existe não para disputar poder, ensinar doutrinas ou mobilizar identidades, causas e paixões, mas para submeter ideias e evidências ao teste público da razão, do método e da crítica. Defendê-la é recusar a condescendência diante de práticas que a impedem de ser, como queria Darcy Ribeiro, autônoma em todos os sentidos: livre de tutela política, imune à instrumentalização ideológica, resguardada do clientelismo e da mediocridade. Foi para defender essa missão que um grupo de professores e pesquisadores lançou recentemente o Manifesto pelo Pluralismo e pela Liberdade Acadêmica. O documento nasce de uma constatação incômoda: há hoje, nas universidades públicas, um ambiente crescente de conformidade ideológica, autocensura e intolerância ao dissenso. O paradoxo da liberdade acadêmica no Brasil está na indignação seletiva. Quando governos como o de Jair Bolsonaro tentaram interferir na universidade, desrespeitando procedimentos de nomeação de reitores, vigiando aulas, ameaçando professores ou usando o orçamento como coação, a reação foi imediata —e correta. Invocamos autonomia universitária, pluralismo, liberdade de cátedra e resistência ao autoritarismo. Mas a mesma régua desaparece quando a agressão vem de dentro do campus, em nome de causas progressistas. Nesse caso, domina a autocomplacência: a interdição do dissenso vira proteção de grupos vulneráveis; o veto a palestrantes, defesa de "espaços seguros"; a intimidação de docentes, punição moral justificada. Disso resulta uma universidade invertida: em vez de se afirmar como o espaço por excelência da liberdade de pensar, experimentar e discordar, converte-se no lugar onde as pessoas devem ser protegidas de ideias que as contrariem. Em vez de formar estudantes capazes de enfrentar argumentos difíceis com razões e evidências, passa a treinar militantes que mandam calar, denunciam, punem e expulsam, como se a universidade fosse deles, não um bem coletivo. A liberdade que deveria valer para todos torna-se condicional: absoluta quando protege quem pensa de um jeito; revogável quando ampara o outro lado. Discursos discriminatórios e assédio existem e devem ser objeto do devido processo. Mas isso é muito diferente de tratar diferenças sobre políticas públicas, economia, segurança, relações internacionais, gênero, raça, religião ou costumes como delitos morais. Trata-se de autoritarismo e de intolerância. O autoritarismo aparece sempre que um grupo considera seus valores tão superiores que se sente autorizado a punir o dissenso, interditar adversários e subordinar a liberdade a uma causa redentora. A intolerância política, por sua vez, nem sempre se apresenta como ódio explícito a um grupo; muitas vezes surge como recusa a certos atos —falar, convidar, ensinar, discordar— quando praticados por quem está fora da ortodoxia dominante. A universidade precisa encontrar saídas. Neutralidade institucional não significa indiferença moral, covardia intelectual ou abstenção pública diante de ameaças à universidade ou à democracia. Significa que a instituição deve garantir que todos os lados legítimos numa democracia —progressistas, conservadores, liberais ou outros— tenham o mesmo direito de existir e debater no espaço público acadêmico. Pluralismo não significa que todas as ideias valem o mesmo, mas que ideias devem ser testadas por argumentos, dados e crítica qualificada, não por gritos, vetos, intimidação ou superioridade moral autoproclamada. A universidade existe não para poupar adultos do atrito intelectual nem para fazer curadoria ideológica, mas para ensinar que conviver com a discordância é parte da vida democrática e da honestidade científica. É do próprio Darcy, de cujas credenciais progressistas ninguém há de duvidar, a frase que sintetiza o espírito que deveria reger a vida acadêmica nacional: "Nesta universidade ninguém, professor ou aluno, será punido ou premiado, jamais, por sua ideologia". A universidade precisa, então, escolher entre ser capturada pela lógica das trincheiras ideológicas, como mais um território da guerra cultural, ou recuperar sua vocação mais nobre como instituição aberta, onde a luz da razão tem alguma chance contra as paixões sectárias do tempo.
A universidade pública brasileira chegou a uma encruzilhada. Ou reafirma com clareza os princípios que justificam seu prestígio, sua autonomia e o investimento público que recebe ou continuará perdendo legitimidade diante de uma sociedade que já começa a vê-la como uma frente da guerra cultural. A universidade existe não para disputar poder, ensinar doutrinas ou mobilizar identidades, causas e paixões, mas para submeter ideias e evidências ao teste público da razão, do método e da crítica. Defendê-la é recusar a condescendência diante de práticas que a impedem de ser, como queria Darcy Ribeiro, autônoma em todos os sentidos: livre de tutela política, imune à instrumentalização ideológica, resguardada do clientelismo e da mediocridade. Foi para defender essa missão que um grupo de professores e pesquisadores lançou recentemente o Manifesto pelo Pluralismo e pela Liberdade Acadêmica. O documento nasce de uma constatação incômoda: há hoje, nas universidades públicas, um ambiente crescente de conformidade ideológica, autocensura e intolerância ao dissenso. O paradoxo da liberdade acadêmica no Brasil está na indignação seletiva. Quando governos como o de Bolsonaro tentaram interferir na universidade, desrespeitando procedimentos de nomeação de reitores, vigiando aulas, ameaçando professores ou usando o orçamento como coação, a reação foi imediata —e correta. Invocamos autonomia universitária, pluralismo, liberdade de cátedra e resistência ao autoritarismo. Mas a mesma régua desaparece quando a agressão vem de dentro do campus, em nome de causas progressistas. Nesse caso, domina a autocomplacência: a interdição do dissenso vira proteção de grupos vulneráveis; o veto a palestrantes, defesa de "espaços seguros"; a intimidação de docentes, punição moral justificada. Disso resulta uma universidade invertida: em vez de se afirmar como o espaço por excelência da liberdade de pensar, experimentar e discordar, converte-se no lugar onde as pessoas devem ser protegidas de ideias que as contrariem. Em vez de formar estudantes capazes de enfrentar argumentos difíceis com razões e evidências, passa a treinar militantes que mandam calar, denunciam, punem e expulsam, como se a universidade fosse deles, não um bem coletivo. A liberdade que deveria valer para todos torna-se condicional: absoluta quando protege quem pensa de um jeito; revogável quando ampara o outro lado. Discursos discriminatórios e assédio existem e devem ser objeto do devido processo. Mas isso é muito diferente de tratar diferenças sobre políticas públicas, economia, segurança, relações internacionais, gênero, raça, religião ou costumes como delitos morais. Trata-se de autoritarismo e de intolerância. O autoritarismo aparece sempre que um grupo considera seus valores tão superiores que se sente autorizado a punir o dissenso, interditar adversários e subordinar a liberdade a uma causa redentora. A intolerância política, por sua vez, nem sempre se apresenta como ódio explícito a um grupo; muitas vezes surge como recusa a certos atos —falar, convidar, ensinar, discordar— quando praticados por quem está fora da ortodoxia dominante. A universidade precisa encontrar saídas. Neutralidade institucional não significa indiferença moral, covardia intelectual ou abstenção pública diante de ameaças à universidade ou à democracia. Significa que a instituição deve garantir que todos os lados legítimos numa democracia —progressistas, conservadores, liberais ou outros— tenham o mesmo direito de existir e debater no espaço público acadêmico. Pluralismo não significa que todas as ideias valem o mesmo, mas que ideias devem ser testadas por argumentos, dados e crítica qualificada, não por gritos, vetos, intimidação ou superioridade moral autoproclamada. A universidade existe não para poupar adultos do atrito intelectual nem para fazer curadoria ideológica, mas para ensinar que conviver com a discordância é parte da vida democrática e da honestidade científica. É do próprio Darcy, de cujas credenciais progressistas ninguém há de duvidar, a frase que sintetiza o espírito que deveria reger a vida acadêmica nacional: "Nesta universidade ninguém, professor ou aluno, será punido ou premiado, jamais, por sua ideologia". A universidade precisa, então, escolher entre ser capturada pela lógica das trincheiras ideológicas, como mais um território da guerra cultural, ou recuperar sua vocação mais nobre como instituição aberta, onde a luz da razão tem alguma chance contra as paixões sectárias do tempo.
To get content containing either thought or leadership enter:
To get content containing both thought and leadership enter:
To get content containing the expression thought leadership enter:
You can enter several keywords and you can refine them whenever you want. Our suggestion engine uses more signals but entering a few keywords here will rapidly give you great content to curate.