Inovação Educacional
601.0K views | +7 today
Follow
 
Scooped by Inovação Educacional
onto Inovação Educacional
February 28, 2012 6:30 AM
Scoop.it!

Como ter tempo para a educação continuada e o desenvolvimento da carreira

Como ter tempo para a educação continuada e o desenvolvimento da carreira | Inovação Educacional | Scoop.it
Três profissionais de TI dão sete dicas para ajudá-lo a cuidar de seu próprio desenvolvimento profissional.
No comment yet.
Inovação Educacional
Curadoria por Luciano Sathler. CLIQUE NOS TÍTULOS. Informação que abre caminhos para a inovação educacional.
Your new post is loading...
Your new post is loading...
Scooped by Inovação Educacional
September 10, 2024 9:19 AM
Scoop.it!

Igualdade Artificial, um risco para a educação. Por Luciano Sathler

Igualdade Artificial, um risco para a educação. Por Luciano Sathler | Inovação Educacional | Scoop.it

O que acontece quando a maioria faz uso de uma IA para realizar suas atividades laborais? E, no caso dos estudantes, quando os trabalhos passam a ser produzidos com o apoio de uma IA generativa?
Luciano Sathler
É PhD em administração pela USP e membro do Conselho Deliberativo do CNPq e do Conselho Estadual de Educação de Minas Gerais
As diferentes aplicações de Inteligência Artificial (IA) generativa são capazes de criar novos conteúdos em texto, imagens, áudios, vídeos e códigos para software. Por se tratar de um tipo de tecnologia de uso geral, a IA tende a ser utilizada para remodelar vários setores da economia, com impactos políticos e sociais, assim como aconteceu com a adoção da máquina a vapor, da eletricidade e da informática.
Pesquisas recentes demonstram que a IA generativa aumenta a qualidade e a eficiência da produção de atividades típicas dos trabalhadores de colarinho branco, aqueles que exercem funções administrativas e gerenciais nos escritórios. Também traz maior produtividade nas relações de suporte ao cliente, acelera tarefas de programação e aprimora mensagens de persuasão para o marketing.
O revólver patenteado pelo americano Samuel Colt, em 1835, ficou conhecido como o "grande equalizador". A facilidade do seu manuseio e a possibilidade de atirar várias vezes sem precisar recarregar a cada disparo foram inovações tecnológicas que ampliaram a possibilidade individual de ter um grande potencial destrutivo em mãos, mesmo para os que tinham menor força física e costumavam levar desvantagem nos conflitos anteriores. À época, ficou famosa a frase: Abraham Lincoln tornou todos os homens livres, mas Samuel Colt os tornou iguais.
Não fazemos aqui uma apologia às armas. A alegoria que usamos é apenas para ressaltar a necessidade de investir na formação de pessoas que sejam capazes de usar a IA generativa de forma crítica, criativa e que gerem resultados humanamente enriquecidos. Para não se tornarem vítimas das mudanças que sobrevirão no mundo do trabalho.
A IA generativa é um meio viável para equalizar talentos humanos, pois pessoas com menor repertório cultural, científico ou profissional serão capazes de apresentar resultados melhores se souberem fazer bom uso de uma biblioteca de prompts. Novidade e originalidade tornam-se fenômenos raros e mais bem remunerados.
A disseminação da IA generativa tende a diminuir a diversidade, reduz a heterogeneidade das respostas e, consequentemente, ameaça a criatividade. Maior padronização tem a ver com a automação do processo. Um resultado que seja interessante, engraçado ou que chama atenção pela qualidade acima da média vai passar a ser algo presente somente a partir daqueles que tiverem capacidade de ir além do que as máquinas são capazes de entregar.
No caso dos estudantes, a avaliação da aprendizagem precisa ser rápida e seriamente revista. A utilização da IA generativa extrapola os conceitos usualmente associados ao plágio, pois os produtos são inéditos – ainda que venham de uma bricolagem semântica gerada por algoritmos. Os relatos dos professores é que os resultados melhoram, mas não há convicção de que a aprendizagem realmente aconteceu, com uma tendência à uniformização do que é apresentado pelos discentes.
Toda Instituição Educacional terá as suas próprias IAs generativas. Assim como todos os professores e estudantes. Estarão disponíveis nos telefones celulares, computadores e até mesmo nos aparelhos de TV. É um novo conjunto de ferramentas de produtividade. Portanto, o desafio da diferenciação passa a ser ainda mais fundamental diante desse novo "grande equalizador".
Se há mantenedores ou investidores sonhando com a completa substituição dos professores por alguma IA já encontramos pesquisas que demonstram que o uso intensivo da Inteligência Artificial leva muitos estudantes a reduzirem suas interações sociais formais ao usar essas ferramentas. As evidências apontam que, embora os chatbots de IA projetados para fornecimento de informações possam estar associados ao desempenho do aluno, quando o suporte social, bem-estar psicológico, solidão e senso de pertencimento são considerados, isso tem um efeito negativo, com impactos piores no sucesso, bem-estar e retenção do estudante.
Para não cair na vala comum e correr o risco de ser ameaçado por quem faz uso intensivo da IA será necessário se diferenciar a partir das experiências dentro e fora da sala de aula – online ou presencial; humanizar as relações de ensino-aprendizagem; implementar metodologias que privilegiem o protagonismo dos estudantes e fortaleçam o papel do docente no processo; usar a microcertificação para registrar e ressaltar competências desenvolvidas de forma diferenciada, tanto nas hard quanto soft skills; e, principalmente, estabelecer um vínculo de confiança e suporte ao discente que o acompanhe pela vida afora – ninguém mais pode se dar ao luxo de ter ex-alunos.
Atenção: esse artigo foi exclusivamente escrito por um ser humano.
O editor, Michael França, pede para que cada participante do espaço "Políticas e Justiça" da Folha sugira uma música aos leitores. Nesse texto, a escolhida por Luciano Sathler foi "O Ateneu" de Milton Nascimento.

No comment yet.
Scooped by Inovação Educacional
Today, 1:31 PM
Scoop.it!

Apostas online podem gerar R$ 30 bilhões de custos anuais em saúde: ‘Manipulam cérebro para viciar’

Segundo o levantamento, o custo social dos danos associados ao jogo problemático é de pelo menos R$ 38,8 bilhões anuais no Brasil, sendo R$ 30,6 bilhões referentes aos danos à saúde, que englobam tanto os gastos das redes pública e privada de saúde quanto o pagamentos de seguro-desemprego e outras despesas associadas à perda de anos de vida saudável decorrentes do vício.

Os danos de saúde mais graves incluem:

R$ 17 bilhões por mortes por suicídio.
R$ 13,4 bilhões por perda de qualidade de vida e tratamentos decorrentes de depressão.
No comment yet.
Scooped by Inovação Educacional
Today, 1:27 PM
Scoop.it!

Como se proteger contra ataques cibernéticos

Como se proteger contra ataques cibernéticos | Inovação Educacional | Scoop.it
“É preciso agir rapidamente para conter seu avanço, eliminar a presença do atacante, erradicar a causa-raiz da invasão, restaurar o ambiente e retornar à operação normal”, recomenda o recém-lançado guia Ransomware: Como se proteger, elaborado pelo Centro de Estudos, Resposta e Tratamento de Incidentes de Segurança no Brasil (CERT.br). Dirigido especialmente para pequenas e médias empresas, o guia apresenta um conjunto de medidas preventivas essenciais, como a proteção de backups, a identificação de vulnerabilidades e a separação de redes de usuários, para evitar perda de dados. “Falhas na remoção de malware [programas criados para causar danos, como os vírus], na eliminação dos acessos usados pelo atacante ou na correção das falhas exploradas pelo atacante podem levar a novos ataques e mais prejuízos”, observa o documento (ver Pesquisa FAPESP nºs 327 e 352). Gratuito, o guia pode ser acessado pelo site.
No comment yet.
Scooped by Inovação Educacional
Today, 1:21 PM
Scoop.it!

A Saúde dos Brasileiros em Jogo

A Saúde dos Brasileiros em Jogo | Inovação Educacional | Scoop.it
Com base em evidências econômicas e epidemiológicas, além de informações inéditas obtidas junto ao Governo Brasileiro, o dossiê demonstra como o crescimento acelerado das plataformas de apostas já produz impactos significativos: aumento do endividamento das famílias, maior ocorrência de transtorno do jogo, agravamento de quadros de sofrimento mental e danos multifacetados de alto custo para a sociedade.
No comment yet.
Scooped by Inovação Educacional
Today, 1:20 PM
Scoop.it!

Ane Alencar: As mudanças climáticas afetam a todos : Revista Pesquisa Fapesp

Ane Alencar: As mudanças climáticas afetam a todos : Revista Pesquisa Fapesp | Inovação Educacional | Scoop.it
Geógrafa paraense especialista em incêndios florestais diz que a pauta ambiental não é ideológica e precisa ser levada em conta por pessoas de qualquer tendência política
No comment yet.
Scooped by Inovação Educacional
Today, 1:15 PM
Scoop.it!

Inseticidas naturais avançam na agricultura e rivalizam com os agrotóxicos : Revista Pesquisa Fapesp

Inseticidas naturais avançam na agricultura e rivalizam com os agrotóxicos : Revista Pesquisa Fapesp | Inovação Educacional | Scoop.it
Centros de pesquisa e empresas põem no campo novas formulações que combatem pragas e favorecem o crescimento de culturas agrícolas
No comment yet.
Scooped by Inovação Educacional
Today, 1:05 PM
Scoop.it!

Educação antirracista, ensino religioso e soberania das esferas

Educação antirracista, ensino religioso e soberania das esferas | Inovação Educacional | Scoop.it
Nos últimos anos, multiplicaram-se relatos de escolas públicas que, ao trabalhar conteúdos relacionados à África, deixam de apresentar dados históricos ou elementos mitológicos e passam a introduzir expressões litúrgicas próprias de religiões de matriz africana em sala de aula. E aqui não há que se falar em opinião ou julgamento religioso: trata-se de um fato técnico-jurídico. Ora, se a preocupação de muitos é garantir a laicidade e evitar a presença do cristianismo nos conteúdos culturais por ser considerada uma doutrinação religiosa inadequada, por que a mesma cautela não é aplicada para separar o estudo da cultura africana de suas práticas religiosas e litúrgicas?
No comment yet.
Scooped by Inovação Educacional
Today, 12:09 PM
Scoop.it!

Seu eletrodoméstico 'inteligente' pode te espionar?

Seu eletrodoméstico 'inteligente' pode te espionar? | Inovação Educacional | Scoop.it
Em outubro deste ano circulou o mundo a notícia de que aspiradores-robô da marca chinesa Ecovacs Deebot X2 foram hackeados em diversas cidades americanas
No comment yet.
Scooped by Inovação Educacional
Today, 10:59 AM
Scoop.it!

'Isca de raiva' das redes sociais é eleita termo do ano por dicionário britânico

'Isca de raiva' das redes sociais é eleita termo do ano por dicionário britânico | Inovação Educacional | Scoop.it
A expressão, que significa ficar irritado ao rolar o feed das redes sociais, superou aura farming e biohack e levou o título
No comment yet.
Scooped by Inovação Educacional
Today, 10:27 AM
Scoop.it!

ANPD: Foco da regulação de inteligência artificial deve ser transparência algorítmica

ANPD: Foco da regulação de inteligência artificial deve ser transparência algorítmica | Inovação Educacional | Scoop.it
A diretora explicou que o sandbox da ANPD foi concebido como um ambiente controlado que permite testar parâmetros regulatórios sem comprometer a inovação tecnológica nem revelar segredos comerciais. O objetivo, afirmou, é garantir mecanismos de intervenção humana, ampliar a confiabilidade dos sistemas e fortalecer a proteção dos titulares de dados.
No comment yet.
Scooped by Inovação Educacional
Today, 8:29 AM
Scoop.it!

Startup alemã fundada há um ano já vale US$ 3,25 bi e quer enfrentar gigantes da IA

Startup alemã fundada há um ano já vale US$ 3,25 bi e quer enfrentar gigantes da IA | Inovação Educacional | Scoop.it
Enquanto outros líderes de startups de IA, como Sam Altman da OpenAI, buscaram os holofotes, o cofundador e CEO da Black Forest, Robin Rombach, afirmou ao Financial Times que prefere "deixar o produto falar por si mesmo".

Em apenas 15 meses, o grupo já fechou um acordo lucrativo com a Meta, além de parcerias com criadores de ferramentas criativas como Adobe e Canva. Rombach comentou que planeja usar o novo investimento para impulsionar sua infraestrutura computacional e expandir a equipe comercial.

A Black Forest é uma das poucas empresas europeias desenvolvendo seus próprios modelos de IA, ao lado da francesa Mistral. Rombach afirmou que ter sede fora do "super hype" de San Francisco —onde empresas de IA disputam profissionais com ofertas salariais enormes— é "a melhor coisa que fizemos até agora", pois ajuda a equipe a permanecer "super focada".
No comment yet.
Scooped by Inovação Educacional
Today, 8:08 AM
Scoop.it!

Divulgados estados que terão recursos para ensino médio integral

Divulgados estados que terão recursos para ensino médio integral | Inovação Educacional | Scoop.it
Ao todo, 14 estados brasileiros receberão recursos do Programa de Fomento às Escolas de Ensino Médio em Tempo Integral. Portaria nº 121/2025, de divulgação dos estados, foi publicada nesta segunda-feira (1º)
No comment yet.
Scooped by Inovação Educacional
Today, 6:34 AM
Scoop.it!

A IA está destruindo a universidade e aprendendo por si mesma.

A IA está destruindo a universidade e aprendendo por si mesma. | Inovação Educacional | Scoop.it

Os alunos usam IA para escrever trabalhos, os professores usam IA para corrigi-los, os diplomas perdem o sentido e as empresas de tecnologia lucram muito. Bem-vindos à morte do ensino superior.

Ronald Purser
protocolado01 de dezembro de 2025 em EDUCAÇÃO
Antes, eu achava que toda a empolgação em torno da inteligência artificial era só isso mesmo: empolgação. Fiquei cético quando o ChatGPT foi lançado. O frenesi da mídia, as proclamações entusiasmadas de uma nova era — tudo parecia familiar. Presumi que seria passageiro, como todas as modas tecnológicas anteriores.
Estava enganado. Mas não da maneira que você imagina.

  Primeiro veio o pânico. As reuniões do corpo docente explodiram em pavor: "Como vamos detectar plágio agora?" "Será este o fim da redação acadêmica?" "Deveríamos voltar aos cadernos de respostas e às provas supervisionadas?" Meus colegas da escola de negócios de repente se comportaram como se a trapaça tivesse acabado de ser inventada.

  Então, quase da noite para o dia, a preocupação excessiva se transformou em euforia. Os mesmos professores que previam o apocalipse acadêmico agora se reinventavam, entusiasmados, como “educadores preparados para a IA”. Em todo o campus, workshops como “ Desenvolvendo Habilidades e Conhecimento em IA na Sala de Aula ” e “ Fundamentos da Alfabetização em IA ” surgiram como cogumelos depois da chuva. O pânico inicial com o plágio deu lugar a uma aceitação resignada: “Se não pode vencê-los, junte-se a eles”.

  Essa mudança radical não foi exclusiva do meu campus. O sistema da Universidade Estadual da Califórnia (CSU) — o maior sistema de universidades públicas dos Estados Unidos, com 23 campi e quase meio milhão de alunos — apostou tudo, anunciando uma parceria de US$ 17 milhões com a OpenAI. A CSU se tornaria o primeiro sistema universitário do país “ capacitado por IA ”, oferecendo gratuitamente o ChatGPT Edu (uma versão personalizada para instituições de ensino) a todos os alunos e funcionários. O comunicado de imprensa exaltava “ferramentas de aprendizado personalizadas e voltadas para o futuro” e a preparação dos alunos para uma “economia impulsionada por IA”.

  O momento foi surreal. A CSU revelou seu grandioso gesto tecnológico justamente quando propôs um corte de US$ 375 milhões em seu orçamento. Enquanto os administradores inauguravam sua iniciativa de IA, também cortavam vagas de professores, programas acadêmicos inteiros e serviços estudantis. Na CSU East Bay, avisos gerais de demissão foram emitidos duas vezes em um ano, atingindo departamentos como Estudos Gerais e Línguas Modernas. Minha própria alma mater, a Sonoma State, enfrentava um déficit de US$ 24 milhões e anunciou planos para eliminar 23 programas acadêmicos — incluindo filosofia, economia e física — e cortar mais de 130 vagas de professores, mais de um quarto de seu corpo docente.

  Na Universidade Estadual de São Francisco, o gabinete do reitor notificou formalmente nosso sindicato, a Associação de Professores da Califórnia (CFA), sobre possíveis demissões — um anúncio que causou grande impacto no campus, enquanto o corpo docente tentava conciliar os cortes orçamentários com o entusiasmo da administração pela IA. A ironia era evidente: no mesmo mês em que nosso sindicato recebeu as ameaças de demissão, os defensores da educação da OpenAI montaram um estande na biblioteca da universidade para recrutar professores para o evangelho da aprendizagem automatizada.

  A matemática é brutal e a justaposição gritante: milhões para a OpenAI enquanto professores veteranos são demitidos. A CSU não está investindo em educação — está terceirizando-a, pagando preços exorbitantes por um chatbot que muitos alunos já usavam gratuitamente.

 



À venda: Educação Crítica
 

A educação pública está à venda há décadas. O teórico cultural Henry Giroux foi um dos primeiros a perceber como as universidades públicas estavam sendo remodeladas em formações profissionalizantes para o mercado privado . Os departamentos acadêmicos agora precisam se justificar em termos de receita, "entregáveis" e "resultados de aprendizagem". A nova parceria da CSU com a OpenAI é o mais recente exemplo dessa tendência.

Outros autores já apontaram a mesma tendência. Sheila Slaughter e Gary Rhoades a denominaram capitalismo acadêmico : o conhecimento transformado em mercadoria e os estudantes em consumidores. Em " Unmaking the Public University" (Desfazendo a Universidade Pública), Christopher Newfield demonstrou como a privatização, na verdade, empobrece as universidades públicas, transformando-as em meras cascas de si mesmas, financiadas por dívidas. Benjamin Ginsberg relatou a ascensão do " campus totalmente administrativo ", onde as camadas gerenciais e a corrupção administrativa se multiplicaram enquanto o corpo docente diminuía. E Martha Nussbaum alertou para o que se perde quando as humanidades — esses espaços para a imaginação e a reflexão cívica — são tratadas como descartáveis ​​em uma democracia. Juntos, eles descrevem uma universidade que não questiona mais o propósito da educação , mas apenas o que ela pode gerar em termos de lucro.

  O sistema da Universidade Estadual da Califórnia (CSU) escreveu o próximo capítulo dessa história. Diante de déficits e queda nas matrículas, os administradores abraçaram a retórica da inovação em IA como se fosse a salvação. Quando a reitora da CSU, Mildred Garcia, anunciou a parceria de US$ 17 milhões com a OpenAI, o comunicado à imprensa prometia uma “iniciativa público-privada altamente colaborativa” que “elevaria a experiência educacional de nossos alunos” e “impulsionaria a economia da Califórnia movida a IA”. Essa linguagem corporativa parece ter saído de um comunicado à imprensa escrito pelo ChatGPT. 

Enquanto isso, na Universidade Estadual de São Francisco, programas inteiros de pós-graduação dedicados à pesquisa crítica — Estudos de Gênero e Antropologia — estavam sendo suspensos por falta de financiamento. Mas não se preocupem: todos ganharam uma licença gratuita do ChatGPT Edu!

A professora Martha Kenney, chefe do departamento de Estudos de Gênero e Feminismo e pesquisadora principal de um projeto financiado pela Fundação Nacional de Ciência (NSF) que examina os impactos da IA ​​na justiça social, presenciou a contradição em primeira mão. Pouco depois do anúncio da CSU, ela foi coautora de um artigo de opinião no San Francisco Chronicle com a professora de Antropologia Martha Lincoln , alertando que a nova iniciativa corria o risco de prejudicar os alunos e minar o pensamento crítico.

  “Não sou um ludita”, escreveu Kenney. “Mas precisamos fazer perguntas críticas sobre o que a IA está fazendo com a educação, o trabalho e a democracia — perguntas que meu departamento está singularmente qualificado para explorar.”

  A ironia não poderia ser mais gritante: os próprios programas mais bem equipados para estudar as implicações sociais e éticas da IA ​​estavam sendo desfinanciados, mesmo enquanto a universidade promovia o uso dos produtos da OpenAI em todo o campus. 

  Isso não é inovação — é autocanibalismo institucional.

A nova missão? Otimização. Dentro da instituição, a linguagem corporativa permeia memorandos administrativos e e-mails condescendentes. Sob o pretexto de “sustentabilidade fiscal” (uma forma mais amena de dizer “cortes”), os administradores afiam seus bisturis para reestruturar a universidade de acordo com métricas de eficiência em vez de propósito educacional.

As mensagens dos administradores seriam cômicas se não fossem tão cínicas. Antes das férias de verão na Universidade Estadual de São Francisco, uma administradora alertou o corpo docente por e-mail sobre possíveis demissões, hesitando com frases como: “Esperamos evitar demissões” e “Nenhuma decisão foi tomada”. Semanas depois, veio sua alegre mensagem de despedida de verão: “Espero que vocês estejam aproveitando o último dia para entregar as notas. Talvez até estejam lendo aquele romance que nunca terminaram durante as férias de inverno...”

  Certo, porque nada combina mais com leitura de lazer do que a iminência do desemprego. Aí veio a cereja do bolo: "Se continuarmos com o trabalho acima para reduzir despesas, mantendo o acesso dos alunos, não prevemos a necessidade de demissões." Tradução: Sacrifique sua carga de trabalho, sua segurança no emprego, até mesmo seus colegas, talvez a gente deixe você manter o emprego. Sem promessas. Agora vá aproveitar seu livro.

 

A tecnopolídia chega ao campus.
 

Quando meus colegas da escola de negócios insistem que o ChatGPT é “apenas mais uma ferramenta na caixa de ferramentas”, fico tentado a lembrá-los de que o Facebook já foi “apenas uma forma de se conectar com amigos”. Mas há uma diferença entre ferramentas e tecnologias. As ferramentas nos ajudam a realizar tarefas; as tecnologias remodelam os próprios ambientes em que pensamos, trabalhamos e nos relacionamos. Como observa o filósofo Peter Hershock , não apenas usamos tecnologias; participamos delas . Com as ferramentas, mantemos a autonomia — podemos escolher quando e como usá-las. Com as tecnologias, a escolha é mais sutil: elas remodelam as próprias condições de escolha. Uma caneta amplia a comunicação sem redefini-la; as redes sociais transformaram o que entendemos por privacidade, amizade e até mesmo verdade. 

O teórico da mídia Neil Postman alertou que uma “tecnopólio” surge quando as sociedades abdicam do discernimento em prol dos imperativos tecnológicos — quando a eficiência e a inovação se tornam bens morais em si mesmas. Uma vez que métricas como velocidade e otimização substituem a reflexão e o diálogo, a educação se transforma em logística: a correção de provas é automatizada, redações são geradas em segundos. O conhecimento se torna dados; o ensino se torna transmissão. O que desaparece são capacidades humanas preciosas — curiosidade, discernimento, presença. O resultado não é inteligência aumentada, mas aprendizado simulado: uma abordagem mecânica do pensamento.

O teórico político Langdon Winner certa vez questionou se artefatos podem ter cunho político. Podem, e os sistemas de IA não são exceção. Eles incorporam pressupostos sobre o que é considerado inteligência e cujo trabalho é considerado valioso. Quanto mais dependemos de algoritmos, mais normalizamos seus valores: automação, previsão, padronização e dependência corporativa. Eventualmente, essas prioridades desaparecem de vista e passam a parecer naturais — “é assim que as coisas são”. 

Nas salas de aula de hoje, o tecnopólio está prosperando. As universidades estão sendo reestruturadas como centros de conveniência cognitiva. Os alunos não estão sendo ensinados a pensar mais profundamente, mas sim a questionar com mais eficácia. Estamos exportando o próprio trabalho de ensinar e aprender — o trabalho lento de lidar com ideias, a persistência no desconforto, na dúvida e na confusão, a luta para encontrar a própria voz. A pedagogia crítica está fora de moda; os atalhos de produtividade estão em alta. O que é vendido como inovação é, na verdade, rendição. À medida que a universidade troca sua missão de ensino pela “integração de IA e tecnologia”, ela não corre apenas o risco de se tornar irrelevante — corre o risco de se tornar mecanicamente sem alma. A genuína luta intelectual tornou-se uma proposta de valor cara demais. 

O escândalo não é de ignorância, mas de indiferença. Os administradores da universidade sabem exatamente o que está acontecendo e, mesmo assim, seguem em frente. Enquanto os números de matrículas se mantiverem e os pagamentos das mensalidades forem compensados, eles fecham os olhos para a crise de aprendizagem, enquanto o corpo docente é deixado à própria sorte para lidar com o caos educacional em suas salas de aula. 

O futuro da educação já chegou – como uma liquidação de tudo que um dia lhe deu importância. 

 

 



ILUSTRAÇÃO DE EMILY ALTMAN PARA A REVISTA CURRENT AFFAIRS, EDIÇÃO 56, OUTUBRO-NOVEMBRO DE 2025.
O Complexo de Tecnologia de IA Trapaceira
Antes da chegada da IA, eu costumava brincar com meus colegas sobre plágio. "Que pena que não exista um aplicativo de IA que possa corrigir as redações plagiadas para nós", eu dizia, meio brincando. Os alunos sempre encontraram maneiras de colar — rabiscando respostas na palma da mão, enviando provas para o Chegg.com, contratando escritores fantasmas —, mas o ChatGPT levou isso a outro nível. De repente, eles tinham acesso a um assistente de escrita que nunca dormia, nunca cobrava e nunca dizia não.

As universidades se apressaram em reagir com detectores de IA como o Turnitin — apesar das altas taxas de falsos positivos , do viés documentado contra estudantes negros e de inglês como segunda língua , e do absurdo de combater robôs com robôs. É um ciclo vicioso: universidades fazem parcerias com empresas de IA; estudantes usam IA para colar; as instituições entram em pânico com a possibilidade de cola e, então, fazem parcerias com mais empresas de IA para detectar as fraudes. É o capitalismo de vigilância encontrando a má prática institucional, com os estudantes presos em uma corrida armamentista na qual nunca quiseram participar. 

O ciclo vicioso ficou ainda mais sombrio. Em outubro de 2025, a Perplexity AI lançou um anúncio no Facebook para seu novo navegador Comet , apresentando um influenciador adolescente se gabando de como usaria o aplicativo para colar em todas as provas e trabalhos — e não era uma paródia. A empresa literalmente pagou para divulgar desonestidade acadêmica como argumento de venda. Marc Watkins, escrevendo em seu Substack , chamou isso de "um novo nível de baixeza", observando que o próprio CEO da Perplexity parecia não ter consciência de que sua equipe de marketing estava glamourizando a fraude.

  Se isso soa como sátira, não é: na mesma semana em que o anúncio foi veiculado, um membro do corpo docente da nossa Faculdade de Administração enviou um e-mail para todos os professores e alunos, promovendo com entusiasmo uma assinatura gratuita de um ano do Perplexity Pro “com alguns recursos adicionais interessantes!”. Sim — maneiras ainda mais eficazes de colar. É difícil imaginar um símbolo mais claro do que eu chamo de autocanibalismo na educação: universidades consumindo seu próprio propósito enquanto comercializam alegremente as ferramentas para sua própria destruição.

Depois, há a saga de Chungin “Roy” Lee. Lee chegou como calouro à Universidade Columbia com ambição — e uma aba do OpenAI permanentemente aberta. Segundo ele próprio, colava em quase todos os trabalhos. “Eu simplesmente jogava o enunciado no ChatGPT e entregava o que ele gerasse”, disse à revista New York Magazine . “A IA escrevia 80% de cada redação que eu entregava.” Questionado sobre por que se deu ao trabalho de se candidatar a uma universidade da Ivy League, Lee foi surpreendentemente honesto: “Para encontrar uma esposa e um sócio para uma startup.” 

Seria hilário se não fosse tão revelador. O economista conservador Tyler Cowen ofereceu uma visão ainda mais sombria sobre a "proposta de valor" da universidade moderna. "O ensino superior persistirá como um serviço de encontros, uma forma de sair de casa e uma oportunidade para festejar e assistir a jogos de futebol", escreveu ele em " Todo mundo está usando IA para colar na escola. E isso é bom ". Nessa perspectiva, a missão intelectual da universidade já está morta, substituída pelo credencialismo, pelo consumismo e pela conveniência.

O primeiro empreendimento de Lee foi um aplicativo de IA chamado Interview Coder , projetado para fraudar entrevistas de emprego da Amazon. Ele se filmou usando o aplicativo ; seu vídeo viralizou. A Universidade Columbia o suspendeu por " divulgar um link para uma ferramenta de fraude ". Ironicamente, isso aconteceu justamente quando a universidade — assim como a CSU — anunciou uma parceria com a OpenAI , a mesma empresa que fornece o software que Lee usou para trapacear em suas disciplinas.

Imperturbável, Lee publicou sua audiência disciplinar online, ganhando mais seguidores. Ele e seu sócio, Neel Shanmugan, também disciplinado, argumentaram que seu aplicativo não violava nenhuma regra. "Não aprendi absolutamente nada em uma aula na Columbia", disse Shanmugan ao canal de notícias KTVU. " E acho que isso se aplica à maioria dos meus amigos."

Após a suspensão, a dupla dinâmica abandonou os estudos, arrecadou US$ 5,3 milhões em financiamento inicial e se mudou para São Francisco. Claro, porque nada define melhor um "visionário da tecnologia" do que ser expulso por trapaça.

A nova empresa deles? Cluely. Sua missão: " Queremos trapacear em tudo . Para ajudar você a trapacear — de forma mais inteligente." Seu slogan: "Criamos a Cluely para que você nunca mais precise pensar sozinho." 

A Cluely não esconde seu propósito; pelo contrário, o ostenta. Seu manifesto explicita a lógica:

Por que memorizar fatos, escrever código, pesquisar qualquer coisa — quando um modelo pode fazer tudo em segundos? O futuro não recompensará o esforço. Recompensará a vantagem. Então comece a trapacear. Porque quando todos trapaceiam, ninguém mais trapaceia.

 

Quando questionado sobre ética, Lee recorre à defesa padrão do Vale do Silício: "qualquer tecnologia do passado — sejam calculadoras ou a busca do Google — foi recebida inicialmente com a reação de 'ei, isso é trapaça'", disse ele à KTVU . É uma analogia superficial que soa profunda em uma apresentação de startup, mas desmorona sob análise. Calculadoras expandiram o raciocínio; a imprensa disseminou o conhecimento. O ChatGPT, por outro lado, não expande a cognição — ele a automatiza, transformando o próprio pensamento em um serviço. Em vez de democratizar o aprendizado, ele privatiza o ato de pensar sob controle corporativo. 

Quando um jovem de 21 anos, que abandonou a faculdade e foi suspenso por colar, nos dá uma palestra sobre a inevitabilidade da tecnologia, a resposta não deveria ser pânico moral, mas sim clareza moral — sobre a quem servem os interesses. Colar deixou de ser uma subcultura; tornou-se uma identidade de marca e uma ideologia de capital de risco. E por que não? Na comunidade do Chat, colar não é mais um desvio — é o padrão. Os alunos trocam abertamente prompts de jailbreak para fazer o ChatGPT parecer mais burro, inserem erros de digitação e treinam modelos em suas próprias redações medíocres para "humanizar" o resultado.

O que está acontecendo agora é mais do que desonestidade — é o desmoronamento de qualquer entendimento compartilhado sobre o propósito da educação. E os estudantes não são irracionais. Muitos estão sob imensa pressão para manter notas altas e conseguir bolsas de estudo, auxílio financeiro ou vistos. A educação se tornou transacional; colar se tornou uma estratégia de sobrevivência.

Algumas instituições simplesmente desistiram. A Universidade Estadual de Ohio anunciou que o uso de IA não seria mais considerado uma violação da integridade acadêmica. "Todos os casos de uso de IA em sala de aula não serão mais questionados quanto à integridade acadêmica", disse o reitor Ravi Bellamkonda à rádio pública WOSU . Em um artigo de opinião, o ex-aluno da OSU, Christian Collins, fez a pergunta óbvia: "Por que um aluno pagaria a mensalidade integral, além de se expor à armadilha economicamente ruinosa da dívida estudantil , para potencialmente nem sequer ser ensinado por um ser humano?"

A ironia só aumenta.

O New York Times relatou o caso de Ella Stapleton, uma aluna do último ano da Northeastern University, que descobriu que seu professor de administração havia usado o ChatGPT discretamente para gerar slides de aula — mesmo que o programa da disciplina proibisse explicitamente o uso do programa. Ao revisar os slides sobre teoria da liderança, ela encontrou uma instrução residual embutida nos slides: “Expanda todas as áreas. Seja mais detalhado e específico.” Os slides do PowerPoint estavam repletos de indícios de fraude: imagens distorcidas de funcionários de escritório com membros extras, texto ilegível e erros de ortografia. “Ele nos diz para não usar”, disse Stapleton, “e depois ele mesmo usa.”

Furiosa, ela entrou com uma ação exigindo o reembolso de US$ 8.000, sua parte da mensalidade daquele semestre. O professor, Dr. Rick Arrowood, admitiu ter usado o ChatGPT em seus slides para "dar uma cara nova a eles", e depois reconheceu: "Em retrospectiva, gostaria de ter analisado com mais atenção". 

Pode-se pensar que essa hipocrisia seja anedótica, mas ela é institucional. Professores que antes entravam em pânico com o plágio por IA agora estão sendo "empoderados" por universidades como CSU, Columbia e Ohio State para adotar as mesmas "ferramentas" que temiam. À medida que a corporatização aumenta o número de alunos por turma e a carga de trabalho dos professores, a tentação é óbvia: deixar que o ChatGPT escreva aulas e artigos acadêmicos, corrija redações e reformule os planos de aula.  

Toda essa farsa me faz lembrar uma velha piada soviética de fábrica: "Eles fingem que nos pagam e nós fingimos que trabalhamos". Na universidade virtual, os papéis são igualmente roteirizados e cínicos. Professores: "Eles fingem que nos apoiam e nós fingimos que ensinamos". Alunos: "Eles fingem que nos educam e nós fingimos que aprendemos".

De empregos de merda a diplomas de merda
O antropólogo David Graeber escreveu sobre a ascensão dos " empregos de merda " — trabalhos sustentados não por necessidade ou significado, mas pela inércia institucional. As universidades agora correm o risco de criar seu gêmeo acadêmico: diplomas de merda. A inteligência artificial ameaça profissionalizar a arte da atividade sem sentido, ampliando o abismo entre a missão pública da educação e suas rotinas vazias. Nas palavras de Graeber, tais sistemas infligem "profunda violência psicológica", a dissonância de saber que o próprio trabalho não serve a nenhum propósito. 

As universidades já estão presas nesse ciclo: alunos cumprindo procedimentos que sabem ser vazios, professores corrigindo trabalhos que suspeitam não terem sido escritos pelos alunos, administradores celebrando “inovações” que todos entendem estarem destruindo a educação. A diferença em relação aos “empregos de merda” do mundo corporativo é que os alunos precisam pagar pelo privilégio desse teatro de faz-de-conta do aprendizado.  

Se o ChatGPT consegue gerar redações de alunos, concluir tarefas e até mesmo fornecer feedback, o que resta da transação educacional? Corremos o risco de criar um sistema onde:

 

Os alunos pagam mensalidades por diplomas que não conquistaram por meio do aprendizado.
Professores avaliam trabalhos que sabem que não foram produzidos pelos alunos.
Administradores comemoram “ganhos de eficiência” que, na verdade, são perdas de aprendizado.
Os empregadores recebem graduados com diplomas que nada dizem sobre competência real.
 

Tive o privilégio de presenciar essa farsa de perto em um workshop recente chamado “OpenAI Day Faculty Session: AI in the Classroom”, realizado na biblioteca da universidade como parte do lançamento do ChatGPT Edu na Universidade Estadual de São Francisco . A OpenAI havia transformado o santuário do aprendizado em seu showroom corporativo. O clima era de uma mistura de demonstração de tecnologia de produto e evento corporativo, disfarçado de desenvolvimento profissional.

Siya Raj Purohit , um funcionário da OpenAI, subiu ao palco com entusiasmo contagiante: “Vocês aprenderão ótimos casos de uso! Demonstrações incríveis! Funcionalidades incríveis!” (Muito legal para a escola, mas aguentei firme.)

Em seguida, veio a peça central: um slide instruindo os professores sobre como estruturar seus cursos com perguntas de acompanhamento. Um modelo dizia:

 

Experimente com esta sugestão.

 

Experimente inserir a seguinte mensagem. Sinta-se à vontade para editá-la como quiser — essa é justamente a ideia!

 

Sou professor na Universidade Estadual de São Francisco, lecionando [nome do curso ou disciplina]. Tenho uma atividade em que os alunos [descreva brevemente a tarefa]. Gostaria de reformulá-la utilizando IA para aprofundar o aprendizado, o engajamento e o pensamento crítico dos alunos.

 

Você pode sugerir:

- Uma versão revisada da tarefa usando o ChatGPT

- Uma sugestão que posso dar aos alunos para orientá-los no uso do ChatGPT.

- Uma forma de avaliar se a IA melhorou a qualidade do trabalho deles.

- Há algum risco à integridade acadêmica do qual eu deva estar ciente? 

 

 

A mensagem era clara. Deixe o ChatGPT reformular suas aulas. Deixe o ChatGPT te ensinar a avaliar seus alunos. Deixe o ChatGPT ensinar os alunos a usar o ChatGPT. Deixe o ChatGPT resolver o problema da educação humana. Era como receber um quebra-cabeça de Mad Libs para automatizar seu plano de aula.

Então veio a verdadeira surpresa.

Visivelmente emocionada, Siya compartilhou o que chamou de um ponto de virada pessoal: “Houve um momento em que o ChatGPT e eu nos tornamos amigos. Eu estava trabalhando em um projeto e disse: 'Ei, você se lembra de quando criamos aquilo para o meu gerente no mês passado?' E ele respondeu: 'Sim, Siya, eu me lembro.' Foi um momento muito marcante — parecia um amigo que se lembra da sua história e te ajuda a se tornar um profissional do conhecimento melhor.”

Um membro do corpo docente interrompeu. "Desculpe... é uma ferramenta, certo? Você está dizendo que uma ferramenta vai ser uma amiga ?"

Siya desconversou: "Bem, é uma anedota que às vezes ajuda os professores." (Dessa vez não foi o caso). "É apenas uma questão de quanto contexto ela retém."

O professor insistiu: "Então estamos incentivando os alunos a criarem relacionamentos com isso? Só quero deixar claro."

Syia rebateu com dados de pesquisa, o colete à prova de balas retórico de todo bom evangelista de tecnologia educacional: “De acordo com a pesquisa que realizamos, muitos alunos já usam. Eles veem a plataforma como um treinador, mentor, orientador de carreira... cabe a eles decidir que tipo de relacionamento desejam ter.”

Bem-vindos ao admirável mundo novo da ligação parasocial entre máquinas — patrocinado pelo centro de excelência em ensino do campus. O momento foi absurdo, mas revelador; a universidade não estava resistindo à educação superficial, estava a acolhendo. A educação, em sua melhor forma, desperta a curiosidade e o pensamento crítico. A "educação superficial" faz o oposto: treina as pessoas a tolerarem a falta de sentido, a aceitarem a automatização do próprio pensamento, a valorizarem diplomas em detrimento da competência.

Os administradores parecem incapazes de compreender o óbvio: a erosão do propósito fundamental do ensino superior não passa despercebida. Se o ChatGPT pode escrever redações , gabaritar provas e dar aulas particulares, o que exatamente a universidade está vendendo? Por que pagar dezenas de milhares por uma experiência cada vez mais automatizada? Por que dedicar a vida ao ensino se ele se resume a produzir conteúdo sob demanda? Por que manter professores titulares cujo papel parece antiquado, medieval e redundante? Por que ainda existirem universidades?

Alunos e pais certamente notaram a deterioração. As matrículas e as taxas de retenção estão despencando, especialmente em sistemas públicos como o CSU. Os alunos estão argumentando, com razão, que não faz sentido contrair dívidas exorbitantes por diplomas que podem se tornar obsoletos em breve.

O professor de filosofia Troy Jollimore, da CSU Chico, já percebe o que está por vir. Conforme relatado pela revista New York Magazine , ele alertou: "Um número enorme de estudantes sairá da universidade com diplomas e entrará no mercado de trabalho sendo, essencialmente, analfabetos". Ele acrescentou: "Toda vez que converso com um colega sobre isso, a mesma coisa surge: aposentadoria. Quando poderei me aposentar? Quando poderei sair dessa? É nisso que todos estamos pensando agora."

Aqueles que dedicaram décadas a aprimorar suas habilidades agora veem o trabalho de uma vida inteira reduzido a interagir com um chatbot. Não é de admirar que tantos estejam calculando benefícios de aposentadoria fora do horário de expediente.

 



 

Deixe-os comer IA
 

Participei do webinar educacional da OpenAI intitulado " Escrevendo na Era da IA " (será que isso já virou um paradoxo?). O evento foi apresentado por Siya Raj Purohit, da OpenAI, que eu havia visto meses antes no campus da SFSU. Ela começou elogiando bastante os educadores que "encararam o momento com empatia e curiosidade", antes de apresentar Jay Dixit , ex-professor de inglês de Yale que se tornou evangelista da IA ​​e agora é o chefe da Comunidade de Escritores da OpenAI. 

O site pessoal de Dixit se assemelha a uma lista magistral de conquistas do ChatGPT — “Minha estrutura ética de IA foi adotada!” “Eu defini a mensagem sobre IA!” — o tipo de discurso corporativo autopromocional que faria um influenciador do LinkedIn corar de vergonha. O que se seguiu foi uma mistura surreal de charme de palestra TED, tecnoteologia e ensinamentos morais.

A ironia era evidente. Lá estava Dixit, fruto de uma educação de elite em Yale, que custava US$ 80.000 por ano, dando palestras para professores de universidades públicas como a San Francisco State University sobre como seus alunos da classe trabalhadora deveriam adotar o ChatGPT. Na SFSU, 60% dos alunos são os primeiros de suas famílias a frequentar uma universidade; muitos têm vários empregos ou vêm de famílias imigrantes onde a educação representa a única chance de ascensão social. Esses não são alunos que podem se dar ao luxo de experimentar com seus futuros acadêmicos.

A mensagem de Dixit era puro evangelho do Vale do Silício: responsabilidade individual envolta em clichês corporativos. Os professores, aconselhava ele, não deveriam fiscalizar o uso do ChatGPT pelos alunos, mas sim incentivá-los a criar sua própria “ética pessoal em IA”, apelando para o seu lado mais nobre. Em outras palavras, bastava transferir a responsabilidade para os alunos. “Não terceirizem o pensamento!”, proclamava Dixit, enquanto, literalmente, vendia o chatbot.

A audácia era de tirar o fôlego. Dizer a um jovem de 18 anos, cuja ajuda financeira, bolsa de estudos ou visto dependem do seu GPA, para desenvolver uma "ética pessoal em IA" enquanto você lucra com a própria tecnologia criada para minar o aprendizado dele. É o clássico jiu-jitsu neoliberal: reformular a erosão das normas institucionais como uma oportunidade de desenvolvimento de caráter. É como um traficante de drogas dando palestras sobre responsabilidade pessoal enquanto distribui amostras grátis.

Quando os críticos se opõem a esse evangelismo corporativo, a resposta — como a de Roy Lee — é previsível: somos acusados ​​de “pânico moral” diante do progresso inevitável, com a velha invocação da ansiedade de Sócrates em relação à escrita para sugerir que os temores atuais sobre a IA são mera nostalgia. Luminárias da tecnologia como Reid Hoffman defendem esse argumento, incentivando a “implantação iterativa” e insistindo que nosso “senso de urgência precisa acompanhar a velocidade atual das mudanças” — aprender implementando, corrigir depois. Ele reformula a precaução como “problemismo” e rotula os céticos como “Pessimistas”, alegando que desacelerar ou pausar a IA apenas impediria seus benefícios. 

Mas a analogia é falha. Tecnologias anteriores expandiram a capacidade de ação humana ao longo de gerações; esta busca substituir a cognição na velocidade de uma plataforma (o lançamento do ChatGPT atingiu 100 milhões de usuários em dois meses), enquanto o público é recrutado para o experimento "na prática" após o lançamento. Hoffman reconhece a desvantagem democrática: a participação ampla retarda a inovação, então um progresso mais rápido pode vir de "países mais autoritários...". Longe de ser uma resposta ao pânico moral, este é um argumento para ultrapassar o consentimento.

As contradições se acumulavam. Enquanto Dixit projetava um folheto de Yale exaltando o propósito da educação liberal, ele tranquilizava o corpo docente, afirmando que o ChatGPT poderia servir como um “parceiro criativo”, um “conversor”, até mesmo um “assistente editorial”. Escrever com IA não era algo a se temer; estava simplesmente renascendo. E o que importava agora era a adaptabilidade dos alunos. “O futuro é incerto”, concluiu ele. “Precisamos preparar os alunos para serem ágeis, flexíveis e estarem prontos para qualquer coisa.” (Onde eu já tinha ouvido esse jargão corporativo antes? Provavelmente em uma reunião tediosa de uma escola de negócios.)

Todo o evento foi uma aula magistral de manipulação psicológica. A OpenAI cria as ferramentas que facilitam a trapaça e, em seguida, promove webinars para vender estratégias de recuperação moral. É o ciclo da vida do Vale do Silício: disrupção, pânico, lucro.

Quando Siya abriu espaço para perguntas, eu fiz uma baseada nas pressões reais que meus alunos enfrentam: 

Como podemos esperar motivar os alunos quando a IA pode facilmente gerar suas redações – especialmente quando seus auxílios financeiros, bolsas de estudo e vistos dependem do GPA? Quando a educação se tornou um processo de seleção transacional de alto risco para um mercado de trabalho hipercompetitivo, como podemos esperar que eles não usem a IA para fazer seu trabalho?

 

Nunca foi lido em voz alta. Siya o ignorou, preferindo perguntas que permitissem um incentivo moral sutil e tópicos de discussão entre os participantes. O evento prometia diálogo, mas entregou dogmatismo.

Estudantes da classe trabalhadora percebem a farsa.
 

O que o evangelismo corporativo de Dixit ignorou completamente é que os próprios estudantes estão liderando a resistência. Enquanto as manchetes se concentram na fraude generalizada por IA, uma história diferente está surgindo nas salas de aula, onde os professores realmente ouvem seus alunos.

Na Universidade Estadual de São Francisco, a professora Martha Kenney, que chefiava o agora extinto departamento de Estudos de Gênero e Feminismo, descreveu o que aconteceu em sua aula de ficção científica após o anúncio da parceria entre a CSU e a OpenAI. Seus alunos, disse ela, “estavam com razão céticos de que o uso regular de IA generativa em sala de aula os privaria da educação pela qual estavam pagando tão caro”, contou Kenney. A maioria deles não havia sequer aberto o ChatGPT Edu até o final do semestre.

Sua colega, Martha Lincoln, professora de Antropologia, testemunhou o mesmo ceticismo. “Nossos alunos são motivados por causas sociais. Eles querem retribuir”, disse-me ela. “Eles estão pagando muito dinheiro para estar aqui.” Quando Lincoln falou publicamente sobre o acordo de IA da CSU, “ouvi muitos alunos da Cal State, mesmo de fora do nosso campus, me perguntando: 'Como posso resistir a isso? Quem está se organizando?'”

Não se tratava de estudantes privilegiados de universidades da Ivy League em busca de atalhos. Eram estudantes universitários de primeira geração, muitos deles provenientes de grupos historicamente marginalizados, que entendiam algo que os administradores aparentemente não compreendiam: estavam sendo solicitados a pagar preços exorbitantes por um produto de qualidade inferior.

“O ChatGPT não é uma tecnologia educacional”, explicou Kenney. “Ele não foi projetado nem otimizado para a educação.” Quando a CSU anunciou a parceria, “não havia nenhuma indicação de como ou para que deveríamos usá-lo. Normalmente, quando compramos uma licença de tecnologia, é para um software que deve realizar uma função específica... mas o ChatGPT não faz isso.”

Lincoln foi ainda mais direto: “Não foi apresentada nenhuma justificativa pedagógica. Não se trata do sucesso dos alunos. A OpenAI quer transformar isso na infraestrutura do ensino superior — porque somos um mercado para eles. Se privilegiarmos a IA como fonte de respostas certas, estaremos eliminando o processo de ensino e aprendizagem. Estaremos simplesmente vendendo a oportunidade por tão pouco.”

Ali Kashani, professor do departamento de Ciência Política e membro do comitê de negociação coletiva sobre IA do sindicato dos professores, expressou uma preocupação semelhante. “A CSU liberou a IA para professores e alunos sem realizar nenhuma pesquisa adequada sobre o impacto”, disse-me ele. “Alunos de primeira geração e marginalizados sofrerão o impacto negativo da IA… os alunos estão sendo usados ​​como cobaias em um laboratório de IA.” Essa expressão — cobaias — ecoa o alerta que Kenney e Lincoln fizeram em seu artigo de opinião no San Francisco Chronicle : “A introdução da IA ​​no ensino superior é essencialmente um experimento não regulamentado. Por que nossos alunos deveriam ser as cobaias?”

Para Kashani e outros, a questão não é se os educadores são a favor ou contra a tecnologia, mas sim quem a controla e com que finalidade. A IA não está democratizando o aprendizado; está automatizando-o.

A resposta organizada está crescendo. A Associação de Professores da Califórnia (CFA , na sigla em inglês ) entrou com uma ação trabalhista desleal contra a CSU por impor a iniciativa de IA sem consultar o corpo docente , argumentando que isso violou os direitos de propriedade intelectual dos professores, conforme previsto na legislação trabalhista. Na Conferência de Equidade da CFA, a Dra. Safiya Noble — autora de "Algoritmos da Opressão" — incentivou o corpo docente a exigir transparência sobre como os dados são armazenados, qual exploração trabalhista está por trás dos sistemas de IA e quais danos ambientais a CSU está causando. 

A resistência está se espalhando para além da Califórnia. Professores universitários holandeses divulgaram uma carta aberta pedindo uma moratória sobre a IA em ambientes acadêmicos, alertando que seu uso "prejudica o pensamento crítico" e reduz os alunos a operadores de máquinas.

A diferença entre a resistência estudantil da SFSU e a epidemia de fraude acadêmica em outros lugares é politicamente motivada. "Muito poucos estudantes fazem um curso de Estudos de Gênero e Feminismo por razões puramente instrumentais", explicou Kenny. "Eles estão lá porque querem ser pensadores críticos e cidadãos politicamente engajados." Esses estudantes entendem algo que administradores e entusiastas da tecnologia não entendem: eles não estão pagando por automação. Estão pagando por mentoria, por diálogo, por relações intelectuais que não podem ser terceirizadas para um chatbot.

A comunidade online normaliza e legitima a fraude, renomeando a destruição educacional como "alfabetização em IA" de ponta, enquanto silencia as próprias vozes — estudantes da classe trabalhadora, acadêmicos críticos, professores organizados — que expõem a farsa.

Mas a resistência é real e levanta questões que os líderes universitários se recusam a responder. Como Lincoln disse com perfeita clareza: "Por que nossa instituição compraria uma licença para um produto gratuito de trapaça?" 

 

O Novo Colonialismo da IA
Aquele webinar foi emblemático de algo maior. A OpenAI, outrora fundada na promessa de abertura, agora filtra o desconforto em favor da propaganda corporativa. 

A jornalista investigativa Karen Hao aprendeu isso da pior maneira possível. Depois de publicar um perfil crítico da OpenAI, ela foi colocada em uma lista negra por anos. Em Império da IA , ela mostra como o CEO Sam Altman disfarça ambições monopolistas com uma linguagem humanitária — sua imagem de fala mansa e quase monástica (nossa, o pequeno Sammy até pratica mindfulness !) mascara um vasto e opaco império de capital de risco e parcerias governamentais que se estende do Vale do Silício à Casa Branca. E embora a OpenAI defenda publicamente o "alinhamento da IA ​​com os valores humanos", ela pressionou seus funcionários a assinarem acordos vitalícios de confidencialidade sob a ameaça de perderem milhões em ações.

Hao compara esse império às fábricas de algodão do século XIX: tecnologicamente avançados, economicamente dominantes e construídos sobre trabalho invisível. Onde o algodão era rei, o ChatGPT agora reina — sustentado por uma exploração tornada invisível. A revista Time revelou que a OpenAI terceirizou a moderação de conteúdo do ChatGPT para a empresa queniana Sama , onde os trabalhadores ganhavam menos de US$ 2 por hora para filtrar material online horrível: violência gráfica, discurso de ódio, exploração sexual. Muitos foram traumatizados pelo conteúdo tóxico. A OpenAI exportou esse sofrimento para trabalhadores no Sul Global e, em seguida, renomeou o produto higienizado como “IA segura”.

A mesma lógica de extração se estende ao meio ambiente. O treinamento de modelos de linguagem complexos consome milhões de quilowatts-hora e centenas de milhares de litros de água anualmente, às vezes tanto quanto pequenas cidades , frequentemente em regiões propensas à seca. Os custos são ocultos, externalizados e ignorados . Esse é o dogma da OpenAI: prometer a utopia e terceirizar os danos.

O sistema da Universidade Estadual da Califórnia, que por muito tempo se autodenominou “ a universidade do povo ”, agora faz parte dessa cadeia de suprimentos global. Sua parceria de US$ 17 milhões com a OpenAI — firmada sem uma consulta significativa ao corpo docente — oferece alunos e professores como testadores beta para uma empresa que pune a dissidência e drena recursos públicos. Este é o estágio final da corporatização : a educação pública transformada em um sistema de distribuição de capital privado. A colaboração da CSU com a OpenAI é o capítulo mais recente de uma longa história de imperialismo, onde bens públicos são conquistados, reempacotados e vendidos como progresso.

O corpo docente, atuante na área, percebe a contradição. Jennifer Trainor, professora de inglês e diretora do Centro de Equidade e Excelência no Ensino e Aprendizagem da SFSU , só soube da parceria quando ela foi anunciada publicamente. Ela afirma que o aspecto mais marcante do anúncio, na época, foi o tom comemorativo. "Parecia surreal", relembra, "acontecendo exatamente no momento em que cortes orçamentários, demissões e consolidações curriculares estavam sendo impostos ao nosso campus." 

Para Trainor, o acordo pareceu uma "isca e troca — posicionar a IA como uma estratégia para o sucesso dos alunos enquanto, na verdade, desmantelava os próprios programas que apoiam o pensamento crítico". Ela destaca que a CSU poderia ter financiado ferramentas educacionais genuínas criadas por educadores, mas optou por pagar milhões a uma empresa do Vale do Silício que já oferecia seu produto gratuitamente. Como observa Marc Watkins , do Chronicle of Higher Education , trata-se de uma "compra por pânico" — comprar " a ilusão de controle " .

Mais revelador ainda é o fato de a CSU ter ignorado professores com verdadeira experiência em IA. Em um mundo ideal, diz Trainor, o sistema teria apoiado “iniciativas de base, lideradas pelo corpo docente”. Em vez disso, adotou uma plataforma corporativa na qual muitos professores desconfiam. De fato, a IA tornou-se um termo orwelliano para governança fechada e lucro privatizado. Desde então, Trainor tem escrito e trabalhado com professores para abordar os problemas que empresas como a OpenAI representam para a educação. 

A parceria com a CSU expõe o quão distantes as universidades públicas estão de sua missão democrática. O que está sendo vendido como inovação é simplesmente outra forma de dependência — a educação reduzida a uma franquia de um império tecnológico global.

 



O que realmente está em jogo
Se as seções anteriores expuseram a colonização econômica e institucional da educação pública, o que se segue é o seu custo cognitivo e moral.

Um estudo recente do MIT, intitulado " Seu Cérebro no ChatGPT: Acumulação de Dívida Cognitiva ao Usar um Assistente de IA para Redação de Ensaios ", fornece evidências preocupantes. Quando os participantes usaram o ChatGPT para redigir ensaios, exames cerebrais revelaram uma queda de 47% na conectividade neural em regiões associadas à memória, linguagem e raciocínio crítico. Seus cérebros trabalharam menos, mas eles se sentiram tão engajados quanto antes — uma espécie de miragem metacognitiva. Oitenta e três por cento dos usuários frequentes de IA não conseguiam se lembrar dos pontos principais do que haviam "escrito", em comparação com apenas 10% daqueles que escreveram sem auxílio. Avaliadores neutros descreveram a escrita assistida por IA como "sem alma, vazia, sem individualidade". O mais alarmante é que, após quatro meses de uso do ChatGPT, os participantes escreveram pior depois que ele foi removido do que aqueles que nunca o usaram. 

O estudo alerta que, quando a escrita é delegada à IA, a forma como as pessoas aprendem muda fundamentalmente. Como o cientista da computação Joseph Weizenbaum advertiu décadas atrás , o verdadeiro perigo reside na adaptação das mentes humanas à lógica das máquinas. Os alunos não estão apenas aprendendo menos; seus cérebros estão aprendendo a não aprender.

O autor e podcaster Cal Newport chama isso de “dívida cognitiva” — hipotecar a aptidão cognitiva futura em troca de conforto a curto prazo. Seu convidado, Brad Stulberg, compara isso a usar uma empilhadeira na academia: você pode passar a mesma hora sem levantar nada e ainda se sentir produtivo, mas seus músculos irão atrofiar. O pensamento, assim como a força, se desenvolve por meio da resistência; quanto mais delegamos nosso esforço mental a máquinas, mais perdemos a capacidade de pensar.

Essa erosão já é visível nas salas de aula. Os alunos chegam dominando as instruções, mas hesitantes em articular suas próprias ideias. As redações parecem polidas, porém artificiais — costuradas com sintaxe sintética e pensamentos emprestados. A linguagem da reflexão — eu me pergunto, eu luto, eu vejo agora — está desaparecendo. Em seu lugar, surge a gramática limpa da automação: fluente, eficiente e vazia.

A verdadeira tragédia não é que os alunos usem o ChatGPT para fazer seus trabalhos acadêmicos. É que as universidades estão ensinando a todos — alunos, professores e administradores — a parar de pensar. Estamos terceirizando o discernimento. Os alunos se formam fluentes em receber instruções, mas analfabetos em julgamento; os professores ensinam, mas não têm a liberdade de educar; e as universidades, ansiosas por parecerem inovadoras, desmantelam as próprias práticas que as tornaram dignas desse nome. Estamos caminhando para a falência educacional: diplomas sem aprendizado, ensino sem compreensão, instituições sem propósito.

A essência da educação pública está em jogo. Quando o maior sistema universitário público licencia um chatbot de IA de uma corporação que inclui jornalistas em listas negras, explora trabalhadores de dados no Sul Global, acumula poder geopolítico e energético em uma escala sem precedentes e se posiciona como um administrador não eleito do destino da humanidade, ele trai sua missão como a “universidade do povo”, enraizada em ideais democráticos e justiça social. 

A OpenAI não é uma parceira — é um império, envolto em ética e acompanhado de Termos de Serviço. A universidade não resistiu. Clicou em " Aceitar " .

Observei esse desenrolar de duas perspectivas: como professor vivenciando-o e como estudante universitário de primeira geração que, outrora, acreditava que a universidade era um espaço sagrado para o aprendizado. Na década de 1980, frequentei a Universidade Estadual de Sonoma. A CSU não cobrava mensalidades — apenas uma modesta taxa de matrícula de US$ 670 por ano . A economia estava em recessão, mas eu mal percebia. Eu já estava sem dinheiro. Se precisasse de algum dinheiro, vendia discos de vinil em uma loja de usados. Eu não fui para a faculdade "para" conseguir um emprego . Fui para explorar, para ser desafiado, para descobrir o que importava. Levei seis anos para me formar em Psicologia — seis dos anos mais significativos e exploratórios da minha vida.

Esse tipo de educação — a educação aberta, acessível e que busca significado — já floresceu nas universidades públicas. Mas agora está praticamente extinta. Não é escalável. Não se encaixa no plano estratégico. E não funciona — exatamente por isso que a Chatversity quer eliminá-la.

Mas também revela outra verdade: as coisas podem ser diferentes. Já foram. 

 

Pós-escrito: Aviso de Weizenbaum 
Muito antes do ChatGPT, muito antes de estudantes desbloquearem sistemas de IA para escrever trabalhos acadêmicos, existia a ELIZA . Em meados da década de 1960, o cientista da computação do MIT, Joseph Weizenbaum, criou o primeiro chatbot do mundo : uma simulação textual de um psicoterapeuta rogeriano que imitava a escuta reflexiva, repetindo as afirmações do usuário como perguntas. Era uma paródia — uma demonstração crítica de como os humanos projetam facilmente sua inteligência nas máquinas. Mas, para horror de Weizenbaum, os usuários se apegaram emocionalmente. Eles se confidenciaram com a ELIZA. Confundiram repetição com empatia. Ele percebeu então aquilo contra o qual passaria o resto de sua carreira alertando: que a mera aparência de compreensão poderia nos seduzir a ponto de abrirmos mão do nosso discernimento.

Ainda me lembro de ter visto o ELIZA na pós-graduação, em meados da década de 80, escondido no currículo de um seminário sobre cibernética e teoria de sistemas. Na época, estávamos lendo o livro de Weizenbaum , "Computer Power and Human Reason" (Poder Computacional e Razão Humana) . O que mais me impressionou foi a clareza ética de Weizenbaum. Ele argumentava que o simples fato de uma máquina poder imitar a inteligência não significa que ela deva ser encarregada de decisões que exigem sensibilidade moral ou humana. "Por mais inteligência que os computadores possam alcançar", escreveu ele, "a inteligência deles sempre será alheia aos problemas e preocupações genuinamente humanos."

Isso foi em 1976. Hoje, é como se os líderes universitários nunca tivessem ouvido seu alerta.

Ao abraçar a OpenAI e sua promessa de "educação impulsionada por IA", o sistema da Universidade Estadual da Califórnia não está liderando o futuro. Está deliberadamente esquecendo o passado, construindo catedrais de inovação sobre as ruínas da reflexão crítica. E está fazendo isso em um momento em que a missão central do ensino superior — cultivar a razão humana, não simulá-la — nunca foi tão vital.

No comment yet.
Scooped by Inovação Educacional
Today, 1:47 PM
Scoop.it!

EaD responde por mais de 50% dos ingressos em engenharia : Revista Pesquisa Fapesp

EaD responde por mais de 50% dos ingressos em engenharia : Revista Pesquisa Fapesp | Inovação Educacional | Scoop.it
A expansão da oferta de cursos de graduação na modalidade a distância (EaD) se acentuou nos últimos anos. De 2014 a 2024, os ingressos nessa modalidade aumentaram quase cinco vezes ao passarem de 728 mil (23% do total de 3,11 milhões) para 3,35 milhões (67% do total de 5,01 milhões)
Em contraste, houve retração significativa na oferta de cursos presenciais. Nestes, os ingressos se retraíram em 30% no mesmo período, passando de 2,38 milhões (77% do total) para 1,66 milhão (33% do total)
Essa mudança significativa do perfil da oferta de cursos superiores no Brasil afetou todas as áreas, incluindo a formação de professores (licenciatura), em que já era relevante há mais tempo, chegando, em anos mais recentes, aos programas de engenharia1
No comment yet.
Scooped by Inovação Educacional
Today, 1:29 PM
Scoop.it!

Google anuncia cátedra de IA com a USP e bolsas para brasileiros

Google anuncia cátedra de IA com a USP e bolsas para brasileiros | Inovação Educacional | Scoop.it

O Google anunciou, na tarde desta segunda-feira (1º), um conjunto de iniciativas de apoio à pesquisa acadêmica com foco em tecnologia no Brasil. Entre elas, está uma cátedra em parceria com o Instituto de Estudos Avançados da USP e a expansão de um programa internacional de bolsas para pós-graduação, que passou a contemplar pesquisadores brasileiros.
A Cátedra IA Responsável vai ser liderada pelo sociólogo e economista Carlos Américo Pacheco. O objetivo do projeto, que vai durar três anos, é oferecer bolsas para estudantes não só de engenharia e ciência da computação, mas também direito, sociologia e artes, entre outras áreas.
Segundo o coordenador acadêmico da iniciativa, o sociólogo Glauco Arbix, a ideia é ter um laboratório de pesquisas sobre políticas públicas envolvendo a IA, além de questões éticas, legais e econômicas.
Em nota, Pacheco diz que a cátedra vai estudar como evitar riscos ligados à nova tecnologia, como ameaças à segurança cibernética, impactos no trabalho ou o viés de algoritmos sem supervisão.
Quanto ao programa Google PhD Fellowship, que oferece bolsas para pesquisadores de pós-graduação, a empresa anunciou que ele foi expandido e, hoje, contempla oito pesquisadores de seis universidades brasileiras —ao todo, são 255 estudantes no mundo que recebem um investimento total de US$ 10 milhões (R$ 53 milhões) da área filantrópica da empresa.
Na América Latina, o programa contempla pesquisadores com até US$ 15 mil (R$ 80 mil) por ano para cobrir atividades relativas à pesquisa e viagens, além de designar para o beneficiado um mentor ligado ao Google. Os pagamentos podem ser feitos por até dois anos a cada selecionado.
Não é a primeira parceria da empresa americana com a USP. Ano que vem, o Google vai inaugurar seu centro de engenharia dentro da Cidade Universitária. A companhia foi contemplada pelo programa IPT Open, que chama empresas para ocuparem o histórico prédio do instituto por dez anos em troca de contrapartidas financeiras e não financeiras.
O Google também divulgou nesta quinta a assinatura de um memorando de entendimento com a Embraer, numa cooperação que tem o objetivo de avaliar aplicações futuras da IA na indústria aeronáutica. As duas empresas não deram detalhes de como essa parceria vai acontecer na prática, mas dizem que começam agora a mapear oportunidades de colaboração.

No comment yet.
Scooped by Inovação Educacional
Today, 1:27 PM
Scoop.it!

Confesso que falhei : Revista Pesquisa Fapesp

Confesso que falhei : Revista Pesquisa Fapesp | Inovação Educacional | Scoop.it
Greer refere-se à invalidação, no final do ano passado, de um artigo publicado por ele e colegas da Itália e da Áustria no periódico Advanced Science em 2022. O paper anunciava um avanço extraordinário: a descoberta de um processo relativamente barato capaz de produzir em laboratório a tetrataenita, uma liga composta por ferro e níquel, com estrutura cristalina tetragonal dotada de fortes propriedades magnéticas. Encontrada apenas em asteroides, é conhecida como “ímã cósmico”. A síntese da tetrataenita foi celebrada como uma rota capaz de substituir as terras-raras na fabricação dos ímãs de alto desempenho, usados como componentes de carros elétricos e turbinas eólicas.
No comment yet.
Scooped by Inovação Educacional
Today, 1:20 PM
Scoop.it!

Nobel de 2025 laureia ciência básica, que depois pode dar origem a inovações : Revista Pesquisa Fapesp

Nobel de 2025 laureia ciência básica, que depois pode dar origem a inovações : Revista Pesquisa Fapesp | Inovação Educacional | Scoop.it
Células vigilantes do sistema imunológico, tunelamento quântico e estruturas metalorgânicas foram premiadas nas categorias científicas, enquanto prêmio de Economia destacou o crescimento sustentável
No comment yet.
Scooped by Inovação Educacional
Today, 1:20 PM
Scoop.it!

Climatologista de Gana afirma que países pobres precisam do apoio financeiro e tecnológico para enfrentar o aquecimento global : Revista Pesquisa Fapesp

Climatologista de Gana afirma que países pobres precisam do apoio financeiro e tecnológico para enfrentar o aquecimento global : Revista Pesquisa Fapesp | Inovação Educacional | Scoop.it
Nana Klutse veio ao Brasil em setembro e relatou os impactos de alterações no clima já experimentados por diversas nações, em particular as da África
No comment yet.
Scooped by Inovação Educacional
Today, 1:14 PM
Scoop.it!

Digitalização avança na indústria brasileira : Revista Pesquisa Fapesp

Digitalização avança na indústria brasileira : Revista Pesquisa Fapesp | Inovação Educacional | Scoop.it
O uso de informação digital em empresas das indústrias extrativa e de transformação ampliou-se em quase todas as áreas/funções de negócios
O maior percentual de empresas digitalizadas foi registrado na área de administração
Foi na produção e desenvolvimento de produtos, processos e serviços que mais cresceu o número de empresas digitalizadas, no período
A proporção de empresas que usaram tecnologias digitais é mais elevada nas de grande e médio portes. Entre as de menor porte1, foram muito expressivas as áreas de administração (99,0%) e comercialização (93,4%)
No comment yet.
Scooped by Inovação Educacional
Today, 1:00 PM
Scoop.it!

Novos desafios da agricultura e da pecuária : Revista Pesquisa Fapesp

Novos desafios da agricultura e da pecuária : Revista Pesquisa Fapesp | Inovação Educacional | Scoop.it
Aumento da temperatura e mudanças no regime de chuvas devem exigir deslocamento de culturas e inovação tecnológica para contornar perdas por alterações climáticas
No comment yet.
Scooped by Inovação Educacional
Today, 11:00 AM
Scoop.it!

A brasileira que viraliza traduzindo o caos da IA: 'As pessoas estão perdidas'

A brasileira que viraliza traduzindo o caos da IA: 'As pessoas estão perdidas' | Inovação Educacional | Scoop.it
Catharina Doria ganhou mais de 200 mil seguidores ao criar vídeos que ajudam a navegar pelo mundo da inteligência artificial com mais segurança
No comment yet.
Scooped by Inovação Educacional
Today, 10:28 AM
Scoop.it!

Inteligência artificial cresce nas escolas com pacto de silêncio entre alunos e professores

Inteligência artificial cresce nas escolas com pacto de silêncio entre alunos e professores | Inovação Educacional | Scoop.it

Apesar da disseminação, ambos os grupos operam no que o estudo chama de “pacto silencioso”: professores sabem que os alunos usam IA para redigir textos e responder exercícios, mas evitam discutir o tema pela ausência de diretrizes, critérios de avaliação ou formação adequada. Estudantes, por sua vez, reconhecem que buscam driblar suspeitas, pedindo aos sistemas para “humanizar” textos ou incluir pequenos erros.
O diagnóstico aponta ainda que a compreensão sobre o funcionamento da IA é limitada. Tanto docentes quanto discentes demonstram dificuldades em checar a veracidade das respostas, em entender como funcionam os algoritmos e em lidar com dilemas éticos, como autoria, privacidade e responsabilidade. Há, contudo, grande interesse por formação crítica: estudantes querem entender os mecanismos da tecnologia e seus riscos; professores afirmam precisar de capacitação, mas esbarram na falta de tempo, apoio institucional e infraestrutura.
A desigualdade de acesso aparece como eixo central do problema. A pesquisa mostra que escolas privadas relatam maior familiaridade e disponibilidade de ferramentas, enquanto redes públicas enfrentam conectividade precária e falta de dispositivos. A diferença se acentua no ambiente doméstico: nas classes altas, há internet fixa, computadores e versões pagas de aplicativos de IA; nas classes mais pobres, esses recursos são exceção.

No comment yet.
Scooped by Inovação Educacional
Today, 10:25 AM
Scoop.it!

ANPD chama contribuições para regulamentar ECA Digital 

ANPD chama contribuições para regulamentar ECA Digital  | Inovação Educacional | Scoop.it
A Agência Nacional de Proteção de Dados abriu uma tomada de subsídios para regulamentar o recém-criado Estatuto Digital da Criança e do Adolescente. A ANPD aponta que vários conceitos centrais da Lei 15.211/25 ainda carecem de definição mais precisa para garantir sua aplicação adequada e busca contribuições sobre os pontos que merecem ser tratados na regulamentação. As contribuições serão recebidas até 12 de dezembro.
No comment yet.
Scooped by Inovação Educacional
Today, 8:28 AM
Scoop.it!

Ucrânia aposta em IA própria para reduzir dependência externa

Ucrânia aposta em IA própria para reduzir dependência externa | Inovação Educacional | Scoop.it
Ucrânia desenvolve IA própria com Gemma do Google para operações militares e civis, garantindo autonomia e proteção contra ataques cibernéticos
No comment yet.
Scooped by Inovação Educacional
Today, 7:39 AM
Scoop.it!

College Students Choosing A.I. Majors Over Computer Science

College Students Choosing A.I. Majors Over Computer Science | Inovação Educacional | Scoop.it
At M.I.T., a new program called “artificial intelligence and decision-making” is now the second-most-popular undergraduate major.
No comment yet.
Scooped by Inovação Educacional
December 1, 3:28 PM
Scoop.it!

Global number of Internet users increases, but disparities deepen key digital divides

Global number of Internet users increases, but disparities deepen key digital divides | Inovação Educacional | Scoop.it
ITU’s Facts and Figures 2025 shows steady progress in connectivity, while highlighting gaps in quality and affordability
No comment yet.