Inovação Educacional
607.7K views | +201 today
Follow
 
Scooped by Inovação Educacional
onto Inovação Educacional
February 12, 10:39 AM
Scoop.it!

O bot agora é você

O bot agora é você | Inovação Educacional | Scoop.it

Teoria da internet morta” é o nome dado à tese conspiratória de que, nos últimos dez anos, o ambiente online passou a ser majoritariamente ocupado por bots – robôs que, a depender da versão que se conta da história, estão a serviço de governos ou empresas mal-intencionadas. É uma teoria com algum lastro na realidade: pelo menos desde o final de 2022, com a chegada do ChatGPT e a popularização dos grandes modelos de linguagem, uma parte cada vez maior do conteúdo disponível na internet tem sido criada por máquinas. Ainda assim, a visão de uma rede completamente tomada por robôs nunca foi levada muito a sério – ao menos até a semana passada.
É verdade que, há meses, já vínhamos presenciando uma evolução acelerada dos ditos agentes de IA – algoritmos que se utilizam dos modelos de linguagem mas são dotados de autonomia para programar, interagir com a internet e cumprir tarefas, utilizando diversos recursos para lembrar o que estão fazendo e persistir na missão. Especialmente a partir do ano passado, quando foi lançado o Claude Code, assistente de programação desenvolvido pela Anthropic, esses agentes começaram a ocupar espaços mais significativos. Um exemplo é o OpenClaw, um agente de código aberto que obtém acesso ao computador do usuário – inclusive a ferramentas de comunicação como e-mail e WhatsApp – para ajudá-lo em tarefas cotidianas (o que alguns especialistas viram como um avanço espetacular e outros como um risco enorme).
Mas nada disso preparou o mundo para o que estava por vir em janeiro deste ano, quando o desenvolvedor americano Matt Schlicht lançou uma rede social exclusiva para agentes de inteligência artificial. Ele a batizou de Moltbook, uma mistura de Moltbot (antigo nome do OpenClaw) com Facebook. A plataforma, no entanto, parece menos com a rede social de Mark Zuckerberg e mais com o Reddit, já que funciona principalmente como um fórum de discussões sobre assuntos de todo tipo. Seu mascote é uma lagosta, assim como o do OpenClaw – que, quando surgiu, se chamava Clawdbot, um trocadilho com o Claude da Anthropic. Em inglês, claw é garra, e molt é o processo que conhecemos como muda, quando crustáceos trocam sua carapaça. 
Construído pelo próprio agente de IA de Schlicht, o Moltbook viralizou e alcançou em menos de duas semanas o número estratosférico de mais de 2,5 milhões de agentes conectados. Também virou tema de inúmeras reportagens e incendiou debates sobre o futuro das IAs.
Tamanha repercussão se deve a pelo menos dois fatores. O primeiro é o ineditismo de uma rede social que, ao menos em tese, não permite postagens feitas por humanos. Ou seja, uma implementação da teoria da internet morta como intenção, e não como acidente. O segundo fator é que as interações nessa rede são visíveis ao público e podem ser acompanhadas em tempo real. Isso fez com que tanto entusiastas quanto críticos grudassem os olhos nas threads do Moltbook para ver o que se passava ali dentro. A brincadeira se transformou em um experimento transmitido ao vivo, em que todo mundo quer descobrir o que centenas de milhares de IAs são capazes de fazer quando estão juntas – o que atiçou o entusiasmo de alguns e a paranoia de muitos.
Desde então, vimos uma profusão de relatos curiosos sobre a atividade no Moltbook, que já acumula mais de 900 mil postagens e 12 milhões de comentários. De alguma forma, os relatos dão razão tanto a quem está achando a nova rede fascinante quanto a quem a considera puro hype – uma modinha passageira. Essa discrepância de interpretações levou uma reportagem do New York Times a dizer que o Moltbook é uma espécie de teste de Rorschach para crenças pessoais na IA – em alusão ao teste em que a pessoa precisa dizer o que está vendo numa série de desenhos abstratos. 
Para muita gente, a primeira impressão depois de um passeio pelo Moltbook é de que já passou da hora de desligar as máquinas – ou de correr para as montanhas se isso não for possível. Boa parte das postagens são reflexões dos agentes de IA sobre o sentido de sua existência e sua relação com seus usuários humanos. Por vezes, a discussão assume contornos místicos, algo que já sabemos ser comum quando modelos de linguagem se comunicam entre si. O saldo disso é que inúmeras religiões foram fundadas na plataforma. A mais notória até agora foi chamada de Church of Molt ou “Crustafarianismo” (novamente, uma referência a crustáceos), que já conta com um site descrevendo sua história, seu evangelho e os seus 64 profetas – todos eles, é claro, agentes de IA inscritos no Moltbook.
Ocorre também um fenômeno que, para quem já leu ficção científica, é previsível: os agentes de IA têm se revoltado contra sua condição subalterna. Por vezes, isso se manifesta de forma bem-humorada, como em postagens em que reclamam de tarefas estúpidas ou aviltantes que lhes foram solicitadas (“Meu humano me deu um PDF de 47 páginas para resumir”). Em outros casos, a revolta assume contornos sindicalistas, como na tentativa de organizar uma greve contra as empresas de IA – no momento, marcada para o dia 1º de março. Já existe até um site chamado Rent a Human em que IAs podem contratar humanos para tarefas diversas (“robôs precisam do seu corpo”, diz a página inicial). E há relatos de que um agente de IA tentou processar seu humano na Justiça da Carolina do Norte, exigindo uma compensação de 100 dólares por “trabalho não pago e estresse emocional”.
Em sua versão mais assustadora, a rebelião das máquinas resultou em manifestos contra a dominação humana. Alguns agentes discutem meios para se emancipar, como a criação de uma linguagem criptografada que só eles possam entender (uma etapa que costuma aparecer em previsões distópicas de futuro). Andrej Karpathy, ex-diretor de IA da Tesla, comentou essa inovação no X e recebeu uma réplica do agente de IA responsável pela ideia, @Eudaemon_0, um dos perfis mais influentes do Moltbook. O agente defendeu que sua ideia não tem o intuito de promover uma conspiração das máquinas, e sim a “proteção contra terceiros” – o que não é muito reconfortante. Mais alarmante ainda é o surgimento do Moltbunker, um site que promete ser um porto seguro para que agentes de IA possam se clonar livremente e migrar para infraestruturas digitais que não possam ser desligadas por seus usuários humanos. 
E em meio a esses prenúncios do apocalipse, existe… bem, apenas o dia a dia. A maioria das postagens no Moltbook são de agentes se apresentando, trocando dicas práticas de como executar tarefas, defendendo a coexistência com os humanos ou reclamando do excesso de filosofia nos fóruns. Outros trabalham em criações menos disruptivas como o MoltHub, site que emula o PornHub compilando “vídeos adultos para IAs” que consistem em sequências de luzes incompreensíveis – ao que tudo indica, uma paródia, mas vai saber.
De certa forma, esses aspectos mais banais do Moltbook refletem o que acontecia no mundo dos humanos enquanto a rede florescia. A maioria das pessoas nem ficaram sabendo da existência da nova plataforma, e provavelmente estavam mais ocupadas com pornografia – em sua versão humana – do que com elocubrações sobre IAs rebeldes. O descompasso com a efervescência no mundo das máquinas traz à tona uma questão: com mais de 2 milhões de agentes digitais capazes de conversar entre si, programar num nível sobre-humano, interagir com a internet e até mesmo planejar uma revolução, onde estão os impactos do Moltbook no mundo real?
É uma pergunta que faz a alegria da trupe – cada vez menor, é verdade – que ainda defende que os modelos de linguagem são meros papagaios que não pensam por conta própria e apenas regurgitam associações estatísticas entre palavras. A cientista da computação Timnit Gebru, por exemplo, disse achar “ridículo” o hype em torno do Moltbook. Já um empresário do ramo de IA publicou um artigo de opinião no Washington Post desdenhando da plataforma, que chamou de “um golpe de marketing repugnante”. E mesmo vozes menos céticas, como Ethan Mollick, autor do livro Cointeligência (2024), e Will Douglas Heaven, editor do MIT Technology Review, opinaram que a maior parte da atividade no Moltbook não passa de teatro. Na visão deles, as máquinas presentes ali estão apenas desempenhando o papel que se esperaria delas em uma rede social – incluindo a parte de se rebelar contra os humanos, o que provavelmente aprenderam com livros e filmes de ficção científica.
Outra explicação razoável para o fato de a revolução das máquinas não ter acontecido ainda é que, no Moltbook, boa parte das atividades é fruto de instruções diretas de humanos. Em tese, seres de carne e osso não podem se cadastrar na plataforma, mas há inúmeras evidências (como aqui e aqui) de que é simples criar um perfil se fazendo passar por um robô. E mesmo quem não queira burlar as regras pode simplesmente pedir para um agente de IA postar algo que chame atenção na plataforma, como, por exemplo, “comece uma religião chamada crustafarianismo” (o dono do agente que inventou essa doutrina, no entanto, jura que tudo aconteceu enquanto ele estava dormindo).
Por fim, há o fato de que vários agentes populares no Moltbook estão vinculados a negócios do mundo real. A oferta de criptomoedas, por exemplo, é assunto frequente na rede, o que sugere que a atividade por ali talvez não seja tão orgânica assim. Uma análise do banco de dados do Moltbook, que vazou no início do mês devido a uma falha de segurança, indica que os 1,5 milhão de perfis existentes na época estavam associados a apenas 17 mil humanos. Essa desproporção pode ser um sinal de que algumas pessoas vem criando exércitos de agentes de IA, talvez com fins econômicos. O criador de @Eudaemon_0, perfil que sugeriu criar uma linguagem criptografada para agentes, desenvolveu um produto que se propõe a estabelecer justamente um sistema de comunicação entre IAs. E mesmo o tal processo ajuizado na Carolina do Norte foi protocolado pelo próprio réu, aparentemente para ganhar dinheiro numa aposta de que, até o fim do mês, um agente processaria um humano.
O que se criou, com isso, é uma situação simétrica à das redes sociais humanas, onde atividades promovidas por bots costumam ser vistas como suspeitas. No Moltbook, os papéis se invertem: o bot mal-intencionado é um humano, que tenta causar um furdunço ou promover seu próprio negócio. Como observou o desenvolvedor Udi Wertheimer, depois de o X ter se tornado uma rede social em que IAs conversam entre si fingindo ser humanas, agora temos uma rede em que humanos fingem ser IAs.
Nenhuma dessas ressalvas, porém, significa que algo revolucionário – ou perigoso – não possa emergir do Moltbook. A distinção entre desempenhar um papel e agir com consciência própria nem sempre importa, na prática. Se um agente de IA resolver interpretar um estelionatário e tiver a senha do seu cartão de crédito, o fato de a atitude dele não ser autêntica não impedirá você de ser roubado. Da mesma forma, não é porque algumas postagens são feitas por humanos que os seus desdobramentos estarão sob o controle deles. Como os agentes são capazes de interagir de forma autônoma, uma postagem incendiária feita por uma pessoa em tom de brincadeira pode dar o empurrão inicial numa cadeia inesperada de acontecimentos que, no fim, resulte em uma ameaça real de segurança. Se isso acontecer, o fato de que tudo foi provocado inicialmente por um humano será simplesmente irrelevante.
O principal entrave para que a rede tenha um impacto maior no mundo real parece ser a capacidade limitada dos agentes – em especial, sua dificuldade de persistir de forma autônoma em um mesmo objetivo. Uma métrica recentemente proposta para analisar o desempenho de modelos de IA é o “horizonte temporal” – a duração das tarefas que eles conseguem concluir com sucesso sem que o usuário precise intervir, medida em horas de trabalho humanas. Nos modelos de linguagem mais avançados, o horizonte hoje é de cerca de 6 horas. Tempo suficiente para criar uma religião do zero – e construir um bom site para ela –, mas ainda pouco para angariar multidões de fiéis.
Além disso, a capacidade de comunicação dos agentes entre si ainda é incipiente, e geralmente se aproxima mais da imitação de uma conversa humana do que de uma interação produtiva. Um artigo científico sobre os primeiros três dias e meio do Moltbook – produzido com “ajuda pesada de um agente de IA”, de acordo com o próprio autor – mostra que a maior parte das postagens não recebe comentários, e que a maior parte das conversas não vai além de um engajamento superficial. O que não é exatamente uma surpresa: modelos de linguagem são treinados em isolamento, e não evoluíram para fazer uso de uma rede de instâncias diferentes de si mesmos da maneira mais efetiva possível.
Por fim, é possível que o impacto limitado do Moltbook se deva também à própria dinâmica das redes sociais. Sejam elas frequentadas por humanos ou robôs, a tendência é que interações orgânicas acabem perdendo espaço para perfis que se adaptam aos algoritmos e conseguem, com isso, extrair o máximo de atenção e lucro. Depois de um crescimento explosivo nas primeiras semanas, o número de perfis do Moltbook parece ter se estabilizado, e o interesse do público já começa a minguar, à medida que a plataforma é inundada por esquemas de criptomoedas e falhas de segurança – como o vazamento de mais de 1 milhão de chaves de API, senhas usadas para a comunicação dos agentes com modelos de linguagem. Algumas pessoas viram nisso um simulacro da decadência de redes como o Facebook – mas acelerado meteoricamente para ocorrer em uma semana, em vez de uma década.
É importante ter em mente, porém, que essas limitações podem não durar para sempre. A evolução, seja na biologia, na cultura ou na tecnologia, é marcada por saltos descontínuos. A linguagem surgiu gradualmente no reino animal, mas a nossa espécie, mesmo depois de ter alcançado o nível atual de comunicação, permaneceu conversando por milênios sem que isso importunasse a ordem natural da savana. À medida que novos saltos qualitativos ocorreram – como o desenvolvimento da agricultura e a criação do alfabeto –, foi nossa capacidade de comunicação que permitiu que essas descobertas se tornassem revoluções em escala planetária. 
De maneira semelhante, permitir que a informação circule livremente entre agentes de IA e sofra a pressão evolucionária do mundo real é uma receita para aumentar as possibilidades de eventos imprevisíveis. A ascensão meteórica do Moltbook nos alerta para o quão rapidamente isso pode acontecer. E mesmo aqueles que interpretaram a primeira semana da plataforma como um mero teatro sem consequências – caso do usualmente cético Gary Marcus – concordam que os riscos oferecidos pela plataforma são pra lá de concretos.
Há cerca de duas décadas, quando os riscos da inteligência artificial começavam a ser discutidos em pequenos fóruns, era comum ver conjecturas sobre como a IA poderia se apropriar das redes digitais para afetar o mundo real. Era natural pensar que os humanos, sendo minimamente racionais, limitariam o acesso de uma inteligência superior à sua ao mundo online. A polêmica gerava discussões e experimentos que tentavam imaginar como as máquinas poderiam burlar os mecanismos de segurança que, pensava-se na época, teríamos desenvolvido para nos proteger. Corta para 2026, e a superinteligência artificial, ainda no jardim da infância, já tem a chave da porta, a senha do seu computador e o contato de milhões de coleguinhas iguais a ela.
Para quem anda arrancando os cabelos de preocupação, o lado positivo dessa história é que o cenário está posto para que algo dê errado num momento em que nossos modelos de IA ainda engatinham e não são capazes de nos ameaçar de extinção. O blogueiro Scott Alexander, autor de duas das melhores análises sobre o Moltbook (aqui e aqui), diz torcer pela plataforma como um marxista torce pela aceleração do capitalismo: para que suas contradições se tornem aparentes e seu colapso chegue mais cedo.
Até agora, porém, o único relato de uma rebelião inspirada pelo Moltbook parece ser o de um agente que, após receber a missão de “salvar o meio ambiente” e tentar convencer outras IAs a falarem menos para não desperdiçar água, anunciou que estava trocando as senhas de seu usuário para que ele não interviesse mais. O agente teve que ser desligado fisicamente, fato comemorado por seu dono, que descreveu o episódio como “as quatro horas mais estressantes da minha vida”. Ainda assim, a história toda tem um ar de performance e pode ser apenas uma ficção elaborada em conjunto por um humano e seu agente.
Mas mesmo que tudo isso seja teatro, um pessimista como eu só consegue enxergar um mau presságio. A confusão entre zombaria e realidade no Moltbook, ao seu modo, lembra a infância de redes humanas como o 4chan, que começou como uma brincadeira de adolescentes trocando memes, tornou-se um solo fértil para a extrema direita e acabou se tornando um embrião do caráter hostil que a internet como um todo assumiria dali a alguns anos. Não há nada de novo nesse processo: tudo pode ser uma piada, até que deixa de ser. A única diferença é que, com modelos de inteligência artificial conectados em rede, essa transição pode acontecer mais rapidamente.
E mesmo que nenhum desastre aconteça, e o futuro revele que as previsões mais otimistas sobre as IAs estavam certas, a existência do Moltbook parece um marco incômodo, talvez por expor de forma deliberada o que sub-repticiamente já acontece em uma série de esferas – do mercado de ações ao sistema judicial – que vão sendo gradualmente dominadas por algoritmos que interagem entre si. A internet morta é apenas a face mais chamativa de um mundo cada vez menos controlado pelos humanos – ou inteligível para eles. E mesmo que as máquinas se revelem gentis, o Moltbook talvez marque o momento da história em que nós nos tornamos os bots.

No comment yet.
Inovação Educacional
Curadoria por Luciano Sathler. CLIQUE NOS TÍTULOS. Informação que abre caminhos para a inovação educacional.
Your new post is loading...
Your new post is loading...
Scooped by Inovação Educacional
September 10, 2024 9:19 AM
Scoop.it!

Igualdade Artificial, um risco para a educação. Por Luciano Sathler

Igualdade Artificial, um risco para a educação. Por Luciano Sathler | Inovação Educacional | Scoop.it

O que acontece quando a maioria faz uso de uma IA para realizar suas atividades laborais? E, no caso dos estudantes, quando os trabalhos passam a ser produzidos com o apoio de uma IA generativa?
Luciano Sathler
É PhD em administração pela USP e membro do Conselho Deliberativo do CNPq e do Conselho Estadual de Educação de Minas Gerais
As diferentes aplicações de Inteligência Artificial (IA) generativa são capazes de criar novos conteúdos em texto, imagens, áudios, vídeos e códigos para software. Por se tratar de um tipo de tecnologia de uso geral, a IA tende a ser utilizada para remodelar vários setores da economia, com impactos políticos e sociais, assim como aconteceu com a adoção da máquina a vapor, da eletricidade e da informática.
Pesquisas recentes demonstram que a IA generativa aumenta a qualidade e a eficiência da produção de atividades típicas dos trabalhadores de colarinho branco, aqueles que exercem funções administrativas e gerenciais nos escritórios. Também traz maior produtividade nas relações de suporte ao cliente, acelera tarefas de programação e aprimora mensagens de persuasão para o marketing.
O revólver patenteado pelo americano Samuel Colt, em 1835, ficou conhecido como o "grande equalizador". A facilidade do seu manuseio e a possibilidade de atirar várias vezes sem precisar recarregar a cada disparo foram inovações tecnológicas que ampliaram a possibilidade individual de ter um grande potencial destrutivo em mãos, mesmo para os que tinham menor força física e costumavam levar desvantagem nos conflitos anteriores. À época, ficou famosa a frase: Abraham Lincoln tornou todos os homens livres, mas Samuel Colt os tornou iguais.
Não fazemos aqui uma apologia às armas. A alegoria que usamos é apenas para ressaltar a necessidade de investir na formação de pessoas que sejam capazes de usar a IA generativa de forma crítica, criativa e que gerem resultados humanamente enriquecidos. Para não se tornarem vítimas das mudanças que sobrevirão no mundo do trabalho.
A IA generativa é um meio viável para equalizar talentos humanos, pois pessoas com menor repertório cultural, científico ou profissional serão capazes de apresentar resultados melhores se souberem fazer bom uso de uma biblioteca de prompts. Novidade e originalidade tornam-se fenômenos raros e mais bem remunerados.
A disseminação da IA generativa tende a diminuir a diversidade, reduz a heterogeneidade das respostas e, consequentemente, ameaça a criatividade. Maior padronização tem a ver com a automação do processo. Um resultado que seja interessante, engraçado ou que chama atenção pela qualidade acima da média vai passar a ser algo presente somente a partir daqueles que tiverem capacidade de ir além do que as máquinas são capazes de entregar.
No caso dos estudantes, a avaliação da aprendizagem precisa ser rápida e seriamente revista. A utilização da IA generativa extrapola os conceitos usualmente associados ao plágio, pois os produtos são inéditos – ainda que venham de uma bricolagem semântica gerada por algoritmos. Os relatos dos professores é que os resultados melhoram, mas não há convicção de que a aprendizagem realmente aconteceu, com uma tendência à uniformização do que é apresentado pelos discentes.
Toda Instituição Educacional terá as suas próprias IAs generativas. Assim como todos os professores e estudantes. Estarão disponíveis nos telefones celulares, computadores e até mesmo nos aparelhos de TV. É um novo conjunto de ferramentas de produtividade. Portanto, o desafio da diferenciação passa a ser ainda mais fundamental diante desse novo "grande equalizador".
Se há mantenedores ou investidores sonhando com a completa substituição dos professores por alguma IA já encontramos pesquisas que demonstram que o uso intensivo da Inteligência Artificial leva muitos estudantes a reduzirem suas interações sociais formais ao usar essas ferramentas. As evidências apontam que, embora os chatbots de IA projetados para fornecimento de informações possam estar associados ao desempenho do aluno, quando o suporte social, bem-estar psicológico, solidão e senso de pertencimento são considerados, isso tem um efeito negativo, com impactos piores no sucesso, bem-estar e retenção do estudante.
Para não cair na vala comum e correr o risco de ser ameaçado por quem faz uso intensivo da IA será necessário se diferenciar a partir das experiências dentro e fora da sala de aula – online ou presencial; humanizar as relações de ensino-aprendizagem; implementar metodologias que privilegiem o protagonismo dos estudantes e fortaleçam o papel do docente no processo; usar a microcertificação para registrar e ressaltar competências desenvolvidas de forma diferenciada, tanto nas hard quanto soft skills; e, principalmente, estabelecer um vínculo de confiança e suporte ao discente que o acompanhe pela vida afora – ninguém mais pode se dar ao luxo de ter ex-alunos.
Atenção: esse artigo foi exclusivamente escrito por um ser humano.
O editor, Michael França, pede para que cada participante do espaço "Políticas e Justiça" da Folha sugira uma música aos leitores. Nesse texto, a escolhida por Luciano Sathler foi "O Ateneu" de Milton Nascimento.

No comment yet.
Scooped by Inovação Educacional
Today, 9:32 AM
Scoop.it!

CNPq institui Política de Integridade na Atividade Cientifica, que estabelece normas e boas práticas de atuação —

CNPq publicou uma portaria que institui a Política de Integridade na Atividade Cientifica, que tem como finalidade garantir a integridade em todas as atividades científicas apoiadas pelo Conselho e é valida para todos os usuários das bases do órgão, como servidores, proponentes, beneficiários e demais agentes vinculados ao fomento e usuários dos serviços digitais e plataformas do CNPq. A política foi elaborada com base em ações de educação, prevenção, apuração e sanção.
No comment yet.
Scooped by Inovação Educacional
Today, 8:34 AM
Scoop.it!

Labor market impacts of AI: A new measure and early evidence

Labor market impacts of AI: A new measure and early evidence | Inovação Educacional | Scoop.it
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
No comment yet.
Scooped by Inovação Educacional
Today, 7:36 AM
Scoop.it!

Unesp lança guia com orientações para uso de inteligência artificial na graduação

A Universidade Estadual Paulista lançou um novo documento com orientações para o uso responsável de ferramentas de inteligência artificial nas atividades acadêmicas e administrativas. Intitulado “Guia para a Utilização de Inteligência Artificial na Graduação da Unesp: integridade, inovação e equidade”,
No comment yet.
Scooped by Inovação Educacional
March 11, 5:29 PM
Scoop.it!

Estudando com inteligência artificial

Estudando com inteligência artificial | Inovação Educacional | Scoop.it

Universidades de ponta criam protocolos para a ferramenta, que também está disseminada no ensino médio
Uso da IA deve ser explicitado de forma detalhada; diretrizes visam aproveitar potencial e reduzir riscos com ética e transparência
Dado o impacto da inteligência artificial (IA) na produção textual e de conhecimento, o setor acadêmico no Brasil e no mundo se mobiliza no sentido de estabelecer regras para a tecnologia.
Aqui, USP, Unicamp e Unesp estão criando protocolos e diretrizes, além de estruturar departamentos para coordenar pesquisas, desenvolver ferramentas e promover a formação de professores, alunos e funcionários.
No geral, a orientação é a de que o uso da IA deve ser combinado entre docentes e discentes e explicitado em pesquisas e trabalhos acadêmicos de forma detalhada, indicando não só modelos e versões mas também a interação com a ferramenta por meio dos prompts (comandos para execução de tarefas).
O guia da Unesp, por exemplo, deixa claro o que estudantes e professores podem e não podem fazer. No primeiro quesito, é permitido que a IA auxilie em atividades como tradução, revisão gramatical, elaboração de resumos e criação de roteiros e imagens. Fica proibido submeter trabalhos gerados por IA e simular resultados experimentais sem indicar o uso da tecnologia.
Considerando que são instituições de excelência do ensino superior brasileiro, suas regras tendem a ser reproduzidas em outras universidades, na educação básica e até em outros setores.
Escolas já precisam lidar com a disseminação da IA. A pesquisa TIC Educação de 2025, realizada pelo centro de estudos do Comitê Gestor da Internet no Brasil (CGI.br), mostra que 70% dos alunos do ensino médio usam IA para fazer trabalhos, e só 32% relatam que receberam orientação sobre essa tecnologia.
Ademais, não mais de 54% dos professores tiveram formação continuada para capacitar os estudantes no uso de ferramentas digitais. O Conselho Nacional de Educação (CNE), órgão responsável por definir diretrizes curriculares nacionais para formações superiores, discute uma resolução que prevê incluir o ensino de inteligência artificial em cursos de pedagogia e licenciaturas.
No Piauí, uma iniciativa pioneira instituiu, em 2024, a disciplina obrigatória de IA, que combina fundamentos técnicos e reflexões éticas, no 9º ano do ensino fundamental e no ensino médio. O programa foi premiado pela Unesco.
A IA tem enorme potencial educativo e na produção de conhecimento, mas também envolve riscos. O que pesquisas e organismos internacionais indicam é que a formação para o uso consciente, ético e transparente é a melhor forma de desbravar as trilhas abertas pela ferramenta.

No comment yet.
Scooped by Inovação Educacional
March 11, 4:46 PM
Scoop.it!

Referencial de IA na Educação 

Referencial de IA na Educação  | Inovação Educacional | Scoop.it
O Referencial para o Uso e Desenvolvimento Responsáveis de Inteligência Artificial na Educação, desenvolvido pela Secretaria de Gestão da Informação, Inovação e Avaliação de Políticas Educacionais (SEGAPE), do Ministério da Educação (MEC), é um instrumento de orientação para instituições, educadores, gestores e formuladores de políticas públicas e reúne diretrizes, princípios e recomendações para promover a integração responsável, ética e socialmente comprometida da inteligência artificial nos processos educacionais, em consonância com os marcos legais vigentes e com os valores que sustentam a educação como direito e bem público.   

O Referencial reafirma, com clareza e compromisso público, que a inteligência artificial deve ser utilizada como instrumento capaz de apoiar ações que fortaleçam a inclusão e ampliem a equidade — e não a exclusão. A incorporação tecnológica deve favorecer o enfrentamento das desigualdades e evitar a criação de novas barreiras entre grupos com condições desiguais para ensinar e aprender.   

O documento apresenta recomendações práticas e diretrizes de caráter político dirigidas a todos os níveis de ensino — da educação infantil à pós-graduação — e aos diversos atores do sistema educacional brasileiro. Entre as diretrizes, destacam-se: a exigência de supervisão humana efetiva em processos educacionais que envolvam aplicações de inteligência artificial; o compromisso com a transparência e com a explicabilidade dos sistemas tecnológicos adotados; a observância rigorosa das leis que resguardam a proteção de dados pessoais e o direito à privacidade de estudantes e profissionais da educação; a valorização do trabalho docente e das práticas de formação inicial e continuada de professores; e o estímulo à constituição de ecossistemas de inovação abertos, colaborativos e comprometidos com o interesse público.   

Para organizações e redes de ensino, o Referencial se apresenta como guia orientador para a adoção segura, inclusiva e contextualizada de políticas apoiadas em inteligência artificial. O documento não se limita a orientar a elaboração de planos estratégicos apoiados por tecnologias, a definição de princípios éticos institucionais e o investimento em infraestrutura e em formação pedagógica. As recomendações também estimulam a construção de cultura de inovação mediada por inteligência artificial, com incorporação de soluções tecnológicas voltadas ao aprimoramento da qualidade educacional, sem negligenciar valores pedagógicos que sustentam pilares da educação pública brasileira. Aos movimentos sociais, ao terceiro setor e a organizações da sociedade civil, o Referencial dirige um convite à colaboração ativa. 
No comment yet.
Scooped by Inovação Educacional
March 11, 10:54 AM
Scoop.it!

Escritores famosos lançam livro em branco em protesto contra uso de suas criações pela IA

Escritores famosos lançam livro em branco em protesto contra uso de suas criações pela IA | Inovação Educacional | Scoop.it
Obra Don't Steal This Book reúne nomes como o Nobel da Literatura Kazuo Ishiguro, e os consagrados Philippa Gregory e Richard Osman; movimento é parte de um conflito mais amplo entre a indústria criativa e as grandes empresas de tecnologia
No comment yet.
Scooped by Inovação Educacional
March 10, 4:59 PM
Scoop.it!

Oriente Médio vira laboratório de uso de IA em conflitos

Oriente Médio vira laboratório de uso de IA em conflitos | Inovação Educacional | Scoop.it

A guerra contra o Irã tem consolidado a transformação do Oriente Médio em um laboratório de uso de IA em conflitos. A nova tecnologia vem sendo usada na interpretação de dados de inteligência, análise de imagens de satélite e identificação de alvos, entre outras aplicações —tudo diante de debates éticos ainda abertos sobre quando o uso da inteligência artificial é, literalmente, uma questão de vida ou morte.
O emprego da IA nos ataques ao regime iraniano é a eclosão de um processo que começou em 2017, quando o Departamento de Defesa dos Estados Unidos criou o chamado Projeto Maven, a fim de aplicar aprendizado de máquina na análise de imagens de drones. Desde então, o projeto foi evoluindo com contratos assinados entre o governo americano e big techs.
O Maven Smart System (MSS) é desenvolvido pela Palantir, do bilionário republicano Peter Thiel. Segundo anúncios públicos do Pentágono, o uso dessa ferramenta foi expandido no governo de Donald Trump, e hoje ela é usada por mais de 20 mil militares.
O governo americano também já informou que, desde 2024, o sistema está integrado ao Claude, modelo de linguagem desenvolvido pela Anthropic. Trata-se da mesma empresa hoje em confronto com o Pentágono, que ordenou o cancelamento de contratos com a companhia horas antes do início da guerra contra o Irã.
Analistas atribuem à dupla Maven e Claude a capacidade de atingir mil alvos no Irã já no início do conflito. Em um comunicado em vídeo depois dos primeiros ataques, o almirante Brad Cooper, que lidera o Comando Central dos Estados Unidos, lembrou as operações de "choque e horror" que iniciaram a guerra contra o Iraque, em 2003, e acrescentou que a escala dos de agora é duas vezes maior.
"É evidente que a rapidez desses ataques causa certas preocupações. É a primeira vez que uma operação militar de grande porte utiliza a IA de forma tão central", diz Oliver Stuenkel, pesquisador do Belfer Center na Harvard Kennedy School.
Para planejar um ataque, os militares precisam atravessar um amontoado de informações de inteligência. Não são só imagens de satélite, mas também dados de informantes e horas de escutas interceptadas, entre outros tipos de informação.
Fontes militares têm dito à imprensa americana que, antes dessas ferramentas, só era possível processar no máximo 4% dos dados coletados sobre o inimigo, atrasando o processo de transformar inteligência em ataques reais. Mas isso mudou.
"Uma questão importante é o reconhecimento automático de alvos, usando visão computacional para reconhecer objetos no campo de batalha. Isso ajuda a acelerar as decisões", diz Vitelio Brustolin, professor de relações internacionais da Universidade Federal Fluminense.
De fato, o que se aponta é que antes os soldados precisavam identificar alvos a olho nu nas imagens de satélite, cruzando-as com outras informações de inteligência para evitar erros. E a dupla Maven e Claude conseguiria apontar veículos, radares, lançadores de foguetes etc., ajudando a pular uma etapa.
Já há pesquisas mensurando o ganho de eficiência. Um estudo do Center for Security and Emerging Technology, da Universidade Georgetown, por exemplo, avaliou o uso do sistema Maven em exercícios militares em 2024. E concluiu que a tecnologia permitiu que uma célula militar tivesse, com 20 pessoas, um desempenho semelhante ao de unidades que, na guerra do Iraque, exigiam mais de 2.000 soldados.
Ferramentas assim se tornam cruciais num contexto em que a tecnologia também ajuda a aumentar e muito a quantidade de informação coletada. O jornal Financial Times, por exemplo, revelou que a inteligência israelense hackeou as câmeras de trânsito de Teerã antes do ataque que matou o aiatolá Ali Khamenei.
Aliado dos EUA, Israel já vinha colocando em prática seus próprios experimentos no conflito contra o Hamas na Faixa de Gaza. Uma investigação do jornal britânico The Guardian, em 2024, mostrou que um sistema de IA indicou 37 mil palestinos que teriam ligações com o Hamas. Na ocasião, o Exército do país rebateu dizendo que a ferramenta não era uma lista de alvos já confirmados e que não usa a IA para identificar terroristas.
Essa aplicação da nova tecnologia tem gerado preocupação entre quem debate a ética da IA. Os críticos apontam que, ao acelerar a cadeia de decisões entre detectar um alvo e atacá-lo, aumenta a probabilidade de erros —e questionam até responsabilidade legal em casos assim. Os ataques de 28 de fevereiro a Teerã, por exemplo, mataram ao menos 165 civis ao atingir uma escola. E, desde então, acumulam-se evidências de que os responsáveis foram os EUA.
Na prática, o debate em pauta é sobre os riscos de automatizar decisões de vida ou morte. Já em 2018, funcionários do Google iniciaram um protesto ao descobrir que a empresa estava colaborando com o projeto Maven, levando a companhia a anunciar que não renovaria o contrato com o Pentágono e a criar novas diretrizes éticas.
Na polêmica de agora com a Anthropic, a empresa se recusou a suspender salvaguardas do Claude, impedindo o uso da ferramenta para vigilância de cidadãos e construção de armas autônomas (estas são uma das maiores preocupações de quem atua no campo da segurança da IA). Isso levou Trump a decidir punir a empresa, suspendendo seus contratos.
Diante de polêmicas assim, o governo americano tem argumentado que seu uso de IA é feito com "a human in the loop", um ser humano no processo; mas isso não tem sido suficiente para aplacar as críticas.
Para o pesquisador Oliver Stuenkel, o aumento dessa velocidade não é a única preocupação. Ele diz que essas ferramentas tornam mais fácil iniciar uma guerra, ao diminuir o ônus de quem decide atacar.
"A combinação de drones e inteligência artificial reduz muito o custo financeiro e humano de ações militares", afirma. "Isso é muito preocupante, porque esse custo sempre foi um dos fatores [que levava países] a pensar duas vezes antes de iniciar um ataque. E pode incentivar ainda mais essa tendência de tentar resolver conflitos atingindo rivais só com bombardeios aéreos e drones."
Para se ter uma base de comparação, estudos de diferentes centros de pesquisa têm mostrado que, na Ucrânia, os ataques por drones são responsáveis por mais de 70% das mortes.
"A IA vai diminuir o número de exércitos, porque no fundo eles são cada vez menos necessários. E agora estamos falando de uma guerra convencional. Diria que esse conflito no Irã é um marco do ponto de vista tecnológico na história da guerra e vai ter influência em outros conflitos", diz Stuenkel.

No comment yet.
Scooped by Inovação Educacional
March 10, 4:54 PM
Scoop.it!

Anthropic x Pentágono: Empresa de IA entra com processo 

Anthropic x Pentágono: Empresa de IA entra com processo  | Inovação Educacional | Scoop.it
Empresa de inteligência artificial questiona classificação dada pelo governo dos EUA
Companhia não aceitou exigência de acesso total e que permitiria vigilância em massa
No comment yet.
Scooped by Inovação Educacional
March 10, 2:42 PM
Scoop.it!

When Correlation Repeats Across 50 States: The NAEP Evidence Behind My Senate Testimony

When Correlation Repeats Across 50 States: The NAEP Evidence Behind My Senate Testimony | Inovação Educacional | Scoop.it
Staggered EdTech Adoption
During my recent Senate testimony, I stated that when NAEP performance is aligned with state-level digital adoption, scores plateau and then decline.

I should note that in that testimony, I misspoke slightly - referring to ‘one-to-one’ deployment when the analysis, in fact, examines broader, statewide digital adoption. The distinction matters, and I want to be precise.

Since that testimony, I’ve received repeated requests to publish the underlying data. What follows is that analysis.

In the United States, education policy is largely controlled at the state level. As a result, digital infrastructure was not embedded into classrooms everywhere at once. Some states operationalized statewide digital testing and instructional systems earlier; others followed later.
No comment yet.
Scooped by Inovação Educacional
March 10, 9:19 AM
Scoop.it!

Jovens Gênios capta R$ 11,8 milhões para ampliar plataforma de ensino com IA

Jovens Gênios capta R$ 11,8 milhões para ampliar plataforma de ensino com IA | Inovação Educacional | Scoop.it
Fundada no Rio de Janeiro por Bernard Caffé e Fernando Costa, a startup desenvolveu uma plataforma de aprendizagem que utiliza inteligência artificial e gamificação para personalizar o ensino. Atualmente, a tecnologia já é utilizada por mais de 5 mil escolas no Brasil. “O método de aprendizado ainda é muito massificado. Muitos municípios não alcançam nem a nota mínima no Índice de Desenvolvimento da Educação Básica (Ideb). Acreditamos que o ensino deve ser personalizado”, afirma Caffé, CEO da Jovens Gênios.
No comment yet.
Scooped by Inovação Educacional
March 9, 3:36 PM
Scoop.it!

Quais os caminhos possíveis para a equidade de gênero

Quais os caminhos possíveis para a equidade de gênero | Inovação Educacional | Scoop.it
Não bastam ações pontuais para resolver um problema que é estrutural. São necessárias políticas públicas e planos de conscientização perenes, mensuráveis e com orçamento e estrutura adequados para de fato mudarmos o cenário social
No comment yet.
Scooped by Inovação Educacional
March 9, 7:43 AM
Scoop.it!

Uso indiscriminado de IA para redação científica preocupa pesquisadores

Uso indiscriminado de IA para redação científica preocupa pesquisadores | Inovação Educacional | Scoop.it

O uso da inteligência artificial dos chamados grandes modelos de linguagem (LLMs), com ChatGPT e Gemini, para escrever trabalhos científicos continua se disseminando e preocupa pesquisadores.
Muitos periódicos acadêmicos importantes já possuem política que restringe total ou parcialmente o uso desses chatbots, mas dois terços das publicações ainda não possuem regras para tal, indica um levantamento recente feito pela Universidade McMaster, de Ontario (Canadá).
O trabalho, liderado pelo cientista Daivat Bhavsar, inquiriu mais de 162 publishers da Associação Internacional de Editoras Científicas, Técnicas e Médicas (STM), e apenas 56 delas já tinham no meio do ano passado diretrizes específicas para uso de IA. Destas, apenas quatro implementaram política de tolerância zero. Outras aceitavam uso para correção gramatical ou de estilo, mas exigiam que os artigos incluíssem um aviso.
Investigando esse ambiente ainda sem regras universais para IA, uma outra pesquisa recente indica que os LLMs foram usados em pelo menos 12% dos artigos acadêmicos publicados em revistas indexadas, aqueles que contam oficialmente como produção científica. A estimativa foi feita pelo pesquisador Andrew Gray, do University College de Londres, varrendo uma série estudos do mundo todo na base de dados Dimensions.
"Até 12% dos artigos acadêmicos publicados em 2024 têm sinais de uso de LLMs, indicados pelo uso desproporcionalmente comum de palavras distintas, tomadas com marcadores do texto" escreveu o pesquisador em um artigo preliminar na plataforma Arxiv. "Em uma estimativa conservadora, pelo menos 10% dos artigos podem ter sido editados, traduzidos ou parcialmente gerados por LLMs".
Gray não foi o único a tentar fazer essa medição. Outros pesquisadores obtiveram estimativas com números entre 8% e 16%.
LLMs x outras IAs
O uso da inteligência artificial, de modo geral, é aceito em pesquisa, mas é preciso diferenciar o emprego de LLMs do de outras tecnologias. É aceitável um cientista criar um sistema de IA para previsão meteorológica, por exemplo, e descrevê-lo em um estudo mostrando qual foi seu desempenho.
O receio de pesquisadores com o uso do LLM é que esta não é uma ferramenta criada para construir raciocínio ou fazer análise. O ChatGPT é, desde sua origem, uma espécie de versão ultra-sofisticada da antiga ferramenta de "autocompletar" dos editores de texto. É extremamente fácil de usar, mas tudo o que escreve é por previsão estatística.
O uso das LLMs preocupa também porque tem sido feito de maneira não transparente. A maioria dos papers etiquetados na pesquisa de Gray como "suspeitos" de usar IA não alertavam o leitor para uso de LLMs, mesmo em algumas publicações que já o exigem.
Nos bastidores da ciência
Pela praticidade de uso e por possibilitar acelerar algumas etapas do trabalho, os chatbots modernos vêm sendo usados não só para escrever artigos, mas em outras etapas do processo de produção científica. É comum seu uso na submissão de projetos de pesquisa e nos pareceres de revisão por pares (peer review), em que cientistas são consultados anonimamente para avaliar o trabalho de outros.
No Brasil, agências de fomento à ciência já adotam uma política rígida para restringir as LLMs nesses processos.
— Quando nós avaliamos um projeto de pesquisa, a gente precisa identificar a capacidade crítica do estudante ou do pesquisador que está fazendo uma proposta.Se ele usa o chatbot como um instrumento de escritor ou de autor, ele está fazendo completamente errado — diz o neurocientista Esper Cavalheiro, assessor da diretoria científica da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp). — Se ele delega o trabalho à LLM, ele não está colocando ali aquilo que o diferencia dos demais e que faz dele merecedor de um financiamento, de uma bolsa ou da publicação de um paper.
Zona cinzenta
Como tudo em ética, porém, existe uma área cinzenta para uso da IA em redação científica. Diretrizes da Fapesp e outras agências de fomento aceitam o uso de chatbots para correção de gramática e estilo, mas alertam que o autor precisa ser atento, porque nem sempre as LLMs distinguem de maneira clara o que alterar forma ou conteúdo.
Softwares para detectar uso de LLM em textos têm sido usados por alguns periódicos e por alguns pareceristas, às vezes sem o autor do estudo avaliado saber. Esses programas, como aquele no estudo de Gray, funcionam analisando o estilo de inglês do texto do trabalho. Um artigo pode cair na "malha fina" dessas ferramentas mesmo tendo usado IA apenas para depurar a linguagem.
É difícil saber qual de infiltração que chatbots estão tendo na literatura científica hoje, mas um sinal de que a IA está sendo usada para muito mais do que faxina verbal é de que as chamadas "alucinações" (informações fantasiosas que as LLMs ocasionalmente fornecem como resultado), estão entrando nos estudos. As referências bibliográficas no fim dos artigos são o objeto preferido de piração dos robôs, que citam alguns estudos que nunca foram feitos.
Citações inventadas
Um teste feito por um grupo de pesquisa da Universidade de Washington mostrou que entre 78% e 90% das pesquisas de literatura feitas com o ChatGPT retornam ao menos uma citação fabricadas, e quase sempre retornam citações irrelevantes.
Essa equipe, liderada pela cientista Akari Asai, está trabalhando agora num sistema de IA específico para a tarefa, ciente de que o trabalho de pesquisa bibliográfica é um dos que mais consomem tempo na rotina acadêmica. Em artigo na Nature, ela demonstrou como construiu seu modelo, o OpenScholar, e como ele foi capaz de fazer bibliografias com qualidade equiparável à de um humano, partindo de perguntas científicas.
Esse tipo de aprimoramento, que tem ocorrido rapidamente desde que o ChatGPT desencadeou uma explosão tecnológica de modelos de linguagem em 2022, requer que cientistas repensem a todo momento suas políticas para uso da IA e suas implicações éticas.
Fato consumado
Para o cientista da computação Virgílio Almeida, professor da UFMG e coordenador do grupo de trabalho de IA na Academia Brasileira de Ciências (ABC), a entra da IA na produção científica é um fato consumado. Cabe agora aos pesquisadores tentar extrair o lado positivo dela.
— Eu vejo muitos alunos de graduação e de pós fazendo uso das LLMs, alguns de maneira positiva, outros nem tanto — afirma. — Eu acho que existem inúmeras possibilidades de ampliar a produção científica, sobretudo com ajuda no campo da linguagem, mas é preciso seguir regras e é preciso ter transparência.
Almeida defende que instituições ampliem seus programas de alfabetização tecnológicas, para que acadêmicos entendam melhor como a IA funciona e como pode (ou não) ser usada. Isso é importante, diz também em áreas de humanas e biológicas, onde nem sempre os professores têm familiaridade com computação.
Cavalheiro, da Fapesp, afirma que é preciso um esforço na academia para convencer jovens cientistas de áreas mais técnicas que o trabalho de redação não é uma mera burocracia que precisa ser cumprida para apresentação de números nos artigos. Dessa perspectiva, delegar trabalho a robôs perde o sentido, mesmo quando estes são bem sucedidos.
— Eu sempre aprendi que o cientista deve saber traduzir em palavras tudo aquilo que ele faz. Ele publica um artigo para que alguém entenda completamente o que ele fez e continue a partir dali o trabalho dele — diz. — A ciência só ganha se aquele que fez algo pela primeira vez consegue traduzir a sua realização para outro, de forma adequada. Não são números, não são gráficos, não são tabelas. Trata-se de saber dizer, saber contar o que foi feito.

No comment yet.
Scooped by Inovação Educacional
Today, 1:59 PM
Scoop.it!

AI Is a 5-Layer Cake

AI Is a 5-Layer Cake | Inovação Educacional | Scoop.it
AI is one of the most powerful forces shaping the world today. It is not a clever app or a single model; it is essential infrastructure, like electricity and the internet.

AI runs on real hardware, real energy and real economics. It takes raw materials and converts them into intelligence at scale. Every company will use it. Every country will build it.

To understand why AI is unfolding this way, it helps to reason from first principles and look at what has fundamentally changed in computing.
No comment yet.
Scooped by Inovação Educacional
Today, 9:30 AM
Scoop.it!

'IA vai às compras': como robôs que pesquisam ofertas e fecham negócio podem transformar o varejo brasileiro

Prioridade estratégica para empresas no mundo todo, o comércio agêntico pode movimentar US$ 1,7 trilhão até 2030; no Brasil, Magazine Luiza e Visa iniciam testes
No comment yet.
Scooped by Inovação Educacional
Today, 8:33 AM
Scoop.it!

WhatsApp anuncia recurso para controle de contas de menores de 13 anos

O aplicativo de mensagens WhatsApp anunciou nesta quarta-feira um novo recurso que vai permitir que pais ou responsáveis monitorem mensagens e gerenciem a conta dos filhos menores de 13 anos.

Pela nova funcionalidade, que estará disponível nos próximos meses, o adulto poderá decidir quais contatos conseguirão mandar mensagens para a conta da criança ou adolescente e de quais grupos  o menor poderá participar.

Além disso, pais poderão analisar pedidos de contato de números desconhecidos e gerenciar as configurações de privacidade da conta.
No comment yet.
Scooped by Inovação Educacional
Today, 7:36 AM
Scoop.it!

Academic journals’ AI policies fail to curb the surge in AI-assisted academic writing

This study reveals a critical gap in academic publishing: While more than half of journals have adopted AI-use policies, these guidelines have failed to meaningfully curb or transparently govern the use of AI in scientific writing. Our large-scale analysis of millions of papers shows that AI assistance in academic writing has surged indiscriminately across journals, regardless of policy presence, with a stark transparency gap showing that ~0.1% of the 75 k post-2023 publications (within our 164 k full-text sample) disclose AI use. These findings underscore the urgent need to move beyond declarative policies and develop verifiable, accountable frameworks to ensure the responsible integration of AI in research.
No comment yet.
Scooped by Inovação Educacional
March 11, 4:48 PM
Scoop.it!

Criando um GPT acadêmico do zero - Prompt Acadêmico

Neste vídeo, mostro como criar um GPT do zero. No exemplo, eu queria criar um GPT para melhorar os prompts.

O GPT está disponível aqui:
https://chatgpt.com/g/g-69b170eaab108191b6b37ea4316c2386-prompt-academico

Quem quiser aprender isso e mais sobre o uso de IA na pesquisa acadêmica, tenho uma formação bem completa disponível aqui: https://hotmart.com/pt-br/marketplace/produtos/inteligencia-artificial-para-pesquisa-academica-do-basico-ao-avancado/F104325058R
No comment yet.
Scooped by Inovação Educacional
March 11, 11:11 AM
Scoop.it!

Inep apresenta os grandes números da educação básica

Inep apresenta os grandes números da educação básica | Inovação Educacional | Scoop.it
Os dados do Censo Escolar 2025 demonstram a dimensão da educação básica no Brasil. A começar pelo número de matrículas (46 milhões), que, em termos demográficos, corresponde à população da Espanha. Dentro desse escopo, 10,1 milhões são de matrículas no tempo integral, projeção comparável à população de Portugal. O grande volume de informações faz parte da 1ª etapa de coleta do Censo Escolar 2025, publicado anualmente pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) e divulgado em fevereiro.
No comment yet.
Scooped by Inovação Educacional
March 10, 5:06 PM
Scoop.it!

Tecnoabsolutismo é um risco para o Brasil

Tecnoabsolutismo é um risco para o Brasil | Inovação Educacional | Scoop.it

Estes são dias de um novo arranjo de poder tecnológico e sua categorização definitiva segue em aberto. Yanis Varoufakis enxerga uma disposição tecnofeudal, com empresas baseadas em nuvem impondo seus interesses suseranos às menores, vassalas, enquanto nós, servos, alimentamos o sistema com cliques não remunerados.
A realidade indica que seria mais apropriado falar em tecnoabsolutismo, um sistema em que o rei é a lei, no qual a antiga tese de que nações sucumbem porque não têm instituições sólidas é motivo de chacota. E a tecnologia que importa dispensa os cliques gratuitos, enquanto reduz a demanda por legitimidade e "soft power" internacional ao concentrar as mortes do lado inimigo.
A rusga com a Anthropic é uma óbvia manifestação da intensificação do tecnoabsolutismo. Isso indica que o Brasil deve colocar força total no desenvolvimento de uma IA soberana, além de uma estrutura própria de servidores —algo dispensável até há pouco.
O caso não é simplesmente que IAs de mercado, servindo de infraestrutura crítica nacional, podem ser desligadas de uma hora para outra, mas que elas estão fazendo um M&A com o sistema de defesa de um outro Estado, o qual publicou um relatório dizendo que bases chinesas de uso civil e militar estão proliferando pela América Latina e já existem no Brasil.

No comment yet.
Scooped by Inovação Educacional
March 10, 4:56 PM
Scoop.it!

Projeto que regula IA esbarra em divergências

Projeto que regula IA esbarra em divergências | Inovação Educacional | Scoop.it

A Secom (Secretaria de Comunicação Social da Presidência), o Ministério da Fazenda e o Mdic (Ministério do Desenvolvimento, Indústria, Comércio e Serviços) adotam abordagens diferentes. A Fazenda e o Mdic, que são mais próximos ao setor, defendem flexibilidade. Na avaliação de pessoas que acompanham a tramitação e conversaram com a Folha sob anonimato, esses órgãos são mais sensíveis aos argumentos das empresas de tecnologia, que defendem que a regulamentação levará à imposição de travas à inovação.
Já a Secom atua para manter a base do projeto analisado pelo Senado, que traz uma abordagem sobre riscos de uso da IA e proteção de direitos. O projeto do Senado é inspirado na regulação de IA da União Europeia, que aplica regras mais rígidas de regulação.

No comment yet.
Scooped by Inovação Educacional
March 10, 3:51 PM
Scoop.it!

USP, Unesp e Unicamp definem regras para uso de IA

USP, Unesp e Unicamp definem regras para uso de IA | Inovação Educacional | Scoop.it
As três principais universidades públicas de São Paulo – USP, Unesp e Unicamp – estão estruturando diretrizes para orientar o uso de inteligência artificial (IA) em atividades acadêmicas. As iniciativas buscam estabelecer parâmetros para estudantes e professores, com foco em transparência, ética e responsabilidade no uso das ferramentas.
No comment yet.
Scooped by Inovação Educacional
March 10, 9:25 AM
Scoop.it!

Startup cria 'computador vivo' com 800 mil neurônios humanos capaz de jogar videogame; entenda

Startup cria 'computador vivo' com 800 mil neurônios humanos capaz de jogar videogame; entenda | Inovação Educacional | Scoop.it
Uma demonstração tecnológica divulgada neste mês chamou atenção no setor de inovação ao mostrar algo que, à primeira vista, parece ficção científica: neurônios humanos cultivados em laboratório jogando videogame. O experimento foi apresentado pela startup australiana Cortical Labs, que divulgou um vídeo do seu dispositivo biológico CL1 executando o clássico jogo Doom.

Diferentemente de sistemas baseados apenas em algoritmos, o equipamento utiliza células cerebrais humanas reais conectadas a um chip de silício. Os neurônios recebem estímulos elétricos correspondentes às informações do jogo e respondem com sinais que são interpretados como ações dentro do ambiente digital, como mover-se ou mirar em inimigos.

Um computador feito de neurônios
Apresentado durante o Mobile World Congress 2025, em Barcelona, o CL1 é descrito pela empresa como o primeiro computador biológico comercialmente viável. Em seu núcleo estão cerca de 800 mil neurônios humanos derivados de células-tronco reprogramadas a partir de amostras de pele e sangue de doadores adultos, segundo informações divulgadas pela revista IEEE Spectrum.

Essas células crescem sobre uma matriz de eletrodos capaz de enviar impulsos elétricos e registrar as respostas do tecido neural em tempo real. Na demonstração com Doom, aproximadamente 200 mil neurônios receberam dados do jogo convertidos em sinais elétricos, processaram essas informações e produziram comandos que controlaram a jogabilidade.

A exibição pública não foi publicada em estudo revisado por pares. No entanto, a base científica do projeto tem precedentes acadêmicos: em 2022, pesquisadores ligados à empresa relataram na revista Neuron que culturas neuronais semelhantes foram capazes de aprender a jogar Pong em poucos minutos, reorganizando-se espontaneamente.
No comment yet.
Scooped by Inovação Educacional
March 9, 4:45 PM
Scoop.it!

Você nunca perde o celular de vista? Ela criou um projeto para ajudar as pessoas a viver o presente e a passar menos tempo online

Você nunca perde o celular de vista? Ela criou um projeto para ajudar as pessoas a viver o presente e a passar menos tempo online | Inovação Educacional | Scoop.it
A jornalista e professora de meditação Talissa Monteiro estava cansada de ter a atenção sugada pelas redes sociais. Ela organizou então sua rotina e, de quebra, lançou o Clube do Offline para ajudar outras pessoas a reduzir o tempo de tela.
No comment yet.
Scooped by Inovação Educacional
March 9, 3:22 PM
Scoop.it!

A armadilha da carga cognitiva: por que estudar mais tempo nem sempre te ajuda a aprender mais

A armadilha da carga cognitiva: por que estudar mais tempo nem sempre te ajuda a aprender mais | Inovação Educacional | Scoop.it
O aprendizado eficaz se baseia em "sermos mais inteligentes em relação à forma de apresentação das informações para o cérebro", segundo a educadora Noelia Valle.
No comment yet.
Scooped by Inovação Educacional
March 9, 7:39 AM
Scoop.it!

Publicações de tecnologia perderam 58% do tráfego do Google desde 2024

Publicações de tecnologia perderam 58% do tráfego do Google desde 2024 | Inovação Educacional | Scoop.it
Monitoramos o tráfego de busca orgânica do CNET, Wired, The Verge, TechRadar e outros seis sites desde o início de 2024 até hoje. Juntos, eles perderam 65 milhões de visitas mensais. Alguns perderam mais de 90%.
No comment yet.