Inovação Educacional
611.0K views | +97 today
Inovação Educacional
Curadoria por Luciano Sathler. CLIQUE NOS TÍTULOS. Informação que abre caminhos para a inovação educacional.
Your new post is loading...
Your new post is loading...
Scooped by Inovação Educacional
April 14, 2:26 PM
Scoop.it!

Setor privado assume gestão de infraestrutura de escolas em Minas Gerais

O fundo de investimento em participações (FIP) IG4 BTG Pactual Health Infra foi escolhido, nesta segunda-feira (30), para assumir a gestão de infraestrutura e serviços de 95 escolas públicas de Minas Gerais pelos próximos 25 anos.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:22 PM
Scoop.it!

FENEP lança guia para implantação do ECA Digital nas escolas particulares

FENEP lança guia para implantação do ECA Digital nas escolas particulares | Inovação Educacional | Scoop.it
Documento orienta instituições sobre novas responsabilidades jurídicas e práticas para proteção de crianças e adolescentes no ambiente digital
No comment yet.
Scooped by Inovação Educacional
April 14, 2:19 PM
Scoop.it!

Palantir CEO says AI ‘will destroy’ humanities jobs

Palantir CEO says AI ‘will destroy’ humanities jobs | Inovação Educacional | Scoop.it
Palantir CEO says AI ‘will destroy’ humanities jobs, but there will be ‘more than enough jobs’ for people with vocational training
No comment yet.
Scooped by Inovação Educacional
April 14, 2:16 PM
Scoop.it!

Clube de leitura na escola: como criar e engajar alunos

Clube de leitura na escola: como criar e engajar alunos | Inovação Educacional | Scoop.it
Seja na sala de aula ou na biblioteca, a criação de clubes de leitura é uma forma de promover engajamento e a formação leitora dos estudantes
No comment yet.
Scooped by Inovação Educacional
April 14, 2:15 PM
Scoop.it!

Muse Spark: Meta apresenta nova IA que vai alimentar Instagram, WhatsApp e Facebook

Muse Spark: Meta apresenta nova IA que vai alimentar Instagram, WhatsApp e Facebook | Inovação Educacional | Scoop.it
Modelo é o primeiro lançamento da nova equipe de IA da empresa de Mark Zuckerberg, que passou por uma grava crise no ano passado
No comment yet.
Scooped by Inovação Educacional
April 14, 2:14 PM
Scoop.it!

OpenAI, Anthropic e Google se unem para combater a reprodução de modelos de IA na China

OpenAI, Anthropic e Google se unem para combater a reprodução de modelos de IA na China | Inovação Educacional | Scoop.it
As rivais OpenAI, Anthropic e Google, da Alphabet, começaram a trabalhar juntos para tentar conter concorrentes chineses que estariam extraindo resultados de modelos avançados de inteligência artificial dos EUA para ganhar vantagem na corrida global de IA.

As empresas estão compartilhando informações por meio do Frontier Model Forum, uma organização sem fins lucrativos do setor fundada em 2023 pelas três companhias de tecnologia em parceria com a Microsoft, para detectar as chamadas tentativas de “destilação adversária” que violam seus termos de serviço, segundo pessoas familiarizadas com o assunto.

Essa colaboração rara destaca a gravidade de uma preocupação levantada por empresas americanas de IA de que alguns usuários, especialmente na China, estariam criando versões imitadas de seus produtos, capazes de competir com preços mais baixos e atrair clientes, além de representar um risco à segurança nacional.

Autoridades dos EUA estimam que a destilação não autorizada custe bilhões de dólares por ano em lucros às empresas do Vale do Silício, de acordo com uma fonte que falou sob condição de anonimato.

A OpenAI confirmou que participa do compartilhamento de informações sobre destilação adversarial por meio do Frontier Model Forum e apontou para um memorando recente enviado ao Congresso, no qual acusou a empresa chinesa DeepSeek de tentar “se aproveitar das capacidades desenvolvidas pela OpenAI e outros laboratórios de ponta dos EUA”. Google, Anthropic e o Frontier Model Forum se recusaram a comentar.

A destilação é uma técnica em que um modelo de IA mais antigo (“professor”) é usado para treinar um modelo mais novo (“aluno”), que replica as capacidades do sistema anterior — muitas vezes a um custo muito menor do que desenvolver um modelo original do zero. Algumas formas de destilação são amplamente aceitas e até incentivadas por laboratórios de IA, como quando empresas criam versões menores e mais eficientes de seus próprios modelos ou permitem que desenvolvedores externos utilizem a técnica para criar tecnologias não competitivas.

Ainda assim, a destilação se torna controversa quando utilizada por terceiros — especialmente em países considerados adversários, como China ou Rússia — para replicar trabalhos proprietários sem autorização. Os principais laboratórios de IA dos EUA alertam que adversários estrangeiros poderiam usar essa técnica para desenvolver modelos sem mecanismos de segurança, como limites que impediriam a criação de patógenos perigosos.

A maioria dos modelos produzidos por laboratórios chineses é de código aberto (open weight), o que significa que partes do sistema de IA estão disponíveis publicamente para download e execução em plataformas próprias, tornando-os mais baratos de usar.

Isso representa um desafio econômico para empresas americanas, que mantêm seus modelos proprietários e contam com pagamentos de clientes para compensar os enormes investimentos em data centers e infraestrutura.

A destilação ganhou grande atenção em janeiro de 2025, após o lançamento surpreendente do modelo de raciocínio R1 da DeepSeek, que chamou a atenção global. Logo depois, Microsoft e OpenAI investigaram se a startup chinesa teria extraído indevidamente grandes volumes de dados dos modelos da empresa americana para criar o R1, segundo reportagem anterior da Bloomberg.

Em fevereiro, a OpenAI alertou legisladores dos EUA de que a DeepSeek continuava usando táticas cada vez mais sofisticadas para extrair resultados dos modelos americanos, apesar dos esforços para evitar o uso indevido. A empresa afirmou em seu memorando ao Comitê Especial da Câmara sobre a China que a DeepSeek estaria usando destilação para desenvolver uma nova versão de seu chatbot.

O compartilhamento de informações entre empresas de IA dos EUA sobre destilação adversarial segue uma prática comum no setor de cibersegurança, em que companhias trocam dados sobre ataques e táticas de adversários para fortalecer suas defesas. Trabalhando juntas, essas empresas buscam detectar melhor essa prática, identificar responsáveis e impedir seu sucesso.

Autoridades do governo Trump sinalizaram sua abertura para incentivar esse tipo de cooperação entre empresas de IA. O Plano de Ação em IA, apresentado pelo presidente Donald Trump no ano passado, previa a criação de um centro de compartilhamento e análise de informações, em parte com esse objetivo.

Por enquanto, o compartilhamento de informações sobre destilação ainda é limitado devido à incerteza das empresas sobre o que pode ser compartilhado sob as regras antitruste existentes ao enfrentar a concorrência chinesa, segundo fontes. As empresas se beneficiariam de maior clareza por parte do governo dos EUA.

A destilação tornou-se uma das principais preocupações dos desenvolvedores americanos desde que a DeepSeek impactou os mercados globais no início de 2025 com o lançamento do R1. Modelos de código aberto altamente avançados continuam se expandindo na China, e o setor acompanha de perto possíveis atualizações importantes do modelo da DeepSeek.

No ano passado, a Anthropic bloqueou empresas controladas por chineses de usar seu chatbot Claude e, em fevereiro, identificou três laboratórios chineses — DeepSeek, Moonshot e MiniMax — como responsáveis por extrair ilegalmente capacidades do modelo via destilação.

Neste ano, a empresa afirmou que a ameaça “vai além de uma única companhia ou região” e representa um risco à segurança nacional, já que modelos destilados frequentemente não possuem mecanismos de segurança adequados para evitar usos maliciosos.

O Google afirmou em um blog ter identificado um aumento nas tentativas de extração de modelos. As três empresas americanas ainda não apresentaram evidências de quanto da inovação em IA na China depende da destilação, mas observam que a frequência dos ataques pode ser medida pelo volume de grandes solicitações de dados.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:13 PM
Scoop.it!

Alpha School is Built Different - by Michael Pershan

Alpha School is Built Different - by Michael Pershan | Inovação Educacional | Scoop.it
Alpha is a network of techy private schools that uses a bundle of apps to deliver core academic instruction. They are all over the news, largely fueled by boasts of using AI to teach efficiently. This is the “2 Hour Learning” promise: that math, reading, writing, and science instruction can happen in a tight two-hour window that leaves the afternoon wide open for fencing, knitting, rock climbing, biking, jogging, petting a horse, and so on.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:11 PM
Scoop.it!

The Escalating Global A.I. Arms Race 

The Escalating Global A.I. Arms Race  | Inovação Educacional | Scoop.it
China, the U.S., Russia and others have ramped up their contest over artificial-intelligence-backed weapons and military systems. The buildup has been compared to the dawn of the nuclear weapons age.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:09 PM
Scoop.it!

Chromebook Remorse: Tech Backlash at Schools Extends Beyond Phones

Chromebook Remorse: Tech Backlash at Schools Extends Beyond Phones | Inovação Educacional | Scoop.it
No more YouTube or video games on school laptops. Textbooks and pencils are back. Some seventh graders say they prefer learning offline.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:02 PM
Scoop.it!

Penn tem um problema com IA

Penn tem um problema com IA | Inovação Educacional | Scoop.it
Embora possa parecer conveniente simplesmente inserir uma lista de exercícios ou um texto de 40 páginas no ChatGPT, as desvantagens do uso de IA são amplamente documentadas e cada vez mais prejudiciais. Os alunos desenvolvem uma dependência excessiva da IA, a interação social e a comunicação são reduzidas, os programas de IA produzem e reforçam informações tendenciosas e falsas sem qualquer responsabilização, e o pensamento crítico é inibido. Como alunos da Universidade da Pensilvânia, nosso objetivo é aproveitar ao máximo nossa educação, não entregá-la a um modelo de IA enquanto assistimos passivamente. 

Receba a DP diretamente na sua caixa de entrada.

INSCREVER-SE
Apesar do aparente foco da Universidade da Pensilvânia em IA e suas funções, não existe uma política institucional sobre como os alunos podem ou não utilizá-la em sala de aula. A única declaração oficial da universidade é uma vaga orientação , oferecendo sugestões e regulamentações imprecisas sobre o uso de IA. No entanto, essas "diretrizes" favorecem, em sua maioria , o uso de IA, afirmando que os professores não podem verificar o trabalho dos alunos em busca de IA generativa sem sua permissão explícita e que todos os professores têm autonomia para implementar IA em seus cursos da maneira que considerarem adequada. Assim, enquanto alguns professores podem proibir estritamente a IA em todas as suas formas, outros nos incentivam a gerar problemas práticos ou desenvolver argumentos com o auxílio da IA. Essas políticas e ideologias extremamente divergentes deixam os alunos completamente no escuro sobre as potenciais consequências do uso de IA em nossa educação, sem nenhuma consistência entre as diretrizes das disciplinas. 

A falta de transparência da Universidade da Pensilvânia em relação à sua política de IA, combinada com a crescente dedicação da instituição à inovação em IA, ensina aos alunos uma lição inesperada: a IA não é mais uma ferramenta com benefícios potenciais, mas um pré-requisito para a vida. Embora instituições de elite como a Universidade da Pensilvânia jamais endossem explicitamente o uso de IA generativa em trabalhos acadêmicos, elas parecem acolher a tecnologia em praticamente todas as outras formas e contextos. 

Por meio de seus inúmeros novos programas e eventos centrados em IA, a Universidade da Pensilvânia posicionou a IA como um futuro inescapável que todos devemos aceitar para alcançar o sucesso. Não há dúvida de que a IA faz parte do cenário profissional atual e certamente a encontraremos muito depois de nos formarmos. No entanto, frequentamos esta instituição para desenvolver habilidades práticas, questionar o mundo ao nosso redor, resolver problemas, gerar novas ideias e a capacidade de pensar por nós mesmos. Com a Universidade impondo a IA em nosso aprendizado a cada oportunidade, acabamos adquirindo conhecimento ou códigos de trapaça?

O Goldman Sachs relata que 300 milhões de empregos em tempo integral poderão ser substituídos por IA até 2030. A rotatividade de mão de obra é alta e as contratações diminuíram. 71% dos americanos temem que a IA cause perda permanente de empregos. Como jovens prestes a entrar no mercado de trabalho pela primeira vez, o medo do desemprego é compreensível, mas não podemos nos salvar com a mesma ferramenta que nos coloca em risco.

A ironia é que, enquanto a Universidade da Pensilvânia investe dinheiro e energia sem fim no avanço da IA ​​em sua tentativa de se destacar, a instituição está apenas acelerando seu próprio declínio. A IA não pode coexistir com a educação — ela só pode degradá-la. À medida que a tecnologia avança e os trabalhadores são substituídos por máquinas, as escolas são alguns dos poucos lugares que nos restam para explorar e refletir sobre o pensamento humano. Com nossa própria universidade liderando essa transformação, a IA está corrompendo esses poucos espaços sagrados e nos deixando sem nenhum lugar para nos dedicarmos à verdadeira pesquisa acadêmica. 
No comment yet.
Scooped by Inovação Educacional
April 14, 1:56 PM
Scoop.it!

As doenças antes incuráveis que estão ganhando tratamentos graças à IA

As doenças antes incuráveis que estão ganhando tratamentos graças à IA | Inovação Educacional | Scoop.it
A inteligência artificial está ajudando a desenvolver novos medicamentos contra Parkinson, antibióticos contra bactérias resistentes e a cura de doenças raras, com rapidez nunca imaginada por muitos cientistas.
No comment yet.
Scooped by Inovação Educacional
April 14, 1:56 PM
Scoop.it!

Em tratamento inédito, médicos tratam arritmia cardíaca de risco com a ajuda de um gêmeo digital

Em tratamento inédito, médicos tratam arritmia cardíaca de risco com a ajuda de um gêmeo digital | Inovação Educacional | Scoop.it
Um dos primeiros ensaios clínicos feitos com esses modelos personalizados sugere que eles podem melhorar o tratamento da taquicardia ventricular, uma arritmia notoriamente difícil de tratar e uma das principais causas de parada cardíaca súbita
No comment yet.
Scooped by Inovação Educacional
April 14, 1:37 PM
Scoop.it!

Research Integrity - A Toolkit for Early Career Researchers

Research Integrity - A Toolkit for Early Career Researchers | Inovação Educacional | Scoop.it
This toolkit is co-authored by Sense about Science and Taylor & Francis with input from UKRIO (U.K. Research Integrity Office). It is guided by honest questions and experiences shared by early career researchers during co-creation workshops. It addresses common questions and provides practical advice to help today's researchers avoid integrity pitfalls.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:23 PM
Scoop.it!

Nova lei! ECA Digital muda completamente as regras do jogo nas escolas brasileiras.

Entenda direitinho o que é o ECA Digital e o que é necessário fazer para se adequar as normas e as diretrizes da lei. Guia produzido pela FENEP - Federação Nacional das Escolas Particulares.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:21 PM
Scoop.it!

Students struggle with college majors and rise of AI

Students struggle with college majors and rise of AI | Inovação Educacional | Scoop.it
A recent poll shows AI’s increasing role in how students decide on college majors, creating a rapidly developing situation for universities that are still struggling to determine how the technology will shape higher education. 

The Lumina Foundation-Gallup 2026 State of Higher Education survey found 47 percent of currently enrolled college students have thought about switching majors “a great deal” or a “fair amount” over AI concerns
No comment yet.
Scooped by Inovação Educacional
April 14, 2:17 PM
Scoop.it!

ECA digital: Consequências da nova lei para o Poder Público

ECA digital: Consequências da nova lei para o Poder Público | Inovação Educacional | Scoop.it
O novo ECA digital (lei 15.211/25) mudou o jogo! Entenda como o Poder Público deve garantir a proteção integral de crianças e adolescentes no ambiente digital.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:16 PM
Scoop.it!

Afinal, o que são agentes de IA? Entenda o que eles fazem e veja como testá-los

Afinal, o que são agentes de IA? Entenda o que eles fazem e veja como testá-los | Inovação Educacional | Scoop.it
Em 2026, a aposta da indústria de tecnologia é de que este, agora sim, será o ano dos agentes de inteligência artificial. A promessa já havia sido feita em 2025, repetida ao longo de meses por executivos do setor, e levado a uma certa frustração.

No fim, para mudarem a internet e entrarem de vez na rotina de escritórios e usuários, os agentes ainda precisariam melhorar um bocado. A integração entre sistemas era um gargalo, assim como a infraestrutura necessária e o alto custo de supervisão humana.

MAIS SOBRE IAÍ?

Escrever ainda é humano? Como explosão de textos gerados por IA pode 'padronizar’ a linguagem

Da perda de confiança à fadiga mental: usar IA em excesso faz mal?
A febre da IA agêntica, no entanto, ganhou novo fôlego. Nas primeiras semanas de 2026, muita gente ficou espantada com o MoltBook, experimento em que agentes pareciam interagir entre si como uma rede social. A plataforma foi comprada pela Meta, que semanas antes já havia adquirido o Manus, serviço chinês de IA que integra sistemas autônomos.

No mesmo mês, uma nova ferramenta corporativa da Anthropic, concorrente da OpenAI, derrubou ações de empresas tradicionais de software. O serviço, chamado Claude Workflow, usa agentes para automatizar tarefas em ambientes de trabalho.

No mês seguinte, veio a resposta da dona do ChatGPT. Ao finalizar a maior rodada de investimento privado que uma empresa já fez, de US$ 122 bilhões, a OpenAI indicou que a próxima corrida da indústria será por sistemas que entendem intenções e executam tarefas de ponta a ponta com autonomia.

Quer receber a newsletter de IA no seu e-mail? Inscreva-se no cardápio do GLOBO
Mas, afinal, por que os agentes de IA são novamente a aposta do setor, o que eles fazem de diferente da IA no estilo "chatbot" e como testá-los?

O que são os agentes
O agente de IA é um sistema que não só responde a pedidos dos usuários, mas pode executar tarefas que exigem múltiplos passos e com algum grau de autonomia. Ele também toma decisões e busca caminhos para ser eficiente com base em tentativa e erro. Nas empresas, ele automatiza fluxos de trabalho. Mas também pode ser útil no dia a dia de usuários.

Escrever ainda é humano? Explosão de textos gerados por IA pode mudar a linguagem
Por exemplo, um chatbot (como é chamada a versão “tradicional”) é capaz de revisar um currículo com base na descrição de uma vaga de emprego. Já o agente vai além: ele consegue executar um comando que envolver buscar perfis no LinkedIn, identificar padrões entre profissionais daquele cargo, comparar com o currículo enviado, sugerir mudanças e preparar mensagens para serem enviadas na rede social.

— O agente é proativo. Ele consegue receber um objetivo e decidir como alcançá-lo, com múltiplas etapas — resume Adriano Mussa, diretor da Saint Paul Escola de Negócios, que ressalta que a programação de agentes mais complexos envolve um encadeamento de diferentes modelos de IA.

Parte do dia a dia?
Na mira da indústria, está a tentativa de tornar os agentes de IA parte indispensável das ações executadas pelos usuários e empresas, avalia Marcos Barreto, professor da Escola Politécnica da USP e fundador do Instituto Minerva. Ele próprio usa um agente que "lê" sua caixa de e-mails pela manhã e envia um resumo com os temas mais importantes do dia:

— À medida que as pessoas executam coisas de maneira recorrente, o agente entra no dia a dia e passa a fazer parte da nossa caixa de ferramentas. Eles deixam de ser um ‘Google melhorado’ e realizam tarefas.

Da perda de confiança ao cansaço: usar IA demais pode fazer mal para saúde mental?
Para Adriano Veloso, cientista-chefe do Instituto Kunumi e fundador do Laboratório de Inteligência Artificial (LIA) da UFMG, a ideia de um “ano dos agentes” pode ser precipitada, já que esses sistemas ainda carecem de precisão e controle de um humano ao executar cadeias de ações mais complexas.

— A indústria fala muito em automação, mas ainda está longe de lidar com autonomia de fato, o que exige entender como fazemos a governança desses sistemas — avalia ele.

Como e onde acessar agentes de IA
Para o professor da UFMG, o futuro deve ser da hiperpersonalização dos agentes, que vão entender as necessidades do usuário e agir de acordo com elas, em uma interação com sistemas autônomos de IA criados pelas próprias empresas e também com ferramentas externas tradicionais. Ele ressalta uma parte disso já tem se tornado realidade.

Nos últimos anos, serviços populares de IA incorporaram funções que envolvem cadeias de ações e navegação na internet, acesso a arquivos e interação com diferentes plataformas com alguma autonomia. Uma sugestão que vale para testar esses recursos é pedir roteiros e sugestões para as próprias IAs de como configurar a automatização. A seguir, veja alguns exemplos:

Manus
A chinesa Manus funciona como um agregador de agentes, que podem ser programados para ações recorrentes ou tarefas pontuais que envolvam vários passos (fazer uma pesquisa em várias fontes e criar uma apresentação inteira, por exemplo). A cobrança é feita por crédito. Para testar: na caixa de conversa, há a opção de conectar a IA a aplicativos, como Outlook, Instagram ou Google Drive. É possível programá-la para analisar métricas da rede social e enviar relatórios diários, por exemplo, ou avaliar sites de negócios concorrentes para monitorar mercado. Ao clicar em “Mais" e “Playbook", dá para acessar modelos de automatização de fluxos de trabalho e explorar opções prontas.

Fé na tecnologia: IA gera 'guru' seguido por milhões, ganha versão gospel, recria Orixás e inventa religião
ChatGPT
No ano passado, o ChatGPT lançou o “Modo Agente”, que navega na internet e interage com sites (a opção fica na aba de conversa) e o “Agent Builder", que é mais voltada a programadores. Para usar essas funções, é preciso ser assinante da IA (o plano Plus custa US$ 20 por mês, cerca de R$ 100). Para testar: No trabalho, por exemplo, o agente pode ajudar em uma reunião: buscar informações sobre os participantes, revisar e-mails e documentos, e montar um planejamento. Também é eficiente em pesquisas que envolvem múltiplas etapas — para uma viagem, pesquisa voos, checa avaliações de hotéis e monta um roteiro, por exemplo. As ações pode ser programadas de forma recorrente.

Claude
Uma das principais funções agênticas da Anthropic é o Claude Cowork, lançado este ano e que funciona pelo aplicativo desktop da IA. O serviço exige assinatura. O plano Pro, voltado a usuários individuais, custa US$ 20 por mês (cerca de R$ 100). Para testar: é preciso baixar o aplicativo, ir na opção "Cowork" e descrever a tarefa. Por exemplo, analisar dados de venda em uma pasta e montar uma planilha de controle semanal. Uma sugestão prática: pedir ao próprio Claude, no chat, um roteiro de como configurar o Cowork para uma rotina específica.

Testamos o Atlas: veja como funciona o navegador do ChatGPT que quer desbancar o Chrome
Gemini
Para usar as funções de agentes do Gemini, do Google, é preciso assinar um dos planos da empresa (o Google AI Pro custa R$ 96,99 por mês). Uma das vantagens é a integração das tarefas com aplicativos do ecossistema da companhia, como Docs, Gmail e Apresentações. Para testar: é possível, por exemplo, pedir para a IA organizar recibos recebidos no Gmail e organizá-los em uma planilha -- o agente consegue trabalhar nos dois ambientes. As funções que realmente automatizam fluxos de trabalho, no entanto, estão restritas ao Google Agent, por enquanto disponível apenas nos EUA.

Quais cuidados tomar
1. IA no escritório: Se o uso do agente for no contexto profissional, é bom saber quais são as regras internas da empresa. Existe alguma IA com a qual a empresa já trabalha? Quais informações sensíveis não podem ser compartilhadas e quais tarefas precisam ser mantidas sob comando humano? Essas são questões importantes para ter em mente, ressalta Barreto, da USP.

2. Agentes também erram: Ao programar ou usar um agente é preciso considerar que essas IAs cometem erros, o que pode acontecer ao longo da cadeia de ações que são executadas, acrescenta Adriano Mussa. Por isso, alguma supervisão e revisão é necessária.

3. Preserve seu cartão: Veloso, da UFMG, alerta para riscos de integração de agentes que envolvam compartilhamento de dados sensíveis, especialmente financeiros. Ele cita que os sistemas podem ser hackeados ou caírem em sites maliciosos. A recomendação é limitar acessos críticos, como do cartão de crédito.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:15 PM
Scoop.it!

Ferramentas prometem identificar falsificações feitas por IA, mas elas realmente funcionam?

Ferramentas prometem identificar falsificações feitas por IA, mas elas realmente funcionam? | Inovação Educacional | Scoop.it
Conteúdo gerado por inteligência artificial tornou-se tão realista que muitas vezes é impossível dizer se um vídeo ou uma imagem que circula nas redes sociais é verdadeiro ou falso.

Entram em cena os detectores de IA.

Mais de uma dúzia de ferramentas online afirmam conseguir diferenciar o que é real do que é gerado por IA ao procurar marcas d’água ocultas, erros de composição e outros indícios digitais.

A realidade é mais mista, segundo uma bateria de testes conduzida pelo The New York Times. Embora muitas ferramentas tenham se saído bem na detecção de alguns conteúdos de IA, elas não foram precisas o suficiente para oferecer total confiança aos usuários.

Os resultados sugerem que esses detectores podem ajudar a confirmar suspeitas sobre mídias geradas por IA, mas é difícil confiar em qualquer um deles para emitir conclusões definitivas. Isso cria novos desafios para usuários da internet e checadores de fatos que tentam lidar com a enxurrada de falsificações por IA que tomou as redes sociais nos últimos meses.

De modo geral, constatamos que qualquer conclusão tirada por essas ferramentas deve ser apoiada por outras formas de verificação, como detalhes em fotografias oficiais ou reportagens jornalísticas.

Ainda assim, muitas pessoas veem essas ferramentas de detecção — que agora analisam não apenas imagens, mas também vídeos e áudios — como árbitros poderosos da verdade em um momento crucial, em que conteúdos gerados por IA se espalham pelas redes sociais e enganam usuários durante acontecimentos de última hora. As ferramentas estão sendo adotadas por bancos e seguradoras que tentam identificar fraudes com IA, por professores em busca de plágio e por investigadores online que tentam verificar imagens e vídeos que circulam nas redes.

— Você nunca vai ter uma ferramenta de detecção capaz de identificar com 100% de certeza se IA foi usada em texto, imagens, vídeo ou qualquer outro formato — diz Mike Perkins, professor da British University Vietnam que estudou detectores de IA e concluiu que detectores de texto eram pouco confiáveis. À medida que os geradores de IA melhoram, afirma, os detectores terão dificuldade para acompanhar, criando uma “corrida armamentista”.

Nossos testes analisaram mais de uma dúzia de detectores de IA e chatbots capazes de identificar vídeos, áudios, músicas e imagens falsas, realizando mais de 1.000 análises ao todo.

Veja o que encontramos.

Muitos conseguiam detectar falsificações básicas
A maioria dos conteúdos falsos de IA que circula hoje na internet não exige muito esforço para ser criada: usuários podem digitar comandos simples e receber uma imagem ou vídeo realista de pessoas reais. Esse tipo de conteúdo inundou a internet logo após Nicolás Maduro, presidente deposto da Venezuela, ser preso em janeiro.

Para testar isso, pedimos ao ChatGPT, o chatbot de IA da OpenAI, que criasse uma fotografia de duas pessoas rindo. Ele produziu uma imagem realista que, ainda assim, continha vários indícios de geração por IA: a iluminação, a composição e os traços eram perfeitos demais, além de uma mão que parecia ondular de forma pouco natural.

Muitos detectores de IA identificaram rapidamente que a imagem era gerada por IA, com algumas exceções. O ChatGPT, por exemplo, não conseguiu detectar a imagem falsa que ele próprio havia criado momentos antes. (O Times processou a OpenAI e sua parceira Microsoft, alegando violação de direitos autorais de conteúdo jornalístico relacionado a sistemas de IA. OpenAI e Microsoft negaram as acusações.)

Detectores de IA geralmente são treinados com enormes coleções de conteúdos gerados por IA, aprendendo a identificar os sinais digitais deixados por essas ferramentas.

O Times compartilhou os resultados dos testes com as empresas de detectores de IA. Muitas responderam que nenhum detector será totalmente preciso o tempo todo. Como sinal da rapidez com que esse setor evolui, várias empresas disseram estar prestes a lançar atualizações importantes em seus modelos, que teriam melhor desempenho.

“Esta será uma batalha contínua para determinar ‘isso é IA ou não?’ no futuro próximo”, escreveu Anatoly Kvitnitsky, CEO da AI or Not, em um e-mail. A empresa realizou testes adicionais com imagens que seu modelo público não conseguiu identificar e constatou que sua versão mais recente conseguiu classificá-las corretamente como geradas por IA.

Eles tiveram dificuldades com imagens mais complexas
Os detectores tiveram mais dificuldade com imagens como uma cena fictícia de um porto à beira-mar com poucos indícios de que foi criada por IA.

Isso pode ocorrer porque alguns detectores são treinados principalmente para identificar rostos, para uso em segurança e prevenção a fraudes.

Poucos detectores conseguem analisar vídeos
Vídeos gerados por IA estão rapidamente se tornando a próxima grande ameaça nas redes sociais. O lançamento do Sora, um aplicativo gerador de vídeos por IA criado pela OpenAI, levou a uma onda de vídeos falsos nas redes — com poucos avisos por parte das plataformas indicando que eram falsos.

Apenas alguns detectores de IA são capazes de analisar vídeo e áudio. Aqueles que conseguiam apresentaram resultados mistos.

Vídeo e áudio surgiram como ameaças importantes para a segurança de empresas: imagine receber uma ligação de um CEO que, na verdade, é uma réplica de IA da voz dessa pessoa, ou participar de uma videoconferência com um personagem de IA que parece real. Empresas de detecção investiram muito dinheiro para identificar esse tipo de fraude, oferecendo ferramentas capazes de determinar se vídeo, áudio ou música foram gerados por IA, inclusive analisando transmissões ao vivo. Algumas análises destacavam quais partes de um vídeo eram falsas e quais eram consideradas reais.

Eles são melhores na detecção de áudio falso
Áudios gerados por IA avançaram rapidamente e se tornaram especialmente realistas.

Ferramentas como as da ElevenLabs criam vozes extremamente convincentes, com respirações, pausas e entonação dinâmica. Essas vozes são usadas em vídeos virais e memes, mas também em golpes telefônicos e imitações.

Sete dos detectores e chatbots que testamos conseguiam verificar áudio falso, e Sensity e Resemble.ai tiveram o melhor desempenho nesse aspecto. Mesmo quando o áudio estava bastante alterado, as ferramentas conseguiram concluir com alta confiança que as vozes ou músicas eram geradas por IA. Elas também identificaram corretamente vozes reais em nossos testes.

Eles tiveram melhor desempenho ao identificar imagens reais
Um risco dos detectores de IA é classificar algo verdadeiro como falso, gerando confusão em notícias em desenvolvimento ou levantando dúvidas sobre imagens autênticas. Quando uma imagem chocante de um corpo carbonizado circulou nas redes sociais no início do conflito entre Israel e Hamas, alguns observadores a descartaram como uma falsificação por IA. Vários especialistas disseram que provavelmente era real, mas, até então, as dúvidas já haviam se espalhado.

No geral, os detectores tiveram melhor desempenho ao identificar imagens reais do que falsas.

Eles também se saíram bem ao analisar vídeos reais — como gravações feitas com iPhone ou reportagens baixadas da internet. Embora áudios gerados por IA tenham enganado alguns detectores, todos classificaram corretamente um vídeo de um repórter lendo um texto gerado por IA como sendo real.

Imagens reais editadas com IA apresentaram desafios específicos
Algumas falsificações por IA combinam conteúdo real com elementos gerados artificialmente para criar imagens ainda mais difíceis de identificar a olho nu. A Casa Branca, por exemplo, publicou uma imagem alterada de uma mulher que foi presa em Minneapolis no mês passado. A maioria dos detectores de IA considerou a imagem alterada como real.

Constatamos que a maioria dos detectores também não conseguiu identificar essas alterações em nossos testes.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:14 PM
Scoop.it!

“A Inteligência Artificial cheira a morte”. Entrevista com Eric Sadin

“A Inteligência Artificial cheira a morte”. Entrevista com Eric Sadin | Inovação Educacional | Scoop.it
Éric Sadin (Paris, 1973) levanta-se e caminha de um lado para o outro na sala de seu apartamento parisiense sempre que uma discussão o cativa. Sua própria voz o incita a fazê-lo. Ele desenvolveu uma mente crítica, repleta de manchetes e belas análises do futuro que surfam na onda do pensamento filosófico e social do século passado para chegar a uma conclusão mordaz em uma dúzia de livros. Tornamo-nos idiotas e estamos a caminho de nos tornarmos ainda mais. Longe de sermos ameaçados por uma inteligência suprema que nos aterrorizará, como aquela Skynet de O Exterminador do Futuro — "é o pensamento de um adolescente retardado", esclarece ele, ainda de pé —, somos subjugados por nossa própria preguiça, que acabará por entregar nossas armas — intelectuais e criativas — à inteligência artificial generativa.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:12 PM
Scoop.it!

'Students Are Being Treated Like Guinea Pigs:' Inside an AI-Powered Private School

'Students Are Being Treated Like Guinea Pigs:' Inside an AI-Powered Private School | Inovação Educacional | Scoop.it
Leaked documents reveal the inner workings of Alpha School, which both the press and the Trump administration have applauded. The documents show Alpha School's AI is generating faulty lessons that sometimes do "more harm than good."
No comment yet.
Scooped by Inovação Educacional
April 14, 2:11 PM
Scoop.it!

Half of Gen Z Uses AI, but Their Feelings Are Souring, Study Shows - The New York Times

Half of Gen Z Uses AI, but Their Feelings Are Souring, Study Shows - The New York Times | Inovação Educacional | Scoop.it
A new study from Gallup found that young adults have grown less hopeful and more angry about artificial intelligence.
No comment yet.
Scooped by Inovação Educacional
April 14, 2:05 PM
Scoop.it!

Por que Sal Khan está repensando como a IA transformará as escolas

Por que Sal Khan está repensando como a IA transformará as escolas | Inovação Educacional | Scoop.it

Há três anos, quando Sal Khan, fundador da Khan Academy, lançou um chatbot de tutoria com inteligência artificial, ele previu uma revolução no aprendizado.
Até agora, a revolução não aconteceu, reconhece ele.
“Para muitos alunos, foi algo sem importância”, Khan me disse recentemente sobre seu chatbot homônimo, Khanmigo. “Eles simplesmente não o usaram muito.”
Khan usa a seguinte analogia: imagine que ele entrasse em uma sala de aula, sentasse no fundo e esperasse que os alunos pedissem ajuda. "Alguns pedirão; a maioria não", disse ele. Essa tem sido a experiência com a tutoria por IA, afirmou. Ela não necessariamente motiva os alunos a aprender ou a preencher as lacunas de conhecimento necessárias para fazer perguntas.
Os comentários de Khan reconhecem que a IA não permitiu a criação rápida de um supertutor eficaz, como alguns inicialmente esperavam . É um indício precoce das limitações da IA ​​em impulsionar ganhos massivos de aprendizado, um objetivo há muito não alcançado por diversas tecnologias. Embora Khan permaneça otimista quanto aos vários usos da IA ​​na educação, ele também passou a perceber suas limitações.
“Eu vejo isso como parte da solução; não como a solução definitiva”, disse Khan em nossa entrevista.
No verão de 2022, os líderes da OpenAI, Sam Altman e Greg Brockman, entraram em contato com Sal Khan. Eles estavam a meses do lançamento do ChatGPT e esperavam que a Khan Academy — uma grande organização sem fins lucrativos que trabalha com escolas em todo o país — pudesse demonstrar os benefícios potenciais da tecnologia. "Eu ainda não tinha me dado conta, mas o mundo estava prestes a ser transformado", escreveu Khan em seu livro de 2024, "Brave New Words: How AI Will Revolutionize Education (and Why That's a Good Thing)" (Novas Palavras Corajosas: Como a IA Revolucionará a Educação (e Por Que Isso é Bom)).
A OpenAI forneceu à Khan Academy acesso antecipado a um modelo de IA mais avançado, o GPT-4. Com isso, a equipe da Khan Academy criou um chatbot especializado, o Khanmigo, projetado para ajudar os alunos a aprender e com a funcionalidade de não apenas fornecer as respostas. O próprio Khan rapidamente se tornou um defensor do uso da tecnologia nas escolas.
“Estamos prestes a usar a IA para provavelmente a maior transformação positiva que a educação já viu”, disse Khan em uma palestra TED amplamente assistida em 2023. “A maneira como faremos isso é dando a cada aluno do planeta um tutor pessoal com inteligência artificial, mas incrível.”
Ele sugeriu que, eventualmente, a IA poderia transformar o aluno médio em um aluno de destaque, citando um estudo seminal, porém controverso, de 1984 sobre o valor da tutoria individualizada.
Khan também apareceu em uma reportagem do programa "60 Minutes" sobre a Hobart High School, no noroeste de Indiana, uma das primeiras escolas a adotar o Khanmigo.
Kristen Musall, professora de geometria na Hobart High School, experimentou o Khanmigo quando ele foi lançado. Musall apreciou o tom encorajador e didático, mas descobriu que os alunos não gostavam muito do bot. Eles o achavam frustrante — o Khanmigo às vezes cometia erros, mas também não revelava a resposta. "Se os alunos não se envolvem o suficiente com o conteúdo para saber o que estão procurando, então uma IA como o Khanmigo não ajuda necessariamente", disse ela recentemente.
Musall não usa mais o Khanmigo em suas aulas. Ela afirma que o entusiasmo pelo produto tem sido maior entre os administradores do que entre os professores de sua escola.
Alguns dos alunos mais avançados de Musall têm aproveitado a IA para aprender novos tópicos. Mas, pelo que ela percebe, a maioria dos alunos a utiliza apenas para encontrar respostas, o que tem causado grandes dores de cabeça para os professores. Em âmbito nacional, a maioria dos adolescentes afirma que a cola facilitada por IA é, pelo menos em certa medida, comum em suas escolas, de acordo com uma pesquisa recente do Pew Research Center .
Peggy Buffington, superintendente de Hobart, disse que houve uma variedade de reações de professores e alunos à IA. Inicialmente, houve uma curva de aprendizado para os alunos fazerem perguntas ao Khanmigo, mas eles melhoraram bastante, afirmou: “É como tudo na educação. Você precisa aprender a usar a ferramenta e usá-la adequadamente.”
Buffington afirma que as escolas precisam preparar os alunos para usar a IA de forma responsável e que o Khanmigo é preferível aos produtos comerciais que eles usariam por conta própria. No geral, ela considera a ferramenta benéfica. "Nossos filhos podem acessar em casa e receber ajuda com a lição de casa, sem que a ferramenta dê a resposta", disse ela.
Mas os responsáveis ​​pela Khan Academy perceberam que muitos alunos não aproveitam essa opção ou não sabem como usá-la. Kristen DiCerbo, diretora de aprendizagem da organização, afirmou que a IA só consegue responder aos alunos com base no que eles perguntam. E, segundo ela, “os alunos não são muito bons em fazer perguntas”.
Inicialmente, DiCerbo tinha esperança de que a IA pudesse personalizar o ensino de acordo com as necessidades e interesses dos alunos. Isso não aconteceu. "Até agora, não estou vendo a revolução na educação", disse ela.
A inteligência artificial (IA) ainda tem o potencial de revolucionar a educação americana de diversas maneiras — facilitando a fraude acadêmica, reformulando a abordagem dos professores ao trabalho e transformando a economia em geral de formas que afetam as escolas. Até o momento, as evidências sobre o uso da IA ​​na educação ainda são “extremamente limitadas”, segundo um estudo publicado no mês passado.
Os responsáveis ​​pela Khan Academy afirmam que estão aprendendo com a experiência adquirida com o Khanmigo e integrando-o a outras ofertas.
Um estudo recente descobriu que, quando os professores usavam a Khan Academy para ajudar os alunos a praticar o conteúdo acadêmico, suas turmas apresentavam ganhos de aprendizado ligeiramente mais rápidos. (No entanto, os alunos com desempenho mais baixo apresentaram poucas ou nenhuma melhora com a Khan Academy.) Isso foi antes do Khanmigo.
A Khan Academy anunciou recentemente uma reformulação de seu produto, que oferece aos alunos prática acadêmica adicional. Agora, o Khanmigo está integrado diretamente como uma forma de os alunos obterem ajuda enquanto resolvem problemas específicos. Um porta-voz afirmou que a organização fez essa mudança porque "os alunos não estavam buscando a ajuda do Khanmigo tanto quanto esperávamos".
“A IA vai ajudar”, disse Khan sobre a Khan Academy repaginada. “Mas acho que nossa maior alavanca é investir nos sistemas humanos.”

No comment yet.
Scooped by Inovação Educacional
April 14, 1:59 PM
Scoop.it!

Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender by Steven D Shaw, Gideon Nave :: SSRN

Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender by Steven D Shaw, Gideon Nave :: SSRN | Inovação Educacional | Scoop.it
People increasingly consult generative artificial intelligence (AI) while reasoning. As AI becomes embedded in daily thought, what becomes of human judgment? We introduce Tri-System Theory, extending dual-process accounts of reasoning by positing System 3: artificial cognition that operates outside the brain. System 3 can supplement or supplant internal processes, introducing novel cognitive pathways. A key prediction of the theory is "cognitive surrender"-adopting AI outputs with minimal scrutiny, overriding intuition (System 1) and deliberation (System 2). Across three preregistered experiments using an adapted Cognitive Reflection Test (N = 1,372; 9,593 trials), we randomized AI accuracy via hidden seed prompts. Participants chose to consult an AI assistant on a majority of trials (>50%). Relative to baseline (no System 3 access), accuracy significantly rose when AI was accurate and fell when it erred (+25/-15 percentage points; Study 1), the behavioral signature of cognitive surrender (AI-Accurate vs. AI-Faulty contrast; Cohen's h = 0.81). Engaging System 3 also increased confidence, even following errors. Time pressure (Study 2) and per-item incentives and feedback (Study 3) shifted baseline performance but did not eliminate this pattern: when accurate, AI buffered time-pressure costs and amplified incentive gains; when faulty, it consistently reduced accuracy regardless of situational moderators. Across studies, participants with higher trust in AI and lower need for cognition and fluid intelligence showed greater surrender to System 3. Tri-System Theory thus characterizes a triadic cognitive ecology, revealing how System 3 reframes human reasoning and may reshape autonomy and accountability in the age of AI.
No comment yet.
Scooped by Inovação Educacional
April 14, 1:56 PM
Scoop.it!

Fim da colonoscopia? Novo teste detecta 90% dos casos de câncer colorretal

Fim da colonoscopia? Novo teste detecta 90% dos casos de câncer colorretal | Inovação Educacional | Scoop.it
Pesquisadores da Universidade de Genebra desenvolveram método não invasivo baseado em machine learning e análise do microbioma intestinal
No comment yet.
Scooped by Inovação Educacional
April 14, 1:38 PM
Scoop.it!

Research Integrity - A Toolkit for Early Career Researchers

Research Integrity - A Toolkit for Early Career Researchers | Inovação Educacional | Scoop.it
This toolkit is co-authored by Sense about Science and Taylor & Francis with input from UKRIO (U.K. Research Integrity Office). It is guided by honest questions and experiences shared by early career researchers during co-creation workshops. It addresses common questions and provides practical advice to help today's researchers avoid integrity pitfalls.
No comment yet.