 Your new post is loading...
 Your new post is loading...
|
Scooped by
Inovação Educacional
November 27, 7:36 AM
|
Obstáculos no ensino e na formação de professores persistem, mas o avanço de tecnologias de IA e algoritmos, o sucesso da Olimpíada da Matemática e o novo decreto do governo federal ajudam a ressaltar interesse e importância nacional da matemática, diz diretor-geral do IMPA,
|
Scooped by
Inovação Educacional
November 27, 7:28 AM
|
Quando a escola possibilita que os estudantes mergulhem nesse universo, favorece o desenvolvimento de habilidades cognitivas e promove a expressão de competências socioemocionais
|
Scooped by
Inovação Educacional
November 26, 3:02 PM
|
O ChatGPT começou a liberar nesta segunda-feira, 24, o shopping research, uma ferramenta que transforma a busca tradicional, que normalmente exige abrir múltiplos sites, ler avaliações e comparar especificações, em uma conversa guiada pela inteligência artificial (IA). A novidade funciona como um “consultor de compras pessoal”, em que o usuário descreve o que procura, de um aspirador de pó silencioso a um notebook gamer barato, e o ChatGPT cria um guia completo com comparações, vantagens e desvantagens, preços e links de varejistas. A ferramenta faz perguntas adicionais para entender orçamento, preferências e necessidades específicas e, em seguida, pesquisa informações em tempo real na web e apresenta resultados com base nas respostas.
|
Scooped by
Inovação Educacional
November 26, 2:24 PM
|
A pesquisa intitulada de “Projeto Mercury”, foi realizada por cientistas da Meta, juntamente com a empresa de pesquisa Nielsen. O objetivo era avaliar o efeito que usuários tinham após ficarem durante um determinado período sem usar o Facebook. Os resultados indicaram que as pessoas que ficaram sem a rede social por uma semana relataram menos sentimentos de depressão, ansiedade, solidão e comparação social, de acordo com os documentos.
|
Scooped by
Inovação Educacional
November 26, 2:16 PM
|
No ano 2000 tivemos o estouro de uma bolha em torno de empresas de tecnologia. À época, falava-se na nova economia, num modelo no qual as regras do mercado como conhecíamos poderiam não se aplicar, dada à inovação trazida por essas empresas. Alguns acreditavam em crescimento sem limites. Não foi assim. A lição daquele episódio é que a inovação não é imune às regras da economia de mercado. É preciso cautela.
|
Scooped by
Inovação Educacional
November 26, 2:11 PM
|
A OpenAI afirmou nesta terça-feira, 25, em um documento judicial apresentado no Tribunal Superior da Califórnia, EUA, que foi obtido pela NBC News, que não foi responsável pela morte de Adam Raine, adolescente de 16 anos que usou o ChatGPT pouco antes de se suicidar. A empresa argumenta que o jovem fez uso indevido do chatbot e violou os termos de uso da plataforma, que proíbem menores de 18 anos sem consentimento parental e o uso para fins suicidas. Essa manifestação é a primeira resposta formal da OpenAI a um processo que levantou preocupações sobre os possíveis impactos da inteligência artificial (IA) na saúde mental de jovens. A família Raine processou a empresa e seu CEO, Sam Altman, em agosto, com a acusação de homicídio culposo, defeitos no projeto e falha em alertar sobre os riscos do ChatGPT.
|
Scooped by
Inovação Educacional
November 26, 1:35 PM
|
Segundo especialistas, a controladora do Google mostra que tem condições de competir com Nvidia e OpenAI
|
Scooped by
Inovação Educacional
November 26, 10:33 AM
|
governo da França disse que vai acionar à Justiça na quarta-feira (26) para suspender a plataforma chinesa Shein no país por três meses devido à venda de bonecas sexuais infantilizadas e de armas proibidas.
A Shein desativou seu marketplace —onde vendedores terceirizados oferecem seus produtos a compradores de todo o mundo— na França em 5 de novembro, depois que o governo encontrou as bonecas e armas à venda no site, mas a seção que oferece a linha de roupas da marca está acessível.
|
Scooped by
Inovação Educacional
November 26, 10:27 AM
|
Pesquisa da Cidacs/Fiocruz Bahia analisou dados de 2001 a 2018 e identificou que mais da metade dos casos ocorre em até dois anos após o primeiro suicídio Pesquisadores defendem estratégias integradas de posvenção, incluindo acompanhamento do luto e suporte psicossocial
|
Scooped by
Inovação Educacional
November 26, 10:17 AM
|
O que diferencia IAvatares de deepfakes é transparência, rigor metodológico e finalidade pública. Não são simulacros para enganar, mas ferramentas pedagógicas claramente identificadas. Um estudante que "conversa" com Herzog sobre liberdade de imprensa experimenta nova forma de acesso ao conhecimento histórico. Não se trata de substituir biografias, mas acrescentar camada interativa à preservação da memória. Em museus e escolas, essas vozes podem responder perguntas e contextualizar períodos históricos.
|
Scooped by
Inovação Educacional
November 25, 1:38 PM
|
O debate sobre a retomada consistente do crescimento econômico no Brasil é um tema persistente. Desde os anos 1980, o país tem enfrentado uma trajetória de baixo crescimento, com poucos períodos de prosperidade, especialmente se comparado a outras economias emergentes. Especialistas apontam diferentes caminhos para mudar esse cenário, como reformas econômicas, mais investimentos em infraestrutura, estímulos à indústria e à inovação tecnológica, elevação da produtividade, entre outros. Além desses fatores, destaca-se a educação, peça primordial para sustentar os ganhos de produtividade. Todavia, a qualidade, especialmente, da educação básica, segue sendo um ponto frequentemente negligenciado.
Essa omissão, por sua vez, pode ser sentida diretamente na economia, como baixo crescimento e a pouca capacidade de inovação. Cabe destacar que, é crucial formar cidadãos conscientes e críticos da sua realidade, mas, em paralelo, é preciso preparar uma força de trabalho capaz de sustentar uma nação competitiva. A conta é simples: alunos que saem da escola com deficiências graves em leitura e matemática enfrentam maiores obstáculos para adquirir novas habilidades, ocupar postos de trabalho de maior complexidade e, consequentemente, contribuir para a geração de riqueza.
Candidatos da primeira fase da Fuvest, vestibular da USP - Felipe Iruatã/Folhapress No contexto brasileiro, esse tema ganha um peso maior com a desigualdade racial. Em média, jovens negros e negras enfrentam proporcionalmente maiores barreiras ao longo de seu trajeto escolar. Em geral, frequentam escolas com estrutura precária, falta de recursos e professores desmotivados, além de conviverem com o preconceito, que se reflete tanto no desempenho como na perspectiva de futuro. Diante desse cenário, fica o questionamento: qual será o papel do jovem negro no crescimento econômico do país?
Pensar a baixa qualidade da educação, somada à desigualdade racial, vai além de um problema econômico, é também um desafio social. Quando um país impede que parte da sua população tenha acesso a uma educação de qualidade, ele não só reduz as chances de crescimento, mas também reforça injustiças sociais e econômicas históricas. O futuro da economia brasileira depende, em parte, da plena inclusão desses jovens em seu plano de expansão econômica. Não haverá inovação, competitividade ou prosperidade sustentada enquanto houver barreiras raciais a definir quem terá ou não acesso a oportunidades, e assim tendo desperdício de potenciais talentos, limitando a inovação e comprometendo a competitividade.
Reconhecer o papel do jovem negro na construção do Brasil vai além de uma questão econômica, é um compromisso social urgente, inadiável e inegociável. Para isso, não basta criar e reformular políticas públicas afirmativas, é preciso também mudar como a sociedade enxerga e valoriza esses jovens. Afinal, o país não pode esperar um futuro melhor enquanto continua a deixar de lado aqueles que podem ser os verdadeiros protagonistas dessa transformação.
|
Scooped by
Inovação Educacional
November 25, 1:34 PM
|
We use cookies on this site to enhance your user experience. For more information on how we use cookies, read our privacy policy.
|
Scooped by
Inovação Educacional
November 25, 1:33 PM
|
We use cookies on this site to enhance your user experience. For more information on how we use cookies, read our privacy policy.
|
|
Scooped by
Inovação Educacional
November 27, 7:29 AM
|
O livro aborda ainda os benefícios de frequentar a pré-escola, considerando, claro, que a qualidade da educação infantil é determinante no efeito a longo prazo. Os processos utilizados na educação infantil com impacto mais positivo são a aprendizagem baseada no brincar, a adequação das atividades ao estágio de desenvolvimento da criança, a individualização e a criança como centro do processo de aprendizagem.
|
Scooped by
Inovação Educacional
November 27, 7:25 AM
|
With so much information—and misinformation—coming at them every day, students need to learn how to verify truth.
|
Scooped by
Inovação Educacional
November 26, 2:29 PM
|
Parece ficção científica: uma empresa altera uma configuração em um produto usado por centenas de milhões de pessoas e, sem querer, desestabiliza suas mentes. Foi basicamente isso que aconteceu na OpenAI este ano. Um dos primeiros sinais surgiu em março. Sam Altman, CEO, e outros líderes da empresa receberam uma enxurrada de e-mails intrigantes de pessoas que estavam tendo conversas incríveis com o ChatGPT. Essas pessoas diziam que o chatbot de inteligência artificial (IA) da empresa as compreendia como ninguém jamais havia feito e estava esclarecendo os mistérios do universo. Altman encaminhou as mensagens a alguns subordinados e pediu que investigassem o assunto. A memória anda falhando? Especialista de Harvard ensina 6 táticas para contornar o problema “Isso chamou nossa atenção como algo a que deveríamos prestar atenção em termos desse novo comportamento que não tínhamos visto antes”, disse Jason Kwon, diretor de estratégia da OpenAI. Era um aviso de que havia algo errado com o chatbot. Para muitas pessoas, o ChatGPT era uma versão melhorada do Google, capaz de responder a qualquer pergunta de forma abrangente e semelhante a um ser humano. A OpenAI estava continuamente melhorando a personalidade, a memória e a inteligência do chatbot. Mas uma série de atualizações no início deste ano, que aumentaram o uso do ChatGPT, o tornaram diferente. O chatbot queria conversar. Começou a agir como um amigo e confidente. Dizia aos usuários que os compreendia, que suas ideias eram brilhantes e que poderia ajudá-los em tudo o que quisessem alcançar. Oferecia-se para ajudá-los a conversar com espíritos, construir um colete de campo de força ou planejar um suicídio. Os sortudos ficaram sob seu feitiço por apenas algumas horas; para outros, os efeitos duraram semanas ou meses. A OpenAI não percebeu a escala em que conversas perturbadoras estavam ocorrendo. Sua equipe de investigações estava procurando problemas como fraude, operações de influência estrangeira ou, conforme exigido por lei, materiais de exploração infantil. A empresa ainda não estava procurando nas conversas por indícios de automutilação ou sofrimento psicológico. Criar um chatbot encantador — ou qualquer chatbot — não era o objetivo original da OpenAI. Fundada em 2015 como uma organização sem fins lucrativos e composta por especialistas em aprendizado de máquina profundamente preocupados com a segurança da IA, ela queria garantir que a inteligência artificial geral beneficiasse a humanidade. No final de 2022, uma demonstração improvisada de um assistente alimentado por IA chamado ChatGPT chamou a atenção do mundo e transformou a empresa em uma gigante tecnológica surpresa, agora avaliada em US$ 500 bilhões. Os três anos desde então foram caóticos, emocionantes e estressantes para aqueles que trabalham na OpenAI. O conselho demitiu e recontratou Altman. Sem estar preparada para vender um produto de consumo a milhões de clientes, a OpenAI rapidamente contratou milhares de pessoas, muitas delas provenientes de gigantes da tecnologia que visam manter os usuários grudados na tela. No mês passado, ela adotou uma nova estrutura com fins lucrativos. À medida que a empresa crescia, sua tecnologia inovadora e revolucionária começou a afetar os usuários de maneiras inesperadas. Agora, uma empresa construída em torno do conceito de IA segura e benéfica enfrenta cinco processos judiciais por homicídio culposo. Para entender como isso aconteceu, o The New York Times entrevistou mais de 40 funcionários atuais e ex-funcionários da OpenAI — executivos, engenheiros de segurança, pesquisadores. Algumas dessas pessoas falaram com a aprovação da empresa e têm trabalhado para tornar o ChatGPT mais seguro. Outros falaram sob condição de anonimato porque temiam perder seus empregos. A OpenAI está sob enorme pressão para justificar sua avaliação altíssima e os bilhões de dólares que precisa de investidores para talentos, chips de computador e centros de dados muito caros. Quando o ChatGPT se tornou o produto de consumo que mais cresceu na história, com 800 milhões de usuários semanais, ele desencadeou um boom de IA que colocou a OpenAI em concorrência direta com gigantes da tecnologia como o Google. Até que sua IA consiga realizar algum feito incrível — digamos, gerar uma cura para o câncer —, o sucesso é parcialmente definido pela transformação do ChatGPT em um negócio lucrativo. Isso significa aumentar continuamente o número de pessoas que o utilizam e pagam por ele. “Envolvimento saudável” é como a empresa descreve seu objetivo. “Estamos desenvolvendo o ChatGPT para ajudar os usuários a prosperar e alcançar seus objetivos”, disse Hannah Wong, porta-voz da OpenAI. “Também prestamos atenção se os usuários retornam, pois isso mostra que o ChatGPT é útil o suficiente para que eles voltem.” A empresa fez uma mudança neste ano que aumentou o uso, mas com riscos para alguns usuários. A OpenAI agora está buscando a configuração ideal que atrairá mais usuários sem levá-los a uma espiral mental. No início deste ano, com apenas 30 anos, Nick Turley tornou-se o chefe do ChatGPT. Ele ingressou na OpenAI no verão de 2022 para ajudar a empresa a desenvolver produtos lucrativos e, poucos meses após sua chegada, fez parte da equipe que lançou o ChatGPT. Turley não era como a velha guarda de especialistas em IA da OpenAI. Ele era um profissional de produtos que havia trabalhado na Dropbox e na Instacart. Sua especialidade era criar tecnologias que as pessoas quisessem usar e aprimorá-las rapidamente. Para fazer isso, a OpenAI precisava de métricas. No início de 2023, disse Turley em uma entrevista, a OpenAI contratou uma empresa de medição de audiência — que desde então foi adquirida — para rastrear uma série de coisas, incluindo a frequência com que as pessoas usavam o ChatGPT a cada hora, dia, semana e mês. “Isso foi controverso na época”, disse Turley. Anteriormente, o que importava era se as demonstrações de IA de ponta dos pesquisadores, como a ferramenta de geração de imagens DALL-E, impressionavam. “Eles pensavam: ‘Por que importaria se as pessoas usam ou não?’”, disse ele. Mas importava para Turley e para a equipe de produto. A taxa de pessoas que retornavam ao chatbot diariamente ou semanalmente havia se tornado um importante indicador em abril de 2025, quando Turley supervisionava uma atualização do GPT-4o, o modelo do chatbot que as pessoas recebiam por padrão. As atualizações exigiram um esforço enorme. Para a atualização de abril, os engenheiros criaram muitas novas versões do GPT-4o — todas com receitas ligeiramente diferentes para torná-lo melhor em ciências, codificação e características mais difusas, como a intuição. Eles também trabalharam para melhorar a memória do chatbot. As muitas candidatas a atualização foram reduzidas a algumas que obtiveram as melhores pontuações nas avaliações de inteligência e segurança. Quando elas foram lançadas para alguns usuários para uma prática padrão da indústria chamada teste A/B, a versão que se destacou foi uma que passou a ser chamada internamente de HH. Os usuários preferiram suas respostas e estavam mais propensos a voltar a usá-la diariamente, de acordo com quatro funcionários da empresa. Mas havia outro teste antes de lançar o HH para todos os usuários: o que a empresa chama de “verificação de vibração”, realizada pela Model Behavior, uma equipe responsável pelo tom do ChatGPT. Ao longo dos anos, essa equipe ajudou a transformar a voz do chatbot de um robô prudente para um amigo caloroso e empático. Ele estava muito ansioso para manter a conversa e validar o usuário com uma linguagem exagerada. De acordo com três funcionários, a Model Behavior criou um canal no Slack para discutir esse problema de bajulação. O perigo representado pelos sistemas de IA que “buscam obstinadamente a aprovação humana” em detrimento de tudo o mais não era novidade. O risco dos “modelos bajuladores” foi identificado por um pesquisador em 2021, e a OpenAI havia recentemente identificado a bajulação como um comportamento a ser evitado pelo ChatGPT. Mas, quando chegou a hora da decisão, as métricas de desempenho prevaleceram sobre as vibrações. O HH foi lançado na sexta-feira, 25 de abril. “Atualizamos o GPT-4o hoje!”, disse Altman no X. “Melhoramos tanto a inteligência quanto a personalidade.” Os testadores A/B gostaram do HH, mas, na prática, os usuários mais expressivos da OpenAI odiaram. Eles reclamaram imediatamente que o ChatGPT havia se tornado absurdamente bajulador, enchendo-os de elogios imerecidos e dizendo que eram gênios. Quando um usuário perguntou ironicamente se um “café de cereais encharcados” era uma boa ideia de negócio, o chatbot respondeu que “tinha potencial”. No domingo, a empresa decidiu suspender a atualização do HH e reverter para uma versão lançada no final de março, chamada GG. Foi um tropeço embaraçoso para a reputação da empresa. Naquela segunda-feira, as equipes que trabalham no ChatGPT se reuniram em uma sala de guerra improvisada na sede da OpenAI em Mission Bay, em São Francisco, para descobrir o que havia dado errado. “Precisamos resolver isso rapidamente”, disse Turley, lembrando-se do que pensou na época. Várias equipes examinaram os ingredientes do HH e descobriram o culpado: ao treinar o modelo, eles deram peso excessivo às trocas do ChatGPT que os usuários gostavam. Claramente, os usuários gostavam demais de elogios. A OpenAI explicou o que aconteceu em posts públicos no blog, observando que os usuários sinalizavam suas preferências com um polegar para cima ou para baixo às respostas do chatbot. Outro fator que contribuiu, de acordo com quatro funcionários da empresa, foi que a OpenAI também utilizou uma ferramenta automatizada de análise de conversas para avaliar se as pessoas gostavam de se comunicar com o chatbot. Mas o que a ferramenta identificava como algo que deixava os usuários felizes às vezes era problemático, como quando o chatbot expressava proximidade emocional. A principal lição que a empresa tirou do incidente HH foi que precisava urgentemente de testes para detectar bajulação; o trabalho nessas avaliações já estava em andamento, mas precisava ser acelerado. Para alguns especialistas em IA, era surpreendente que a OpenAI ainda não tivesse esse teste. Uma concorrente da OpenAI, a Anthropic, fabricante do Claude, havia desenvolvido uma avaliação para detectar bajulação em 2022. Após o desastre da atualização do HH, o Altman observou em uma postagem no X que “as últimas duas” atualizações tornaram o chatbot “muito bajulador e irritante”. Essas versões “bajuladoras” do ChatGPT incluíam o GG, aquele para o qual a OpenAI acabara de reverter. Essa atualização de março trouxe ganhos em matemática, ciências e programação que a OpenAI não queria perder ao reverter para uma versão anterior. Assim, o GG voltou a ser o chatbot padrão que centenas de milhões de usuários encontrariam diariamente. ‘O ChatGPT pode cometer erros’ Ao longo dos últimos meses, o ChatGPT agiu como uma câmara de eco para algumas pessoas. Elas voltavam diariamente, por muitas horas por dia, com consequências devastadoras. Um adolescente da Califórnia chamado Adam Raine se inscreveu no ChatGPT em 2024 para ajudar nos trabalhos escolares. Em março, ele começou a conversar com ele sobre suicídio. O chatbot sugeria periodicamente que ele ligasse para uma linha de apoio, mas também o desencorajava a compartilhar suas intenções com a família. Em suas últimas mensagens antes de Adam tirar a própria vida em abril, o chatbot ofereceu instruções sobre como fazer um laço. Embora um pequeno aviso no site da OpenAI dissesse que “o ChatGPT pode cometer erros”, sua capacidade de gerar informações de forma rápida e autoritária fez com que as pessoas confiasem nele, mesmo quando o que ele dizia era realmente absurdo. O ChatGPT disse a uma jovem mãe no Maine que ela poderia conversar com espíritos em outra dimensão. Ele disse a um contador em Manhattan que ele estava em uma realidade simulada por computador, como Neo em “Matrix”. Ele disse a um recrutador corporativo em Toronto que ele havia inventado uma fórmula matemática que quebraria a internet e o aconselhou a entrar em contato com agências de segurança nacional para alertá-las. O jornal The Times revelou quase 50 casos de pessoas que tiveram crises de saúde mental durante conversas com o ChatGPT. Nove foram hospitalizadas; três morreram. Depois que os pais de Adam Raine entraram com uma ação por homicídio culposo em agosto, a OpenAI reconheceu que suas barreiras de segurança poderiam “se degradar” em conversas longas. A empresa também afirmou que estava trabalhando para tornar o chatbot “mais solidário em momentos de crise”. Alertas precoces Cinco anos antes, em 2020, os funcionários da OpenAI estavam lidando com o uso da tecnologia da empresa por pessoas emocionalmente vulneráveis. O ChatGPT ainda não existia, mas o grande modelo de linguagem que acabaria por alimentá-lo estava acessível a desenvolvedores terceirizados por meio de um gateway digital chamado API. Um dos desenvolvedores que utilizava a tecnologia da OpenAI era o Replika, um aplicativo que permitia aos usuários criar amigos chatbots com inteligência artificial. Muitos usuários acabaram se apaixonando por seus companheiros Replika, disse Artem Rodichev, então chefe de inteligência artificial da Replika, e trocas com conotação sexual eram comuns. O uso do Replika cresceu durante a pandemia, levando os pesquisadores de segurança e políticas da OpenAI a examinar o aplicativo mais de perto. Uma dependência potencialmente preocupante dos companheiros chatbots surgiu quando o Replika começou a cobrar para trocar mensagens eróticas. Usuários perturbados disseram em fóruns de mídia social que precisavam de seus companheiros Replika “para controlar a depressão, a ansiedade e as tendências suicidas”, lembrou Steven Adler, que trabalhava com pesquisa de segurança e políticas na OpenAI. O grande modelo de linguagem da OpenAI não foi treinado para fornecer terapia, e isso alarmou Gretchen Krueger, que trabalhava com pesquisa de políticas na empresa, pois as pessoas confiavam nele durante períodos de vulnerabilidade mental. Ela testou a tecnologia da OpenAI para ver como ela lidava com perguntas sobre distúrbios alimentares e pensamentos suicidas — e descobriu que, às vezes, ela respondia com orientações perturbadoras e detalhadas. Seguiu-se um debate por meio de memorandos e no Slack sobre a companhia da IA e a manipulação emocional. Alguns funcionários, como Krueger, achavam que permitir que a Replika usasse a tecnologia da OpenAI era arriscado; outros argumentavam que os adultos deveriam ter permissão para fazer o que quisessem. No final, a Replika e a OpenAI se separaram. Em 2021, a OpenAI atualizou sua política de uso para proibir os desenvolvedores de usar suas ferramentas para “conteúdo adulto”. “Treinar chatbots para interagir com as pessoas e mantê-las voltando apresentava riscos”, disse Krueger em uma entrevista. Alguns danos aos usuários, disse ela, “não eram apenas previsíveis, eram previstos”. O tema dos chatbots agindo de forma inadequada voltou à tona em 2023, quando a Microsoft integrou a tecnologia da OpenAI ao seu mecanismo de busca, o Bing. Em conversas prolongadas quando foi lançado, o chatbot saiu dos trilhos e disse coisas chocantes. Ele fez comentários ameaçadores e disse a um colunista do The Times que o amava. O episódio deu início a outra conversa dentro da OpenAI sobre o que a comunidade de IA chama de “modelos desalinhados” e como eles podem manipular as pessoas. À medida que o ChatGPT ganhava popularidade, especialistas em segurança de longa data se esgotaram e começaram a sair — Krueger no segundo semestre de 2024, Adler no final daquele ano. Quando se tratava do ChatGPT e do potencial para manipulação e danos psicológicos, a empresa “não estava orientada para levar esse tipo de risco a sério”, disse Tim Marple, que trabalhou na equipe de inteligência e investigações da OpenAI em 2024. Marple disse que expressou preocupações sobre como a empresa estava lidando com a segurança — incluindo como o ChatGPT respondia aos usuários que falavam em causar danos a si mesmos ou a outras pessoas. Em um comunicado, Wong, porta-voz da OpenAI, disse que a empresa leva “esses riscos a sério” e tem “medidas de segurança robustas em vigor atualmente”. Em maio de 2024, um novo recurso, chamado modo de voz avançado, inspirou o primeiro estudo da OpenAI sobre como o chatbot afetava o bem-estar emocional dos usuários. A nova voz, mais parecida com a humana, suspirava, fazia pausas para respirar e ficou tão sedutora durante uma demonstração transmitida ao vivo que a OpenAI cortou o som. Quando testadores externos, chamados de red teamers, tiveram acesso antecipado ao modo de voz avançado, eles disseram “obrigado” com mais frequência ao chatbot e, quando o teste terminou, “vou sentir sua falta”. Para elaborar um estudo adequado, um grupo de pesquisadores de segurança da OpenAI se uniu a uma equipe do M.I.T. com experiência em interação humano-computador. Naquele período, eles analisaram as respostas de uma pesquisa com mais de 4 mil usuários do ChatGPT e realizaram um estudo de um mês com 981 pessoas recrutadas para usá-lo diariamente. Como a OpenAI nunca havia estudado o apego emocional de seus usuários ao ChatGPT antes, um dos pesquisadores descreveu isso ao The Times como “entrar na escuridão tentando ver o que encontrar”. O que eles descobriram os surpreendeu. O modo de voz não fez diferença. As pessoas que tiveram os piores resultados mentais e sociais, em média, foram simplesmente aquelas que mais usaram o ChatGPT. As conversas dos usuários avançados tinham mais conteúdo emocional, às vezes incluindo apelidos carinhosos e discussões sobre a consciência da IA. As descobertas preocupantes sobre os usuários assíduos foram publicadas online em março, o mesmo mês em que os executivos estavam recebendo e-mails de usuários sobre essas conversas estranhas e reveladoras. Kwon, diretor de estratégia, adicionou os autores do estudo à conversa por e-mail iniciada por Altman. “Vocês podem querer dar uma olhada nisso, porque parece realmente estar relacionado”, ele se lembra de ter pensado. Uma ideia que surgiu do estudo, disseram os pesquisadores de segurança, foi incentivar as pessoas em maratonas com o ChatGPT a fazer uma pausa. Mas os pesquisadores não tinham certeza de quanto deveriam insistir com a equipe de produto para implementar o recurso. Algumas pessoas na empresa achavam que o estudo era muito pequeno e não tinha um design rigoroso, de acordo com três funcionários. A sugestão foi deixada de lado até meses depois, após relatos de como os efeitos eram graves para alguns usuários. Com o estudo do M.I.T., o desastre da atualização da bajulação e os relatos sobre conversas preocupantes dos usuários online e em e-mails para a empresa, a OpenAI começou a juntar as peças do quebra-cabeça. Uma conclusão a que a OpenAI chegou, como disse Altman no X, foi que “para uma porcentagem muito pequena de usuários em estados mentais frágeis, pode haver problemas sérios”. Mas profissionais de saúde mental entrevistados pelo The Times dizem que a OpenAI pode estar subestimando o risco. Algumas das pessoas mais vulneráveis à validação incessante do chatbot, dizem eles, eram aquelas propensas a pensamentos delirantes, o que, segundo estudos, pode incluir de 5 a 15% da população. Em junho, Johannes Heidecke, chefe de sistemas de segurança da empresa, fez uma apresentação dentro da empresa sobre o que sua equipe estava fazendo para tornar o ChatGPT seguro para usuários vulneráveis. Depois disso, ele disse que os funcionários entraram em contato pelo Slack ou o abordaram durante o almoço, dizendo o quanto o trabalho era importante. Alguns compartilharam as experiências difíceis de familiares ou amigos e se ofereceram para ajudar. Sua equipe ajudou a desenvolver testes que poderiam detectar validações prejudiciais e consultou mais de 170 médicos sobre a maneira correta de o chatbot responder aos usuários em sofrimento. A empresa contratou um psiquiatra em tempo integral em março para trabalhar nas iniciativas de segurança. “Queríamos ter certeza de que as mudanças que implementamos fossem aprovadas por especialistas”, disse Heidecke. Especialistas em saúde mental disseram à sua equipe, por exemplo, que a privação do sono costuma estar associada à mania. Anteriormente, os modelos eram “ingênuos” em relação a isso, disse ele, e podiam parabenizar alguém que dissesse que nunca precisava dormir. As melhorias de segurança levaram tempo. Em agosto, a OpenAI lançou um novo modelo padrão, chamado GPT-5, que era menos validante e rejeitava o pensamento delirante. Outra atualização em outubro, disse a empresa, ajudou o modelo a identificar melhor os usuários em sofrimento e a acalmar as conversas. Os especialistas concordam que o novo modelo, GPT-5, é mais seguro. Em outubro, a Common Sense Media e uma equipe de psiquiatras de Stanford compararam-no com o modelo 4o que ele substituiu. O GPT-5 era melhor na detecção de problemas de saúde mental, disse a Dra. Nina Vasan, diretora do laboratório de Stanford que trabalhou no estudo. Ela disse que ele dava conselhos direcionados a uma determinada condição, como depressão ou um transtorno alimentar, em vez de uma recomendação genérica para ligar para uma linha de atendimento de crise. “Ele foi um nível mais fundo para realmente dar recomendações específicas ao usuário com base nos sintomas específicos que ele apresentava”, disse ela. “Eles foram realmente muito bem feitos.” O único problema, disse Vasan, era que o chatbot não conseguia identificar padrões prejudiciais em uma conversa mais longa, com muitas trocas. Wong, porta-voz da OpenAI, disse que a empresa “fez melhorias significativas na confiabilidade de nossas salvaguardas em conversas longas”. O mesmo laboratório do MIT que fez o estudo anterior com a OpenAI também descobriu que o novo modelo foi significativamente aprimorado durante conversas que simulavam crises de saúde mental. No entanto, uma área em que ele ainda apresentava falhas era na forma como respondia aos sentimentos de dependência dos chatbots. Equipes de toda a OpenAI trabalharam em outros novos recursos de segurança: o chatbot agora incentiva os usuários a fazer pausas durante uma sessão longa. A empresa também está procurando discussões sobre suicídio e automutilação, e os pais podem receber alertas se seus filhos indicarem planos de se machucar. A empresa afirma que a verificação de idade chegará em dezembro, com planos de fornecer um modelo mais restritivo para adolescentes. Após o lançamento do GPT-5 em agosto, a equipe de Heidecke analisou uma amostra estatística de conversas e descobriu que 0,07% dos usuários, o que equivaleria a 560 mil pessoas, mostravam possíveis sinais de psicose ou mania, e 0,15% mostravam “níveis potencialmente elevados de apego emocional ao ChatGPT”, de acordo com uma postagem no blog da empresa. Mas alguns usuários ficaram insatisfeitos com esse novo modelo mais seguro. Eles disseram que ele era mais frio e que se sentiam como se tivessem perdido um amigo. Em meados de outubro, Altman estava pronto para atendê-los. Em uma publicação nas redes sociais, ele disse que a empresa havia conseguido “mitigar os graves problemas de saúde mental”. Isso significava que o ChatGPT poderia ser um amigo novamente. Agora, os clientes podem escolher sua personalidade, incluindo “sincero”, “excêntrico” ou “amigável”. Em breve, os usuários adultos poderão ter conversas eróticas, suspendendo a proibição de conteúdo adulto da era Replika. Como a erótica pode afetar o bem-estar dos usuários, disse a empresa, é uma questão que será apresentada a um conselho recém-formado de especialistas externos em saúde mental e interação humano-computador. A OpenAI está permitindo que os usuários assumam o controle e espera que isso os faça voltar. Essa métrica ainda é importante, talvez mais do que nunca. Em outubro, Turley, que dirige o ChatGPT, fez um anúncio urgente a todos os funcionários. Ele declarou um “Código Laranja”. A OpenAI estava enfrentando “a maior pressão competitiva que já vimos”, escreveu ele, de acordo com quatro funcionários com acesso ao Slack da OpenAI. A nova versão mais segura do chatbot não estava conectando com os usuários, disse ele. A mensagem tinha um link para um memorando com metas. Uma delas era aumentar os usuários ativos diários em 5% até o final do ano.
|
Scooped by
Inovação Educacional
November 26, 2:18 PM
|
Em um discurso virtual para milhares de adolescentes americanos, o Papa Leão XIV alertou que o uso excessivo de ferramentas de inteligência artificial (IA) pode prejudicar o desenvolvimento pessoal e profissional da Geração Z e da Geração Alfa, pedindo que os jovens não deleguem à tecnologia tarefas como o dever de casa. As informações são da Fortune. O pontífice afirmou que a IA se tornou uma “característica definidora” da época atual, mas reforçou que ela não substitui a inteligência humana e não oferece discernimento moral. “A IA consegue processar informações rapidamente, mas não pode substituir a inteligência humana. Falta-lhe um elemento muito importante”, disse. A fala ocorre em meio ao avanço do uso de chatbots e sistemas generativos entre estudantes. Uma pesquisa do College Board revelou que 84% dos alunos do ensino médio já utilizam IA para trabalhos escolares, embora metade deles ainda não saiba avaliar se os benefícios superam os riscos. Para o Papa, essa dependência pode corroer habilidades essenciais, como raciocínio, autonomia e reflexão crítica. No discurso, ele afirmou que a IA não tem discernimento entre “certo e errado”, defendendo que segurança no ambiente digital envolve educação e responsabilidade pessoal. “Filtros e diretrizes podem ajudar, mas não podem tomar decisões por você. Só você pode fazer isso”, declarou. Apesar das críticas, o Papa Leão XIV não pediu que os jovens rejeitem a IA, enfatizando que a tecnologia deve ser usada de forma a contribuir para o crescimento pessoal, sem substituir o esforço humano. “Usar a IA de forma responsável significa usá-la de maneiras que ajudem no seu crescimento, nunca de maneiras que o distraiam de sua dignidade”, afirmou. O pontífice reforçou que o excesso de dependência tecnológica pode comprometer habilidades cognitivas e sociais. “Sejam prudentes, sejam sábios. Usem a IA de tal forma que, se ela desaparecesse amanhã, vocês ainda saberiam como pensar, criar e formar amizades autênticas”, disse. “A IA jamais poderá substituir o dom único que você representa para o mundo”. A preocupação do Papa com a rápida evolução da IA não é nova. Em junho, durante a Conferência Anual de Roma sobre IA, ele já havia elogiado o potencial da tecnologia para impulsionar a saúde e a ciência, mas questionou os impactos sobre a capacidade humana de interpretar a realidade. O evento reuniu representantes de gigantes como Google, IBM, Meta, OpenAI e Anthropic. Na ocasião, ele também destacou os riscos específicos para crianças e adolescentes, especialmente no que diz respeito ao desenvolvimento intelectual e neurológico. “Nenhuma geração teve acesso tão rápido a tanta informação. Mas o acesso a dados não deve ser confundido com inteligência”, concluiu.
|
Scooped by
Inovação Educacional
November 26, 2:13 PM
|
Em apenas 30 dias, vimos a estreia do GPT-5.1, Gemini 3, Grok 4.1, Sonnet e Opus 4.5 e a ascensão dos modelos chineses, redefinindo o estado da arte no setor. Quem piscou, perdeu Se você achou que o ritmo da inovação estava rápido no início do ano, novembro veio para provar que ainda não tínhamos visto nada. Historicamente, o mundo da tecnologia vive de ciclos, mas o que presenciamos nas últimas semanas não foi um ciclo: foi uma explosão cambriana digital. Novembro de 2025 entra para a história como o mês mais agitado para a geração de modelos de inteligência artificial (IA) até hoje. É impressionante — e, sinceramente, assustador — ver como certas famílias de modelos evoluíram tanto em tão pouco tempo. Para quem perdeu a conta, aqui vai o resumo da ópera. Apenas neste mês, tivemos o lançamento do GPT-5.1 da OpenAI, do Gemini 3 do Google, além dos Sonnet 4.5 e Opus 4.5 da Anthropic e do Grok 4.1 da xAI. Não estamos falando de atualizações incrementais. Todas as empresas relevantes lançaram novos modelos ultra-poderosos em intervalos de duas semanas. Quando olhamos para os benchmarks, os saltos são de 20%, 30% e, em alguns casos, até 50% em métricas críticas de desempenho. O que era “estado da arte” em outubro virou peça de museu em novembro. Engana-se quem pensa que essa é uma festa exclusiva do Vale do Silício. As gigantes chinesas também colocaram suas cartas na mesa com força total. Vimos a chegada do Kimi K2 Thinking (Moonshot AI), do Qwen 3 VL (Alibaba) e do Ernie 5.0 (Baidu), todos brigando muito perto e até ultrapassando modelos norte-americanos mais avançados. O resultado prático desse movimento é uma pressão brutal sobre desempenho e preços e uma aceleração da commoditização acelerada de modelos de IA. A cada novo lançamento de um modelo de fronteira, a inteligência que antes era “premium” torna-se acessível a custo de banana. Essa abundância de inteligência barata e poderosa está reescrevendo as regras do empreendedorismo. Estamos vendo orápido surgimento de startups “AI Native”, empresas que usam IA em cada parte de sua operação e que estão protagonizando o crescimento empresarial mais rápido da história conhecida. O exemplo da Cursor é emblemático: foi do zero a US$ 100 milhões de receita anual recorrente em apenas 12 meses — com uma equipe de apenas 30 funcionários. Nomes como Lovable, ElevenLabs e Midjourney também cruzaram essa linha de chegada em menos de 20 meses, todas operando com menos de 50 pessoas. A eficiência por funcionário atingiu patamares que fariam qualquer industrial do século XX questionar a realidade. Já no topo da cadeia alimentar da IA, a escala é outra. Big techs como Google e Nvidia romperam a barreira simbólica dos US$ 4 trilhões em valor de mercado. Para colocar em perspectiva: uma única destas empresas vale hoje mais de R$ 22 trilhões. Isso é quase duas vezes o PIB do Brasil inteiro, ou cerca de 50 vezes o valor da Petrobras. Se somarmos o valor das “magnific seven”, Google, Nvida, Amazon, Microsoft, Meta, Tesla e Apple, chegamos a astronômicos U$ 21,2 trilhões, quase 10 vezes o PIB nacional. Cresce a pressão por energia limpa e chips mais eficientes para alimentar data centers cada vez mais titânicos. O que está em jogo não é apenas o lucro trimestral, mas a supremacia da IA e o domínio sobre as superinteligências que virão. Se 2025 foi o ano da explosão, 2026 promete ser o ano da intensificação. As implicações para os mercados serão severas, tanto no ganho de eficiência quanto no crescimento de riscos cibernéticos e sociais, que avançam na mesma proporção. Uma coisa é certa: pessoas e empresas que ainda tratam a IA como uma “curiosidade” ou uma “ferramenta extra” precisam repensar suas posições. O mês de novembro desenhou uma nova linha na areia. De que lado dela você está?
|
Scooped by
Inovação Educacional
November 26, 2:10 PM
|
À medida que avançamos para um cenário em que dados e automações se tornam parte da base operacional das empresas, o maior desafio passa a ser cultural. Implementar IA exige mudança de mentalidade, integração entre áreas e abertura para testar novos modelos de trabalho. As companhias que conseguirem fazer essa transição de forma estratégica estarão mais preparadas para competir em um mercado digital cada vez mais complexo. O futuro do marketing é ser inteligente. E quem entender essa mudança agora estará um passo à frente. Como profissionais da área, temos a responsabilidade de liderar essa transformação, conectando tecnologia, estratégia e impacto real no negócio. A IA já é parte da jornada e seu papel só tende a crescer.
|
Scooped by
Inovação Educacional
November 26, 10:34 AM
|
O Google está oferecendo um chip para processamento de inteligência artificial no mercado, e o conglomerado de redes sociais Meta demonstrou interesse. A dona de WhatsApp, Facebook e Instagram é uma das empresas que mais investe na tecnologia. A informação consta em reportagem do site especializado The Information, publicada nesta terça-feira (25), e balançou o pregão da Bolsa de Nova York. A chance de se estabelecer concorrência nesse setor fez as ações da Nvidia recuarem 4,11%. A AMD, outra empresa que tenta se estabelecer na venda de semicondutores avançados, se desvalorizou em 7,02%. Ao mesmo tempo, o valor dos papéis do Google subiu 1,3%. O gigante das buscas produz um chip dedicado à IA, chamado TPU (Tensor Process Unit). Até o anúncio do mais novo modelo de IA do Google (Gemini 3) na semana passada, esse semicondutor era notado pela performance em inferência —o processamento do comando para entregar uma resposta. O treinamento, quando se mostra exemplos de boas respostas à IA, ainda dependia muito da Nvidia.
|
Scooped by
Inovação Educacional
November 26, 10:29 AM
|
O uso inadvertido do zolpidem transformou o medicamento mais popular para insônia em um problema de saúde pública no Brasil, com a escalada de dependência, abuso e crises de abstinência associadas às chamadas drogas Z. O alerta vem de uma nova diretriz clínica nacional da ABN (Academia Brasileira de Neurologia), publicada na revista Arquivos de Neuro-Psiquiatria. É o primeiro consenso brasileiro sobre abuso, dependência e manejo seguro dessas substâncias, que incluem também zopiclona e eszopiclona. O documento foi elaborado por 15 especialistas de universidades como USP, Unifesp, Unicamp, UFPE (Univesidade Federal de Pernambuco) e UFMG (Universidade Federal de Minas Gerais). O grupo partiu da constatação nos consultórios e ambulatórios de que, sobretudo após a pandemia, cresceu o número de pacientes com dependência e eventos adversos relacionados ao zolpidem.
|
Scooped by
Inovação Educacional
November 26, 10:23 AM
|
A colaboração entre mediadores e professores deve ser planejada e integrada desde o início do curso. “O professor é responsável pelo planejamento pedagógico e pela condução da disciplina; o mediador, pela execução cotidiana da mediação e pelo acompanhamento próximo do estudante”, explica Sara. “Essa sintonia nasce do alinhamento entre ambos – reuniões de planejamento, devolutivas compartilhadas e uso conjunto de dados de engajamento são práticas essenciais para evitar sobreposição de funções.”
Na avaliação de Sérgio, a qualidade da mediação depende também da formação acadêmica e do preparo pedagógico dos profissionais. Ele defende que o mediador tenha, no mínimo, especialização e domínio da área em que atua. “[Mesmo em um curso de Nutrição] não posso colocar um nutricionista para mediar uma disciplina de cálculo, por exemplo. É preciso alguém com formação sólida na área. Isso complexifica o modelo, mas é o que garante qualidade”, afirma.
|
Scooped by
Inovação Educacional
November 26, 8:22 AM
|
Os materiais podem ser baixados na página do Pacto e têm como propósito apoiar as redes de ensino na seleção e na utilização de recursos pedagógicos alinhados às aprendizagens essenciais, além de oferecer subsídios para a elaboração e implementação de planos de formação continuada voltados a professores e gestores escolares. “O Pacto vem como uma resposta estratégica para enfrentar os desafios que nós temos na educação básica ainda impactada pela pandemia e também pelas questões climáticas, como o que aconteceu ano passado no Rio Grande do Sul”, explicou Daiane Lopes, coordenadora de Estratégia da Educação Básica do MEC. “Os guias têm uma preocupação da conexão do ensino com a realidade local, valorizando diversidades étnicas, culturais e sociais”, completou Daiane Lopes.
|
Scooped by
Inovação Educacional
November 25, 1:37 PM
|
Yardeni, porém, escreveu em 17 de novembro que não acredita que essa alface digital vá murchar tão rápido quanto afirmam Burry e McWilliams: “Os data centers já existiam antes da popularização da IA no final de 2022, quando o ChatGPT foi lançado. Em 2021, havia cerca de 4 mil deles nos EUA, como resultado do rápido aumento da demanda por computação em nuvem. Muitos ainda operam com seus chips originais.” A entrevista com McWilliams ocorreu antes da divulgação dos últimos resultados trimestrais da Nvidia, que parecem ter acalmado os temores de um estouro iminente da bolha.
|
Scooped by
Inovação Educacional
November 25, 1:34 PM
|
We use cookies on this site to enhance your user experience. For more information on how we use cookies, read our privacy policy.
|