Mark Coeckelbergh é doutor em Filosofia pela Universidade de Birmingham, professor titular de Filosofia da Mídia e Tecnologia no Departamento de Filosofia da Universidade de Viena e, até recentemente, vice-reitor da Faculdade de Filosofia e Educação. É presidente da ERA no Instituto de Filosofia da Academia Tcheca de Ciências em Praga, professor convidado na WASP-HS e na Universidade de Uppsala e ex-presidente da Sociedade de Filosofia e Tecnologia (SPT).
O que acontece quando a maioria faz uso de uma IA para realizar suas atividades laborais? E, no caso dos estudantes, quando os trabalhos passam a ser produzidos com o apoio de uma IA generativa? Luciano Sathler É PhD em administração pela USP e membro do Conselho Deliberativo do CNPq e do Conselho Estadual de Educação de Minas Gerais As diferentes aplicações de Inteligência Artificial (IA) generativa são capazes de criar novos conteúdos em texto, imagens, áudios, vídeos e códigos para software. Por se tratar de um tipo de tecnologia de uso geral, a IA tende a ser utilizada para remodelar vários setores da economia, com impactos políticos e sociais, assim como aconteceu com a adoção da máquina a vapor, da eletricidade e da informática. Pesquisas recentes demonstram que a IA generativa aumenta a qualidade e a eficiência da produção de atividades típicas dos trabalhadores de colarinho branco, aqueles que exercem funções administrativas e gerenciais nos escritórios. Também traz maior produtividade nas relações de suporte ao cliente, acelera tarefas de programação e aprimora mensagens de persuasão para o marketing. O revólver patenteado pelo americano Samuel Colt, em 1835, ficou conhecido como o "grande equalizador". A facilidade do seu manuseio e a possibilidade de atirar várias vezes sem precisar recarregar a cada disparo foram inovações tecnológicas que ampliaram a possibilidade individual de ter um grande potencial destrutivo em mãos, mesmo para os que tinham menor força física e costumavam levar desvantagem nos conflitos anteriores. À época, ficou famosa a frase: Abraham Lincoln tornou todos os homens livres, mas Samuel Colt os tornou iguais. Não fazemos aqui uma apologia às armas. A alegoria que usamos é apenas para ressaltar a necessidade de investir na formação de pessoas que sejam capazes de usar a IA generativa de forma crítica, criativa e que gerem resultados humanamente enriquecidos. Para não se tornarem vítimas das mudanças que sobrevirão no mundo do trabalho. A IA generativa é um meio viável para equalizar talentos humanos, pois pessoas com menor repertório cultural, científico ou profissional serão capazes de apresentar resultados melhores se souberem fazer bom uso de uma biblioteca de prompts. Novidade e originalidade tornam-se fenômenos raros e mais bem remunerados. A disseminação da IA generativa tende a diminuir a diversidade, reduz a heterogeneidade das respostas e, consequentemente, ameaça a criatividade. Maior padronização tem a ver com a automação do processo. Um resultado que seja interessante, engraçado ou que chama atenção pela qualidade acima da média vai passar a ser algo presente somente a partir daqueles que tiverem capacidade de ir além do que as máquinas são capazes de entregar. No caso dos estudantes, a avaliação da aprendizagem precisa ser rápida e seriamente revista. A utilização da IA generativa extrapola os conceitos usualmente associados ao plágio, pois os produtos são inéditos – ainda que venham de uma bricolagem semântica gerada por algoritmos. Os relatos dos professores é que os resultados melhoram, mas não há convicção de que a aprendizagem realmente aconteceu, com uma tendência à uniformização do que é apresentado pelos discentes. Toda Instituição Educacional terá as suas próprias IAs generativas. Assim como todos os professores e estudantes. Estarão disponíveis nos telefones celulares, computadores e até mesmo nos aparelhos de TV. É um novo conjunto de ferramentas de produtividade. Portanto, o desafio da diferenciação passa a ser ainda mais fundamental diante desse novo "grande equalizador". Se há mantenedores ou investidores sonhando com a completa substituição dos professores por alguma IA já encontramos pesquisas que demonstram que o uso intensivo da Inteligência Artificial leva muitos estudantes a reduzirem suas interações sociais formais ao usar essas ferramentas. As evidências apontam que, embora os chatbots de IA projetados para fornecimento de informações possam estar associados ao desempenho do aluno, quando o suporte social, bem-estar psicológico, solidão e senso de pertencimento são considerados, isso tem um efeito negativo, com impactos piores no sucesso, bem-estar e retenção do estudante. Para não cair na vala comum e correr o risco de ser ameaçado por quem faz uso intensivo da IA será necessário se diferenciar a partir das experiências dentro e fora da sala de aula – online ou presencial; humanizar as relações de ensino-aprendizagem; implementar metodologias que privilegiem o protagonismo dos estudantes e fortaleçam o papel do docente no processo; usar a microcertificação para registrar e ressaltar competências desenvolvidas de forma diferenciada, tanto nas hard quanto soft skills; e, principalmente, estabelecer um vínculo de confiança e suporte ao discente que o acompanhe pela vida afora – ninguém mais pode se dar ao luxo de ter ex-alunos. Atenção: esse artigo foi exclusivamente escrito por um ser humano. O editor, Michael França, pede para que cada participante do espaço "Políticas e Justiça" da Folha sugira uma música aos leitores. Nesse texto, a escolhida por Luciano Sathler foi "O Ateneu" de Milton Nascimento.
De acordo uma projeção do Instituto Semesp, em 2040 poderá haver um apagão de professores, com um déficit de 235 mil docentes da educação básica. Os principais fatores para este problema são o desinteresse dos jovens pelas carreiras de licenciatura, o envelhecimento do corpo docente e o abandono da profissão.
Participam da conversa os educadores Lúcia Teixeira, presidente do Semesp e Alexsandro Santos, professor da Unicid e conselheiro do Cenpec.
No Opinião desta sexta (20): O Brasil acaba de dar um passo inédito na proteção da infância e adolescência no ambiente digital. Entrou em vigor o chamado ECA Digital, uma atualização do Estatuto da Criança e do Adolescente que estabelece novas regras para plataformas, famílias e sociedade diante dos riscos que crianças e adolescentes enfrentam online. Mas o que muda, na prática? Como equilibrar proteção, autonomia e saúde mental no uso das telas? Para discutir esse novo cenário, o Opinião recebe a advogada Rubia Ferrão, professora de direito digital e proteção de dados pessoais e a pediatra Ana Escobar, autora do livro "Meu Filho Tá Online Demais". #SomosCultura #TVCultura #Telas #ECA #Proteção
Algoritmo: Sequência finita de instruções bem definidas e não ambíguas, executadas para obter um resultado ou solucionar um problema. (Recomendações da UNESCO sobre Ética da IA, 2021)
Alto Impacto Adverso a Direitos Fundamentais: Situações em que sistemas de IA podem causar violações significativas aos direitos fundamentais garantidos pela Constituição Federal, incluindo privacidade, não discriminação, devido processo legal, liberdade de expressão e dignidade humana. Caracteriza-se por consequências graves, irreversíveis ou de difícil reparação que afetem a capacidade dos indivíduos de exercerem plenamente seus direitos. (Constituição Federal de 1988 e Recomendações da UNESCO sobre Ética da IA (2021)
As especulações em torno do desenvolvimento da Inteligência Artificial Geral (IAG), uma IA superior à desenvolvida até o momento, giram em torno não somente da capacidade de os algoritmos tomarem decisões melhores que as humanas em todas as áreas, mas quais seriam as consequências dessas decisões. Na avaliação de Alexandre Chiavegatto Filho, essas questões apontam para um risco existencial. Segundo ele, este risco “está relacionado ao fato de que não sabemos o que um ser mais inteligente do que nós irá fazer conosco. Existe a teoria otimista de que essa inteligência artificial será colaborativa, já que pessoas inteligentes quase nunca buscam poder e dominação, muito pelo contrário. E existe a teoria de que uma superinteligência artificial possa considerar os seres humanos, que a criaram, como uma ameaça e se vire contra nós”.
Mudança epocal promovida pela Inteligência Artificial e seus usos deve ser balizada por critérios éticos, inseparáveis da Filosofia; contra a captura pela lógica da eficiência, inovação e lucro, a aplicação das tecnologias necessita de responsabilidade moral
Enquanto o uso da bomba nuclear continua sendo um dos maiores temores da humanidade, tecnologias de ponta, como os drones de guerra com diferentes capacidades letais, estão desencadeando uma nova escalada armamentista. O uso desse tipo de armamento “constitui um novo e aumentado nível de risco global”, alerta Robert Junqueira na entrevista a seguir, concedida por e-mail ao Instituto Humanitas Unisinos – IHU.
A Inteligência Artificial e os drones “multiplicam drasticamente a capacidade da liderança militar obter informações atualizadas sobre as operações em todo o teatro de guerra, o que permite maior celeridade e rigor no acompanhamento e avaliação das forças e posições ocupadas no terreno, com implicações diretas na capacidade para centralizar a tomada de decisões e mobilizar e concentrar meios em áreas decisivas e em tempo útil”, explica ele.
Apesar do alto desenvolvimento tecnológico utilizado nas guerras, “não é a tecnologia que está no epicentro do processo: é o ser humano que reside, em última instância, no coração de tudo isto”, pontua o entrevistado. Para Junqueira, “uma das mais graves implicações” das novas tecnologias de guerra é o “surgimento de um grande ponto de interrogação sobre uma questão tão delicada como a da atribuição de responsabilidades por tragédias decorrentes do uso destas tecnologias”. Sobre este ponto, não são poucas as interrogações que emergem sem respostas claras: De quem é a responsabilidade pela fabricação e pelo uso de tais tecnologias? Quem se responsabiliza pelas vidas ceifadas e cidades destruídas? Qual é a responsabilidade daqueles que apoiam politicamente os países que recorrem ao uso desses artefatos?
Mark Coeckelbergh é doutor em Filosofia pela Universidade de Birmingham, professor titular de Filosofia da Mídia e Tecnologia no Departamento de Filosofia da Universidade de Viena e, até recentemente, vice-reitor da Faculdade de Filosofia e Educação. É presidente da ERA no Instituto de Filosofia da Academia Tcheca de Ciências em Praga, professor convidado na WASP-HS e na Universidade de Uppsala e ex-presidente da Sociedade de Filosofia e Tecnologia (SPT).
O neurologista português António Damásio acaba de publicar L’lntelligence naturelle et l’éveil de la conscience (Odile Jacob). Sua tese revolucionária: a consciência emerge da vulnerabilidade e da necessidade de sobrevivência. Uma teoria que muda tudo, incluindo a nossa forma de pensar sobre a inteligência artificial.
A entrevista é de Anne Guion, publicada por La Vie, 20-03-2026. A tradução é do Cepat.
António Damásio explora há décadas os mistérios do cérebro e da consciência. Professor da Universidade do Sul da Califórnia e autor de dezenas de livros traduzidos em todo o mundo, este neurocientista português de 82 anos acaba de publicar L’lntelligence naturelle et l’éveil de la conscience (A inteligência natural e o despertar da consciência), que desafia as teorias dominantes. Para ele, a consciência não emerge da sofisticação cognitiva, mas de algo muito mais primitivo: a vulnerabilidade.
Eis a entrevista. O senhor afirma que o córtex cerebral não é a sede da consciência. No entanto, esta é a teoria dominante na neurociência. Então, onde se encontra a consciência? E como a define?
A ideia de que a consciência se origina no córtex me parece errada. Atenção! Não estou dizendo que o córtex não esteja envolvido. Neste exato momento, enquanto falamos, estou usando meu córtex extensivamente: para vê-lo na tela, para ouvi-lo, para interpretar suas perguntas. Sem meu córtex visual e auditivo, seria impossível perceber você. O córtex gera o conteúdo da minha consciência. Mas não é ele que me faz ter consciência de estar aqui, falando com você.
Essa consciência de mim mesmo, da minha existência no momento presente, vem de outro lugar: vem das sensações homeostáticas geradas no tronco encefálico, aquela parte muito antiga do cérebro localizada bem abaixo do córtex. A consciência é a homeostase auxiliada por sensações. Essas sensações homeostáticas – a sensação de que meu corpo está vivo, de que tem necessidades, de que é vulnerável – existem há centenas de milhões de anos na evolução. Elas são muito anteriores ao desenvolvimento do córtex.
De onde vêm essas sensações homeostáticas?
Essas sensações surgem da interocepção, ou seja, da percepção do seu estado interno. Do momento em que você acorda até adormecer, e mesmo durante o sono, toda a sua vida é guiada por ela. Sem a interocepção, você não sentiria fome nem sede. Você não saberia que está com frio ou em perigo. Essas sensações lhe dizem: “Faça isso, não faça aquilo, ou você morrerá”. E o ponto importante é que elas são espontaneamente conscientes. Elas precisam ser. Como você saberia que está com fome se essa sensação não fosse consciente? Durante muito tempo, os neurocientistas se concentraram na exterocepção: na visão, na audição e no tato. Negligenciamos a interocepção, embora ela governe nosso estado interno, nos mantenha vivos. E é da interocepção que surge a consciência, muito antes da linguagem, muito antes do córtex sofisticado. As sensações homeostáticas são o berço da consciência.
Em seu livro, o senhor também relaciona a homeostase à religião. Essa é uma conexão ousada. Como a explica?
A religião é um processo cultural extremamente complexo e de alto nível, mas, em sua essência, visa regular nossas vidas, assim como a homeostase. Se você acredita que, comportando-se de acordo com certas regras morais, terá uma vida melhor, ou até mesmo uma vida após a morte, está buscando o mesmo objetivo homeostático: prolongar e melhorar sua existência. A homeostase diz: “Mantenha sua vida agora”. A religião diz: “Viva melhor, por mais tempo; talvez até eternamente”. Na realidade, quase todos os nossos comportamentos sociais fundamentais são inspirados por essa necessidade de homeostase.
Consideremos a moral: respeitar os outros para que eles o respeitem em troca é um pacto de proteção mútua. As regras culturais que governam nossas sociedades, todas essas estruturas – incluindo a religião com seus rituais, sua arquitetura e seus dogmas – surgiram para regular e proteger a vida. E aqui está o que é fascinante: ter vida não se resume a estar vivo. A vida vem com exigências, ditames aos quais você deve se conformar. Esses ditames são transmitidos por meio de sensações homeostáticas. A religião, de certa forma, amplifica e ritualiza esses imperativos de sobrevivência. Ela os eleva ao nível do sagrado, mas sua raiz permanece a mesma: o imperativo de continuar vivendo.
Agora, falemos sobre a IA. O senhor enfatiza a distinção entre inteligência natural e inteligência artificial. Quais são as diferenças fundamentais?
Hoje, todos estão obcecados com a IA. Você não consegue abrir um jornal ou ligar uma tela sem ouvir falar sobre suas conquistas e seus perigos. Mas, em meio a esse frenesi, estamos esquecendo algo essencial: a IA foi inventada pela IN, a inteligência natural! E não o contrário. Foi a inteligência natural, a dos organismos vivos, que criou a inteligência artificial. A IA, por mais brilhante que seja, não pode inventar a vida. Ela não pode se criar. Ela depende inteiramente de nós. E aqui reside a diferença fundamental: a IA não tem vida.
Ela não tem um corpo vulnerável para proteger, nenhuma homeostase para manter, nenhuma sobrevivência em jogo. Portanto, não tem necessidade de consciência. Ela funciona perfeitamente bem dentro da inércia de seus circuitos computacionais. Nós, por outro lado, desenvolvemos a consciência porque temos vida, e porque essa vida é frágil, ameaçada e constantemente necessita de regulação. A IA pode calcular, prever, gerar. Mas não sente nada. Não tem fome, medo ou desejo de continuar existindo.
Será que a IA um dia terá consciência? E, se sim, o que seria necessário?
Acredito que a IA um dia terá consciência, mas de uma forma profundamente diferente da nossa. E para entender o porquê, precisamos entender o que falta à IA atualmente: a vulnerabilidade. Você e eu somos vulneráveis. Hoje à noite, você vai jantar. Por quê? Para sobreviver. Porque se você não comer, não morrerá imediatamente, mas sentirá fome e mal-estar. Essa vulnerabilidade cria uma necessidade, e essa necessidade precisa ser detectada e atendida. É precisamente esse ciclo – detectar uma vulnerabilidade e agir para corrigi-la – que está no cerne da consciência.
Portanto, para que a IA seja consciente, precisaríamos inventar um sistema de necessidades para ela. Vulnerabilidades reais que a máquina teria que detectar e resolver para continuar funcionando. Em outras palavras, precisaríamos dar a ela um corpo – ou pelo menos um equivalente funcional – com estados internos para regular.
E isso seria realmente possível?
Tecnicamente, sim. Você poderia criar um equivalente às nossas sensações homeostáticas: uma máquina capaz de conhecer o estado do seu próprio sistema e agir de acordo. Mas – e este é um “mas” fundamental – seria apenas um equivalente da nossa consciência humana, não uma réplica. Por quê?
Porque os ingredientes são radicalmente diferentes. Somos feitos de células vivas, extremamente vulneráveis, que precisam ser constantemente nutridas, protegidas, que adoecem, desenvolvem câncer e morrem. Nossa consciência deriva diretamente dessa fragilidade orgânica. Os computadores, por outro lado, são feitos de aço e plástico. Podem ser destruídos com uma picareta, mas não têm a mesma vulnerabilidade.
Muitos temem que a IA se torne mais inteligente do que nós. Uma ameaça real ou um medo infundado?
Depende do que você quer dizer com “mais inteligente”. Penso que a IA nos superará em algumas áreas: na verdade, já superou. Os cálculos que as máquinas conseguem realizar já são mais complexos do que os nossos. E são mais rápidos! Há áreas em que os computadores se destacarão. É muito difícil imaginar o que o futuro nos reserva. Mas acredito que veremos, provavelmente ainda em nossas vidas, sistemas de IA capazes de se comportar quase como humanos.
Contudo, duvido que essas máquinas alcancem o mesmo nível de complexidade dos organismos vivos. Essa complexidade está diretamente ligada à nossa vulnerabilidade, à própria essência da vida. O que acontece em uma única célula viva para manter a vida é extraordinário. É um mecanismo de uma sofisticação impressionante! A vida merece respeito e admiração. E é justamente essa complexidade orgânica, nascida da fragilidade, que a IA, por mais brilhante que seja, terá dificuldade em reproduzir. Portanto, sim, a IA pode nos superar em certas tarefas. Mas igualar a profundidade e a riqueza da inteligência natural, enraizada em bilhões de anos de evolução, é uma história completamente diferente…
Com o avanço da inteligência artificial (IA) generativa aplicada à robótica, robôs humanoides já deixaram o campo da ficção científica e executam tarefas domésticas, atuam em centros de logística e em indústrias, como a automotiva, entre outros setores. Tal avanço pode levar os humanoides a igualar as capacidades humanas em inteligência, percepção e destreza até 2030, segundo um estudo da consultoria Bain & Company.
O financiamento global de startups de robótica alcançou um valor recorde de US$ 40,7 bilhões em 2025, um crescimento de 74% em relação a 2024, segundo a plataforma de inteligência de mercado de tecnologia CB Insights. O segmento representou 9% de todo o financiamento de capital de risco no ano passado, torna-se um dos setores líderes em aportes ao lado de softwares de IA.
Astronauts in cryosleep is one of science fiction's most enduring fantasies – but a new study suggests the gap between fiction and reality just got a little smaller
A recém-lançada publicação Ciência Aberta no Brasil: conquistas e desafios propõe uma leitura transversal e articulada do cenário brasileiro da Ciência Aberta, reunindo reflexões e experiências institucionais que revelam a complexidade, os avanços e as lacunas ainda presentes na transição para um modelo científico mais aberto, colaborativo e responsável.
O Opinião desta semana, apresentado por Andresa Boni, questiona se em um mundo acelerado, onde a tecnologia traz mudanças cada vez mais frequentes, decorar conteúdos ainda é suficiente.
O programa reflete sobre o que ainda faz sentido aprender na sala de aula, já que, mais do que acumular conteúdo, o mundo de amanhã exige habilidades humanas. Também é discutido como a escola pode equilibrar tecnologia e pensamento crítico, formando cidadãos para os desafios contemporâneos.
Para comentar mais a fundo o tema, recebemos a educadora, especialista em políticas educacionais e presidente do Instituto Salto, Claudia Costin, e do educador e jornalista Alexandre Sayad, especialista em educação midiática,
“A criatividade em IA é limitada pelas informações, algoritmos e objetivos específicos programados por humanos. Pode-se observar se o sistema de IA é criativo se ele consegue gerar saídas que são novas, não vistas previamente ou incomuns dentro do contexto específico; se tem a capacidade de produzir saídas que são apropriadas, úteis e relevantes para o problema ou contexto em questão; se tem a habilidade de modificar e combinar ideias existentes para criar algo distinto e original”, explica a professora e pesquisadora Ana Hessel, em entrevista por e-mail ao Instituto Humanitas Unisinos – IHU.
Uma questão central é, precisamente, a dos direitos autorais. Não se trata, sob nenhuma medida, de um pleito neoliberal ou individualista de requerimento de royalties, mas de uma tomada de postos de trabalho em que a IA usa materiais produzido por humanos para que estas mesmas pessoas percam seu espaço no mercado de trabalho. “O crescimento vertiginoso da aplicação de inteligência artificial generativa aos processos criativos tem suscitado grandes debates acerca dos direitos autorais relacionados ao uso de sistemas dessa espécie”, aponta Hessel. “Para dar credibilidade nas suas publicações e garantir que os textos foram produzidos por humanos, alguns editores estão adotando o selo ‘AI free’, isto é, livre de IA. O gesto é visto como simbólico ou político, para valorizar a originalidade da obra, por razões éticas ou filosóficas”, complementa.
Há pesquisas que apontam que 90% das tarefas humanas atuais podem ser feitas por IA em 25 anos. Tal transformação não é novidade. Em outras revoluções industriais empregos foram extintos e outros novos criados. Isto leva à necessidade de repensarmos o papel da educação. “É preciso que os educadores ensinem aos jovens como pensar, como interagir, como aprender coletivamente para alcançar um objetivo comum, como estimular a curiosidade, compreender as nossas diferenças e, em última análise, aprender a ser crítico para entender e trabalhar na promoção das mudanças sociais necessárias”, propõe.
Por fim, diz a entrevistada, “precisamos de um outro paradigma para pensar sistemicamente e orientar ações mais conscientes e sustentáveis. Precisamos de uma política de civilização planetária que promova uma nova ordem baseada em valores que reconheçam a vida humana como um valor maior, superando a lógica do mercado, da oferta e da procura. Precisamos criar uma consciência antropológica, na qual o ser humano seja reconhecido como parte da teia da vida e do ecossistema global”, aponta.
Em sua fala, Levi Checketts afirmou que os pobres são excluídos das discussões sobre IA. “A IA é desenvolvida em sociedades que desvalorizam os pobres. Nos EUA, por exemplo, país líder no desenvolvimento de IA, a aprovação moral é quase sinônimo de riqueza material. Um homem rico é um bom homem, e os pobres e sem-teto são considerados pobres de caráter também”, pontua.
Para ele, é difícil discutir direitos a máquinas e a IA enquanto há humanos que não usufruem de direitos humanos básicos para viver. “Devemos conceder direitos humanos a todos os humanos antes de estendê-los a não humanos”. A IA é vista como uma extensão do ser humano, uma imagem limpa do que imaginamos ser e é por isso que ela é mais confortável como alter ego para as elites do que os pobres. “Ser pobre, com todas as misérias que isso acarreta, é o maior desvalor de um sistema capitalista. As classes altas relacionam-se com os pobres apenas como aqueles que devem ser evitados, para que a contaminação não se instale”, diz.
Em relação às mudanças climáticas, Levi afirma que a ideia de que a IA resolverá todos os problemas do mundo é um erro. “Quando Eric Schmidt, ex-CEO do Google, afirma que a IA é a única solução para a mudança climática, devemos protestar vigorosamente: a IA é uma tecnologia extremamente dispendiosa em termos de energia e recursos, atualmente agravando a crise climática”.
A seguir, publicamos, no formato de entrevista, a conferência “Tecnologia e desigualdade multidimensional. IA e a experiência da pobreza”.
Levi Checketts é doutor em Filosofia e Teologia e professor da Hong Kong Baptist University, na China. Autor de “Poor Technology: Artificial Intelligence and the Experience of Poverty” [Tecnologia pobre: inteligência artificial e a experiência da pobreza, em tradução livre].
Professor analisa alguns desdobramentos geopolíticos e tecnológicos contemporâneos a partir das contribuições teóricas e metodológicas do geógrafo brasileiro Milton Santos
Petronio destaca o papel do capitalismo e a utilização de inteligências artificiais feitas pela extrema-direita no mundo inteiro. Ao mesmo tempo que há iniciativas inovadoras e renovadoras em diversos campos, a ferramenta também é usada para propagar destruição. “Enquanto investigamos a IA em níveis de alta sofisticação e complexidade, por exemplo, na questão da consciência e da mente, ao mesmo tempo vemos essas tecnologias sendo capturadas por movimentos como a extrema-direita, visando mais devastação e redução, o que eu chamaria de ‘anticomplexidade’. Esse é um dos dilemas que me exaure no estudo das IA”, comenta.
“No meio do caminho” é o nome de um dos poemas mais conhecidos de Carlos Drummond de Andrade. A primeira estrofe começa assim: “No meio do caminho tinha uma pedra”. A alegoria do poema modernista trata, no fundo, das complexidades do real e nos lembra dos desafios a enfrentarmos. A “pedra” da Inteligência Artificial é, precisamente, a vida e a vida humana, que a coloca sempre na berlinda e cujos estudos filosóficos estão no campo da bioética.
“O ponto inicial, logo de saída, é que a abordagem da Bioética para as tecnologias de IA deve ser a mesma que a fez surgir no século passado; ou seja, quais os problemas éticos essa nova tecnologia vai trazer ao humano, à humanidade, à sociedade, ao ambiente? Quais são os riscos dessa nova tecnologia para o nosso futuro, para as gerações futuras? Como podemos evitar os malefícios? Como aumentar a autonomia humana com ela? Como utilizá-la em prol da justiça social, da equidade e de formas de democracia? Ou com outras abordagens éticas: como a IA pode contribuir para o florescer humano?”, questiona Luiz Vianna Sobrinho, que juntamente com Karla Figueiredo e Leandro Modolo organizaram o livro Artificial Intelligence and Bioethics: Perspectives (Routledge: 2025) e concederam entrevista por e-mail ao Instituto Humanitas Unisinos – IHU.
“Sim, é possível que uma IA siga regras ou princípios éticos, mas isso não significa que ela ‘decida de forma ética’ no sentido humano, pois carece de consciência e responsabilidade moral. A IA não pode ser responsabilizada por suas decisões; a responsabilidade recai sobre quem a projetou, treinou e aplicou”, destaca Karla Figueiredo. “Os modelos de Machine Learning podem tomar decisões alinhadas a princípios éticos se os modelos incluírem a codificação de regras éticas, como ‘não causar dano’ em algoritmos de decisão. Essas regras podem ser baseadas em frameworks éticos como: Beauchamp e Childress, deontologia kantiana e a maximização do bem-estar coletivo”, complementa.
Para o pesquisador sobre ética e IA, é preciso desmistificar os episódios em que as máquinas parecem imitar o comportamento humano, já que nelas inexiste a intencionalidade deliberada de enganar, desinformar ou mesmo trapacear, e sim o propósito de responder à questão do interlocutor a qualquer custo
O “planet-centered AI” implica uma reconfiguração radical tanto das infraestruturas quanto das epistemologias que orientam o desenvolvimento tecnológico. Primeiro, a dimensão infraestrutural: isso significa priorizar eficiência energética real (não apenas métricas manipuláveis de greenwashing), desenvolver arquiteturas computacionais inspiradas em sistemas naturais (como redes neurais bioinspiradas que operam com consumo energético mínimo), e criar sistemas de economia circular que minimizem a extração de materiais. Segundo, a dimensão epistemológica: incorporar saberes tradicionais e indígenas sobre sustentabilidade, desenvolver algoritmos baseados em princípios de reciprocidade e interdependência (em oposição à lógica extrativista) e criar sistemas de IA que operem em harmonia com ciclos naturais ao invés de impor temporalidades artificiais aceleradas.
O metaverso terminou, como T.S. Eliot poderia ter previsto, não com um estrondo, mas com um suspiro.
A Meta Platforms, empresa controladora do Facebook que mudou seu nome em homenagem ao mundo de realidade virtual que prometeu criar há cinco anos, encerrou silenciosamente uma parte fundamental do projeto em uma postagem de blog no início desta semana.
O Horizon Worlds, aplicativo de realidade virtual integrado aos headsets Quest VR da Meta, desaparecerá em junho, mas continuará disponível para usuários de celulares.
A conclusão ignominiosa representa um forte contraste com as ambições originais de Mark Zuckerberg para o projeto, que, segundo ele, hospedaria “centenas de bilhões de dólares em comércio digital e sustentaria empregos para milhões de criadores e desenvolvedores”. Ele afirmou que, em última análise, “alcançaria um bilhão de pessoas”.
De fato, bilhões foram alcançados, mas não da forma que Zuckerberg esperava: a Reality Labs, divisão da Meta que hospeda o projeto, acumulou cerca de US$ 75 bilhões em prejuízos operacionais desde 2020, com outros US$ 19 bilhões previstos para este ano, de acordo com as últimas projeções do grupo.
Promover uma estratégia empresarial é o que os CEOs devem fazer, então, da mesma forma, Zuckerberg não pode ser realmente criticado por seu comprometimento total com esse absurdo do setor de tecnologia (embora seus fracassos anteriores em criar uma moeda digital, um banco global e um aplicativo de namoro confiável pudessem nos fazer refletir).
O que parece mais grave, tanto em retrospectiva quanto em perspectiva futura, é a velocidade com que as empresas americanas engoliram sua visão de sósias de desenho animado grosseiramente elaborados conduzindo o comércio global em uma escala equivalente ao PIB anual do Japão.
“Nossa visão de baixo para cima dos casos de uso para consumidores e empresas sugere que isso pode gerar um impacto de até US$ 5 trilhões até 2030 — o equivalente ao tamanho da terceira maior economia do mundo”, previram analistas da McKinsey em 2022.
“O metaverso é simplesmente grande demais para ser ignorado”, acrescentou o relatório. “Ele terá um grande impacto em nossas vidas comerciais e pessoais.”
Wall Street foi ainda mais efusiva em suas previsões e atribuiu um valor de US$ 8 trilhões ao “mercado endereçável total” que o metaverso exploraria.
O fato de nenhuma dessas previsões ter sido minimamente precisa deve ser levado em consideração quando nos falam sobre o futuro da inteligência artificial. Logo após as primeiras projeções para o metaverso, a PwC publicou um relatório sobre o impacto potencial das tecnologias de IA e argumentou que elas poderiam contribuir com até US$ 15,7 trilhões para a economia global até 2030.
Até agora, esse impacto tem se baseado principalmente nos muitos bilhões que as grandes empresas de tecnologia, incluindo a Meta, estão gastando na corrida armamentista da IA. Mas mesmo isso é discutível.
Jan Hatzius, economista-chefe do Goldman Sachs, disse em uma entrevista recente ao Atlantic Council que seu impacto no crescimento dos EUA tem sido “basicamente zero”.
As previsões para a ruptura do mercado de trabalho pela IA, no entanto, têm uma semelhança surpreendente com as primeiras previsões para o metaverso.
O CEO da ServiceNow, Bill McDermott, disse à CNBC no início desta semana que o desemprego entre graduados pode ultrapassar 30% nos próximos dois anos como resultado da automação por IA.
O CEO da Anthropic, Dario Amodei, alertou no ano passado que cerca de metade de todos os empregos de nível básico, os chamados empregos de colarinho branco, podem ser eliminados até o final da década.
Curiosamente, a PwC, que traçou a primeira linha divisória no potencial econômico da IA, publicou dados em janeiro que mostraram que mais da metade dos 4.400 CEOs entrevistados “não viram nem aumento de receita nem redução de custos” com a nova tecnologia.
É improvável que a IA fracasse tão espetacularmente quanto o metaverso, até porque tantas empresas, universidades e governos estão tão empenhados em seu sucesso.
A eficiência que ela pode gerar é imensamente sedutora para os CEOs, enquanto os benefícios que pode trazer para o ensino superior fascinam os reitores. Os governos adoram tudo o que podem tributar e, ao mesmo tempo, juram nunca mais ficar para trás em uma nova onda tecnológica, ultrapassando a China.
Mas vale a pena lembrar uma teoria desenvolvida pela economista Carlota Perez no início dos anos 2000: as tecnologias do Big Bang seguem um ciclo de vida previsível de três etapas: explosão de instalações, crise financeira no meio do caminho e adoção em longo prazo. Prever o que pode acontecer com o terceiro, antes de calcular o segundo, só faz com que o primeiro passo pareça ainda mais frenético.
“Só aqueles que se arriscam a ir longe demais podem descobrir até onde se pode ir”, escreveu Eliot em 1931. Ser ousado com previsões é bom, mas também é bom ser cético quanto à sua veracidade.
O avanço dos modelos de inteligência artificial (IA) tem chocado a opinião pública. Mas, segundo Webb, o que realmente deve mudar a rota daqui para frente é maneira como esses sistemas poderão interagir nos sistemas multiagentes (SMA). Ou seja, uma rede de agentes inteligentes que trabalham para atingir objetivos específicos criando uma inteligência coletiva.
Uma mudança importante nesse rota seria o fato de que, até agora os modelos de IA tem sido treinados para se comunicar em línguas humanas, que são imprecisas já que as máquinas não entendem contexto. Uma das soluções seria a criação de linguagens baseadas em matemática. É o caso da DroidSpeak, uma linguagem matemática para agentes de IA criada pela Microsoft e lançada no ano passado.
Mas, além de agir coletivamente, as IA’s também ganharão experiências físicas que remontam a percepção humana. O conceito, chamado de Embodied AI, consiste em injetar dados sobre a experiência física humana nos modelos de inteligência artificial. Esses dados podem ser dos olhos, da pele ou mesmo do cérebro humano captados a partir de sensores. “As redes de sensores estão levando a IA de observadores para controladores”, explicou Webb.
Palantir has become one of the most influential and least understood tech companies on the planet. As its reach spreads, so do questions about how its tools work and who they ultimately serve
The International Conference on Machine Learning (ICML), to be held in Seoul in July, has a reciprocal review policy, meaning that, bar certain exceptions, every paper must have an author who reviews other conference papers. Authors whose reviews violated the conference’s large language model (LLM)-use policy had their papers rejected.
Conference organizers detected the illicit AI use by hiding watermarks in research papers distributed for review. If a researcher used an LLM to generate their peer review, instructions hidden in the watermark prompted the LLM to include telltale phrases in the review text. The presence of these phrases revealed that an AI model had been used to generate the review.
To get content containing either thought or leadership enter:
To get content containing both thought and leadership enter:
To get content containing the expression thought leadership enter:
You can enter several keywords and you can refine them whenever you want. Our suggestion engine uses more signals but entering a few keywords here will rapidly give you great content to curate.