Em meio aos embates entre Estácio, Kroton e Ser Educacional, a Anima adquiriu a Alis Educacional por R$ 46 milhões. A transação envolve ainda um pagamento de até R$ 8 milhões referente a ganhos provenientes da expansão da instituição de ensino, que tem unidades no interior de Minas Gerais.
As conversas com a Alis começaram antes mesmo de a Anima abrir o capital, em 2013, e se aceleraram neste mês com suas concorrentes anunciando que pretendem uma fusão. "Muitas instituições que estavam postergando a venda ou pedindo múltiplos de três anos antes agora estão nos procurando. Essa procura aumentou muito após a possibilidade de uma fusão no setor", disse Daniel Castanho, presidente da Anima.
Com apenas 4,3 mil alunos e unidades em cidades mineiras pequenas como Bom Despacho, a Alis despertou o interesse da Anima, principalmente, devido ao modelo acadêmico com adoção de metodologias pioneiras como sala de aula invertida, sistemas de ensino voltado para graduação e uso de muita tecnologia - iniciativas que são recentes inclusive em outros países. Os executivos da Alis, Gustavo Hoffmann e Débora Guerra, permanecem na Anima.
Do valor da transação, R$ 20 milhões serão quitados à vista e R$ 26 milhões serão pagos em dez parcelas anuais corrigidas pela inflação. A primeira parcela vence um ano após a conclusão do negócio. Já o pagamento adicional de até R$ 8 milhões, a ser realizado entre 2018 e 2023, refere-se aos ganhos resultantes da abertura de quatro unidades no interior de Minas Gerais e em Goiás e desempenho do lucro antes de juros, impostos e depreciação e amortização (Ebitda).
No ano passado, a Alis Educacional registrou uma receita líquida de R$ 37,2 milhões e lucro antes de juros, impostos, depreciação e amortização (Ebitda) ajustado de R$ 6,9 milhões. A margem Ebitda da Alis é de 19% e da Anima gira na casa dos 28%.
"Seguimos com a nossa estratégia de agregar ao grupo instituições comprometidas com a qualidade de ensino, ", disse Castanho. Com a aquisição da Alis, a Anima passa a ter 100 mil alunos matriculados e fortalece sua atuação no ensino a distância, segmento em que entrou há pouco tempo.
No primeiro trimestre, a receita líquida da Anima cresceu 7,9%, somando R$ 235,3 milhões.
O que acontece quando a maioria faz uso de uma IA para realizar suas atividades laborais? E, no caso dos estudantes, quando os trabalhos passam a ser produzidos com o apoio de uma IA generativa? Luciano Sathler É PhD em administração pela USP e membro do Conselho Deliberativo do CNPq e do Conselho Estadual de Educação de Minas Gerais As diferentes aplicações de Inteligência Artificial (IA) generativa são capazes de criar novos conteúdos em texto, imagens, áudios, vídeos e códigos para software. Por se tratar de um tipo de tecnologia de uso geral, a IA tende a ser utilizada para remodelar vários setores da economia, com impactos políticos e sociais, assim como aconteceu com a adoção da máquina a vapor, da eletricidade e da informática. Pesquisas recentes demonstram que a IA generativa aumenta a qualidade e a eficiência da produção de atividades típicas dos trabalhadores de colarinho branco, aqueles que exercem funções administrativas e gerenciais nos escritórios. Também traz maior produtividade nas relações de suporte ao cliente, acelera tarefas de programação e aprimora mensagens de persuasão para o marketing. O revólver patenteado pelo americano Samuel Colt, em 1835, ficou conhecido como o "grande equalizador". A facilidade do seu manuseio e a possibilidade de atirar várias vezes sem precisar recarregar a cada disparo foram inovações tecnológicas que ampliaram a possibilidade individual de ter um grande potencial destrutivo em mãos, mesmo para os que tinham menor força física e costumavam levar desvantagem nos conflitos anteriores. À época, ficou famosa a frase: Abraham Lincoln tornou todos os homens livres, mas Samuel Colt os tornou iguais. Não fazemos aqui uma apologia às armas. A alegoria que usamos é apenas para ressaltar a necessidade de investir na formação de pessoas que sejam capazes de usar a IA generativa de forma crítica, criativa e que gerem resultados humanamente enriquecidos. Para não se tornarem vítimas das mudanças que sobrevirão no mundo do trabalho. A IA generativa é um meio viável para equalizar talentos humanos, pois pessoas com menor repertório cultural, científico ou profissional serão capazes de apresentar resultados melhores se souberem fazer bom uso de uma biblioteca de prompts. Novidade e originalidade tornam-se fenômenos raros e mais bem remunerados. A disseminação da IA generativa tende a diminuir a diversidade, reduz a heterogeneidade das respostas e, consequentemente, ameaça a criatividade. Maior padronização tem a ver com a automação do processo. Um resultado que seja interessante, engraçado ou que chama atenção pela qualidade acima da média vai passar a ser algo presente somente a partir daqueles que tiverem capacidade de ir além do que as máquinas são capazes de entregar. No caso dos estudantes, a avaliação da aprendizagem precisa ser rápida e seriamente revista. A utilização da IA generativa extrapola os conceitos usualmente associados ao plágio, pois os produtos são inéditos – ainda que venham de uma bricolagem semântica gerada por algoritmos. Os relatos dos professores é que os resultados melhoram, mas não há convicção de que a aprendizagem realmente aconteceu, com uma tendência à uniformização do que é apresentado pelos discentes. Toda Instituição Educacional terá as suas próprias IAs generativas. Assim como todos os professores e estudantes. Estarão disponíveis nos telefones celulares, computadores e até mesmo nos aparelhos de TV. É um novo conjunto de ferramentas de produtividade. Portanto, o desafio da diferenciação passa a ser ainda mais fundamental diante desse novo "grande equalizador". Se há mantenedores ou investidores sonhando com a completa substituição dos professores por alguma IA já encontramos pesquisas que demonstram que o uso intensivo da Inteligência Artificial leva muitos estudantes a reduzirem suas interações sociais formais ao usar essas ferramentas. As evidências apontam que, embora os chatbots de IA projetados para fornecimento de informações possam estar associados ao desempenho do aluno, quando o suporte social, bem-estar psicológico, solidão e senso de pertencimento são considerados, isso tem um efeito negativo, com impactos piores no sucesso, bem-estar e retenção do estudante. Para não cair na vala comum e correr o risco de ser ameaçado por quem faz uso intensivo da IA será necessário se diferenciar a partir das experiências dentro e fora da sala de aula – online ou presencial; humanizar as relações de ensino-aprendizagem; implementar metodologias que privilegiem o protagonismo dos estudantes e fortaleçam o papel do docente no processo; usar a microcertificação para registrar e ressaltar competências desenvolvidas de forma diferenciada, tanto nas hard quanto soft skills; e, principalmente, estabelecer um vínculo de confiança e suporte ao discente que o acompanhe pela vida afora – ninguém mais pode se dar ao luxo de ter ex-alunos. Atenção: esse artigo foi exclusivamente escrito por um ser humano. O editor, Michael França, pede para que cada participante do espaço "Políticas e Justiça" da Folha sugira uma música aos leitores. Nesse texto, a escolhida por Luciano Sathler foi "O Ateneu" de Milton Nascimento.
Quando a vida é encarada como competição, a adaptabilidade torna-se o valor mais elevado. Surge assim a intuição de que os comportamentos improdutivos devem ser diligentemente eliminados, justificando a cinta e a velha palmatória para além do prazer de ferir e humilhar.
Porém, evidências acumuladas mostram que o reforçamento é bem mais eficiente do que a punição. Este princípio levou à abolição dos castigos físicos na escola —o que na prática marcou o surgimento da educação contemporânea— e também à explosão da inteligência artificial, que é programada para perseguir recompensas (matemáticas) como um bandeirante.
Alunos usam inteligência artificial em lições de matemática em escola em Colomiers, na França - Matthieu Rondel - 14.mar.25/AFP A convergência metodológica faz da educação um campo privilegiado para IAs especializadas, que estão mudando o setor com promessas de turbinar o aprendizado e substituir o uso desonesto dos chatbots nas lições de casa por aplicações curriculares. Nos Estados Unidos, já há escolas alegando possuir tecnologias que ensinam em duas horas o que antes tomava um dia inteiro.
Esta é a teoria; a prática revela uma divergência nada trivial de incentivos. Bons professores catalisam o desenvolvimento de modelos de entendimento e sociabilidade, assinalando o valor intrínseco destas dimensões existenciais e dando ênfase à necessidade de se esforçar para aprender. Já bons assistentes pedagógicos reforçam seu próprio uso, que é condição necessária para que sigam instruindo a turma e cobrando mensalidade.
A prerrogativa para reforçar o próprio uso é nunca frustrar o aluno, o que na prática significa jamais pôr em xeque seu papel de cliente, que deve receber elogios a cada ação e, sobretudo, pode se angustiar se a resposta à tarefa não for logo regurgitada. O caso é idêntico ao das IAs terapêuticas, reforçadas para evitar o contraditório, que é simultaneamente o grande vetor da transformação e a grande ameaça à continuidade do plano contratado.
O aprendizado formal envolve a aquisição de novas formas de pensar, o que muitas vezes obriga o aluno a lidar com fatores extrínsecos à noção em foco (como no caso em que precisa imaginar a figura impressa girando no espaço). Assistentes de ensino com IA facilitam este processo pela personalização da demanda conceitual e redução do peso dos fatores extrínsecos, já que usam animações e outros recursos que mitigam a necessidade de malabarismos mentais capazes de dificultar a incorporação do conceito-alvo.
1 4 Cientistas investigam significado de interação humana com robôs
Robô em empresa na cidade de Shenzhen, na China; pesquisa busca entender como cérebro humano funciona diante de máquinas Mao Siqian/XinhuaMAIS
LEIA MAIS
VOLTARFacebookWhatsappXMessengerLinkedinE-mailCopiar link Carregando... A promessa é de que criariam um papel ainda mais valioso do que o tradicional para o professor, que poderia focar menos a repetição e mais a promoção de convergências interdisciplinares e experiências críticas. Porém, a realidade até aqui tem sido outra. Nela, os alunos que não enxergam um propósito maior na educação se aproveitam da IA; a lição em forma de jogo desvaloriza a leitura; e a evitação do contraditório, inerente à noção do aluno como cliente, reduz o contato com a sua própria fragilidade, reforçando o seu egocentrismo.
Aos poucos, estas ideias vão circulando entre os educadores. O resultado é o surgimento de uma nova dicotomia programática no ensino privado, não mais entre as escolas que cruzaram ou não a fronteira da IA, mas entre as que concebem seu papel de forma criteriosa e as que enxergam na tecnologia a oportunidade para uma nova era de ouro do fordismo educacional.
Com Profa. Dra. Maria Lucia Santaella Braga – PUC-SP IHU ideias
- Para receber certificação, você deverá realizar sua matrícula no site do evento e também assinar a lista de presença. As duas etapas são obrigatórias para a emissão do seu certificado. -
O futuro dos bancos está cada vez mais na palma das mãos dos clientes, com produtos e serviços desenhados especialmente para atender necessidades individualizadas. É a era da hiperpersonalização. O presente já tornou a inteligência artificial e, agora, a IA generativa (GenIA) partes fundamentais na transformação das instituições financeiras em verdadeiras plataformas de operações, e o ano de 2024 mostrou o que está por vir. Operações virtuais, a partir de um celular, responderam por 75% das transações bancárias, o triplo em relação a 2020 e 15% superior a 2023, conforme pesquisa da Federação Brasileira de Bancos (Febraban) realizada pela Deloitte.
A participação da indústria criativa na economia brasileira avançou de 3,2% do PIB em 2022 para 3,6% em 2023. O valor gerado por esse setor correspondeu a R$ 393,3 bilhões em 2023, segundo estimativa do estudo da Federação das Indústrias do Estado do Rio de Janeiro (Firjan) “Mapeamento da Indústria Criativa 2025”.
Dentro de alguns anos, empresários e CEOs vão administrar uma força de trabalho formada não só por humanos. Além dos funcionários - com salários, férias, promoções e demissões - haverá a inteligência artificial.
“Serão empresas compostas por humanos, agentes virtuais, robôs, todos trabalhando em conjunto para atender aos clientes de uma forma melhor do que fazem hoje. Isso mudará a natureza do trabalho, mudará a natureza dos modelos de negócios e mudará a maneira como as empresas precisam pensar em liderar e gerenciar seus talentos”, disse Chuck Whitten, diretor global da área digital da consultoria Bain & Company.
Ele lembra que a Microsoft já deu um nome às empresas que conjugarão duas formas de mão de obra: “frontier firms”.
Inteligência artificial foi o tema do encontro que Whitten teve na semana passada com um grupo de executivos de setores diversos. O encontro ocorreu no escritório da Bain, em São Paulo.
Um dos recados de Whitten foi que os executivos precisam estar sempre prontos a aprender. Principalmente sobre tecnologia.
“O executivo do futuro terá que ser mais fluente em tecnologia. Eles não terão que ser engenheiros por formação, porque as ferramentas já existem. Mas será preciso saber muito mais sobre como a tecnologia afetará o seu setor, a sua força de trabalho e como o trabalho poderá ser reinventado na sua empresa com a tecnologia”, afirmou Whitten em entrevista ao Valor após o diálogo com os CEOs.
Formado em Matemática Econômica, História e com um MBA na Harvard Business School, Whitten fez carreira na Bain antes de assumir o cargo de executivo-chefe adjunto da área operacional da Dell Technologies. Voltou para a Bain em 2024.
Olhando para trás, diz ver muitas mudanças. Uma delas, a relevância da tecnologia nos negócios.
“Cinco ou dez anos atrás, o departamento de tecnologia das empresas geralmente ficava no final do corredor. Hoje, resolver problemas ligados aos negócios e resolver problemas ligados à tecnologia é a mesma coisa e, portanto, todo executivo precisa se interessar e imaginar um mundo de aprendizado contínuo, porque a tecnologia está se movendo muito rapidamente e impactando todos os setores.”
Whitten tem uma certeza sobre inteligência artificial: que estamos apenas começando a entender as aplicações e as implicações dessa nova tecnologia.
“A IA generativa está ficando mais desenvolvida à medida que adicionamos novas fontes de dados, vídeos, à medida que adicionamos códigos, à medida que as ferramentas começam a criar dados sintéticos e a se treinar. Essas ferramentas só vão ficar melhores”, observa ele.
Os passos seguintes serão os agentes autônomos capazes de agir em nome das empresas e, em breve, uma IA física, ou seja, a robótica e IA se unindo.
Whitten diz não gostar de brincar de adivinho e de descrever como viveremos no futuro. Mas olhando a rapidez do desenvolvimento da IA e de alguns modelos já em operação, se arrisca em antever um mundo onde as pessoas terão seus agentes virtuais pessoais. Agentes virtuais para os quais daremos procuração para agirem em nosso nome, acrescenta Whitten.
“Os agentes serão capazes de otimizar nossas finanças trabalhando com agentes do outro lado, em bancos e instituições financeiras. Eles vão organizar nossas férias e, se o avião atrasar, vão automaticamente remarca nossa viagem. Ou, melhor ainda: quando eu disser que gostaria de ir de férias para São Paulo, meu agente virtual reservará meu hotel favorito, meu restaurante favorito, meu serviço de carro quando eu pousar, tudo sem que eu precise intervir. E, então, eu acho que há um futuro em que todos seremos mais produtivos.”
Whitten é um otimista e diz que esses ajudantes virtuais tornarão a vida de seus proprietários mais leves, sem a perda de tempo em algumas atividades chatas.
Isso vai custar milhões e milhões de empregos, como diversas projeções apontam? Whitten é cauteloso e diz não abraçar muito essas previsões. “O que é possível dizer é que vamos precisar de novas habilidades, vamos precisar de novos treinamentos e novas indústrias surgirão com um tipo diferente de força de trabalho.”
No caso dos CEOs, seu conselho é que tenham senso de urgência.
“Todos os setores serão afetados pela IA, alguns de forma sutil, outros de forma mais significativa, e todas as empresas precisam lidar com isso. Portanto, agir com urgência é fundamental”.
Isso, em parte, significa que os executivos devem, eles mesmos fuçar as possibilidades das ferramentas de IA.
Whitten diz estar convicto de que essas ferramentas de IA não vão substituir profissionais em cargos executivos nos seus processos de decisão nas quais capacidades, habilidades, percepções humanas são incomparáveis.
“Essa tecnologia nos complementa. Ela não nos substitui na tomada de decisões. Acho que esse é o futuro. Mas você ainda precisa do julgamento humano e ainda precisa da liderança humana para criar valor a partir da tecnologia. Seremos aprimorados e, às vezes, muito mais produtivos com essas ferramentas. Mas elas não serão um substituto para nós”.
O segundo aspecto do relatório trata da possibilidade de proteção autoral para criações em que humanos usam ferramentas de inteligência artificial generativa na sua elaboração. Nesse sentido, o órgão destaca que o uso da tecnologia para aprimorar a expressão humana não limita a proteção do direito autoral, ao contrário das aplicações que substituem a criatividade humana. Observou-se, nesse sentido, que garantir a proteção às obras criadas com auxílio da IAG mostrou-se uma preocupação nas respostas ao questionário do Copyright Office.
No início de maio, foi publicado o relatório “Copyright and Artificial Intelligence. Part 3: Generative AI Training” pelo Escritório de Direitos Autorais dos Estados Unidos da América (“USCO”), último dos três documentos elaborados pelo USCO no primeiro semestre de 2025. A propósito, se quiserem lembrar o que já publicamos sobre as duas partes anteriores, você pode acessar nossos comentários sobre a parte 1 e sobre a parte 2.
A divulgação dessa terceira parte veio permeada por pelo menos duas grandes polêmicas. A primeira é o entendimento de que a doutrina do fair use (até agora a principal defesa das empresas de tecnologia para treinar suas ferramentas com obras protegidas por direitos autorais sem pagar nada a ninguém) não pode ser interpretada de modo a legitimar o uso de obras protegidas indiscriminadamente.
O programa Direto ao Ponto, exibido no dia 09/06/2025, recebeu o cientista-chefe do ITS Rio e um dos criadores do Marco Civil da Internet, Ronaldo Lemos. Na entrevista com Evandro Cini, eles conversaram sobre os desafios para colocar essa lei em prática, a regulação das redes sociais e os rumos da política hoje.
No universo da inteligência artificial, o avanço dos agentes digitais treinados e com autonomia para tomar decisões impõe desafios no ambiente de trabalho, em relação à governança, segurança e privacidade. “O aumento de agentes usando LLMs [Large Language Models] e combinação de funcionalidades desafiam a governança”, diz Diogo Cortiz, professor da PUC-SP, referindo-se, ao modelo de ‘machine learning’ que interpreta diferentes funções e tem capacidade para reconhecer e gerar vários tipos de conteúdo. “É preciso estabelecer limites sem deslumbramento e investir na regulação da tecnologia. Como podemos calcular os estragos causados, por exemplo, por uma eleição fraudada por desinformação?”, afirma Glauco Arbix, coordenador do Centro de IA da USP. A segurança é chave para manter o gerenciamento das operações e as empresas devem instalar “guardrails”, proteções para mitigar os riscos de a IA gerar conteúdos prejudiciais ou enganosos. Limites e diretrizes devem garantir que os sistemas de IA trabalhem de forma ética e segura. E já que os agentes podem ser criados de forma rápida, Marcelo Braga, presidente da IBM Brasil lembra a importância de as plataformas serem abertas. “Facilita a comunicação, já que são múltiplas as alternativas. O que está por trás é a orquestração, que não é simplesmente redesenhar o processo. Sem essa coordenação, teremos vulnerabilidade na segurança”. Se organizar dados internos já era um desafio, Braga diz que o tema é ainda mais importante atualmente. “Tudo gera dados e em um volume nunca antes visto, precisando mais do que nunca da governança das informações.” Para usar os agentes de IA de forma produtiva, Rafael Rovani, head de IA, dados e analytics do Banco do Brasil, afirma que a infraestrutura de TI deve ser robusta, híbrida e o sistema de dados bem coordenado. “A cultura empresarial deve estar preparada para ter um colega robô”, destaca Rovani. No ano passado, o banco lançou a Academia BB de IA: mais de 65 mil funcionários participam de treinamento sobre o tema independentemente da função e área de atuação. Além de medidas de segurança, minimizar impactos sociais negativos da IA também está na pauta do setor financeiro. “Há um grande esforço para estabelecer princípios sólidos, refiro-me à ética e governança para o uso responsável da IA. Temos uma atuação conjunta com setor público, academia, organismos multilaterais, para desenvolver políticas públicas, sem aprofundar as desigualdades”, afirma Ivo Mósca, diretor de inovação e serviços da Febraban. Do ponto de vista regulatório, Mósca lembra que a adaptação da tecnologia às normas setoriais é o primeiro desafio. “Muitas delas, principalmente do Banco Central, não foram desenhadas para lidar com algoritmos que exigem interpretações jurídicas. Estamos no processo inicial que deve avançar nos próximos anos.” Mósca ressalta ser fundamental que, especialmente nas atividades mais críticas, os modelos de IA possam ser revisados e supervisionados por humanos. Até 2027, no entanto, grande parte das interações nos negócios será entre agentes de IA, prevê Sandy Carter, chefe de operações da startup americana Unstoppable Domains, plataforma de identidade digital. “Será necessário construir confiança e redesenhar a força de trabalho, já que agentes de IA farão parte do time.” Estudo global da McKinsey mostra que a IA poderá gerar incremento de US$ 13 trilhões ao PIB até 2030. O avanço traz mudanças para colaboradores e universo corporativo, exigindo que se repense os organogramas. “Como será os times de IA e humanos trabalhando juntos? Com robôs humanóides, por exemplo?”, questiona a executiva com passagens pela Amazon e IBM. A capacitação profissional pode contribuir para minimizar os efeitos dessas mudanças sobre a empregabilidade. Estudo recente da Organização Internacional do Trabalho (OIT) e do Instituto Nacional de Investigação da Polônia (Nask) mostra que um em cada quatro empregos no mundo está exposto à IA generativa. O mais provável, como releva o documento, é a transformação e não a substituição de postos de trabalho. O respeito à diversidade é outro ponto de atenção. Para Zaika dos Santos, CEO da instituição de inovação Afrofuturismo, Arte e Stem (sigla em inglês para ciência, tecnologia, engenharia e matemática), a preocupação é combater os vieses algorítmicos - erros sistemáticos que produzem informações discriminatórias, reforçando desigualdades socieconômicas, raciais e de gênero existentes. “A ONU e a Unesco já produziram documentos para combater o problema. A mitigação é fundamental para que a população possa utilizar essa tecnologia.”
“A criação de materiais didáticos com o auxílio de IA envolve a colaboração entre humanos e algoritmos, tornando a atribuição de autoria uma questão complexa. A legislação brasileira atual (junho/2024) não reconhece a IA como autora, e a atribuição de direitos autorais geralmente recai sobre o humano que utilizou a ferramenta, seja um professor ou um designer educacional. Entretanto, a participação da IA na criação desses conteúdos coloca em xeque a segurança jurídica tradicional”, adianta Fátima Medeiros.
Após dois anos de debate no Senado - com a primeira versão proposta pela Comissão de Juristas para regular a Inteligência Artificial (IA) em 6 de dezembro de 2022 e a segunda aprovada em plenário em 10 de dezembro de 2024 -, a Câmara dos Deputados deu início à discussão do Projeto de Lei 2338/2023, que tramita em regime de prioridade. O PL é um substitutivo a oito projetos de lei apresentados por deputados e senadores entre 2019 e 2024, com o objetivo de instituir o “Marco Regulatório da IA no Brasil” (“Aprovado o PL 2338 pelo Senado Federal: considerações preliminares”, Dora Kaufman, Época Negócios, 13/12/2024).
Falamos de Inteligência Artificial - IA como quem dá bom-dia. O tema é parte de nosso mundo, mas no fundo ainda somos carentes de uma compreensão mais clara sobre o que é a IA. Neste sentido, Lucia Santaella, em entrevista por e-mail ao Instituto Humanitas Unisinos – IHU, traz respostas luminares sobre o tema e situa as principais implicações nas quais os seres humanos e as máquinas estão imbricados.
Inteligência artificial “passou a ser um termo genérico para uma multiplicidade de variações baseadas em um conjunto de tecnologias que levam os computadores a realizar tarefas que imitam ações inteligentes dos humanos. Ela é capaz de reconhecer rostos, entender a fala e responder, dirigir carros, criar imagens e assim por diante”, pondera Santaella.
Neste contexto há dois modelos principais de IA e que são distintos entre si. De um lado, “a IA preditiva ingere grandes volumes de dados históricos de diferentes fontes, relevantes para o problema que lhe é colocado. Então os algoritmos de aprendizado de máquina analisam esses dados buscando tendências, padrões e relacionamentos entre variáveis”, explica a pesquisadora. A IA generativa, por sua vez, embora ainda se utilize de aprendizagem de máquina e redes neurais, está voltada para a criação de conteúdo novo e original, como imagens, texto e outras mídias, aprendendo com os padrões de dados existentes”, complementa.
“A linguagem é constitutiva do humano. Não por acaso, para Heidegger, a linguagem é a casa do ser. Sábia é a Bíblia ao declarar que ‘no princípio era o verbo’. Embora o verbo seja Jesus, podemos também ler de modo laico ao considerar que ser Sapiens significa estar dotado das faculdades de linguagem. Tanto quanto posso ver, essa emergência imitativa do humano, naquilo que o humano tem de mais humanamente seu, ao fim e ao cabo, coloca em questão o próprio ser do humano. É a ontologia do humano, afinal o que somos, no que passamos a nos constituir que é posto sob interrogação”, sugere.
Por fim, sem cair em um exercício de futurologia, Santaella reflete sobre a questão da IA. Ela diz: “Não tenho vocação catastrofista nem profética. A única certeza que temos em relação ao futuro é que ele será diferente do que pensamos que ele será. Costumo acreditar na força maior da espécie humana que é a capacidade adaptativa. Com a IA, essa capacidade está sendo colocada à prova”.
Lucia Santaella (Foto: Instituto CPFL)
Lucia Santaella é pesquisadora 1 A do CNPq. Professora titular no programa de Pós-Graduação em Comunicação e Semiótica e no programa de Pós-graduação em Tecnologias da Inteligência e Design Digital, ambos da PUCSP. Tem doutoramento em Teoria Literária na PUCSP em 1973 e Livre-Docência em Ciências da Comunicação na ECA/USP em 1993. É vice-líder do Centro de Estudos Peirceanos, na PUCSP e presidente honorária da Federação Latino-Americana de Semiótica. É membro do Advisory Board do Peirce Edition Project em Indianapolis, USA e do Bureau de Coordenadores Regionais do International Communicology Institute.
Recebeu o prêmio Jabuti em 2002, 2009, 2011 e 2014, o Prêmio Sergio Motta, Liber, em Arte e Tecnologia, em 2005, o prêmio Luiz Beltrão-maturidade acadêmica, em 2010 e o Sebeok Fellow Award, 2025. Tem 57 livros publicados, dentre os quais 6 são em coautoria e dois de estudos críticos. Organizou também a edição de 35 livros. Suas áreas mais recentes de pesquisa são: Comunicação, Semiótica Cognitiva e Computacional, Inteligência Artificial, Estéticas Tecnológicas e Filosofia e Metodologia da Ciência.
Confira a entrevista. IHU – Para começar, proponho uma pergunta para delimitarmos claramente o principal tema desta entrevista, a Inteligência Artificial: o que é precisamente a IA?
Lucia Santaella – Tenho desenvolvido a ideia da IA situada. Há alguns anos, no campo da ciência cognitiva, os especialistas descontentes com a teoria representacionalista da cognição –– que propunha que a cognição humana se comportava por obediência a regras sequenciais como os computadores da época –, propuseram a teoria da cognição situada. Imitando essa ideia de uma condição situada no tempo e no espaço, tenho proposto a ideia de uma IA situada. Justificativas para isso não faltam, diante da multiplicação de sistemas, plataformas e desdobramentos da IA que avança a passos largos.
Há alguns anos, tendo em vista a concepção que tenho, e que depois desenvolvi em detalhes no livro Neo humano, a sétima revolução cognitiva do Sapiens (Paulus, 2022), concepção segundo a qual a cognição humana é evolutiva e hoje se expande na IA, avisei os leitores de um breve texto, escrito em 2017 para prepararem seus corações, pois a IA veio para ficar, crescer e se multiplicar. De fato, desde então é ao que temos assistido.
Tudo isso para tentar responder à pergunta sobre o que é precisamente a IA. O advérbio “precisamente” faz toda a diferença aí, já que, segundo minha ideia da IA situada, poderia ser substituído por: o que é a IA “hoje”. Ela passou a ser um termo genérico para uma multiplicidade de variações baseadas em um conjunto de tecnologias que levam os computadores a realizar tarefas que imitam ações inteligentes dos humanos. Ela é capaz de reconhecer rostos, entender a fala e responder, dirigir carros, criar imagens e assim por diante.
Desde que o ChatGPT nos assombrou há pouco mais de dois anos, com suas habilidades conversacionais, muita coisa evoluiu. Os sistemas de IA conversacional avançaram das suas estruturas básicas de chatbots para ferramentas avançadas de engenharia de prompts que prefiro chamar de semiótica de prompts. Novidade mais recente que tem agitado as mentes e o mundo empresarial são os agentes de IA que prometem estar dotados de autonomia. Recentíssimo é o sistema de produção de vídeos... capaz de criar filmes inteiramente em IA. Estamos apenas começando a assistir à agitação que isso irá produzir na economia criativa.
IHU – Em 2023, a senhora publicou um trabalho de compreensão do fenômeno distinguindo cinco tribos da IA: IA conexionista, IA simbólica, IA evolucionista, IA bayesiana e a IA analógica. Poderia explicar o que é cada uma delas e como se diferenciam?
Lucia Santaella – Sim, o texto se encontra no primeiro capítulo do meu livro sobre A inteligência artificial é inteligente? (Edições 70). Faço aqui uma síntese daquilo que se encontra em mais detalhes nesse livro.
Comecemos com os conexionistas que são os mais bem-sucedidos no mercado e cujas pesquisas levaram ao aprendizado de máquina e aprendizado profundo, uma subcategoria do aprendizado de máquina. A engenhosidade desse sistema consiste em simular, por meio de redes neurais artificiais e com seus limites próprios, o funcionamento dos neurônios humanos. Para isso, trabalham com camadas de neurônios em paralelo com pesos específicos. A técnica é complicada e extrapola a intenção da síntese.
Os simbolistas, por seu lado, acreditam que o conhecimento pode ser obtido pela operação de símbolos (sinais que representam um certo significado ou evento) e pela derivação de regras a partir deles. Ao juntar sistemas complexos de regras seria possível obter uma dedução lógica do resultado que se queira saber.
Já a crença dos evolucionistas consiste na seleção natural. Por isso, usam os princípios da evolução para resolver os problemas.
Bayes é o nome de um dos mais tradicionais algoritmos de aprendizagem de máquina, usado como uma solução estatística simples para problemas de classificação. Mas há outros algoritmos mais robustos capazes de complementar suas funções. Por isso, a escola bayesiana é aquela que indica o cultivo dos algoritmos, imprescindíveis ao funcionamento da IA.
Os analogistas usam máquinas específicas para reconhecer os padrões nos dados. Ao reconhecer o padrão em um conjunto de entradas e compará-lo com o padrão de uma saída conhecida, é possível criar uma solução a um problema.
A aprendizagem de máquina evoluiu de maneira tão eficaz, especialmente nas suas aplicações no mundo corporativo, que hoje não se encontram mais referências a essas tribos. Se elas continuam a existir, como é o caso da IA simbólica, trata-se de campos de pesquisa, pois quando se pensa em aplicações, a aprendizagem de máquina derivada do conexionismo ganha todas as paradas.
IHU – Para todo efeito positivo, há correlacionados aspectos inversos. Quais são hoje as principais externalidades negativas da IA?
Lucia Santaella – Costumo dizer que pouco são mencionados os aspectos positivos da IA justo porque eles falam por si e não precisam de defensores. As externalidades negativas, ao contrário, devem ser apontadas e atacadas com firmeza. São muitas e vão das mais visivelmente nefastas até as mais sutis. Costumam ser muito lembrados os vieses nos resultados que a IA apresenta e que afetam os direitos fundamentais, como os vieses raciais, de gênero, etaristas e quaisquer outros. Deve ser, de fato, verdadeira a crítica de que os gigantescos bancos de dados que alimentam a IA estão empanturrados de fontes baseadas nos valores que se desmembram do homem branco, europeu, heterossexual.
Diante disso, defendo que deve ser evitada uma tendência de culpabilização exclusiva sobre a IA. É preciso vasculhar o papel e o peso da responsabilidade humana em todo processo. Prega-se a IA by design, ou seja, o acompanhamento ético e multidisciplinar em todas as fases do desenvolvimento da IA. É preciso vencer a pressa com que o capital contamina as mentes dos desenvolvedores, por mais idealista que isto soe. Existe uma vasta literatura séria e não apenas noticiosa sobre esse tema que também está na agenda das buscas de regulamentação da IA de modo que seus desvios possam ser mitigados de modo antecipado. Recentemente, veio à tona o tema da governança da IA, com regras imprescindíveis ao seu funcionamento saudável.
Mas as coisas se complicam ainda mais, quando se pensa no uso da IA generativa. Embora a regulamentação da IA seja mandatória já que deverá conter as necessárias traves éticas para o seu uso e possível abuso, a IA generativa implica um nível ético muito mais sutil que transcende o crivo de regulamentações para o uso coletivo. Deixo os detalhes dessa afirmação para a resposta de uma pergunta que vem mais abaixo.
Embora a regulamentação da IA seja mandatória já que deverá conter as necessárias traves éticas para o seu uso e possível abuso, a IA generativa implica um nível ético muito mais sutil que transcende o crivo de regulamentações para o uso coletivo – Lucia Santaella
Tweet. IHU – Como as áreas de produção humana relacionadas à linguagem são impactadas pela IA?
Lucia Santaella – A linguagem é constitutiva do humano. Não por acaso, para Heidegger, a linguagem é a casa do ser. Sábia é a Bíblia ao declarar que “no princípio era o verbo”. Embora o verbo seja Jesus, podemos também ler de modo laico ao considerar que ser Sapiens significa estar dotado das faculdades de linguagem. Quer dizer, faculdades semióticas da linguagem que não se limitam ao verbo, mas avançam por todas as linguagens sonoras, visuais e verbais que chamo de Matrizes de linguagem e pensamento (Iluminuras, 2012, 2. ed.). Ora, quando um sistema artificial é capaz de falar, conversar, estabelecer diálogos, produzir sons e imagens, evoluir para produções multimidiáticas, o que tudo isso pode significar para o humano? Tanto quanto posso ver, essa emergência imitativa do humano, naquilo que o humano tem de mais humanamente seu, ao fim e ao cabo, coloca em questão o próprio ser do humano. É a ontologia do humano, afinal o que somos, no que passamos a nos constituir que é posto sob interrogação.
É claro que não faltam atrapalhações diante disso. A mais comum dentre elas é aquela que transpõe para o artificial características que são estritamente humanas e que costuma ser chamada de antropomorfização da IA. Isso é um equívoco, pois só nos afasta do entendimento do próprio humano. Embora tenha um eficiente poder imitativo, toda a potência da IA encontra-se em suas habilidades de simulação. Ela simula qualquer coisa, inclusive, ela erra, tanto ou menos do que o humano, o que só aumenta sua capacidade de nos enganar como se fosse gente.
Os impactos produzidos são incomensuráveis. Começam nos filosóficos, passam pelos sociais, culturais, econômicos, políticos até alcançarem os psíquicos. Mais do que isso, estamos atravessando um marco antropológico de amplíssimas dimensões.
Embora a regulamentação da IA seja mandatória já que deverá conter as necessárias traves éticas para o seu uso e possível abuso, a IA generativa implica um nível ético muito mais sutil que transcende o crivo de regulamentações para o uso coletivo – Lucia Santaella
Tweet. IHU – Neste cenário, quais são os principais dilemas éticos?
Lucia Santaella – Os dilemas éticos são tantos que fica difícil saber por onde começar para destacar quais são os principais. Antes de tudo, os dilemas começam na infeliz simplificação e vulgarização pela qual a ética vem passando. Fala-se em ética sem que se saiba muito bem o que é ética, pois tudo parece ficar limitado a algumas regrinhas de bom comportamento. Um grande autor que tocou nos pontos nevrálgicos da ética contemporânea e de suas complexas diferenças culturais, antes mesmo do advento da IA bem-sucedida, é Richard Rorty que, infelizmente, neste mundo das modas intelectuais, vem sendo esquecido. Com a chegada da IA, as questões se complicaram sobremaneira.
Ora, existe uma ciência da ética, uma filosofia da ética e existem as éticas práticas. É lugar comum que os teóricos e críticos apontem como questões éticas fundamentais a responsabilização, a transparência, o preconceito e a privacidade. Embora elas sempre tenham sido questões éticas, agora elas adquiriram feições expandidas. Portanto, faz parte da ética da IA detectar preconceitos, proteger a privacidade, exigir transparência, apontar riscos, orientar políticas públicas. Isso não implica deixar de defender a necessidade de regulamentação que é mandatória na medida em que deve estabelecer as bases sobre as quais a ética irá agir.
Entretanto, se formos mais longe, é possível verificar que, no que diz respeito à IA generativa, tudo isso não é ainda suficiente. Isto porque a IA generativa é uma IA de uso pessoal. Fazemos com ela o que nos aprouver. Ela está à mão para quaisquer tipos de tarefas. Ela não lava nossas roupas, nem arruma nossas camas, mas para questões que envolvem linguagem, a IA generativa está de prontidão, com uma disponibilidade com que nenhum ser humano pode competir. Nesse caso, a ética atinge níveis de sutileza que não cabem em regras, já que se trata de uma ética internalizada que depende de uma educação para a ética.
IHU – Pode explicar a diferença entre IA preditiva e IA generativa?
Lucia Santaella – Bem lembrado. Desafortunadamente, quando se entra no tema da IA, nem todos se preocupam com a diferença, para mim, fundamental entre, de um lado, a IA preditiva, classificatória, que é a menina dos olhos do mundo corporativo, já que a detecção de padrões e de correlações ajuda e apressa tomadas de decisões e, de outro lado, a IA generativa. É claro que elas se misturam, mas isso não apaga suas diferenças fundamentais.
Sintetizando: a IA preditiva ingere grandes volumes de dados históricos de diferentes fontes, relevantes para o problema que lhe é colocado. Então os algoritmos de aprendizado de máquina analisam esses dados buscando tendências, padrões e relacionamentos entre variáveis. Isso não seria possível sem a modelagem estatística, ou seja, várias técnicas estatísticas e de aprendizado de máquina para, a partir dos dados, treinar modelos que sejam preditivos, ou seja, modelos que sejam treinados com o propósito de alcançar determinado resultado.
Em seguida, vem a fase da validação do modelo. Para isso, a exatidão e a precisão dos modelos são não apenas rigorosamente testadas, quanto também os modelos são refinados até que o nível desejado de desempenho preditivo seja alcançado. A seguir, com os modelos razoavelmente precisos, passa-se para a simulação de cenário, quando diferentes cenários são simulados para o ajustamento dos parâmetros de entrada de modo a estimar previsões sob diversas condições. A etapa posterior é a da implantação do modelo em ambientes de produção, o que não impede que novos dados sejam continuamente inseridos nos modelos para gerar insights preditivos atualizados...
Por fim, vem a integração de processos dos insights preditivos “aos processos de negócios e fluxos de trabalho por meio de painéis, alertas APIs, etc., para permitir a tomada de decisões orientada por dados com base nas previsões do modelo”. Todo esse percurso torna a IA preditiva poderosa e valiosa para as corporações e organizações atuais, com o surplus de que os modelos tornam-se mais inteligentes com o tempo, à medida que processam mais informações.
A IA generativa, por sua vez, embora ainda se utilize de aprendizagem de máquina e redes neurais, está voltada para a criação de conteúdo novo e original, como imagens, texto e outras mídias, aprendendo com os padrões de dados existentes. Ela é um subconjunto do aprendizado profundo, mas de um tipo diferente, chamado de Modelo Gerativo que aprende com um conjunto subjacente de dados para gerar novos dados que imitam de perto os dados originais. Por meio do emprego de aprendizagem não supervisionada, esses modelos são usados principalmente para criar novos conteúdos, como imagens, texto ou até mesmo música, semelhantes àquilo que pode ser criado por humanos. Por ter entrado na seara antes exclusivamente humana da conversação, a IA generativa vem provocando rodopios nas tradicionais concepções de criatividade, autoria, originalidade e autonomia, ferindo nas bases justo esses fatores que costumavam alimentar a autoestima e mesmo a arrogância humana.
Por ter entrado na seara antes exclusivamente humana da conversação, a IA generativa vem provocando rodopios nas tradicionais concepções de criatividade, autoria, originalidade e autonomia, ferindo nas bases justo esses fatores que costumavam alimentar a autoestima e mesmo a arrogância humana – Lucia Santaella
Tweet. IHU – Sabemos que há diferentes subconjuntos deste tipo de inteligência maquínica. Eu gostaria de sublinhar um deles, o Large Language Models – LLM, associado ao processamento de linguagem natural. O ChatGPT é baseado nessa linguagem. Quais são as potencialidades e os limites do LLM?
Lucia Santaella – Pela maneira veloz com que os LLMs vêm evoluindo e aumentando seus potenciais – veja-se agora a entrada no mercado dos Agentes de IA –, fica difícil prever seus limites. Não é por acaso que essa nova tendência da IA está provocando agitações. Antes dos agentes, os sistemas de IA necessitavam de intervenção humana para sua execução. Com eles, como o próprio adjetivo diz, a IA adquire a capacidade de iniciar ações de forma independente, tendo por base as suas avaliações de uma situação determinada. Isso os habilita a navegar em ambientes complexos e realizar tarefas com um nível de iniciativa e adaptabilidade surpreendente.
Equipados com aprendizado de máquina, processamento de linguagem natural e outras tecnologias de ponta, os Agentes de IA aprendem com dados, adaptam-se a novas informações e executam funções complexas de forma autônoma. Eles são de vários tipos, desde chatbots até robôs sofisticados para a área da saúde e da indústria, projetados para entender, analisar e responder a informações humanas, evoluindo constantemente para aprimorar suas capacidades.
Esses avanços são, de fato, assustadores, especialmente para aqueles que estão assistindo a tudo isso do lado de fora, ou seja, usuários não especialistas. Especialistas são aqueles que Martin Ford, no seu livro, justo com esse título, chama de Arquitetos da IA. São esses arquitetos que podem antecipar os riscos, inclusive. Não vem do acaso que alguns antigos desenvolvedores, como Geoffrey Hinton, tenham agora tirado o pé da canoa. Abandonaram suas posições para apontar para os perigos que se avizinham causados pelos efeitos da IA sobre o humano. Na verdade, eles veem o que não conseguimos ver. Conhecem os segredos dos encaminhamentos que as pesquisas podem tomar.
Não me canso de dizer que o presentismo é a praga cultural do nosso tempo. Junto com a arrogância de pessoas que se põem a falar e divulgar pseudossaberes, sobre aquilo que não conhecem como deveriam, forma-se uma mescla nefasta de desprezo pelo passado, pelas raízes que foram levando às condições em que ora estamos – Lucia Santaella
Tweet. IHU – Como superar o presentismo agudo do debate em torno da IA e pensá-la em sua complexidade e perspectiva futura?
Lucia Santaella – Não me canso de dizer que o presentismo é a praga cultural do nosso tempo. Junto com a arrogância de pessoas que se põem a falar e divulgar pseudossaberes, sobre aquilo que não conhecem como deveriam, forma-se uma mescla nefasta de desprezo pelo passado, pelas raízes que foram levando às condições em que ora estamos.
O passado vale pelas lições que nos dá. Ignorá-lo significa perder a capacidade de avaliar os potenciais e limites do presente. Não é casual a verdadeira mania que nos rodeia com as preocupações relativas ao futuro. Lançar-se com tanta pressa ao futuro pode levar, e leva, não só ao esquecimento do presente, mas à fuga dos desafios, dilemas e contradições que nos assombram. Mais confortável ficar sonhando com o futuro do que enfrentar as dificuldades que entravam o presente.
IHU – O que é possível vislumbrar sobre o humano e sobre o humanismo diante de um mundo marcado pela IA?
Lucia Santaella – Não renuncio à sugestão de que estamos atravessando um salto antropológico de profundas dimensões. A IA é o ponto em que hoje estamos, mas o humano é um ser em evolução. Basta não apenas olhar, mas se interessar pelo passado, nem precisa ir muito longe na arqueologia, pois a história da cultura nos permite dar conta dessa evidência.
Desde que a IA se instalou nas práticas e vida humanas, sem exagero, passamos a existir no vórtice de um furação. Não tenho vocação catastrofista nem profética. A única certeza que temos em relação ao futuro é que ele será diferente do que pensamos que ele será. Costumo acreditar na força maior da espécie humana que é a capacidade adaptativa. Com a IA, essa capacidade está sendo colocada à prova.
A tecnologia nunca foi algo externo ao humano, mas um complemento inseparável de nossa sobrevivência – Lucia Santaella
Tweet. IHU – Qual o papel da educação, dos educadores e da formação humanista no mundo atual?
Lucia Santaella – Os educadores sempre foram a alma das sociedades, e assim deveriam ser considerados. A cultura de um povo é medida pelo valor que é dado ao educador. A formação de gerações que brotam depende da transmissão segura e serena de pessoas vocacionadas para as tarefas educativas. Digo vocacionado porque são muitos fatores humanos envolvidos, como empatia, acolhimento, compreensão, amor pelo seu fazer, envolvimento, entrega psíquica e apego aos valores humanos que não podem ser levados de roldão.
Mas atravessamos tempos difíceis. O hiato geracional estreita-se e, ao mesmo tempo, alarga-se cada vez mais. Explico-me. Nós humanos nos tornamos hiper-híbridos e as crianças – difícil de explicar, mas é um fato – parecem já nascer adaptadas. A velocidade, a destreza e a flexibilidade motora com que se manipula o celular hoje funciona como um marcador etário. Fala-se de dependência, o que é um equívoco e revela uma incompreensão com o que está acontecendo e que costumo chamar de simbiose do humano e tecnologia. Não se trata aí de mera metáfora emprestada da biologia. Mais do que isso, estamos emaranhados nas tecnologias.
De resto, a tecnologia nunca foi algo externo ao humano, mas um complemento inseparável de nossa sobrevivência. A partir da revolução industrial, seguida da eletroeletrônica, o processo atingiu o pico que ora vivemos com a revolução digital que conduziu à IA. E não deve parar por aí, pois a quântica já está batendo às portas.
Segundo a Meta, que adquiriu o WhatsApp em 2014 por US$ 19 bilhões, os anúncios não irão interferir nas conversas pessoais de seus usuários. Eles serão exibidos na seção "Status", acessada pela aba "Atualizações", localizada à esquerda da tela. Dessa forma, eles estarão separados da área principal de mensagens.
A evolução da inteligência artificial (IA) ampliou paradoxos relacionados à segurança cibernética das instituições financeiras. O maior deles é o fato da tecnologia ser empregada tanto por criminosos, para seus ataques, quanto pelas empresas para se defenderem - só que com mais liberalidade pelos primeiros.
“Eles não têm regras e dispõem de tempo e ferramentas. Nós somos regulados, dependemos de curvas de aprendizados e dispomos de algumas tecnologias, não todas”, diz Leandro Granja, chief information security officer (Ciso) do Santander Brasil. Além disso, graças à IA os criminosos podem criar ataques adaptativos, com busca de vulnerabilidades e tentativas em sequência, além de fraudes baseadas em reproduções sintéticas de imagem ou voz (deep fakes).
Em contrapartida, a IA traz ferramentas para ampliar a capacidade de proteção, aumentando a velocidade de exploração de incidentes, a automação e a acurácia. “É necessário uma IA para identificar padrões e comportamentos de outra IA”, afirma Cristiano Adjuto, diretor de cyber security do Bradesco.
Outro paradoxo é a questão da soberania. O conceito é amplo e inclui desde a capacidade de um país contar com infraestrutura própria suficiente para suas necessidades digitais até o domínio do desenvolvimento que envolva decisões decorrentes do uso de IA, por exemplo. Isso ajudaria a assegurar a proteção de interesses envolvendo o processamento das enormes quantidades de dados exigidas para treinamento de grandes modelos de linguagem (LLMs), que estão na base da IA generativa.
Mesmo não sendo possível eliminar totalmente o uso de ferramental externo, é necessário buscar domínio sobre algoritmos, dados e processos tecnológicos e de negócios, como forma de garantir capacidade suficiente de monitoramento e rastreamento para mitigação em casos de ameaças. Por fim, resta o fator humano. Tanto cibersegurança quanto IA exigem talentos de ponta, mas eles são cada vez mais insuficientes para a demanda em crescimento.
É necessário uma IA para identificar padrões e comportamentos de outra IA” — Cristiano Adjuto A Pesquisa Febraban de Tecnologia Bancária, realizada pela Deloitte, indica que, este ano, o quesito segurança e privacidade de ponta foi o que mais cresceu em prioridade nas estratégias das instituições. O item foi apontado como prioritário por 82% dos executivos de bancos em 2024, ante 59% no ano anterior. Um dos indicativos do esforço neste sentido é a presença de especialistas na área em 56% dos conselhos de administração e em 40% dos times (squads) das instituições participantes.
A evolução de agentes de IA também traz novos desafios. A possibilidade de uma IA tomar decisões pelo indivíduo, inclusive financeiras, como pagar uma conta, exige gestão de identidade e acesso - inclusive efêmera, como o uso de token exclusivamente para uma transação -, e supervisão. Em contrapartida, eles podem ajudar as empresas.
No Itaú Unibanco, agentes de IA estão sendo usados para aprimorar processos. “Montamos uma equipe com agentes no papel de analista, supervisor e gerente, para criticar o que foi definido pelo time. Temos ‘colaboradores de carbono’, os humanos, atuando junto dos de silício, os agentes”, diz o diretor de segurança corporativa Adriano Volpini. Times desafiantes checam se os agentes atuam como deveriam, em relação a fatores como privacidade, vieses e outros. Também apoiam as equipes de produtos como “especialistas” em segurança nas etapas de desenvolvimento, para garantir o conceito security by design (inserção de princípios de segurança desde a criação do produto ou serviço).
O banco também mirou soberania em seu movimento de adoção de fornecedor externo. Depois de firmar acordo para empregar computação em nuvem da AWS, em 2020, no ano passado anunciou a migração de 100% de seus sistemas para nuvem da provedora até 2028, inclusive aqueles que ainda rodam em mainframe.
“Esse movimento exige entender onde os dados vão ser processados. Dado é dinheiro”, diz Marcos Aurélio Rodrigues, gerente de arquitetura de segurança da informação do banco.
A decisão envolve “esmiuçar” onde e como os dados serão processados no fornecedor, com um diagrama de fluxo de dados detalhado e baseado em governança, observação e técnicas como tokenização e anonimização de dados. A descrição das medidas de proteção abrange análise de toda a cadeia de valor do provedor, desde geolocalização de onde os dados serão processados até condições para distrato. “Temos responsabilidade mesmo sobre o processamento externo”, afirma Rodrigues.
“Questões de soberania passam por toda a cadeia de infraestrutura crítica e envolvem o aspecto de observabilidade, não só da tecnologia, mas dos processos de negócio e de todas as pessoas envolvidas em cada situação”, observa Rodrigo Fernandes, diretor de práticas de segurança da Logicalis.
A força de trabalho, por sua vez, é o principal calcanhar de Aquiles quando se trata de segurança digital. Andréa Thomé, head do conselho da Women in Cybersecurity (WOMCY) no Brasil (organização que promove a presença feminina na área), estima que há 5,5 milhões de especialistas em cibersegurança no mundo, mas ainda existe demanda para mais 4,8 milhões.
Isso faz com que formação e retenção de talentos sejam essenciais, já que, além de conhecimento técnico multidisciplinar, os profissionais devem contar com habilidades como comunicação para explicar incidentes ou riscos, pensamento crítico para correlacionar informações e colaboração para atuar com times multidisciplinares. “É o job description de um super-herói, praticamente não existe”, diz Ana Carla Guimarães, diretora de recrutamento de executivos da Robert Half. Estratégias como adoção de trabalho remoto, para captar talentos de outras regiões, uso de mais automação e IA e consolidação de fornecedores, para reduzir o número de especializações necessárias, ajudam a equacionar o quadro.
A Totvs está testando uma “loja on-line” para vender agentes de inteligência artificial (IA) generativa aos clientes. Estão sendo oferecidos 10 agentes, desenvolvidos pela empresa. O agente de IA pode auxiliar empresas no uso de softwares de gestão e de relacionamento com clientes, por exemplo. A novidade, dizem analistas, é uma forma de levar a clientela para a nuvem computacional da Totvs.
Recentemente, a Billboard anunciou o lançamento de ferramenta do YouTube que permite a criação de trilhas sonoras geradas de forma automatizada por meio de uma IAG denominada Music Assistant.
A informação sobre a novidade foi originalmente divulgada no canal do YouTube “Creator Insider”. Segundo a descrição do próprio site, o Creator Insider caracteriza-se como um canal experimental que visa o compartilhamento de informações da equipe técnica da empresa com os seus criadores audiovisuais.
O Copyright Office dos EUA, agência federal designada a administrar a aplicação da legislação de direitos autorais do país, elaborou um questionário sobre direitos autorais e inteligência artificial entre agosto e dezembro de 2023. Este documento teve como resposta mais de dez mil comentários. Em atenção ao conteúdo coletado, bem como àquele discutido em seminários e audiências públicas, o órgão resolveu criar um relatório que será publicado em três partes independentes. A primeira parte, publicada dia 31 de julho de 2024, trouxe como tema as réplicas digitais, também chamadas de “deepfakes”.
Os grandes bancos do país, que historicamente ganharam mercado com a aberturas de agências, comemoram hoje o impacto positivo da inteligência artificial e da IA generativa (GenIA) sobre seus processos, produtos e serviços, redefinindo o modelo de negócios. Ferramentas tecnológicas de última geração deixaram de ser diferencial competitivo para fazer parte central da estratégia de expansão, e de sobrevivência. “Hoje, o que vemos é que, se os bancos não usarem IA e GenIA, já estão ficando para trás”, disse Edilson Reis, vice-presidente de tecnologia e diretor-executivo de inovação do Bradesco. Marisa Reghini, vice-presidente de negócios digitais e de tecnologia do Banco do Brasil, e Christian Fleming vice-presidente de tecnologia do BTG Pactual, seguem a mesma lógica, mas acrescentam que a IA precisa sair do mundo restrito das áreas de tecnologia para se expandir por toda a equipe dos bancos. “Se nossos profissionais não entenderem IA e GenIA não conseguiremos tirar todo o proveito desses avanços”, disse Reghini. O BB começou a introduzir o tema no ano passado, com um programa de treinamento de adesão voluntária, que resultou na inscrição de 25 mil funcionários de um total de 85 mil. Para os clientes, o banco lançou há pouco dias serviço de educação financeira a partir do monitoramento do comportamento dos correntistas, feito por IA. “Quando vemos que há uso excessivo do cheque especial, é oferecido ao cliente uma linha com juros mais baixos. Nove entre dez aceitam”, disse. Fleming enfatiza que se, antes os especialistas em TI precisam conhecer o mercado financeiro, hoje a situação se inverteu. “O business precisa entender de tecnologia.” Do ponto de vista dos chamados agentes (robôs que entregam respostas a partir de banco de dados), o grande desafio, a seu ver, será o de utilizar a GenIA para entregar soluções sem interação humana. “A grande virada vai acontecer quando todo o business tiver coragem de usar os agentes de forma autônoma”, disse. No Bradesco, a Bia, assistente virtual criada em 2016, cresceu e gerou filhos. Sua integração com a GenIA começou em agosto do ano passado e um de seus filhos, a Bia Cliente, já interage com 24 milhões de usuários no aplicativo, com resolução de 90% das chamadas. Na área de atendimento mais personalizado, fala com 3 milhões de clientes, solucionando cerca de 85% dos casos - apenas 15% são encaminhados para um técnico real. “Alguns clientes que derivam para o humano chegam a dizer: ‘Eu estava falando com seu colega e agora vou continuar falando com você’”, disse Edilson Reis. A assistente virtual também responde dúvidas dos 80 mil funcionários do banco sobre as centenas de processos, normas e regulamentos. Os próximos passos, já em teste, contemplam o uso com multiagentes (robôs que trabalham juntos para resolver problemas complexos) na parte de modelagem de dados. Um dos exemplos é o modelo RendaBra, utilizado para avaliar comportamento e renda do cliente com vistas à concessão de crédito mais adequado, em que foi possível melhorar a produtividade em 95% em relação ao trabalho desenvolvido por um grupo de especialistas, que passou meses desenvolvendo os modelos. “Caímos de meses para horas”, conclui Cíntia Barcelos de Souza, diretora-executiva de tecnologia do Bradesco. O impacto desses investimentos será sentido pelos clientes com a oferta de produtos e serviços cada vez mais personalizada. Avanços à parte, há riscos a se considerar. Richard Flavio da Silva, vice-presidente de tecnologia do Santander Brasil e presidente da First Digital Service, chamou a atenção para a necessidade de maior segurança e ferramentas contra fraudes, já que tanto a IA quanto a GenIA também tem sido usadas para aprimorar tentativas e golpes com a mesma velocidade. “Há clones digitais utilizados pelo crime que permitem ao fraudador explorar de forma muito mais facilitada... Cabe a nós aprimorar a segurança. O trabalho do humano não é de copiloto, é o de piloto”, disse. Além de no atendimento ao cliente e no desenvolvimento de produtos, o Santander vem utilizando a IA na interpretação de resultados e na proposta de soluções de engenharia. “É um momento de transformação sem paralelo desde o boom da internet.” Pedro Pedrosa, diretor-executivo da Caixa, ressaltou que o uso de IA e GenIA levou a ganhos de eficiência relevantes. A automatização de processos, por exemplo, aumentou o volume de análises, que era de, no máximo, dois por dia, para 20. Apesar dos avanços, ele chamou a atenção para a necessidade de precisão nos projetos, além de liderança competente, a fim de que resultem em impacto efetivo para os clientes.
Na contramão dos que apostam na inteligência artificial (IA) generativa como a nova infraestrutura da economia, o economista Paul Romer faz sérios questionamentos à tecnologia, e não recomenda seu uso no estágio atual e da forma como tem sido desenvolvida. Sua apresentação, em 12 de junho, foi um dos destaques da Febraban Tech. “O nível de precisão dos modelos de IA é entre 50% e 60% e ninguém quer uma resposta que está perto de ser confiável, quer uma resposta confiável, mas esses modelos não conseguem entregar isso”, afirma. Romer, que venceu o prêmio Nobel em economia em 2018, é taxativo em dizer que os modelos não estão melhorando para chegar a 100% de precisão e estão sendo alimentandos cada vez mais com dados. Ele acredita que o problema decorre de um conceito matemático chamado explosão combinatória. Professor universitário no Boston College, onde dirige o novo Centro para a Economia das Ideias da instituição, Romer lembra que, historicamente, os seres humanos criaram instituições, sistemas sociais, que ajudam as pessoas a progredirem com a verdade. “O sistema da ciência que emergiu depois da revolução cientifica é de longe o mais importante e o sistema tradicional ajuda a estabelecer a verdade. Uma das preocupações que eu quero levantar é será que esses sistemas vão continuar a funcionar no futuro? Qual o efeito que a IA pode ter?”, indaga. O economista ilustra suas ideias com alguns exemplos para mostrar que a “IA pode produzir frases que parecem ter sentido”, mas nem sempre a informação é verídica, e destaca que é “importante tomar decisões com base em informações que sejam verdadeiras.” Um dos casos que ele relata é de um advogado da startup de GenIA americana Anthropic, que usou a ferramenta da própria empresa para escrever um processo judicial, mas quando não encontrou um link, a IA inventou uma citação, percebida pelo juiz, comprometendo a reputação do advogado e da empresa. Outro exemplo dado por ele foi o incidente envolvendo um carro autônomo da Tesla, que trafegava por uma estrada e, quando a visibilidade da câmera foi ofuscada pela luz do sol, atropelou e matou uma mulher. “São coisas que temos que pensar quando cometem um erro com IA. A gente não tomou cuidado em pensar o que é progredir com a IA e em um sistema de machine learning que interaja com o usuário em particular e juntos eles farão alguma coisa. Os atores corporativos poderosos, que querem ganhar dinheiro com a IA, conduzem para ir além do que a IA pode fazer”, critica. O economista cita ainda o chamado problema de “alucinação em IA”, que ocorre quando o modelo, ao tentar preencher lacunas ou gerar informações, apresenta resultados irreais. “Se não sabe a resposta, invente uma. O alerta da alucinação existe há 20 anos e isso não ficou muito melhor. Se você pensa que pode ligar um modelo de aprendizado de máquina de IA e conseguir uma resposta certa em uma questão importante, foi enganado sobre algo que simplesmente não é verdade.” A conclusão do economista é que a IA é interessante, faz coisas incríveis, mas ainda é muito fraca. “E temos que tomar cuidado com pessoas que querem ganhar dinheiro e querem que vocês paguem por uma ferramenta que é perigosa agora e que está sendo usada para escrever documentos, por exemplo, ou desenvolver artigos.” Na sua opinião, os governos deveriam dar suporte ao desenvolvimento dos modelos de IA, as empresas e os cientistas da computação deveriam abrir o que estão aprendendo para tornar as informações públicas e os erros precisariam ser discutidos. “Todos os modelos de linguagem deveriam ser de fonte aberta”, defende. As recomendações de Romer, feitas em palestra para o setor financeiro, são para que experimentem a ferramenta e, após usar, avaliem se a experimentação de fato tem algum benefício. “Daqui a 10 anos a gente se encontra de novo e vê onde a gente está. Mas por enquanto, quando eu escrevo um código, nunca uso IA e recomendo que também não o façam.”
This Outlook report, prepared by the European Commission’s Joint Research Centre (JRC), examines the transformative role of Generative AI (GenAI) with a specific emphasis on the European Union. It highlights the potential of GenAI for innovation, productivity, and societal change. GenAI is a disruptive technology due to its capability of producing human-like content at an unprecedented scale. As such, it holds multiple opportunities for advancements across various sectors, including healthcare, education, science, and creative industries. At the same time, GenAI also presents significant challenges, including the possibility to amplify misinformation, bias, labour disruption, and privacy concerns. All those issues are cross-cutting and therefore, the rapid development of GenAI requires a multidisciplinary approach to fully understand its implications. Against this context, the Outlook report begins with an overview of the technological aspects of GenAI, detailing their current capabilities and outlining emerging trends. It then focuses on economic implications, examining how GenAI can transform industry dynamics and necessitate adaptation of skills and strategies. The societal impact of GenAI is also addressed, with focus on both the opportunities for inclusivity and the risks of bias and over-reliance. Considering these challenges, the regulatory framework section outlines the EU’s current legislative framework, such as the AI Act and horizontal Data legislation to promote trustworthy and transparent AI practices. Finally, sector-specific ‘deep dives’ examine the opportunities and challenges that GenAI presents. This section underscores the need for careful management and strategic policy interventions to maximize its potential benefits while mitigating the risks. The report concludes that GenAI has the potential to bring significant social and economic impact in the EU, and that a comprehensive and nuanced policy approach is needed to navigate the challenges and opportunities while ensuring that technological developments are fully aligned with democratic values and EU legal framework.
A Inteligência Artificial (IA) apresenta um potencial significativo para aprimorar a acessibilidade e a inclusão de estudantes que são público-alvo da educação especial nas Instituições de Ensino Superior (IES) 1 . A IA pode ser empregada para criar ambientes de aprendizagem mais adaptáveis e personalizados, atendendo a uma variedade de estilos e necessidades educacionais.
To get content containing either thought or leadership enter:
To get content containing both thought and leadership enter:
To get content containing the expression thought leadership enter:
You can enter several keywords and you can refine them whenever you want. Our suggestion engine uses more signals but entering a few keywords here will rapidly give you great content to curate.