O guia é um compilado analítico de 15 documentos, que irá auxiliar você nas possibilidades de aplicação da IA, oferecendo parâmetros, diretrizes éticas e critérios de usabilidade.
O que acontece quando a maioria faz uso de uma IA para realizar suas atividades laborais? E, no caso dos estudantes, quando os trabalhos passam a ser produzidos com o apoio de uma IA generativa? Luciano Sathler É PhD em administração pela USP e membro do Conselho Deliberativo do CNPq e do Conselho Estadual de Educação de Minas Gerais As diferentes aplicações de Inteligência Artificial (IA) generativa são capazes de criar novos conteúdos em texto, imagens, áudios, vídeos e códigos para software. Por se tratar de um tipo de tecnologia de uso geral, a IA tende a ser utilizada para remodelar vários setores da economia, com impactos políticos e sociais, assim como aconteceu com a adoção da máquina a vapor, da eletricidade e da informática. Pesquisas recentes demonstram que a IA generativa aumenta a qualidade e a eficiência da produção de atividades típicas dos trabalhadores de colarinho branco, aqueles que exercem funções administrativas e gerenciais nos escritórios. Também traz maior produtividade nas relações de suporte ao cliente, acelera tarefas de programação e aprimora mensagens de persuasão para o marketing. O revólver patenteado pelo americano Samuel Colt, em 1835, ficou conhecido como o "grande equalizador". A facilidade do seu manuseio e a possibilidade de atirar várias vezes sem precisar recarregar a cada disparo foram inovações tecnológicas que ampliaram a possibilidade individual de ter um grande potencial destrutivo em mãos, mesmo para os que tinham menor força física e costumavam levar desvantagem nos conflitos anteriores. À época, ficou famosa a frase: Abraham Lincoln tornou todos os homens livres, mas Samuel Colt os tornou iguais. Não fazemos aqui uma apologia às armas. A alegoria que usamos é apenas para ressaltar a necessidade de investir na formação de pessoas que sejam capazes de usar a IA generativa de forma crítica, criativa e que gerem resultados humanamente enriquecidos. Para não se tornarem vítimas das mudanças que sobrevirão no mundo do trabalho. A IA generativa é um meio viável para equalizar talentos humanos, pois pessoas com menor repertório cultural, científico ou profissional serão capazes de apresentar resultados melhores se souberem fazer bom uso de uma biblioteca de prompts. Novidade e originalidade tornam-se fenômenos raros e mais bem remunerados. A disseminação da IA generativa tende a diminuir a diversidade, reduz a heterogeneidade das respostas e, consequentemente, ameaça a criatividade. Maior padronização tem a ver com a automação do processo. Um resultado que seja interessante, engraçado ou que chama atenção pela qualidade acima da média vai passar a ser algo presente somente a partir daqueles que tiverem capacidade de ir além do que as máquinas são capazes de entregar. No caso dos estudantes, a avaliação da aprendizagem precisa ser rápida e seriamente revista. A utilização da IA generativa extrapola os conceitos usualmente associados ao plágio, pois os produtos são inéditos – ainda que venham de uma bricolagem semântica gerada por algoritmos. Os relatos dos professores é que os resultados melhoram, mas não há convicção de que a aprendizagem realmente aconteceu, com uma tendência à uniformização do que é apresentado pelos discentes. Toda Instituição Educacional terá as suas próprias IAs generativas. Assim como todos os professores e estudantes. Estarão disponíveis nos telefones celulares, computadores e até mesmo nos aparelhos de TV. É um novo conjunto de ferramentas de produtividade. Portanto, o desafio da diferenciação passa a ser ainda mais fundamental diante desse novo "grande equalizador". Se há mantenedores ou investidores sonhando com a completa substituição dos professores por alguma IA já encontramos pesquisas que demonstram que o uso intensivo da Inteligência Artificial leva muitos estudantes a reduzirem suas interações sociais formais ao usar essas ferramentas. As evidências apontam que, embora os chatbots de IA projetados para fornecimento de informações possam estar associados ao desempenho do aluno, quando o suporte social, bem-estar psicológico, solidão e senso de pertencimento são considerados, isso tem um efeito negativo, com impactos piores no sucesso, bem-estar e retenção do estudante. Para não cair na vala comum e correr o risco de ser ameaçado por quem faz uso intensivo da IA será necessário se diferenciar a partir das experiências dentro e fora da sala de aula – online ou presencial; humanizar as relações de ensino-aprendizagem; implementar metodologias que privilegiem o protagonismo dos estudantes e fortaleçam o papel do docente no processo; usar a microcertificação para registrar e ressaltar competências desenvolvidas de forma diferenciada, tanto nas hard quanto soft skills; e, principalmente, estabelecer um vínculo de confiança e suporte ao discente que o acompanhe pela vida afora – ninguém mais pode se dar ao luxo de ter ex-alunos. Atenção: esse artigo foi exclusivamente escrito por um ser humano. O editor, Michael França, pede para que cada participante do espaço "Políticas e Justiça" da Folha sugira uma música aos leitores. Nesse texto, a escolhida por Luciano Sathler foi "O Ateneu" de Milton Nascimento.
Líderes autoritários ocupam brechas deixadas pelo pensamento crítico, razão e autonomia dos sujeitos, operando como seus superegos, que falarão e agirão em seu nome. Neofascismo brasileiro cresce no solo da escravidão e da colonização exploratória
As empresas que desenvolvem modelos de Inteligência Artificial – IA prometem inovações, facilidades à vida cotidiana e maneiras de tornar o trabalho mais simples, mas nestas discussões há o outro lado: a IA traz consigo diversas contradições em relação aos impactos sociais, ambientais e o mundo do trabalho. É a partir destas problemáticas que o Prof. Dr. Levi Checketts ministrou sua palestra intitulada “Tecnologia e desigualdade multidimensional. IA e a experiência da pobreza”. Ela faz parte do ciclo de estudos Inteligência Artificial. Potencialidades, desigualdades e o risco existencial humano do Instituto Humanitas Unisinos – IHU.
Em sua fala, Levi Checketts afirmou que os pobres são excluídos das discussões sobre IA. “A IA é desenvolvida em sociedades que desvalorizam os pobres. Nos EUA, por exemplo, país líder no desenvolvimento de IA, a aprovação moral é quase sinônimo de riqueza material. Um homem rico é um bom homem, e os pobres e sem-teto são considerados pobres de caráter também”, pontua.
Para ele, é difícil discutir direitos a máquinas e a IA enquanto há humanos que não usufruem de direitos humanos básicos para viver. “Devemos conceder direitos humanos a todos os humanos antes de estendê-los a não humanos”. A IA é vista como uma extensão do ser humano, uma imagem limpa do que imaginamos ser e é por isso que ela é mais confortável como alter ego para as elites do que os pobres. “Ser pobre, com todas as misérias que isso acarreta, é o maior desvalor de um sistema capitalista. As classes altas relacionam-se com os pobres apenas como aqueles que devem ser evitados, para que a contaminação não se instale”, diz.
Em relação às mudanças climáticas, Levi afirma que a ideia de que a IA resolverá todos os problemas do mundo é um erro. “Quando Eric Schmidt, ex-CEO do Google, afirma que a IA é a única solução para a mudança climática, devemos protestar vigorosamente: a IA é uma tecnologia extremamente dispendiosa em termos de energia e recursos, atualmente agravando a crise climática”.
A seguir, publicamos, no formato de entrevista, a conferência “Tecnologia e desigualdade multidimensional. IA e a experiência da pobreza”.
Levi Checketts é doutor em Filosofia e Teologia e professor da Hong Kong Baptist University, na China. Autor de “Poor Technology: Artificial Intelligence and the Experience of Poverty” [Tecnologia pobre: inteligência artificial e a experiência da pobreza, em tradução livre].
Professor analisa alguns desdobramentos geopolíticos e tecnológicos contemporâneos a partir das contribuições teóricas e metodológicas do geógrafo brasileiro Milton Santos
Nos filmes hollywoodianos de ficção científica, o fim da vida humana na Terra geralmente está associado à destruição causada pelas inteligências artificiais após sua ascensão ao poder. Essa maneira de pensar acaba nos cegando a uma realidade que nos cerca: as inteligências artificiais já fazem parte da nossa vida. “Se eu abro meu aplicativo bancário ou entro numa loja para fazer compras, estou sendo rastreado, parametrizado, com dados comportamentais sendo captados. Meu feed de notícias capta minhas fisionomias, meus traços faciais, para biometrizar essas informações. Eu tenho certos padrões de consumo, e as IAs rastreiam esses padrões para me oferecer promoções, por exemplo. Estamos o tempo todo dentro dessas padronizações, que hoje convencionamos chamar de algoritmos”, afirma Rodrigo Petronio.
Para debater os conceitos de Inteligência Artificial e suas inserções na vida humana contemporânea, Petronio proferiu a palestra “O que vem depois do humano. A tecnologia e as revoluções da vida”, parte do ciclo de estudos Inteligência Artificial. Potencialidades, desigualdades e o risco existencial humano, promovido pelo Instituto Humanitas Unisinos – IHU.
Na conferência, o escritor e filósofo comentou sobre a importância de diferenciar Inteligência Artificial (campo de conhecimento) de Inteligências Artificiais (práticas tecnológicas de grande, média ou pequena escala), além de, ao dialogar com pensadores como Edgar Morin, Stuart Russell, Luciano Floridi e outros, trazer as principais discussões e complexidades do campo sobre o tema das IAs.
Petronio destaca o papel do capitalismo e a utilização de inteligências artificiais feitas pela extrema-direita no mundo inteiro. Ao mesmo tempo que há iniciativas inovadoras e renovadoras em diversos campos, a ferramenta também é usada para propagar destruição. “Enquanto investigamos a IA em níveis de alta sofisticação e complexidade, por exemplo, na questão da consciência e da mente, ao mesmo tempo vemos essas tecnologias sendo capturadas por movimentos como a extrema-direita, visando mais devastação e redução, o que eu chamaria de ‘anticomplexidade’. Esse é um dos dilemas que me exaure no estudo das IA”, comenta.
“O ponto inicial, logo de saída, é que a abordagem da Bioética para as tecnologias de IA deve ser a mesma que a fez surgir no século passado; ou seja, quais os problemas éticos essa nova tecnologia vai trazer ao humano, à humanidade, à sociedade, ao ambiente? Quais são os riscos dessa nova tecnologia para o nosso futuro, para as gerações futuras? Como podemos evitar os malefícios? Como aumentar a autonomia humana com ela? Como utilizá-la em prol da justiça social, da equidade e de formas de democracia? Ou com outras abordagens éticas: como a IA pode contribuir para o florescer humano?”, questiona Luiz Vianna Sobrinho, que juntamente com Karla Figueiredo e Leandro Modolo organizaram o livro Artificial Intelligence and Bioethics: Perspectives (Routledge: 2025) e concederam entrevista por e-mail ao Instituto Humanitas Unisinos – IHU.
Para o pesquisador sobre ética e IA, é preciso desmistificar os episódios em que as máquinas parecem imitar o comportamento humano, já que nelas inexiste a intencionalidade deliberada de enganar, desinformar ou mesmo trapacear, e sim o propósito de responder à questão do interlocutor a qualquer custo
“É necessário preparar nossos sistemas de seguridade social para o futuro da IA, tendo em mente, porém, que a IA não tem seu próprio tipo de desenvolvimento determinista, como às vezes é retratada, mas se desenvolve com base em decisões e intervenções humanas. Temos a liberdade e o poder de conduzir a IA e torná-la mais ética. Devemos usar esse poder também como democracias”, propõe recordando que não estamos fadados a um destino irremediável.
Não foi só a pandemia que agravou a saúde mental dos jovens, em todo o mundo. Há sinais de que onipresença das redes sociais, falta de convivência em grupo, relações parentais e crises mundiais contribuam para a angústia.
'EU'. Ele tem 8 anos e já teve três celulares. O celular que ele carrega para todo lugar não tem acesso à internet, apenas videogames. No entanto, no tablet dele, que ele usa em casa ou no caminho para a escola, ele tem. Seu aplicativo favorito é o YouTube. “Os pais dela criaram a versão infantil, mas ela sabe como desligá-la”, diz sua tia. Até pouco tempo atrás eu também tinha o TikTok no meu celular, até que perceberam que o conteúdo desse aplicativo não era apropriado para crianças. Porém, no YouTube existe um formato muito parecido: os shorts, onde aparecem praticamente o mesmo tipo de vídeos. “Sim, eu posso estar vendo conteúdo inapropriado lá”, diz sua tia.
"Segundo estudo realizado em 2018 por pesquisadores da Universidade do Porto, em Portugal, por exemplo, doses orais relevantes de Ritalina podem aumentar o metabolismo cardíaco e cerebral, mas também podem provocar danos nos rins e no coração de adolescentes que fazem uso da droga", escrevem Genoveva Ribas Claro, coordenadora do Curso de Licenciatura e Bacharelado em Psicopedagogia do Centro Universitário Internacional UNINTER e Dinamara Pereira Machado, diretora da Escola Superior de Educação do Centro Universitário Internacional UNINTER, em artigo publicado por EcoDebate, 18-04-2018.
Ciclo de estudos: Inteligência Artificial. Potencialidades, desigualdades e o risco existencial humano. Com Prof. Dr. Levi Checketts – Hong Kong Baptist University – China
O direito à soberania alimentar, hoje aparentemente “natural” e óbvio, foi algo lutado e conquistado politicamente pela Via Campesina na década de 1990, reconhecido pela Organização das Nações Unidas – ONU e pelo Banco Mundial. Três décadas depois estamos diante de um desafio semelhante, mas desta vez associado aos direitos digitais.
“Soberania alimentar diz respeito ao direito dos povos e das comunidades comerem, cultivarem e cuidarem de sua alimentação sem o controle das megaempresas multinacionais, sem veneno, de modo agroecológico. As sociedades querem e podem definir o que comer. A soberania digital é a capacidade da nossa sociedade e do Estado definir, governar, e controlar as tecnologias indispensáveis à nossa autodeterminação, à nossa inventividade, tecnodiversidade e desenvolvimento”, afirma o professor e pesquisador Sérgio Amadeu, em entrevista por e-mail ao Instituto Humanitas Unisinos – IHU.
Tal proposição vai na contramão de uma espécie de monocultura do digital, em que todo o esforço das Big Techs é o de captura da psique das pessoas, tornando-as ativos financeiros rentabilíssimos ao grande capital, substituindo a biopolítica pela psicopolítica. “Segundo o filósofo [Byu Chul-Han], ultrapassamos a fase biopolítica, da disciplina do corpo da espécie, da população, agora se atua sobre a mente, sobre a psique, com técnicas de tentar decodificar todos humores e perspectivas a partir da análise preditiva de dados”, explica Amadeu.
As especulações em torno do desenvolvimento da Inteligência Artificial Geral (IAG), uma IA superior à desenvolvida até o momento, giram em torno não somente da capacidade de os algoritmos tomarem decisões melhores que as humanas em todas as áreas, mas quais seriam as consequências dessas decisões. Na avaliação de Alexandre Chiavegatto Filho, essas questões apontam para um risco existencial. Segundo ele, este risco “está relacionado ao fato de que não sabemos o que um ser mais inteligente do que nós irá fazer conosco. Existe a teoria otimista de que essa inteligência artificial será colaborativa, já que pessoas inteligentes quase nunca buscam poder e dominação, muito pelo contrário. E existe a teoria de que uma superinteligência artificial possa considerar os seres humanos, que a criaram, como uma ameaça e se vire contra nós”.
Na entrevista a seguir, concedida por e-mail ao Instituto Humanitas Unisinos – IHU, o pesquisador também comenta os efeitos do uso da IA na área da saúde. Por um lado, comenta, ela poderá contribuir para melhorar o prognóstico dos pacientes e ajudará as equipes de saúde a tomarem “decisões consideravelmente melhores”. Por outro lado, permitirá “o desenvolvimento da medicina humana, já que o médico que irá se diferenciar dos outros no futuro será aquele que fizer o que os algoritmos não fazem, ou seja, escutar, sentir e orientar os seus pacientes”.
Mudança epocal promovida pela Inteligência Artificial e seus usos deve ser balizada por critérios éticos, inseparáveis da Filosofia; contra a captura pela lógica da eficiência, inovação e lucro, a aplicação das tecnologias necessita de responsabilidade moral
A Inteligência Artificial e os drones “multiplicam drasticamente a capacidade da liderança militar obter informações atualizadas sobre as operações em todo o teatro de guerra, o que permite maior celeridade e rigor no acompanhamento e avaliação das forças e posições ocupadas no terreno, com implicações diretas na capacidade para centralizar a tomada de decisões e mobilizar e concentrar meios em áreas decisivas e em tempo útil”, explica ele.
Apesar do alto desenvolvimento tecnológico utilizado nas guerras, “não é a tecnologia que está no epicentro do processo: é o ser humano que reside, em última instância, no coração de tudo isto”, pontua o entrevistado. Para Junqueira, “uma das mais graves implicações” das novas tecnologias de guerra é o “surgimento de um grande ponto de interrogação sobre uma questão tão delicada como a da atribuição de responsabilidades por tragédias decorrentes do uso destas tecnologias”. Sobre este ponto, não são poucas as interrogações que emergem sem respostas claras: De quem é a responsabilidade pela fabricação e pelo uso de tais tecnologias? Quem se responsabiliza pelas vidas ceifadas e cidades destruídas? Qual é a responsabilidade daqueles que apoiam politicamente os países que recorrem ao uso desses artefatos?
“A criatividade em IA é limitada pelas informações, algoritmos e objetivos específicos programados por humanos. Pode-se observar se o sistema de IA é criativo se ele consegue gerar saídas que são novas, não vistas previamente ou incomuns dentro do contexto específico; se tem a capacidade de produzir saídas que são apropriadas, úteis e relevantes para o problema ou contexto em questão; se tem a habilidade de modificar e combinar ideias existentes para criar algo distinto e original”, explica a professora e pesquisadora Ana Hessel, em entrevista por e-mail ao Instituto Humanitas Unisinos – IHU.
Uma questão central é, precisamente, a dos direitos autorais. Não se trata, sob nenhuma medida, de um pleito neoliberal ou individualista de requerimento de royalties, mas de uma tomada de postos de trabalho em que a IA usa materiais produzido por humanos para que estas mesmas pessoas percam seu espaço no mercado de trabalho. “O crescimento vertiginoso da aplicação de inteligência artificial generativa aos processos criativos tem suscitado grandes debates acerca dos direitos autorais relacionados ao uso de sistemas dessa espécie”, aponta Hessel. “Para dar credibilidade nas suas publicações e garantir que os textos foram produzidos por humanos, alguns editores estão adotando o selo ‘AI free’, isto é, livre de IA. O gesto é visto como simbólico ou político, para valorizar a originalidade da obra, por razões éticas ou filosóficas”, complementa.
Por fim, Cantarini destaca que “ao invés de impor modelos algorítmicos baseados exclusivamente na racionalidade tecnocientífica ocidental, deveríamos desenvolver múltiplas ‘inteligências artificiais’ que reflitam diferentes formas de conhecimento e sabedoria, incluindo epistemologias indígenas, africanas, asiáticas e outras tradições não ocidentais. Iríamos do pensamento do cálculo, representacionista e reprodutivo para o poético, produtivo, criativo e múltiplo”.
Lançado em abril e um dos mais vendidos de não ficção entre os autores nacionais da editora, o livro trata de assuntos como comportamentos autodestrutivos, bullying, cyberbullying e psicopatologias que afligem crianças e adolescentes e se torna uma leitura, no mínimo, necessária para pais e professores que precisam adequar os currículos escolares às competências da Base Nacional Comum Curricular (BNCC) relacionadas à educação socioemocional. Professor e coordenador do Núcleo do Cuidado Humano da Universidade Federal Rural de Pernambuco (UFRPE), o autor afirma nesta entrevista que há algo muito errado nas famílias e no modelo de educação escolar no país. “Se um menino de 14 anos quer se matar, há algo nesse universo no qual ele está inserido que precisa ser repensado, precisa ser revisto”, aponta Ferreira, que foi responsável pelo treinamento dos atendentes do serviço Pode falar, canal de ajuda em saúde mental para jovens da UNICEF no Brasil.
Na época da desilusão cultural, da queda dos pontos firmes, dos monstros sagrados, das fronteiras desmoronadas, da consciência ética, do renascimento woke e da definição a todo custo, parece que as novas gerações estão tendo dificuldades para encontrar seu lugar na sociedade real e têm a tendência de viver individualmente na teia global e interconectada que as enreda. Em meio a dependências cada vez mais virtuais, narcisismo, crises de identidade, redução do indivíduo a “perfil” e busca por curtidas sem qualquer significado profundo, é fácil se perder e se confundir. É fácil não entender e, no caso da diferença entre gerações, a incompreensão é um clássico.
"Para evitar que uma criança se torne um jovem arrogante, sem educação, sem limites e noções básicas de civilidade, é preciso que os pais mudem seu modo de lidar com seu filho", escreve o prof. Dr. Mario Louzã, médico psiquiatra, doutor em Medicina pela Universidade de Würzburg, Alemanha. Membro Filiado do Instituto de Psicanálise da Sociedade Brasileira de Psicanálise de São Paulo, publicado por EcoDebate, 04-05-2018.
Ciclo de estudos: IHU ideias. Com Guilherme Tenher Rodrigues – IHU | Rejane Bastos – IHU | Lucas Luz – - Para receber certificação, você deverá realizar sua matrícula no site do evento e também assinar a lista de presença. As duas etapas são obrigatórias para a emissão do seu certificado. - O link para matrícula está disponível no endereço: https://www.ihu.unisinos.br/evento/ihu-ideias
To get content containing either thought or leadership enter:
To get content containing both thought and leadership enter:
To get content containing the expression thought leadership enter:
You can enter several keywords and you can refine them whenever you want. Our suggestion engine uses more signals but entering a few keywords here will rapidly give you great content to curate.