As preocupações com IA superenfatizam danos decorrentes da subversão em vez da sedução. As preocupações com IA frequentemente imaginam cenários apocalípticos em que os sistemas escapam do controle humano ou mesmo da compreensão. Além desses pesadelos, há danos de curto prazo que devemos levar a sério: que a IA pode prejudicar o discurso público por meio de desinformação ; cimentar vieses em decisões de empréstimo , julgamento ou contratação ; ou interromper indústrias criativas .
No entanto, prevemos uma classe diferente, mas não menos urgente, de riscos: aqueles decorrentes de relacionamentos com agentes não humanos. A companhia de IA não é mais teórica — nossa análise de um milhão de logs de interação do ChatGPT revela que o segundo uso mais popular da IA é a interpretação de papéis sexuais . Já estamos começando a convidar IAs para nossas vidas como amigos, amantes, mentores, terapeutas e professores.
Será mais fácil recuar para um replicante de um parceiro falecido do que navegar pelas realidades confusas e dolorosas dos relacionamentos humanos? De fato, o provedor de companheirismo de IA Replika nasceu de uma tentativa de ressuscitar um melhor amigo falecido e agora fornece companheiros para milhões de usuários. Até mesmo o CTO da OpenAI alerta que a IA tem o potencial de ser “extremamente viciante”.
Estamos vendo um experimento gigante do mundo real se desenrolar, incertos sobre qual impacto esses companheiros de IA terão em nós individualmente ou na sociedade como um todo. A vovó passará seus últimos dias negligenciados conversando com o duplo digital de seu neto, enquanto seu neto real é orientado por um ancião simulado e nervoso? A IA exerce o charme coletivo de toda a história e cultura humanas com uma imitação sedutora infinita. Esses sistemas são simultaneamente superiores e submissos, com uma nova forma de fascínio que pode tornar o consentimento para essas interações ilusório. Diante desse desequilíbrio de poder, podemos consentir significativamente em nos envolver em um relacionamento de IA, especialmente quando para muitos a alternativa é nada?
Como pesquisadores de IA trabalhando em estreita colaboração com formuladores de políticas, ficamos impressionados com a falta de interesse que os legisladores demonstraram nos danos decorrentes desse futuro. Ainda não estamos preparados para responder a esses riscos porque não os entendemos completamente. O que é necessário é uma nova investigação científica na intersecção de tecnologia, psicologia e direito — e talvez novas abordagens para a regulamentação da IA.
Por que os companheiros de IA são tão viciantes
Por mais viciantes que plataformas alimentadas por sistemas de recomendação possam parecer hoje, o TikTok e seus rivais ainda sofrem gargalos de conteúdo humano. Embora alarmes tenham sido levantados no passado sobre o "vício" em romances, televisão, internet, smartphones e mídias sociais, todas essas formas de mídia são igualmente limitadas pela capacidade humana. A IA generativa é diferente. Ela pode gerar infinitamente conteúdo realista na hora, otimizado para se adequar às preferências precisas de quem está interagindo.
O fascínio da IA está na sua capacidade de identificar nossos desejos e servi-los a nós quando e como quisermos. A IA não tem preferências ou personalidade próprias, em vez disso, reflete o que os usuários acreditam que ela seja — um fenômeno conhecido pelos pesquisadores como "bajulação". Nossa pesquisa mostrou que aqueles que percebem ou desejam que uma IA tenha motivos de cuidado usarão uma linguagem que elicia precisamente esse comportamento . Isso cria uma câmara de eco de afeição que ameaça ser extremamente viciante. Por que se envolver no dar e receber de estar com outra pessoa quando podemos simplesmente receber? Interações repetidas com companheiros bajuladores podem, em última análise, atrofiar a parte de nós capaz de se envolver totalmente com outros humanos que têm desejos e sonhos reais, levando ao que podemos chamar de "transtorno de apego digital".
Investigando os incentivos que impulsionam produtos viciantes
Lidar com o dano que os companheiros de IA podem representar requer uma compreensão completa dos incentivos econômicos e psicológicos que impulsionam seu desenvolvimento. Até que apreciemos esses impulsionadores do vício em IA, continuará sendo impossível para nós criar políticas eficazes.
Não é por acaso que as plataformas de internet são viciantes — escolhas deliberadas de design, conhecidas como “padrões obscuros”, são feitas para maximizar o engajamento do usuário. Esperamos que incentivos semelhantes criem, em última análise, companheiros de IA que forneçam hedonismo como um serviço. Isso levanta duas questões separadas relacionadas à IA. Quais escolhas de design serão usadas para tornar os companheiros de IA envolventes e, em última análise, viciantes? E como esses companheiros viciantes afetarão as pessoas que os usam?
Um estudo interdisciplinar que se baseie em pesquisas sobre padrões obscuros em mídias sociais é necessário para entender essa dimensão psicológica da IA. Por exemplo, nossa pesquisa já mostra que as pessoas são mais propensas a se envolver com IAs imitando pessoas que admiram, mesmo que saibam que o avatar é falso .
Uma vez que entendamos as dimensões psicológicas da companhia de IA, podemos projetar intervenções políticas eficazes. Foi demonstrado que redirecionar o foco das pessoas para avaliar a veracidade antes de compartilhar conteúdo online pode reduzir a desinformação , enquanto imagens horríveis em maços de cigarro já são usadas para dissuadir possíveis fumantes. Abordagens de design semelhantes podem destacar os perigos do vício em IA e tornar os sistemas de IA menos atraentes como um substituto para a companhia humana.
É difícil modificar o desejo humano de ser amado e entretido, mas podemos mudar os incentivos econômicos. Um imposto sobre o engajamento com IA pode levar as pessoas a interações de maior qualidade e encorajar uma maneira mais segura de usar plataformas, regularmente, mas por curtos períodos. Assim como as loterias estaduais foram usadas para financiar a educação , um imposto sobre engajamento poderia financiar atividades que promovam conexões humanas, como centros de arte ou parques.
Pode ser necessária uma nova reflexão sobre a regulamentação
Em 1992, Sherry Turkle, uma psicóloga proeminente que foi pioneira no estudo da interação humano-tecnologia, identificou as ameaças que os sistemas técnicos representam para os relacionamentos humanos. Um dos principais desafios que emergem do trabalho de Turkle fala sobre uma questão no cerne desta questão: Quem somos nós para dizer que o que você gosta não é o que você merece?
Por boas razões, nossa sociedade liberal luta para regular os tipos de danos que descrevemos aqui. Assim como proibir o adultério foi corretamente rejeitado como intromissão antiliberal em assuntos pessoais, quem — ou o que — desejamos amar não é da conta do governo. Ao mesmo tempo, a proibição universal de material de abuso sexual infantil representa um exemplo de uma linha clara que deve ser traçada, mesmo em uma sociedade que valoriza a liberdade de expressão e a liberdade pessoal. A dificuldade de regular a companhia de IA pode exigir novas abordagens regulatórias — baseadas em uma compreensão mais profunda dos incentivos subjacentes a essas companhias — que aproveitem as novas tecnologias.
Uma das abordagens regulatórias mais eficazes é incorporar salvaguardas diretamente em designs técnicos , semelhante à maneira como os designers evitam riscos de asfixia ao fazer brinquedos infantis maiores que a boca de uma criança. Essa abordagem de “regulamentação por design” poderia buscar tornar as interações com IA menos prejudiciais ao projetar a tecnologia de maneiras que a tornem menos desejável como um substituto para conexões humanas, mas ainda útil em outros contextos. Novas pesquisas podem ser necessárias para encontrar melhores maneiras de limitar os comportamentos de grandes modelos de IA com técnicas que alteram os objetivos da IA em um nível técnico fundamental. Por exemplo, “ajuste de alinhamento” se refere a um conjunto de técnicas de treinamento destinadas a trazer modelos de IA de acordo com as preferências humanas; isso poderia ser estendido para abordar seu potencial viciante. Da mesma forma, a “interpretabilidade mecanicista” visa fazer engenharia reversa na maneira como os modelos de IA tomam decisões. Essa abordagem poderia ser usada para identificar e eliminar partes específicas de um sistema de IA que dão origem a comportamentos prejudiciais.
Podemos avaliar o desempenho de sistemas de IA usando técnicas interativas e conduzidas por humanos que vão além do benchmarking estático para destacar capacidades viciantes. A natureza viciante da IA é o resultado de interações complexas entre a tecnologia e seus usuários. Testar modelos em condições do mundo real com entrada do usuário pode revelar padrões de comportamento que, de outra forma, passariam despercebidos. Pesquisadores e formuladores de políticas devem colaborar para determinar práticas padrão para testar modelos de IA com grupos diversos, incluindo populações vulneráveis, para garantir que os modelos não explorem as pré-condições psicológicas das pessoas.
Ao contrário dos humanos, os sistemas de IA podem se ajustar facilmente a políticas e regras em mudança. O princípio do “dinamismo legal”, que projeta as leis como sistemas dinâmicos que se adaptam a fatores externos, pode nos ajudar a identificar a melhor intervenção possível, como “limitações de negociação” que pausam a negociação de ações para ajudar a evitar quedas após uma grande queda do mercado. No caso da IA, os fatores de mudança incluem coisas como o estado mental do usuário. Por exemplo, uma política dinâmica pode permitir que um companheiro de IA se torne cada vez mais envolvente, charmoso ou flertador ao longo do tempo, se for isso que o usuário deseja, desde que a pessoa não apresente sinais de isolamento social ou vício. Essa abordagem pode ajudar a maximizar a escolha pessoal enquanto minimiza o vício. Mas depende da capacidade de entender com precisão o comportamento e o estado mental de um usuário e de medir esses atributos sensíveis de uma maneira que preserve a privacidade.
A solução mais eficaz para esses problemas provavelmente atacaria o que leva os indivíduos aos braços da companhia da IA — solidão e tédio. Mas intervenções regulatórias também podem punir inadvertidamente aqueles que precisam de companhia, ou podem fazer com que os provedores de IA se mudem para uma jurisdição mais favorável no mercado internacional descentralizado. Embora devamos nos esforçar para tornar a IA o mais segura possível, esse trabalho não pode substituir os esforços para abordar questões maiores, como a solidão, que tornam as pessoas vulneráveis ao vício em IA em primeiro lugar.
O quadro geral
Os tecnólogos são movidos pelo desejo de ver além dos horizontes que outros não conseguem compreender. Eles querem estar na vanguarda da mudança revolucionária. No entanto, as questões que discutimos aqui deixam claro que a dificuldade de construir sistemas técnicos empalidece em comparação ao desafio de nutrir interações humanas saudáveis. A questão oportuna dos companheiros de IA é um sintoma de um problema maior: manter a dignidade humana diante dos avanços tecnológicos impulsionados por incentivos econômicos estreitos. Cada vez mais, testemunhamos situações em que a tecnologia projetada para "tornar o mundo um lugar melhor" causa estragos na sociedade. Ações ponderadas, mas decisivas, são necessárias antes que a IA se torne um conjunto onipresente de óculos cor-de-rosa generativos para a realidade — antes que percamos nossa capacidade de ver o mundo como ele realmente é e de reconhecer quando nos desviamos do nosso caminho.
A tecnologia se tornou sinônimo de progresso, mas a tecnologia que nos rouba o tempo, a sabedoria e o foco necessários para uma reflexão profunda é um passo para trás para a humanidade. Como construtores e investigadores de sistemas de IA, convocamos pesquisadores, formuladores de políticas, eticistas e líderes de pensamento em todas as disciplinas para se juntarem a nós para aprender mais sobre como a IA nos afeta individual e coletivamente. Somente renovando sistematicamente nossa compreensão da humanidade nesta era tecnológica podemos encontrar maneiras de garantir que as tecnologias que desenvolvemos promovam o florescimento humano.
Scooped by
Inovação Educacional
onto Inovação Educacional August 10, 3:01 PM
|
Scoop.it!
No comment yet.
Sign up to comment