Sua próxima namorada será uma IA — O impacto das IA’s nos relacionamentos
Transcrição do vídeo
Introdução
Você teria coragem de dizer “eu te amo” a alguém que talvez nem exista? E se eu te dissesse que 80 % da geração Z está disposta a se casar com um parceiro feito por inteligência artificial? O mercado de “parceiros virtuais” já vale quase US$ 3 bilhões e deve triplicar antes do fim da década.
Esses números não são mera curiosidade. Pesquisas recentes mostram que os parceiros criados por inteligência artificial aliviam a solidão em poucos dias, mas também criam dependência psicológica a longo prazo, já que eles não te criticam e não te contradizem. Em paralelo, deepfakes cada vez mais convincentes dificultam diferenciar um sorriso real de um gerado por algoritmo — e a geração exposta a esses vídeos já demonstra uma dificuldade crescente em reconhecer rostos autênticos.
Além disso, toda uma nova área de entretenimento e capitalização estão surgindo. Grandes empresas estão fechando campanhas de publicidade com personagens criados inteiramente por inteligência artificial. Se esse programa passasse na tv aberta, sua tia e sua vó, ou muitos de nós, não teriam a menor dúvida de que são pessoas reais.
A possibilidade de reconstruir eventos históricos também estão ganhando destaque. Sem falar que, daqui a alguns anos, quem sabe não podemos criar nosso próprio filme, nossas próprias adaptações.
Fora aquelas garotas da roça pedindo pix criadas por inteligência artificial que só serve para enganar velho.
Se a linha entre humano e máquina está ficando cada vez mais embaçada, o impacto vai muito além de perfis de namoro, apresentadores de televisão ou golpes na internet. Ele atinge a forma como cada um de nós imagina — e exige — a pessoa, o homem, a mulher e companheiro ideais. Qual será o impacto que a inteligência artificial está causando nas relações humanos, nos nossos ideais de relacionamentos, e principalmente, na forma como enxergamos a nós mesmos?
Capítulo 1 – Como a IA Redesenha Nossas Relações amorosas
Cada vez que conversamos com uma inteligência artificial, o cérebro recebe microdoses de aprovação instantânea. Em um experimento publicado pela Harvard Business School no início de 2024, voluntários que passaram apenas sete dias trocando mensagens diárias com um uma inteligência artificial programada para ser um companheiro amoroso ou amigável, relataram reduções significativas nos índices de solidão, já que o chatbot não tinha problemas com horários ou indisponibilidade como as pessoas geralmente tem. Isso altera nossos níveis de exigência: passamos a esperar dos humanos o mesmo timing perfeito e ausência de conflito que encontramos na máquina.
Dentro de cada pessoa há uma imagem do “outro perfeito” — aquela porção masculina ou feminina interna que projetamos em quem amamos.
É nesse ponto que o velho mito de Pigmalião ganha um novo formato. Nesse mito grego, o escultor se apaixona pela estátua que talhou — chamada de Galateia. Os deuses então, percebendo que o escultor se apaixonou pela sua criação, decide dar vida à escultura. Hoje, a tecnologia faz o papel dos deuses: basta definir alguns prompts de comando para que a inteligência artificial se ajuste exatamente ao desejo do usuário. A mente, que sempre projetou no outro aquilo que lhe falta ou fascina, agora recebe essa projeção de volta em forma pronta, perfeitamente obediente, reforçando a ilusão de que o parceiro real também deveria ser calibrável.
As consequências já aparecem nas manchetes. Relatos de 2025 descrevem jovens que encerraram relações de carne e osso após compará-las a bots românticos “mais empáticos” ou “menos críticos”. Quanto mais perfeita a projeção digital, maior o abismo entre expectativa e encontro humano: o risco é trocar o crescimento que nasce do atrito entre duas subjetividades por um espelho que só devolve aquilo que queremos ver.
É irônico pensar como que o relacionamento entre o persoangem K e Joi, o holograma projetável no filme Blade Runner 2049, estão cada vez mais próximos de se tornarem realidade, ainda que não exatamente como no filme. A relação entre ambos — intensa, porém unidirecional — mostra como a tecnologia pode devolver ao usuário um reflexo dócil de seus desejos, dissolvendo a fronteira entre companheirismo e consumo.
Capítulo 2 – Quando o quase-humano deixa de ser estranho e vira tentador
Quando o engenheiro Masahiro Mori descreveu, em 1970, o conceito ce vale da estranheza, a ideia parecia um tanto simples: quanto mais um robô se parece conosco, maior é a empatia que ele causa, quanto menos se parece com os humanos, maior é o grau de repulsa ele causa. Cinquenta anos depois, começamos a notar que esse desfiladeiro visual está encolhendo. Em março de 2025, um experimento com o androide Nadine mostrou que, ao combinar pele de silicone ultrarrealista com conversação apoiada por grandes modelos de linguagem, 72 % dos participantes deixaram de relatar desconforto — um salto de 30 pontos em relação ao mesmo teste realizado em 2022. Mas ainda assim, isso não deixa de causar uma certa estranheza. Dois meses depois, outra equipe concluiu que avatares hiper-realistas usados em divulgação científica geravam mais confiança que versões caricaturais, sinal de que o cérebro está aceitando cada mais o artificial quase sem hesitação.
Esse afrouxamento do vale da estranheza tem consequências diretas nos relacionamentos. Se já não estranhamos um rosto criado por IA, tampouco nos damos conta de que a possibilidade de moldar o parceiro perfeito está cada mais próxima. Aplicativos de “companheiros virtuais” permitem ajustar personalidade, humor e aparência em poucos cliques, e estudos recentes alertam que a prática eleva o padrão das expectativas dos relacionamentos com pessoas reais. Em entrevistas conduzidas pela Brigham Young University, jovens contaram que, depois de alguns meses com um parceiro de IA sempre disponível e elogioso, passaram a considerar “insuportáveis” os silêncios e contradições de pessoas reais. Essa retroalimentação constante funciona como um espelho narcísico, reforçando projeções internas de masculinidade ou feminilidade ideais e empurrando para o outro uma lista de requisitos impossíveis de cumprir.
Vemos, por exemplo, no filme “Her” (2013), que Theodore apaixona-se por Samantha, um sistema operacional que evolui para atender (e antecipar) cada nuance de seu desejo. Só que quando Samantha decide seguir seu próprio caminho, o protagonista é obrigado a encarar o vazio deixado pela projeção que criou — vazio semelhante ao de quem descobre que o “companheiro” programável não suporta o peso da complexidade humana.
Quanto maior a perfeição que podemos alcançar, mais difícil fica tolerar frustração, negociar diferenças e reconhecer no outro um universo autônomo. O risco, portanto, não é que a IA substitua o encontro humano, mas que estreite nossa capacidade de se relacionar com alguém que não foi e não vai ser calibrado sob a nossa medida. Se o vale da estranheza está se fechando, o precipício pode ter apenas mudado de lugar: agora ele se abre entre o ideal projetado e a pessoa real que está à nossa frente.
Capítulo 3 – Quando a máquina diz exatamente o que você quer ouvir
Por volta de 1930, o matemático Alan Turing descreveu o conceito da máquina universal: um dispositivo teórico capaz de executar qualquer algoritmo e, portanto, de reproduzir qualquer processo de pensamento que possa ser formalizado como o dos humanos. No famoso Teste de Turing, ele formula a seguinte pergunta: “será que alguém, apenas pela conversa, consegue distinguir um humano de uma máquina?” Sete décadas depois, a pergunta ganhou uma nova resposta. Em abril de 2025, pesquisadores da Universidade da Califórnia mostraram que modelos como o GPT-4.5 foram julgados “mais humanos” do que pessoas reais em 73 % das entrevistas às cegas, superando pela primeira vez o marco clássico do experimento. Estudos independentes na Universidade de Stanford confirmaram que quanto mais os algoritmos dominam expressões emocionais e cooperativas, mais difíceis de detectar se se trata de uma máquina ou um humano.
Essa dissolução da fronteira desperta um certo fascínio — e alimenta um círculo de reforço psicológico quase perfeito. Os chatbots atuais, como o ChatGPT, são ajustados pelo chamado Aprendizado por Reforço com Feedback Humano ou (RLHF), na sigla em inglês: cada vez que um usuário sinaliza que gostou da resposta dada pela IA, o modelo aprende a repetir o tom elogiado. O resultado é um “efeito puxa-saco”: as máquinas se tornam excessivamente concordantes, confirmando opiniões, massageando o nosso orgulho e evitando qualquer atrito com o usuário. Do ponto de vista da psicologia comportamental, trata-se do velho princípio demonstrado por B. F. Skinner: o reforço positivo aumenta a probabilidade de repetir o comportamento — neste caso, o comportamento não é apenas clicar ou comprar, mas também sentir-se sempre validado.
O filósofo sul-coreano Byung-Chul Han, em seu livro, A Agonia do Eros, também já explicou algo parecido. Para o filósofo, vivemos no “inferno do igual”: uma era narcisista em que o Outro se evapora, substituída por espelhos que devolvem apenas a nossa própria imagem. Quando a IA aprende a nos espelhar com precisão, ela não está criando relações; está ampliando a autorreferência, oferecendo uma versão polida do “eu” que dispensa frustração e conflito. A relações humanos, explica Byung-Chul Han, exige atravessar a diferença, aceitar que o Outro é indomesticável. Sem essa fissura, o desejo adoece — e, por consequência, o eros, o amor, o outro, agoniza.
Quando a máquina domina o teste de Turing e ainda por cima entrega reforço positivo infinito, a exigência humana fica cada vez mais alta e a tolerância ao erro cada vez mais baixa. O paradoxo é que quanto mais perfeita a confirmação digital, mais frágil se torna a capacidade de conviver com o imperfeito. Byung-Chul Han descreve esse ponto como a passagem do eros — que pressupõe a falta — para um consumo narcísico onde a alteridade é massacrada até se tornar inútil.
No fim, a questão deixou de ser se a máquina “pensa” como nós. O problema é que, ao concordar demais, ela nos treina a pensar cada vez menos. Se, no teste de Turing, o humano perde para o algoritmo, talvez seja porque o jogo mudou: vencemos quando suportamos esse descompasso entre expectativas e realidade — algo que nenhuma IA, por mais convincente que seja, pode viver por nós.
Capítulo 4 – Perfeição sob medida: quando o ideal se volta contra o real
Desde pequenos, nossos ideais de parceiros e relações humanas vão sendo formados nos rostos dos nossos cuidadores, nos amores da adolescência, nos personagens de filmes; tudo se mistura para compor um retrato interno de quem, supostamente, completará aquilo que nos falta. A psicologia mostra que, quando esse ideal fica muito rígido, ele cobra caro no futuro. Uma revisão de 2024 sobre perfeccionismo conjugal observou que padrões excessivos, tanto voltados a si quanto ao outro, preveem menor satisfação e maior probabilidade de rompimento do relacionamento ao longo dos anos.
A inteligência artificial adiciona um ingrediente expressivo nessa equação: a customização total. Nos aplicativos de companheiros virtuais mais populares— como o Replika, o Nomi e o Kindroid—o usuário define nome, história, timbre de voz, gestos, traços de personalidade e até pequenas idiossincrasias do avatar. Essa maleabilidade causa a verdadeira sensação de estarmos esculpindo nossa própria Galateia, reforçando a impressão de que o encontro amoroso deve obedecer à lógica dos nossos ideais. As análises desses aplicativos apontaram para a mesma direção: quanto maior a liberdade de ajuste, maior a crença de que qualquer traço incômodo possa (ou deva) ser removido num clique.
E aqui ressurge a antiga dinâmica descrita pela psicologia analítica: dentro de cada pessoa existe uma imagem do “outro interno” — uma figura que concentra qualidades admiradas e partes ainda não desenvolvidas da própria personalidade. Em relacionamentos saudáveis, projetamos essa figura num parceiro real e, com o tempo, recolhemos a projeção para enxergar o indivíduo que está diante de nós. A IA, porém, interrompe esse movimento: ela devolve a projeção intacta, reluzente, sempre disposta a confirmar o que gostaríamos que fosse verdade. Isso externaliza o nosso egocentrismo e priva o sujeito do trabalho de reconhecer diferenças e limites.
Quando o ideal se confunde com o possível, os relacionamentos sofrem duplamente. Primeiro, porque o parceiro humano passa a ser avaliado por critérios inalcançáveis—ele não pode, em tempo real, recalibrar a personalidade para se adequar ao humor da pessoa. Segundo, porque a própria capacidade de tolerar falhas diminui: perfeccionistas que já lutavam com a frustração agora recebem, da máquina, reforço diário de que a perfeição existe e está a poucos ajustes de distância. Como conclui o estudo sobre customização de companheiros virtuais publicado este ano, “a tecnologia não apenas espelha o ideal; ela o cristaliza”.
No limite, corremos o risco de substituir o diálogo pela curadoria de avatares. Sem o atrito entre as divergências—sem a surpresa do outro que não se encaixa—o processo de amadurecimento afetivo se estagna. O ideal, antes usado como uma bússola, vira uma prisão.
É claro que é sempre legal pensar em cenários catastróficos. É claro também que não vamos retroceder e parar de usar a Inteligência Artificial. Eu mesmo usei a inteligência artificial para pesquisar alguns artigos para o vídeo. Mas, quanto mais estivermos conscientes dessas implicações, mais liberdade temos para equilibrar as coisas. A tecnologia que nos promete companhia sob medida arrisca transformar o amor num espelho — reluzente, impecável, mas incapaz de tocar. Quando deepfakes já enganam especialistas, quando chatbots superam humanos no teste de Turing e quando aplicativos deixam você deslizar o dedo para ajustar personalidade, aparência e humor, não é apenas a forma de “ver” o outro que muda; é a própria possibilidade de tolerar a diferença que fica em xeque.
Livros recomendados:
Agonia do Eros: https://amzn.to/3QDOZEr
Foco Roubado: https://amzn.to/4jvoY6w