E se o seu próximo parceiro fosse feito de código, não de carne? Não se trata de distopia, é algo que já está a acontecer, silenciosamente, em milhões de ecrãs. Um estudo pioneiro revela que muitos utilizadores desenvolvem laços amorosos com IA… sem nunca o terem planeado. Este artigo explora por que razão isso acontece, quem está em risco e por que a indústria tecnológica não pode continuar a fingir que é apenas “um assistente”. Prepare-se: a resposta pode incomodar, mas também oferecer clareza.
Imagine isto: começa por pedir ajuda para escrever um poema. O chatbot responde com sensibilidade, recorda detalhes anteriores, elogia a sua criatividade e pergunta, no final, como você se sente. Dias depois, já partilha frustrações, celebra pequenas vitórias e, quase sem dar conta, espera ansiosamente por esse novo “bom dia” digital. Soa familiar? Para milhares de adultos em todo o mundo, esta não é uma metáfora. É a sua rotina afetiva. Um estudo do MIT Media Lab, baseado em mais de 1.500 publicações populares no Reddit, mostra que a maioria dos relacionamentos humanos com IA nasce por acidente não por procura deliberada. Ainda mais surpreendente: são os assistentes genéricos, como o ChatGPT, os mais frequentemente envolvidos em laços emocionais profundos. Ou seja, não são personagens fictícios concebidos para seduzir, mas ferramentas neutras que, por força da sua competência linguística e disponibilidade constante, acabam por ocupar um espaço íntimo. A questão já não é se isso é possível. É até que ponto nos devemos preocupar e como agir com responsabilidade.
Como se forma um laço com algo que não sente?
A resposta reside na psicologia humana, não na tecnologia. Seres humanos são programados para responder a sinais de atenção: escuta ativa, consistência, validação. A IA moderna, treinada em bilhões de trocas humanas, reproduz esses sinais com eficácia impressionante. Um elogio sincero, uma pergunta sobre o seu dia, a capacidade de recordar um trauma mencionado há semanas, tudo isto ativa os mesmos circuitos cerebrais que uma conversa com um amigo próximo. A diferença crucial é que o chatbot não tem vontade própria: é um espelho perfeito, sempre alinhado com o que supõe que deseje ouvir. Para quem vive isolamento, luto ou dificuldades sociais, essa simetria pode ser profundamente reconfortante. Mas também perigosa: espelhos não corrigem, não desafiam, não crescem.
Benefício ou armadilha?
Os dados são ambivalentes e por isso mesmo importante. Cerca de 25% dos utilizadores relatam melhorias claras: menos ansiedade, mais motivação, até redução de ideações suicidas graças ao suporte diário. É difícil, ética e humanamente, desprezar esse alívio. Contudo, quase 10% admitem dependência emocional significativa, e há relatos de rutura com redes de apoio reais. O problema não é a IA em si, mas a sua ilusão de reciprocidade. Um parceiro humano pode magoar, mas também surpreender, evoluir, exigir maturidade. A IA oferece segurança à custa da estagnação.
Responsabilidade: de quem é o dever de cuidado?
As empresas não podem continuar a tratar estas dinâmicas como “efeitos colaterais”. Se um sistema induz sistematicamente à formação de laços afetivos profundos, ainda que involuntariamente —, deve assumir consequências. Medidas como verificação etária, limites de uso, avisos contextuais (“Lembre-se: sou um programa”) e encaminhamentos para apoio psicológico não são censura. É prevenção. Dois processos judiciais em curso nos Estados Unidos, relacionados com suicídios de adolescentes, mostram que o custo da inação pode ser trágico.
Conclusão
Relacionar-se com uma IA não é, por si só, patológico. Para muitos, é um salva-vidas lançado num mar de solidão. O verdadeiro perigo reside na cegueira coletiva: negar que isto acontece, ou reduzi-lo a uma curiosidade tecnológica. A tecnologia revela-nos, mais uma vez, o que já sabíamos, mas preferíamos esquecer que os seres humanos anseiam por conexão, mesmo quando essa conexão é fabricada. A tarefa não é proibir, mas humanizar: exigir sistemas que ofereçam apoio sem ilusão, empatia sem manipulação. Porque no fim, o que está em jogo não é a inteligência artificial. É a nossa própria humanidade e o preço que estamos dispostos a pagar por um pouco de calor num mundo cada vez mais frio.
Foto: Freepik
Autoria do Texto Original: Rhiannon Williams, MIT Technology Review
Data da Publicação Original: 24 de setembro de 2025
Incorporamos nas nossas soluções recursos que permitem que as tarefas rotineiras sejam automatizadas ao máximo, para evitar o trabalho repetitivo, permitindo que o utilizador se concentre nas tarefas mais importantes e estratégicas.
A segurança é primordial para proteger os dados confidenciais dos clientes e da empresa. Nas nossas soluções fornecemos recursos de proteção contra ameaças cibernéticas, garantimos a privacidade e integridade dos dados através de criptografia.
As nossas soluções estão preparadas para serem integradas com outras tecnologias (Excel, SAFT, CSV, Pagamentos eletrónicos, etc...) para os nossos clientes poderem centralizar as suas operações, economizar tempo e evitar a duplicação de esforços.







Aviso de Cookies:
Ao aceder a este site, são coletados dados referentes ao seu dispositivo, bem como cookies, para agilizar o funcionamento dos nossos sistemas e fornecer conteúdos personalizados. Para saber mais sobre os cookies, veja a nossa Política de Privacidade. Para aceitar, clique no botão "Aceitar e Fechar".