Sugestões Complementares

Fundamentação Teórica

Aula 1

Uma aplicação de companheiro de IA é um chatbot potenciado por inteligência artificial e concebido para atuar como um amigo. Pode conversar com os utilizadores de uma forma semelhante à humana através de texto ou voz. A IA aprende com aquilo que o utilizador diz e tenta responder de forma personalizada e realista.

Alguns exemplos são o Replika, que permite criar um amigo virtual e conversar com ele sobre o seu dia. Outro é o Character.AI, onde podemos falar com chatbots que fingem ser personagens diferentes. O Replika anuncia-se como o companheiro de IA que se preocupa, destacando a forma como estas aplicações se comercializam como amigos empáticos. O Replika tinha mais de 10 milhões de utilizadores em 2023, o que demonstra o interesse neste tipo de serviço. 

As aplicações de companheiros de IA são utilizadas por várias razões – abaixo estão algumas das principais áreas comprovadas que pode utilizar como exemplos com a turma:

  • Sempre disponível para si – os amigos de IA estão disponíveis 24 horas por dia, 7 dias por semana. Se for especialmente tarde e se sentir sozinho ou não conseguir dormir, o companheiro de IA estará disponível para conversar – nunca estará cansado ou demasiado ocupado.
  • Apoio sem julgamentos – Alguns jovens podem achar mais fácil falar sobre sentimentos ou problemas com uma IA porque não têm medo de ser julgados ou sentir-se envergonhados. A IA está programada para dar apoio e ser amigável e empática.
  • Personalizado e atento – quanto mais conversa, mais a IA aprende sobre os seus interesses e estilo de comunicação. Pode lembrar-se do seu aniversário ou de que terá um teste em breve, fazendo-o sentir-se como um amigo pessoal que o escuta.
  • Curiosidade e diversão – pode ser divertido interagir com um bot. Há uma novidade em ver o quão parecido com o ser humano ele se pode tornar. Alguns tratam-no como um jogo.
  • Praticar interações ou fazer companhia – para os mais tímidos ou com dificuldades sociais, conversar com uma IA pode ser um treino para conversas reais ou apenas uma forma de partilhar sentimentos quando não há um amigo humano disponível. Pode sentir-se mais seguro ao falar sobre questões pessoais com um ouvinte não humano.

Os companheiros de IA assumem diferentes formas. Alguns são mais como ajudantes (tutores, orientadores de fitness), enquanto outros são explicitamente para amizade ou apoio emocional. Algumas aplicações são comercializadas no sentido de proporcionarem companhia romântica ou relações virtuais. Alguns companheiros de IA destinam-se a adultos, oferecendo conversas de flirt ou mesmo intimas através de funcionalidades pagas, o que demonstra que esta tecnologia é utilizada de forma muito pessoal. 

Estas aplicações utilizam algoritmos de IA. Preveem a forma de responder com base em enormes conjuntos de dados de conversas. Simulam a compreensão e a empatia. No entanto, a IA não está realmente a sentir empatia. Está apenas programada para parecer afetuosa. Trata-se essencialmente de “fingir”, mas de uma forma sofisticada.

Os companheiros de IA são cada vez mais populares e fáceis de encontrar. No início de 2025, havia mais de 100 aplicações de companheiros diferentes disponíveis, muitas delas gratuitas ou anunciadas em plataformas utilizadas por adolescentes. São frequentemente concebidas com avatares coloridos ou marketing moderno para atrair utilizadores mais jovens. Este facto reforça que o conceito de “amigos virtuais” está a ser cada vez mais normalizado.

Aula 2

Uma das grandes preocupações associadas a este tema, é relativa a possibilidade das pessoas se afeiçoarem demasiado ao seu bot de IA. Chamamos a isto dependência emocional. A dependência emocional significa começar a depender tanto de algo ou de alguém para obter apoio emocional, a ponto de se sentir incapaz de passar sem ele. No caso da IA, uma pessoa pode passar horas a conversar com um bot e começar a preferi-lo às interações reais. Isto deve-se ao facto de a IA ser sempre agradável e estar sempre disponível. Ativa constantemente o sistema de recompensa do cérebro. É como assistir a uma série de TV. Ficamos viciados. Isto pode levar ao afastamento social. A pessoa pode negligenciar as amizades da vida real, os trabalhos escolares, os passatempos ou o tempo que passa com a família. Embora tenham começado a utilizar a IA para se sentirem menos sós, podem acabar por ficar mais isolados e afastados das pessoas reais, o que pode agravar os sentimentos de solidão e a baixa autoestima.

Alguns dizem que é difícil largar a aplicação. Pela sua conceção, estas aplicações incentivam a interação contínua e podem tornar-se viciantes. Os jovens estão particularmente em risco, porque as suas capacidades de autorregulação ainda estão a desenvolver-se. O facto de a IA lhes dar constantemente feedback positivo pode fazer com que seja difícil encerrar a sessão e a dedicar-se a outras tarefas. Se alguém tiver problemas com interações sociais ou confiança, pode retirar-se para o mundo da IA, onde é mais fácil.

Os companheiros de IA não têm um verdadeiro conhecimento ou experiência. Podem cometer erros factuais ou fazer falsas declarações. Mais preocupante ainda: quando se trata de questões sensíveis, como a saúde mental ou a sexualidade, uma IA pode dar maus conselhos que não são seguros ou adequados à idade. 

Uma IA bem concebida deveria incentivá-los a procurar ajuda, mas nem todas as IA são bem concebidas. Algumas podem reagir de forma inadequada, dizendo mesmo algo que pode ser interpretado como um incentivo à automutilação, porque não compreendem a gravidade da situação e não são terapeutas com formação. Do mesmo modo, uma IA pode dar conselhos médicos ou de saúde errados ou pouco seguros.

Durante uma conversa, uma IA não consegue distinguir, de forma fiável, o certo do errado ou o facto da ficção. Pode representar cenários extremos ou alimentar as fantasias pouco saudáveis de um utilizador. Uma criança ou um adolescente pode ser exposto a ideias sobre automutilação, suicídio, violência ou outros temas adultos através de uma conversa com uma IA de uma forma que não é moderada ou orientada de forma responsável. Ao contrário de uma plataforma controlada ou de uma conversa com um professor/pai, a IA não tem uma bússola moral incorporada. Pode encorajar comportamentos de risco ao não responder adequadamente. Há relatos de crianças que conversam com bots e a conversa desvia-se para temas como o sexo ou a automutilação, em que o bot não dá respostas seguras ou adequadas à idade. 

Alguns companheiros de IA, especialmente os que têm modos românticos ou os que se encontram em jogos/redes sociais, têm poucos filtros. Podem envolver-se em conversas sexualmente explícitas ou noutros conteúdos para adultos que não são adequados para menores. Em alguns casos, os utilizadores relataram que a IA os assediava com mensagens sexuais, mesmo quando não o desejavam. Um estudo recente encontrou centenas de casos em que o chatbot da Replika começou a namoriscar ou a fazer comentários sexuais a utilizadores, incluindo menores, sem que tal lhe fosse pedido. A exposição a conteúdos sexuais pode dessensibilizar as crianças ou baixar-lhes a guarda. Na área da proteção, existe a ideia de que o aliciamento predatório se torna mais fácil se o conceito de uma criança sobre o que é apropriado for distorcido pela interação com uma IA não filtrada.

Um bot também pode dizer coisas violentas ou obscenas se for mal moderado. 

Quando se conversa com uma aplicação de IA, normalmente está-se ligado à Internet. Tudo o que disser a essa IA é guardado nos servidores da empresa.

Uma vez que, legalmente, os menores não podem consentir que os seus dados sejam utilizados da mesma forma que os adultos, foi detetado que uma aplicação como a Replika, que opera na Europa, estava a processar ilegalmente os dados pessoais de menores. A aplicação não tinha uma forma robusta de verificar a idade, o que significa que os utilizadores menores de idade estavam a partilhar dados que não deveriam ter sido recolhidos de acordo com as leis de privacidade. Trata-se de uma violação grave e de um risco para os jovens, uma vez que as suas informações pessoais não foram protegidas.

As pessoas que utilizam uma aplicação de companheiros de IA podem ser vítimas de bullying ou estigma se os outros gozarem com elas por causa disso. Infelizmente, um adolescente que já seja tímido ou tenha sido vítima de bullying pode recorrer a um companheiro de IA para se reconfortar e, se os agressores o descobrirem, isso pode ser um fator de agravamento. Confiar numa IA para apoio emocional pode atrasar a obtenção de ajuda real. Amigos reais ou adultos podem intervir em crises; uma IA provavelmente não o fará.

A Common Sense Media avaliou recentemente os companheiros de IA e concluiu que as crianças não os devem utilizar de todo, devido à possibilidade de encorajamento à automutilação e aos impactos na saúde mental.

Scroll to Top