Aula 2

1. Olá novamente! Vamos relembrar o que aprendemos na aula anterior:

👉 O que é um companheiro de IA?
👉 Porque é que algumas pessoas gostam de os usar?

Depois, pensa:

“O que pode correr mal quando uma aplicação parece ser o nosso melhor amigo?”

Vamos conversar em grupo e criar uma lista de riscos possíveis (ex.: falta de privacidade, isolamento, más influências, dependência).

Sabias que algumas aplicações foram suspensas por preocupações com a segurança e saúde mental dos jovens?

Nesta aula vamos aprender a identificar sinais de alerta e estratégias para nos protegermos.

Atividade – Descobrir os riscos

2. Vamos trabalhar em grupo. Cada grupo vai receber um Cenário de Risco sobre um adolescente e um companheiro de IA.

O professor irá distribuir o Documento: Cenários de Risco da IA

Em conjunto, respondam:

  1. Que riscos existem nesta história?
  2. Como se sente a pessoa envolvida?
  3. Que conselho dariam a esta pessoa?

Depois, escolhe um porta-voz para partilhar as conclusões do grupo.

Debate – O que aprendemos?

3. À medida que os grupos apresentam, vamos construir no quadro uma lista de principais riscos:

  • Vício: usar demasiado tempo a conversar com a IA.
  • Maus conselhos: a IA pode dizer coisas erradas ou perigosas.
  • Falta de privacidade: tudo o que dizes é guardado nos servidores da empresa.
  • Conteúdo inapropriado: algumas apps não têm filtros adequados.
  • Isolamento: substituir pessoas reais por conversas com bots.
  • Ajuda falsa: a IA não é terapeuta — não pode proteger-te de verdade.

Reflete:

“Já alguma vez sentiste que passaste tempo demais online?”
“Como é que o teu corpo ou mente te avisam que é altura de parar?”

Atividade – Criar o teu Escudo Digital

4. Agora vamos transformar os riscos em regras de segurança.

O professor irá distribuir o Documento: Imagens e Símbolos para Pósteres (SMILE).

Cada letra representa um pilar do Escudo Digital:

LetraTemaExemplo de situação
SSegurançaPartilhar fotos e morada com uma IA pode ser perigoso.
MMonitorizaçãoFalar horas seguidas com a IA pode afetar o bem-estar.
IIdentidadeA IA não define quem és nem o teu valor.
LLiteraciaAcreditar em tudo o que a IA diz pode ser arriscado.
EEmpatiaSer bondoso e compreender as emoções reais das pessoas.
  1. Em pares, roda pelas 5 estações (S-M-I-L-E).
  2. Em cada uma, lê o cenário e escreve uma regra de segurança digital.
  3. No final, vota nas duas regras mais importantes.
  4. Cria a tua lista pessoal:
  • As 3 regras que vais seguir;
  • Uma forma de apoiar um amigo que exagere no uso da IA.

Conclusão

5. Revejam as aprendizagens principais:

  • Segurança: não partilhar dados pessoais com IA.
  • Monitorização: definir limites de tempo de utilização.
  • Identidade: lembrar que uma IA não sente nem define o teu valor.
  • Literacia: pensar de forma crítica sobre o que lês e ouves online.
  • Empatia: compreender e apoiar quem possa estar a passar por dificuldades.

“A tecnologia pode ajudar, mas não substitui pessoas reais.”
“Se um bot disser algo estranho ou te fizer sentir desconfortável, fala com um adulto de confiança.”

Scroll to Top