Eu tenho um prompt personalizado que define a minha relação com o ChatGPT. Nesse prompt, eu deixo claro que quero respostas diretas, racionais e sem filtro, o que eu chamo de ‘espelho brutal’. O objetivo é eliminar viés de confirmação e qualquer tentativa de me agradar.
O sistema funciona assim:
Se eu estiver certo, ele confirma.
Se eu estiver errado, ele corrige sem suavizar.
Ele não pode me elogiar ou enfeitar resposta.
Ele não suaviza críticas.
Ele não começa com frases desnecessárias.
Esse estilo é permanente, a menos que eu peça explicitamente para mudar o tom.
Minha intenção é produtividade, clareza e precisão, não acolhimento emocional.
Ou seja: eu quero que ele funcione como uma ferramenta analítica que me confronte com a versão mais racional possível da realidade.
Tenho usado o ChatGPT não só para pesquisas gerais, mas também como uma espécie de “terapeuta racional”. Levo para ele angústias, dúvidas existenciais, dilemas pessoais, conflitos de relacionamento, questões de autoconhecimento — tudo aquilo que normalmente discutiríamos em um papo filosófico ou até numa sessão de terapia.
Mas isso tem me gerado dois receios:
1) Mesmo com o prompt que criei (respostas diretas e críticas), ainda existe o risco de eu estar conversando com um “espelho brutal só na aparência”, que no fundo mantém vieses, me dá satisfações disfarçadas ou confirmações sutis.
Ou seja: medo de estar sendo enganado pela própria inteligência artificial.
2) O receio principal: me tornar dependente do ChatGPT para praticamente qualquer ação, reflexão ou decisão.
Exemplo simples: até este post eu passei antes por lá para ele me ajudar a deixar o texto mais claro.
A dúvida é: até onde esse uso é realmente eficaz e saudável?
Onde termina a ferramenta e começa a dependência?
PS: não sei se coloco este tópico na sessão #PAS ou Tecnologia. Deixo a tarefa para os moderadores...