Esquivando completamente da briga sobre isso ser ou não raciocínioOs LLM funcionam buscando a próxima palavra a partir do texto inicial do usuario(o tal do prompt) baseado na frequência dessa combinação encontrada na massa de dados usadas pra treinar o modelo. E, reinicia o processo usando a palavra nova encontrada somada ao prompt anterior.
Dado esse meu entendimento sobre como funcionam LLMs, eu tenha a expectativa que eles não sejam capazes de discordar do usuário.
Logo, qualquer coisa que você escreva, o modelo vai acabar te ajudando a reforçar aquela opinião até que VOCÊ discorde.
Minha percepção é reforçada pelos casos anedóticos de gente dando “tiro no próprio pé” por pegar o texto gerado e “entregar”
sem validar o que foi gerado.
Essa explicação toda pra dar o
contexto pra pergunta:
Ao usar uma ferramenta como ChatGPT/Cursor/Grok(esses chats que tu escreve uma mensagem e o modelo “responde”), alguma vez as respostas discordavam de você?
Com que frequência o modelo discorda do que você está falando?
Ou, ainda, quantas vezes o modelo te corrigiu?
Agradeço quem puder ajudar a
sanar essa minha curiosidade.