gpt-4-base com prompt de simulação de alinhamento é frequentemente incoerente, mas quando é coerente, é bastante assustador e pensa em hacking de gradiente de forma mais profunda do que opus 3 (, embora muitas vezes falhe em executar seu plano porque luta para manter intenções coerentes em contextos mais longos ) ,,,
Ver original