IA para TodosO que muda com o novo GPT-5Como criar prompts eficazes para o GPT-5Como controlar a proatividade da IA
GPT-5: como criar melhores prompts para extrair resultados surpreendentes

Rocketseat

Navegação Rápida:
O que muda com o GPT-5
1Fundamentos da engenharia de prompts
2Controlando a proatividade da IA (agentic eagerness)
3Preâmbulos e comunicação clara
4Ajustando profundidade de raciocínio e verbosidade
5Utilizando a Responses API para persistir contexto
6Maximizando a performance em projetos de programação
7Meta-prompting
8Dominando o GPT-5 um prompt de cada vez
9Perguntas frequentes:
10
Quem nunca se frustrou com respostas vagas do ChatGPT, não é mesmo? Imagine pedir ajuda e receber aquele retorno genérico que não resolve seu problema. A boa notícia é que isso não precisa ser assim. Com a chegada do GPT-5, a forma de interagir com a IA evoluiu: dá para conversar com o modelo quase como se fosse um colega de equipe, ajustando o nível de autonomia e obtendo resultados sob medida. Parece mágico? Você vai descobrir como criar prompts para o GPT-5 de forma clara e estratégica, explorando as novidades desse modelo e técnicas avançadas para extrair todo o potencial da inteligência artificial em diferentes tarefas. Após a leitura, você estará pronto para construir prompts que realmente funcionam – daqueles que transformam perguntas em respostas surpreendentes e úteis no dia a dia.
O que muda com o GPT-5
O GPT-5 é a nova geração de modelos da OpenAI e traz saltos significativos em desempenho. Ele foi treinado com foco especial em três frentes:
- Tarefas agentivas (de múltiplas etapas com uso de ferramentas): o GPT-5 segue instruções de forma mais fiel e consegue tomar decisões de alto nível quando necessário, tornando-o excelente para fluxos em que a IA precisa agir autonomamente em etapas.
- Codificação aprimorada: seja para criar um aplicativo do zero ou refatorar código legado, o GPT-5 apresenta habilidades de programação ainda mais fortes, entendendo contextos maiores e aplicando boas práticas de software com mais rigor.
- Melhor aderência a instruções: sabe quando um modelo “se perde” e não segue exatamente o pedido? No GPT-5 isso é bem menos frequente – ele tende a obedecer aos mínimos detalhes, contanto que o prompt esteja bem construído.
Além dessas melhorias gerais, o GPT-5 introduz novos recursos de API que colocam mais controle nas mãos de quem desenvolve os prompts. Um exemplo é o parâmetro
reasoning_effort
(o esforço de raciocínio do modelo), que permite ajustar o quão profundamente o GPT-5 deve pensar antes de responder. Você pode optar por um nível baixo para respostas rápidas em tarefas simples, ou um nível alto para problemas complexos em que qualidade é prioridade. Outro ajuste disponível é a verbosidade, isto é, o nível de detalhe da resposta: dá para definir via API se você quer saídas mais resumidas ou explicações bem extensas, e o modelo também responde bem a pedidos de verbosidade diretamente no texto do prompt.Falando em eficiência, há também a Responses API, uma forma de reutilizar o contexto de raciocínio do modelo entre chamadas. Em outras palavras, o GPT-5 pode lembrar e aproveitar os “pensamentos” que formou ao usar ferramentas ou ao analisar uma situação na chamada anterior, tornando a interação seguinte mais rápida e inteligente. Isso reduz custos de token e evita refazer planos do zero a cada passo.
Antes de seguirmos, vale explicar o termo tarefa agentiva: significa uma tarefa em que a IA executa várias ações por conta própria para atingir um objetivo. Por exemplo, se você pede para o GPT-5 “encontrar a melhor rota de viagem”, ele pode pesquisar voos, comparar preços, consultar previsões do tempo etc., tudo em sequência sem você ter que instruir cada passo. Com o GPT-5, esse tipo de fluxo autônomo ficou muito mais viável, pois o modelo foi projetado para chamar ferramentas, seguir passos lógicos e lidar com longos contextos de maneira confiável. A chave para aproveitar esse poder, contudo, está em como você escreve o prompt – e é isso que veremos a seguir.
Fundamentos da engenharia de prompts
Para extrair o melhor de uma IA avançada, é essencial dominar a engenharia de prompts. Mas o que é um prompt afinal? Em resumo, prompt é a instrução (ou conjunto de instruções) que você fornece para guiar a IA. É como o roteiro que orienta a atuação do modelo. No GPT-5, dada sua capacidade aumentada de seguir direções, escrever um bom prompt faz toda a diferença: o modelo vai levar suas palavras a sério, com precisão cirúrgica. Isso significa que um prompt bem escrito pode gerar resultados incríveis, enquanto um prompt confuso pode fazer até o GPT-5 “travar” ou responder algo fora do esperado.
Clareza é tudo. Lembre-se de que o GPT-5 vai seguir cada detalhe que você disser. Se você pedir “Explique rapidamente e em detalhes...”, por exemplo, ele pode ficar indeciso entre ser breve ou se alongar, porque essas instruções se contradizem. Prompts com instruções vagas ou conflitantes atrapalham bastante o modelo, já que ele gasta tempo tentando resolver a contradição ao invés de responder objetivamente. Para evitar isso, segue uma pequena checklist de revisão de prompt:
- Seu objetivo está claro? Deixe explícito o que você quer que a IA faça. Contextualize se necessário (quem é o público, qual o formato da resposta, etc.).
- Há instruções conflitantes? Verifique se nenhuma frase do prompt “anula” outra. Por exemplo, “nunca faça X” e logo depois “em certas situações, faça X” gera confusão. Unifique a direção ou estabeleça claramente exceções.
- A ordem das etapas faz sentido? – Se você quer que o modelo siga uma sequência (primeiro analisar dados, depois gerar um relatório, por exemplo), apresente as etapas na ordem lógica. Instruções fora de ordem podem causar respostas desorganizadas.
- Evite ambiguidades – Palavras genéricas como “isto”, “aquilo” ou termos técnicos não explicados podem ser interpretados errado. Especifique sempre que possível (“este relatório financeiro de 2025” em vez de “este relatório”).
Vamos ilustrar. Imagine um prompt mal construído para um assistente médico virtual:
“Você é um agente de agendamento médico. Nunca marque uma consulta sem consentimento explícito do paciente. Se for um caso urgente, agende imediatamente a consulta mais próxima sem pedir autorização.”
Percebe o conflito? Primeiro diz para nunca agendar sem consentimento, depois manda agendar imediatamente no caso urgente (sem consentimento). O GPT-5 ficaria dividido: obedeço a primeira regra ou a segunda? O resultado poderia ser uma demora desnecessária (o modelo tentando achar uma saída) ou uma resposta inconsistente. Como resolver? Uma versão corrigida desse prompt poderia separar as condições de forma coerente:
“Você é um agente de agendamento médico. Sempre verifique se há consentimento do paciente antes de marcar uma consulta. Em casos de emergência (risco alto identificado), oriente o paciente a ligar para os serviços de emergência imediatamente e reserve provisoriamente o primeiro horário disponível com um médico, notificando que a confirmação será necessária o mais rápido possível.”
Notou a diferença? Agora não há duas ordens opostas. O prompt deixa claro que em emergência a IA deve agir rápido mas ainda respeitar a política de consentimento, apenas alterando a forma (reservando e buscando confirmação depois). O GPT-5 consegue seguir esse roteiro ajustado sem ficar confuso, porque eliminamos a contradição.
Dica: sempre releia seu prompt como um todo e se pergunte: “As instruções se complementam e fazem sentido juntas?”. Se algo parecer ambíguo para você, certamente será para a IA. A engenharia de prompts bem feita começa na simplicidade e coerência das instruções básicas.
Controlando a proatividade da IA (agentic eagerness)
Um dos diferenciais do GPT-5 é a possibilidade de calibrar o nível de proatividade do modelo, ou agentic eagerness em inglês. Isso se refere a quanta iniciativa a IA toma por conta própria versus o quanto ela espera por orientações explícitas suas. Dependendo da situação, você pode querer que o modelo seja menos proativo (mais contido, focado apenas no necessário) ou mais autônomo (indo atrás de soluções de forma persistente). Vamos ver como ajustar esses dois extremos na prática.
Menos proatividade: foco e eficiência
Por padrão, o GPT-5 tende a ser bem completo nas buscas de contexto em ambientes agentivos. Ou seja, se você der uma tarefa complexa, ele vai explorar bastante, pesquisar tudo que puder e só então responder, para garantir a melhor resposta possível. Isso é ótimo em muitos casos, mas às vezes você pode preferir rapidez a exaustividade. Nesses casos, vale segurar as rédeas do modelo.
A primeira ferramenta para isso é reduzir o
reasoning_effort
. Esse parâmetro controla a profundidade de raciocínio: em nível baixo, o GPT-5 explora menos ideias e toma decisões mais rápido. Muitos fluxos funcionam muito bem em esforço médio ou baixo, então não há necessidade de rodar o “motor turbinado” para tarefas simples – você economiza tempo e custo.Além do parâmetro, dá para especificar no prompt como o modelo deve se conter. O GPT-5 introduziu uma sintaxe de tags tipo XML que podemos usar para modular o comportamento. Por exemplo, a tag
<context_gathering>
permite definir critérios de como o modelo deve coletar contexto antes de responder. Dentro dessa tag, você pode escrever instruções claras para limitar a exploração. Veja um exemplo:<context_gathering> Objetivo: Obter contexto suficiente rapidamente, sem perder tempo. Método: - Comece com uma busca ampla, depois foque apenas nos detalhes relevantes. - Lance consultas em paralelo, e **não repita pesquisas semelhantes**. Critério de parada: - Pare de buscar quando perceber que ~70% das fontes apontam para a mesma solução. - Se os resultados divergirem muito, faça **apenas mais uma rodada rápida** de busca refinada e então prossiga para a resposta. Orçamento de ferramentas: No máximo 2 chamadas de ferramenta (ex.: 2 buscas) antes de gerar a resposta final. </context_gathering>
No bloco acima, instruímos o GPT-5 a não ficar “dando voltas”. Dizemos para ele buscar contexto de forma paralela e deduplicada (para ganhar tempo) e colocamos critérios de parada antecipada – como parar após notar convergência de resultados. Também estabelecemos um limite máximo de 2 chamadas de ferramenta (por exemplo, consultas a uma API de busca) antes de ele partir para a resposta. Repare na inclusão de uma cláusula de escape: “mesmo que não tenha 100% de certeza, prossiga assim mesmo”. Isso é importante! Estamos dando permissão para ele seguir adiante com uma resposta mesmo sem estar totalmente seguro, caso contrário o GPT-5 poderia ficar travado tentando achar a resposta perfeita. Essa “escapadinha” controlada garante agilidade, ainda que às vezes a resposta possa vir com uma nota de incerteza (o que é aceitável dependendo do contexto).
Ao combinar um reasoning_effort menor com instruções explícitas de contenção dentro de
<context_gathering>
, você deixa o GPT-5 mais objetivo e rápido. Isso é útil, por exemplo, para consultas onde velocidade importa mais que um detalhismo extremo, ou quando você sabe que o domínio da pergunta não exige muita pesquisa adicional.Mais autonomia: persistência até o objetivo
Por outro lado, há situações em que você quer que a IA assuma mais responsabilidade e vá até o fim da tarefa sozinha. Pense em cenários longos, como gerar um relatório complexo, escrever código extenso ou conduzir uma análise de dados: você não quer que a cada impasse ela devolva a bola para você, certo? Nesses casos, queremos aumentar a proatividade.
O ajuste imediato aqui é elevar o
reasoning_effort
para alto. Isso dá ao modelo “carta branca” para pensar mais profundamente e considerar mais possibilidades antes de responder. Porém, só isso talvez não garanta que ele não vai parar no meio e perguntar algo ao usuário. Então, precisamos dar instruções diretas de persistência.É aí que entra a tag
<persistence>
. Com ela, podemos encorajar explicitamente o GPT-5 a continuar executando passos até completar a tarefa, em vez de interromper e pedir confirmação. Um exemplo de prompt usando <persistence>
seria:<persistence> - Você é um agente autônomo: continue trabalhando **até que a solicitação do usuário esteja completamente resolvida** antes de finalizar sua resposta. - Só termine quando tiver **certeza** de que solucionou o problema por inteiro. - **Nunca pare ou devolva a pergunta para o usuário devido a incerteza** — em vez disso, pesquise ou deduza a melhor abordagem e prossiga. - Não peça ao humano para confirmar suposições; escolha você mesmo a suposição mais razoável, siga com o plano e documente depois, quando apresentar o resultado final. </persistence>
As diretrizes acima “dizem” ao modelo para ser teimoso no bom sentido. Ele não deve parar toda vez que encontrar uma decisão ambígua – deve assumir algo plausível e continuar. Também reforçamos que ele só deve encerrar quando o objetivo do usuário for alcançado de fato. Isso faz uma diferença enorme: com essa persistência configurada, o GPT-5 tende a não ficar devolvendo perguntas como “Isso atende sua necessidade?” no meio do processo; ele vai até concluir o que foi pedido.
Claro, autonomia total também exige cautela. Em fluxos críticos (como transações financeiras, ou modificações de código sensíveis), é prudente definir no prompt quais ações a IA não deve tomar sem aval humano, ou quais condições exigem parar. Você pode combinar
<persistence>
com avisos tipo “Se perceber risco X, pare e peça intervenção humana.” Lembre-se: mais proatividade não significa irresponsabilidade – um bom prompt deixa esses limites claros.Como exemplo prático, imagine pedir ao GPT-5 para escrever um script completo de automação para uma tarefa repetitiva. Com a persistência ativada e um nível de raciocínio alto, ele pode criar o script inteiro, testar soluções para possíveis problemas e entregar o código final, tudo sem interromper a cada função escrita. A sensação para quem usa é a de ter um assistente incansável que só volta com a missão cumprida ou um resultado realmente consolidado.
Podemos concluir que usar
<context_gathering>
e <persistence>
são como dois lados de um dial de “proatividade” da IA. Você pode girar para menos ou mais, dependendo do equilíbrio entre velocidade vs. completude que você precisa. Essa calibragem fina é um dos grandes trunfos do GPT-5 – então aproveite-a nos seus prompts!Preâmbulos e comunicação clara
Quando estamos trabalhando com agentes autônomos (que usam ferramentas, fazem chamadas de API, etc.), não basta a IA fazer as coisas direito – é importante ela comunicar o que está fazendo para que você (ou seu usuário final) possam acompanhar. Ninguém gosta de ficar no escuro enquanto a IA “pensa”. Por isso, o GPT-5 foi treinado para gerar pré‑ambulos de ferramenta esclarecedores, isto é, pequenas explicações sobre o que ele vai fazer, antes e durante o uso de ferramentas externas. Esse componente de comunicação traz transparência e confiança para interações longas.
Você pode orientar o estilo e a frequência desses preâmbulos no seu prompt. Quer que cada passo seja detalhado? Peça isso. Prefere apenas um plano inicial e depois só o resultado final? Também é possível. Abaixo está um exemplo de instruções de preâmbulo de alta qualidade que podemos incluir no prompt:
<tool_preambles> - Antes de usar qualquer ferramenta, reformule o objetivo do usuário de maneira **clara e amigável**. - Em seguida, apresente **um plano estruturado** listando cada passo lógico que você pretende seguir. - Conforme for executando cada etapa (chamando APIs, lendo arquivos, etc.), **narre o progresso de forma sucinta**, passo a passo, marcando o que já foi feito. - Ao finalizar, forneça um **resumo do que foi realizado**, separado do plano inicial para evidenciar a conclusão. </tool_preambles>
Com um prompt assim, imagine que você peça ao GPT-5 para obter a previsão do tempo via API. Em vez de simplesmente silenciar, chamar a API e cuspir o resultado, ele seguiria o guia: primeiro diria algo como “Ok, vou verificar um serviço de clima para pegar a condição atual em São Paulo e apresentá-la de forma compreensível.”. Esse é o preâmbulo inicial reescrevendo o objetivo. Depois, poderia listar: “1. Consultar API de clima; 2. Converter unidades para °C/°F; 3. Exibir resultado formatado.” – ou seja, um mini-plano. Em seguida, ao efetuar cada passo, ele dá um retorno rápido: “(Buscando dados meteorológicos...)”. Por fim, ele entrega a resposta final: “A temperatura em São Paulo agora é 28°C, com céu claro.”.
Percebeu como os preâmbulos humanizam a interação? Você acompanha o raciocínio da IA quase como se fosse um par de programação narrando o que faz. Isso é ótimo para manter o usuário engajado e confiável no processo, especialmente se a tarefa demora alguns segundos ou envolve múltiplos resultados.
Na prática de desenvolvimento, esses preâmbulos também ajudam no debug e monitoramento de agentes. Se algo der errado, você consegue identificar em qual etapa o plano falhou pelas mensagens que o modelo gerou.
Uma dica de ouro é: mantenha a clareza e a consistência na comunicação da IA. Ensine-a via prompt a adotar um tom apropriado (profissional, ou descontraído, dependendo do caso) e a não omitir informação importante do que está fazendo. Por exemplo, se a IA vai modificar um arquivo de código, um preâmbulo útil seria: “Vou agora refatorar o arquivo
UsuariosController.cs
para remover duplicações, conforme solicitado.”. Assim, você (ou seu time) sabem exatamente o que está acontecendo.Use os preâmbulos de ferramentas a seu favor. Eles são como as legendas de um filme: descrevem a “ação” da IA nos bastidores, tornando a experiência mais transparente. E lembra da comunicação clara que a Rocketseat valoriza? Aqui ela entra em ação: preâmbulos bem escritos garantem que mesmo quem não é técnico consiga entender o que a IA está fazendo, passo a passo.
Ajustando profundidade de raciocínio e verbosidade
Já comentamos sobre o
reasoning_effort
lá em cima – aquele parâmetro que define o tanto que o GPT-5 “pensa” antes de responder. Vamos nos aprofundar um pouquinho nele e também falar da verbosidade das respostas, que anda de mãos dadas com a profundidade de raciocínio.Reasoning Effort (esforço de raciocínio): imagine que esse dial vai de minimal (mínimo) até maximal (máximo), com o médio como padrão. Em níveis altos, o GPT-5 vai gastar mais tempo estruturando a solução internamente, considerar mais hipóteses, possivelmente fazer mais chamadas de ferramenta – tudo para atingir a resposta mais completa possível. Já em níveis baixos, ele pega um atalho: tenta resolver com menos passos de reflexão. Isso se traduz em respostas mais rápidas, porém às vezes menos exatas em cenários complexos.
- Quando usar nível baixo? Quando a tarefa é simples ou muito objetiva. Por exemplo: converter unidades, responder a uma pergunta direta de conhecimento comum, ou uma pequena tarefa de formatação de texto. Nesses casos, o GPT-5 provavelmente não precisa de um longo processo de pensamento. Ao reduzir o esforço, você ganha em latência (resposta sai rápido) e economiza tokens.
- Quando usar nível alto? Quando você lida com um problema intrincado: análise de dados, planejamento de várias etapas, tomada de decisão complexa ou geração de código complicado. O esforço maior aumenta a chance de o modelo cobrir todas as nuances e entregar algo mais confiável e detalhado. Claro que a resposta pode demorar um pouco mais e consumir mais tokens, mas compensa pela qualidade.
Verbosidade da resposta: este é outro aspecto que você pode controlar. Verbosidade significa o quão verbosa/detalhada será a resposta final do assistente. O GPT-5 permite ajustar isso de duas formas: através da API (parâmetro de configuração) e via linguagem natural no próprio prompt. Inclusive, o modelo entende instruções como “Seja breve” ou “Forneça muitos detalhes e exemplos” e tentará adequar o comprimento da resposta a esses pedidos, sem precisar de um parâmetro técnico.
- Se você quer uma resposta resumida, diga explicitamente no prompt: “responda em apenas 2 parágrafos concisos” ou “liste apenas os pontos principais em bullets”. O GPT-5 respeitará.
- Se precisa de uma resposta aprofundada, peça: “explique em detalhes, com analogias e exemplos práticos” ou “forneça uma análise abrangente, pode estender-se por vários parágrafos”.
O bacana é que dá para combinar isso com contexto. Por exemplo: “Explique o conceito X brevemente, em no máximo 3 frases, e depois forneça um exemplo de código detalhado.” Assim, a parte conceitual vem enxuta mas a parte do código vem longa – como instruído.
Exemplo prático: imagine o prompt: “O que são closures em JavaScript?”. Se nada mais for dito, o GPT-5 pode dar um parágrafo mediano explicando. Agora, se você pedir “Explique o que são closures em JavaScript de forma breve e direta.”, a resposta provavelmente será: “Closures são funções internas que se lembram do ambiente em que foram criadas, mesmo após esse ambiente terminar. Em resumo, uma closure permite que uma função acesse variáveis externas ao seu escopo mesmo depois que a função externa já executou.” – pronto, duas frases e acabou. Por outro lado, se o prompt fosse “Explique detalhadamente o conceito de closures em JavaScript, com analogias e um exemplo de código comentado.”, aí espere uma explicação longa, possivelmente comparando com “caixinhas” ou “backpacks” (analogia comum) e um exemplo de código completo mostrando uma função dentro da outra e comentários explicando cada parte.
Dica para encontrar o equilíbrio: experimente! Teste o mesmo pedido com diferentes verbosidades e veja o que melhor atende. Às vezes, respostas muito longas podem vir com informações demais (que o leitor nem precisava), enquanto respostas curtas demais podem pecar por falta de contexto. Ajuste o discurso do GPT-5 conforme o público: se for um iniciante no assunto, talvez valha ser mais verboso e didático; se for alguém avançado que quer só o “pulo do gato”, a objetividade ganha.
Outro ponto interessante: você pode modular a verbosidade dependendo do conteúdo da resposta. A equipe por trás do editor de código Cursor, por exemplo, adotou uma estratégia inteligente: reduziu a verbosidade geral das respostas do GPT-5 (para que o bate-papo ficasse mais direto), mas aumentou a verbosidade especificamente em trechos de código. Ou seja, quando o assistente ia apresentar código, eles deixavam claro no prompt que queriam explicações detalhadas dentro do código (comentários, etapas, etc.), porém, fora do código, a conversa deveria ser sucinta. Esse tipo de ajuste fino fez com que as respostas técnicas ficassem super legíveis – código bem comentado – sem que o usuário tivesse que ler textões desnecessários antes ou depois.
Em resumo, brinque com esses dials: profundidade de raciocínio e verbosidade. São duas alavancas poderosas para adaptar o GPT-5 aos mais variados cenários. Com prática, você começa a sentir intuitivamente: “Hmm, esse pedido aqui é complicado, vou aumentar o raciocínio e pedir uma resposta detalhada” ou “Isso aqui é simples, dá para resolver em 3 frases”. Essa sensibilidade vai fazendo de você um especialista em prompts.
Utilizando a Responses API para persistir contexto
Ao desenvolver aplicações ou interações multi-turno com o GPT-5 (especialmente as tais tarefas agentivas), um desafio comum é manter o contexto entre uma chamada de API e outra. Antes, usando só o Chat Completions tradicional, cada vez que o modelo chamava uma ferramenta e voltava, você precisava enviar de novo todo o histórico e plano para que ele “lembrasse” do que estava fazendo. Com o GPT-5, a OpenAI lançou a Responses API, que facilita demais essa continuidade de raciocínio.
A ideia central da Responses API é permitir que o modelo aproveite pensamentos anteriores sem você precisar repetir tudo no prompt. Funciona assim: quando o GPT-5 produz uma resposta (que pode incluir mensagens, chamadas de função, raciocínio, etc.), essa interação recebe um
response_id
. Em chamadas subsequentes, você pode enviar esse identificador de volta (usando o campo previous_response_id
) e, assim, o modelo sabe o que já fez antes. Ele carrega os “passos mentais” anteriores como parte do novo contexto, sem custo adicional de tokens para você. É quase como ter memória de curto prazo entre requisições.Por que isso importa? Porque em fluxos complexos a IA normalmente traça um plano, executa parte, depois retoma o plano, e assim por diante. Com a Responses API, não é preciso replanejar do zero a cada etapa, nem há o risco de ele “esquecer” detalhes do que já foi investigado. Em testes internos, esse recurso mostrou melhorias palpáveis: tarefas realizadas com mais eficiência e até aumento em métricas de sucesso. Além disso, menos tokens sendo mandados de um lado para o outro significa menor custo em $$ e menos chances de esbarrar no limite de comprimento de contexto.
Para usar na prática, é bem simples. Suponha que você está usando a biblioteca OpenAI (código exemplo, para ilustrar):
# Primeira interação com GPT-5: resposta1 = openai.Responses.create( model="gpt-5", input="Usuário: Encontre e corrija bugs neste repositório de código. Forneça um plano de ação primeiro.", # ... demais parâmetros ... ) # Armazene o ID da resposta para referência id_contexto = resposta1.id # Vamos supor que resposta1 incluiu um raciocínio e fez algumas chamadas de ferramenta. # Agora, enviamos uma nova consulta ou seguimos para o próximo passo, reutilizando o contexto: resposta2 = openai.Responses.create( model="gpt-5", input="Usuário: [fornece mais detalhes ou pergunta algo na sequência]", previous_response_id=id_contexto, # ... demais parâmetros ... ) print(resposta2.output) # Essa resposta já considera tudo que o modelo raciocinou na primeira chamada.
No exemplo acima,
resposta2
já vem “sabendo” do plano de ação que o GPT-5 elaborou em resposta1
, sem termos que repetir o plano no novo input. Assim, o modelo pode diretamente continuar de onde parou. Repare: esse não é o mesmo mecanismo das mensagens de chat tradicionais; aqui ele resgata internamente o estado do raciocínio. É como se o GPT-5 pudesse pensar: “Ok, eu já tinha começado isso e cheguei até o ponto X, agora vou dali em diante.”Quando usar a Responses API? Sempre que seu uso do GPT-5 envolver múltiplas etapas interligadas. Por exemplo: o modelo planeja algo, depois realmente executa (faz chamadas), depois analisa resultados e então compõe a resposta final. Aplicações de assistente de programação, agentes de pesquisa na web, ou qualquer caso em que a IA faz perguntas adicionais ao usuário – tudo isso se beneficia de persistir contexto.
Um caso concreto: imagine um assistente de viagem. Primeiro o GPT-5 faz perguntas ao usuário sobre preferências (praia ou montanha, orçamento, etc.). Depois, ele vai buscar voos e hotéis com base nas respostas. Usando a Responses API, você pode separar essas fases em chamadas distintas mas manter o “entendimento” do que o usuário quer. Isso reduz muita complexidade na hora de implementar o app, porque você lida com interações menores e deixa a memória por conta do endpoint da OpenAI.
Não deixe de experimentar a Responses API ao criar soluções com o GPT-5. Ela é incrível para aplicações agentivas robustas. Menos repetições, mais coerência e performance melhor – quem não quer?
Maximizando a performance em projetos de programação
Um terreno onde o GPT-5 brilha é na programação. A própria OpenAI destacou que este modelo supera seus antecessores em tasks de código: ele consegue navegar por bases de código grandes, compreender diffs extensos, aplicar refatorações multi-arquivo e até desenvolver aplicações inteiras end-to-end. Então, como tirar o melhor disso nos seus prompts? Vamos ver algumas dicas voltadas para quem quer usar o GPT-5 como um auxiliar na programação.
Use as ferramentas certas nos prompts de codificação: o GPT-5 domina diversos frameworks e bibliotecas populares. Para front-end, por exemplo, ele tem um ótimo repertório com Next.js (usando TypeScript) e bibliotecas de UI modernas. Em estilização, ele conhece Tailwind CSS profundamente, assim como componentes do shadcn/ui e design systems baseados em Radix Themes. Para ícones e animações, ele cita coisas como Material Symbols, Heroicons, Lucide e a biblioteca de animações Framer Motion. O que isso quer dizer? Que se você direcionar o modelo a usar essas ferramentas, a chance de vir código de alta qualidade é maior – porque foram tecnologias privilegiadas no treinamento. Então, não hesite em especificar no prompt qual stack você quer. Por exemplo: “Crie uma página web usando Next.js e Tailwind CSS que consuma a API X e exiba os dados em um gráfico.” – é tiro e queda para receber um código bem estruturado seguindo esses padrões.
Planejamento de apps completos: o GPT-5 se destaca em geração zero-to-one, ou seja, criar aplicações do zero. Uma técnica avançada é solicitar que ele faça um auto-planejamento criterioso antes de começar a codar. Você pode pedir algo como: “Antes de escrever o código, pense em todos os requisitos e crie uma lista de critérios de excelência para esta aplicação. Depois, só então, implemente o código seguindo esses critérios.”. Isso soa abstrato, mas o GPT-5 consegue fazer! Ele pode, internamente, definir que uma aplicação ideal deve atender, por exemplo, 5 a 7 categorias (design responsivo, desempenho, segurança, UI amigável, etc.). Em seguida, ele codifica já checando mentalmente se cumpre cada critério. Essa abordagem de autoavaliação iterativa leva a um resultado final muito mais refinado. É como se a IA fosse seu tech lead, definindo padrão de qualidade e garantindo que o código final “passa nos testes” imaginários que ela mesma criou. Essa técnica é uma forma de meta-prompt chamada de self-reflection, e pode ser incluída no prompt via uma tag
<self_reflection>
com orientações, se quiser algo bem estruturado.Manutenção e refatoração consciente: quando for usar o GPT-5 para melhorar código existente, é crucial que ele entenda o contexto do codebase e mantenha consistência. O modelo já tende a ler arquivos relevantes (se você fornecer, ou se a integração da ferramenta permitir leitura do repositório) – por exemplo, ele pode automaticamente dar uma olhada no seu
package.json
para ver dependências e padrões. Mas podemos dar um passo além e explicitar algumas regras de estilo e arquitetura do projeto no prompt. A OpenAI sugere usar outra tag, <code_editing_rules>
, onde você define princípios orientadores. Por exemplo:<code_editing_rules> <guiding_principles> - **Clareza e reutilização**: Cada componente deve ser modular e evitar duplicações. Se um padrão de UI se repete, transforme-o em um componente reutilizável. - **Consistência**: Siga o design system do projeto (cores, tipografia, espaçamento) à risca. Mantenha o estilo de código consistente com o restante do projeto. - **Simplicidade**: Prefira soluções simples e claras. Evite complexidade desnecessária tanto no layout quanto na lógica. </guiding_principles> <!-- ... outras regras específicas, se necessário ... --> </code_editing_rules>
As três diretrizes acima (clareza, consistência e simplicidade) são exemplos que alinham bem com as expectativas de um código limpo. Ao fornecer isso ao GPT-5 antes de uma tarefa de refatoração, você está calibrando o “olhar crítico” dele. Ele vai tentar se encaixar nesse estilo: não vai inventar moda fora do padrão do seu projeto e vai prezar por código legível.
Use a IA para acelerar seu aprendizado e entrega: uma recomendação final aqui é não apenas obter respostas, mas aprender com elas. Ao pedir para o GPT-5 gerar código, leia os trechos, entenda as soluções. Muitas vezes, ele vai usar frameworks de forma idiomática, ou mostrar alguma função de biblioteca utilitária que você não conhecia. É uma chance de crescer como pessoa desenvolvedora enquanto realiza suas tarefas.
Falando em aprendizado, se quiser ir além e realmente dominar a integração de IA em projetos de código, vale conferir a iniciativa da Rocketseat focada em IA para devs. Assim você aprende não só a escrever bons prompts, mas a orquestrar ferramentas, APIs e tudo mais para criar aplicações inteligentes completas.
Agora, mudando de assunto: você já pensou em pedir ajuda para a IA melhorar o seu prompt?
Meta-prompting
Parece loucura, mas é totalmente possível e eficaz – é o conceito de meta-promptagem. Basicamente, é usar o GPT-5 para avaliar e otimizar os próprios prompts que você escreve. Afinal, quem melhor para entender o que o modelo precisa do que ele mesmo?
Como funciona meta-prompting: Vamos supor que você criou um prompt complexo e, quando testou, o resultado não foi bom. Ao invés de você quebrar a cabeça sozinho tentando identificar o problema, você pode fazer o seguinte pedido ao GPT-5: forneça a ele o prompt que você escreveu, diga qual era o comportamento desejado e o que saiu errado, e pergunte o que poderia ser alterado. Por exemplo:
“GPT-5, aqui está um prompt que usei: [COLA O PROMPT]. O comportamento desejado era [explique o que você queria que o modelo fizesse], mas o que ocorreu foi [explique o resultado indesejado]. Na sua opinião, que frases ou elementos eu poderia adicionar, remover ou modificar nesse prompt para obter o comportamento desejado de forma consistente? Responda do seu ponto de vista, apontando melhorias pontuais no prompt.”
Acredite: o GPT-5 provavelmente virá com ótimas sugestões! Ele pode identificar, por exemplo, “Olha, você disse para nunca fazer X mas depois meio que pediu para fazer X em outro contexto, isso confunde. Talvez retire aquela parte ‘nunca’ e troque por uma instrução condicional.” Ou pode notar: “Você não mencionou qual formato de saída queria, então a resposta veio em formato livre. Se você especificar um formato (lista, tabela, etc.) terá mais consistência.”
Essa técnica é poderosa porque aproveita o próprio “conhecimento” do modelo sobre si mesmo. É como se estivesse perguntando para o GPT-5: “Ei, onde meu prompt está te confundindo? Me dá a real.” – e ele dá!
Essa prática de meta-promptagem foi observada já nos primeiros testers do GPT-5 e comprovou ser um atalho esperto. Inclusive, muita gente já coloca no prompt inicial algo como: “Se minha pergunta/prompt estiver mal formulada ou faltar informação, você (IA) pode sugerir melhorias?”, tornando a conversa colaborativa na construção do prompt ideal.
Chegamos ao final da nossa jornada de dicas e técnicas. Ufa! Cobriu muita coisa, né? Vamos amarrar os pontos principais e deixar você com um caminho para seguir adiante.
Dominando o GPT-5 um prompt de cada vez
Exploramos como a arte de criar bons prompts é a chave para liberar todo o poder do GPT-5. Vimos que com instruções claras, coerentes e bem calibradas, você pode transformar por completo a qualidade das respostas que obtém da IA – seja em perguntas simples do dia a dia, seja em projetos complexos de programação ou automação.
Alguns aprendizados essenciais para levar com você:
- Clareza e coerência mandam no jogo: um prompt bem pensado, sem contradições e sem ambiguidades, permite que o GPT-5 entregue exatamente o que você precisa. Gastar tempo deixando tudo redondinho compensa lá na frente com respostas mais úteis e menos retrabalho.
- Calibre a proatividade conforme o contexto: agora você sabe controlar a “personalidade” agentiva do GPT-5. Quando quiser rapidez e foco, reduza o escopo de raciocínio e use instruções de
<context_gathering>
para limitar a exploração. Quando precisar de determinação e autonomia, aumente o raciocínio e adicione<persistence>
para ele não largar a tarefa no meio. Essa regulagem fina é poderosa e única do GPT-5 – use-a a seu favor!
- Ferramentas e preâmbulos enriquecem a interação: ensinar o modelo a narrar seus passos (via preâmbulos) traz transparência e confiança, enquanto integrar a Responses API nos seus fluxos mantém a continuidade e economiza recursos. São peças novas desse quebra-cabeça que ampliam o que você pode construir com IA, de agentes conversacionais a assistentes de codificação.
- Em programação, contexto é rei: o GPT-5 pode ser seu par de programação incansável, mas ele trabalha melhor quando entende o terreno. Dê a ele contexto do projeto, defina padrões de código a seguir, mencione frameworks de preferência. Assim, o código que ele gerar terá muito mais a ver com o seu mundo, exigindo menos ajustes.
- Aprenda com a IA e evolua constantemente: assim como na tecnologia em geral, iterar é preciso. Teste diferentes abordagens de prompt, peça feedback (até mesmo para o GPT-5, via meta-promptagem), e refine. Cada interação é uma chance de aprender não só sobre a IA, mas sobre comunicação, resolução de problemas e até sobre você, que começa a pensar de forma mais estruturada para dialogar com a máquina.
Por fim, tenha em mente que estamos apenas no começo da era dos assistentes de IA avançados. Dominar a engenharia de prompts com GPT-5 hoje não só vai turbinar sua produtividade, como também te posiciona um passo à frente na transformação que está acontecendo em diversas áreas. Imagina só: quem sabe instruir bem uma IA consegue multiplicar seus resultados, seja escrevendo código, criando conteúdo, analisando dados ou inovando em produtos digitais.
E se você quer se aprofundar ainda mais nesse universo e até descobrir na prática como isso pode impulsionar sua carreira, tenho um convite especial:
Participe da Masterclass de IA com Rodrigo Gonçalves! Nessa formação, você vai ver de perto como usar ferramentas de IA como o ChatGPT e o modelo Gemini para ganhar tempo, automatizar tarefas e se destacar no mercado – mesmo que você não seja da área de programação. É uma oportunidade de aprender com quem vive tecnologia e educação no dia a dia, integrando IA em projetos reais e compartilhando as melhores práticas. Ficou curioso? Dá uma conferida no link da Masterclass e veja como você pode levar o que aprendeu aqui para o próximo nível.
No mais, espero que este guia tenha agregado valor de verdade na sua jornada. Agora é com você: bora colocar essas dicas em prática, experimentar novos prompts e explorar todo o potencial do GPT-5. Quem sabe, seu próximo projeto ou desafio será resolvido de forma brilhante com a ajuda dessas técnicas. E lembre-se: a Rocketseat está aqui para te acompanhar nessa jornada de aprendizado contínuo – conte com a nossa comunidade e recursos para seguir evoluindo.
Até a próxima e bons prompts! 💜
Perguntas frequentes:
O que é a “proatividade da IA” (agentic eagerness) no GPT-5?
É o grau de iniciativa que o modelo toma por conta própria em tarefas multi-etapas. Uma IA com alta proatividade vai buscar soluções autonomamente, fazer pesquisas ou executar passos sem pedir permissão a cada instante. Já com baixa proatividade, ela aguarda mais instruções antes de agir. No GPT-5 podemos ajustar isso usando parâmetros (
reasoning_effort
alto ou baixo) e tags de prompt como <context_gathering>
(para reduzir a exploração) e <persistence>
(para aumentar a autonomia), conforme desejado.Para que serve o parâmetro reasoning_effort
exatamente?
Esse parâmetro controla a “profundidade de raciocínio” do GPT-5. Em níveis mais altos, o modelo gasta mais tempo pensando e tende a usar mais passos (ou chamadas de ferramenta) antes de dar a resposta final, buscando ser o mais completo possível. Em níveis mais baixos (como minimal reasoning), ele faz menos deliberações, respondendo mais rapidamente porém com menos detalhes. É útil ajustá-lo de acordo com a complexidade da tarefa: alto para desafios complicados e baixo para consultas simples ou quando precisa de rapidez.
O que é a Responses API e como ela melhora as interações?
A Responses API é uma interface de chamada da OpenAI que permite persistir o contexto de raciocínio do GPT-5 entre interações. Na prática, cada resposta da IA vem com um ID, e você pode fornecer esse ID na próxima chamada (
previous_response_id
) para que o modelo lembre do que já foi “pensado” anteriormente. Isso evita retrabalho – ele não precisa replanejar ou reanalisar tudo do zero – tornando as interações multi-turno mais eficientes, rápidas e coerentes. Em agentes que usam várias etapas (planejar -> pesquisar -> executar -> responder, por exemplo), a Responses API faz muita diferença.Como posso usar a meta-promptagem para melhorar meus prompts?
Meta-promptagem significa pedir ajuda ao próprio GPT-5 para aperfeiçoar o prompt que você escreve. Para usar, apresente ao modelo o prompt que você criou, descreva qual resultado você esperava e em que o resultado real ficou aquém, e pergunte o que poderia ser mudado no prompt. O GPT-5, analisando do “ponto de vista dele”, geralmente indica partes confusas, ambiguidades ou detalhes que faltam. Com base nesse feedback, você ajusta o prompt e testa novamente. É uma forma colaborativa de iterar o design do prompt, aproveitando a expertise da própria IA em entender instruções.
Artigos_
Explore conteúdos relacionados
Descubra mais artigos que complementam seu aprendizado e expandem seu conhecimento.