Prompt Engineering (2026): Guia Completo com Técnicas, Templates e Exemplos
Escrever prompts virou uma habilidade com ROI absurdo: um prompt bem estruturado transforma um modelo médio em excelente, e um modelo excelente em quase imbatível. Este guia mostra o que cada elemento faz, quando usar cada técnica e traz templates prontos para copiar.
Por Vitor Morais
Fundador do MochaLabz ·
Monte prompts em segundos
Estruture role, contexto, exemplos e formato com um template guiado.
Usar gerador de prompt →Prompt engineering é o ato de estruturar a entrada de um modelo de linguagem para extrair dele o melhor resultado possível. Soa técnico, mas na prática é só escrever com intenção. O mesmo modelo que devolve um texto genérico com “escreva sobre marketing” devolve uma análise densa e acionável com um prompt bem montado. A diferença é método.
Este guia cobre os fundamentos que continuam valendo em 2026, separa o que virou irrelevante com modelos de reasoning e dá templates concretos para os casos mais comuns.
O modelo mental: prompt como briefing
Trate o LLM como um freelancer muito competente mas que acabou de entrar no projeto. Ele é habilidoso, mas não tem contexto. Quanto mais briefing você dá, melhor o resultado. Um prompt bom responde a cinco perguntas que todo freelancer faz:
- Com que papel você está me contratando?
- Qual o contexto do projeto e as restrições?
- Qual a tarefa específica?
- Tem exemplo de output que deu certo antes?
- Como quer o resultado entregue?
Se seu prompt tem resposta clara para as cinco, você já está à frente de 90% do que circula por aí.
Anatomia de um prompt estruturado
Um prompt robusto tem cinco blocos, na ordem:
- Role: a persona que o modelo deve adotar. Dá a ele um ponto de vista e um vocabulário.
- Contexto e restrições: o que ele precisa saber antes de começar; regras que valem sempre.
- Tarefa: a ação específica. Verbo no imperativo, objeto claro.
- Exemplos (opcional): 2–5 demonstrações do output esperado.
- Formato do output: como entregar a resposta — markdown, JSON, bullets, prosa.
[ROLE]
Você é editor sênior de conteúdo B2B tech, com 10 anos de
experiência em SaaS de infraestrutura.
[CONTEXTO]
Nosso blog atrai CTOs de startups Series A–C. Tom: técnico,
mas acessível; sem jargão marketeiro; sem emojis.
[TAREFA]
Reescreva o parágrafo abaixo reduzindo em 40% o tamanho
sem perder a ideia principal.
[EXEMPLO]
Antes: <texto longo>
Depois: <texto condensado>
[INPUT]
<parágrafo a reescrever>
[FORMATO]
Responda apenas com o texto reescrito, sem introdução.Dica
<role>, <tarefa>). O modelo foi treinado com preferência para esse formato e a aderência às instruções aumenta mensuravelmente.Role prompting: definindo a persona
O role não é cosplay inútil — ele ancora o modelo em um repertório específico. “Você é advogado tributarista” faz o modelo puxar vocabulário jurídico, estruturas de parecer e conservadorismo. “Você é copywriter de resposta direta” faz o oposto: frases curtas, ganchos emocionais, CTAs claros.
Role pobre: “você é um assistente”. Role rico: “você é engenheiro de software sênior, especialista em sistemas distribuídos, com viés para simplicidade e clara aversão a over-engineering”.
Contexto: o que o modelo precisa saber
Informações que dão base para uma resposta útil. Evite encher de detalhe irrelevante — rouba atenção e aumenta risco de alucinação.
- Contexto do negócio: “somos uma fintech focada em PMEs”.
- Contexto da audiência: “CTOs de startups Series B”.
- Restrições de tom: “formal, sem emojis, sem humor”.
- Restrições de tamanho: “máximo 150 palavras”.
- O que NÃO fazer: restrições negativas valem tanto quanto positivas.
Few-shot: quando dar exemplos compensa
Few-shot prompting é mostrar 2–5 exemplos de input e output esperado antes da tarefa real. Aumenta dramaticamente a consistência em tarefas com formato específico.
| Critério | Ajuda muito | Ajuda pouco | Atrapalha |
|---|---|---|---|
| Formato estruturado (CSV, JSON) | Sim | ||
| Classificação em categorias fixas | Sim | ||
| Transformação de texto (reescrita, tom) | Sim | ||
| Geração criativa livre | Sim | ||
| Perguntas factuais simples | Sim | ||
| Exemplos contraditórios entre si | Sim | ||
| Exemplos com viés forte | Sim |
Classifique o feedback como POSITIVO, NEGATIVO ou NEUTRO.
Feedback: "Adorei a interface, mas o suporte demora."
Classificação: NEUTRO
Feedback: "Não recomendo, bugs em todo lugar."
Classificação: NEGATIVO
Feedback: "Melhor ferramenta que usei no ano."
Classificação: POSITIVO
Feedback: "<input real aqui>"
Classificação:Chain-of-thought: pedindo raciocínio explícito
Chain-of-thought (CoT) é instruir o modelo a mostrar o raciocínio antes da resposta final. Aumenta precisão em problemas com múltiplas etapas. O trigger clássico é “pense passo a passo”.
Em 2026, com modelos de reasoning (o3, GPT-5-thinking, Claude Thinking), o CoT acontece internamente e não precisa ser pedido. Ainda assim, em modelos não-reasoning (Haiku, Flash, Mini), continua essencial para problemas lógicos.
Atenção
Output estruturado: JSON, CSV, XML
Se você vai processar a resposta em código, peça formato estruturado desde o início. Claude e GPT-5 aceitam response_format: json_object via API, que garante JSON válido. Em UI sem esse controle, peça explicitamente e mostre o schema:
Extraia os dados do email abaixo e retorne JSON
com o schema:
{
"remetente": string,
"data": string (ISO 8601),
"assunto": string,
"urgencia": "alta" | "media" | "baixa",
"acoes_necessarias": string[]
}
Email:
<texto do email>
Retorne APENAS o JSON, sem explicação adicional.Restrições negativas: o que NÃO fazer
Instruções negativas são subestimadas. Elas economizam iteração. Se você sempre recebe emoji onde não quer, diga. Se o modelo abusa de bullets, proíba. Se o tom sai motivacional indesejado, bloqueie.
- “Não use emojis em nenhuma circunstância.”
- “Não comece parágrafos com ‘é importante’.”
- “Não invente dados; se não souber, diga que não sabe.”
- “Não use listas com bullet; escreva em prosa corrida.”
Iteração: refinando o prompt
Raro o prompt sair perfeito na primeira. Processo iterativo:
- Escreva o prompt. Rode. Anote o que saiu errado.
- Cada problema vira uma restrição nova. “Respondeu longo demais” → adicione “máximo 100 palavras”.
- Se o output melhora em 5 rodadas, o prompt está bom. Se 10 rodadas e ainda falha, provavelmente falta contexto ou o modelo é inadequado pro tipo de tarefa.
Contexto
Templates prontos para 6 casos comuns
1. Resumo executivo de documento longo
Role: consultor de negócios sênior.
Tarefa: resuma o documento anexo em formato executive summary.
Estrutura obrigatória:
1. Contexto (2-3 frases)
2. Problema ou oportunidade (2-3 frases)
3. Recomendação (1 frase clara)
4. Impacto esperado (3 bullets com números)
5. Próximos passos (3 bullets)
Tamanho total: máximo 250 palavras.
Tom: factual, sem superlativos.2. Revisão de código
Role: engenheiro sênior fazendo code review.
Analise o código abaixo e retorne:
- 3 problemas de segurança (se houver)
- 3 problemas de performance (se houver)
- 3 sugestões de legibilidade
- Versão refatorada (apenas se valer a pena)
Priorize correção > performance > estilo.
Não comente código bom; foque em onde há problema real.3. Geração de ideias de conteúdo
Role: editor de blog B2B em nicho [NICHO].
Gere 15 ideias de artigos que combinam:
- Intenção de busca informacional ou comercial
- Ângulo contraintuitivo ou dado específico
- Título entre 50-60 caracteres
- Público: [PERSONA]
Formato: tabela markdown com colunas
| Título | Intenção | Gancho |4. Tradução com tom
Traduza o texto abaixo para português brasileiro.
Regras:
- Mantenha termos técnicos em inglês quando for convenção
(deploy, commit, merge, pull request)
- Tom: informal mas profissional, como desenvolvedor escrevendo
para outro desenvolvedor
- Adapte expressões idiomáticas para equivalentes naturais
- Preserve formatação markdown original
Texto:
<texto em inglês>5. Extração estruturada de dados
Extraia do texto abaixo as seguintes informações em JSON:
{
"empresas_mencionadas": string[],
"pessoas_mencionadas": {
"nome": string,
"cargo": string | null
}[],
"datas_relevantes": string[],
"valores_monetarios": string[]
}
Se um campo não aparecer no texto, retorne array vazio.
Não invente dados.
Texto:
<documento>6. Brainstorming crítico
Role: conselheiro contrarian que sempre aponta riscos.
Vou descrever uma ideia de negócio. Sua tarefa:
1. Listar 3 razões genuínas pelas quais pode dar certo
2. Listar 5 razões pelas quais provavelmente vai falhar
3. Identificar o maior risco não-óbvio
4. Sugerir o menor experimento que validaria se continua
Não seja educadinho. Se a ideia é ruim, diga claramente.
Ideia:
<descrição>Diferenças práticas entre modelos em 2026
| Critério | Forte em | Fraco em |
|---|---|---|
| Claude Opus 4.7 / Sonnet 4.6 | Instrução longa, XML, nuance de tom | Humor mais rígido |
| GPT-5 / GPT-5-thinking | Versatilidade, tool use, código | Pode divagar sem restrição |
| Gemini 2.5 Pro / Flash | Contexto ultra-longo, busca grounded | Criatividade mais genérica |
| Llama 4 / Mistral Large | Self-hosted, custo zero | Precisa de prompt mais explícito |
Erros clássicos que geram resposta ruim
- Pedido vago: “fale sobre X” sem contexto ou ângulo.
- Mistura de instruções e dados: jogar o conteúdo e o pedido no mesmo parágrafo confunde. Separe com delimitadores.
- Restrições contraditórias: “detalhado mas curto”. Escolha um.
- Esperar que o modelo saiba coisas privadas: se informação está no seu computador e não no treino, forneça no contexto ou use RAG.
- Aceitar a primeira resposta: pedir revisão ou crítica melhora muito o output em tarefas complexas.
Como avaliar objetivamente um prompt
Se você usa um prompt em produção ou em volume, vale medir qualidade com método:
- Monte um dataset de 15–20 inputs típicos (cobrindo edge cases).
- Rode o prompt contra todos. Registre os outputs.
- Crie critérios de aprovação: fidelidade, completude, formato, tom.
- Pontue de 1 a 5 em cada critério. Prompt bom = média acima de 4 em todos.
- Itere no prompt até bater a meta. Guarde os datasets — servem para comparar versões depois.
Vai mais fundo
Prompt engineering em uma frase
A regra de ouro é tratar prompt como contrato: quanto mais claro o papel, as restrições, o formato e os critérios de sucesso, mais previsível o output. Modelos ficarão cada vez mais capazes, mas quem estrutura bem a entrada sempre vai extrair mais valor do mesmo modelo que o leigo ao lado.
Perguntas frequentes
Prompt engineering ainda vale a pena com modelos tão melhores?+
Sim — e virou mais valioso, não menos. Modelos como GPT-5 e Claude Sonnet 4.6 são absurdamente capazes, mas só entregam esse teto com prompts bem estruturados. Um prompt vago continua gerando resposta genérica. A diferença é que técnicas avançadas (chain-of-thought, few-shot) ficaram opcionais — o básico bem feito (role, contexto, formato) leva 80% do resultado.
Qual a ordem certa dos elementos em um prompt?+
A estrutura robusta é: (1) role e persona, (2) contexto e restrições, (3) tarefa e input, (4) exemplos se precisar, (5) formato esperado do output. Claude e GPT-5 respondem melhor a essa ordem. Em modelos menores (Haiku, Flash), mova o formato do output para o final — reduz risco de o modelo esquecer instruções no meio de resposta longa.
Quando usar chain-of-thought vs resposta direta?+
Chain-of-thought (pedir para o modelo raciocinar passo a passo) é útil em problemas com várias etapas lógicas: matemática, planejamento, análise com trade-offs, debugging. Para tarefas criativas, geração simples ou respostas factuais curtas, atrapalha. A partir dos modelos reasoning (o3, Claude Thinking, GPT-5-thinking), o raciocínio interno vem embutido — você não precisa pedir.
Quantos exemplos (few-shot) são ideais?+
Entre 2 e 5 exemplos é o sweet spot para a maioria dos casos. Um exemplo (one-shot) às vezes basta para tarefas simples. Mais de 5 começa a comer janela de contexto sem ganho proporcional, e pode até introduzir viés se os exemplos forem enviesados. Escolha exemplos diversos que cubram casos positivos, negativos e edge cases.
Preciso usar delimitadores como XML ou markdown?+
Para prompts com múltiplas seções, sim. Claude responde excepcionalmente bem a XML (<contexto>, <exemplo>, <tarefa>) — é o formato recomendado pela Anthropic. GPT funciona melhor com markdown ou cabeçalhos simples. Delimitadores evitam que o modelo confunda instrução com conteúdo de entrada, especialmente em tarefas de análise ou resumo de texto longo.
Vale a pena salvar prompts em uma biblioteca?+
Absolutamente. Quem usa IA no dia a dia acaba com 20–50 prompts recorrentes (resumo, tradução, revisão de código, geração de idéias). Salvar numa biblioteca (Notion, TextExpander, Raycast snippets) economiza horas por semana. Melhor ainda: versione o prompt — se você ajusta, guarde o histórico para comparar output e entender o que funcionou.
Como medir se um prompt é bom?+
Três critérios: (1) consistência — rode o mesmo prompt 5 vezes e veja se o output mantém qualidade; (2) precisão — responde exatamente o que você pediu, sem inventar; (3) formato — segue a estrutura solicitada. Para uso sério, crie um dataset de 10–20 inputs típicos e rode o prompt contra todos. Ajuste até passar em 9 de 10.
Diferença prática entre prompt system, user e assistant?+
System prompt define identidade, regras permanentes e restrições (ex.: “você é editor experiente; nunca use emojis”). User é o que o usuário envia. Assistant é a resposta do modelo. Via API, você pode pré-popular turns do assistant para induzir comportamento. Em ChatGPT/Claude UI, só o system (como custom instructions) e user são visíveis.
Artigos relacionados
Como Economizar Tokens no ChatGPT, Claude e Gemini (Guia 2026)
Reduza o custo das APIs de IA em 40–80% sem perder qualidade. 12 técnicas práticas: compressão, prompt caching, modelos em cascata, RAG, batching, sumarização — com estimativas reais.
Janela de Contexto em IA: Guia Completo (2026) com Limites por Modelo
A janela de contexto define quanto texto um LLM consegue processar de uma vez. Conheça os limites de GPT-5, Claude, Gemini e Llama em 2026, lost-in-the-middle, RAG, chunking e prompt caching.
Chain-of-Thought Prompting: O Guia Completo (2026) com Exemplos
Chain-of-Thought (CoT) é a técnica de prompt que faz LLMs raciocinarem passo a passo, melhorando acurácia em até 60% em problemas complexos. Aprenda zero-shot, few-shot, Self-Consistency e Tree-of-Thoughts, com exemplos para ChatGPT, Claude e Gemini.
Few-Shot Prompting: Como Ensinar Padrões à IA com Exemplos (2026)
Few-shot prompting é a técnica mais confiável para garantir formato e consistência em saídas de LLMs. Aprenda zero-shot vs one-shot vs few-shot, quantos exemplos usar, combinação com Chain-of-Thought e quando migrar para fine-tuning.