Os cinco maiores erros que as pessoas cometem ao solicitar uma IA

Erro imediato do Gemini AI em um laptop.

ZDNET

Ferramentas generativas de IA como ChatGPT, Gemini e Copilot podem ser poderosas. Embora a IA generativa seja uma tecnologia relativamente nova, uma limitação poderosa ao seu uso remonta à década de 1950 ou antes: GIGO. GIGO significa “entra lixo, sai lixo”. Se você fizer as perguntas erradas à IA ou não as fizer corretamente, é praticamente certo que obterá respostas inúteis.

Além disso: 7 maneiras de escrever prompts ChatGPT melhores – e obter os resultados desejados com mais rapidez

Neste artigo, vou mostrar o que considero os cinco maiores erros, mas sou apenas uma fonte. Então, além das minhas próprias respostas, levei essa pergunta para as “pessoas” que deveriam saber melhor sobre esse tema específico, as IAs.

Fiz a mesma pergunta ao ChatGPT, Copilot, Grok, Gemini e Meta AI: “Quais são os cinco maiores erros que as pessoas cometem ao solicitar uma IA?”

Para ter certeza de que meus pensamentos não foram influenciados pelos das IAs, comecei com uma lista do que são, na minha opinião, os cinco maiores erros das pessoas e já havia escrito minhas descrições detalhadas antes de solicitar a opinião das IAs. Os resultados (e especialmente os temas comuns) são muito interessantes. Aqui está uma tabela que agrega todas as nossas respostas.

erros de solicitação de IA

David Gewirtz/ZDNET

Observe que todos concordamos com a resposta principal: não ser específico o suficiente em suas solicitações. Para obter mais detalhes, vamos nos aprofundar no que cada um de nós considera os maiores erros que você pode cometer ao ativar uma IA. Vamos começar com meus cinco.

1. Não ser específico o suficiente

Nem IAs nem humanos (com a possível exceção de minha esposa) são leitores de mentes. Você pode ter uma imagem muito clara do problema que está tentando resolver, das restrições, das coisas que considerou ou tentou e das possíveis objeções.

Além disso: Os melhores chatbots de IA de 2025: ChatGPT, Copilot e alternativas notáveis

Mas, a menos que você forneça uma pergunta muito clara, nem seus amigos humanos nem seus assistentes de IA serão capazes de extrair essas imagens da sua cabeça. Ao pedir ajuda, seja claro e completo.

2. Não especificar como deseja que a resposta seja formatada

Você quer uma lista, uma discussão ou uma mesa? Você quer uma comparação entre os fatores ou um mergulho profundo nas questões? Esse erro acontece quando você faz uma pergunta, mas não dá orientação à IA sobre como deseja que a resposta seja apresentada.

Esse erro não se trata apenas de estilo e pontuação – trata-se de como as informações são processadas e refinadas para seu eventual consumo. Tal como acontece com o meu primeiro item desta lista, seja específico. Diga à IA o que você está procurando e o que precisa para poder aceitar uma resposta.

3. Não lembrar de limpar ou iniciar uma nova sessão

Descobri que as IAs às vezes ficam confusas quando você usa uma sessão para múltiplas linhas de investigação. Às vezes, eles presumirão que os detalhes que você forneceu anteriormente ou as perguntas que você fez anteriormente também foram relevantes para um conjunto posterior de solicitações.

Além disso: 7 dicas avançadas de redação de prompts do ChatGPT que você precisa saber

Para superar isso, eu inicio uma sessão completamente nova ou digo à IA para “encerrar a sessão”, o que diz à IA para considerar tudo o que estamos prestes a discutir como uma discussão completamente nova.

4. Não corrigir, esclarecer ou orientar a IA após uma resposta

Como numa conversa humana, descobri que as IAs muitas vezes entendem mal a questão ou seguem uma linha de investigação que não é diretamente relevante para o que procuro.
Descobri que muitas vezes tenho que percorrer a pergunta, fazendo perguntas de acompanhamento, dizendo à IA que ela deu uma resposta errada, corrigindo-a e orientando-a para o que procuro. Se estiver no caminho certo, mas faltando parte da resposta, diga. Diga-lhe o que está errado e o que está acertando e, em seguida, continue nesse caminho de investigação.

5. Não saber quando desistir

Às vezes, o problema não é algo que uma IA possa resolver ou não possa fornecer o grau de qualidade que você precisa. Fundamentalmente, uma IA é uma ferramenta e uma ferramenta não pode fazer tudo.

Então, saiba quando segurá-los e quando dobrá-los. Saiba quando é hora de voltar a um mecanismo de pesquisa, procurar em fóruns ou construir respostas por conta própria. Existe um ponto de retornos decrescentes e se você conseguir identificar esse ponto, poderá economizar tempo e frustração.

OK, então esses são meus cinco pedaços de sabedoria. Vamos ver o que as IAs têm a dizer.

Conselho do ChatGPT

Aqui estão as respostas que o ChatGPT me deu.

  • Ser muito vago ou pouco claro: Escrever instruções sem especificidade, levando a respostas incompletas ou irrelevantes.
  • Sobrecarregando o prompt: Incluir muitas informações ou solicitar várias tarefas não relacionadas em um único prompt.
  • Usando terminologia incorreta ou inconsistente: Usar termos ou frases que possam ser interpretados de forma diferente ou que sejam inconsistentes com o contexto desejado.
  • Falha ao especificar o formato ou estrutura da resposta: Não instruir a IA sobre a aparência do resultado (por exemplo, marcadores, parágrafos, resumos).
  • Supondo que a IA saiba tudo sobre o contexto: Omitir informações básicas essenciais, assumindo que a IA já conhece detalhes específicos.

Também: Como configuro o ChatGPT como backup do Siri – e o que mais ele pode fazer no meu iPhone

ChatGPT correspondeu às minhas respostas em duas das cinco: ser muito vago e não especificar o formato. Vamos ver o que o CoPilot tem a dizer.

Conselho do copiloto

O Copilot me deu seu conselho depois que colei meu prompt.

  • Falta de clareza: Solicitações vagas podem levar a respostas igualmente vagas.
  • Sobrecarga de informações: Fornecer muitas informações de uma só vez pode ser opressor.
  • Ignorando o contexto: Deixar de fornecer contexto pode resultar em respostas erradas.
  • Não sendo específico: Perguntas amplas podem gerar respostas amplas.
  • Supondo que a IA saiba tudo: Não tenha experiências pessoais ou a capacidade de compreender tópicos extremamente específicos ou altamente especializados sem contexto ou experiência suficiente.

Curiosamente, o Copilot separou a falta de clareza da falta de especificidade. Eu considero isso praticamente a mesma coisa. Mas não importa como você o liste, tanto o Copilot quanto eu concordamos que você precisa fornecer informações suficientes para poder fazer seu trabalho.

Também: Como usar o Copilot AI da Microsoft no Linux

Tanto o Copilot quanto o ChatGPT usam o mesmo LLM subjacente, por isso é interessante que suas respostas sejam um pouco diferentes.

Grokkings de Grok

Tal como acontece com as outras IAs, pedi a Grok que me dissesse o que os humanos estão fazendo de errado. Teve algumas respostas.

  • Consultas vagas ou ambíguas: Fazer perguntas muito amplas ou pouco claras.
  • Assumindo uma compreensão semelhante à humana: Esperar que a IA compreenda o contexto ou as nuances da mesma forma que um ser humano faria.
  • Sobrecarregando o prompt com informações: Fornecer muitas informações ou fazer muitas perguntas em uma única solicitação.
  • Ignorando as capacidades e limitações da IA: Pedir à IA para realizar tarefas para as quais não foi projetada, como análise de dados em tempo real ou aconselhamento pessoal baseado em emoções.
  • Não iterar ou refinar consultas: Aceitar a primeira resposta sem considerar se ela atende plenamente a necessidade ou se poderia ser melhorada com questionamentos mais específicos.

Tal como acontece com os outros, a primeira recomendação de Grok é evitar perguntas vagas. Curiosamente, forneceu duas tomadas que poderiam ser consideradas semelhantes à minha sugestão de saber quando desistir.

Também: Grok do X se saiu surpreendentemente bem em meus testes de codificação de IA

Assumir uma compreensão semelhante à humana e ignorar os limites das IAs está diretamente ligado à ideia de saber quando não usar uma IA. Grok e eu recomendamos iterar as consultas para fornecer um refinamento gradual das respostas que você pode obter.

Conselho de Gêmeos

Aqui está o que Gêmeos tinha a dizer.

  • Instruções vagas ou ambíguas: Este é provavelmente o erro mais comum.
  • Falta de contexto: Semelhante à imprecisão, não fornecer contexto suficiente deixa a IA em dúvida.
  • Linguagem excessivamente complexa: Embora os modelos de IA sejam sofisticados, o uso de linguagem excessivamente complicada ou complicada pode confundi-los.
  • Desalinhamento com capacidades de IA: Esperar que a IA faça coisas para as quais não foi projetada é um erro comum.
  • Ignorando a importância da iteração: A engenharia imediata costuma ser um processo iterativo. Você pode não obter a resposta perfeita na primeira tentativa.

Também: As TVs do Google receberão uma grande atualização Gemini em 2025

Você tem que dar pontos a Gêmeos pela aliteração nesse último. Sério, porém, estamos vendo uma tendência definitiva sobre instruções pouco claras. Gemini e Grok concordam com Gewirtz (viu o que eu fiz aí?) e consideram a iteração importante para obter resultados de qualidade.

Conselhos da Meta AI

Por fim, decidi ver o que a IA da Meta tinha a dizer sobre o assunto. Aqui estão suas respostas.

  • Falta de especificidade: Prompts vagos podem confundir a IA, levando a respostas irrelevantes ou imprecisas.
  • Contexto insuficiente: Os modelos de IA carecem de experiência humana e bom senso.
  • Ambiguidade e incerteza: Evite usar linguagem ambígua, expressões idiomáticas ou sarcasmo, que podem ser mal interpretados pela IA.
  • Expectativas irrealistas: Compreenda as limitações e capacidades do modelo de IA.
  • Não revisar ou refinar os prompts: Reserve um tempo para revisar e refinar suas solicitações.

Temos um home run de Grand Slam por falta de especificidade. A IA da Meta também concordou com muitos dos outros temas.

Como ter sucesso ao escrever prompts

Saber quais são os erros mais comuns pode orientá-lo na hora de escrever suas instruções. Basta fazer o oposto. Isso nos deixa com uma lista de nove diretrizes poderosas para escrever suas solicitações:

  • Use prompts específicos, claros e completos.
  • Lembre-se de que a IA é apenas um programa, não um oráculo mágico.
  • Itere e refine suas consultas fazendo perguntas cada vez melhores.
  • Mantenha o prompt no tópico.
  • Especifique detalhes que contextualizem suas consultas.
  • Certifique-se de que quaisquer palavras-chave ou jargões sejam definidos, bem como quaisquer palavras e conceitos que a IA possa precisar saber e que sejam específicos para sua consulta.
  • Comece com uma nova sessão para evitar confundir a IA com trabalhos anteriores.
  • Saiba quando experimentar uma ferramenta diferente.

E aí está. Isso deve ajudá-lo a criar ótimos prompts que proporcionam excelentes resultados.

O que você acha? Você tem alguma prática recomendada adicional? Deixe-nos saber nos comentários abaixo.


Você pode acompanhar as atualizações diárias do meu projeto nas redes sociais. Certifique-se de assinar meu boletim informativo semanal e siga-me no Twitter/X em @DavidGewirtzno Facebook em Facebook.com/DavidGewirtz, no Instagram em Instagram.com/DavidGewirtz, no Bluesky em @DavidGewirtz.com e no YouTube em YouTube.com/DavidGewirtzTV.


Rolar para cima