Back to Resources
getting-started

Começando com a API do ChatGPT

Um guia prático para integrar a API do ChatGPT da OpenAI em suas aplicações.

Começando com a API do ChatGPT

A API do ChatGPT—oficialmente conhecida como API da OpenAI—permite que você integre modelos de linguagem poderosos diretamente em suas aplicações. Se você está construindo um chatbot de atendimento ao cliente, uma ferramenta de geração de conteúdo ou uma funcionalidade de IA para seu produto, este guia cobre tudo o que você precisa para ir do zero à sua primeira chamada de API.

Configuração Inicial

Criação da sua Conta

Comece registrando-se em platform.openai.com se ainda não o fez. Diferente do produto consumidor ChatGPT, a API usa uma cobrança separada—você pagará com base no uso em vez de uma assinatura fixa.

Após criar sua conta, adicione um método de pagamento para habilitar o acesso à API. Depois navegue até a seção API Keys e gere uma nova chave secreta. Trate esta chave como uma senha—fornece acesso total à sua conta e não deve ser commitada no controle de versão nem exposta no código do lado do cliente.

Instalação do SDK

A OpenAI fornece SDKs oficiais que lidam com autenticação, formatação de requisições e parsing de respostas. Para Python:

pip install openai

Para Node.js:

npm install openai

Configuração de Autenticação

A abordagem recomendada é armazenar sua chave de API em uma variável de ambiente. Defina OPENAI_API_KEY no seu ambiente, e o SDK a usará automaticamente.

Fazendo Sua Primeira Requisição

Exemplo Python Básico

from openai import OpenAI

client = OpenAI()

response = client.chat.completions.create(
    model="gpt-4-turbo",
    messages=[
        {"role": "system", "content": "Você é um assistente útil."},
        {"role": "user", "content": "Qual é a capital da França?"}
    ]
)

print(response.choices[0].message.content)

Entendendo os Parâmetros Chave

O parâmetro model determina qual modelo de IA processa sua requisição. GPT-4 Turbo oferece as melhores capacidades mas custa mais por token. GPT-3.5 Turbo é mais rápido e barato.

O array messages representa a conversa. Cada mensagem tem um papel (system, user, ou assistant) e conteúdo.

O parâmetro temperature controla a aleatoriedade. Defina baixo (0 a 0.3) para respostas factuais. Defina mais alto (0.7 a 1.0) para aplicações criativas.

O parâmetro max_tokens limita o comprimento da resposta.

Papéis das Mensagens Explicados

System messages estabelecem a personalidade, capacidades e restrições do assistente. São processados uma vez no início.

User messages representam o lado humano da conversa.

Assistant messages representam respostas anteriores da IA em conversas de múltiplos turnos.

Funcionalidades Avançadas

Streaming de Respostas

O streaming retorna tokens à medida que são gerados, reduzindo a latência percebida.

Function Calling

Permite que o modelo invoque funções que você define.

Capacidades de Visão

GPT-4V pode analisar imagens junto com o texto.

Melhores Práticas para Produção

Gestão de Erros

Implemente lógica de retry com backoff exponencial para falhas de API.

Otimização de Custos

Monitore seu uso de tokens. Considere o uso de GPT-3.5 Turbo para tarefas mais simples.

Considerações de Segurança

Nunca exponha sua chave de API no código frontend. Valide todas as entradas do usuário.