Mark-t.ai
Back to Resources
getting-started

Iniziare con l'API di ChatGPT

Una guida pratica per integrare l'API di ChatGPT di OpenAI nelle tue applicazioni.

Iniziare con l'API di ChatGPT

L'API di ChatGPT—ufficialmente nota come OpenAI API—ti permette di integrare potenti modelli linguistici direttamente nelle tue applicazioni. Che tu stia costruendo un chatbot di servizio clienti, uno strumento di generazione contenuti o una funzione IA per il tuo prodotto, questa guida copre tutto ciò che ti serve per andare da zero alla tua prima chiamata API.

Configurazione Iniziale

Creazione del tuo Account

Inizia registrandoti su platform.openai.com se non l'hai ancora fatto. A differenza del prodotto consumer ChatGPT, l'API utilizza una fatturazione separata—pagherai in base all'uso invece di un abbonamento fisso.

Dopo aver creato il tuo account, aggiungi un metodo di pagamento per abilitare l'accesso all'API. Poi naviga alla sezione API Keys e genera una nuova chiave segreta. Tratta questa chiave come una password—fornisce accesso completo al tuo account e non deve essere committata nel controllo versione né esposta nel codice lato client.

Installazione dell'SDK

OpenAI fornisce SDK ufficiali che gestiscono autenticazione, formattazione richieste e parsing risposte. Per Python:

pip install openai

Per Node.js:

npm install openai

Configurazione Autenticazione

L'approccio raccomandato è memorizzare la tua chiave API in una variabile d'ambiente. Definisci OPENAI_API_KEY nel tuo ambiente, e l'SDK la userà automaticamente.

Fare la Tua Prima Richiesta

Esempio Python Base

from openai import OpenAI

client = OpenAI()

response = client.chat.completions.create(
    model="gpt-4-turbo",
    messages=[
        {"role": "system", "content": "Sei un assistente utile."},
        {"role": "user", "content": "Qual è la capitale della Francia?"}
    ]
)

print(response.choices[0].message.content)

Capire i Parametri Chiave

Il parametro model determina quale modello IA processo la tua richiesta. GPT-4 Turbo offre le migliori capacità ma costa di più per token. GPT-3.5 Turbo è più veloce ed economico.

L'array messages rappresenta la conversazione. Ogni messaggio ha un ruolo (system, user, o assistant) e contenuto.

Il parametro temperature controlla la casualità. Impostalo basso (0 a 0.3) per risposte fattuali. Impostalo più alto (0.7 a 1.0) per applicazioni creative.

Il parametro max_tokens limita la lunghezza della risposta.

Ruoli dei Messaggi Spiegati

System messages stabiliscono la personalità, capacità e vincoli dell'assistente. Sono processati una volta all'inizio.

User messages rappresentano il lato umano della conversazione.

Assistant messages rappresentano risposte precedenti dell'IA in conversazioni a più turni.

Funzionalità Avanzate

Streaming Risposte

Lo streaming restituisce token man mano che vengono generati, riducendo la latenza percepita.

Function Calling

Permette al modello di invocare funzioni che definisci.

Capacità di Visione

GPT-4V può analizzare immagini insieme al testo.

Best Practice per Produzione

Gestione Errori

Implementa logica di retry con backoff esponenziale per fallimenti API.

Ottimizzazione Costi

Monitora il tuo uso di token. Considera l'uso di GPT-3.5 Turbo per compiti più semplici.

Considerazioni Sicurezza

Non esporre mai la tua chiave API nel codice frontend. Valida tutti gli input utente.