Vai al contenuto

Modelli AI e Provider

Impostazioni Motore AI Impostazioni Motore AI

FRENZY.BOT ti dà accesso a oltre 40 modelli AI selezionati tramite OpenRouter — scelti con cura tra migliaia di opzioni disponibili. Invece di inserire ogni rilascio sperimentale nella tua dashboard, selezioniamo solo modelli pronti per la produzione che soddisfano rigorosi standard di qualità.

Come connettere il tuo provider AI

  1. Vai su Settings → AI Engine.
  2. Clicca su Connect OpenRouter (flusso OAuth).
  3. Autorizza l'applicazione quando richiesto.
  4. La tua chiave API viene memorizzata in modo sicuro nel database — non nei file di configurazione.

Tutto qui. Ora puoi selezionare qualsiasi modello dal menu a discesa.

Alternativa: Chiave API

Se preferisci non usare OAuth, puoi incollare direttamente una chiave API di OpenRouter. Vai su openrouter.ai, genera una chiave e inseriscila in Settings → AI Engine.


Come scegliere un modello

Apri Settings → AI Engine e usa il menu a discesa del selettore di modelli. Ogni modello mostra:

  • Nome del modello e provider (es. Claude 3.7 Sonnet di Anthropic)
  • Dimensione della context window (quanto testo il modello può elaborare contemporaneamente)
  • Livello di costo relativo (budget, standard, premium)

Quale modello dovrei scegliere?

Caso d'uso Modelli consigliati Perché
Supporto clienti generale GPT-4o, Claude 3.5 Sonnet Veloce, affidabile, conveniente
Ragionamento complesso e analisi Claude 3.7, GPT-4.5 Precisione superiore su domande difficili
Attento al budget / alto volume DeepSeek V3, GPT-4o Mini Qualità eccellente a una frazione del costo
Documenti enormi (100k+ parole) Gemini 2.5 Pro Context window fino a 1M di token
Chat in tempo reale (latenza minima) Gemini Flash, Claude Haiku Tempi di risposta inferiori al secondo

I tre grandi provider

Anthropic (Claude)

  • Punti di forza: Ragionamento superiore, dialogo naturale, eccellente nel seguire le istruzioni.
  • Ideale per: Supporto clienti, generazione di contenuti, Q&A complessi.
  • Modelli: Claude 3.7 Sonnet, Claude 3.5 Sonnet, Claude 3.5 Haiku.

OpenAI (GPT)

  • Punti di forza: Affidabilità standard del settore, ecosistema enorme, prestazioni costanti.
  • Ideale per: AI generica, uso di tool, output strutturati.
  • Modelli: GPT-4o, GPT-4o Mini, GPT-4.5, o1, o3-mini.

Google (Gemini)

  • Punti di forza: Context window enormi (fino a oltre 1M di token), forti capacità multimodali.
  • Ideale per: Analisi di documenti di grandi dimensioni, conversazioni lunghe, comprensione delle immagini.
  • Modelli: Gemini 2.5 Pro, Gemini 2.5 Flash, Gemini 2.0 Flash.

Modelli specializzati

Provider Modelli Ideale per
xAI (Grok) Grok 3, Grok 3 Mini Prestazioni ad alta velocità, conoscenza in tempo reale
DeepSeek DeepSeek V3, DeepSeek R1 Intelligenza di livello GPT-4 a prezzi budget
Mistral Mistral Large, Mistral Medium AI europea con forte supporto multilingue
Meta (Llama) Llama 3.3, Llama 4 Trasparenza open-weights, prestazioni robuste

I nostri 4 pilastri per la selezione

Ogni modello in FRENZY.BOT viene valutato rispetto a quattro requisiti prima di essere aggiunto alla piattaforma:

  1. Affidabilità — Uptime minimo e coerenza. Niente modelli sperimentali o instabili che potrebbero fallire a metà conversazione.
  2. Context window — Preferenza per 128k+ token. Una context window ampia significa che il bot può fare riferimento a una parte maggiore della tua knowledge base in una singola risposta.
  3. Rapporto intelligenza-prezzo — Diamo priorità ai modelli che offrono alta qualità senza costi inutili. DeepSeek e GPT-4o Mini ne sono i primi esempi.
  4. Bassa latenza — Le varianti Flash e Fast sono incluse specificamente per chat in tempo reale rivolte ai clienti, dove ogni secondo conta.

Nuovi modelli aggiunti rapidamente

Quando un provider importante rilascia un nuovo modello all'avanguardia, lo valutiamo e lo aggiungiamo entro 24 ore dal rilascio stabile. Avrai sempre accesso al meglio e all'ultimo grido.


Zero Data Retention (ZDR)

FRENZY.BOT supporta l'applicazione della Zero Data Retention per singola richiesta tramite OpenRouter.

Cosa significa:

  • Quando la ZDR è abilitata, i tuoi prompt e le tue risposte non vengono mai memorizzati dal provider AI.
  • I tuoi dati non vengono mai utilizzati per l'addestramento dei modelli.
  • Questo viene imposto a livello API tramite il parametro provider.zdr: true di OpenRouter.

Come abilitare la ZDR:

  1. Vai su Settings → AI Engine.
  2. Attiva l'interruttore Zero Data Retention.
  3. Tutte le richieste successive includeranno il flag ZDR.

Compatibilità modelli ZDR

Non tutti i modelli supportano la ZDR. Quando abilitata, FRENZY.BOT instrada automaticamente le richieste solo ai provider che onorano le policy di zero data retention. Consulta la documentazione ZDR di OpenRouter per l'elenco aggiornato.


Impostazioni di comportamento del modello

Oltre a scegliere un modello, puoi perfezionare il modo in cui risponde:

Temperatura

Controlla la creatività rispetto alla precisione.

  • Bassa (0.1–0.3): Risposte fattuali e deterministiche. Ideale per supporto e domande sulle policy.
  • Media (0.4–0.7): Bilanciata. Un buon default per la maggior parte dei casi d'uso.
  • Alta (0.8–1.0): Risposte creative e variegate. Ideale per brainstorming o chat informali.

Top-P

Un altro controllo per la diversità delle risposte. Lavora insieme alla temperatura.

  • Valori più bassi: Risposte più focalizzate e prevedibili.
  • Valori più alti: Gamma più ampia di scelte lessicali.

Max tokens

Limita la lunghezza delle risposte. Impostalo in base al tuo caso d'uso:

  • Risposte brevi (256–512): Risposte rapide in stile FAQ.
  • Medie (1024–2048): Conversazioni di supporto standard.
  • Lunghe (4096+): Spiegazioni dettagliate o contenuti tecnici.

System prompt

Le istruzioni globali che danno forma a ogni risposta. Qui è dove definisci:

  • La personalità e il tono del bot
  • Cosa dovrebbe e non dovrebbe discutere
  • Come dovrebbe gestire argomenti specifici
  • Preferenze di lingua e formattazione

Percorso: Settings → Model Behavior → Global System Prompt

Mantieni il tuo system prompt focalizzato

I migliori system prompt sono brevi, chiari e focalizzati sulle policy. Evita istruzioni lunghe e prolisse: diluiscono l'attenzione del modello e sprecano token.


Cambiare o disconnettere i provider

Per cambiare modello

Seleziona semplicemente un modello diverso dal menu a discesa in Settings → AI Engine. La modifica ha effetto immediato per le nuove conversazioni.

Per disconnettere OpenRouter

  1. Vai su Settings → AI Engine.
  2. Clicca su Disconnect.
  3. Il bot smetterà di rispondere alle domande finché non verrà connesso un nuovo provider.

Quando disconnettere

  • Rotazione delle chiavi API per sicurezza.
  • Passaggio a un account provider diverso.
  • Disabilitazione temporanea delle risposte AI durante la manutenzione.

FAQ

D: L'AI ha smesso di rispondere dopo che ho cambiato modello.

  • Alcuni modelli potrebbero essere temporaneamente non disponibili. Passa a un modello diverso e controlla la pagina di stato di OpenRouter.

D: Le risposte sono troppo lunghe / troppo brevi.

  • Regola i Max Tokens in Settings → Model Behavior. Controlla anche il tuo system prompt per eventuali istruzioni sulla lunghezza.

D: Quanto costa ogni modello?

  • I prezzi sono stabiliti dal provider del modello tramite OpenRouter. Controlla openrouter.ai/models per i prezzi attuali per token. FRENZY.BOT non aggiunge alcun ricarico.

D: Posso usare il mio modello self-hosted?

  • Al momento no. FRENZY.BOT utilizza OpenRouter come gateway unificato. Se il tuo modello self-hosted è disponibile tramite OpenRouter, funzionerà.