Ir para o conteúdo

Modelos de IA e Provedores

Configurações do Motor de IA Configurações do Motor de IA

O FRENZY.BOT oferece acesso a mais de 40 modelos de IA selecionados através do OpenRouter — escolhidos a dedo entre milhares de opções disponíveis. Em vez de despejar cada lançamento experimental no seu painel, selecionamos apenas modelos prontos para produção que atendem a rigorosos padrões de qualidade.

Como conectar seu provedor de IA

  1. Vá em Settings → AI Engine.
  2. Clique em Connect OpenRouter (fluxo OAuth).
  3. Autorize a aplicação quando solicitado.
  4. Sua chave de API é armazenada de forma segura no banco de dados — não em arquivos de configuração.

Isso é tudo. Agora você pode selecionar qualquer modelo no menu suspenso.

Alternativa: Chave de API

Se preferir não usar o OAuth, você pode colar uma chave de API do OpenRouter diretamente. Vá para openrouter.ai, gere uma chave e insira-a em Settings → AI Engine.


Como escolher um modelo

Abra Settings → AI Engine e use o menu de seleção de modelos. Cada modelo exibe:

  • Nome do modelo e provedor (ex: Claude 3.7 Sonnet da Anthropic)
  • Tamanho da janela de contexto (quanto texto o modelo pode processar de uma vez)
  • Nível de custo relativo (econômico, padrão, premium)

Qual modelo devo escolher?

Caso de uso Modelos recomendados Por que
Suporte geral ao cliente GPT-4o, Claude 3.5 Sonnet Rápido, confiável, custo-benefício
Raciocínio complexo e análise Claude 3.7, GPT-4.5 Precisão superior em questões difíceis
Baixo orçamento / alto volume DeepSeek V3, GPT-4o Mini Excelente qualidade por uma fração do custo
Documentos massivos (+100k palavras) Gemini 2.5 Pro Janela de contexto de até 1M de tokens
Chat em tempo real (menor latência) Gemini Flash, Claude Haiku Tempos de resposta abaixo de um segundo

Os três principais provedores

Anthropic (Claude)

  • Pontos fortes: Raciocínio superior, diálogo natural, excelente em seguir instruções.
  • Ideal para: Suporte ao cliente, geração de conteúdo, Q&A complexo.
  • Modelos: Claude 3.7 Sonnet, Claude 3.5 Sonnet, Claude 3.5 Haiku.

OpenAI (GPT)

  • Pontos fortes: Confiabilidade padrão da indústria, ecossistema massivo, desempenho consistente.
  • Ideal para: IA de propósito geral, uso de ferramentas, saídas estruturadas.
  • Modelos: GPT-4o, GPT-4o Mini, GPT-4.5, o1, o3-mini.

Google (Gemini)

  • Pontos fortes: Janelas de contexto massivas (até 1M+ tokens), fortes capacidades multimodais.
  • Ideal para: Analisar documentos extensos, conversas longas, compreensão de imagens.
  • Modelos: Gemini 2.5 Pro, Gemini 2.5 Flash, Gemini 2.0 Flash.

Modelos especializados

Provedor Modelos Ideal para
xAI (Grok) Grok 3, Grok 3 Mini Desempenho de alta velocidade, conhecimento em tempo real
DeepSeek DeepSeek V3, DeepSeek R1 Inteligência de nível GPT-4 com preço econômico
Mistral Mistral Large, Mistral Medium IA europeia com forte suporte multilíngue
Meta (Llama) Llama 3.3, Llama 4 Transparência de pesos abertos, desempenho robusto

Nossos 4 pilares de critérios de seleção

Cada modelo no FRENZY.BOT é avaliado em relação a quatro requisitos antes de ser adicionado à plataforma:

  1. Confiabilidade — Tempo de atividade mínimo e consistência. Sem modelos experimentais ou instáveis que possam falhar no meio de uma conversa.
  2. Janela de contexto — Preferência por 128k+ tokens. Um contexto longo significa que o bot pode referenciar mais da sua base de conhecimento em uma única resposta.
  3. Relação inteligência/custo — Priorizamos modelos que entregam alta qualidade sem custos desnecessários. DeepSeek e GPT-4o Mini são exemplos primordiais.
  4. Baixa latência — Variantes Flash e Fast são incluídas especificamente para chats em tempo real com o cliente, onde cada segundo importa.

Novos modelos adicionados rapidamente

Quando um grande provedor lança um novo modelo de ponta, nós o avaliamos e adicionamos dentro de 24 horas após o lançamento estável. Você sempre terá acesso ao que há de mais recente e melhor.


Retenção Zero de Dados (ZDR)

O FRENZY.BOT suporta a aplicação de Retenção Zero de Dados (Zero Data Retention) por solicitação através do OpenRouter.

O que isso significa:

  • Quando o ZDR está ativado, seus prompts e respostas nunca são armazenados pelo provedor de IA.
  • Seus dados nunca são usados para treinamento de modelos.
  • Isso é aplicado no nível da API através do parâmetro provider.zdr: true do OpenRouter.

Como ativar o ZDR:

  1. Vá em Settings → AI Engine.
  2. Ative a chave Zero Data Retention.
  3. Todas as solicitações subsequentes incluirão a flag ZDR.

Compatibilidade de modelos com ZDR

Nem todos os modelos suportam ZDR. Quando ativado, o FRENZY.BOT roteia automaticamente as solicitações apenas para provedores que respeitam as políticas de retenção zero de dados. Verifique a documentação de ZDR do OpenRouter para a lista atual.


Configurações de comportamento do modelo

Além de escolher um modelo, você pode ajustar como ele responde:

Temperature

Controla a criatividade vs. precisão.

  • Baixa (0.1–0.3): Respostas factuais e determinísticas. Ideal para suporte e questões de política interna.
  • Média (0.4–0.7): Equilibrada. Um bom padrão para a maioria dos casos de uso.
  • Alta (0.8–1.0): Respostas criativas e variadas. Ideal para brainstorming ou chats casuais.

Top-P

Outro controle para diversidade de respostas. Funciona em conjunto com a temperatura.

  • Valores menores: Respostas mais focadas e previsíveis.
  • Valores maiores: Uma gama mais ampla de escolhas de palavras.

Max tokens

Limita o comprimento das respostas. Configure isso com base no seu caso de uso:

  • Respostas curtas (256–512): Respostas rápidas estilo FAQ.
  • Médio (1024–2048): Conversas de suporte padrão.
  • Longo (4096+): Explicações detalhadas ou conteúdo técnico.

System prompt

As instruções globais que moldam cada resposta. É aqui que você define:

  • A personalidade e o tom do bot
  • O que ele deve ou não discutir
  • Como ele deve lidar com tópicos específicos
  • Preferências de idioma e formatação

Caminho: Settings → Model Behavior → Global System Prompt

Mantenha seu prompt de sistema focado

Os melhores prompts de sistema são curtos, claros e focados em diretrizes. Evite instruções longas e prolixas — elas diluem a atenção do modelo e desperdiçam tokens.


Alterando ou desconectando provedores

Para trocar de modelo

Basta selecionar um modelo diferente no menu suspenso em Settings → AI Engine. A mudança entra em vigor imediatamente para novas conversas.

Para desconectar o OpenRouter

  1. Vá em Settings → AI Engine.
  2. Clique em Disconnect.
  3. O bot parará de responder às perguntas até que um novo provedor seja conectado.

Quando desconectar

  • Rotação de chaves de API por segurança.
  • Mudança para uma conta de provedor diferente.
  • Desativação temporária das respostas de IA durante manutenção.

Perguntas Frequentes (FAQ)

P: A IA parou de responder depois que mudei de modelo.

  • Alguns modelos podem estar temporariamente indisponíveis. Mude para um modelo diferente e verifique a página de status do OpenRouter.

P: As respostas estão muito longas / muito curtas.

  • Ajuste o Max Tokens em Settings → Model Behavior. Também revise seu prompt de sistema para instruções de comprimento.

P: Quanto custa cada modelo?

  • O preço é definido pelo provedor do modelo através do OpenRouter. Verifique openrouter.ai/models para os preços atuais por token. O FRENZY.BOT não adiciona nenhuma taxa extra.

P: Posso usar meu próprio modelo auto-hospedado?

  • Atualmente não. O FRENZY.BOT usa o OpenRouter como portal unificado. Se o seu modelo auto-hospedado estiver disponível através do OpenRouter, ele funcionará.