Model Type
Modelo
Enable Thinking
Allow reasoning models to think step-by-step
Context Window Length
The maximum number of tokens for the context window
Temperatura
Um valor maior torna a saída mais aleatória
0.7
Top P
Não altere este valor junto com a temperatura
0.8
Máximo de Tokens
Comprimento máximo de tokens de entrada e tokens gerados
Penalidade de Presença
Um valor maior aumenta a probabilidade de falar sobre novos tópicos
0.0
Penalidade de Frequência
Um valor maior diminui a probabilidade de repetir a mesma linha
0.0
Inserir Prompts de Sistema
Inserir um prompt de sistema global para cada requisição
Modelo de Entrada
A mensagem mais recente será preenchida neste modelo
Contagem de Mensagens Anexadas
Número de mensagens enviadas anexadas por requisição
4
Limite de Compressão de Histórico
Irá comprimir se o comprimento das mensagens não comprimidas exceder o valor
Prompt de Memória
Enviar Memória
Tecla de Envio
Tema
Language
Tamanho da Fonte
Ajustar o tamanho da fonte do conteúdo do chat
14px
Gerar Título Automaticamente
Gerar um título adequado baseado no conteúdo da conversa
Bolha de Pré-visualização de Envio
Pré-visualizar markdown na bolha
Esconder Modelos Embutidas
Esconder modelos embutidas na lista de modelos
Desabilitar auto-completar
Digite / para acionar auto-completar
Lista de Prompts
0 embutidos, 0 definidos pelo usuário
Cache Type
Use IndexDB or Cache API to store model weights
Logging Level
Adjust how much detail should be printed to console
INFO
Resetar Todas as Configurações
Resetar todos os itens de configuração para o padrão
Limpar Todos os Dados
Limpar todas as mensagens e configurações