Modelo LLM reinicia para o padrão a cada nova subtarefa
Sintomas:
Ao iniciar uma tarefa no Reasoning com um Modelo de Linguagem Grande (LLM) escolhido, a seleção do modelo pode reverter para o padrão quando uma nova subtarefa é iniciada. Nesses casos, o modelo escolhido não persiste durante toda a duração da tarefa.
Causa:
Este é um problema conhecido em que o estado de seleção do modelo não é mantido corretamente entre as subtarefas. O sistema volta para o modelo principal em vez de reter a escolha do usuário.
Embora os usuários possam trocar de modelo manualmente a qualquer momento, a troca de modelos no meio da tarefa pode introduzir complicações. Se o modelo recém-selecionado tiver uma janela de contexto menor (ou seja, suportar menos tokens) que o anterior, isso pode levar a erros ou perda de contexto, pois o modelo não conseguirá processar todo o histórico da tarefa.
Recomendações:
-
Evite Trocar de Modelo no Meio da Tarefa: Para uma experiência mais estável, recomenda-se selecionar um modelo no início de uma tarefa e mantê-lo até a conclusão.
-
Verifique os Limites de Token: Se for necessário trocar de modelo, esteja ciente da capacidade de tokens do modelo atual e do novo. Opte por um modelo com uma janela de contexto igual ou maior para evitar possíveis problemas.
-
Reverta se Necessário: Se encontrar erros após trocar para um novo modelo, a melhor ação é voltar para o modelo original ou outro que suporte um número suficiente de tokens para o contexto da tarefa.
Status:
Nossa equipe de engenharia está ciente do problema principal de a seleção do modelo não persistir e está trabalhando em uma correção. Atualizações futuras garantirão que o LLM escolhido permaneça ativo durante todo o ciclo de vida da tarefa, incluindo todas as subtarefas.