.---
copyright: anos: [ {CURRENT_YEAR} ] lastupdated: "[ {LAST_UPDATED_DATE} ]"
subcoleção: watson-assistant
Configurando o LLM Base
A seção Modelo de idioma grande (LLM) base na página IA gerativa ajuda a configurar modelos de idioma grandes para seus assistentes. Os LLMs no construtor de assistente de IA permitem que seus clientes interajam com os assistentes perfeitamente sem nenhuma etapa de conversação customizada. É possível ativar os recursos do LLM Base para as ações existentes em seus assistentes que melhoram seus recursos de conversação

É possível executar as seguintes ações na configuração do LLM Base:
Selecionando um modelo de idioma grande para seu assistente
Para selecionar o LLM adequado ao seu ecossistema corporativo, execute as etapas a seguir:
Acesse Início > IA Gerativa.
Na seção Modelo de idioma grande base (LLM) , selecione o modelo de idioma grande na lista suspensa Selecionar um modelo . Para obter mais informações sobre modelos, consulte Modelos de fundação suportados para diferentes componentes.
Incluindo instruções de prompt
É possível instruir o LLM em seu assistente a fornecer respostas refinadas incluindo instruções de prompt.. As instruções de prompt ajudam LLMs a orientar as conversas com clareza e especificidade para atingir o objetivo final de uma ação.. Siga estas etapas para adicionar a instrução de prompt:
Acesse Início > IA Gerativa.
Na seção Incluir instruções do prompt , clique em Incluir instruções para ver o campo Instrução do prompt .
Insira as instruções do prompt no campo Instrução do Prompt
O número máximo de caracteres que você pode inserir no campo Instrução de Prompt é 1.000.
Selecionando o comportamento de resposta de seu assistente
É possível configurar o comportamento de resposta de seu assistente para fornecer respostas baseadas no conteúdo pré-carregado ou no conteúdo geral. Os comportamentos de resposta que você pode configurar são:
Atendimento de propósito geral
Nas respostas de propósito geral, o LLM responde às consultas dos clientes com base em tópicos gerais.
Importante: Se você estiver na experiência agêntica de IBM watsonx Orchestrate, a resposta de uso geral poderá não estar disponível.Procura de conversação
Para usar a pesquisa de conversação, você deve configurar a integração de pesquisa e ativar a pesquisa de conversação.
Desativada : A pesquisa de conversação desativa o processo que a chama no caminho de prioridade de roteamento. Você não está desativando o recurso de pesquisa em si.
O seguinte comportamento de pesquisa de conversação se aplica:
Se você ativar tanto a Resposta para fins gerais quanto a Pesquisa de conversas, a Pesquisa de conversas terá precedência sobre a Resposta para fins gerais.
Se a resposta do assistente for menor na confiança de procura, o comportamento de resposta usará Resposta de propósito geral.
O LLM usa conteúdo pré-carregado durante a integração da pesquisa para responder às consultas dos clientes.
Idiomas suportados para a pesquisa de conversação
Você pode usar a pesquisa de conversação com outros idiomas além do inglês, incluindo francês, espanhol, alemão e português do Brasil. Esses idiomas são mais bem suportados pelos seguintes modelos:
- ibm/granite-3-8b-instruct
- meta-llama/llama-3-1-70b-instruct
- meta-llama/llama-3-3-70b-instruct
- mistral-large
Você pode fazer testes para verificar se obtém resultados razoáveis em seu idioma.