Prompt di esempio

Esplorate questi esempi di richieste per capire come i Large Language Models (LLM) possono essere utilizzati nel vostro flusso di servizi.

Per ottenere il massimo da questi esempi, è possibile sperimentare diversi LLM e regolare i valori nella sezione Parametri. In questo modo è possibile vedere come cambia l'output generato in base agli input.

Tabella 1. Prompt di esempio
Esempio Contesto Immissione
Generare una lettera di accettazione del prestito Generare una lettera di accettazione per la richiesta di prestito fornita come input.

Cliente{{customerName}}

Riferimento{{ref}}

Importo{{amount}}

Generare la traduzione L'input può essere in un'altra lingua, tradurlo in inglese {{message}}
Generare il sentiment Analizzare il sentiment di una recensione del cliente fornita come input e attribuirle una nota compresa tra 0 e 5, dove 0 significa "molto insoddisfatto" e 5 significa "molto soddisfatto". L'uscita deve essere costituita da una sola cifra. {{customerReview}}

Esempi di suggerimenti per i modelli di Llama 3

I modelli watsonx.ai™ supportati Llama 3, 3.1, 3.2 e 3.3 sono ottimizzati per i casi d'uso delle finestre di dialogo e messi a punto per uno specifico formato di prompt, descritto nella sezione Testo del prompt in Sample: Conversare con Llama 3 Il link esterno apre una nuova finestra o scheda. Il task generativo di IA utilizza questo formato specifico di prompt, il che significa che non è necessario creare il testo del prompt con il modello specifico di prompt.

Quando si utilizza un modello Llama-3-3-70b-instruct, la pagina Gen AI appare come nell'esempio seguente:

Quando si esamina il prompt RAW, si nota che viene utilizzato un modello di prompt specifico.

Esempi di suggerimenti per modelli non-Lama

I modelli non lama utilizzano un modello generico con una sequenza di stop.

Per un modello non lama, l'esempio precedente mostra le seguenti opzioni nella pagina Gen AI :

La richiesta di RAW corrispondente si presenta come segue:

Esempi di suggerimenti per i modelli curati

In alternativa, per un modello che utilizza un modello generico ma richiede un modello di prompt specifico, è possibile definire il modello insieme al prompt nell'area Prompt -> Contesto. Non è necessario inserire alcun valore nell'area Prompt -> Input.

Ad esempio, in uno scenario di modello curato, è possibile utilizzare il modello di prompt richiesto nel modello. Nella seguente schermata, l'area Prompt -> Input è vuota e nell'area Prompt -> Context è presente un modello di prompt.

La richiesta di RAW corrispondente si presenta come segue:

Importante: la richiesta di generazione del testo nei compiti di IA generativa ha una sequenza di arresto.