Per vedere come la temperatura influisce sull'output di un LLM, guarda gli output creati dal modello di parametri IBM Granite 3.1 da 2 miliardi. In questo caso, il prompt fornito era: "Scrivi una storia su un data scientist che ama Python".
Con una temperatura di 0,1 Granite genera:
C'era una volta, nella vivace città di San Francisco, un brillante data scientist di nome Alex. Alex era noto per le sue eccezionali competenze nella programmazione Python e nell'analisi dei dati. Trascorreva giorni e notti immerso nel mondo dei dati, usando Python per estrarre insight e fare previsioni.
Un giorno, Alex fu incaricato di analizzare il tasso di abbandono dei clienti per un rinomato servizio di streaming. Utilizzò la libreria scikit-learn di Python per creare un modello di machine learning in grado di prevedere quali clienti avrebbero probabilmente annullato i loro abbonamenti.
Con una temperatura di 0,75 Granite genera:
C'era una volta, nella vivace città di San Francisco, un brillante data scientist di nome Alex. Alex era noto per il loro profondo amore per Python, un linguaggio di programmazione che ritenevano fosse lo strumento perfetto per l'analisi dei dati e l'apprendimento automatico.
Ogni giorno, Alex si svegliava presto, preparava una tazza di caffè e si sedeva alla scrivania. Passava ore a scrivere codice in Python, esplorare set di dati e creare modelli predittivi. Il suo amore per Python non riguardava solo il linguaggio in sé, ma anche la comunità che era cresciuta intorno ad esso.
Con una temperatura di 1,25 Granite genera:
C'era una volta, in una vivace città piena di imponenti grattacieli e luci al neon, un data scientist che amava Python più di ogni altra cosa al mondo. Il data scientist aveva un aiutante felino di nome Suki. Suki era un gatto curioso e giocoso, sempre desideroso di esplorare ogni angolo della casa.
Un giorno, il data scientist stava lavorando su un problema di codifica complesso. Suki continuava a miagolare forte come se stesse cercando di comunicare un messaggio al data scientist. Il data scientist notò che il forte miagolio solitamente coincideva con il momento in cui era vicino alla soluzione del complesso problema di codifica.
Si può notare che anche se ogni storia inizia in maniera simile, aumentando la temperatura aumenta la variabilità del testo e dei dettagli generati.