Class LlamaChatCompletionRequest
Contenuti
[
Nascondere
]Classe LlamaChatCompletionRequest
Rappresenta il corpo della richiesta per le richieste API di ChatGPT.
public class LlamaChatCompletionRequest
Costruttori
| Nome | Descrizione |
|---|---|
| LlamaChatCompletionRequest() | Il costruttore predefinito. |
Proprietà
| Nome | Descrizione |
|---|---|
| FrequencyPenalty { get; set; } | Imposta o ottiene la penalità di frequenza da utilizzare durante il campionamento. |
| LogitBias { get; set; } | Imposta o ottiene il bias logit da utilizzare durante il campionamento. |
| MaxTokens { get; set; } | Imposta o ottiene il numero massimo di token da generare nella completamento della chat. Il valore predefinito è null, significa infinito. |
| Messages { get; set; } | Imposta o ottiene un elenco di messaggi che compongono la conversazione. |
| Model { get; set; } | Imposta o ottiene l’ID del modello da utilizzare. |
| NumberOfChoices { get; set; } | Imposta o ottiene quante scelte di completamento della chat generare per ciascun messaggio di input. |
| PresencePenalty { get; set; } | Imposta o ottiene la penalità di presenza da utilizzare durante il campionamento. |
| Stream { get; set; } | Imposta o ottiene se trasmettere la risposta. |
| Temperature { get; set; } | Imposta o ottiene la temperatura di campionamento da utilizzare, tra 0 e 2. Valori più alti come 0.8 renderanno l’output più casuale, mentre valori più bassi come 0.2 lo renderanno più focalizzato e deterministico. Il valore predefinito è 1. |
Vedi Anche
- namespace Aspose.Pdf.AI
- assembly Aspose.PDF