Chat Completions
Cria uma nova conversa com o modelo de linguagem.
POST https://api.amazoniaia.com.br/v1/chat/completionsCriando uma completion
Exemplo de requisição
curl https://api.amazoniaia.com.br/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $SUA_API_KEY" \
-d '{
"model": "amazonia-1",
"stream": false,
"top_p": 0.8,
"messages": [
{
"role": "user",
"content": "Quem é o rei do futebol?"
}
]
}'Parâmetros obrigatórios
model(string): Nome do modelo que deseja usar. Veja a lista de modelos disponíveis para saber mais detalhes.messages(array): Lista de objetos do tipo Mensagem. Cada objeto possui os seguintes campos obrigatórios:role: O papel do mensageiro. (user, assistant)content: O conteúdo da mensagem. (ex: "Quem é o rei do futebol?")
Parâmetros opcionais
stream(boolean): Setrue, tokens de resposta como Server-Sent events e serão enviados a medida que forem gerados. O padrão éfalse.top_p(number): Define o quanto o modelo deve considerar as palavras mais prováveis ao gerar uma resposta. Se você definir 0.9, o modelo só vai escolher palavras cujo conjunto acumule 90% das probabilidades mais altas, tornando a escolha de tokens mais restrita e focada. O padrão é 1.temperature (number):Controla a aleatoriedade na geração de texto. Valores mais baixos resultam em respostas mais previsíveis, enquanto valores mais altos aumentam a criatividade e a variabilidade das respostas.top_k (number): Limita a seleção de palavras aosktokens mais prováveis. Valores menores tornam as respostas mais focadas e previsíveis, enquanto valores maiores permitem mais diversidade.
Retorno
Ao fazer uma request, será retornado um objeto do tipo chat completion, ou, se o parâmetro stream foi enviado como true, uma sequência de objetos será enviada em chunks.
O objeto Chat completion
É o objeto de resposta retornado pelo modelo após uma entrada do usuário.
Principais parâmetros
ID(string): Identificador único do chat completioncreated(number): Timestamp em segundos de quando o chat foi criadochoices(array): Lista que contém as diferentes respostas ou alternativas geradas pelo modelo em resposta ao prompt fornecido. Cada item na lista representa uma opção de resposta que o modelo produziu e inclui os seguintes dados:message: A mensagem de resposta gerada pelo modelo.index: Indica o índice da resposta dentro da listafinish_reason: status que informa o motivo da conclusão da resposta (stop, length)
Usage(Object): Fornece estatísticas de consumo de tokens durante a geração de uma resposta.prompt_tokens: Número de tokens usados no prompt que foi fornecido ao modelo.completion_tokens: Número de tokens gerados pelo modelo como resposta.total_tokens: A soma de tokens de prompt e resposta, representa o total de tokens utilizados.
Atualizado
