Chat Completions

Cria uma nova conversa com o modelo de linguagem.

POST https://api.amazoniaia.com.br/v1/chat/completions

Criando uma completion

Exemplo de requisição

curl https://api.amazoniaia.com.br/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $SUA_API_KEY" \
  -d '{
    "model": "amazonia-1",
    "stream": false,
    "top_p": 0.8,
    "messages": [
      {
        "role": "user",
        "content": "Quem é o rei do futebol?"
      }
    ]
  }'

Parâmetros obrigatórios

  • model (string): Nome do modelo que deseja usar. Veja a lista de modelos disponíveis para saber mais detalhes.

  • messages (array): Lista de objetos do tipo Mensagem. Cada objeto possui os seguintes campos obrigatórios:

    • role: O papel do mensageiro. (user, assistant)

    • content: O conteúdo da mensagem. (ex: "Quem é o rei do futebol?")

Parâmetros opcionais

  • stream (boolean): Se true, tokens de resposta como Server-Sent events e serão enviados a medida que forem gerados. O padrão é false.

  • top_p (number): Define o quanto o modelo deve considerar as palavras mais prováveis ao gerar uma resposta. Se você definir 0.9, o modelo só vai escolher palavras cujo conjunto acumule 90% das probabilidades mais altas, tornando a escolha de tokens mais restrita e focada. O padrão é 1.

  • temperature (number): Controla a aleatoriedade na geração de texto. Valores mais baixos resultam em respostas mais previsíveis, enquanto valores mais altos aumentam a criatividade e a variabilidade das respostas.

  • top_k (number): Limita a seleção de palavras aos k tokens mais prováveis. Valores menores tornam as respostas mais focadas e previsíveis, enquanto valores maiores permitem mais diversidade.

Retorno

Ao fazer uma request, será retornado um objeto do tipo chat completion, ou, se o parâmetro stream foi enviado como true, uma sequência de objetos será enviada em chunks.


O objeto Chat completion

É o objeto de resposta retornado pelo modelo após uma entrada do usuário.

Principais parâmetros

  • ID(string): Identificador único do chat completion

  • created(number): Timestamp em segundos de quando o chat foi criado

  • choices(array): Lista que contém as diferentes respostas ou alternativas geradas pelo modelo em resposta ao prompt fornecido. Cada item na lista representa uma opção de resposta que o modelo produziu e inclui os seguintes dados:

    • message: A mensagem de resposta gerada pelo modelo.

    • index: Indica o índice da resposta dentro da lista

    • finish_reason: status que informa o motivo da conclusão da resposta (stop, length)

  • Usage (Object): Fornece estatísticas de consumo de tokens durante a geração de uma resposta.

    • prompt_tokens: Número de tokens usados no prompt que foi fornecido ao modelo.

    • completion_tokens: Número de tokens gerados pelo modelo como resposta.

    • total_tokens: A soma de tokens de prompt e resposta, representa o total de tokens utilizados.

Atualizado