Notas sobre o encaixe do código-fonte com a especificação Microsoft Azure OpenAI

Como todos sabemos, não podemos acessar o serviço oficial OpenAI, mas podemos acessar a interface por meio de um proxy ou proxy de terceiros

Agora, os novos regulamentos proíbem o uso de interfaces de modelos grandes de IA no exterior para clientes domésticos, então precisamos usar interfaces de modelos grandes domésticos

O efeito doméstico é muito ruim. Agora, se você quiser usar o modelo grande GPT em conformidade, pode usar o serviço OpenAI do Microsoft Azure. Afinal, a Microsoft tem uma empresa na China, que é considerada uma empresa doméstica compatível.

IA responsável

Na Microsoft, estamos comprometidos com os princípios centrados no ser humano que impulsionam o avanço da IA. Modelos generativos, como os disponíveis no Azure OpenAI, têm vantagens potenciais significativas, mas sem um design cuidadoso e atenuações ponderadas, esses modelos têm o potencial de gerar conteúdo incorreto ou até prejudicial. A Microsoft fez investimentos significativos para ajudar a evitar abusos e danos acidentais, inclusive exigindo que os candidatos demonstrem um caso de uso bem definido, incorporando os Princípios da Microsoft para uso responsável de IA, criando filtros de conteúdo para oferecer suporte aos clientes e fornecendo aos clientes Orientação de implementação de IA responsável.

A Microsoft tem uma empresa compatível na China e o conteúdo dos dados foi filtrado. Podemos considerar a substituição do serviço do site oficial da OpenAI

especificação de interface

Podemos nos referir aos parâmetros de chamada da seguinte interface REST

Depois que o serviço for criado com sucesso no Azure, você obterá dois parâmetros ENDPOINT e API-KEY

Interface de conclusão de bate-papo

curl $AZURE_OPENAI_ENDPOINT/openai/deployments/gpt-35-turbo/chat/completions?api-version=2023-05-15 \
  -H "Content-Type: application/json" \
  -H "api-key: $AZURE_OPENAI_KEY" \
  -d '{"messages":[{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},{"role": "user", "content": "Do other Azure Cognitive Services support this too?"}]}'

interface de conversão de vetores

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings?api-version=2023-05-15 \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d "{\"input\": \"The food was delicious and the waiter...\"}"

A diferença do OpenAI oficial

O endereço da interface é diferente e a forma da chave passada no parâmetro do cabeçalho também é diferente.

Além desses dois pontos, há outra coisa muito importante.

Perceber

Dê uma olhada na parte url do endereço da interface acima, a parte marcada em vermelho

$AZURE_OPENAI_ENDPOINT/openai/deployments/gpt-35-turbo/chat/completions?api-version=2023-05-15

https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings?api-version=2023-05-15

我们需要把大模型部署一下,上面标红的地方,就是部署名称,所以如果我们想无缝切换OpenAI与微软Azure OpenAI

我们需要固定好,部署的名称与模型的名称保持一致,这样才能正常调用

我们现在已经兼容了OpenAI与微软Azure OpenAI,并且在探索国内大模型的对接。现在已经开发落地了智能客服系统产品,可对接知识库的AI客服系统,有兴趣的朋友可以访问网站 gofly.v1kf.com

Acho que você gosta

Origin blog.csdn.net/taoshihan/article/details/131843495
Recomendado
Clasificación