Интеграция API OpenAI в Django: Запрос теряется на сервере
Я интегрировал OpenAI API в свой проект Django для генерации динамических описаний таблиц, создаваемых в моем приложении. Рабочий процесс включает в себя обработку пользовательского ввода, генерацию таблиц, а затем передачу этих таблиц в OpenAI API по одной с помощью client.chat.completions.create
. Хотя на моей локальной системе это работает гладко, при развертывании на сервере запрос иногда теряется на этапе вызова client.chat.completions.create
. Он возвращает ответ, обработанный до этого этапа, вместо того чтобы дождаться ответа от OpenAI API.
try:
chat_completion = client.chat.completions.create(
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": prompt},
],
model="gpt-3.5-turbo",
temperature=0.5,
max_tokens=1024
)
logger.info('---- GPT4')
logger.info("chat completion",chat_completion.choices[0].message.content)
response_content = chat_completion.choices[0].message.content
logger.info('---- GPT5')
except Exception as e:
logger.info('---- Error in chat gpt "',str(e))
pass
После отладки кажется, что запрос не дожидается ответа от client.chat.completions.create, что приводит к возврату неполных ответов на сервер. Что может быть причиной такого поведения, и как я могу убедиться, что запрос ожидает ответа от OpenAI API о завершении, прежде чем продолжить работу? Любые соображения или предложения будут очень признательны. Спасибо!