Интеграция API OpenAI в Django: Запрос теряется на сервере

Я интегрировал OpenAI API в свой проект Django для генерации динамических описаний таблиц, создаваемых в моем приложении. Рабочий процесс включает в себя обработку пользовательского ввода, генерацию таблиц, а затем передачу этих таблиц в OpenAI API по одной с помощью client.chat.completions.create. Хотя на моей локальной системе это работает гладко, при развертывании на сервере запрос иногда теряется на этапе вызова client.chat.completions.create. Он возвращает ответ, обработанный до этого этапа, вместо того чтобы дождаться ответа от OpenAI API.

try:
    chat_completion = client.chat.completions.create(
        messages=[
            {"role": "system", "content": "You are a helpful assistant."},
            {"role": "user", "content": prompt},
        ],
        model="gpt-3.5-turbo",
        temperature=0.5,   
        max_tokens=1024   
        
    )
    logger.info('---- GPT4')
    logger.info("chat completion",chat_completion.choices[0].message.content) 
    response_content = chat_completion.choices[0].message.content
    logger.info('---- GPT5')
    
except Exception as e:
    logger.info('----  Error in chat gpt "',str(e))
    pass

После отладки кажется, что запрос не дожидается ответа от client.chat.completions.create, что приводит к возврату неполных ответов на сервер. Что может быть причиной такого поведения, и как я могу убедиться, что запрос ожидает ответа от OpenAI API о завершении, прежде чем продолжить работу? Любые соображения или предложения будут очень признательны. Спасибо!

Вернуться на верх