59 lines
2.5 KiB
Markdown
59 lines
2.5 KiB
Markdown
|
|
# Как ускорить генерацию визарда с 40 до 10-15 секунд
|
|||
|
|
|
|||
|
|
## Быстрое решение (рекомендуется)
|
|||
|
|
|
|||
|
|
### Шаг 1: Заменить модель
|
|||
|
|
В ноде `OpenAI Chat Model3`:
|
|||
|
|
- **Было:** `gpt-4.1-mini-2025-04-14`
|
|||
|
|
- **Стало:** `gpt-4o-mini`
|
|||
|
|
|
|||
|
|
**Эффект:** -20-25 секунд (40 сек → 15-20 сек)
|
|||
|
|
|
|||
|
|
### Шаг 2: Сократить промпт
|
|||
|
|
Заменить промпт в `AI Agent3` на оптимизированную версию из `optimized_wizard_prompt.txt`
|
|||
|
|
|
|||
|
|
**Эффект:** -10-15 секунд (15-20 сек → 10-15 сек)
|
|||
|
|
|
|||
|
|
### Шаг 3: Добавить настройки модели
|
|||
|
|
В `OpenAI Chat Model3` → `Options`:
|
|||
|
|
- `temperature`: `0.3` (меньше креативности = быстрее)
|
|||
|
|
- `maxTokens`: `2000` (ограничить длину ответа)
|
|||
|
|
|
|||
|
|
**Эффект:** -2-5 секунд
|
|||
|
|
|
|||
|
|
## Итого
|
|||
|
|
**40 секунд → 10-15 секунд** (ускорение в 2.5-4 раза)
|
|||
|
|
|
|||
|
|
## Дополнительные оптимизации (опционально)
|
|||
|
|
|
|||
|
|
### Кэширование похожих запросов
|
|||
|
|
Добавить ноду перед AI Agent:
|
|||
|
|
1. Вычислить хэш первых 200 символов `chatInput`
|
|||
|
|
2. Проверить Redis: есть ли кэш для этого хэша
|
|||
|
|
3. Если есть — вернуть из кэша (0 сек)
|
|||
|
|
4. Если нет — запустить AI Agent и сохранить результат в кэш на 1 час
|
|||
|
|
|
|||
|
|
**Эффект:** Для повторных/похожих запросов — мгновенный ответ
|
|||
|
|
|
|||
|
|
### Streaming (для UX)
|
|||
|
|
Если n8n поддерживает streaming:
|
|||
|
|
- Начать обрабатывать JSON по частям
|
|||
|
|
- Показывать прогресс пользователю
|
|||
|
|
|
|||
|
|
**Эффект:** UX улучшится, но общее время не изменится
|
|||
|
|
|
|||
|
|
## Проверка результата
|
|||
|
|
После применения оптимизаций:
|
|||
|
|
1. Откройте форму
|
|||
|
|
2. Введите описание проблемы
|
|||
|
|
3. Засеките время до появления плана вопросов
|
|||
|
|
4. Должно быть 10-15 секунд вместо 40
|
|||
|
|
|
|||
|
|
## Откат изменений
|
|||
|
|
Если что-то пошло не так:
|
|||
|
|
1. Верните модель `gpt-4.1-mini-2025-04-14`
|
|||
|
|
2. Верните старый промпт
|
|||
|
|
3. Уберите настройки `temperature` и `maxTokens`
|
|||
|
|
|
|||
|
|
|