ERR_INCOMPLETE_CHUNKED_ENCODING — HTTP/1.1 Transfer-Encoding: chunked response не завершён (missing final "0\r\n\r\n" chunk). Причины: backend crash mid-stream, nginx proxy_read_timeout срабатывает, LLM streaming response aborted, user closes tab. Fix: увеличить timeouts + robust error handling в app.
Ниже: причины, исправление, FAQ.
proxy_read_timeout 300s; proxy_send_timeout 300s;set_time_limit(0) для long-running (streaming)SSL/TLS — протокол шифрования, который защищает данные между браузером и сервером. Наш инструмент анализирует сертификат, цепочку доверия, версию TLS и известныеуязвимости.
Издатель, срок действия, алгоритм подписи, покрываемые домены (SAN) и тип валидации (DV/OV/EV).
Проверка полной цепочки: от конечного сертификата через промежуточные до корневого CA.
Версия протокола (TLS 1.2/1.3), набор шифров, поддержка Perfect Forward Secrecy (PFS).
Создайте монитор — получайте уведомления в Telegram и email за 30/14/7 дней до истечения.
мониторинг SSL-сертификатов
аудит TLS-конфигурации
HTTPS как фактор ранжирования
доверие покупателей
www и поддомены.Strict-Transport-Security заставляет браузер всегда использовать HTTPS.Мониторинг SSL-сертификатов, история проверок и уведомления за 30 дней до истечения.
Зарегистрироваться (FREE)Streaming: chunked encoding, content flushed по мере generate. Buffered: полный response sent одним куском с Content-Length.
OpenAI/Anthropic streaming отправляет много tiny chunks. Каждый chunk = HTTP chunk. Connection idle timeouts на proxy убивают long streams.
SSE использует chunked encoding. Connection длится минуты — proxy timeouts critical. Nginx: <code>proxy_buffering off;</code> для streaming endpoints.
curl -N https://stream-endpoint — verify если проходит full response. Если prematurely cut — backend issue.