fos-blog/study
01 / 홈02 / 카테고리
01 / 홈02 / 카테고리

카테고리

  • AI 페이지로 이동
    • RAG 페이지로 이동
    • langgraph 페이지로 이동
    • agents.md
    • BMAD Method — AI 에이전트로 애자일 개발하는 방법론
    • Claude Code의 Skill 시스템 - 개발자를 위한 AI 자동화의 새로운 차원
    • Claude Code를 5주 더 쓴 결과 — 스킬·CLAUDE.md를 키워가는 방식
    • Claude Code를 11일 동안 쓴 결과 — 데이터로 본 나의 사용 패턴
    • Claude Code 멀티 에이전트 — Teams
    • AI 에이전트와 디자인의 새 컨벤션 — DESIGN.md, Google Stitch, Claude Design
    • 하네스 엔지니어링 실전 — 4인 에이전트 팀으로 코딩 파이프라인 구축하기
    • 하네스 엔지니어링 — 오래 실행되는 AI 에이전트를 위한 설계
    • 멀티모달 LLM (Multimodal Large Language Model)
    • AI 에이전트와 함께 MVP 만들기 — dooray-cli 사례
  • ai 페이지로 이동
    • agent 페이지로 이동
  • algorithm 페이지로 이동
    • live-coding 페이지로 이동
    • 분산 계산을 위한 알고리즘
  • architecture 페이지로 이동
    • [초안] 시니어 백엔드를 위한 API 설계 실전 스터디 팩 — REST · 멱등성 · 페이지네이션 · 버전 전략
    • [초안] API Versioning과 Backward Compatibility: 시니어 백엔드 관점 정리
    • 캐시 설계 전략 총정리
    • [초안] CJ푸드빌 커머스/F&B 도메인 설계 면접 대비 — 슬롯 경험을 주문·결제·쿠폰·매장 상태 설계로 번역하기
    • [초안] 커머스 Spring 서비스에 Clean/Hexagonal Architecture를 실용적으로 적용하기
    • [초안] 커머스 주문 상태와 데이터 정합성 기본기 — CJ푸드빌 면접 대비
    • [초안] 쿠폰/프로모션 동시성과 정합성 기본기 — 선착순·중복 사용 방지·발급/사용/복구
    • [초안] DDD와 도메인 모델링: 시니어 백엔드 관점의 전술/전략 패턴 실전 가이드
    • [초안] Decorator & Chain of Responsibility — 행동을 체인으로 조립하는 두 가지 방식
    • 디자인 패턴
    • [초안] 분산 아키텍처 완전 정복: Java 백엔드 시니어 인터뷰 대비 실전 가이드
    • [초안] 분산 트랜잭션과 Outbox 패턴 — 왜 2PC를 피하고 어떻게 대신할 것인가
    • 분산 트랜잭션
    • [초안] e-Commerce 주문·결제 도메인 모델링: 상태머신, 멱등성, Outbox/Saga 실전 정리
    • [초안] F&B 쿠폰·프로모션·멤버십·포인트 설계
    • [초안] F&B · e-Commerce 디지털 채널 도메인 한 장 정리 — CJ푸드빌 디지털 채널 백엔드 면접 대비
    • [초안] F&B 주문/매장/픽업 상태머신 설계 — CJ푸드빌 디지털 채널 백엔드 관점
    • [초안] F&B 이커머스 결제·환불·정산 운영 가이드
    • [초안] Hexagonal / Clean Architecture를 Spring 백엔드에 적용하기
    • [초안] 대규모 커머스 트래픽 처리 패턴 — 1,600만 고객과 올영세일을 버티는 설계
    • [초안] 레거시 JSP/jQuery 화면과 신규 API가 공존하는 백엔드 운영 전략
    • [초안] MSA 서비스 간 통신: Redis [Cache-Aside](../database/redis/cache-aside.md) × Kafka 이벤트 하이브리드 설계
    • [초안] Observability 입문: 시니어 백엔드가 장애를 탐지하고 대응하는 방식
    • [초안] Outbox / Inbox Pattern 심화 — 분산 메시징의 정합성 문제를 DB 트랜잭션으로 풀어내기
    • [초안] 결제 도메인 멱등성과 트랜잭션 재시도 기본기
    • [초안] 시니어 백엔드를 위한 Resilience 패턴 실전 가이드 — Timeout, Retry, Circuit Breaker, Bulkhead, Backpressure
    • [초안] REST API 버저닝과 모바일 앱 하위 호환성 — CJ푸드빌 디지털 채널 백엔드 관점
    • [초안] Strategy Pattern — 분기문을 없애는 설계, 시니어 백엔드 인터뷰 핵심 패턴
    • [초안] 시니어 백엔드를 위한 시스템 설계 입문 스터디 팩
    • [초안] 템플릿 메서드 패턴 - 백엔드 처리 골격을 강제하는 가장 오래되고 가장 위험한 패턴
    • [초안] 대규모 트래픽 중 무중단 마이그레이션 — Feature Flag + Shadow Mode 실전
  • database 페이지로 이동
    • mysql 페이지로 이동
    • opensearch 페이지로 이동
    • redis 페이지로 이동
    • 김영한의-실전-데이터베이스-설계 페이지로 이동
    • 커넥션 풀 크기는 얼마나 조정해야 할까?
    • 인덱스 - DB 성능 최적화의 핵심
    • [초안] JPA N+1과 커머스 조회 모델: 주문/메뉴/쿠폰 도메인에서 살아남기
    • [초안] MyBatis 기본기 — XML Mapper, resultMap, 동적 SQL, 운영 패턴 정리
    • [초안] MyBatis와 JPA/Hibernate 트레이드오프 — 레거시 백엔드를 다루는 시니어 관점
    • 역정규화 (Denormalization)
    • 데이터 베이스 정규화
  • devops 페이지로 이동
    • docker 페이지로 이동
    • k8s 페이지로 이동
    • k8s-in-action 페이지로 이동
    • observability 페이지로 이동
    • [초안] 커머스/F&B 채널 장애 첫 5분과 관측성 기본기
    • Envoy Proxy
    • [초안] F&B / e-Commerce 운영 장애 대응과 모니터링 — 백엔드 관점 정리
    • Graceful Shutdown
  • finance 페이지로 이동
    • industry-cycle 페이지로 이동
    • investing 페이지로 이동
    • stock-notes 페이지로 이동
  • http 페이지로 이동
    • HTTP Connection Pool
  • interview 페이지로 이동
    • [초안] AI 서비스 팀 경험 기반 시니어 백엔드 면접 질문 뱅크 — Spring Batch RAG / gRPC graceful shutdown / 전략 패턴 / 12일 AI 웹툰 MVP
    • [초안] CJ푸드빌 디지털 채널 Back-end 개발자 직무 분석
    • [초안] CJ푸드빌 디지털 채널 Back-end 면접 답변집 — 슬롯 도메인 경험을 커머스/F&B 설계로 번역하기
    • [초안] F&B / e-Commerce 운영 모니터링과 장애 대응 인터뷰 정리
    • Observability — 면접 답변 프레임
    • [초안] 시니어 Java 백엔드 면접 마스터 플레이북 — 김병태
    • [초안] NSC 슬롯팀 경험 기반 질문 은행 — 도메인 모델링·동시성·성능·AI 협업
  • java 페이지로 이동
    • concurrency 페이지로 이동
    • jdbc 페이지로 이동
    • opentelemetry 페이지로 이동
    • spring 페이지로 이동
    • spring-batch 페이지로 이동
    • 더_자바_코드를_조작하는_다양한_방법 페이지로 이동
    • [초안] Java 동시성 락 정리 — 커머스 메뉴/프로모션 정책 캐시 갱신 관점
    • [초안] JVM 튜닝 실전: 메모리 구조부터 Virtual Threads, GC 튜닝, 프로파일링까지
    • Java의 로깅 환경
    • MDC (Mapped Diagnostic Context)
    • Java StampedLock — 읽기 폭주에도 쓰기가 밀리지 않는 락
    • Virtual Thread와 Project Loom
  • javascript 페이지로 이동
    • typescript 페이지로 이동
    • AbortController
    • Async Iterator와 제너레이터
    • CommonJS와 ECMAScript Modules
    • 제너레이터(Generator)
    • Http Client
    • Node 백엔드 운영 패턴 — Streams 백프레셔, pipe/pipeline, 멱등성 vs 분산 락
    • Node.js
    • npm vs pnpm — 어떤 기준으로 선택했나
    • `setImmediate()`
  • kafka 페이지로 이동
    • [초안] Kafka 기본 개념 — 토픽, 파티션, 오프셋, 복제
    • Kafka를 사용하여 **데이터 정합성**은 어떻게 유지해야 할까?
    • [초안] Kafka 실전 설계: 파티션 전략, 컨슈머 그룹, 전달 보장, 재시도, 순서 보장 트레이드오프
    • 메시지 전송 신뢰성
  • linux 페이지로 이동
    • fsync — 리눅스 파일 동기화 시스템 콜
    • tmux — Terminal Multiplexer
  • network 페이지로 이동
    • L2(스위치)와 L3(라우터)의 역할 차이
    • L4와 VIP(Virtual IP Address)
    • IP Subnet
  • rabbitmq 페이지로 이동
    • [초안] RabbitMQ Basics — 실전 백엔드 관점에서 정리하는 메시지 브로커 기본기
    • [초안] RabbitMQ vs Kafka — 백엔드 메시징 선택 기준과 실전 운영 관점
  • security 페이지로 이동
    • [초안] 시니어 백엔드를 위한 보안 / 인증 스터디 팩 — Spring Security, JWT, OAuth2, OWASP Top 10
  • task 페이지로 이동
    • ai-service-team 페이지로 이동
    • nsc-slot 페이지로 이동
    • sb-dev-team 페이지로 이동
    • the-future-company 페이지로 이동
  • testing 페이지로 이동
    • [초안] 시니어 Java 백엔드를 위한 테스트 전략 완전 정리 — 피라미드부터 TestContainers, 마이크로벤치, Contract까지
  • travel 페이지로 이동
    • 오사카 3박 4일 일정표: 우메다 쇼핑, USJ, 난바·도톤보리, 오사카성
  • web 페이지로 이동
    • [초안] HTTP / Cookie / Session / Token 인증 기본기 — 레거시 JSP와 모바일 API가 공존하는 백엔드 관점
FOS-BLOG · FOOTERall systems normal·v0.1 · 2026.04.27·seoul, kr
Ffos-blog/study

개발 학습 기록을 정리하는 블로그입니다. 공부하면서 기록하고, 기록하면서 다시 배웁니다.

visitors
01site
  • Home↗
  • Posts↗
  • Categories↗
  • About↗
02policy
  • 소개/about
  • 개인정보처리방침/privacy
  • 연락처/contact
03categories
  • AI↗
  • Algorithm↗
  • DB↗
  • DevOps↗
  • Java/Spring↗
  • JS/TS↗
  • React↗
  • Next.js↗
  • System↗
04connect
  • GitHub@jon890↗
  • Source repositoryjon890/fos-study↗
  • RSS feed/rss.xml↗
  • Newsletter매주 1 회 · 한 편의 글→
© 2026 FOS Study. All posts MIT-licensed.
built with·Next.js·Tailwind v4·Geist·Pretendard·oklch
fos-blog/http/HTTP Connection Pool
system

HTTP Connection Pool

- 요약 : > HTTP는 TCP/TLS 연결 비용이 크기 때문에, 매 요청마다 새 연결을 생성하면 latency와 CPU 부하가 커진다 > 그래서 Node.js에서는 keep-alive 기반의 connection pool을 사용해 연결을 재사용하는 것이 필수 > 보통 1개의 외부 API 서버에 대해 인스턴스당 10100개의 커넥션 풀을 유지하는 것이 가장...

2026.01.30·6 min read·116 views
  • 요약 :

    HTTP는 TCP/TLS 연결 비용이 크기 때문에, 매 요청마다 새 연결을 생성하면 latency와 CPU 부하가 커진다
    그래서 Node.js에서는 keep-alive 기반의 connection pool을 사용해 연결을 재사용하는 것이 필수
    보통 1개의 외부 API 서버에 대해 인스턴스당 10~100개의 커넥션 풀을 유지하는 것이 가장 안정적이며,
    Node 공식 undici client는 이 pool을 기본적으로 잘 지원합니다.

HTTP에 왜 Connection Pool이 필요한가?

이유 1 - TCP 연결 비용이 생각보다 매우 비싸다

  • HTTP 요청 1번을 하기 위해 실제로는

    • TCP 3-way handshake
    • TLS handshake(HTTPS 일 떄)
    • 이후 요청 전송
    • 즉 연결(Connection)은 엄청 비싼 작업이다.
    • TLS handshake는 보통 40~80ms 걸릴 수 있다.
  • 만약 매 요청마다 연결을 새로 만들면

    • latency 늘어남
    • CPU 사용 증가
    • 서버/클라이언트 모두 리소스 낭비
    • TPS 저하
  • 그래서 한번 만든 연결을 재사용하는 keep-alive 구조가 필요함

이유 2 - 외부 API는 대부분 Keep-Alive(지속 연결)을 지원한다

  • HTTP/1.1은 기본적으로

    text
      Connection: keep-alive
    • 이어서 같은 TCP 연결을 계속 재사용함
  • TCP 커넥션 하나가 여러 HTTP 요청을 처리할 수 있다

  • 그런데 Node의 기본 HTTP client는 요청마다 기본적으로 새 연결을 열어버리는 경우가 있다

    • 특히 fetch, axios에서 agent 옵션 안 주면!

이유 3 - 서버 또는 외부 API도 connection 제한이 있다

  • 외부 API 서버는 다음과 같은 제한을 건다
    • IP당 연결 개수 제한
    • Too many connections 보호
    • Rate limit - concurrency limit
  • 한 인스턴스가 수백 개의 연결을 계속 만든다면 타 서버 입장에서는 DOS 처럼 보일 수 있음
  • 그래서 커넥션 풀로 적절한 연결 수를 유지하는 것이 중요함

이유 4 - Node에서 커넥션 풀을 사용하면 GC/메모리 안정성도 올라간다

  • Node에서 새로운 HTTP client를 계속 만들면
    • 새로운 Socket 객체 생성
    • Buffer 생성
    • GC pressure 증가
  • 반대로 풀을 사용하면
    • Socket 재사용
    • Buffer 재사용
    • GC 부하 감소
  • 안정성이 크게 올라감

Keep-Alive가 켜져있으면 어떻게 동작하는가?

같은 서버 (출발지 /목적지)와의 동일 TCP 연결을 재상용한다. -> 따라서 TCP handshake + TLS handshake를 다시 하지 않아도 된다.

즉, 재요청 시 매우 작은 비용으로 바로 HTTP 요청을 보낼 수 있다.

HTTP/1.0 vs HTTP1.1 Keep-Alive 사양

HTTP/1.0

  • 기본 : 모든 요청 후 연결을 닫는다
  • 지속 연결을 원할 떄만 Connection: keep-alive 헤더를 명시해야 했다
  • 이게 없으면 반드시 Connection close

HTTP/1.1

  • 기본 : 지속 연결 (persistent connection)
    • 즉 연결을 유지하려고 시도함
  • HTTP/1.1 명세(RFC 2068, RFC 2616)에서 이렇게 정의됨
    • 기본적으로 keep-alive 상태
    • 명시적으로 종료하고 싶은 경우만 Connection: close

그런데 왜 Node, axios, undici는 keep-alive 설정이 필요한 것처럼 느껴질까?

  • 실제로는 HTTP 사양과 Node의 구현이 완전히 동일하게 작동하지 않는다
  • Node의 기본 http/https Agent는 keep-alive가 "비활성화" 되어 있음
    • Node의 기본 fetch/axios 요청은 내부적으로 Node의 http.Agent를 사용하는데 이 Agent는 직접 keepAlive: true 옵션을 줘야만 연결 재사용을 한다
  • 그렇지 않으면 HTTP/1.1 이더라도 Node는 내부적으로 socket을 닫아버린다

그렇다면 undici는?

  • undici는 Node 팀이 만든 고성능 HTTP 엔진이고 여기서는 HTTP/1.1 규격을 반영한다
    • keep-alive를 기본으로 사용한다
    • connection pool을 유지한다
  • 그래서 fetch(Node 18+) = undici 기반 -> keep-alive 활성화됨
  • ky = fetch 기반 -> undici 덕분에 keep-alive 사용

그럼 Keep-Alive 사용이 무조건 좋은 것 일까?

단점 1 : 커넥션 고갈 (Connection exhaustion)

  • 서버 포트가 고갈됨(에퍼메럴 포트 고갈)
  • 외부 API 서버가 동시 연결 제한을 초과
  • Nginx/ELB 같은 로드밸런서가 연결 폭주로 장애 발생
  • TIME_WAIT 상태 소켓이 폭증함

단점 2 : 커넥션이 장애 상태로 '고착'되는 문제

  • 외부 API 서버가 timeout 상태
  • 서버 내부에서 작업이 중단되거나 느림
  • 중간 로드밸런서가 연결을 죽였는데 Node는 연결이 살아 있다고 인식함
    • 이 때 keep-alive 커넥션이 겉보기에는 살아있지만 사실 죽어버린(dead connection) 상태가 될 수 있다
  • 이 상황에서 문제
    • Node는 이미 열린 keep-alive 커넥션을 계속 재사용
    • 하지만 서버는 이미 close 해버림
    • 요청을 보내면 ECONNRESET, socket hang up, broken pipe 발생
    • retry에서 또 같은 죽은 연결을 재사용
    • 전체 서비스가 순간적으로 대량 오류 발생
  • 해결
    • agent timeout 짧게 설정 (idle timeout)
    • request timeout + body timeout 적극 사용
    • socket keepalive 옵션 활성화
    • undici 사용 (dead-connection detection 구현됨)

단점 3 : 메모리 사용 증가

  • 많은 keep-alive 커넥션은 다음을 계속 잡고 있음
    • socket 버퍼
    • TLS 세션 메모리
    • 이벤트 핸들러
    • context 정보
  • 특히 Node는 GC 기반이라 대량 커넥션 유지 시 메모리 usage가 눈에 띄게 올라가고 힙 압박(GC Pause)가 증가함
  • 해결
    • 커넥션 풀 개수 제한
    • idle timeout 적절히 설정
    • 프로세스 메모리 모니터링

단점 4 : 장애 시 빠르게 recover되지 않는다 (장애 전파 가능)

  • 빠른 실패가 불가능해짐
    • 장애 시 회복이 늦어지고 서비스 전체가 엉망이 될 수 있음
  • 해결
    • 회로 차단기(Circuit Breaker) 도입
    • dead-connection detection
    • retry + backoff
    • fallback 처리

단점 5 : 로드밸런서 / NAT의 idle timeout이 관여함

  • AWS ALB, Azure LB, GCP LB 대부분은 idle timeout이 있다
  • 예
    • AWS ALB : 기본 idle timeout 60초
    • Cloudflare : 100초
    • NGINX : keepalive_timeout 75초
  • 만약 Node keep-alive timeout이 5분인데, LB idle timeout이 1분이라면?
    • LB가 먼저 연결을 끊음
    • Node는 연결이 살아 있다고 생각
    • 요청 -> ECONNRESET
    • retry loop 발생
    • 시스템 전체 불안정
  • 해결
    • Node의 keepAliveTimeout <= LB idle timeout으로 설정
    • 통상 30초 내외로 맞춤

단점 6 : HTTP/1.1의 Head-of-Line Blocking 문제

  • HTTP/1.1 keep-alive는 동시에 다중 요청을 같은 커넥션으로 보낼 수 없다
  • 즉, 하나의 요청이 느리면, 뒤의 요청이 전부 블록 됨
  • 이걸 Head-of-Line Blocking 이라고 한다
  • HTTP/2에서는 multiplexing으로 해결되지만, Node fetch/undici/axios 대부분 HTTP/1.1이 기본이라 이 문제를 완전히 해결하지 못함
  • 해결
    • 커넥션 풀 크기를 적절히 설정
    • 느린 요청을 별도 agent로 분리
    • HTTP/2 client 사용 고려 (undici 일부 지원 가능)

Keep-Alive 운영시 넣어야 할 설정들

  • 1. inbound/outbound timeout 정확히 설정
    • request timeout : 5초
    • idle timeout : 30초 이하
    • headers timeout: 2~5초
  • 2. connection pool 크기 제한
    • 인스턴스당 10 ~ 100 (코어 수 * 10 정도)
  • 3. retry + backoff
    • exponential backoff
    • jitter 추가
  • 4. Circuit breaker
    • opossum
    • half-open 처리
  • 5. dead-connection detection
    • undici Agent가 자동 감지
  • 6. 대량 장애 전파 방지
    • 빠른 실패
    • fallback / degrade 모드

관련

  • DB 커넥션 풀 크기 — 다른 레이어의 같은 풀 패턴 (DB 워커 자원 한계)
on this page
  • 01HTTP에 왜 Connection Pool이 필요한가?
  • 이유 1 - TCP 연결 비용이 생각보다 매우 비싸다
  • 이유 2 - 외부 API는 대부분 Keep-Alive(지속 연결)을 지원한다
  • 이유 3 - 서버 또는 외부 API도 connection 제한이 있다
  • 이유 4 - Node에서 커넥션 풀을 사용하면 GC/메모리 안정성도 올라간다
  • 02Keep-Alive가 켜져있으면 어떻게 동작하는가?
  • 03HTTP/1.0 vs HTTP1.1 Keep-Alive 사양
  • HTTP/1.0
  • HTTP/1.1
  • 그런데 왜 Node, axios, undici는 keep-alive 설정이 필요한 것처럼 느껴질까?
  • 그렇다면 undici는?
  • 04그럼 Keep-Alive 사용이 무조건 좋은 것 일까?
  • 단점 1 : 커넥션 고갈 (Connection exhaustion)
  • 단점 2 : 커넥션이 장애 상태로 '고착'되는 문제
  • 단점 3 : 메모리 사용 증가
  • 단점 4 : 장애 시 빠르게 recover되지 않는다 (장애 전파 가능)
  • 단점 5 : 로드밸런서 / NAT의 idle timeout이 관여함
  • 단점 6 : HTTP/1.1의 Head-of-Line Blocking 문제
  • Keep-Alive 운영시 넣어야 할 설정들
  • 05관련

댓글 (0)