📚FOS Study
홈카테고리
홈카테고리
📚FOS Study

개발 학습 기록을 정리하는 블로그입니다.

바로가기

  • 홈
  • 카테고리

소셜

  • GitHub
  • Source Repository

© 2025 FOS Study. Built with Next.js & Tailwind CSS

목록으로 돌아가기
📡http

HTTP Connection Pool

약 6분
GitHub에서 보기

HTTP Connection Pool

  • 요약 :

    HTTP는 TCP/TLS 연결 비용이 크기 때문에, 매 요청마다 새 연결을 새엇ㅇ하면 latency와 CPU 부하가 커진다
    그래서 Node.js에서는 keep-alive 기반의 connection pool을 사용해 연결을 재사용하는 것이 필수
    보통 1개의 외부 API 서버에 대해 인스턴스당 10~100개의 커넥션 풀을 유지하는 것이 가장 안정적이며,
    Node 공식 undici client는 이 pool을 기본적으로 잘 지원합니다.

HTTP에 왜 Connection Pool이 필요한가?

이유 1 - TCP 연결 비용이 생각보다 매우 비싸다

  • HTTP 요청 1번을 하기 위해 실제로는

    • TCP 3-way handshake
    • TLS handshake(HTTPS 일 떄)
    • 이후 요청 전송
    • 즉 연결(Connection)은 엄청 비싼 작업이다.
    • TLS handshake는 보통 40~80ms 걸릴 수 있다.
  • 만약 매 요청마다 연결을 새로 만들면

    • latency 늘어남
    • CPU 사용 증가
    • 서버/클라이언트 모두 리소스 낭비
    • TPS 저하
  • 그래서 한번 만든 연결을 재사용하는 keep-alive 구조가 필요함

이유 2 - 외부 API는 대부분 Keep-Alive(지속 연결)을 지원한다

  • HTTP/1.1은 기본적으로
    • Connection: keep-alive
      
    • 이어서 같은 TCP 연결을 계속 재사용함
  • TCP 커넥션 하나가 여러 HTTP 요청을 처리할 수 있다

  • 그런데 Node의 기본 HTTP client는 요청마다 기본적으로 새 연결을 열어버리는 경우가 있다
    • 특히 fetch, axios에서 agent 옵션 안 주면!

이유 3 - 서버 또는 외부 API도 connection 제한이 있다

  • 외부 API 서버는 다음과 같은 제한을 건다
    • IP당 ㅇ녀결 개수 제한
    • Too many connections 보호
    • Rate limit - concurrency limit
  • 한 인스턴스가 수백 개의 연결을 계속 만든다면 타 서버 입장에서는 DOS 처럼 보일 수 있음
  • 그래서 커넥션 풀로 적절한 연결 수를 유지하는 것이 중요함

이유 4 - Node에서 커넥션 풀을 사용하면 GC/메모리 안정성도 올라간다

  • Node에서 새로운 HTTP client를 계속 만들면
    • 새로운 Socket 객체 생성
    • Buffer 생성
    • GC pressure 증가
  • 반대로 풀을 사용하면
    • Socket 재사용
    • Buffer 재사용
    • GC 부하 감소
  • 안정성이 크게 올라감

Keep-Alive가 켜져있으면 어떻게 동작하는가?

같은 서버 (출발지 /목적지)와의 동일 TCP 연결을 재상용한다. -> 따라서 TCP handshake + TLS handshake를 다시 하지 않아도 된다.

즉, 재요청 시 매우 작은 비용으로 바로 HTTP 요청을 보낼 수 있다.

HTTP/1.0 vs HTTP1.1 Keep-Alive 사양

HTTP/1.0

  • 기본 : 모든 요청 후 연결을 닫는다
  • 지속 연결을 원할 떄만 Connection: keep-alive 헤더를 명시해야 했다
  • 이게 없으면 반드시 Connection close

HTTP/1.1

  • 기본 : 지속 연결 (persistent connection)
    • 즉 연결을 유지하려고 시도함
  • HTTP/1.1 명세(RFC 2068, RFC 2616)에서 이렇게 정의됨
    • 기본적으로 keep-alive 상태
    • 명시적으로 종료하고 싶은 경우만 Connection: close

그런데 왜 Node, axios, undici는 keep-alive 설ㅈ어이 필요한 것처럼 느껴질까?

  • 실제로는 HTTP 사양과 Node의 구현이 완전히 동일하게 작동하지 않는다
  • Node의 기본 http/https Agent는 keep-alive가 "비활성화" 되어 있음
    • Node의 기본 fetch/axios 요청은 내부적으로 Node의 http.Agent를 사용하는데 이 Agent는 직접 keepAlive: true 옵션을 줘야만 연결 재사용을 한다
  • 그렇지 않으면 HTTP/1.1 이더라도 Node는 내부적으로 socket을 닫아버린다

그렇다면 undici는?

  • undici는 Node 팀이 만든 고성능 HTTP 엔진이고 여기서는 HTTP/1.1 규격을 반영한다
    • keep-alive를 기본으로 사용한다
    • connection pool을 유지한다
  • 그래서 fetch(Node 18+) = undici 기반 -> keep-alive 활성화됨
  • ky = fetch 기반 -> undici 덕분에 keep-alive 사용

그럼 Keep-Alive 사용이 무조건 좋은 것 일까?

단점 1 : 커넥션 고갈 (Connection exhaustion)

  • 서버 포트가 고갈됨(에퍼메럴 포트 고갈)
  • 외부 API 서버가 동시 연결 제한을 초과
  • Nginx/ELB 같은 로드밸런서가 연결 폭주로 장애 발생
  • TIME_WAIT 상태 소켓이 폭증함

단점 2 : 커넥션이 장애 상태로 '고착'되는 문제

  • 외부 API 서버가 timeout 상태
  • 서버 내부에서 작업이 중단되거나 느림
  • 중간 로드밸런서가 연결을 죽였는데 Node는 연결이 살아 있다고 인식함
    • 이 때 keep-alive 커넥션이 겉보기에는 살아있지만 사실 죽어버린(dead connection) 상태가 될 수 있다
  • 이 상황에서 문제
    • Node는 이미 열린 keep-alive 커넥션을 계속 재사용
    • 하지만 서버는 이미 close 해버림
    • 요청을 보내면 ECONNRESET, socket hang up, broken pipe 발생
    • retry에서 또 같은 죽은 연결을 재사용
    • 전체 서비스가 순간적으로 대량 오류 발생
  • 해결
    • agent timeout 짧게 설정 (idle timeout)
    • request timeout + body timeout 적극 사용
    • socket keepalive 옵션 활성화
    • undici 사용 (dead-connection detection 구현됨)

단점 3 : 메모리 사용 증가

  • 많은 keep-alive 커넥션은 다음을 계속 잡고 있음
    • socket 버퍼
    • TLS 세션 메모리
    • 이벤트 핸들러
    • context 정보
  • 특히 Node는 GC 기반이라 대량 커넥션 유지 시 메모리 usage가 눈에 띄게 올라가고 힙 압박(GC Pause)가 증가함
  • 해결
    • 커넥션 풀 개수 제한
    • idle timeout 적절히 설정
    • 프로세스 메모리 모니터링

단점 4 : 장애 시 빠르게 recover되지 않는다 (장애 전파 가능)

  • 빠른 실패가 불가능해짐
    • 장애 시 회복이 늦어지고 서비스 전체가 엉망이 될 수 있음
  • 해결
    • 회로 차단기(Circuit Breaker) 도입
    • dead-connection detection
    • retry + backoff
    • fallback 처리

단점 5 : 로드밸런서 / NAT의 idle timeout이 관여함

  • AWS ALB, Azure LB, GCP LB 대부분은 idle timeout이 있다
  • 예
    • AWS ALB : 기본 idle timeout 60초
    • Cloudflare : 100초
    • NGINX : keepalive_timeout 75초
  • 만약 Node keep-alive timeout이 5분인데, LB idle timeout이 1분이라면?
    • LB가 먼저 연결을 끊음
    • Node는 연결이 살아 있다고 생각
    • 요청 -> ECONNRESET
    • retry loop 발생
    • 시스템 전체 불안정
  • 해결
    • Node의 keepAliveTimeout <= LB idle timeout으로 설정
    • 통상 30초 내외로 맞춤

단점 6 : HTTP/1.1의 Head-of-Line Blocking 문제

  • HTTP/1.1 keep-alive는 동시에 다중 요청을 같은 커넥션으로 보낼 수 없다
  • 즉, 하나의 요청이 느리면, 뒤의 요청이 전부 블록 됨
  • 이걸 Head-of-Line Blocking 이라고 한다
  • HTTP/2에서는 multiplexing으로 해결되지만, Node fetch/undici/axios 대부분 HTTP/1.1이 기본이라 이 문제를 완전히 해결하지 못함
  • 해결
    • 커넥션 풀 크기를 적절히 설정
    • 느린 요청을 별도 agent로 분리
    • HTTP/2 client 사용 고려 (undici 일부 지원 가능)

Keep-Alive 운영시 넣어야 할 설정들

  • 1. inbound/outbound timeout 정확히 설정
    • request timeout : 5초
    • idle timeout : 30초 이하
    • headers timeout: 2~5초
  • 2. connection pool 크기 제한
    • 인스턴스당 10 ~ 100 (코어 수 * 10 정도)
  • 3. retry + backoff
    • exponential backoff
    • jitter 추가
  • 4. Circuit breaker
    • opossum
    • half-open 처리
  • 5. dead-connection detection
    • undici Agent가 자동 감지
  • 6. 대량 장애 전파 방지
    • 빠른 실패
    • fallback / degrade 모드
http 카테고리의 다른 글 보기수정 제안하기
목차
  • HTTP Connection Pool
  • HTTP에 왜 Connection Pool이 필요한가?
  • 이유 1 - TCP 연결 비용이 생각보다 매우 비싸다
  • 이유 2 - 외부 API는 대부분 Keep-Alive(지속 연결)을 지원한다
  • 이유 3 - 서버 또는 외부 API도 connection 제한이 있다
  • 이유 4 - Node에서 커넥션 풀을 사용하면 GC/메모리 안정성도 올라간다
  • Keep-Alive가 켜져있으면 어떻게 동작하는가?
  • HTTP/1.0 vs HTTP1.1 Keep-Alive 사양
  • HTTP/1.0
  • HTTP/1.1
  • 그런데 왜 Node, axios, undici는 keep-alive 설ㅈ어이 필요한 것처럼 느껴질까?
  • 그렇다면 undici는?
  • 그럼 Keep-Alive 사용이 무조건 좋은 것 일까?
  • 단점 1 : 커넥션 고갈 (Connection exhaustion)
  • 단점 2 : 커넥션이 장애 상태로 '고착'되는 문제
  • 단점 3 : 메모리 사용 증가
  • 단점 4 : 장애 시 빠르게 recover되지 않는다 (장애 전파 가능)
  • 단점 5 : 로드밸런서 / NAT의 idle timeout이 관여함
  • 단점 6 : HTTP/1.1의 Head-of-Line Blocking 문제
  • Keep-Alive 운영시 넣어야 할 설정들