fos-blog/study
01 / 홈02 / 카테고리
01 / 홈02 / 카테고리

카테고리

  • AI 페이지로 이동
    • RAG 페이지로 이동
    • langgraph 페이지로 이동
    • agents.md
    • BMAD Method — AI 에이전트로 애자일 개발하는 방법론
    • Claude Code의 Skill 시스템 - 개발자를 위한 AI 자동화의 새로운 차원
    • Claude Code를 5주 더 쓴 결과 — 스킬·CLAUDE.md를 키워가는 방식
    • Claude Code를 11일 동안 쓴 결과 — 데이터로 본 나의 사용 패턴
    • Claude Code 멀티 에이전트 — Teams
    • AI 에이전트와 디자인의 새 컨벤션 — DESIGN.md, Google Stitch, Claude Design
    • 하네스 엔지니어링 실전 — 4인 에이전트 팀으로 코딩 파이프라인 구축하기
    • 하네스 엔지니어링 — 오래 실행되는 AI 에이전트를 위한 설계
    • 멀티모달 LLM (Multimodal Large Language Model)
    • AI 에이전트와 함께 MVP 만들기 — dooray-cli 사례
  • ai 페이지로 이동
    • agent 페이지로 이동
  • algorithm 페이지로 이동
    • live-coding 페이지로 이동
    • 분산 계산을 위한 알고리즘
  • architecture 페이지로 이동
    • [초안] 시니어 백엔드를 위한 API 설계 실전 스터디 팩 — REST · 멱등성 · 페이지네이션 · 버전 전략
    • [초안] API Versioning과 Backward Compatibility: 시니어 백엔드 관점 정리
    • 캐시 설계 전략 총정리
    • [초안] CJ푸드빌 커머스/F&B 도메인 설계 면접 대비 — 슬롯 경험을 주문·결제·쿠폰·매장 상태 설계로 번역하기
    • [초안] 커머스 Spring 서비스에 Clean/Hexagonal Architecture를 실용적으로 적용하기
    • [초안] 커머스 주문 상태와 데이터 정합성 기본기 — CJ푸드빌 면접 대비
    • [초안] 쿠폰/프로모션 동시성과 정합성 기본기 — 선착순·중복 사용 방지·발급/사용/복구
    • [초안] DDD와 도메인 모델링: 시니어 백엔드 관점의 전술/전략 패턴 실전 가이드
    • [초안] Decorator & Chain of Responsibility — 행동을 체인으로 조립하는 두 가지 방식
    • 디자인 패턴
    • [초안] 분산 아키텍처 완전 정복: Java 백엔드 시니어 인터뷰 대비 실전 가이드
    • [초안] 분산 트랜잭션과 Outbox 패턴 — 왜 2PC를 피하고 어떻게 대신할 것인가
    • 분산 트랜잭션
    • [초안] e-Commerce 주문·결제 도메인 모델링: 상태머신, 멱등성, Outbox/Saga 실전 정리
    • [초안] F&B 쿠폰·프로모션·멤버십·포인트 설계
    • [초안] F&B · e-Commerce 디지털 채널 도메인 한 장 정리 — CJ푸드빌 디지털 채널 백엔드 면접 대비
    • [초안] F&B 주문/매장/픽업 상태머신 설계 — CJ푸드빌 디지털 채널 백엔드 관점
    • [초안] F&B 이커머스 결제·환불·정산 운영 가이드
    • [초안] Hexagonal / Clean Architecture를 Spring 백엔드에 적용하기
    • [초안] 대규모 커머스 트래픽 처리 패턴 — 1,600만 고객과 올영세일을 버티는 설계
    • [초안] 레거시 JSP/jQuery 화면과 신규 API가 공존하는 백엔드 운영 전략
    • [초안] MSA 서비스 간 통신: Redis [Cache-Aside](../database/redis/cache-aside.md) × Kafka 이벤트 하이브리드 설계
    • [초안] Observability 입문: 시니어 백엔드가 장애를 탐지하고 대응하는 방식
    • [초안] Outbox / Inbox Pattern 심화 — 분산 메시징의 정합성 문제를 DB 트랜잭션으로 풀어내기
    • [초안] 결제 도메인 멱등성과 트랜잭션 재시도 기본기
    • [초안] 시니어 백엔드를 위한 Resilience 패턴 실전 가이드 — Timeout, Retry, Circuit Breaker, Bulkhead, Backpressure
    • [초안] REST API 버저닝과 모바일 앱 하위 호환성 — CJ푸드빌 디지털 채널 백엔드 관점
    • [초안] Strategy Pattern — 분기문을 없애는 설계, 시니어 백엔드 인터뷰 핵심 패턴
    • [초안] 시니어 백엔드를 위한 시스템 설계 입문 스터디 팩
    • [초안] 템플릿 메서드 패턴 - 백엔드 처리 골격을 강제하는 가장 오래되고 가장 위험한 패턴
    • [초안] 대규모 트래픽 중 무중단 마이그레이션 — Feature Flag + Shadow Mode 실전
  • database 페이지로 이동
    • mysql 페이지로 이동
    • opensearch 페이지로 이동
    • redis 페이지로 이동
    • 김영한의-실전-데이터베이스-설계 페이지로 이동
    • 커넥션 풀 크기는 얼마나 조정해야 할까?
    • 인덱스 - DB 성능 최적화의 핵심
    • [초안] JPA N+1과 커머스 조회 모델: 주문/메뉴/쿠폰 도메인에서 살아남기
    • [초안] MyBatis 기본기 — XML Mapper, resultMap, 동적 SQL, 운영 패턴 정리
    • [초안] MyBatis와 JPA/Hibernate 트레이드오프 — 레거시 백엔드를 다루는 시니어 관점
    • 역정규화 (Denormalization)
    • 데이터 베이스 정규화
  • devops 페이지로 이동
    • docker 페이지로 이동
    • k8s 페이지로 이동
    • k8s-in-action 페이지로 이동
    • observability 페이지로 이동
    • [초안] 커머스/F&B 채널 장애 첫 5분과 관측성 기본기
    • Envoy Proxy
    • [초안] F&B / e-Commerce 운영 장애 대응과 모니터링 — 백엔드 관점 정리
    • Graceful Shutdown
  • finance 페이지로 이동
    • industry-cycle 페이지로 이동
    • investing 페이지로 이동
    • stock-notes 페이지로 이동
  • http 페이지로 이동
    • HTTP Connection Pool
  • interview 페이지로 이동
    • [초안] AI 서비스 팀 경험 기반 시니어 백엔드 면접 질문 뱅크 — Spring Batch RAG / gRPC graceful shutdown / 전략 패턴 / 12일 AI 웹툰 MVP
    • [초안] CJ푸드빌 디지털 채널 Back-end 개발자 직무 분석
    • [초안] CJ푸드빌 디지털 채널 Back-end 면접 답변집 — 슬롯 도메인 경험을 커머스/F&B 설계로 번역하기
    • [초안] F&B / e-Commerce 운영 모니터링과 장애 대응 인터뷰 정리
    • Observability — 면접 답변 프레임
    • [초안] 시니어 Java 백엔드 면접 마스터 플레이북 — 김병태
    • [초안] NSC 슬롯팀 경험 기반 질문 은행 — 도메인 모델링·동시성·성능·AI 협업
  • java 페이지로 이동
    • concurrency 페이지로 이동
    • jdbc 페이지로 이동
    • opentelemetry 페이지로 이동
    • spring 페이지로 이동
    • spring-batch 페이지로 이동
    • 더_자바_코드를_조작하는_다양한_방법 페이지로 이동
    • [초안] Java 동시성 락 정리 — 커머스 메뉴/프로모션 정책 캐시 갱신 관점
    • [초안] JVM 튜닝 실전: 메모리 구조부터 Virtual Threads, GC 튜닝, 프로파일링까지
    • Java의 로깅 환경
    • MDC (Mapped Diagnostic Context)
    • Java StampedLock — 읽기 폭주에도 쓰기가 밀리지 않는 락
    • Virtual Thread와 Project Loom
  • javascript 페이지로 이동
    • typescript 페이지로 이동
    • AbortController
    • Async Iterator와 제너레이터
    • CommonJS와 ECMAScript Modules
    • 제너레이터(Generator)
    • Http Client
    • Node 백엔드 운영 패턴 — Streams 백프레셔, pipe/pipeline, 멱등성 vs 분산 락
    • Node.js
    • npm vs pnpm — 어떤 기준으로 선택했나
    • `setImmediate()`
  • kafka 페이지로 이동
    • [초안] Kafka 기본 개념 — 토픽, 파티션, 오프셋, 복제
    • Kafka를 사용하여 **데이터 정합성**은 어떻게 유지해야 할까?
    • [초안] Kafka 실전 설계: 파티션 전략, 컨슈머 그룹, 전달 보장, 재시도, 순서 보장 트레이드오프
    • 메시지 전송 신뢰성
  • linux 페이지로 이동
    • fsync — 리눅스 파일 동기화 시스템 콜
    • tmux — Terminal Multiplexer
  • network 페이지로 이동
    • L2(스위치)와 L3(라우터)의 역할 차이
    • L4와 VIP(Virtual IP Address)
    • IP Subnet
  • rabbitmq 페이지로 이동
    • [초안] RabbitMQ Basics — 실전 백엔드 관점에서 정리하는 메시지 브로커 기본기
    • [초안] RabbitMQ vs Kafka — 백엔드 메시징 선택 기준과 실전 운영 관점
  • security 페이지로 이동
    • [초안] 시니어 백엔드를 위한 보안 / 인증 스터디 팩 — Spring Security, JWT, OAuth2, OWASP Top 10
  • task 페이지로 이동
    • ai-service-team 페이지로 이동
    • nsc-slot 페이지로 이동
    • sb-dev-team 페이지로 이동
    • the-future-company 페이지로 이동
  • testing 페이지로 이동
    • [초안] 시니어 Java 백엔드를 위한 테스트 전략 완전 정리 — 피라미드부터 TestContainers, 마이크로벤치, Contract까지
  • travel 페이지로 이동
    • 오사카 3박 4일 일정표: 우메다 쇼핑, USJ, 난바·도톤보리, 오사카성
  • web 페이지로 이동
    • [초안] HTTP / Cookie / Session / Token 인증 기본기 — 레거시 JSP와 모바일 API가 공존하는 백엔드 관점
FOS-BLOG · FOOTERall systems normal·v0.1 · 2026.04.27·seoul, kr
Ffos-blog/study

개발 학습 기록을 정리하는 블로그입니다. 공부하면서 기록하고, 기록하면서 다시 배웁니다.

visitors
01site
  • Home↗
  • Posts↗
  • Categories↗
  • About↗
02policy
  • 소개/about
  • 개인정보처리방침/privacy
  • 연락처/contact
03categories
  • AI↗
  • Algorithm↗
  • DB↗
  • DevOps↗
  • Java/Spring↗
  • JS/TS↗
  • React↗
  • Next.js↗
  • System↗
04connect
  • GitHub@jon890↗
  • Source repositoryjon890/fos-study↗
  • RSS feed/rss.xml↗
  • Newsletter매주 1 회 · 한 편의 글→
© 2026 FOS Study. All posts MIT-licensed.
built with·Next.js·Tailwind v4·Geist·Pretendard·oklch
fos-blog/kafka/[초안] Kafka 기본 개념 — 토픽, 파…
system

[초안] Kafka 기본 개념 — 토픽, 파티션, 오프셋, 복제

Kafka 글을 여러 편 정리하다 보니 "기본 개념을 한 번 모아서 짚는 문서"가 빠져 있었다. 이 글은 토픽·파티션·오프셋·복제(Leader/Follower/ISR)에 한해서 입문 수준으로만 정리한다. 파티션 키 전략, 컨슈머 그룹 리밸런싱, 메시지 전달 보장(at-least-once 등) 같은 운영·설계 영역은 별도 문서에서 다룬다. - 파티션 수 결정...

2026.01.30·7 min read·97 views

Kafka 글을 여러 편 정리하다 보니 "기본 개념을 한 번 모아서 짚는 문서"가 빠져 있었다. 이 글은 토픽·파티션·오프셋·복제(Leader/Follower/ISR)에 한해서 입문 수준으로만 정리한다. 파티션 키 전략, 컨슈머 그룹 리밸런싱, 메시지 전달 보장(at-least-once 등) 같은 운영·설계 영역은 별도 문서에서 다룬다.

  • 파티션 수 결정 / 컨슈머 그룹 / 재시도·DLQ 같은 실전 설계 → Kafka 실전 설계
  • At-most-once / At-least-once / Exactly-once → 메시지 전달 신뢰성
  • 멱등성 프로듀서, min.insync.replicas 등 정합성 옵션 → Kafka 데이터 정합성 설계

Kafka가 한 줄로 무엇인가

파티션 단위로 분산된 append-only 커밋 로그를 여러 브로커에 복제해두고, 발행자(Producer)와 구독자(Consumer)가 같은 로그를 다른 속도로 읽고 쓸 수 있게 해주는 분산 시스템.

이 한 줄에 등장하는 단어들이 곧 Kafka 의 기본 개념이다. 하나씩 풀어 본다.

토픽 (Topic)

토픽은 메시지가 담기는 논리적 카테고리 다. RDBMS 의 테이블과 비교하면 가장 가깝다 — 다만 Kafka 토픽은 항상 다음 두 가지 성질을 갖는다.

  1. 다중 구독자(multi-subscriber): 한 토픽을 여러 컨슈머 그룹이 각자의 속도로 동시에 구독할 수 있다. RDBMS 의 큐 테이블처럼 한 번 읽고 지우는 모델이 아니다.
  2. append-only: 메시지는 끝에만 추가되고, 한 번 쓰인 메시지는 수정되지 않는다. "지운다"는 개념도 사실은 보존 정책(retention)에 따라 오래된 세그먼트를 통째로 버리는 것이다.

토픽은 그 자체로 데이터를 저장하지 않는다. 실제 저장은 토픽을 구성하는 파티션 들에서 일어난다.

파티션 (Partition)

파티션은 한 토픽을 분할한 하나의 append-only 로그다. 토픽이 8개 파티션으로 구성되어 있다면, 그 토픽으로 발행된 메시지는 어떤 규칙에 따라 8개 로그 중 하나에 들어간다.

파티션을 둔 이유는 두 가지다.

  • 수평 확장: 토픽 하나를 여러 브로커에 나눠 저장할 수 있어야 처리량이 단일 디스크/서버 한계를 넘어선다.
  • 병렬 소비: 한 컨슈머 그룹 안에서 컨슈머 인스턴스가 파티션을 나눠 가져가면 그만큼 병렬로 읽을 수 있다.

여기서 입문자가 가장 자주 헷갈리는 사실 하나가 결정된다.

순서 보장은 토픽 단위가 아니라 파티션 단위로만 일어난다.

같은 키를 가진 메시지가 같은 파티션에 들어가도록 발행 측에서 보장하지 않으면, "주문 생성 → 결제 → 배송" 이벤트가 서로 다른 파티션에 흩어져 컨슈머가 받는 순서가 뒤집힐 수 있다. 파티션 키 설계는 그래서 입문 단계가 아니라 실전 설계의 핵심 주제로 따로 다룬다 (파티션 키 전략).

세그먼트 (Segment)

파티션은 디스크 위에서 하나의 거대한 파일이 아니다. 세그먼트 라고 부르는 일정 크기의 파일들로 나뉘어 저장된다. 새 메시지는 항상 가장 최근 세그먼트(active segment) 의 끝에 추가되고, 일정 크기·일정 시간이 지나면 새 세그먼트가 만들어진다.

세그먼트로 쪼개 두는 이유는 삭제와 인덱싱이 단순해지기 때문이다. retention 정책에 따라 오래된 메시지를 지울 때 한 메시지씩 삭제하지 않고 통째로 오래된 세그먼트 파일을 unlink 하면 끝이다. 이건 Kafka 가 임의 삭제 / 임의 수정을 지원하지 않는 대신 얻는 단순함이고, append-only 가정이 가능하게 해주는 구조적 근거이기도 하다.

오프셋 (Offset)

오프셋은 한 파티션 안에서 메시지의 위치를 가리키는 정수다. 파티션 0 의 첫 메시지가 0, 그다음이 1, 그다음이 2 ... 이런 식으로 단조 증가한다. 오프셋은 파티션 내부에서만 의미가 있다 — 파티션 0 의 오프셋 100 과 파티션 1 의 오프셋 100 은 완전히 다른 메시지다.

Kafka 가 다른 메시지 큐와 가장 다른 점이 여기서 드러난다.

브로커는 컨슈머가 어디까지 읽었는지 추적하지 않는다. 컨슈머가 자기 오프셋을 직접 관리한다.

전통적인 큐(예: 일부 RabbitMQ 패턴)는 브로커가 "이 메시지는 컨슈머 A 가 읽었음" 같은 상태를 들고 있다. Kafka 는 그렇지 않다. 컨슈머는 자기가 어디까지 처리했는지 오프셋으로 기록하고, 이 오프셋을 __consumer_offsets 라는 내부 토픽에 커밋한다. 그래서 같은 토픽을 컨슈머 그룹 A 와 B 가 각자 다른 속도로 읽는 게 자연스럽고, 컨슈머가 죽었다 살아나면 마지막 커밋된 오프셋부터 다시 읽으면 된다.

오프셋 커밋 전략(자동 커밋 vs 수동 커밋, 처리 전 커밋 vs 처리 후 커밋) 은 메시지 전달 보장과 직결된다. 이건 Kafka 실전 설계 — 오프셋 커밋 전략에서 자세히 다룬다.

브로커 (Broker) 와 클러스터

브로커는 Kafka 프로세스를 띄운 한 대의 서버다. 여러 브로커가 모여 클러스터를 이루고, 토픽의 파티션들은 클러스터 내 브로커에 분산되어 저장된다.

브로커가 보통 3대 이상으로 구성되는 이유는 단순하다 — 복제본 3개를 두면 1대가 죽어도 다수결(과반) 을 유지할 수 있고, 컨트롤러 선출이나 ISR 유지에서 분리 뇌 (split-brain) 가 일어날 가능성이 줄어들기 때문이다. 이 부분은 Kafka 실전 설계 — 왜 브로커는 보통 3대인가에 더 짧게 정리되어 있다.

복제 (Replication) — Leader, Follower, ISR

여기서부터가 입문에서 가장 중요한 부분이다. 파티션은 가용성을 위해 여러 복제본(replica) 을 가진다.

Replication Factor

토픽을 만들 때 정하는 옵션 중 하나가 replication.factor 다. 값이 3이면 그 토픽의 모든 파티션은 클러스터 안에 3개의 복제본 을 갖는다는 뜻이다. 이 3개는 가능한 한 서로 다른 브로커에 배치된다 (한 브로커에 같은 파티션의 두 복제본이 들어가면 그 브로커가 죽었을 때 가용성이 깨지므로).

즉 replication factor = 리더 1 + 팔로워 N - 1. 총 복제본 수다.

Leader vs Follower

같은 파티션의 N 개 복제본 중 정확히 하나가 리더(leader) 가 된다. 나머지는 팔로워(follower) 다. 둘의 역할은 분명히 다르다.

  • 리더: 그 파티션에 대한 모든 읽기와 쓰기 를 처리한다. 프로듀서도 리더에게 발행하고, 컨슈머도 리더에서 읽는다 (설명에서는 리더에 대한 단일 진입점이 명시되어 있다).
  • 팔로워: 리더로부터 메시지를 컨슈머처럼 가져와 자기 로그에 추가한다. 클라이언트는 팔로워를 직접 보지 않는다.

리더 하나에 모든 트래픽이 몰린다는 사실은 처음 들으면 어색하지만 — 파티션이 충분히 많으면 리더들이 클러스터 전체에 고르게 분산되므로 결과적으로 트래픽도 분산된다.

ISR (In-Sync Replicas)

리더와 팔로워가 있다고 해도, 모든 팔로워가 항상 리더와 같은 위치까지 따라잡고 있는 건 아니다. 어떤 팔로워는 GC 잠깐, 디스크 잠깐, 네트워크 잠깐 늦으면서 뒤처질 수 있다.

Kafka 는 이걸 다루기 위해 ISR(In-Sync Replicas) 이라는 개념을 둔다.

ISR = 현재 리더의 로그를 충분히 따라잡고 있는 복제본들의 집합. 리더 자기 자신도 ISR 의 멤버다.

"충분히 따라잡고 있다" 의 기준은 replica.lag.time.max.ms (기본 30초) 다. 한 팔로워가 이 시간 안에 리더에게 fetch 요청을 보내고 리더의 가장 최근 메시지까지 가져왔다면 ISR 에 포함되고, 이 시간을 넘기면 ISR 에서 제거된다.

이 값이 가지는 트레이드오프가 운영에서 가장 자주 부딪히는 지점이다.

  • 너무 짧게 잡으면: GC 한 번에도 팔로워가 ISR 에서 빠졌다 들어왔다 한다 (ISR flapping). 리더 재선출이 불필요하게 자주 일어나 클러스터가 불안정해진다.
  • 너무 길게 잡으면: 진짜로 죽은 팔로워가 한참 동안 ISR 에 남아 있는 것처럼 보인다. 일관성이 약해진다.

기본값 30초는 대부분의 운영 환경에서 적절히 보수적인 값이라 그대로 두는 경우가 많다.

커밋된 메시지 (Committed Message)

ISR 이 왜 중요한가는 "커밋된 메시지" 의 정의에서 드러난다. Confluent 공식 문서의 표현을 그대로 빌리면:

"a committed message means that all in-sync replicas for a partition have applied the message"

즉 메시지가 커밋되었다 = ISR 의 모든 복제본이 그 메시지를 적용했다. 컨슈머는 커밋된 메시지만 읽을 수 있다 (high watermark 이후만 노출). 이건 컨슈머 입장에서 "한 번 보였던 메시지가 리더 장애로 사라지는 일은 없다" 는 보장의 근거가 된다.

리더 장애 시 무슨 일이 일어나는가

리더 브로커가 죽으면 컨트롤러는 ISR 에 남아 있는 복제본 중 하나 를 새 리더로 선출한다. 핵심은 "ISR 에 남아 있는" 이다. ISR 에서 빠진 팔로워는 데이터가 뒤처져 있을 수 있으므로 정상 모드에서는 후보가 되지 않는다.

이 정책에 따라오는 트레이드오프가 두 가지 있다.

  1. ISR 이 다 죽으면 가용성이 멈춘다. 모든 ISR 멤버가 한 번에 죽으면 새 리더로 뽑을 후보가 없다. 이 경우 옵션은 두 개다 — (a) ISR 복구를 기다린다(consistency 우선, 기본값), (b) unclean.leader.election.enable=true 를 켜고 ISR 외부 복제본도 리더로 승격시킨다(availability 우선, 데이터 유실 가능). 기본값이 (a) 인 이유는 명확하다 — 메시지 큐로 쓰이는 시스템에서 침묵의 데이터 유실은 디버깅이 거의 불가능하기 때문이다.
  2. acks=all + min.insync.replicas 는 ISR 정의 위에서 동작한다. 프로듀서가 acks=all 로 발행하면 리더는 ISR 의 모든 멤버가 메시지를 적용한 뒤에야 ack 를 돌려준다. min.insync.replicas 는 "최소 이 정도 ISR 이 살아있어야 발행을 받아준다" 는 하한선이다. 둘이 같이 쓰여야 의미가 산다. 자세한 옵션 조합은 Kafka 데이터 정합성 설계 참고.

한 장 정리

plaintext
Cluster
  └── Broker (서버 노드, 보통 3대 이상)
        └── Topic (논리적 카테고리, append-only, 다중 구독자)
              └── Partition (분할된 로그, 순서 보장의 단위)
                    ├── Leader Replica  (모든 R/W 처리)
                    ├── Follower Replica × (RF-1)  (리더에서 fetch)
                    │     └── ISR 멤버십 = replica.lag.time.max.ms 안에 따라잡았는가
                    └── Segment (디스크 저장 단위, retention 단위)
                          └── Message
                                └── Offset (파티션 내부 위치)

이 그림이 머리에 잡히면 그 다음 단계인 파티션 키 설계, 컨슈머 그룹 리밸런싱, 메시지 전달 보장이 자연스럽게 읽힌다 — 모두 이 기본 구조 위에서 트레이드오프를 더하는 이야기이기 때문이다.

다음 읽을거리

  • Kafka 실전 설계 — 파티션 / 컨슈머 그룹 / 재시도 / 순서 보장
  • 메시지 전달 신뢰성 — At-most-once / At-least-once / Exactly-once
  • Kafka 데이터 정합성 설계 — 멱등성 프로듀서, acks=all, min.insync.replicas
  • 분산 트랜잭션과 Outbox 패턴 — Kafka 발행 원자성 보장

참고 자료

  • Apache Kafka — Documentation: Introduction & Key Concepts
  • Confluent Documentation — Kafka Replication
  • Confluent Community — replica.lag.time.max.ms 적정값
on this page
  • 01Kafka가 한 줄로 무엇인가
  • 02토픽 (Topic)
  • 03파티션 (Partition)
  • 세그먼트 (Segment)
  • 04오프셋 (Offset)
  • 05브로커 (Broker) 와 클러스터
  • 06복제 (Replication) — Leader, Follower, ISR
  • Replication Factor
  • Leader vs Follower
  • ISR (In-Sync Replicas)
  • 커밋된 메시지 (Committed Message)
  • 리더 장애 시 무슨 일이 일어나는가
  • 07한 장 정리
  • 08다음 읽을거리
  • 09참고 자료

댓글 (0)