저작권 안내: 저작권자표시 Yes 상업적이용 No 컨텐츠변경 No

스프링5 입문

JSP 2.3

JPA 입문

DDD Start

인프런 객체 지향 입문 강의


이 글은 DevOps Handbook 책을 읽고 몇 가지 핵심 실천법을 정리한 것이다. (원서 링크, 번역서 링크)


*주의: 요약 글에 오류/오역이 존재할 수 있고 더 중요한 내용을 누락했을 수도 있으니 애매한 부분은 반드시 원문을 참고하기 바란다.


데브옵스 시작하기

밸류스트림 선택

  • 데브옵스 전환을 시도할 밸류 스트림은 신중히 선택할 것: 성공해야 확대 기회 생김
  • 동조 잘하고 혁신적인 그룹과 시작하기: 보수적인 그룹은 처음부터 설득하지 말고 충분히 성공한 뒤에 해결
밸류 스트림 이해, 팀 구성, 계획
  • 밸류 스트림 맵 작성: 모든 구성원 식별, 빠른 가치 제공을 위협하는 영역 이해
  • 개선할 메트릭을 선택하고 목표와 일정 결정
  • 전용 전환 팀 구성
  • 목표를 합의하고 공유: 측정 가능한 목표, 6개월~2년 사이의 명확한 기한, 어렵지만 달성 가능한 목표, 조직과 고객에 가치 있음, 책임자가 목표에 동의, 목표를 조직 전체 공유
  • 개선 계획은 짧게: 2-3주 안에 측정 가능한 개선이나 이용 가능한 데이터를 만들어야 함, 빠른 개선으로 일상 업무에서 차이를 만들어 내고, 빠른 증명으로 프로젝트를 유지
  • 모두가 작업 상태를 알 수 있도록 최신 상태 공개
조직 구성
  • 시장 지향 팀 구성
  • 밸류 스트림에 관여하는 모두가 고객 목표와 조직 목표 공유
  • 제너럴리스트: 배움을 장려, 호기심/용기/솔직함을 가진 사람 채용
  • 프로젝트가 아닌 서비스와 제품에 투자
  • 콘웨이 법칙에 따라 팀 경계 설계
  • 팀을 작게 유지
운영을 개발 환경에 통합
  • 운영 역량을 개발 팀에 통합: 운영과 개발의 효율과 생산성을 높이고 시장 지향 결과를 더 잘 만들어 낼 수 있도록 함
  • 운영도 개발 활동에 참여: 운영 엔지니어를 서비스 팀에 포함시키거나 운영 담당자를 서비스 팀에 할당해서 제품 관련 작업을 운영 계획에 반영하고 제품 팀에 운영 지식 전파
  • 제품과 관련된 운영 작업을 공유 칸반 보드에 공개: 운영도 밸류 스트림의 일부

흐름(Flow) 개선

배포 파이프라인 기반

  • 필요할 때 개발, 테스트, 제품 환경을 생성할 수 있어야 함: 모든 환경을 만들 수 있는 빌드 장치, 환경 구성에 필요한 것을 체계화/자동화, 이를 통해 일관된 환경 생성 프로세스 구축, 수작업 감소
  • 단일 리포지토리: 환경도 버전 컨트롤로 관리, 빠르게 롤백할 수 있는 방법 제공
  • 반복가능한 환경 구축 시스템으로 인프라도 빠르게 재구축할 수 있게 함
  • 조기에 환경을 코드와 통합하고 배포를 연습해서 릴리즈와 관련된 위험을 줄임
빠르고 신뢰할 수 있는 자동화된 테스트
  • 자동화된 테스트 스위트 작성: 배포 파이프라인으로 커밋한 모든 코드를 자동으로 빌드하고 테스트
  • 자동화된 빌드/테스트 프로세스를 실행하는 전용 환경 구축
  • UAT, 보안 테스트 환경을 셀프 서비스로 생성 가능
  • 테스트 커버리지를 이용해서 테스트 작성 유도
  • 성능 테스트, 비기능 요구사항 테스트를 배포 파이프라인에 통합
  • 배포 파이프라인이 깨지면 작업을 멈추고 즉시 해결: 문제 해결에 조기에 발견할 수 있는 테스트 케이스를 추가
지속적 통합(CI)
  • 작은 배치로 개발
  • 트렁크에 자주 커밋, 일일 커밋
저위험 출시
  • 배포 프로세스 단순화, 자동화: 소요 시간이 긴 단계를 제거하기 위해 아키텍처 개선, 소요 시간과 이관 횟수를 줄이기 위한 노력
  • 모든 환경에 대해 동일한 방법으로 배포
  • 자동화된 배포 셀프 서비스로 개발자가 직접 배포: 자동화된 테스트, 자동화된 배포, 코드 리뷰 등 위험 감소 장치 필요
  • CI로 배포 가능 패키지 생성, 제품 환경 준비 조회, 특정 버전 패키지를 배포할 수 있는 버튼, 감사 기록, 스모크 테스트 실행, 배포 성공 여부를 빠르게 피드백을 제공하는 배포 자동화
  • 배포와 릴리즈 분리: 블루-그린 배포, 카나리아 릴리즈, 기능 토글, 다크 론치 등으로 릴리즈 위험 감소
  • CD(Delivery): 트렁크에서 작은 크기로 작업 또는 짧은 피처 브랜치, 트렁크는 항상 릴리즈 가능 상태로 유지, 업무 시간에 필요할 때 푸시 버튼으로 릴리즈 가능
  • CD(Deployment): Delivery + 정기적으로 빌드를 제품에 배포


피드백

문제 확인과 해결 위한 텔레메트리

  • 중앙 집중화된 텔레메트리 인프라
  • 어플리케이션 메트릭을 충분하게 생성
  • 텔레메트리를 사용해서 문제 해결에 과학적으로 접근
  • 어플리케이션 메트릭, 비즈니스 메트릭, 인프라 메트릭을 함께 표시
  • 유지보수, 백업, 배포 등 배포/운영 활동도 메트릭에 표시

예측을 더 잘하고 목표를 달성하기 위한 텔레메트리 분석

  • 평균, 표준 편차, 비정상 탐지 기법(데이터 스무딩, 콜모고로프-스마르노프 검정 등)을 사용해서 잠재적인 문제 발견
  • 장애를 예측할 수 있는 메트릭을 찾아 모니터링 시스템에 추가
안전한 배포를 위한 피드백
  • 기능이 정상임을 확인할 수 있는 충분한 텔레메트리
  • 배포와 변경 이벤트를 메트릭 그래프에 함께 표시: 배포 파이프라인에서 놓친 제품 에러를 텔레메트리 이용해서 발견 가능
  • 모두가 전체 밸류 스트림의 건강 상태를 책임지는 문화
  • 론치 가이드, 론치 요구사항: 모든 개발이 전체 조직의 누적된 경험을 활용
가설 검증 통합
  • 목표를 달성했는지 검증할 수 있는 실험을 실시
  • A/B 테스트를 프로세스에 통합
리뷰와 조율 프로세스
  • 결합도를 낮춰 소통과 조율 필요성을 감소: 위험 완화 위해 변경을 공지하고 충돌 발견, 고위험 영역의 변경은 기술적 조치
  • 변경 승인 프로세스를 리뷰로 대체: 짝 프로그래밍, 코드 리뷰, 작은 배치 크기로 원활한 리뷰
  • 긴 변경 승인 프로세스 제거

지속적 배움과 실험

일상 업무에서의 배움
  • 저스트 컬처: 배움 관점에서 실수와 에러 접근. 휴먼 에러는 주어진 도구의 피할 수 없는 설계 문제에서 기인함, 탓하지 않느 사후 분석 미팅
  • 사후 미팅 결과를 전사에 공유해 조직이 배울 수 있도록 함
  • 혁신을 위한 위험 감수 문화: 리더의 노력 필요
  • 회복성 엔지니어링으로 회복성 향상
로컬 발견을 조직 전체의 개선으로
  • 업무 프로세스에 챗룸을 활용해서 지식 전파를 빠르게 함
  • 소프트웨어 표준 프로세스를 자동화: 문서나 프로세스를 실행 가능한 형태로 변환해서 리포지토리에 추가
  • 비기능 요구사항을 체계화
  • 재사용가능한 운영 유저 스토리를 개발에 구축: 반복되는 IT 운영 작업을 개발 작업에 함께 표시
  • 조직 목표 달성 위한 기술 선택: 운영이 지원하는 기술 목록 지정
배움, 개선 위한 시간 확보
  • 기술 부채를 감소하기 위한 활동을 일정을 잡아 진행
  • 가르치고 배우는 문화: 내부 세미나, 코드 리뷰, 컨퍼런스, 내부 컨설팅/코칭

보안, 규제, 변경 관리

보안

  • 보안을 개발 이터레이션 시연에 통합: 인포섹을 초기부터 참여시킴
  • 보안도 결함 추적과 사후 작업에 통합
  • 공유 리포지토리, 공유 서비스에 보안 예방 수단 통합: 보안 관련 라이브러리나 서비스에 대한 교육 제공, 안전한 빌드 이미지나 쿡북 제작
  • 배포 파이프라인에 보안 테스트 통합
  • SW 공급 체인 보안 검토
  • 환경에 대한 보안 관련 모니터링 추가
  • 보안 관련 텔레메트리 추가
규제, 변경 관리
  • 보안/규제를 변경 승인 프로세스에 통합
  • 효과적인 변경 관리 정책 구축
    • 표준 변경: 저위험 변경으로 자동 승인, 사전 승인 가능
    • 일반 변경: 리뷰나 승인이 필요한 위험한 변경
    • 긴급 변경: 긴급한 고위험 변경으로 즉시 반영
  • 저위험 변경을 표준 변경으로 재분류
  • 일반 변경을 표준으로 바꾸는 노력 필요
  • 감사 조직을 위한 문서와 근거 자료 생성: 텔레메트리 활용


Posted by 최범균 madvirus

댓글을 달아 주세요

  1. 강남 2018.09.13 02:27 신고  댓글주소  수정/삭제  댓글쓰기

    잘보고 가욤 ^^

스프링 리액터 로깅과 체크포인트


로깅

리액터의 동작을 보다 자세히 보고 싶다면 다음과 같이 log() 메서드를 사용한다. 아래 코드를 보자.


Flux.just(1, 2, 4, 5, 6)

        .log()

        .map(x -> x * 2)

        .subscribe(x -> logger.info("next: {}", x));


로깅 프레임워크로 SLF4j를 사용할 경우 실행한 결과는 다음과 같다.

08:38:29.990 [main] DEBUG reactor.util.Loggers$LoggerFactory - Using Slf4j logging framework
08:38:30.010 [main] INFO reactor.Flux.Array.1 - | onSubscribe([Synchronous Fuseable] FluxArray.ArraySubscription)
08:38:30.013 [main] INFO reactor.Flux.Array.1 - | request(unbounded)
08:38:30.014 [main] INFO reactor.Flux.Array.1 - | onNext(1)
08:38:30.014 [main] INFO logging.LoggingTest - next: 2
08:38:30.014 [main] INFO reactor.Flux.Array.1 - | onNext(2)
08:38:30.014 [main] INFO logging.LoggingTest - next: 4
08:38:30.014 [main] INFO reactor.Flux.Array.1 - | onNext(4)
08:38:30.014 [main] INFO logging.LoggingTest - next: 8
08:38:30.014 [main] INFO reactor.Flux.Array.1 - | onNext(5)
08:38:30.014 [main] INFO logging.LoggingTest - next: 10
08:38:30.014 [main] INFO reactor.Flux.Array.1 - | onNext(6)
08:38:30.014 [main] INFO logging.LoggingTest - next: 12
08:38:30.015 [main] INFO reactor.Flux.Array.1 - | onComplete()

"reactor.Flux.Array.1"이라는 로거가 출력한 로그 메시지는 Flux.just()가 생성한 시퀀스의 동작을 로그로 남긴 것이다. 로그를 보면 시퀀스가 request() 신호를 받은 시점, next 신호(onNext(2) 등)나 complete 신호(onComplete())를 발생한 시점을 확인할 수 있다.


로그 레벨은 INFO인데 로그 레벨을 변경하고 싶다면 다음과 같이 log() 메서드를 사용하면 된다.


Flux.just(1, 2, 4, 5, 6)

        .log(null, Level.FINE) // java.util.logging.Level 타입

        .subscribe(x -> logger.info("next: {}", x));


두 번째 인자로 자바 로깅의 Level.FINE을 주었다. SLF4j를 사용할 경우 리액터는 자바의 FINE 레벨을 SLF4j의 DEBUG 레벨로 기록한다. 따라서 위 코드를 실행하면 다음과 같이 DEBUG 레벨로 로그를 남기는 것을 확인할 수 있다.


08:50:30.098 [main] DEBUG reactor.Flux.Array.1 - | onSubscribe([Synchronous Fuseable] FluxArray.ArraySubscription)

08:50:30.101 [main] DEBUG reactor.Flux.Array.1 - | request(unbounded)

08:50:30.102 [main] DEBUG reactor.Flux.Array.1 - | onNext(1)

08:50:30.102 [main] INFO logging.LoggingTest - next: 1

08:50:30.102 [main] DEBUG reactor.Flux.Array.1 - | onNext(2)

08:50:30.102 [main] INFO logging.LoggingTest - next: 2


다음과 같이 특정 로거를 이용하도록 지정할 수도 있다. 


Flux.just(1, 2, 4, 5, 6)

        .log("MYLOG") // 또는 log("MYLOG", Level.INFO)

        .subscribe(x -> logger.info("next: {}", x));


위 코드를 실행하면 다음과 같이 지정한 로거를 이용해서 로그를 남긴다.


08:51:55.180 [main] INFO MYLOG - | onSubscribe([Synchronous Fuseable] FluxArray.ArraySubscription)

08:51:55.184 [main] INFO MYLOG - | request(unbounded)

08:51:55.184 [main] INFO MYLOG - | onNext(1)

08:51:55.184 [main] INFO logging.LoggingTest - next: 1

08:51:55.184 [main] INFO MYLOG - | onNext(2)

08:51:55.184 [main] INFO logging.LoggingTest - next: 2

08:51:55.184 [main] INFO MYLOG - | onNext(4)


체크포인트

시퀀스가 신호를 발생하는 과정에서 익셉션이 발생하면 어떻게 될까? 시퀀스가 여러 단게를 거쳐 변환한다면 어떤 시점에 익셉션이 발생했는지 단번에 찾기 힘들 수도 있다. 이럴 때 도움이 되는 것이 체크포인트이다. 다음은 체크포인트 사용 예이다.


Flux.just(1, 2, 4, -1, 5, 6)

        .map(x -> x + 1)

        .checkpoint("MAP1")

        .map(x -> 10 / x) // 원본 데이터가 -1인 경우 x는 0이 되어 익셉션이 발생

        .checkpoint("MAP2")

        .subscribe(

                x -> System.out.println("next: " + x),

                err -> err.printStackTrace());


이 코드는 데이터에 1을 더하고 다시 10을 데이터로 나누는 변환을 수행한다. 원본 데이터에 -1이 있으므로 중간에 0으로 나누게 되어 익셉션이 발생하게 된다. checkpoint()를 사용하면 어떤 단계에서 익셉션이 발생했는지 쉽게 확인할 수 있다. 아래 코드는 익셉션이 발생했을 때 출력한 익셉션 트레이스 메시지인데 이 메시지를 보면 checkpoint()로 지정한 description이 익셉션 트레이스 마지막에 출력되는 것을 알 수 있다. 이를 통해 어느 과정에서 익셉션이 발생했는지 쉽게 찾을 수 있다.

java.lang.ArithmeticException: / by zero
    at logging.CheckpointTest.lambda$checkpoint$1(CheckpointTest.java:15)
    at reactor.core.publisher.FluxMapFuseable$MapFuseableSubscriber.onNext(FluxMapFuseable.java:107)
    ...생략
    Suppressed: reactor.core.publisher.FluxOnAssembly$OnAssemblyException: 
Assembly site of producer [reactor.core.publisher.FluxMapFuseable] is identified by light checkpoint [MAP2]."description" : "MAP2"



관련글


Posted by 최범균 madvirus

댓글을 달아 주세요

리액터 윈도우


일정 개수로 묶어서 Flux 만들기: window(int), window(int, int)

Flux#window(int) 메서드를 사용하면 시퀀스가 발생시키는 데이터를 일정 개수로 묶을 수 있다. 다음은 예제 코드이다.


Flux<Flux<Integer>> windowSeq = 

        Flux.just(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)

             .window(4); // 4개 간격으로 4개씩 새로운 Flux로 묶음


windowSeq.subscribe(seq -> { // seq는 Flux<Integer>

    Mono<List<Integer>> monoList = seq.collectList();

    monoList.subscribe(list -> logger.info("window: {}", list));

});


위 코드에서 Flux#window(4)가 리턴하는 타입은 Flux<Flux<Integer>>이다. 즉 값이 Flux<Integer>인 Flux를 리턴한다. 이 시퀀스(Flux<Integer>)가 발생하는 값의 개수는 최대 4개이다. 위 코드의 실행 결과는 다음과 같다. 결과를 보면 4개씩 데이터를 묶어서 하나의 Flux로 만든 것을 알 수 있다.


01:19:52.388 [parallel-2] INFO batch.WindowTest - window: [5, 6, 7, 8]

01:19:52.388 [parallel-1] INFO batch.WindowTest - window: [1, 2, 3, 4]

01:19:52.391 [parallel-1] INFO batch.WindowTest - window: [9, 10]


Flux.window(int maxSize, int skip) 메서드를 사용하면 어느 간격으로 데이터를 묶을지 정할 수 있다. 두 번째 파라미터는 몇 개씩 건너서 데이터를 묶을 지 결정한다. 예를 들어 다음 코드를 보자.


Flux<Flux<Integer>> windowSeq =

        Flux.just(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)

                .window(4, 3); // 3개 간격마다 4개씩 새로운 Flux로 묶음


windowSeq.subscribe(seq -> { // seq는 Flux<Integer>

    Mono<List<Integer>> monoList = seq.collectList();

    monoList.subscribe(list -> logger.info("window: {}", list));

});


위 코드는 두 번째 인자로 3을 주었다. 이 경우 3개 데이터 간격으로 4개씩 데이터를 묶는다. 데이터를 묶는 간격이 데이터를 묶는 개수보다 작으므로 일부 데이터에 중복이 발생한다.


15:18:37.898 [main] INFO batch.WindowTest - window: [1, 2, 3, 4]

15:18:37.898 [main] INFO batch.WindowTest - window: [4, 5, 6, 7]

15:18:37.898 [main] INFO batch.WindowTest - window: [7, 8, 9, 10]

15:18:37.898 [main] INFO batch.WindowTest - window: [10]


다음과 같이 skip 파라미터 값으로 5를 주면 어떻게 될까? 데이터를 묶는 개수보다 간격이 더 크므로 일부 데이터에 누락이 발생할 것이다. 


Flux<Flux<Integer>> windowSeq2 =

        Flux.just(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)

                .window(4, 5); // 5개 간격마다 4개씩 새로운 Flux 묶음


// 첫 번째 Flux<Integer> : [1, 2, 3, 4]
// 두 번째 Flux<Integer> : [6, 7, 8, 9]



일정 시간 간격으로 묶어서 Flux 만들기: window(Duration), window(Duration, Duration)

Flux#window(Duration) 메서드를 사용하면 시퀀스가 발생시키는 데이터를 일정 시간마다 묶을 수 있다. 다음은 예제 코드이다.


Flux<Flux<Long>> windowSeq = Flux.interval(Duration.ofMillis(100))

      .window(Duration.ofMillis(500)); // 500밀리초 간격마다 500밀리초 동안 데이터 묶음


이 코드는 500밀리초(0.5초) 동안 발생한 데이터를 묶는다.


데이터를 묶기 시작하는 간격을 지정하고 싶다면 Flux#window(Duration, Duration) 메서드를 사용한다.


Flux<Flux<Long>> windowSeq = Flux.interval(Duration.ofMillis(100))

        // 400밀리초 간격마다 500밀리초 동안 데이터 묶음

        .window(Duration.ofMillis(500), Duration.ofMillis(400))



특정 조건에 다다를 때가지 묶어서 Flux 만들기: windowUntil(Predicate)

특정 조건을 충족하는 데이터를 만날 때까지 묶어서 Flux로 만들고 싶다면 windowUntil()을 사용한다. 다음은 사용 예이다.


Flux.just(1,1,2,3,3,4,5)

        .windowUntil(x -> x % 2 == 0)

        .subscribe((Flux<Integer> seq) -> {

            seq.collectList().subscribe(lst -> logger.info("window: {}", lst));

        });


위 코드는 2로 나눠서 나머지가 0인(즉 짝수인) 값을 만날 때까지 묶는다. 실제 실행 결과를 보면 다음과 같다.


01:19:27.166 [main] INFO batch.WindowTest - window: [1, 1, 2]

01:19:27.169 [main] INFO batch.WindowTest - window: [3, 3, 4]

01:19:27.169 [main] INFO batch.WindowTest - window: [5]


다음과 같이 마지막 데이터가 조건에 해당하면 어떻게 될까?


Flux.just(1,1,2,3,3,4)

        .windowUntil(x -> x % 2 == 0)

        .subscribe(seq -> {

            seq.collectList().subscribe(lst -> logger.info("window: {}", lst));

        });


결과를 보면 다음과 같이 마지막에 빈 Flux가 하나 더 발생되는 것을 알 수 있다.


17:23:22.724 [main] INFO batch.WindowTest - window: [1, 1, 2]

17:23:22.727 [main] INFO batch.WindowTest - window: [3, 3, 4]

17:23:22.727 [main] INFO batch.WindowTest - window: []


특정 조건을 충족하는 동안 묶어서 Flux 만들기: windowWhile(Predicate)

Flux#windowWhile(Predicate)은 해당 조건을 충족하지 않는 데이터가 나올 때까지 묶어서 Flux를 만든다. 조건을 충족하지 않는 데이터로 시작하거나 연속해서 데이터가 조건을 충족하지 않으면 빈 윈도우를 생성한다.


Flux.just(1,1,2,4,3,3,4,6,8,9,10)

        .windowWhile(x -> x % 2 == 0) // 짝수인 동안

        .subscribe(seq -> {

            seq.collectList().subscribe(lst -> logger.info("window: {}", lst));

        });


이 코드의 결과는 다음과 같다.


01:07:00.239 [main] INFO batch.WindowTest - window: []

01:07:00.242 [main] INFO batch.WindowTest - window: []

01:07:00.242 [main] INFO batch.WindowTest - window: [2, 4]

01:07:00.242 [main] INFO batch.WindowTest - window: []

01:07:00.242 [main] INFO batch.WindowTest - window: [4, 6, 8]

01:07:00.242 [main] INFO batch.WindowTest - window: [10]


Flux 대신 List로 묶기: buffer류 메서드

window류 메서드가 Flux로 묶는다면 buffer류 메서드는 Collection으로 묶는다. 메서드 이름이 window에서 buffer로 바뀔뿐 시그너쳐는 동일하다. 다음은 buffer류 메서드의 사용 예이다.


Flux<List<Integer>> bufferSeq = Flux.just(1, 2, 3, 4, 5, 6, 7, 8, 9, 10).buffer(4);

bufferSeq.subscribe(list -> logger.info("window: {}", list));



관련글




Posted by 최범균 madvirus

댓글을 달아 주세요

리액터 모으기(aggregation) 연산


List 콜렉션으로 모으기: collectList()

Flux는 데이터를 콜렉션으로 모을 수 있는 기능을 제공한다. 이 중에서 List로 모아주는 collectList()는 다음과 같이 사용한다.


Mono<List<Integer>> mono = someFlux.collectList();

mono.subscribe(lst -> System.out.println(lst));


collectList()의 리턴 타입은 Mono<List<T>>이므로 Mono를 구독해서 값을 사용하면 된다.


Map 콜렉션으로 모으기: collectMap()

다음의 Flux#collectMap()을 이용해서 Map으로 모을 수도 있다.


  • Mono<Map<K, T>> collectMap(Function<? super T, ? extends K> keyExtractor)
  • Mono<Map<K, V>> collectMap(Function<? super T, ? extends K> keyExtractor,
                                              Function<? super T, ? extends V> valueExtractor)
  • Mono<Map<K, V>> collectMap(Function<? super T, ? extends K> keyExtractor,
                                              Function<? super T, ? extends V> valueExtractor,
                                              Supplier<Map<K, V>> mapSupplier)

각 인자는 다음과 같다.

  • keyExtractor : 데이터에서 맵의 키를 제공하는 함수
  • valueExtractor : 데이터에서 맵의 값을 제공하는 함수
  • mapSupplier : 사용할 Map 객체를 제공(mapSupplier가 없는 메서드는 기본으로 HashMap 사용)

다음 코드는 각 메서드의 사용 예이다.


// keyExtractor만 지정. 값은 그대로 사용.


Mono<Map<Integer, Tuple2<Integer, String>>> numTupMapMono =

        Flux.just(Tuples.of(1, "일"), Tuples.of(2, "이"), Tuples.of(3, "삼"), Tuples.of(4, "사"))

                .collectMap(x -> x.getT1()); // keyExtractor



// String을 리턴하는 valueExtractor 사용.


Mono<Map<Integer, String>> numLabelMapMono =

        Flux.just(Tuples.of(1, "일"), Tuples.of(2, "이"), Tuples.of(3, "삼"), Tuples.of(4, "사"))

                .collectMap(x -> x.getT1(), // keyExtractor

                        x -> x.getT2()); // valueExtractor



// Map으로 TreeMap 사용


Mono<Map<Integer, String>> numLabelTreeMapMono =

        Flux.just(Tuples.of(1, "일"), Tuples.of(2, "이"), Tuples.of(3, "삼"), Tuples.of(4, "사"))

                .collectMap(x -> x.getT1(), // keyExtractor

                        x -> x.getT2(), // valueExtractor

                        () -> new TreeMap<>()); // mapSupplier


collectMap은 중복된 키가 존재하면 마지막 데이터와 관련된 값이 사용된다. 예를 들어 아래 코드는 Flux가 생성하는 데이터는 4개지만 키로 사용하는 값이 중복되므로 실제 Map에는 2와 4 두 개의 데이터만 저장된다.


Flux.just(1, 2, 3, 4)
     .collectMap(x -> x % 2)
     .subscribe(map -> System.out.println(map)); // {0=4, 1=3}

Map의 값을 콜렉션으로 모으기: collectMultiMap()

collectMultiMap()을 사용하면 같은 키를 가진 데이터를 List로 갖는 Map을 생성할 수 있다. 다음은 예제 코드이다.


Mono<Map<Integer, Collection<Integer>>> oddEvenList =

        Flux.just(1, 2, 3, 4).collectMultimap(x -> x % 2);

oddEvenList.subscribe(map -> System.out.println(map)); // {0=[2, 4], 1=[1, 3]}


collectMultiMap() 메서드는 collectMap() 메서드와 동일한 파라미터를 갖는다.


개수 새기: count()

Flux#count() 메서드를 사용하면 개수를 제공하는 Mono를 리턴한다.


Mono<Long> countMono = Flux.just(1, 2, 3, 4).count();


누적 하기: reduce()

reduce()는 각 값에 연산을 누적해서 결과를 생성한다. Flux의 데이터를 이용해서 단일 값을 생성하는 범용 기능이라고 보면 된다. 첫 번째 살펴볼 reduce() 메서드 다음과 같다. 이 메서드는 Flux가 발생하는 데이터와 동일 타입으로 누적할 때 사용한다.

  • Mono<T> reduce(BiFunction<T, T, T> aggregator)

aggregator는 인자가 두 개인 함수이다. 이 함수의 첫 번째 인자는 지금까지 누적된 값을 받으며, 두 번째 인자는 누적할 데이터를 받는다. aggregator는 두 인자를 이용해서 새로운 누적 값을 리턴한다. 새 누적 값은 다음 데이터를 aggregator 함수로 누적할 때 첫 번째 인자로 사용된다.


예를 들어 간단한 곱셈 기능을 reduce()를 이용해서 다음과 같이 구현할 수 있다.


Mono<Integer> mulMono = Flux.just(1, 2, 3, 4).reduce((acc, ele) -> acc * ele);

mulMono.subscribe(sum -> System.out.println("sum : " + sum);


acc는 이전까지 누적된 값인데, 두 번째 데이터를 누적할 때 첫 번째 데이터를 누적된 값(acc)으로 사용한다. 위 코드는 다음과 같은 계산을 거쳐 최종 값으로 24를 출력한다.


acc1 = 1 // 첫 번째 값을 누적 값의 초기 값으로 사용

acc2 = aggregator(acc1, 2) // 1 * 2

acc3 = aggregator(acc2, 3) // 2 * 3

acc4 = aggregator(acc3, 4) // 6 * 4


누적 값의 초기 값을 지정하고 싶거나 데이터와 다른 타입으로 누적하고 싶다면 다음 reduce() 메서드를 사용한다.

  • Mono<A> reduce(A initial, BiFunction<A, ? super T, A> accumulator)
  • Mono<A> reduceWith(Supplier<A> initial, BiFunction<A, ? super T, A> accumulator)

reduce()의 initial은 초기 값이고, reduceWith()의 initial은 초기값을 제공하는 Supplier이다. 다음은 초기 값을 사용하는 reduce() 메서드의 사용예이다.


Mono<String> strMono = Flux.just(1, 2, 3, 4)

                                        .reduce("", (str, ele) -> str + "-" + ele.toString());

strMono.subscribe(System.out::println); // -1-2-3-4 출력


누적하면서 값 생성하기: scan()

데이터를 누적하면 중간 누적 결과를 데이터로 생성하고 싶다면 scan() 메서드를 사용한다. 최종 누적된 값 한 개만 발생하는 reduce()와 달리 scan()은 중간 결과를 포함한 여러 값을 생성하므로, scan()의 리턴 타입은 Flux이다. 다음은 같은 타입으로 누적한 결과를 발생하는 scan() 메서드이다.

  • Flux<T> scan(BiFunction<T, T, T> accumulator)

리턴 타입이 Flux인 것을 제외하면 reduce()와 동일하다. 


다음은 예제 코드이다.


Flux<Integer> seq = Flux.just(1, 2, 3, 4).scan((acc, x) -> acc * x);

seq.subscribe(System.out::println);


다음은 위 코드의 출력 결과이다. 중간 결과가 출력되는 것을 알 수 있다.


1

2

6

24


reduce()와 동일하게 누적 초기값을 갖는 메서드를 제공한다.

  • Flux<A> scan(A initial, BiFunction<A, ? super T, A> accumulator)
  • Flux<A> scanWith(Supplier<A> initial, BiFunction<A, ? super T, A> accumulator)

다음은 초기 값을 지정하는 사용 예이다.


Flux<Integer> seq = Flux.just(2, 3, 4).scan(1, (acc, x) -> acc * x);

seq.subscribe(System.out::println);


실행 결과는 다음과 같다.


1

2

6

24


결과를 보면 초기 값(1)도 시퀀스의 값으로 발생한 것을 알 수 있다.


데이터 조건 검사

모든/일부 데이터가 특정 조건을 충족하는지 검사할 때는 all()이나 any()를 사용한다.


Mono<Boolean> all = Flux.just(1, 2, 3, 4).all(x -> x > 2);

all.subscribe(b -> System.out.println("all: " + b)); // false


Mono<Boolean> any = Flux.just(1, 2, 3, 4).any(x -> x > 2);

any.subscribe(b -> System.out.println("any: " + b)); // true


데이터가 존재하는지 또는 특정 데이터를 포함하는지 검사할 때는 hasElements()나 hasElement()를 사용한다.


Mono<Boolean> hasElements = Flux.just(1, 2, 3, 4).hasElements();

hasElements.subscribe(b -> System.out.println("hasElements: " + b)); // true


Mono<Boolean> hasElement = Flux.just(1, 2, 3, 4).hasElement(3);

hasElement.subscribe(b -> System.out.println("hasElement: " + b)); // true


관련 글





Posted by 최범균 madvirus

댓글을 달아 주세요

병렬(Parallel) 처리

시퀀스는 순차적으로 next 신호를 발생하고 Subscriber는 순차적으로 신호를 처리한다. 리액터는 시퀀스가 발생하는 next 신호를 병렬로 처리할 수 있는 방법을 제공한다. 이 글에서는 Flux의 parallel()을 사용하는 방법과 zip()을 이용한 방법에 대해 살펴본다.


parallel()과 runOn()으로 Flux 병렬 처리하기

Flux#parallel()과 runOn()을 사용하면 Flux가 생성하는 next 신호를 병렬로 처리할 수 있다. 다음 예를 보자.


Flux.range(1, 20)

        .parallel(2) // 작업을 레일로 나누기만 함

        .runOn(Schedulers.newParallel("PAR", 2))  // 각 레일을 병렬로 실행

        .map(x -> {

            int sleepTime = nextSleepTime(x % 2 == 0 ? 50 : 100, x % 2 == 0 ? 150 : 300);

            logger.info("map1 {}, sleepTime {}", x, sleepTime);

            sleep(sleepTime);

            return String.format("%02d", x);

        })

        .subscribe(i -> logger.info("next {}", i) );


// nextSleepTime은 인자로 받은 두 정수 값 범위에 해당하는 임의의 값을 생성한다고 가정


Flux#parallel(int parallelism) 메서드는 Flux가 생성하는 next 신호를 parallelism 개수만큼 라운드 로빈 방식으로 신호를 나눈다. 분리한 신호는 일종의 신호를 전달할 레일(rail)을 구성한다. 위 코드는 2를 값으로 주었으므로 2개의 레일을 생성한다. 라운드 로빈 방식을 사용해서 각 레일에 값을 전달하므로 위 코드는 [1, 3, 5, .., 19]를 제공하는 레일과 [2, 4, 6, ..., 20]를 제공하는 레일을 생성한다.


parallel()로 여러 레일을 만든다고 해서 병렬로 신호를 처리하는 것은 아니다. parallel()은 병렬로 신호를 처리할 수 있는 ParallelFlux를 리턴하는데, ParallelFlux의 runOn() 메서드에 다중 쓰레드를 사용하는 스케줄러를 전달해야 병렬로 신호를 처리할 수 있다. 위 코드는 2개 쓰레드를 사용하는 parallel 스케줄러를 전달했으므로 동시에 2개 레일로부터 오는 신호를 처리하게 된다.


병렬로 처리되는 것을 확인하기 위해 map() 메서드는 값이 짝수인 경우 50~150 밀리초, 홀수인 경우 100~300 밀리초 동안 슬립하고 문자열로 변환한 값을 리턴하도록 구현했다. parallel()은 라운드 로빈 방식으로 레일을 나누므로 짝수 레일과 홀수 레일이 생성되므로 슬립 타임 구간이 작은 짝수 레일이 더 빨리 끝나게 된다.


실제 결과를 확인해보자.


13:45:14.272 [PAR-1] INFO parallel.ParallelTest - map1 1, sleepTime 117

13:45:14.272 [PAR-2] INFO parallel.ParallelTest - map1 2, sleepTime 96

13:45:14.378 [PAR-2] INFO parallel.ParallelTest - next 02

13:45:14.378 [PAR-2] INFO parallel.ParallelTest - map1 4, sleepTime 98

13:45:14.399 [PAR-1] INFO parallel.ParallelTest - next 01

13:45:14.399 [PAR-1] INFO parallel.ParallelTest - map1 3, sleepTime 268

13:45:14.477 [PAR-2] INFO parallel.ParallelTest - next 04

13:45:14.477 [PAR-2] INFO parallel.ParallelTest - map1 6, sleepTime 93

13:45:14.570 [PAR-2] INFO parallel.ParallelTest - next 06

...생략

13:45:14.868 [PAR-2] INFO parallel.ParallelTest - map1 16, sleepTime 50

13:45:14.905 [PAR-1] INFO parallel.ParallelTest - next 05

13:45:14.905 [PAR-1] INFO parallel.ParallelTest - map1 7, sleepTime 201

13:45:14.918 [PAR-2] INFO parallel.ParallelTest - next 16

13:45:14.918 [PAR-2] INFO parallel.ParallelTest - map1 18, sleepTime 122

13:45:15.040 [PAR-2] INFO parallel.ParallelTest - next 18

13:45:15.040 [PAR-2] INFO parallel.ParallelTest - map1 20, sleepTime 62

13:45:15.102 [PAR-2] INFO parallel.ParallelTest - next 20

13:45:15.106 [PAR-1] INFO parallel.ParallelTest - next 07

13:45:15.106 [PAR-1] INFO parallel.ParallelTest - map1 9, sleepTime 202

13:45:15.308 [PAR-1] INFO parallel.ParallelTest - next 09

13:45:15.308 [PAR-1] INFO parallel.ParallelTest - map1 11, sleepTime 131

13:45:15.439 [PAR-1] INFO parallel.ParallelTest - next 11

13:45:15.439 [PAR-1] INFO parallel.ParallelTest - map1 13, sleepTime 289

13:45:15.728 [PAR-1] INFO parallel.ParallelTest - next 13

13:45:15.728 [PAR-1] INFO parallel.ParallelTest - map1 15, sleepTime 288

13:45:16.017 [PAR-1] INFO parallel.ParallelTest - next 15

13:45:16.017 [PAR-1] INFO parallel.ParallelTest - map1 17, sleepTime 156

13:45:16.173 [PAR-1] INFO parallel.ParallelTest - next 17

13:45:16.173 [PAR-1] INFO parallel.ParallelTest - map1 19, sleepTime 247

13:45:16.420 [PAR-1] INFO parallel.ParallelTest - next 19


실행 결과를 보면 PAR-1 쓰레드는 홀수를 PAR-2는 짝수를 처리하는 것을 알 수 있다. 즉 쓰레드마다 한 레일을 처리하고 있다. 짝수인 경우 슬립 타임을 더 작은 범위로 주었으므로 짝수 레일을 처리한 PAR-2가 먼저 레일을 처리하고 있다.

아래와 같이 레일은 4개로 나누었는데 쓰레드가 2개인 병렬 스케줄러를 사용하면 어떻게 될까?

Flux.range(1, 20)
        .parallel(4)
        .runOn(Schedulers.newParallel("PAR", 2))
        .map(x -> {
            ...
        })
        .subscribe(i -> logger.info("next {}", i) );


이 경우 스케줄러는 2개의 레일을 먼저 처리한다. 한 레일에 남아 있는 데이터가 없으면 데이터가 남아 있는 다른 레일을 처리한다.


레일당 크기

ParallelFlux#runOn() 메서드는 기본적으로 한 레일 당 Queues.SMALL_BUFFER_SIZE 만큼의 데이터를 저장한다. (이 값은 reactor.bufferSize.small 시스템 프로퍼티 값을 사용하는데 이 값을 지정하지 않으면 256을 사용하고 이 값이 16보다 작으면 16을 사용한다.)


레일에 미리 채울 데이터 개수를 변경하려면 다음과 같이 runOn() 메서드의 두 번째 인자로 값을 주면 된다. 다음 코드는 레일에 미리 채울 값(prefetch)으로 2를 사용한 예이다.


Flux.range(1, 20)

        .parallel(4)

        .runOn(Schedulers.newParallel("PAR", 2), 2) // 레일에 미리 채울 값으로 2 사용

        .subscribe(x -> logger.info("next {}", x));


위 코드의 경우 최초에 각 레일에 다음과 같이 데이터가 채워진다.

레일0: 1, 5
레일1: 2, 6
레일2: 3, 7
레일3: 4, 8


스케줄러는 2개의 쓰레드를 사용하는데 두 쓰레드를 PAR-1, PAR-2라고 하자. 이 두 쓰레드가 처음에 각각 레일0과 레일1을 선택했다고 하자.


레일0: 1, 5 (PAR-1)
레일1: 2, 6 (PAR-2)
레일2: 3, 7
레일3: 4, 8

두 쓰레드가 레일의 데이터를 처리하면 상태는 다음과 같이 바뀐다.


레일0: (PAR-1)
레일1: (PAR-2)
레일2: 3, 7
레일3: 4, 8

이 상태에서 PAR-2가 레일1이 비어있는지 여부를 검사한다면 레일이 비워져 있으므로 다음 레일을 선택한다. 이때 레일3을 선택했다고 하자. 그리고 PAR-1이 레일0이 비어있는지 여부를 검사하기 전에 레일0과 레일1이 채워졌다고 하자. 그럼 상태는 다음과 같이 바뀐다.


레일0: 9 (PAR-1)
레일1: 10
레일2: 3, 7 
레일3: 4, 8 (PAR-2)

그러면 PAR-2는 4를 처리하고 PAR-1은 9를 처리한다. PAR-1이 9를 처리하는 동안에 레일0에 데이터가 채워지지 않았다면 다음 레일을 선택하는데 이때 레일1을 선택할 수 있다.

레일0: 11,
레일1: 10 (PAR-1)
레일2: 3, 7 
레일3: 8 (PAR-2)

이렇게 병렬 스케줄러의 쓰레드 개수가 레일 개수보다 작으면 그때 그때 레일의 데이터 개수에 따라 스케줄러가 선택하는 레일이 달라지게 된다.

Mono.zip()으로 병렬 처리하기

각 Mono의 구독 처리 쓰레드를 병렬 스케줄러로 실행하고 Mono.zip() 메서드를 이용해서 Mono를 묶으면 각 Mono를 병렬로 처리할 수 있다. 다음은 예제 코드이다.


Mono m1 = Mono.just(1).map(x -> {

    logger.info("1 sleep");

    sleep(1500);

    return x;

}).subscribeOn(Schedulers.parallel());


Mono m2 = Mono.just(2).map(x -> {

    logger.info("2 sleep");

    sleep(3000);

    return x;

}).subscribeOn(Schedulers.parallel());


Mono m3 = Mono.just(3).map(x -> {

    logger.info("3 sleep");

    sleep(2000);

    return x;

}).subscribeOn(Schedulers.parallel());


logger.info("Mono.zip(m1, m2, m3)");


Mono.zip(m1, m2, m3)

        .subscribe(tup -> logger.info("next: {}", tup);


위 코드에서 m1, m2, m3는 각각 1.5초, 3초, 2초간 슬립한다. 각각은 subscribeOn()을 이용해서 Parallel 스케줄러를 이용해서 구독 요청을 처리하도록 했다. 그리고 Mono.zip()으로 m1, m2, m3를 묶었다.


실제 실행 결과를 보면 m1, m2, m3가 슬립을 동시에 시작하고 약 3초 뒤에 세 Mono의 값을 묶은 Tuple3의 값을 출력하는 것을 알 수 있다. 이를 통해 m1, m2, m3를 동시에 실행했음을 확인할 수 있다.


16:12:34.424 [main] INFO parallel.ParallelTest - Mono.zip(m1, m2, m3)

16:12:34.447 [parallel-1] INFO parallel.ParallelTest - 1 sleep

16:12:34.447 [parallel-3] INFO parallel.ParallelTest - 3 sleep

16:12:34.447 [parallel-2] INFO parallel.ParallelTest - 2 sleep

16:12:37.469 [parallel-2] INFO parallel.ParallelTest - next: [1,2,3]



관련 글


Posted by 최범균 madvirus

댓글을 달아 주세요

리액터 쓰레드 스케줄링

리액터는 비동기 실행을 강제하지 않는다. 예를 들어 아래 코드를 보자.


Flux.range(1, 3)

        .map(i -> {

            logger.info("map {} to {}", i, i + 2);

            return i + 2;

        })

        .flatMap(i -> {

            logger.info("flatMap {} to Flux.range({}, {})", i, 1, i);

            return Flux.range(1, i);

        })

        .subscribe(i -> logger.info("next " + i));


위 코드에서 logger는 쓰레드 이름을 남기도록 설정한 로거라고 하자. 위 코드를 main 메서드에서 실행하면 다음과 같은 결과를 출력한다.


17:44:57.180 [main] INFO schedule.ScheduleTest - map 1 to 3

17:44:57.183 [main] INFO schedule.ScheduleTest - flatMap 3 to Flux.range(1, 3)

17:44:57.202 [main] INFO schedule.ScheduleTest - next 1

17:44:57.202 [main] INFO schedule.ScheduleTest - next 2

17:44:57.202 [main] INFO schedule.ScheduleTest - next 3

17:44:57.202 [main] INFO schedule.ScheduleTest - map 2 to 4

17:44:57.202 [main] INFO schedule.ScheduleTest - flatMap 4 to Flux.range(1, 4)

17:44:57.202 [main] INFO schedule.ScheduleTest - next 1

17:44:57.202 [main] INFO schedule.ScheduleTest - next 2

17:44:57.202 [main] INFO schedule.ScheduleTest - next 3

17:44:57.202 [main] INFO schedule.ScheduleTest - next 4

17:44:57.202 [main] INFO schedule.ScheduleTest - map 3 to 5

17:44:57.202 [main] INFO schedule.ScheduleTest - flatMap 5 to Flux.range(1, 5)

17:44:57.203 [main] INFO schedule.ScheduleTest - next 1

17:44:57.203 [main] INFO schedule.ScheduleTest - next 2

17:44:57.203 [main] INFO schedule.ScheduleTest - next 3

17:44:57.203 [main] INFO schedule.ScheduleTest - next 4

17:44:57.203 [main] INFO schedule.ScheduleTest - next 5


실행 결과를 보면 map(), flatMap(), subscribe()에 전달한 코드가 모두 main 쓰레드에서 실행된 것을 알 수 있다. 즉 map 연산, flatMap 연산뿐만 아니라 subscribe를 이용한 구독까지 모두 main 쓰레드가 실행한다.


스케줄러를 사용하면 구독이나 신호 처리를 별도 쓰레드로 실행할 수 있다.


publishOn을 이용한 신호 처리 쓰레드 스케줄링

publishOn() 메서드를 이용하면 next, complete, error신호를 별도 쓰레드로 처리할 수 있다. map(), flatMap() 등의 변환도 publishOn()이 지정한 쓰레드를 이용해서 처리한다. 다음 코드를 보자.


CountDownLatch latch = new CountDownLatch(1);

Flux.range(1, 6)

        .map(i -> {

            logger.info("map 1: {} + 10", i);

            return i + 10;

        })

        .publishOn(Schedulers.newElastic("PUB"), 2)

        .map(i -> { // publishOn에서 지정한 PUB 스케줄러가 실행

            logger.info("map 2: {} + 10", i);

            return i + 10;

        })

        .subscribe(new BaseSubscriber<Integer>() {

            @Override

            protected void hookOnSubscribe(Subscription subscription) {

                logger.info("hookOnSubscribe");

                requestUnbounded();

            }


            @Override

            protected void hookOnNext(Integer value) {

                logger.info("hookOnNext: " + value); // publishOn에서 지정한 스케줄러가 실행

            }


            @Override

            protected void hookOnComplete() {

                logger.info("hookOnComplete"); // publishOn에서 지정한 스케줄러가 실행

                latch.countDown();

            }

        });

latch.await();


publishOn()은 두 개의 인자를 받는다. 이 코드에서 첫 번째 인자인 Schedulers.newElastic("PUB")은 비동기로 신호를 처리할 스케줄러이다. 다양한 스케줄러가 존재하는데 이에 대해서는 뒤에서 다시 살펴본다. 일단 지금은 스케줄러가 별도 쓰레드를 이용해서 신호를 처리한다고 생각하면 된다.


두 번째 인자인 2는 스케줄러가 신호를 처리하기 전에 미리 가져올 (prefetch) 데이터 개수이다. 이는 스케줄러가 생성하는 비동기 경계 시점에 보관할 수 있는 데이터의 개수로 일종의 버퍼 크기가 된다.


위 코드를 실제로 실행하면 어떤 일이 벌어지는지 보자. 다음은 결과이다.


13:01:03.026 [main] INFO schedule.ScheduleTest - hookOnSubscribe

13:01:03.029 [main] INFO schedule.ScheduleTest - map 1: 1 + 10

13:01:03.030 [main] INFO schedule.ScheduleTest - map 1: 2 + 10


13:01:03.031 [PUB-2] INFO schedule.ScheduleTest - map 2: 11 + 10

13:01:03.037 [PUB-2] INFO schedule.ScheduleTest - hookOnNext: 21

13:01:03.037 [PUB-2] INFO schedule.ScheduleTest - map 2: 12 + 10

13:01:03.037 [PUB-2] INFO schedule.ScheduleTest - hookOnNext: 22

13:01:03.037 [PUB-2] INFO schedule.ScheduleTest - map 1: 3 + 10

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - map 1: 4 + 10

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - map 2: 13 + 10

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - hookOnNext: 23

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - map 2: 14 + 10

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - hookOnNext: 24

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - map 1: 5 + 10

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - map 1: 6 + 10

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - map 2: 15 + 10

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - hookOnNext: 25

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - map 2: 16 + 10

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - hookOnNext: 26

13:01:03.038 [PUB-2] INFO schedule.ScheduleTest - hookOnComplete


최초에 2개를 미리 가져올 때를 제외하면 나머지는 모두 publishOn()으로 전달한 스케줄러의 쓰레드(쓰레드 이름이 "PUB"로 시작)가 처리하는 것을 알 수 있다.


publishOn()에 지정한 스케줄러는 다음 publishOn()을 설정할 때까지 적용된다. 예를 들어 다음과 같이 이름이 PUB1과 PUB2인 두 개의 스케줄러를 설정했다고 하자.


Flux.range(1, 6)

        .publishOn(Schedulers.newElastic("PUB1"), 2)

        .map(i -> {

            logger.info("map 1: {} + 10", i);

            return i + 10;

        })

        .publishOn(Schedulers.newElastic("PUB2"))

        .map(i -> {

            logger.info("map 2: {} + 10", i);

            return i + 10;

        })

        .subscribe(new BaseSubscriber<Integer>() {

            @Override

            protected void hookOnSubscribe(Subscription subscription) {

                logger.info("hookOnSubscribe");

                requestUnbounded();

            }


            @Override

            protected void hookOnNext(Integer value) {

                logger.info("hookOnNext: " + value);

            }


            @Override

            protected void hookOnComplete() {

                logger.info("hookOnComplete");

                latch.countDown();

            }

        });


이 코드를 실행한 결과는 다음과 같다.


13:38:14.957 [main] INFO schedule.ScheduleTest - hookOnSubscribe

13:38:14.960 [PUB1-4] INFO schedule.ScheduleTest - map 1: 1 + 10

13:38:14.963 [PUB1-4] INFO schedule.ScheduleTest - map 1: 2 + 10

13:38:14.963 [PUB2-3] INFO schedule.ScheduleTest - map 2: 11 + 10

13:38:14.963 [PUB1-4] INFO schedule.ScheduleTest - map 1: 3 + 10

13:38:14.964 [PUB1-4] INFO schedule.ScheduleTest - map 1: 4 + 10

13:38:14.964 [PUB1-4] INFO schedule.ScheduleTest - map 1: 5 + 10

13:38:14.964 [PUB1-4] INFO schedule.ScheduleTest - map 1: 6 + 10

13:38:14.969 [PUB2-3] INFO schedule.ScheduleTest - hookOnNext: 21

13:38:14.979 [PUB2-3] INFO schedule.ScheduleTest - map 2: 12 + 10

13:38:14.979 [PUB2-3] INFO schedule.ScheduleTest - hookOnNext: 22

...생략

13:38:15.021 [PUB2-3] INFO schedule.ScheduleTest - map 2: 16 + 10

13:38:15.021 [PUB2-3] INFO schedule.ScheduleTest - hookOnNext: 26

13:38:15.031 [PUB2-3] INFO schedule.ScheduleTest - hookOnComplete


결과를 보면 첫 번째 publishOn()과 두 번째 publishOn() 사이의 map() 처리는 PUB1 스케줄러가 실행하고 두 번째 publishOn() 이후의 map(), 신호 처리는 PUB2 스케줄러가 실행한 것을 알 수 있다.


subscribeOn을 이용한 구독 처리 쓰레드 스케줄링

subscribeOn()을 사용하면 Subscriber가 시퀀스에 대한 request 신호를 별도 스케줄러로 처리한다. 즉 시퀀스(Flux나 Mono)를 실행할 스케줄러를 지정한다. 다음은 subscribeOn()의 사용예이다.


CountDownLatch latch = new CountDownLatch(1);

Flux.range(1, 6)

        .log() // 보다 상세한 로그 출력 위함

        .subscribeOn(Schedulers.newElastic("SUB"))

        .map(i -> {

            logger.info("map: {} + 10", i);

            return i + 10;

        })

        .subscribe(new BaseSubscriber<Integer>() {

            @Override

            protected void hookOnSubscribe(Subscription subscription) {

                logger.info("hookOnSubscribe"); // main thread

                request(1);

            }


            @Override

            protected void hookOnNext(Integer value) {

                logger.info("hookOnNext: " + value); // SUB 쓰레드

                request(1);

            }


            @Override

            protected void hookOnComplete() {

                logger.info("hookOnComplete"); // SUB 쓰레드

                latch.countDown();

            }

        });


latch.await();


subscribeOn()으로 지정한 스케줄러는 시퀀스의 request 요청 처리뿐만 아니라 첫 번째 publishOn() 이전까지의 신호 처리를 실행한다. 따라서 위 코드를 실행하면 Flux.range()가 생성한 시퀀스의 신호 발생뿐만 아니라 map() 실행, Subscriber의 next, complete 신호 처리를 "SUB" 스케줄러가 실행한다. 참고로 시퀀스의 request 요청과 관련된 로그를 보기 위해 log() 메서드를 사용했다.


다음은 실행 결과이다.


14:56:24.996 [main] INFO schedule.ScheduleTest - hookOnSubscribe

14:56:25.005 [SUB-2] INFO reactor.Flux.Range.1 - | onSubscribe([Synchronous Fuseable] FluxRange.RangeSubscription)

14:56:25.010 [SUB-2] INFO reactor.Flux.Range.1 - | request(1)

14:56:25.010 [SUB-2] INFO reactor.Flux.Range.1 - | onNext(1)

14:56:25.011 [SUB-2] INFO schedule.ScheduleTest - map: 1 + 10

14:56:25.016 [SUB-2] INFO schedule.ScheduleTest - hookOnNext: 11

14:56:25.016 [SUB-2] INFO reactor.Flux.Range.1 - | request(1)

14:56:25.016 [SUB-2] INFO reactor.Flux.Range.1 - | onNext(2)

14:56:25.016 [SUB-2] INFO schedule.ScheduleTest - map: 2 + 10

14:56:25.017 [SUB-2] INFO schedule.ScheduleTest - hookOnNext: 12

...(생략)

14:56:25.017 [SUB-2] INFO reactor.Flux.Range.1 - | request(1)

14:56:25.017 [SUB-2] INFO reactor.Flux.Range.1 - | onNext(6)

14:56:25.017 [SUB-2] INFO schedule.ScheduleTest - map: 6 + 10

14:56:25.017 [SUB-2] INFO schedule.ScheduleTest - hookOnNext: 16

14:56:25.017 [SUB-2] INFO reactor.Flux.Range.1 - | request(1)

14:56:25.018 [SUB-2] INFO reactor.Flux.Range.1 - | onComplete()

14:56:25.018 [SUB-2] INFO schedule.ScheduleTest - hookOnComplete


실행 결과에서 Flux.Range 타입은 Flux.range() 메서드가 생성한 시퀀스 객체의 타입이다. 위 결과에서 Flux.Range.1의 reques(1), onNext(), onComplete() 로그는 Subscriber의 request 신호를 처리하는 로그이다. 이 로그를 보면 SUB 스케줄러가 해당 기능을 실행하고 있음을 알 수 있다. 또한 map()과 Subscriber의 신호 처리 메서드(hookOnNext, hookOnComplete)도 SUB 스케줄러가 실행하고 있다.


subscribeOn() + publishOn() 조합

앞서 말했듯이 subscribeOn으로 지정한 스케줄러는 첫 번째 publishOn이 올때까지 적용된다. 다음 코드를 통해 이를 확인할 수 있다.


CountDownLatch latch = new CountDownLatch(1);

Flux.range(1, 6)

        .log()

        .subscribeOn(Schedulers.newElastic("SUB"))

        .map(i -> {

            logger.info("map1: " + i + " --> " + (i + 20));

            return i + 20;

        })

        .map(i -> {

            logger.info("mapBySub: " + i + " --> " + (i + 100));

            return i + 100;

        })

        .publishOn(Schedulers.newElastic("PUB1"), 2)

        .map(i -> {

            logger.info("mapByPub1: " + i + " --> " + (i + 1000));

            return i + 1000;

        })

        .publishOn(Schedulers.newElastic("PUB2"), 2)

        .subscribe(new BaseSubscriber<Integer>() {

            @Override

            protected void hookOnSubscribe(Subscription subscription) {

                logger.info("hookOnSubscribe");

                request(1);

            }


            @Override

            protected void hookOnNext(Integer value) {

                logger.info("hookOnNext: " + value);

                request(1);

            }


            @Override

            protected void hookOnComplete() {

                logger.info("hookOnComplete");

                latch.countDown();

            }

        });


latch.await();


이 코드는 구독을 위한 "SUB" 스케줄러와 신호 처리를 위한 "PUB1", "PUB2" 스케줄러를 설정하고 있다. 


다음은 실행 결과이다.


15:10:05.660 [main] INFO schedule.ScheduleTest - hookOnSubscribe

15:10:05.681 [SUB-6] INFO reactor.Flux.Range.1 - | onSubscribe([Synchronous Fuseable] FluxRange.RangeSubscription)

15:10:05.687 [SUB-6] INFO reactor.Flux.Range.1 - | request(2)

15:10:05.688 [SUB-6] INFO reactor.Flux.Range.1 - | onNext(1)

15:10:05.718 [SUB-6] INFO schedule.ScheduleTest - map1: 1 --> 21

15:10:05.719 [SUB-6] INFO schedule.ScheduleTest - mapBySub: 21 --> 121

15:10:05.720 [SUB-6] INFO reactor.Flux.Range.1 - | onNext(2)

15:10:05.720 [SUB-6] INFO schedule.ScheduleTest - map1: 2 --> 22

15:10:05.720 [SUB-6] INFO schedule.ScheduleTest - mapBySub: 22 --> 122

15:10:05.721 [PUB1-5] INFO schedule.ScheduleTest - mapByPub1: 121 --> 1121

15:10:05.722 [PUB1-5] INFO schedule.ScheduleTest - mapByPub1: 122 --> 1122

15:10:05.734 [SUB-6] INFO reactor.Flux.Range.1 - | request(2)

15:10:05.735 [SUB-6] INFO reactor.Flux.Range.1 - | onNext(3)

15:10:05.735 [SUB-6] INFO schedule.ScheduleTest - map1: 3 --> 23

15:10:05.735 [SUB-6] INFO schedule.ScheduleTest - mapBySub: 23 --> 123

15:10:05.735 [SUB-6] INFO reactor.Flux.Range.1 - | onNext(4)

15:10:05.735 [SUB-6] INFO schedule.ScheduleTest - map1: 4 --> 24

15:10:05.735 [SUB-6] INFO schedule.ScheduleTest - mapBySub: 24 --> 124

15:10:05.736 [PUB2-4] INFO schedule.ScheduleTest - hookOnNext: 1121

15:10:05.736 [PUB2-4] INFO schedule.ScheduleTest - hookOnNext: 1122

15:10:05.736 [PUB1-5] INFO schedule.ScheduleTest - mapByPub1: 123 --> 1123

15:10:05.736 [PUB1-5] INFO schedule.ScheduleTest - mapByPub1: 124 --> 1124

15:10:05.736 [PUB2-4] INFO schedule.ScheduleTest - hookOnNext: 1123

15:10:05.736 [PUB2-4] INFO schedule.ScheduleTest - hookOnNext: 1124

15:10:05.736 [SUB-6] INFO reactor.Flux.Range.1 - | request(2)

15:10:05.736 [SUB-6] INFO reactor.Flux.Range.1 - | onNext(5)

15:10:05.736 [SUB-6] INFO schedule.ScheduleTest - map1: 5 --> 25

15:10:05.736 [SUB-6] INFO schedule.ScheduleTest - mapBySub: 25 --> 125

15:10:05.737 [SUB-6] INFO reactor.Flux.Range.1 - | onNext(6)

15:10:05.737 [PUB1-5] INFO schedule.ScheduleTest - mapByPub1: 125 --> 1125

15:10:05.737 [SUB-6] INFO schedule.ScheduleTest - map1: 6 --> 26

15:10:05.737 [SUB-6] INFO schedule.ScheduleTest - mapBySub: 26 --> 126

15:10:05.737 [PUB2-4] INFO schedule.ScheduleTest - hookOnNext: 1125

15:10:05.737 [PUB1-5] INFO schedule.ScheduleTest - mapByPub1: 126 --> 1126

15:10:05.737 [PUB2-4] INFO schedule.ScheduleTest - hookOnNext: 1126

15:10:05.737 [SUB-6] INFO reactor.Flux.Range.1 - | onComplete()

15:10:05.738 [PUB2-4] INFO schedule.ScheduleTest - hookOnComplete


실행 결과를 보면 첫 번째 publishOn()으로 PUB1 스케줄러를 지정하기 전까지는 SUB 스케줄러가 request 요청과 map1, mapBySub 변환을 처리하는 것을 확인할 수 있다.


[노트]

subscribeOn()이 publishOn() 뒤에 위치하면 실질적으로 prefetch할 때를 제외하면 적용되지 않는다. subscribeOn()은 원본 시퀀스의 신호 발생을 처리할 스케줄러를 지정하므로 시퀀스 생성 바로 뒤에 subscribeOn()을 지정하도록 하자. 또한 두 개 이상 subscribeOn()을 지정해도 첫 번째 subscribeOn()만 적용된다.


스케줄러 종류

스프링 리액터는 다음 스케줄러를 기본 제공한다.


  • Schedulers.immediate() : 현재 쓰레드에서 실행한다.
  • Schedulers.single() : 쓰레드가 한 개인 쓰레드 풀을 이용해서 실행한다. 즉 한 쓰레드를 공유한다.
  • Schedulers.elastic() : 쓰레드 풀을 이용해서 실행한다. 블로킹 IO를 리액터로 처리할 때 적합하다. 쓰레드가 필요하면 새로 생성하고 일정 시간(기본 60초) 이상 유휴 상태인 쓰레드는 제거한다. 데몬 쓰레드를 생성한다.
  • Schedulers.parallel() : 고정 크기 쓰레드 풀을 이용해서 실행한다. 병렬 작업에 적합하다.

single(), elastic(), parallel()은 매번 새로운 쓰레드 풀을 만들지 않고 동일한 쓰레드 풀을 리턴한다. 예를 들어 아래 코드에서 두 publishOn()은 같은 쓰레드 풀을 공유한다.


someFlux.publishOn(Schedulers.parallel())

            .map(...)

            .publishOn(Schedulers.parallel())

            .subscribe(...);


single(), elastic(), parallel()이 생성하는 쓰레드는 데몬 쓰레드로서 main 쓰레드가 종료되면 함께 종료된다.


같은 종류의 쓰레드 풀인데 새로 생성하고 싶다면 다음 메서드를 사용하면 된다.

  • newSingle(String name)
  • newSingle(String name, boolean daemon)
  • newElastic(String name)
  • newElastic(String name, int ttlSeconds)
  • newElastic(String name, int ttlSeconds, boolean daemon)
  • newParallel(String name)
  • newParallel(String name, int parallelism)
  • newParallel(String name, int parallelism, boolean daemon)

각 파라미터는 다음과 같다.

  • name : 쓰레드 이름으로 사용할 접두사이다.
  • daemon : 데몬 쓰레드 여부를 지정한다. 지정하지 않으면 false이다. 데몬 쓰레드가 아닌 경우 JVM 종료시에 생성한 스케줄러의 dispose()를 호출해서 풀에 있는 쓰레드를 종료해야 한다.
  • ttlSeconds : elastic 쓰레드 풀의 쓰레드 유휴 시간을 지정한다. 지정하지 않으면 60(초)이다.
  • parallelism : 작업 쓰레드 개수를 지정한다. 지정하지 않으면 Runtime.getRuntime().availableProcessors()이 리턴한 값을 사용한다.

newXXX() 로 생성하는 쓰레드 풀은 기본으로 데몬 쓰레드가 아니기 때문에 어플리케이션 종료시에는 다음과 같이 dispose() 메서드를 호출해서 쓰레드를 종료시켜 주어야 한다. 그렇지 않으면 어플리케이션이 종료되지 않는 문제가 발생할 수 있다.


// 비데몬 스케줄러 초기화

Scheduler scheduler = Schedulers.newElastic("SUB", 60, false);


// 비데몬 스케줄러 사용

someFlux.publishOn(scheduler)

            .map(...)

            .subscribe(...)


// 어플리케이션 종료시에 스케줄러 종료 처리

scheduler.dispose();


병렬 처리와 관련된 내용은 다음에 더 자세히 살펴본다.


일정 주기로 tick 발생: Flux.interval

Flux.interval()을 사용하면 일정 주기로 신호를 발생할 수 있다. 발생 순서에 따라 발생한 정수 값을 1씩 증가시킨다. 다음은 간단한 사용 예이다.


Flux.interval(Duration.ofSeconds(1)) // Flux<Long>

        .subscribe(tick -> System.out.println("Tick " + tick));


Thread.sleep(5000);


위 코드를 실행한 결과는 다음과 같다.

Tick 0
Tick 1
Tick 2
Tick 3
Tick 4


1초 간격으로 신호가 발생하는 것을 알 수 있다.


interval()은 Schedulers.parallel()를 사용해서 신호를 주기적으로 발생한다. 다른 스케줄러를 사용하고 싶다면 internval(Duration, Scheduler) 메서드를 사용하면 된다.


관련글

Posted by 최범균 madvirus

댓글을 달아 주세요