반응형

회사 건물에서 진행되었던 Agile Korea Conference 2018 에 다녀왔다.

신입사원 때부터 들어왔던 Agile 이지만 아직도 어색하고 제대로 하고 있는지 의문이 들 때가 많아서 이번 컨퍼런스에서 해답을 얻을 수 있을까라는 기대감이 있었다. 

( 주관적으로 생각해서 받아 적은 메모를 바탕으로 작성한 후기 입니다. 잘못된 내용, 잘못 이해한 내용이 있을 수 있습니다. ^^)

        

"Journey to Being Agile"

이번 conference 의 슬로건이다. 대체 Being Agile 이 뭐지??? 부디 컨퍼런스가 끝날때 쯤에는 그 의미를 알수 있기를 바란다.


Lean Coffee

키노트가 시작 되기 전에 Lean Coffee 라는 세션이 있었다. 상세 일정에 나와있길래 뭔지 몰라서 가기전에 한번 찾아봤었다.

http://agilecoffee.com/leancoffee/

Lean Coffee 는 자유로운 토론이라고 생각하면 된다. 토론 주제는 미리 정해지거나 하지 않는다. 진행 절차는 다음과 같다.

1. 이야기 하고 싶은 주제를 칸반보드에 포스트잇으로 붙인다.

2. 주제에 대해서 투표를 한다. 투표 결과에 따라서 우선순위를 정한다.

3. 우선순위가 높은 주제에 대해서 토론을 시작한다.

4. 정해진 시간(5분, 10분?)이 지나면 현재 이야기 하고 있는 주제에 대해서 더 진행할지 아니면 그만하고 다른 주제에 대해서 이야기 할지 투표를 한다. 

이런 형태로 진행되는게 Lean Coffee 이다. 한 사람에 의해서 진행되는 토론이 아니라 주제를 만든 사람에게 진행을 위임 함으로써 토론이 좀더 활발하고 적극적으로 이루어질수 있어서 더 몰입할수 있는것 같다. 실제 세션에 참여를 해보니 쌩판 모르는 사람들과 앉아서 이야기를 해도 어색하지 않고 모든 대화가 자연스럽게 흘러갔다. 처음에는 이런 오픈된 토론을 사람들이 많이 참여할까라는 생각을 했었는데 반응도 좋았고 분위기도 매우 좋았다.


키노트

"Mindset & Culture : At the Heart of a Winning Agile Transformation" : Ahmed Sidky

키노트는 Ahmed Sidky 라는 분이 진행을 했다. 라이엇게임즈에 Director(?) 로 있는 분이며 Agile 진영에서 유명한 분인것 같다. 난 처음 봤지만. 

키노트에서 내가 이해했던 내용은 이렇다.

현재 권력의 중심이 고객으로 이동을 하고 있다.  그리고 그것은 당연하고 모든 것들은 고객이 중심이 되어야 한다. 그리고 그 고객의 요구사항들은 결국 기업을 움직이게 하고 있다.

본인이 다니고 있는 라이엇 게임즈도 나보다는 팀, 팀보다는 회사, 회사보다는 게임유저(Player) 가 항상 우선순위가 높다라고 이야기 한다. (흠.. 그런데 롤에 핵도 많이 쓰던데.. 그건 어떻게 안하나...?? ^^;)

그리고 이제는 Output 보다는 Outcome 에 초점을 맞춰야 하는 시대이다. Output? Outcome ? 차이점이 뭘까? Output은 일, 결과, 또는 제품이라면 Outcome 은 가치에 대한 의미이다. 

예를 들어 설명하자면 이렇다. 화석연료 사용을 변화시키고 싶다 라는 목표가 있다. 여기에서 Output은 그냥 전기 자동차를 생산하는것에 한정된다. 하지만 사람들이 비싸더라도 전기 자동차를 구매하도록 변화를 유도하는것이 Outcome 에 해당한다. 결국 행동의 변화를 시키는게 Outcome인 것이다.. (좀 어렵다. -_-;;) 

그리고 여기에서 이야기 할수 있는것이 Doing AgileBeing Agile 이다. 다음 세션이나 내용을 정리할때 계속해서 이야기 할것 같지만 이 둘의 차이점은 일에 초점을 맞출것이냐, 변화에 초점을 맞출것이냐 라는것에 있다. (내가 이해한 관점이기 때문에 틀릴수도 있다.)

이제까지 우리는 Doing Agile 을 해왔다. 그 의미는 Agile을 하기 위해서 시스템적으로 접근을 했다는 이야기 이다. Agile 을 하려면 스크럼을 해야하고 칸반보드에 task 를 뽑아내고 백로그를 뽑아내고 하는 등등. Agile 을 하기 위해 갖춰야 할 항목들을 만들고 그것을 해왔다. 그것만 하면 Agile을 하고 있다고 이야기 해왔고 그랬었지만 지금은 다르다. Being Agile 을 해야 할 때이다. 어떻게 하느냐? 계속 해서 배워야 하고 그것이 행동의 변화로 이어져야 한다. Ahmed Sidky는 Being Agile을 하기 위해서는 모든 사람이 영감을 얻을 만한 비전을 제시해야 하고 전략이나 프로세스 보다는 교육과 사람의 리더쉽이 더 중요하다고 이야기 했다. 

세션이 진행되고 있는 무대 오른편에서 세션 내용에 대해서 바로바로 그림으로 그려주시는 그래픽 퍼실리테이터 분이 있었다. 세션의 내용 하나하나를 멋지게 그림으로 표현하다니 정말 대단하다는 생각이 들었다. 


그래서 검색을 한번 해봤다.

이은현 그래픽 퍼실리테이터 

그래픽 퍼실리테이터는 Visual Image를 통해 사람들과 소통합니다. 함축적으로 표현된 이미지 하나로 소통의 물꼬를 트기도 하고, 간결하게 정리된 Visual Story로 사람들이 보지 못했던 패턴과 메세지를 전달하기도 합니다.

출처 : https://www.inpeople.co.kr/html/introduce/profileView.php?idx=8


애자일 코치의 오해와 진실 : 신원(11번가)

이번 세션에서는 Agile 코치에 대한 설명이었다. 위에 사진에서 보듯이 나도 Scrum Master 하고 Agile Coach 하고 무슨 차이인지 좀 헷갈렸다. 그런데 발표하시는 분의 주관적인 생각에 의해 정리한 부분을 보면 비슷 하지만 규모나 지식의 레벨이 약간 차이가 난다. 결국 이것도 주관적인 의견이기 때문에 객관적인 차이점은 아니다. 

결론적으로 Agile 코치의 역할은 Agile 에 대한 정의와 처한 상황에 따라서 달라진다. 그리고 발표자분이 생각하는 Agile 코치의 중요한 역할은 이상과 현실 사이에서 순간순간 선택을 해야 할 상황이 다가왔을때 접점을 찾는데 도움을 주는 역할이라고 이야기 해주셨다.


삼성 SDS 지속적인 개선을 위한 10년의 노력 : 신황규(삼성SDS)

진행되었던 세션중에 가장 기대한 세션이었다. 회사 이야기이기도 하고 나도 약간은 겪어본 이야기이기도 해서 어떤 내용을 말씀해주시나 기대가 컸다. 

회사 내에서 Agile 을 교육하고 확산하는 노력을 많이 했다는 것은 어느정도 알고 있다. 나도 교육을 받아왔고 프로젝트에서도 해보면서 잘될때도 있었고 안될때도 있었다. 아마 잘 안될때가 더 많았었던것 같다. 결과물과 시간에 대한 상당한 갭이 그런 실패를 만들지 않았나 싶었다. 

10년이 넘는 시간동안 수많은 시도와 실패가 거듭되서 지금의 현재를 만들었고 그리고 지금도 많은 시도를 하고 있다고 한다. 

Agile 기법에 대해서는 정확히 모르지만 회사에서 진행했던 적용방법은 Team-Led Transformation 이라고 한다. 하나의 팀을 적용하고 다른 팀으로 계속해서 확산해 가는 방식이다. 아마도 지금 Act 팀이 지향해가고 있는 방향하고 딱 맞는 그림이라고 생각이 된다. 

그리고 내가 생각하고 있었던 Act팀의 고민거리가 가장 잘 드러났다고 생각한 그림이다. Team-Led Transformation 에서 가장 큰 문제점(?)이 이질감이다. 기존 문화를 간직한게 새로운 팀을 만드는 것이 아니라 현재와는 완전 다른 새로운 팀을 만드는것이기 때문에 기존 팀들과는 이질감이 생긴다. 현재 다른곳에서 Act 팀을 바라보는 시선이 딱 그렇다. 같이 일을 해보지는 않았지만 일단 외향 부터가 다르니 뭔가 다른곳인가 보다라는 생각부터 하게 된다. 점심때 잠깐 시간이 나서 Act 팀이 있는 사무실에 가봤는데 기존 우리 회사의 분위기와는 전혀 다른 분위기 였다. 우리 회사가 맞나 싶을 정도로.? 

그래서 현재 이런 차이들을 어떻게 보완해 나가면서 좀더 발전된 방향으로 나갈까가 고민이라고 하셨다. (큰 고민이실듯 하다. )

아마도 쉽지 않을거라는 생각이 든다. 저 사진에 있는 빨간색 삼각형은 현재 10년이 넘는 시간을 거쳐 만들어졌다. 아마도 시간이 지날 수록 완성도 있게 만들어질것이다. 하지만 그러면 그럴수록 바깥쪽과는 차이는 심하게 날것이다. 과연 이 갭을 어떻게 채워나갈지... 다름이 아니라 나아가야할 방향이며 변화를 받아들여야 하고 발전해 나가야 한다는 것을 인식시키기 위해서 또 얼마나 시간이 걸릴지. 좀 .. 오래걸릴것 같아서 안타까운 마음이 들었다.


Doing Agile 을 넘어 Being Agile 로 Agile Transformation : 이현찬(삼성SDS)

이번 세션은 Doing Agile 과 Being Agile 에 대한 이론을 정리할수 있는 세션이었다. 

기존 Agile 도입에 대한 문제점이다. Agile 을 적용하기 위해서 스터디를 하고 교육을 한다. 또는 컨설팅을 받고 고칭을 받고 적용을 한다. 그걸 계속해서 반복을 하지만 결국은 실패로 돌아온다. 왜 그럴까??

결론적으로 Agile 을 도입하는게 목적이 되었기 때문이다. 사진에서 처럼 How(Waht) 에 집중을 했기 때문이다. Agile 을 도입하면 모든 문제가 해결될것 같아서 도입을 한다. 그러면서 어떻게 해야 Agile을 하는것인가에 집중을 하게된다. 그리고 나중에서는 Agile 을 했는데 왜 결과가 이모양이냐 라고 끝맺음을 맺게된다. 이게 바로 기존에 해왔던 Doing Agile 이다.

그렇다고 해서 Doing Agile 이 무조건적으로 나쁜것만은 아니다. 단기 성과가 필요하거나 성공 사례등을 만들어야 하거나 또는 특정 상황에 따라서는 필요한 수도 있다. 

앞에서도 계속 말했지만 Doing 과 Being 에 차이점은 위와 같다. 

Being Agile 로 가기 위해서는 지속적으로 의문을 제기하고 마인드의 전환이 필요하다. 가치에 의미를 두고 교육이나 배움을 통해서 자기 스스로를 성장시켜 나가야 한다. 그리고 개인이 성장을 통해서 행복함을 느껴야 한다는 것도 중요한 포인트 이다.


마무리

내가 이 컨퍼런스에 참석하면서 얻고자 하는것은 딱 하나였다. "나는 회사에서 Agile을 잘 적용하고 있나?" 라는 의문을 풀기 위해서였다. 그래서 절차를 찾아보기도 하고 프로세스를 검색해보기도 했다. 그런데 내 물음에 답해준 딱 한가지 화면이 생각이 난다. 

신황규 선배님이 발표하신 자료에 있던 화면이다. 

"오늘 지금 잘한게 중요한것이 아니라 다음에 나아지지 않았다면 더이상 Agile 이 아니다"

Being Agile 에서 말하는 가치에 초점을 두고 배우고 성장하고. 이 모든것이 결론적으로는 좀더 나아지기 위한 밑걸음이다. 무엇인가 좀더 발전된 방향으로 나아가기 위해 하는 행위, 또는 노력 하나하나가 바로 Agile 이다. 

그래서 우리는 하루하루 오늘 보다는 내일 더 나아지기 위해 노력을 해야한다. 그러면 내가 변화하게 될것이고 그 변화는 다른 주위의 것들도 변화를 줄것이다. (앞으로 더 노력하자.)

개발과 관련되어있는 듯 하면서 약간은 차이가 있는 컨퍼런스였다. 그래서 좀더 내용이 어렵고 낯설게 느껴졌지만 그래도 몰랐던 의문은 풀고 가서 좋았다. 



728x90
반응형
반응형

Kubernetes를 사용하면서 자주 사용하는게 kubectl 명령어 이다. 그리고 그중에서 컨테이너를 생성할때 항상 kubectl create 명령어를 사용했다. 그런데 사용하다보니 어떤 글에는 create 를 사용하고 어디에서는 apply 를 사용하는 것을 보게 되었다. 그래서 이 차이점이 궁금해서 이렇게 정리하게 되었다. 


아래 내용들은 kubernetes document 에서 요약한 내용들이다. 

https://kubernetes.io/docs/concepts/overview/object-management-kubectl/overview/



Kubernetes 에서 Object Management 에는 3가지가 있다. 


Management technique

Operates on

Recommended environment 

Supported writers 

 Imperative commands

 Live objects 

 Development 

 1+ 

 Imperative object configuration

 Individual files  

 Production 

 1 

 Declarative object configuration

 Directories of files 

 Production 

 1+ 



Imperative Commands


장점

- 클러스터에 특정 오브젝트를 한번에 실행하거나 시작할수 있는 가장 쉬운 방법이다. (실제 이미지 바로 실행 시킨다. )


단점

- 기존 설정에 대한 히스토리를 제공하지 않는다. (그래서 위에 권장 환경이 Development 인것 같다.)

- 변경사항이나 audit 내역, 템플릿등을 제공하지 않는다. 


ex)

kubectl run nginx --image nginx



Imperative object configuration


- 최소한 1개 이상의 YAML 이나 JSON 포맷의 파일을 이용해서 Object 를 생성한다. 


ex)

kubectl create -f nginx.yaml

Imperative object configuration vs Imperative Commands

장점

- 설정파일 내용을 Git 같은 곳에 저장이 가능하기 때문에 설정에 대한 변경 히스토리가 확인 가능하다. 

- 새로운 Object를 생성하기 위한 템플릿을 제공한다. 

단점

- YAML 파일 작성이 필요하며 템플릿 사용을 위해 Object schema 에 대해서 이해가 필요하다.


Imperative object configuration vs Declarative object configuration 

장점
- 더 간단하고 이해하기 쉽다.

단점

- 파일로 적용할때에만 동작한다. 디렉토리는 불가능.

- 실행중인 object 를 update 하기 위해서는 설정파일에 반영을 해야 한다. 



Declarative object configuration

- 모든 설정 파일들은 디렉토리 안에 들어있고 오브젝트를 생성하거나 패치 한다.


ex)

kubectl apply -f configs/


Declarative object configuration vs Imperative object configuration

장점

- 실행중인 오브젝트 직접 적용한 변경사항을 설정파일에 merge 하지 않더라도 유지된다.(???)


단점

- 디버깅 하기 어렵고 예상한 결과가 아닐 경우 이해하기 어렵다.

- diffs 를 사용한 부분 업데이트는 복잡한 병합과 패치를 만들게 된다.


Imperative commands 나  Imperative object configuration 는 이해가 되는데  Declarative object configuration 은 약간 이해가 안된다. 


https://kubernetes.io/docs/concepts/overview/object-management-kubectl/declarative-config/


여기 있는 샘플을 가지고 확인해보자.


sample_deployment.yaml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-deployment
spec:
  selector:
    matchLabels:
      app: nginx
  minReadySeconds: 5
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.7.9
        ports:
        - containerPort: 80
cs



Create : kubectl apply -f sample_deployment.yaml 

Live configuration : kubectl get -f sample_deployment.yaml -o yaml


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
kind: Deployment
metadata:
  annotations:
    # ...
    # This is the json representation of simple_deployment.yaml
    # It was written by kubectl apply when the object was created
    kubectl.kubernetes.io/last-applied-configuration: |
      {"apiVersion":"apps/v1","kind":"Deployment",
      "metadata":{"annotations":{},"name":"nginx-deployment","namespace":"default"},
      "spec":{"minReadySeconds":5,"selector":{"matchLabels":{"app":nginx}},"template":{"metadata":{"labels":{"app":"nginx"}},
      "spec":{"containers":[{"image":"nginx:1.7.9","name":"nginx",
      "ports":[{"containerPort":80}]}]}}}}
  # ...
spec:
  # ...
  minReadySeconds: 5
cs


kubectl.kubernetes.io/last-applied-configuration 어노테이션에 보면 sample_deployment.yaml  에 적용한 내용들이 나와있다. 


다시 아래와 같이 명령어를 실행해보고 확인해보자.


kubectl scale deployment/nginx-deployment --replicas=2

Live configuration : kubectl get -f sample_deployment.yaml -o yaml


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
apiVersion: apps/v1
kind: Deployment
metadata:
  annotations:
    # ...
    # note that the annotation does not contain replicas
    # because it was not updated through apply
    kubectl.kubernetes.io/last-applied-configuration: |
      {"apiVersion":"apps/v1","kind":"Deployment",
      "metadata":{"annotations":{},"name":"nginx-deployment","namespace":"default"},
      "spec":{"minReadySeconds":5,"selector":{"matchLabels":{"app":nginx}},"template":{"metadata":{"labels":{"app":"nginx"}},
      "spec":{"containers":[{"image":"nginx:1.7.9","name":"nginx",
      "ports":[{"containerPort":80}]}]}}}}
  # ...
spec:
  replicas: 2 # written by scale
  # ...
  minReadySeconds: 5
cs


이 경우에는 apply를 하지 않았기 때문에 kubectl.kubernetes.io/last-applied-configuration 어노테이션에 포함되지 않았다.


sample_deployment.yaml 파일을 수정해보자. 


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-deployment
spec:
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.11.9 # update the image
        ports:
        - containerPort: 80
cs


nginx image 버전이 1.7.9 에서 1.11.9 로 변경 되었다.


Create : kubectl apply -f sample_deployment.yaml 

Live configuration : kubectl get -f sample_deployment.yaml -o yaml


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
apiVersion: apps/v1
kind: Deployment
metadata:
  annotations:
    # ...
    # The annotation contains the updated image to nginx 1.11.9,
    # but does not contain the updated replicas to 2
    kubectl.kubernetes.io/last-applied-configuration: |
      {"apiVersion":"apps/v1","kind":"Deployment",
      "metadata":{"annotations":{},"name":"nginx-deployment","namespace":"default"},
      "spec":{"selector":{"matchLabels":{"app":nginx}},"template":{"metadata":{"labels":{"app":"nginx"}},
      "spec":{"containers":[{"image":"nginx:1.11.9","name":"nginx",
      "ports":[{"containerPort":80}]}]}}}}
    # ...
spec:
  replicas: 2 # Set by `kubectl scale`.  Ignored by `kubectl apply`.
  # minReadySeconds cleared by `kubectl apply`
  # ...
  selector:
    matchLabels:
      # ...
      app: nginx
  template:
    metadata:
      # ...
      labels:
        app: nginx
    spec:
      containers:
      - image: nginx:1.11.9 # Set by `kubectl apply`
cs


확인을 해보면 apply 로 적용한 nginx 버전은 kubectl.kubernetes.io/last-applied-configuration 어노테이션에 포함 되어있다. 하지만 replicas 는 포함되지 않았다.


Warning: Mixing kubectl apply with the imperative object configuration commands create and replace is not supported. This is because create and replace do not retain the kubectl.kubernetes.io/last-applied-configuration that kubectl apply uses to compute updates


그리고 위와 같은 주의 사항도 있다. apply 는 create 나 replace 를 지원하지 않는다는 거다. 이유는 create 나 replace 는 kubectl.kubernetes.io/last-applied-configuration 어노테이션을 유지 하지 않기 때문이라고 한다. 



apply 와 create 의 차이점을 찾아보다가 여기까지 오게 되었다. 결과적으로 가장 큰 차이점은 apply 를 할 경우에는 기존 설정에 대한 정보를 가지고 있다는 점인것 같다. 


apply 이외에도 다른 명령어들이 있지만 우선은 이것만 이해하는걸로 하자.





728x90
반응형
반응형


지난번 Google Summit 에 이어 이번에는 피보탈에서 주최하는 SpringOne Tour 세미나에 참석을 했다.


https://springonetour.io/2018/seoul


우연히 Facebook 타임라인에 뜬 세미나 일정과 Agenda 를 보고 신청을 했었다. Spring 관련 세미나라서 내용에 대한 기대가 컸다. 세미나의 전체적인 주제는 Reactive 와 Cloud 관련 내용들이 많이 있었다. 회사에서 많이 쓰지는 않는 내용들이었지만 그래도 공부하면서 봤었던 유투브에서 봤던 내용들이어서 어느정도 이해할 수 있었다. 그리고 대부분 라이브 코딩이 포함되어 있어서 오히려 더 도움이 됐다. 


세션 요약

1. Reactive Spring with Spring Boot 2.0 - Mark Heckler


화면에는 Reactive Java 라고 되어있지만 다음 페이지에 바로 Reactive Kotlin 으로 변경했다. 라이브 데모 소스도 Kotlin 으로 작성을 했지만 눈으로 따라가는데에는 어렵지 않았다. 내용은 reactive programing 에 대한 내용이었다. 기존에 application 을 유지하기 위해 많은 양의 Thread 가 필요 했다면 이제는 non-blocking 이다 event-driven 을 이용해서 그 Thread 를 좀더 줄일수 있다, 아니 일정 수준으로 계속 유지 할수 있다는 내용 이었다. 그리고 backpressure 라는 내용이 있었는데 그부분은 좀 생소했다. 처음 듣는 단어라서 좀더 찾아봐야 할것 같다. 


참고사이트

http://www.reactive-streams.org/

https://projectreactor.io/

https://github.com/mkheck/FSR


2. Cloud-Native Spring - Josh Long

두번째 세션에서는 Josh Long 의 발표가 있었다. spring 관련 내용을 찾다 보면 이분 내용의 글들이 많이 있었는데 실제로 보니 정말 유쾌한 분이었다. 유머 감각도 있고. 그리고 놀라운것은 코드 작성 속도가 정말 빠르다. 말도 빨리 하는데 코드 작성하는 속도는 말보다 빠르다. 짧은 시간내에 라이브 코딩으로 gateway도 구현하는 라이브 코딩을 보여주었다. 그리고 역시나 처음본 rsocket?? 을 이용해서 코드를 바꿔서 보여주기도 했다. 


3. Spring Cloud Gateway - Younjin Jeong


API Gateway 에 대한 내용이었다. 그중 Netflix 에서 Zuul 을 사용했는데 asynchronous  non-blocking을 지원하기 위해 Zuul 2 를 새로 만들었다고 한다. 그런데 이게 non-blocking 이다 보니 기존 버전과 하위 호환성은 없다고 한다. 완전 새로은 제품이라고 생각하면 된다. Netflix 에서 자기들이 마이크로서비스를 위해서 사용했던 기술들을 라이브러리로 해서 많이 나왔지만 이게 내부에서 사용했던 것들이라서 소스코드가 깔끔하지 않다는 의견이 있었다. 약간 기억이 정확하지는 않지만 Spring 에서는 Zuul 2 는 아직 지원을 않하고 Zuul 1 을 지원한다고 했던것 같다. (정확하지 않음)


그리고 Zuul 을 설명해주면서 Ribbon 하고 비교설명해준게 내게 도움이 많이 됐다. 전에도 이 2개를 헷갈리고 뭔차이지 라는 생각은 하고 있었는데 오늘 설명을 듣고 좀 명확해 졌다.


Zuul 은 외부 트래픽에 대해서 이 트래픽을 어떤 서비스로 보낼지를 결졍해준다. 

Ribbon 은 Zuul 에서 결정된 서비스중 어느곳으로 보낼지를 결정해준다. 


또 Netfilx 에서 자기들이 직접 개발 운영하면서 Gateway 를 설계할때 Concurrent Connection, Thread Count, Latency 를 잘 판단해서 설계를 해야 한다고 했다. 저건 Youtube 동영상을 캡쳐한 화면인데 시간이 될때 한번 봐야겠다. 




참고사이트

https://github.com/spring-cloud/spring-cloud-gateway

https://github.com/spring-cloud-samples/spring-cloud-gateway-sample

http://slides.com/spencer/spring-cloud-gateway

https://github.com/ryanjbaxter/gateway-s1p-2018



4. Cloud Event Drive Architectures with Spring Cloud Stream 2.0 - Jakub Pilimon


세션 중반까지 잘 듣다가 잠깐 졸았던게 후회되는 세션이었다. 대체 왜 졸았을까.......



먼저 개발을 하기 전에 Event Storming 에 대한 이야기 이다. Event Storming 은 실제 현업과 이야기를 하면서 그들이 사용하고 있는 시스템에 대해서 이야기를 하는것이다. 기술적인 내용 없이 어떤 기능들이 있는지 이야기를 하는 부분이다. Event Storming 을 통해서 우리는 그 대화에서 Event 들을 도출해낸다. 


또 Event Storming 을 통해서 도출된 Event 에 대해서 우리가 해야 할 부분은 이 event 가 동작해야 하는 조건들을 추가하는 것이다. 바로 Event 에 대한 트리거를 확인 하는 작업이다. 


하아.. 이 다음이 문제다. 잠깐 졸고 일어났더니 라이브 코딩이 한창이었다. 그런데 내용을 보니 event 를 저장해서 뭔가를 하는 부분이었는데 그게 바로 Event Sourcing 부분이었던것 같다. 정신을 차리고 코드를 따라가보긴 했는데 결과적으로 주된 내용은 어플리케이션에서 트랜잭션이 일어날 경우 바로 DB 에서 처리하는게 아니라 그걸 발생시킨 Event를 하나씩 저장을 해서 처리를 한다는 것이었다.


그럼 왜 이렇게 하느냐에 대한 설명이 나왔다. 이해가 가는 부분도 있고 안되는 부분도 있어서 좀더 공부를 해봐야 할것 같다. 


- 장점

  이벤트를 통해서 모델에 대한 오딧이 가능하다. (이건 좀 이해가 안갔다... )

  이벤트 기반으로 히스토리 확인이 가능하다.

  특정 이벤트 별로 확인 및 분석이 가능하다.

- 단점

  코드가 많고 복잡하다.

  기존에 만들었던 방식과 다르기 때문에 사고의 전환이 필요하다.


참고사이트

https://github.com/ddd-by-examples

https://github.com/pilloPl/credit-cards-producer

https://github.com/pilloPl/credit-cards-consumer

http://pillopl.github.io/


5. Spring, Functions, Serverless and You - Nate Schutta

이번 세션에서는 아키텍처에 대한 내용들이 주제 였다. 세미나 가면 자주 듣던 예인데 전에는 Server를 애완동물처럼 애지중지 하게 다뤘지만 이제는 Server 가 애완동물이 아닌 가축으로 생각되고 있다는 이야기 이다. 다시 말해 Server가 죽으면 교체한다는 의미이다. 

위 사진에서 보여 주듯이 위로 올라갈 수록 Complexity 가 줄어들고 운영하기 좋아지기 때문에 최대한 Serverless 로 올려야 한다는 내용이었다. (4번 세션이후로 점점 집중력이 떨어져서 잘 듣지 못했다..)


6. Spring Boot & Cloud on Pivotal application Service - Younjin Jeong

이번 세션에서는 Pivotal 에서 어떤 서비스들을 제공하고 있고 어떤 플랫폼들이 있는지에 대한 내용이 대부분을 차지 했다. 

내용중에 이부분이 좀 와닿았다. 개발자들이 운영을 하는데 얼마나 시간을 소비하고 있는가. 새로운 기능을 만드는 것보다 대부분의 시간이 기존에 만들었던 거를 수정하고 디버깅하는데에 시간이 사용된다. 이걸 무슨 단어가 있었는데 생각이 안난다. 결과적으로 저렇게 되면 개인에게도 손해고 회사에도 손해이다. 

그래서 필요한게 Full Cycle Developers 다. Netflix 에서 한 말이고 어느정도 와닿는다. 하지만 저렇게 되려면 개인만 해서는 안되고 조직 자체가 그렇게 변해야 하기 때문에 쉬운 일은 아니다. 


Full Cycle Developers at Netflix — Operate What You Build


7. Using Spinnaker to Create a Development Workflow on Kubernetes - Paul czarkowski

마지막 세션에서는 Kubernetes 에 대한 내용이 많이 나왔다. 최근에 자주 보던 내용이어서 많이 집중해서 보지는 않았는데 마지막에 나온 Spinnaker 에 대해서는 좀 찾아 봐야겠다. 


마무리


마지막에 운좋게 당첨되서 "클라우드 네이티브 자바" 책을 받아왔다. 세션 중간에 책 사서 Josh Long 한테 사인 받을까 했었는데 참길 잘했다. ^^ 

앞에서도 말했지만 세션 전체적으로 모르는 내용이 많이 있긴 했지만 중간중간 중복해서 설명되는 내용도 있었고 코드를 따라가다 보면 이해가 되는 내용도 많았다. 역시 개발자는 코드로 대화를 할수 있어야 한다는게 괜한 말이 아니었다. ^^;; 최근 GCP 공부하다 보니 Spring 쪽은 약간 소홀한 면이 있었는데 오늘 세미나를 듣고 보니 잠깐 쉬는동한 공부해야 할게 참 많아졌구나라고 느꼈다. 좀더 분발해야 할것 같고 궁금했던 부분들에 대해서는 빨리 찾아봐야겠다. 


Action Item

Backpressure 란 무엇인지 찾아보자.

rsocket 에 대해서 찾아보자. Facebook 에서 사용한다고 하는데??

Zipkin 사용해보면 좋을것 같다.

Event Sourcing 에 대해서 개념 파악해보고 소스한번 다시 보자.

Spinnaker 에 대해서 알아보자. 



728x90
반응형
반응형

Cluster

- Master, Node 2가지 타입의 리소스가 존재한다.

- Master : cluster를 관리한다. 

- Node : Worker Machine 으로 제공되는 VM 또는 물리적 컴퓨터이다. 

            각각의 Node 는 Node 를 관리하고 Kubernetes master와 커뮤니케이션을 할수 있는 Kubelet 이라는 agent 를 가지고 있다. 

            Node 는 master 가 노출시켜놓은 Kubernetes API 를 사용해서 통신을 한다. 





https://kubernetes.io/docs/tutorials/kubernetes-basics/create-cluster/cluster-intro/

Pod

- Deployment 를 생성하게 되면 Deployment는 Pod 를 생성하고 그 안에 Container 를 넣는다. 

- Pod 는 1개 이상의 어플리케이션 컨테이너와 그 컨테이너들이 공유하는 리소스의 그룹이다. 

- 공유 리소스는 volume, clusterIP 가 있다. 

- Pod 안에 있는 Container 들은 IP 와 port 를 공유한다. 

- Pod 는 Unique IP address 를 가지고 있다.


https://kubernetes.io/docs/tutorials/kubernetes-basics/explore/explore-intro/



Service

- Pod 의 논리적 집합과  그것을 접근 할수 있는 정책을 정의 해준다. 

- Service 가 설정하는 Pod 의 논리적 집합은 LabelSelector 로 정의 한다. 

- 다음과 같은 type 이 존재한다. 


 type

 내용 

 ClusterIP 

 default 이다. cluster 의 internal IP 만 노출 시키기 때문에 cluster 내부에서만 접근 가능하다. 

 NodePort 

 각각의 NodeIP 에 서비스를 노출시킨다. NodePort 서비스가 라우팅 할 ClusterIP 서비스가 자동으로 생성된다. 클러스터 외부에서 <NodeIP>:<NodePort> 로 접근 가능하다. 

 LoadBalancer 

 external IP 를 생성하여 클러스터 외부에서 접근 가능하게 해준다. ClusterIP 와 NodePort는 자동으로 생성된다.




https://kubernetes.io/docs/tutorials/kubernetes-basics/expose/expose-intro/

728x90
반응형
반응형

10월 25일 Google Cloud Summit 2018 이 삼성역 코엑스에서 열렸다.


https://cloudplatformonline.com/2018-Summit-Korea-Home.html


페이스북으로 올라온 글을 보고 신청기간에 등록을 해서 참석하게 되었다. 



Google Cloud Summit



세미나 할때마다 자주 가는 코엑스. 처음에 돌아다닐때에는 위를 보지 않아서 오른쪽 그림이 걸려있는지 몰랐다. -_-;;. 

국내에서 처음 하는 Google Cloud Summit 이어서 인지 전에 와봤던 다른 세미나보다 현수막들이 많이 달려 있는 느낌이었다.



행사 일정이다. 파란색의 낯익은 로고를 보고 정말 의외라고 생각했다.




키노트 하는 오디토리움 내부에서 봤던 로고이다. 개인적으로 왼쪽 로고와 색깔이 맘에 들었다. 



Session

(내가 메모하는 것을 귀찮아 해서 들었던 기억력을 더듬어 가면서 적는 것이기 때문에 내용이 정확하지 않을 수 있다. 아니면 내가 잘못 이해했을 수도 있다.^^;)


빅데이터와 데이터 분석 소개



수많은 데이터를 어떻게 하면 의미있는 정보로 만들것인지, 그 만드는 과정이 굉장히 어렵다. 그런 부분을 Google 에서 쉽게 접근 할수 있도록 도와 주고 있다. 그리고 BigQuery를 통해서 수백만건의 자료들을 빠르게 필터링 하거나 원하는 정보만 가져올 수 있다. 



위와 같은 형태로 수집부터 변환, 분석까지 다양한 서비스를 손쉽게 사용할 수 있도록 제공하고 있다. 



클라우드 플랫폼 정글에서 살아남기 : 하이브리드 클라우드 구성 가이드



이 세션에서는 듣다가 느낀점이 좀 많았다. 클라우드 벤더사들도 많고 하나의 벤더만 사용하면 괜찮지만 여러개의 벤더사들을 섞어서 사용할 경우 발생하는 문제점 들이다. (회사에서) 퍼블릭 클라우드 자체를 자주 사용하지 않다보니 이러한 이슈에 대해서 고민 해본적이 없었다. 


통신 비용 : 서로 다른 클라우드 간에 트랜젝션이 발생할 경우 아웃바운드, 인바운드에 대한 비용이 발생한다. 그게 계속 되고 트래픽이 많아질수록 비용은 높아진다.

성능 :  같은 서비스라도 벤더사마다 제공하는 버전이 다르고 최적화가 다를 수 있다. 그럴 경우 결론적으로 하향 평준화 된다. 성능이 낮은 쪽으로 맞춰진다는 이야기 이다. 

보안 : 이건 어떻게 보면 당연한 이야기 이다. 내부에서 발생하는 트래픽이 아닌데.. 물론 암호화를 거치기는 하겠지만 그래도 문제가 생길 가능성이 있다. 



마이크로 서비스 아키텍처 구성하기 : Kubernetes, Istio, Spinnaker, Knative


가장 관심 있었던 세션이었는데 사진 찍는것을 깜빡했다. 마이크로 서비스에 대한 다양한 관점들, 그리고 내가 몰랐던 패턴들에 대해서 설명을 들을 수 있었다. 


죽지만 다시 살아나는 피닉스 서버 패턴. 여기에서 처음 들어봤는데 한번 찾아볼만한 내용이었다. 그리고 몰랐는데 Google Container Registry 에 이미지 올리면 취약점을 자동 스캔한다는 것을 여기에서 처음 알았다. ^^;;



클라우드 앱 디버깅과 성능 모니터링 : Stackdriver



마이크로 서비스 세션에서도 들었었지만 모든 어플리케이션이 컨테이너화 되면서 모니터링, 디버깅에 대한 내용이 강조되고 있다. 그걸 좀더 손쉽게 할수 있도록 도와주는 서비스 이다. 설명을 들으면서 느꼈는데 상당히 매력적인 툴이었다. 특히 디버거나 로깅 같은 경우는 실제 소스를 재배포 하지 않고도 Logger 를 삽입한다던가 디버깅을 해볼수 있다니. 정말 내게는 매력적이었다. 로그 찍을려고 다시 이미지 구워서 올리고 재배포 하고 했었는데. 그럴 필요가 전혀 없다는 거다. -_-;;; 정말 안되는게 없는 세상이다. 



Cloud Study Jam


참여하고 있던 Cloud Study Jam 마지막 미션과제. 발표가 있었다. 



시간표에 이름이 올라와 있는 "피넛버터" 



그래서 이렇게 저 시간에 가서 무사히(?) 팀 발표를 마쳤다. 정말 허접했지만 준비하느라 걱정이 많았었다. 만든건 왜 대체 잘 안돌아가는 건지. -_-;; 대체 외 Pod 간 연결이 안되는건지. 거의 초보인 내게 컨테이너에 뭔가를 해본다는 것 자체가 시간이 많이 걸리는 일이었다. 그래도 그 덕분에 이것 저것 사용을 해보고 해서 많은 공부가 되었다. 

나중에 동영상으로 녹화한거 다시 들어봤는데 민망해서 영상을 못보고 소리만 들었다. -_-;;; 다음에는 좀더 연습을 해야겠다. 


드디어 4개 다 모았다.~^^


기념품들 



이것 말고도 파트어 업체에서 받은 것들도 있지만 그건 제외 했다. 



Action Item


세미나에서 들으면서 몇가지 써봐야 겠다고 생각한 것들을 요약해 본다. 


- Stackdrvier 사용해보기 (디버거, 프로파일러, 로깅등)

- SRE(Site Reliability Engineering) 에 대해서 좀 찾아보자

- BigQuery 한번 써보자.

728x90
반응형
반응형

 먼저 Dockerfile 이 있다고 가정한다. 

내가 만든 이미지는 spring boot 어플리케이션이다.


Dockerfile


1
2
3
4
5
FROM openjdk:8-jdk-alpine
VOLUME /tmp
COPY ./build/libs/mail-0.0.1-SNAPSHOT.jar app.jar
RUN echo 'Mail Service running'
ENTRYPOINT ["java","-Djava.security.egd=file:/dev/./urandom","-jar","/app.jar"]
cs


이제 이 Dockerfile 을 빌드를 한다.


sudo docker build -t asia.gcr.io/[GOOGLE_PROJECT_ID]/mail-service:v1 .


docker build : 컨테이너를 만드는 명령어

-t : 이미지에 태그 정하는 옵션

asia.gcr.io/[GOOGLE_PROJECT_ID]/mail-service:v1 : 후에 구글 컨테이너 레지스트리에 올리기 위한 이름 규칙이다.


[HOST_NAME]/[GOOGE_PROJECT_ID]/[IMAGE_NAME]


# 참고 (출처 : https://cloud.google.com/container-registry/docs/pushing-and-pulling)

  • gcr.io hosts the images in the United States, but the location may change in the future
  • us.gcr.io hosts the image in the United States, in a separate storage bucket from images hosted by gcr.io
  • eu.gcr.io hosts the images in the European Union
  • asia.gcr.io hosts the images in Asia


1
2
3
4
5
sudo docker images
REPOSITORY                                        TAG                 IMAGE ID            CREATED             SIZE
asia.gcr.io/[GOOGLE_PROJECT_ID]/mail-service    v1                  2f19bede54dd        19 minutes ago      140MB
openjdk                                           8-jdk-alpine        54ae553cb104        5 weeks ago         103MB
hello-world                                       latest              4ab4c602aa5e        5 weeks ago         1.84kB
cs


이미지가 생성되면 위와 같이 볼수 있다. PROJECT_ID 는 일부러 [GOOGLE_PROJECT_ID] 라고 변경했다.

이제 이미지를 PUSH 해보자


1
2
3
4
5
6
7
8
sudo docker push asia.gcr.io/[GOOGLE_PROJECT_ID]/mail-service:v1
The push refers to repository [asia.gcr.io/[GOOGLE_PROJECT_ID]/mail-service]
fcb96fbc948c: Preparing 
f2ec1bba02a6: Preparing 
0c3170905795: Preparing 
df64d3292fd6: Preparing 
unauthorized: You don't have the needed permissions to perform this operation, and you may have invalid credentials. To authenticate your request, follow the steps in: https://cloud.google.
com/container-registry/docs/advanced-authentication
cs


안된다...

뭔가 인증작업이 필요하다.

저기 표시된 url  로 일단 들어가보자. https://cloud.google.com/container-registry/docs/advanced-authentication


거기 가이드 대로 따라해보면 다음과 같은 과정을 거치게 된다.


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
gcloud auth configure-docker
WARNING: `docker-credential-gcloud` not in system PATH.
gcloud's Docker credential helper can be configured but it will not work until this is corrected.
The following settings will be added to your Docker config file 
located at [/home/gcpblusky0910/.docker/config.json]:
 {
  "credHelpers": {
    "gcr.io": "gcloud", 
    "us.gcr.io": "gcloud", 
    "eu.gcr.io": "gcloud", 
    "asia.gcr.io": "gcloud", 
    "staging-k8s.gcr.io": "gcloud", 
    "marketplace.gcr.io": "gcloud"
  }
}
 
Do you want to continue (Y/n)?  y
 
Docker configuration file updated.
cs


그런데 위에 내용이 뭔가 좀 이상하다. 

config 파일에 내용이 들어가긴 했는데 다음과 같은 문구가 눈에 거슬린다.


WARNING: `docker-credential-gcloud` not in system PATH.
gcloud's Docker credential helper can be configured but it will not work until this is corrected.


'docker-credential-gcloud' 가 PATH에 없어서 Docker credential helper 를 설정했지만 정상적으로 동작 안할꺼다.. 라는 내용이다. 뭐지???


1
gcloud components install docker-credential-gcr
cs


이렇게 했더니 다시 에러가 난다. 이번에는 Cloud SDK 가 뭔가 없다고 한다. 


그래서 아래 URL 로 이동해서 Cloud SDK 를 설치했다.


https://cloud.google.com/sdk/docs/downloads-apt-get


거기에 있는 명령어들을 쭉 실행 한다음 마지막에 gcloud init 까지 한다.


1
2
gcloud auth configure-docker
gcloud credential helpers already registered correctly.
cs
gcloud components install docker-credential-gcr


이제서야 Error 없이 뭔가 OK 라고 나온다.


이제 다시 이미지는 컨테이너 레지스트리에 push를 해보자.


1
2
3
4
5
6
7
sudo docker push asia.gcr.io/[GOOGLE_PROJECT_ID]/mail-service:v1
The push refers to repository [asia.gcr.io/[GOOGLE_PROJECT_ID]/mail-service]
fcb96fbc948c: Pushed 
f2ec1bba02a6: Layer already exists 
0c3170905795: Layer already exists 
df64d3292fd6: Layer already exists 
v1: digest: sha256:465521bc0b83e3a3177c25f1f120f96bef3d585046f0b4cb4ede4d42d1fafc7a size: 1159
cs



이렇게 내 계정의 Container Registry 를 확인해보면 정상적으로 업로드가 됐다.


728x90
반응형

'Development > GoogleCloud' 카테고리의 다른 글

[GCP] Google Cloud Storage Options.  (0) 2019.12.12
[GCP]VPC Network  (0) 2019.08.03
[GCP] Network  (0) 2019.08.01
[GCP]HTTP(S) Load Balancing  (0) 2019.07.31
[GCP]Network TCP/UDP Load Balancing  (0) 2019.07.28
반응형

Ubuntu 에서 Gradle 빌드 하는데 Error 가 났다. 


* What went wrong:Execution failed for task ':compileJava'.> Could not find tools.jar. Please check that /usr/lib/jvm/java-8-openjdk-amd64 contains a valid JDK installation.

Error 내용을 보면 뭔가 찾을수 없다고 나온다.. tools.jar 파일.

일단 설치된 자바 버전을 확인해 보자.

java -versionopenjdk version "1.8.0_181"OpenJDK Runtime Environment (build 1.8.0_181-8u181-b13-0ubuntu0.16.04.1-b13)OpenJDK 64-Bit Server VM (build 25.181-b13, mixed mode)

버전은 1.8.0_181 openJDK 가 설치되어있다.

whereis javajava: /usr/bin/java /etc/java /usr/share/java /usr/share/man/man1/java.1.gz

JAVA 경로를 보니 위와 같이 되어있다.

ls -l /usr/bin/javalrwxrwxrwx 1 root root 22 Oct 19 01:17 /usr/bin/java -> /etc/alternatives/java

ls -l /etc/alternatives/javalrwxrwxrwx 1 root root 46 Oct 19 01:17 /etc/alternatives/java -> /usr/lib/jvm/java-8-openjdk-amd64/jre/bin/java

결론적으로 경로가 저렇게 /usr/bin/jvm/java-8-openjdk-amd64 를 보는게 아니라 jre 를 보고 있다.

update-alternatives --list javac/usr/lib/jvm/java-8-openjdk-amd64/bin/javac

javac 는 bin 하위를 바라보고 있다.

export JAVA_HOME=$(dirname $(dirname $(update-alternatives --list javac)))

JAVA_HOME 을 설정한 후에 잘 설정이 되어있는지 확인해본다.

echo $JAVA_HOME/usr/lib/jvm/java-8-openjdk-amd64


이렇게 한 후에 빌드를 하면 정상적으로 동작을 한다.


참고자료

https://askubuntu.com/questions/772235/how-to-find-path-to-java


728x90
반응형

'Development > Build' 카테고리의 다른 글

[Gradle]Ubuntu 에서 Gradle 설치하기  (0) 2018.10.19
Jenkins 설치  (0) 2018.09.19
Mac 에서 gradle 설치  (0) 2016.07.04
Maven 라이브러리 추출  (0) 2016.01.06
Maven clean, install, build??  (0) 2015.05.12
반응형

Ubuntu 에서 gradle 설치를 해보자.

설치 방법은 정말 간단하다.

sudo apt-get install gradle

$ sudo apt-get install gradleReading package lists... DoneBuilding dependency tree Reading state information... DoneThe following additional packages will be installed:

이렇게 하면 설치가 쭉~~ 시작된다.

gradle -v------------------------------------------------------------Gradle 2.10------------------------------------------------------------Build time: 2016-01-26 15:17:49 UTCBuild number: noneRevision: UNKNOWNGroovy: 2.4.5Ant: Apache Ant(TM) version 1.9.6 compiled on July 20 2018JVM: 1.8.0_181 (Oracle Corporation 25.181-b13)OS: Linux 4.15.0-1021-gcp amd64

흠... 그런데... gradle 버전이 좀 이상하다.....

2.10?????

난 4 버전을 설치하고 싶은데.. 어떻게 해야하나.

sudo add-apt-repository ppa:cwchien/gradle
sudo add-apt-repository ppa:cwchien/gradle

sudo add-apt-repository ppa:cwchien/gradle

먼저 repository 를 추가한다.

그리고 sudo apt-get update 한번 쳐준다. 

sudo apt-get install gradle-4

여기까지 치고 TAB 키를 누르면

sudo apt-get install gradle-4.gradle-4.10 gradle-4.10.1 gradle-4.10.2 gradle-4.6 gradle-4.7 gradle-4.8.1 gradle-4.9

이렇게 설치할 수 있는 종류가 나온다.

나는 4.6 버전 선택해서 인스톨을 진행 했다.

gradle -v------------------------------------------------------------Gradle 4.6------------------------------------------------------------Build time: 2018-02-28 13:36:36 UTCRevision: 8fa6ce7945b640e6168488e4417f9bb96e4ab46cGroovy: 2.4.12Ant: Apache Ant(TM) version 1.9.9 compiled on February 2 2017JVM: 1.8.0_181 (Oracle Corporation 25.181-b13)OS: Linux 4.15.0-1021-gcp amd64

이렇게 설치를 마무리 하면 된다.



728x90
반응형

'Development > Build' 카테고리의 다른 글

[Gradle] gradle build error tool.jar... valid JDK  (0) 2018.10.19
Jenkins 설치  (0) 2018.09.19
Mac 에서 gradle 설치  (0) 2016.07.04
Maven 라이브러리 추출  (0) 2016.01.06
Maven clean, install, build??  (0) 2015.05.12
반응형

Window 환경에서 Kafka 를 설치해보고 실행 해보려고 한다. 


1. 설치

설치는 간단하다. 아래의 URL 로 가서 다운로드 받은후 압축 풀면 설치 끝이다. 


https://kafka.apache.org/downloads


2. 실행

Kafka 는 Zookeeper 를 사용하기 때문에 먼저 zookeeper 부터 실행을 한다. 카프카 설치 디렉터리로 이동해 보면 sh 파일들이 있는데 Window 환경에서 실행하는 실행파일들은 windows 폴더 아래에 따로 모아져 있다.


zookeeper 실행

카프카설치디렉터리\bin\windows\zookeeper-server-start.bat ../../config/zookeeper.properties


kafka server 실행

카프카설치디렉터리\bin\windows\kafka-server-start.bat ../../config/server.properties


3. 토픽

- 생성


kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic [토픽명]


- 토픽 목록 확인


kafka-topics.bat --list --zookeeper localhost:2181


4. Message

kafka-console-producer.bat --broker-list localhost:9092 --topic [토픽명]


이렇게 하면 메세지를 입력할 수 있는 프롬프트로 변경된다 


kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic [토픽명] --from-beginning


위에서 입력한 메세지를 바로바로 볼수 있다. 


728x90
반응형

'Development > Tech&Seminar' 카테고리의 다른 글

SpringOne Tour 참석 후기  (0) 2018.11.08
Google Cloud Summit 2018 후기  (0) 2018.10.26
Google Cloud Hackathon 간단한 후기  (0) 2018.10.08
TCC가 뭐지???  (0) 2018.09.07
Openssl로 SSL 을 위한 인증서 발급하기 (HTTPS)  (2) 2018.08.22

+ Recent posts