3. Cluster : The Beginning - Raspberry pi에 HAProxy 설치하기
4. Cluster : The Beginning - Raspberry pi에 Apache Kafka 설치하기 (이번 글)
5. Cluster : The Beginning - Apache Kafka와 EMQ 연동
6. Cluster : The Beginning - Hadoop 2.9.0 설치
7. Cluster : The Beginning - HBase 1.2.6 설치
Cluster : The Beginning - Raspberry pi에 Apache Kafka 설치하기
이전 작업으로 일단 기본적인 출발은 마무리가 되었다.
하지만 EMQ를 설치한 내용에서 언급했듯이 MQTT는 경량화 프로토콜로 주로 IoT에 특화되어 있다고 볼 수 있어
(Facebook Messanger에서 MQTT를 사용한다고 하는데 현재형인지 또 어떤 영역에 어떻게 사용하는지는 잘
모르겠다) 아직은 절반의 성공일 뿐이다.
센서 데이터 분석을 위한 환경 뿐만 아니라 일반적인 데이터 분석에 대한 환경을 갖추기 위해서는 MQTT라는 진입점
만으로는 부족한 것이다. 그래서 일반 데이터를 수집하는 부분은 예전에 한 번 시도를 해보았던 Apache Kafka를
이용하기로 했다. Kafka를 이용해 수집할 데이터도 예전과 마찬가지로 트위터의 데이터가 될 것이다. 다만 클라이언트는
예전에는 Node.js를 이용하여 구현했으나 이번에는 다른 방식을 찾아볼 생각이다.
이번 포스팅은 바로 이 Apache Kafka를 라즈베리파이에 설치하고 구동하는 과정을 정리해보겠다.
사실 2016년도에 정리한 내용의 축약 버전이나 다름없어 마지막 정리에 2016년에 포스팅한 내용을 모두
링크하였으니 참고하시길 바란다.
개요 - Kafka는 MQTT와 뭐가 다른가?
일단 Kafka 역시 Message Queue기반의 시스템이다. 용어의 차이는 있지만 대체로 구성이 비슷하다.
아주 심플하고 직관적인(하지만 정확하진 않은…-.-) 비유를 들자면 다른 Message Queue 시스템을 퀵서비스라고
한다면 Kafka는 택배라고 할 수 있을 것이다. 퀵서비스는 작은 물건이나 서류를 송신자로부터 수신자 에게 직접 전달을
해주지만 택배는 큰 덩치의 물건들을 물류창고에 집하했다가 다시 배송을 한다. 하지만 이 것은 어디까지나 간단한 비유고
자세한 차이점은 아래 블로그에 잘 정리가 되어있다.
일단 Kafka는 용량이 큰 데이터 전송에 유리하고 클러스터를 통해 데이터를 ‘복제’해둘 수 있으며, Message Queue가
broker에서 subscriber로 topic을 push해주는 반면 kafka는 consumer가 필요할 때 broker로부터 pull 방식으로
가져다 쓸 수 있다는 차이 정도만 알아두면 될 것 같다.
zookeeper 설치, 설정, 실행
개요에서 설명한 것과 같이 Kafka의 경우 클러스터를 구성하여 분산처리를 할 수 있으며 전송되는 데이터를 여러 노드에
복제해놓을 수도 있다. 하지만 이러한 분산 처리를 하기 위해서는 zookeeper라는 분산 코디네이터의 도움을 받아야
한다. 즉, Kafka를 사용하기 위해서는 zookeeper를 먼저 설치해야 한다는 뜻이다.
라즈베리파이에 zookeeper 설치는 매우 간단해서 그냥 바이너리 배포판을 다운로드 받아 적당한 위치에 압축을
풀고 환경에 맞게 설정한 후 실행을 하면 된다…-.-
나는 일단 3.4.10 버전을 받아서 /opt/zookeeper에 압축을 풀었다.
설정은 딱 3가지만 하면 된다.
#데이터를 저장할 디렉토리를 설정한다.
dataDir=/var/lib/zookeeper
#간단하게 기본 설정 파일에서 주석만 풀어주면 된다.
#주석 처리되어있으면 서버간 통신 때 connection refused가 발생한다.
maxClientCnxns=60
#zookeeper의 클러스터는 별도로 앙상블이라고 불리우는데 앙상블을 구성할 서버 주소를 적어준다.
server.0=172.30.1.54:2888:3888
server.1=172.30.1.13:2888:3888
server.2=172.30.1.42:2888:3888
zookeeper 앙상블이 정상적으로 실행되기 위해서는 dataDir에 지정된 경로에 myid 파일이 필요하며 이 파일에는
3번째 서버 설정에서 정의된 서버 ID가 적혀있어야 한다. 위 설정을 기준으로 보자면 server.0 서버에는 0이,
server.1 서버에는 1이, server.2 서버에는 2가 적혀 있어야 한다.
앙상블(클러스터)을 구성하는 모든 서버에 동일한 설정을 해주고 나서 각 서버에서 아래와 같이 zookeeper 서버를
실행해준다.
$ $ZOOKEEPER_HOME/bin/zkServer.sh start
한가지 주의할 사항은 클라이언트의 요청을 처리하는데 있어서 leader 역할을 하는 한 대의 노드에서만 읽기와 쓰기가
모두 가능하다. follower에서는 오직 읽기만 처리 가능하며, 만일 쓰기 요청이 오면 각 follower 노드들은 그 요청을
leader 노드에 위임하게 된다.
어느 서버가 leader고 어느 서버가 follower인지는 zookeeper에서 확인 가능한데 다음 명령어로 확인 가능하다.
아래는 현재 노드가 follower임을 보여준다.
zookeeper에 대한 기본적인 내용은 이 것이 전부다. 하지만 분산 시스템을 관리한다는 본연의 임무를 생각해본다면
zookeeper에 대해 알아야 할 내용은 상당히 많다. 또한 zookeeper API를 이용하면 zookeeper를 통해 관리되는
분산 시스템을 직접 만들 수도 있다. 한마디로 zookeeper에 대한 것만 공부하자고 해도 상당히 많은 시간이 필요하므로
여기서는 이정도로 마무리 하겠다.
Kafka 설치
지금껏 진행해온 다른 시스템 설치와 마찬가지로 설치 자체는 매우 간단하다. 바이너리 배포본을 다운로드 한 후
압축을 풀고, 설정하고, 실행하면 된다.
나의 경우 일단 Kafka는 2.11-1 버전을 다운로드 받았고 /opt/kafka
에 압축을 풀었다.
Kafka 설정
Kafka의 설정 파일 위치는 다음과 같다. 나는 /opt/kafka
에 설치를 했으니 /opt/kafka/config
아래에 있는
server.properties를 수정하면 된다.
이전과 마찬가지로 반드시 설정해야 할 내용만 정리해보자.
#앞서 zookeeper 설정에서 설명한 서버 아이디를 적어준다. 여기는 172.30.1.54 서버이므로
#server.0=172.30.1.54:2888:3888 설정을 참고하여 0으로 설정하였다.
broker.id=0
#로그를 기록할 경로를 지정한다.
log.dirs=/var/lib/kafka-logs
#topic을 저장할 파티션을 몇개로 할 지 지정한다. 서버가 3대이니 일단 3으로 지정해보았다.
#이렇게 설정하면 하나의 데이터 파일이 3개로 쪼개져서 저장이 된다.데이터 파일이 Topic으로 들어오는 데이터가 #3영개의 영역으로 나뉘어서 저장이 된다.
#하지만 partition이란 하나의 Topic을 몇 개로 나눌지를 결정하는 것이지
#물리적 서버의 댓수와는 상관이 없다.
num.partitions=3
#데이터 파일의 복제본을 몇개나 가지고 있을지 설정한다. 3으로 설정했으니 3개의 복제본이 존재하게 된다.
offsets.topic.replication.factor=3
#클러스터 관리를 위한 zookeeper 서버 목록을 적는다. zookeeper 설정에서는 IP 주소로 설정했는데
#여기서는 host 이름으로 설정하여 일관성이 없는 설정이 되긴 했지만...-.-
#각 서버는 다음과 같이 매핑되니 참고하시길 바란다.
#rpi1=172.30.1.54, rpi2=172.30.1.13, rpi3=172.30.1.42
zookeeper.connect=rpi1:2181,rpi2:2181,rpi3:2181
위 내용만 설정하면 kafka 서버를 실행할 수 있다.
마지막으로 num.partitions과 offsets.topic.replication.factor 설정이 어떻게 반영되는지에 대해 아래와 같이
그림으로 간단하게 표현을 할 수 있다.
위 그림을 설명하자면 다음과 같은 구조의 경우라 볼 수 있다.
- 3개의 노드
- 3개의 파티션(num.partitions=3)
- 3개의 복제본(offsets.topic.replication.factor=3)
여기서 주의해서 볼 것은 leader와 follower로 항상 leader에만 쓰기가 가능하며 leader에 데이터가 기록되면
기록된 데이터가 follower로 복제된다는 것이다.
보다 상세한 내용은 좀 더 공부를 한 후 다시 정리해보도록 하겠다.
실행
실행은 /opt/kafka/bin
경로로 이동하여 다음과 같이 입력하면 된다.
$ ./kafka-server-start.sh ../config/server.properties
만일 JMX를 이용한 모니터링 도구를 이용하고자 한다면 다음과 같이 실행한다.
$ env JMX_PORT=9000 ./kafka-server-start.sh ../config/server.properties
이렇게 실행을 한 후 아래 2개의 모니터링 도구를 사용할 수 있다.
Kafka Offset Monitor : http://quantifind.github.io/KafkaOffsetMonitor/
Kafka Manager : https://github.com/yahoo/kafka-manager
주의 사항
2016년도에 Kafka를 설치할 때는 맥미니에 설치하였지만 이번에는 라즈베리파이에 설치를 하였다.
이 차이는 결코 작은 차이가 아니다. 하드웨어 사양으로 인해 라즈베리파이에서는 사용할 수 있는 자원이
매우 한정적인 것이다. 실제로 라즈베리파이에서 kafka를 실행했을 때 잦은 빈도로 메모리 부족 현상이
발생을 하였다. 따라 일단 라즈베리파이에서 안정적으로 실행을 하기 위해서는 kafka-server-start.sh 파일의
다음 부분을 찾아 Xmx와 Xms를 적절히 수정해주어야 한다. 기본 값은 1G이다.
export KAFKA_HEAP_OPTS="-Xmx512M -Xms512M"
정리
사실 라즈베리파이에서 설치 및 구동을 한 것 외에는 2016년도에 정리했던 내용과 별 다른 점이 없다.
다시 정리한다는 것이 중복된 작업일 수도 있으나 복습한다는 의미로 한 번 더 정리해보았다.
그런 의미에서 가장 중요한 부분은 ‘주의 사항’이 아닐까 싶다.
가장 기초적인 설치,설정,실행 부분만 짚고 넘어갔으니 2016년도의 Kafka 관련 모든 글을 링크하면서
이번 포스팅을 마칠까 한다.
- [간보기 | kafka] Apache kafka 시작하기
- [간보기 | Kafka] Apache Kafka 개요 - 1
- [간보기 | Kafka] Apache Kafka 개요 - 2
- [간보기 | Kafka] Apache Kafka 개요 - 3
- [간보기 | Kafka] Kafka 무작정 실행하기
- [간보기 | Kafka] Kafka 무작정 실행하기 - 2
- [간보기 | kafka] 쉬어가자 - 소스 정리와 모니터링 툴
- [간보기 | Kafka] 정리를 마치며
'Study > 빅데이터' 카테고리의 다른 글
Cluster : The Beginning - Hadoop 2.9.0 설치 (0) | 2018.01.11 |
---|---|
Cluster : The Beginning - Apache Kafka와 EMQ 연동 (4) | 2018.01.03 |
Cluster : The Beginning - Raspberry pi에 HAProxy 설치하기 (4) | 2017.12.18 |
Cluster : The Beginning - Raspberry pi에 MQTT (EMQ) 설치하기 (0) | 2017.12.16 |
Cluster : The Beginning - Hadoop, HBase 그리고 Kafka (0) | 2017.12.10 |