Cephadm Add OSD

Ceph에서 마스터 역할을 하는 Mon을 추가하기 위해서는 우선 Host에 추가를 진행해야한다.Host 추가하는 방법은 이전 포스트에서 다루었다.Host를 추가했다는 가정으로 포스트를 진행한다.OSD는 LVM으로 생성되어 마운트된 상태에서 추가를 진행해야한다.물리적이든 논리적이든 추가된 LVM 디바이스가 준비되었다면 아래 명령어를 통해 OSD를 추가할 수 있다. 경로의 경우 OSD로 사용할 디바이스의 경로명이다. 예를들어 /dev/sdb로 디바이스가 잡혔다면 해당 디바이스를 명시하면된다.

Cephadm Add Mon

Ceph에서 마스터 역할을 하는 Mon을 추가하기 위해서는 우선 Host에 추가를 진행해야한다.Host 추가하는 방법은 이전 포스트에서 다루었다.Host를 추가했다는 가정으로 포스트를 진행한다.Mon은 CIDR을 정하고 아래 명령어를 통해 Daemon에 Mon을 추가한다. CIDR 값은 IP값과 서브넷을 같이 입력해주면 된다.예를들어 호스트명을 mon-node-2, IP가 192.168.1.12/24이면 그대로 작성해준다.

Cephadm Add Host

Init clustering 설치과정을 완료했다면 우선 Init을 하게될 Mon PC에서 다음 명령어를 통해 초기화를 진행한다. copy ssh pub key 서로 유효한 접근을 확인하기 위해 init한 Mon PC에서 ssh-copp를 진행해야 하지만 과정 중 권한 이슈가 있어서 ceph.pub 내용을 복사한 후 각 node pc에 직접 붙여 넣기 해줬다. 우선 init한 pc에서 아래 명령어를 통해 key를 복사한다. 다른 PC들에서 … Read more

Cephadm Install

백엔드 분야에서 서비스를 배포하다보면 서비스단 분산처리를 접하게되고 시간이 지남에 따라 저장 관련 이슈들을 경험하게 된다.제한된 하드웨어 자원을 이용하려면 서로 분산처리를 진행해야한다는 생각이 드는데 그 중에 찾게 된 것이 Ceph이다.Ceph을 설치하고 사용하는 방법 중 kubernetes 개념을 가지고 접근하기 좋았던 ceph 설치방법에 대해 작성해본다. Install cephadm on Debian 먼저 apt를 이용해 cephadm을 설치한다.* ceph의 경우 root 권한으로 … Read more

ZFS create pool

지난 ZFS 설치관련 포스트에 이어 ZFS pool을 생성하는 글을 작성한다. Check Disk 먼저 pool로 묶을 디스크를 확인한다. 본 글에서는 sda, sdb, sdc 3가지를 가지고 pool을 생성할 것이다.현재 sda, sdb, sdc는 iscsi initiator을 이용해 디스크화한 형태이다. ZFS Create pool raid와 비슷한 구조로 raid5를 사용하고 싶지만 해당 명령어가 존재하지 않아 raidz를 사용하였다. pool의 상태확인을 통해 생성유무를 확인한다.

ZFS Install on Debian

ZFS Install package ZFS를 Debian에서 설치하려면 먼저 apt source에 대한 주소를 등록해줘야한다./etc/apt/source.list에 아래와 같이 두 주소를 추가해준다. 이후 업데이트 및 업그레이드를 진행해준다. 그다음 zfs-dkms를 설치한다. 에러 발생 시 아래와 같이 설치한다. 다음으로 dkms spl-dkms 두가지를 설치한다. zfsutils-linux를 설치한다. 아래 명령어를 통해 설치를 완료한다. 설치 여부를 아래 명령어 통해 확인한다.

ISCSI Initiator Install and init on Debian

ISCSI package install apt를 이용해 아래와 같이 설치를 진행한다. 데몬으로 iscsi를 등록한다. 다음으로 로그인 정보에 대한 설정을 자동으로 설정한다(기본 설정은 수동으로 설정하는 것으로 되어있다.) 아래와 같이 기본설정을 주석처리하고 automatic부분의 주석을 제거한다. 그리고 저장 후 systemctl을 이용해 iscsi를 재시작한다. ISCSI InitiatorName setting 아래 파일에 Target 주소를 사전 입력해 저장 ISCSI Target Search and Login 아래 명령어를 … Read more

error execution phase check-etcd: etcd cluster is not healthy: failed to dial endpoint

error execution phase check-etcd: etcd cluster is not healthy: failed to dial endpoint  위 에러가 kubernetes에서 발생하면 기존 master node가 etcd에서 제거되지 않아 충돌하는 경우가 있다.그러므로 etcd member 제거를 진행한다. ETCD Pod 이름찾기 ETCD POD 이름을 찾기 위해 아래 명령어를 입력해 list를 출력한다. 그러면 etcd-{마스터노드명} 형태로된 pod 이름을 찾을 수 있다.정상 작동중인 master node의 etcd … Read more