일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Codebuild
- Naver cloud platform
- ingress controller
- aws-dop
- volume
- ALB
- Persistent Volume Claim
- cicd
- emptyDir
- Codedeploy
- node exporter
- Codepipeline
- RKE2
- slack
- HTTPS Redirect
- ingress
- k8s
- Persistent Volume
- codecommit
- NFS Client Privisioner
- alertmanager
- grafana
- Prometheus
- kubernetes
- SSL Offload
- ncp
- pod
- DevOps
- AWS
- emptyDir Volume
- Today
- Total
목록전체 글 (21)
Cloud SA's This and That

KT-Cloud에서 추가 스토지리를 생성하여 서버에 연결 후 마운트 테스트 및 용량 확장 테스트를 해보았다. 또한 스냅샷(추가스토리지)을 생성하여 사용해보았다. 중간중간 이슈가 있어서 해당 사항들 참고하면 좋을 것 같다. [Volume] 1. 볼륨 생성 > 볼륨 생성 시 단일 볼륨 최대 용량은 2000GB이다. (KT측에 따로 문의해도 용량 증설은 안된다고 한다. -> 2000GB 이상 필요하면 LVM 사용해야함) 2. 볼륨 연결 ( 라이브상태에서만 가능 ) >볼륨 상태 : 사용 3. Server 메뉴에서 Volume 관리 4. Volume 사용 > 리눅스 서버의 경우 추가될 volume은 파티션 과정을 거쳐야 함 1) Non-LVM [과정] fdisk -> mkfs.xfs -> mount -> fsta..

처음 국내 CSP 중 NCP를 접한 후 KT-Cloud를 사용하려고 하니 뒤죽박죽... 기본적인 내용은 정리를 해보려고 한다! [고객 시스템 환경 구성] > vm을 생성하게 되면 위와 같은 환경으로 생성됨 > 고객 계정별로 VR(Virtual Router) 자원이 생성됨 (고객 계정별로 자동으로 생성됨) > VLAN으로 논리적 분리된 상태 [VR의 역할] NAT : 고객 계정 별로 하나의 공인 IP 주소 할당되고 고객의 vm은 사설 IP 주소를 부여받음 / 계정의 모든 IP 주소는 VR이 소유함 여기서 VR은 사설 IP 주소를 공인 IP 주소로 변경해주고 고객 vm과 공인 IP 주소를 연결해줌 방화벽 : Inbound 트래픽에 대한 Source IP/Port를 허가 DHCP : 고객 vm 생성 시 사설 ..

Docker network - overlay 테스트에 이어 만약 host2가 다운이 되었을 경우를 테스트해보았다. > myservice2 서비스를 하나 생성하니 host2에서 Running 상태 확인됨 > host2 종료를 하니 myservice2가 host1에서 Running 확인됨 > 또한 host2에서 실행중인 컨테이너 모두 host1에서 확인됨 + host2 재부팅 테스트 > 재부팅을 하니 host2에서 my-overlay 네트워크가 리스팅안되고 서비스는 host1에서 계속 Running 중인 것 확인 -> 재균형(rebalance) 작업은 자동으로 되지 않음 *이럴땐 docker service scale 명령으로 컨테이너 수를 줄이고 다시 늘리는 방식으로 서비스의 컨테이너 할당의 균형을 맞추면 ..

도커파일을 통해 3-tier 연동 테스트를 하면서 컨테이너 IP 자동할당으로 여러 고민을 했었는데 덕분에 도커 네트워크쪽에서 커스텀 브릿지를 생성하고 컨테이너마다 고정 IP를 할당해주는 테스트를 거칠 수 있었다. 그래서 추가로 도커 네트워크에 대해 좀 더 학습을 해보고자 한다. [Overlay network] Overlay 네트워크는 멀티 호스트 네트워킹으로 도커 컨테이너 오케스트레이션 도구인 docker swarm 내에서만 사용가능하다. 오버레이 네트워크를 통해 로드밸런싱된다고 보면 된다. [docker swarm 초기화] > swarm init을 하게되면 swarm join이 가능한 토큰이 발행되고 후에 다른 호스트2에서 사용할 예정이다. > 스웜을 초기화하면 새로운 두 개의 디폴트 네트워크가 생성된..

쿠버네티스 실습을 위해 NCP에서 클러스터 및 사용자 서버를 생성하여 Container Reistry를 연동해보았다. [k8s-cluster 생성] VPC : kubernetes 클러스터를 생성하기 위한 가상 클라우드 공간 Private Subnet : VPC 내 private 서브넷 (Private 대역 (10.0.0.0/8, 172.16.0.0/12. 196.168.0.0/16) 내에서 /17~/26 범위에 해당되는 서브넷만 사용 가능) (Docker Bridge 대역의 충돌을 방지하기 위해 172.16.0.0/16 범위 내의 private subnet, 로드밸런서 전용 subnet 사용 불가) 3. Load Balancer Subnet : 클러스터와 연동할 로드밸런서를 위한 서브넷 (Private ..