분류 전체보기

· Ansible
1. SSH 키 배포 (초기 설정)SSH 키 생성 (제어 노드에서)ssh-keygen# → 엔터 3번 (기본 경로 및 패스프레이즈 없이 생성)대상 노드에 공개 키 배포for i in {1..5}; do ssh-copy-id -i ~/.ssh/id_rsa.pub root@ygbaek0${i}.gitcluster.comdone비밀번호 없이 SSH 접속 가능2. 설정 파일/etc/ansible/ansible.cfg[defaults]inventory=/etc/ansible/hosts# SSH 최초 접속 시 host key 확인 절차 생략host_key_checking = False3. 인벤토리 파일/etc/ansible/hosts[cluster]ygbaek01.cluster.comygbaek02.cluster..
· K8s
1. Argo CD 설치# 1.1 Argo CD를 위한 Namespace 생성kubectl create namespace argocd# 1.2 Argo CD 설치 (Stable 버전)kubectl apply -n argocd -f https://raw.githubusercontent.com/argoproj/argo-cd/stable/manifests/install.yaml2. Argo CD CLI 설치# 2.1 최신 버전 정보 가져오기VERSION=$(curl -L -s https://raw.githubusercontent.com/argoproj/argo-cd/stable/VERSION)# 2.2 CLI 다운로드 및 설치curl -sSL -o argocd-linux-amd64 https://github...
· Hadoop Eco
Airflow + Spark 테스트 환경 구성 (Docker)1. Airflow Docker 환경 준비curl -LfO 'https://airflow.apache.org/docs/apache-airflow/2.7.2/docker-compose.yaml'mkdir airflowcd airflowmkdir -p ./dags ./logs ./plugins ./configecho -e "AIRFLOW_UID=$(id -u)" > .envdocker compose up airflow-initdocker compose run airflow-worker airflow infoWeb UI 접속 후, API 테스트:ENDPOINT_URL="http://localhost:8080/"curl -X GET --user "ai..
· SpringBoot
osubuntu 22.04mariadb10.6spring cloud data flow2.11.5mariadb 준비docker pull mariadbdocker run -p 3306:3306 --name ygmariadb -e MARIADB_ROOT_PASSWORD=root -d mariadbdocker exec -it {containerId} mariadb -uroot -pcreate database task;scdf 다운로드wget https://repo.maven.apache.org/maven2/org/springframework/cloud/spring-cloud-dataflow-server/2.11.5/spring-cloud-dataflow-server-2.11.5.jarwget https://re..
· Hadoop Eco
1. hbase configWrite-Ahead Log (WAL) Codec Classorg.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec2. HUE phoenix editor 추가hue configHue Service Advanced Configuration Snippet (Safety Valve) for hue_safety_valve.ini[notebook][[interpreters]][[[phoenix]]]name=phoenixinterface=sqlalchemyoptions='{"url": "phoenix://ygbaek07.gitcluster.com:8765", "tls": false, "connect_args": "{\"authentica..
· Hadoop Eco
1. ozone cli 기초volume 리스트 확인$ kinit -kt ozone.keytab om/`hostname`@GOODMIT.COM$ ozone sh volume list[ { "metadata" : { }, "name" : "s3v", "admin" : "om", "owner" : "om", "quotaInBytes" : -1, "quotaInNamespace" : -1, "usedNamespace" : 1, "creationTime" : "2024-04-26T05:13:02.161Z", "modificationTime" : "2024-04-26T05:13:02.161Z", "acls" : [ { "type" : "USER", "name" : "om", "ac..
· K8s
host-mount-pod.yaml 작성 apiVersion: v1 kind: Pod metadata: name: host-mount-pod spec: containers: - name: host-mount-container image: busybox # BusyBox는 간단한 Linux 배포판으로, 기본적인 명령어를 포함합니다. command: ["sleep", "3600"] # 파드가 종료되지 않고 계속 실행되도록 설정 volumeMounts: - name: root-volume mountPath: /host readOnly: true # 읽기 전용으로 마운트 volumes: - name: root-volume hostPath: path: / # 호스트 머신의 루트 디렉토리를 마운트합니다. type:..
· Linux
OS : CentOS7.9 1. OpenLDAP 설치 # yum install openldap-servers openldap openldap-clients openldap-devel nss_ldap compat-openldap # vi /etc/sysconfig/slapd # OpenLDAP server configuration # see 'man slapd' for additional information # Where the server will run (-h option) # - ldapi:/// is required for on-the-fly configuration using client tools # (use SASL with EXTERNAL mechanism for authentication..
hundredragon
'분류 전체보기' 카테고리의 글 목록