-
why: a smoother recovery from corrupted data or other failures. also, Having some data reduces the time to synchronize a new node.
-
방법
- cron job and rsync
- archives to the cloud such as s3, or tar.gz archives.
-
archives to s3, or tar.gz archives.
- 일정 주기(예: daily or weekly)마다 노드 데이터 파일(~/atad-blockchain/data)을 압축.
- 압축된 파일을 AWS S3에 업로드.
- 업로드한 후 로컬(리눅스 서버)에서 삭제.
-
디렉터리 압축 명령어
tar -cvzf "data-$(date '+%Y%m%d_%H%M%S').tar.gz" DIRECTORY-NAME
-
일정 주기 마다 디렉터리를 어떻게 압축할까?
-
AWS S3로 어떻게 올릴까?
- preliminary: aws configure은 ansible로 등록x
- SDK, REST API, AWS CLI로 싱글 오퍼레이션: 5GB 오브젝트까지 올릴 수 있음
- How to Upload Files to AWS S3 using CLI
- Use of Exclude and Include Filters
- 아마존 S3 콘솔: 160GB 오브젝트까지 올릴 수 있음
- 멀티파트 업로드 API 오퍼레이션: 5TB 오브젝트까지 올릴 수 있음
-
어떻게 S3에 있는 데이터 파일 관리 관리할까?