• why: a smoother recovery from corrupted data or other failures. also, Having some data reduces the time to synchronize a new node.

  • 방법

    • cron job and rsync
    • archives to the cloud such as s3, or tar.gz archives.
  • archives to s3, or tar.gz archives.

    1. 일정 주기(예: daily or weekly)마다 노드 데이터 파일(~/atad-blockchain/data)을 압축.
    2. 압축된 파일을 AWS S3에 업로드.
    3. 업로드한 후 로컬(리눅스 서버)에서 삭제.
  • 디렉터리 압축 명령어

    tar -cvzf "data-$(date '+%Y%m%d_%H%M%S').tar.gz" DIRECTORY-NAME
    
  • 일정 주기 마다 디렉터리를 어떻게 압축할까?

    • 크론
  • AWS S3로 어떻게 올릴까?

    • preliminary: aws configure은 ansible로 등록x
    1. SDK, REST API, AWS CLI로 싱글 오퍼레이션: 5GB 오브젝트까지 올릴 수 있음
      1. How to Upload Files to AWS S3 using CLI
      2. Use of Exclude and Include Filters
    2. 아마존 S3 콘솔: 160GB 오브젝트까지 올릴 수 있음
    3. 멀티파트 업로드 API 오퍼레이션: 5TB 오브젝트까지 올릴 수 있음
  • 어떻게 S3에 있는 데이터 파일 관리 관리할까?

    • Managing your Amazon S3 storage