티스토리 뷰
- 현재 우리의 데이터 : 약 2000만건
- 연간 증가량 : 약 300만건
- 2xlarge 로 소화 가능한 데이터 건수 = 3200만건
첫번째 계획은
현재 데이터 기준으로 400만건씩 medium 또는 large 5대로 쓰고 데이터가 증가하면 medium 또는 large로 scale out 을 하려는 계획이었다.
하지만 2xlarge가 될때까지는 scale out은 안되고 scale up만 가능하다고 한다.
거기까지는 OK.
그럼 4년간 2xlarge를 쓰다가 5년째에 medium으로 scale out 해야겠다로 계획을 바꿨었다.
하지만 2xlarge에서 scale out 할때에 작은 사이즈로 scale out이 되는건 아니고
첫번째 인스턴스와 같은 사이즈(=2xlarge)로 scale out이 된다고 한다.
우리 데이터 기준으로 봤을때
- 2xlarge = 3200만건
- 다음 스케일 아웃 = 4년후
5년후에는? 2xlarge * 2 의 비용 지출이 발생한다.
- 2xlarge = $1.023 / per hour ($736.56/month)
- 5년 후 2xlarge * 2 = $1,473 / month
AWS TAM에 문의하니 자꾸 cloudsearch 말고 elasticsearch를 쓰라고 권한다.
사례도 2014년 자료만 있고...
비용도 1/6이라고 하니 다음엔 cloudsearch 말고 elasticsearch를 다시 알아봐야겠다.
'Dev > AWS' 카테고리의 다른 글
[cloudsearch] Indexing Data Upload (java) (0) | 2021.01.05 |
---|---|
Amazon CloudSearch를 사용하기로 한 이유 (0) | 2020.11.06 |
CloudSearch vs. Elasticsearch (0) | 2017.03.28 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- JPA
- CloudSearch
- Elasticsearch
- OneToMany
- Python
- oracle12
- cloudsearch 비용
- tomcat
- timestamp
- 엘라스틱서치
- JoinColumn
- db connect
- 서버 환경변수
- iTerm
- could not initialize proxy - no Session
- getdate
- JPA 오류
- org.hibernate.LazyInitializationException
- 계층형
- aws cloudsearch
- 단축키
- StAX
- #csvreader
- ojdbc7
- Big xml 파싱
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함