Jsoup으로 xml 열심히 파싱하고 있었는데...텍스트 파일 하나가 1.2G.. MemoryOutOfException이 발생하여 검색을 하니 StAX(Streaming API for XML) 를 쓰면 해결이 될거라고...다만 StAX로 다하려니 파싱해서 데이터 넣기가 너무 불편해 ㅠㅠ 블록별로 변수에 넣어서 Jsoup으로 파싱! 결과적으론 1.2G 끄떡없다! ㅎㅎ 윤나무27정동화28...public static void data() {XMLInputFactory xmlInputFactory = XMLInputFactory.newInstance();try {String file = "data/bigFile.xml";XMLEventReader eventReader = xmlInputFactory.creat..
spring에서는 application.propertiesspring.datasource.url=jdbc:mysql://localhost:3306/sample?uniCode=true&characterEncoding=utf8 python에서는 import pymysqlconn = pymysql.connect(host='localhost', port=3306, user='root', passwd='password', db='sample')cur = conn.cursor()cur.execute("select current_timestamp() from dual")print(cur.fetchone())cur.close() conn.close()
- Total
- Today
- Yesterday
- db connect
- tomcat
- Big xml 파싱
- iTerm
- aws cloudsearch
- StAX
- 엘라스틱서치
- #csvreader
- oracle12
- 계층형
- getdate
- CloudSearch
- Python
- 서버 환경변수
- timestamp
- JPA 오류
- OneToMany
- cloudsearch 비용
- Elasticsearch
- could not initialize proxy - no Session
- JoinColumn
- JPA
- 단축키
- org.hibernate.LazyInitializationException
- ojdbc7
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |