일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 미국 배당주
- apache log4j
- 구글 애드센스 수익
- intelliJ plugin
- docker mysql
- python
- MYSQL
- 티스토리 광고 수익
- 주식용어
- JDK1.3
- AES256
- Spring Batch
- Vue 배우기
- scrapy
- Python 기본편
- Spring
- 미국주식
- gradle
- Vue 강의
- 도커
- spring boot 시작
- spring Annotation
- Vue 알아보기
- 애드센스 수익
- docker 명령어
- 젠킨스
- Spring Batch 강의
- python 기초
- docker
- Vue
목록분류 전체보기 (198)
나만의공간
MongoDB Windows에 설치하기 1. 다운로드 https://www.mongodb.com/download-center?jmp=nav 2. MongoDB 설치 가이드 원문 https://docs.mongodb.com/manual/tutorial/install-mongodb-on-windows/ 3. 다운로드 완료 후 C:\에 .msi 파일을 복사하여 설치를 진행한다. - 설치시 특별히 문제가 될만한 내용은 없다. 4. 설치 완료 후 DataBase File을 저장할 폴더를 D:\에 만든다. - D:\mkdir D:\mongodb\data 5. MongoDB 실행하기 - C:\Program Files\MongoDB\Server\3.2\bin\mongodb.exe --dbpath D:\mongodb\d..
Scrapy 가이드 #1에서는 Scrapy Project 생성 및 Spider를 만들어 크롤링 하는 방법 까지 설명이 되어 있다.이번장은 계속 이어서 크롤링한 웹페이지에서 내가 원하는 데이타를 Items에 추출하는 내용을 설명한다. 1. Extracting Items (아이템 추출)1) Selectors에 대한 소개(1) 크롤링한 웹 페이지에서 데이타를 추출하는 몇가지 방법이 있다. XPath 혹은 CSS 표현을 이용한 Selectors를 이용하거나 더 많은 정보가 필요할 경우 Selectors Documeneation을 참조하기 바란다. (2) XPath 표현을 이용한 샘플▶ /html/head/title : title elements를 선택한다. HTML문서중 head에 있는 정보이다. ▶ /html..
1. Scrapy Tutorial아래 문서는 http://doc.scrapy.org/en/latest/intro/tutorial.html에 있는 문서를 참고 하여 작성 하였습니다.해당 문서는 윈도우 환경 기반으로 작성하였습니다.Scrapy Tutorial을 진행하기 위한 순서1) 신규 Scrapy Project를 생성한다.2) Items에 대한 정의를 한다.3) Spider를 만들고 원하는 사이트 정보를 Items에 넣는다.4) Pipeline을 이용하여 Items 정보를 저장 매체에 저장한다. 2. Createing Project1) 프로젝트를 만들기 전에 폴더를 먼저 생성한다.(1) 윈도우키 + R을 누른 후 CMD를 입력하고 엔터를 누른다.(2) 윈도우 Command창이 정상적으로 나온것을 확인한다..
1. Python whl 파일 설치 방법1) 설치하고자 하는 whl 파일을 다운로드 받는다.2) python -m pip install whl파일명 2. Beautifulsoup 설치 방법1) https://pypi.python.org/pypi/beautifulsoup4 여기서 관련 whl 파일을 다운로드 한다.2) 아래 해당 명령어를 console에서 실행한다.python -m pip install beautifulsoup4-4.4.1-py2-none-any.whl 3) 정상 설치 여부를 확인한다. >>> import bs4 >>> bs4 >>> from bs4 import BeautifulSoup >>> soup = BeautifulSoup("data", "html.parser") >>> soup d..
Python을 이용한 웹 크롤링에 필요한 개발도구사용 라이브러리 : Beautiful Soup 4.X사용 라이브러리 : ScrapyWindow 객체 사용 가능 라이브러리 : pywin32 https://sourceforge.net/projects/pywin32/?source=navbar언어 : Python 2.7pyOpenSSL 설치 https://pypi.python.org/pypi/pyOpenSSL기타 : virtualEnv, virtualenvwrapper사이트 구조 분석 방법특정 사이트 데이터 취득 1. 웹 크롤링에 필요한 관련 Lib 설치 방법1) easy_install pyopenssl2) easy_install beautifulsoup3) easy_install Scrapy Scrapy로 설..
Maven 프로젝트 생성시 관련 정보를 못가져올 경우 setting.xml을 아래로 변경해서 만들면 정상적으로 관련 정보를 가져 올 수 있음. 관련 오류 메세지 : could not calculate build plan maven-resources-plugin:2.6 UK UK Central http://uk.maven.org/maven2 central
JAVA의 기본 정책으로는 AES128 암호화 방식까지만 사용이 가능하므로AES256 방식으로 암호화를 하게 되면 아래와 같은 Exceptioin이 발생합니다. java.security.InvalidKeyException: Illegal key size 이를 해결하기 위한 방법은 $JAVA_HOME/jre/lib/security 에 아래의 unlimited strength crypto file을 덮어 쓰기 하시면 됩니다. local_policy.jar US_export_policy.jar Java Cryptography Extension (JCE) Unlimited Strength Jurisdiction Policy Files 7 다운로드 참고로 미 통상법에 의해 자국내에서만 AES256 방식이 허용되었..
SSL 인증서 없이 https 통신하는 법 예제Server SIde 방식으로 https를 연결할려면 기본적으로 인증서가 필요한것으로 나오고 있다. 인증서 없이 https를 구현 할려면 아래와 같이 하면 가능하다.import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.net.HttpURLConnection; import java.net.URL; import java.security.cert.X509Certificate; import javax.net.ssl.HttpsURLConnection; import javax.net.ssl.SSLContext; import javax.n..
1.설치 하기위해선 Oracle 사이트에서 회원가입을 해야 다운로드 가능하다. 2.Oracle 사의 SQL 11g 를 설치해보자. 데이터를 저장하기 위해선 Database 가 필요하다.요즘엔 많은 SQL이 나와있었고 이전에 MySQL 을 설치하는 포스트도 올렸었습니다. 이번엔 오라클에서 제공하는 Database 를 설치해보겠습니다. 단,오라클에 회원가입을 해야 다운로드 할 수 있습니다.그리고 설치하고나서 삭제하는 방법이 쉽지않기에 한번에 설치 하는게 좋습니다. 1.https://www.oracle.com/kr/index.html오라클로 이동하겠습니다. 다운 받기 위해선 회원가입을 하거나 로그인을 해야 합니다. 빨간박스에서 로그인 해주세요. 2.Downloads - Oracle Database 선택. 3...
자바에서 Unique한 키값을 얻어오기 위해서는 UUID라는 기능을 사용하면 된다. 100% Unique한 값을 보장할수는 없지만 거의 유일한 키값을 준다고 한다. package com.gsshop.im4java; import java.io.File; import java.util.UUID; public class UniqueFileName { public static void main(String[] args) { System.out.println(doMakeUniqueFileName("c:\\sample\\","girl.jpg")); } public static String doMakeUniqueFileName(String serverPath, String fileName) { String exten..