Skip to content

SeungWoonSong/Study_Crawling

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

10 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Study_Crawling

Start Learning Crawling, Selenium, Scrapy, etc..

Selenium은 기존 방식과 다르게 브라우저를 실제로 작동시키는 방법으로 데이터를 크롤링해옵니다.
실제로 Google_Chrome이나 Headless Chorme, PahntomJS 등을 이용하여 브라우저에서 데이터가 나오게 하고 그 데이터를 기반으로 크롤링 해옵니다.

기본적인 사용방법

1. Selenium을 import 합니다


일반적으로 아래와 같이 import하는 경우가 많습니다.
from selenium import webdriver
from selenium.webdriver.common.keys import Keys

2. Chromedriver의 위치를 저장한 후, driver 객체에 저장합니다.


chormedriver = ' '
driver = wevdriver.Chrome(chromedriver)

3.driver객체로 하여금 get을 실행시킵니다.


driver.get(" # 주소 " )
위와 같은 방식으로 간단한 request 혹은 get의 진행을 Selenuium(Chromedriver ver)로 진행할 수 있습니다.

About

Start Learning Crawling, Selenium, Scrapy, etc..

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages