이제는 네이버 랩을 크롤링해보자 가져올 부분은 해당 부분이다. 해당 부분을 가져오려 할 때 기본적으로 이 함수들을 넣어주고 해당 class를 가져오려 하기 때문에 css_selector를 가져오고 해당 클래스 명인. rank_top 1000_list를 가져온다. 그 다음 ul태그였던 rank_top1000_list에서 li로 되어 있는걸 모두 가져온다. 여기서 저장한 ul_tag에서 원하는 태그(li)를 가져오기위해 find_elements_by_tag_name('li')로 가져오게한다. 여기서가져온 li_tag_list를 하나씩 빼서 출력을 하는데 개행문자를 기준으로 나눠서 나오게 출력 한다.
Seleium을 통한 동적 크롤링 첫 번째로는 기본적인 함수를 넣어준다. 위에 간단하게 셀레늄을 통해 요소를 찾는 방법들을 정리했다. driver.get('url')이라는 명령어 구문으로 해당 사이트를 접속한다. 해당 부분에서 나는 메뉴에 따라서 크롤링을 하려 한다. 그러기 위해서 해당 부분이 어떤 것으로 이뤄졌는지 확인한다. 해당되는 모든 요소를 가져오기위해 find_elements를 사용하였고 나는 class를 가져오기 때문에 뒤에 추가적으로 _by_css_selector을 붙여줬다. 그리고 가져오는 부분의 이름을 적어주고 경로까지 적어주었다. 이런 방식으로 가져온다. menus 를 가져온다. 그다음 가져온 menus를 하나씩 꺼내어 menu를 클릭하는 로직을 구현한다. 여기서는 menu 중에 Pyt..