Crawling2


  1. 요구사항

네이버 랭킹 뉴스 크롤링

1. 수집 내용

1) 많이 본 뉴스 – 섹션별 (정치 ~ IT/과학) Top5 기사 제목, 신문사, 뷰

2) 해당 기사별 기사 내용, 리액션 (좋아요 ~ 후속기사 원해요)

2. 수집 방법 (택 1)

1) [기본] Requests , BeautifulSoup, Selenium

2) [심화] Requests, BeautifulSoup (+ 멀티프로세싱)

3. 수집 범위 및 저장

1) 2019년 7월 21일 ~ 2020년 8월 20일 (동작 가능, 실제 구동 x )

2) 하나의 파일로 저장 (방식 자유)

3) Ex) 총 6 섹션 * Top 5 * 365일 = 10950 rows


주의 사항 및 발전 사항

1. ❗ 코드로 동작 가능하되 실제 파일로 저장은 하지 않아도 됨!

너무 큰 파일의 경우 git에 올릴 때 오류가 발생할 수 있음 (15MB를 넘었다면 .gi*gnore에 추가 혹은 삭제)

2. ✅ 심화 방법 사용 시 가점 (만약 기본과 속도 비교까지 한다면 무조건 우수과제)

3. ✅ Top 5 초과로 수집 시 가점

4. ✅ 댓글 (글쓴이, 추천, 비추, 내용, 과거 이력) 까지 수집 시 가점

댓글까지 수집한다면 댓글은 다른 파일로 저장하는게 좋습니다! 물론 어느 기사에 대한 것인지 정보를 같이 포함해야 합니다.

2. 우수 과제 선정 이유

  • 셀레니움 / Request만 이용(고급) 모두를 사용해주셔서 둘의 시간까지 비교해주셨습니다.

  • 1년치 기사 크롤링에 걸리는 시간을 총 1시간 39분 (셀레니움)에서 2분 45초(멀티프로세싱)로 30배 넘게 단축 시켜낸 점이 탁월하였습니다.

  • 다만 마크다운이나 따로 문서화가 안되어있어 일일이 찾아야하는 점이 약간 아쉬웠습니다.



3. 제출 과제 (14기 김윤수님)