파이썬41 📌 7. Scrapy를 활용한 데이터 자동화 및 스케줄링 1. 이전 강의 리뷰이전 강의에서는 Scrapy 프레임워크를 활용하여 뉴스 데이터를 크롤링하고 SQLite 데이터베이스에 저장하는 방법을 배웠습니다. 이번 강의에서는 Scrapy 크롤링을 자동화하고, 크론잡(Cron Job) 및 Airflow를 사용하여 데이터 수집 파이프라인을 구축하는 방법을 배워보겠습니다.2. 크롤링 자동화의 필요성웹 크롤링은 주기적으로 데이터를 수집할 때 진정한 가치를 발휘합니다. 예를 들어, 매일 아침 뉴스 데이터를 수집하거나, 매주 특정 사이트에서 상품 정보를 업데이트하는 등의 작업을 자동화하면 시간과 노력을 절약할 수 있습니다.3. 크론잡(Cron Job)을 활용한 Scrapy 자동화✅ 크론잡이란?크론잡은 리눅스/유닉스 기반 시스템에서 특정 시간마다 명령어를 자동 실행할 수 있.. 2025. 2. 13. 📌 6. Scrapy를 활용한 실전 프로젝트 (SQLite 데이터베이스 버전) 1. 이전 강의 리뷰이전 강의에서는 Scrapy 프레임워크를 활용하여 대량 데이터를 크롤링하는 방법을 배웠습니다. 이번 강의에서는 Hacker News에서 최신 기사 제목과 URL을 크롤링하고, Middleware와 SQLite 데이터베이스 저장 기능을 추가하여 완성도 높은 크롤러를 만들어 보겠습니다.2. 실전 프로젝트 개요목표 사이트: Hacker News수집 데이터: 기사 제목, URL추가 기능: User-Agent 변경, SQLite 데이터베이스 저장, 중복 데이터 처리3. Scrapy Middleware 설정 (자세한 설명)middlewares.py에서 User-Agent를 랜덤하게 변경하여 크롤러가 차단되지 않도록 합니다.import randomfrom scrapy import signalscl.. 2025. 2. 13. 📌 5. Scrapy 프레임워크를 활용한 크롤링 1. 이전 강의 리뷰이전 강의에서는 크롤링한 데이터를 정제하고 저장하는 방법을 배웠습니다. 다음과 같은 개념을 다뤘습니다.pandas를 활용한 데이터 정제 (중복 제거, 공백 정리, 정규 표현식 활용)CSV 및 JSON 파일 저장 방법SQLite 데이터베이스 저장 (심화 강의 예정)이번 강의에서는 Scrapy 프레임워크를 활용한 대량 데이터 크롤링을 배워보겠습니다. Scrapy는 강력한 웹 크롤링 프레임워크로, 빠르고 효율적으로 데이터를 수집할 수 있도록 도와줍니다.2. Scrapy란?Scrapy는 대규모 웹 크롤링을 수행할 수 있는 강력한 프레임워크로, 여러 페이지를 자동으로 탐색하며 데이터를 추출할 수 있습니다.✅ Scrapy의 주요 기능비동기 크롤링: 여러 웹페이지를 동시에 크롤링하여 속도를 최적화.. 2025. 2. 12. 📌 4. 크롤링 데이터 정제 및 저장하기 1. 이전 강의 리뷰이전 강의에서는 selenium을 활용한 동적 웹페이지 크롤링을 학습하며, 다음과 같은 개념을 다뤘습니다.selenium을 이용한 웹 브라우저 자동 제어네이버 뉴스에서 기사 제목 가져오기로그인 자동화: 아이디와 비밀번호 입력 후 자동 로그인스크롤 내리면서 추가 데이터 크롤링이번 강의에서는 크롤링한 데이터를 정제하고 저장하는 방법을 배워보겠습니다. pandas를 활용한 데이터 가공, 정규 표현식으로 텍스트 필터링, JSON 및 CSV 저장 방법, 그리고 데이터베이스 연동까지 다뤄보겠습니다.2. 크롤링한 데이터 정제하기웹에서 가져온 데이터는 불필요한 공백, 특수 문자, HTML 태그 등이 포함될 수 있습니다. pandas와 re(정규 표현식)을 이용해 데이터를 정제하는 방법을 배워봅시다... 2025. 2. 11. 📌 3. selenium을 이용한 동적 웹페이지 크롤링 1. 이전 강의 리뷰이전 강의에서는 정적 웹페이지 크롤링을 진행하며, requests와 BeautifulSoup을 활용하여 HTML 데이터를 가져오고 필요한 정보를 추출하는 방법을 배웠습니다.HTTP 요청 및 응답 이해: requests.get()을 이용하여 웹페이지 데이터를 가져오는 방법HTML 구조 분석: BeautifulSoup을 사용하여 원하는 태그 및 클래스 선택CSS 선택자를 활용한 데이터 추출: soup.select()을 이용하여 다양한 요소 가져오기실전 예제: 뉴스 기사 제목을 가져오고, robots.txt를 확인하는 과정 학습이번 강의에서는 동적 웹페이지를 다룰 예정입니다. selenium을 활용하여 버튼 클릭, 자동 로그인, 스크롤 내리기 등의 동작을 수행하고 데이터를 수집하는 방법을 .. 2025. 2. 10. 📌 2. requests와 BeautifulSoup을 활용한 기초 크롤링 1. 이전 강의 리뷰이전 강의에서는 웹 크롤링의 개념과 활용 사례, 크롤링 환경 설정 및 간단한 웹페이지 크롤링 실습을 다뤘습니다.웹 크롤링 개념: 웹에서 데이터를 자동으로 수집하는 기술크롤링 활용 사례: 뉴스 데이터 분석, 가격 비교, 부동산 정보 수집 등환경 설정: requests, BeautifulSoup, lxml 등의 필수 라이브러리 설치기본 크롤링 실습: requests를 활용하여 웹페이지의 HTML 가져오기 및 BeautifulSoup을 사용한 데이터 추출이번 강의에서는 이를 바탕으로 더 깊이 있는 크롤링 기술을 배우고 실전 예제를 진행하겠습니다.2. requests와 BeautifulSoup란?웹 크롤링에서 가장 많이 사용되는 두 가지 라이브러리는 requests와 BeautifulSoup.. 2025. 2. 9. 이전 1 2 3 4 ··· 7 다음