본문 바로가기

requests2

📌 2. requests와 BeautifulSoup을 활용한 기초 크롤링 1. 이전 강의 리뷰이전 강의에서는 웹 크롤링의 개념과 활용 사례, 크롤링 환경 설정 및 간단한 웹페이지 크롤링 실습을 다뤘습니다.웹 크롤링 개념: 웹에서 데이터를 자동으로 수집하는 기술크롤링 활용 사례: 뉴스 데이터 분석, 가격 비교, 부동산 정보 수집 등환경 설정: requests, BeautifulSoup, lxml 등의 필수 라이브러리 설치기본 크롤링 실습: requests를 활용하여 웹페이지의 HTML 가져오기 및 BeautifulSoup을 사용한 데이터 추출이번 강의에서는 이를 바탕으로 더 깊이 있는 크롤링 기술을 배우고 실전 예제를 진행하겠습니다.2. requests와 BeautifulSoup란?웹 크롤링에서 가장 많이 사용되는 두 가지 라이브러리는 requests와 BeautifulSoup.. 2025. 2. 9.
📌 1. 웹 크롤링 개요 및 환경 설정 1. 웹 크롤링이란?웹 크롤링(Web Crawling)이란 인터넷 상의 데이터를 자동으로 수집하는 기술을 의미합니다. 웹사이트의 HTML 문서를 분석하여 특정 정보를 추출하고 저장하는 과정입니다. 이를 통해 데이터 분석, 자동화 시스템 구축 등에 활용할 수 있습니다.✅ 웹 크롤링의 활용 사례웹 크롤링은 단순한 데이터 수집을 넘어, 다양한 비즈니스 모델을 창출할 수 있는 강력한 도구입니다.뉴스 데이터 수집 및 트렌드 분석특정 뉴스 사이트에서 최신 기사를 주기적으로 크롤링하여 뉴스 트렌드를 분석할 수 있습니다.분석된 데이터를 바탕으로 주식 시장 동향을 예측하거나 소셜 미디어에 뉴스 요약을 제공하는 서비스 구축 가능.쇼핑몰 가격 비교 사이트 운영여러 온라인 쇼핑몰의 상품 가격을 실시간으로 크롤링하여 가격 비교.. 2025. 2. 8.