웹개발 종합반 - 3주차

이번에는 파이썬 라이브러리를 이용한 패키지 사용법을 배웠다

import requests # requests 라이브러리 설치 필요

r = requests.get('http://spartacodingclub.shop/sparta_api/seoulair')
#서울시 미세먼지 정보를 requests로 데이터를 가져온 후
rjson = r.json()
#자바스크립트를 이용했을 때처럼 사용하면 구 이름명과 구 미세먼지 농도를 추출할 수 있다.
rows = rjson['RealtimeCityAir']['row']
for row in rows:
    gu_name = row['MSRSTE_NM']
    gu_mise = row['IDEX_MVL']
    if gu_mise < 60:
        print(gu_name)

크롤링을 하는데 bs4 라이브러리가 필요하다

import requests
from bs4 import BeautifulSoup

#헤더 -> 브라우저에서 콜을 날린 것처럼해서 requests.get에 들어간다.
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

soup = BeautifulSoup(data.text, 'html.parser')

soup에서 해당 영화 페이지의 모든 HTML 코드를 가져오게 된다. 여기서 1위인 영화만 가져오고 싶다면 다음과 같은 방식을 진행한다.

1) 우클릭 누른 후 '검사'를 누른다. 그후 해당 코드의 우클릭을 다시 누른 후
Copy Selector를 클릭한다.

import requests
from bs4 import BeautifulSoup

#헤더 -> 브라우저에서 콜을 날린 것처럼해서 requests.get에 들어간다.
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

soup = BeautifulSoup(data.text, 'html.parser')

title = soup.select_one('#old_content > table > tbody > tr:nth-child(2) > td.title > div > a')
print(title) # 해당 html 코드가 나옴
print(title.text) # 밥정

2) 그 후 위와 같이 title = soup.slelect_one('copy selector한 코드')를 가지고 출력시키면 해당 html 코드가 나오며 추가적으로 .text를 붙히면 해당 html 코드 내에 적힌 글씨가 추출된다.

DB

DB에는 두 가지 종류가 있다.
1) SQL - 정형화된 엑셀과도 같은 데이터를 저장하는 형식
2) NoSQL - 초기 스타트업에서 자주 사용하는 데이터 저장하는 형식

요즘에는 클라우드 형태에서 서비스를 제공한다.

DB에 있는 데이터를 넣거나, 바꾸거나, 지우거나, 찾기 등을 할수 있으며 아래의 예시 코드를 통해 확인할 수 있다.

from pymongo import MongoClient
import certifi

ca = certifi.where()

client = MongoClient('mongodb+srv://rudwns0913:[email protected]/Cluster0?retryWrites=true&w=majority', tlsCAFile=ca, connect = False)

db = client.dbsparta

# 저장 - 예시
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)

# 한 개 찾기 - 예시
user = db.users.find_one({'name':'bobby'})

# 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
all_users = list(db.users.find({},{'_id':False}))

# 바꾸기 - 예시
db.users.update_one({'name':'bobby'},{'$set':{'age':19}})

# 지우기 - 예시
db.users.delete_one({'name':'bobby'})

숙제로 지니차트를 순서대로 순위, 곡 명, 가수 명대로 찍히도록 요구되었다.
아래와 같은 코드를 작성하였다.

import requests
from bs4 import BeautifulSoup


#헤더 -> 브라우저에서 콜을 날린 것처럼해서 requests.get에 들어간다.
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://www.genie.co.kr/chart/top200?ditc=M&rtm=N&ymd=20210701',headers=headers)

soup = BeautifulSoup(data.text, 'html.parser')

musics = soup.select('#body-content > div.newest-list > div > table > tbody > tr')
for music in musics:
    rank = music.select_one('td.number').text[0:2].strip()
    title = music.select_one('td.info > a.title.ellipsis').text.strip()
    artist = music.select_one('td.info > a.artist.ellipsis').text
    print(rank, title, artist)

좋은 웹페이지 즐겨찾기