웹개발 종합반 - 3주차
이번에는 파이썬 라이브러리를 이용한 패키지 사용법을 배웠다
import requests # requests 라이브러리 설치 필요
r = requests.get('http://spartacodingclub.shop/sparta_api/seoulair')
#서울시 미세먼지 정보를 requests로 데이터를 가져온 후
rjson = r.json()
#자바스크립트를 이용했을 때처럼 사용하면 구 이름명과 구 미세먼지 농도를 추출할 수 있다.
rows = rjson['RealtimeCityAir']['row']
for row in rows:
gu_name = row['MSRSTE_NM']
gu_mise = row['IDEX_MVL']
if gu_mise < 60:
print(gu_name)
크롤링을 하는데 bs4 라이브러리가 필요하다
import requests
from bs4 import BeautifulSoup
#헤더 -> 브라우저에서 콜을 날린 것처럼해서 requests.get에 들어간다.
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)
soup = BeautifulSoup(data.text, 'html.parser')
soup에서 해당 영화 페이지의 모든 HTML 코드를 가져오게 된다. 여기서 1위인 영화만 가져오고 싶다면 다음과 같은 방식을 진행한다.
1) 우클릭 누른 후 '검사'를 누른다. 그후 해당 코드의 우클릭을 다시 누른 후
Copy Selector를 클릭한다.
import requests
from bs4 import BeautifulSoup
#헤더 -> 브라우저에서 콜을 날린 것처럼해서 requests.get에 들어간다.
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)
soup = BeautifulSoup(data.text, 'html.parser')
title = soup.select_one('#old_content > table > tbody > tr:nth-child(2) > td.title > div > a')
print(title) # 해당 html 코드가 나옴
print(title.text) # 밥정
2) 그 후 위와 같이 title = soup.slelect_one('copy selector한 코드')를 가지고 출력시키면 해당 html 코드가 나오며 추가적으로 .text를 붙히면 해당 html 코드 내에 적힌 글씨가 추출된다.
DB
DB에는 두 가지 종류가 있다.
1) SQL - 정형화된 엑셀과도 같은 데이터를 저장하는 형식
2) NoSQL - 초기 스타트업에서 자주 사용하는 데이터 저장하는 형식
요즘에는 클라우드 형태에서 서비스를 제공한다.
DB에 있는 데이터를 넣거나, 바꾸거나, 지우거나, 찾기 등을 할수 있으며 아래의 예시 코드를 통해 확인할 수 있다.
from pymongo import MongoClient
import certifi
ca = certifi.where()
client = MongoClient('mongodb+srv://rudwns0913:[email protected]/Cluster0?retryWrites=true&w=majority', tlsCAFile=ca, connect = False)
db = client.dbsparta
# 저장 - 예시
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)
# 한 개 찾기 - 예시
user = db.users.find_one({'name':'bobby'})
# 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
all_users = list(db.users.find({},{'_id':False}))
# 바꾸기 - 예시
db.users.update_one({'name':'bobby'},{'$set':{'age':19}})
# 지우기 - 예시
db.users.delete_one({'name':'bobby'})
숙제로 지니차트를 순서대로 순위, 곡 명, 가수 명대로 찍히도록 요구되었다.
아래와 같은 코드를 작성하였다.
import requests
from bs4 import BeautifulSoup
#헤더 -> 브라우저에서 콜을 날린 것처럼해서 requests.get에 들어간다.
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://www.genie.co.kr/chart/top200?ditc=M&rtm=N&ymd=20210701',headers=headers)
soup = BeautifulSoup(data.text, 'html.parser')
musics = soup.select('#body-content > div.newest-list > div > table > tbody > tr')
for music in musics:
rank = music.select_one('td.number').text[0:2].strip()
title = music.select_one('td.info > a.title.ellipsis').text.strip()
artist = music.select_one('td.info > a.artist.ellipsis').text
print(rank, title, artist)
Author And Source
이 문제에 관하여(웹개발 종합반 - 3주차), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://velog.io/@ggyungjun0913/웹개발-종합반-3주차저자 귀속: 원작자 정보가 원작자 URL에 포함되어 있으며 저작권은 원작자 소유입니다.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)