feedparser 학습 요약

3076 단어 htmlxmlBlogAccess
유 니 버 설 피 드 파 서 라 고 불 리 며 합 법 적 이 고 비합법적 인 RSS 를 모두 먹는다.먼저 사용법 을 간단히 쓰 십시오:

>>> import feedparser
>>> d = feedparser.parse('http://willzh.iteye.com/rss')
>>> d['feed']['title']
u"Will's Blog"

그리고 여기에 모 인 모 인 이 RSS 를 지원 하도록 하 는 방법 이 있 습 니 다. 시간 이 있 으 면 다시 보고 주소 메 모 를 붙 입 니 다.
http://moinmoin.wikiwikiweb.de/macro/FeedParser
feedparser 의 첫 페이지 에 기본 적 인 사용 방법 이 있 습 니 다:

>>> import feedparser
>>> d = feedparser.parse("http://feedparser.org/docs/examples/atom10.xml")
>>> d['feed']['title']             # feed data is a dictionary
u'Sample Feed'
>>> d.feed.title                   # get values attr-style or dict-style
u'Sample Feed'
>>> d.channel.title                # use RSS or Atom terminology anywhere
u'Sample Feed'
>>> d.feed.link                    # resolves relative links
u'http://example.org/'
>>> d.feed.subtitle                 # parses escaped HTML
u'For documentation <em>only</em>'
>>> d.channel.description          # RSS terminology works here too
u'For documentation <em>only</em>'
>>> len(d['entries'])              # entries are a list
1
>>> d['entries'][0]['title']       # each entry is a dictionary
u'First entry title'
>>> d.entries[0].title             # attr-style works here too
u'First entry title'
>>> d['items'][0].title            # RSS terminology works here too
u'First entry title'
>>> e = d.entries[0]
>>> e.link                         # easy access to alternate link
u'http://example.org/entry/3'
>>> e.links[1].rel                 # full access to all Atom links
u'related'
>>> e.links[0].href                # resolves relative links here too
u'http://example.org/entry/3'
>>> e.author_detail.name           # author data is a dictionary
u'Mark Pilgrim'
>>> e.updated_parsed              # parses all date formats
(2005, 11, 9, 11, 56, 34, 2, 313, 0)
>>> e.content[0].value             # sanitizes dangerous HTML
u'<div>Watch out for <em>nasty tricks</em></div>'
>>> d.version                      # reports feed type and version
u'atom10'
>>> d.encoding                     # auto-detects character encoding
u'utf-8'
>>> d.headers.get('Content-type')  # full access to all HTTP headers
u'application/xml'

좋은 웹페이지 즐겨찾기