• 周四. 5月 30th, 2024

5G编程聚合网

5G时代下一个聚合的编程学习网

热门标签

爬取汽车之家新闻

admin

11月 28, 2021

爬取汽车之家新闻

# 爬取汽车之家

import requests

# 向汽车之家发送get请求,获取到页面
ret = requests.get('https://www.autohome.com.cn/news/1/#liststart')
# print(ret.text)

# bs4解析(可以不用re)
from bs4 import BeautifulSoup
# 实例化得到对象,传入要解析的文本和解析器
# html.parser是一个内置解析器,速度稍微慢一些,但是不需要装第三方模块
# lxml:速度快一些,但是需要安装 pip3 install lxml
soup = BeautifulSoup(ret.text,'html.parser')
# soup=BeautifulSaoup(open('a.html','r'))
# find(找到的第一个)
# find_all(找所有的)
# 找页面所有的li标签
li_list = soup.find_all(name='li')
for li in li_list:
    # li是Tag对象
    # print(type(li))
    h3 = li.find(name='h3')
    if not h3:
        continue
    title = h3.text
    desc = li.find(name='p').text
    # 对象支持[]取值,说明重写了__getitem__魔法方法
    img = li.find(name='img')['src']
    url = li.find(name='a')['href']
    # 图片下载到本地
    ret_img = requests.get('https:'+ img)
    img_name = img.rsplit('/',1)[-1]
    with open(img_name,'wb')as f:
        for line in ret_img.iter_content():
            f.write(line)
    print('''
    新闻标题:%s
    新闻摘要:%s
    新闻链接:%s
    新闻图片:%s
    '''%(title,desc,url,img))

《爬取汽车之家新闻》有2个想法
  1. Wow, incredible blog structure! How long have you been blogging for?

    you made running a blog glance easy. The overall glance of your web site is fantastic, let alone the content!
    You can see similar here e-commerce

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注