无码av一区二区三区无码,在线观看老湿视频福利,日韩经典三级片,成 人色 网 站 欧美大片在线观看

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

黑馬程序員Python爬蟲(chóng)基礎(chǔ),快速入門Scrapy爬蟲(chóng)框架

2023-08-26 15:40 作者:明明ai小明  | 我要投稿
#拿到頁(yè)面原地阿瑪
#拿到所有ul上面得a標(biāo)簽

from lxml import etree
import re
import requests
import json
domain = 'https://desk.zol.com.cn'
url = 'https://desk.zol.com.cn/'
resp = requests.get(url)
resp.encoding = 'gbk'
# print(resp.text)
et = etree.HTML(resp.text)
result = et.xpath('//ul[@class="pic-list2 clearfix"]/li/a/@href')
# print(result)

for item in result:
    url = domain + item
    print(url)
    # url = 'https://desk.zol.com.cn/bizhi/10055_120350_2.html'
    resp = requests.get(url)
    # print(resp.text)
    obj = re.compile(r'var deskPicArr.*?=(?P<deskPicArr>.*?);',re.S)
    result = obj.search(resp.text)
    deskPicArr = result.group('deskPicArr')
    # print(deskPicArr)
    dic = json.loads(deskPicArr)
    # print(dic)
    for item in dic['list']:
        oriSize = item.get('oriSize')
        imgsrc = item.get('imgsrc')
        # print(oriSize,imgsrc)
        imgsrc = imgsrc.replace('##SIZE##',oriSize)
        print(imgsrc)
        #發(fā)送網(wǎng)絡(luò)請(qǐng)求
        name = imgsrc.split('/')[-1]
        resp_img = requests.get(imgsrc)
        #此時(shí)拿到的不是resp.text, resp.content拿到的是字節(jié)
        with open(f"img/{name}",mode="wb") as f:
            f.write(resp_img.content)
            # print(f)


黑馬程序員Python爬蟲(chóng)基礎(chǔ),快速入門Scrapy爬蟲(chóng)框架的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
永善县| 保山市| 洪洞县| 通州区| 香河县| 洛宁县| 黔南| 买车| 二连浩特市| 巴彦淖尔市| 蓝田县| 西安市| 香港| 昭觉县| 平泉县| 宁安市| 安庆市| 增城市| 普宁市| 凭祥市| 淮南市| 千阳县| 襄樊市| 巴楚县| 墨竹工卡县| 工布江达县| 旬阳县| 北宁市| 息烽县| 和政县| 泰兴市| 内丘县| 前郭尔| 娄底市| 马尔康县| 霸州市| 巴林左旗| 泾源县| 永川市| 忻州市| 峨眉山市|