久久r热视频,国产午夜精品一区二区三区视频,亚洲精品自拍偷拍,欧美日韩精品二区

您的位置:首頁技術文章
文章詳情頁

python - 用scrapy-splash爬取網站 為啥iframe下的內容沒有被返回

瀏覽:142日期:2022-08-10 09:23:22

問題描述

用scrapy-splash爬取網站 為啥iframe下的內容沒有被返回?

import scrapyfrom scrapy import Selectorclass Music163Spider(scrapy.Spider): name = 'music163' allowed_domains = ['music.163.com/#/discover/toplist'] start_urls = [’http://music.163.com/#/discover/toplist/’] def parse(self, response):print('parse:',response.text) def start_requests(self):for url in self.start_urls: yield scrapy.Request(url, self.parse, meta={’splash’: { ’endpoint’: ’render.html’, ’args’: {’wait’: 0.5, }} })

問題解答

回答1:

你需要在parse中獲取iframe的url再次請求內容。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 深泽县| 子长县| 万盛区| 炉霍县| 宜君县| 曲沃县| 保山市| 海南省| 东宁县| 班戈县| 汨罗市| 广灵县| 道孚县| 邮箱| 绥德县| 河间市| 双峰县| 托里县| 平潭县| 开平市| 长治县| 昔阳县| 浦东新区| 涟源市| 重庆市| 柯坪县| 葫芦岛市| 进贤县| 建水县| 文山县| 台北市| 内江市| 靖西县| 大渡口区| 正阳县| 佳木斯市| 通辽市| 新龙县| 孙吴县| 乃东县| 介休市|