久久r热视频,国产午夜精品一区二区三区视频,亚洲精品自拍偷拍,欧美日韩精品二区

您的位置:首頁技術文章
文章詳情頁

python - scrapy爬蟲不能循環運行?

瀏覽:111日期:2022-07-28 11:08:58

問題描述

scrapy只能爬取一個頁面上的鏈接,不能持續運行爬完全站,以下是代碼,初學求指導。

class DbbookSpider(scrapy.Spider): name = 'imufe' allowed_domains = [’http://www.imufe.edu.cn/’] start_urls=(’http://www.imufe.edu.cn/main/dtxw/201704/t20170414_127035.html’) def parse(self, response):item = DoubanbookItem()selector = scrapy.Selector(response)print(selector)books = selector.xpath(’//a/@href’).extract()link=[]for each in books: each=urljoin(response.url,each) link.append(each)for each in link: item[’link’] = each yield itemi = random.randint(0,len(link)-1)nextPage = link[i]yield scrapy.http.Request(nextPage,callback=self.parse)

問題解答

回答1:

是不是爬得太快讓封了

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 青田县| 股票| 临潭县| 周口市| 西畴县| 阜新市| 专栏| 滦南县| 临泽县| 青神县| 洪江市| 岳普湖县| 建昌县| 徐州市| 南康市| 安图县| 澜沧| 通江县| 寻乌县| 库尔勒市| 海安县| 寿宁县| 五寨县| 谷城县| 馆陶县| 明光市| 邢台市| 都兰县| 庐江县| 岳阳市| 鄂尔多斯市| 吉林省| 灯塔市| 根河市| 光泽县| 江西省| 张家港市| 安化县| 华容县| 寿宁县| 乐陵市|