久久r热视频,国产午夜精品一区二区三区视频,亚洲精品自拍偷拍,欧美日韩精品二区

您的位置:首頁技術文章
文章詳情頁

python - 基于scrapy-redis的分布式爬蟲運行的時候不能正常運行 遇到的問題如下截圖所示

瀏覽:140日期:2022-08-03 11:20:00

問題描述

python - 基于scrapy-redis的分布式爬蟲運行的時候不能正常運行 遇到的問題如下截圖所示

爬蟲運行時一直是這樣的每一分鐘出現(xiàn)一條這樣的信息,無限循環(huán)。不能爬取下來數(shù)據(jù)python - 基于scrapy-redis的分布式爬蟲運行的時候不能正常運行 遇到的問題如下截圖所示

這是redis服務端的顯示

這樣是什么問題,望有高手可以為我解惑,謝謝。

問題解答

回答1:

使用scrapy_redis,你要去投放url讓spider去爬取,你投放了嗎?比如

redis-cli lpush myspider:start_urls http://google.com

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 象州县| 郸城县| 如皋市| 忻城县| 那曲县| 景泰县| 宣城市| 南京市| 原平市| 景宁| 叙永县| 舒城县| 宣化县| 布拖县| 南城县| 玛纳斯县| 慈溪市| 广河县| 高密市| 寿光市| 绥化市| 丹棱县| 南京市| 永新县| 荔浦县| 万山特区| 珠海市| 嘉峪关市| 祁连县| 石门县| 新田县| 奉化市| 台州市| 葫芦岛市| 集安市| 昌黎县| 射阳县| 赣榆县| 加查县| 鹤峰县| 二连浩特市|