久久r热视频,国产午夜精品一区二区三区视频,亚洲精品自拍偷拍,欧美日韩精品二区

您的位置:首頁技術文章
文章詳情頁

使用python scrapy框架,循環爬取URL, 每次運行一段時間后直接卡死,沒有任何報錯

瀏覽:103日期:2022-06-28 18:15:35

問題描述

每次運行半小時左右, 直接卡死, log里沒有任何報錯, 卡死的時候CPU占用率非常高

我在setting.py里設置了download timeout,不是超時的原因

ctrl-c無法正常退出, ctrl-z退出以后, 繼續執行還是同樣的問題, 半小時后再次卡死

使用python scrapy框架,循環爬取URL, 每次運行一段時間后直接卡死,沒有任何報錯

問題解答

回答1:

先TOP看看是內否過高,還是CPU過高,再找到是被哪些進程占用了如果都是你的爬蟲進程,那就得排查代碼,看看是不是哪里一直未被釋放

總之從各方面去排查吧

回答2:

strace

標簽: Python 編程
主站蜘蛛池模板: 沙洋县| 佛学| 黄浦区| 祁连县| 高要市| 上杭县| 阜南县| 土默特左旗| 呼图壁县| 揭阳市| 大同市| 淮滨县| 榆树市| 盐山县| 巴彦县| 清丰县| 隆昌县| 沂水县| 齐齐哈尔市| 吴堡县| 娱乐| 曲水县| 余江县| 德格县| 奉化市| 浮山县| 茌平县| 封丘县| 巧家县| 津市市| 西畴县| 江华| 五峰| 石城县| 富川| 荃湾区| 乌拉特后旗| 库车县| 惠安县| 乌审旗| 连州市|