如何解决抓取抓取未遵循蜘蛛名称
运行刮板蜘蛛时出现问题。 我有3个蜘蛛文件,其中1个不使用,看起来像这样。 蜘蛛1 蜘蛛2 蜘蛛3
我有一个主蜘蛛(spider1)一段时间了,现在工作良好,决定添加另一个蜘蛛(spider3),我刚刚制作了一个具有适当名称的新.py文件。在建造第二只蜘蛛的过程中工作了一段时间,使一切正常运行。
现在我的问题是运行第一个蜘蛛。
当我执行scrapy scraw spider1
时,它只运行第3个Spider,并且我知道所有名称都正确。
我尝试运行scrapy list
,但它刚开始运行3rd Spider。我运行scrapy version
,它只运行第3蜘蛛。如果我运行scrapy crawl RandomName
,那么它也只会运行3rd Spider。
我尝试删除所有__pycahe__
文件,但结果仍然相同。
我尝试卸载并重新安装,但仍然得到相同的结果。
在settings.py
中是否需要做一些事情,以使其不忽略scrapy crawl
命令或其他命令中的蜘蛛名称?
我不需要同时运行2个Spider或一个接一个地运行,我只想scrapy crawl
收听我要呼叫的Spider。
任何帮助将不胜感激!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。