Разрабатывал паука локально, все работает, все круто. Потом решил задеплоить его на scrapyd, но там выдает ошибку
2021-06-14 10:05:03 [twisted] CRITICAL: Unhandled error in Deferred:
2021-06-14 10:05:03 [twisted] CRITICAL:
Traceback (most recent call last):
File "/usr/local/lib/python3.8/site-packages/twisted/internet/defer.py", line 1445, in _inlineCallbacks
result = current_context.run(g.send, result)
File "/usr/local/lib/python3.8/site-packages/scrapy/crawler.py", line 86, in crawl
self.spider = self._create_spider(*args, **kwargs)
File "/usr/local/lib/python3.8/site-packages/scrapy/crawler.py", line 98, in _create_spider
return self.spidercls.from_crawler(self, *args, **kwargs)
TypeError: from_crawler() got an unexpected keyword argument '_job'
Подскажите, куда нужно копать, чтобы понять причину? Поднял у себя также scrapydweb для повторяемого запуска, и вижу у него есть jobid при запуске. Но проблема в том, что не могу в своей среде воспроизвести ошибку