Size: a a a

2020 November 10

i

i in Scrapy
я думаю может потому-что там для -o написано как %(batch_id)d - это явно консольная фигня же
источник

i

i in Scrapy
процентики вот эти и d
источник

МС

Михаил Синегубов... in Scrapy
Семён Кашин
поставил в настройка:
FEED_EXPORT_BATCH_ITEM_COUNT = 100
FEED_URI = "%(batch_id)d-filename%(batch_time)s.jl"


при запуске из консоли scrapy crawl crawler_name бьется нормально. Но при запуске из scrapyd файлов с резуьтатами нет
а если не делить - все норм? файл появляется?
источник

i

i in Scrapy
у меня да
источник

СК

Семён Кашин... in Scrapy
Михаил Синегубов
а если не делить - все норм? файл появляется?
появляется файл. И делится нормально
источник

МС

Михаил Синегубов... in Scrapy
Семён Кашин
появляется файл. И делится нормально
перефразирую: если не делить, то в scrapyd файл появляется и нормально пишется?
источник

i

i in Scrapy
Семён Кашин
поставил в настройка:
FEED_EXPORT_BATCH_ITEM_COUNT = 100
FEED_URI = "%(batch_id)d-filename%(batch_time)s.jl"


при запуске из консоли scrapy crawl crawler_name бьется нормально. Но при запуске из scrapyd файлов с резуьтатами нет
под запуском из консоли ты подразумеваешь что указываешь теперь без параметра -o?
источник

СК

Семён Кашин... in Scrapy
Михаил Синегубов
перефразирую: если не делить, то в scrapyd файл появляется и нормально пишется?
да. Но имя файла задается как job_id. То есть по факту scrapyd запускает scrapy crawl spider_nmae -o {job_id}.jl
источник

СК

Семён Кашин... in Scrapy
i
под запуском из консоли ты подразумеваешь что указываешь теперь без параметра -o?
да
источник

i

i in Scrapy
тьфу блин, у меня feed_uri-то из питоноскрипта-стартера задавался, а я думаю чо я его меняю а он не меняется)
источник

МС

Михаил Синегубов... in Scrapy
i
тьфу блин, у меня feed_uri-то из питоноскрипта-стартера задавался, а я думаю чо я его меняю а он не меняется)
😆
источник

i

i in Scrapy
наяриваю там в settings.py)
вобщем, изменил в питоновом стартере и начало делить
s_ed = get_project_settings()
s_ed['FEED_URI'] = 'file:///' + my.base_dir + BOT_NAME + '/out_%(batch_id)d.csv'
process = CrawlerProcess(s_ed)
process.crawl(IherbSpiderSpider)
источник

i

i in Scrapy
но будет ли это работать в scrapyd - хз
источник

i

i in Scrapy
Семён Кашин
да. Но имя файла задается как job_id. То есть по факту scrapyd запускает scrapy crawl spider_nmae -o {job_id}.jl
тебе надо сделать там, чтобы scrapyd запускал его чисто как-будто ты запускаешь ТОЛЬКО scrapy crawl, а все настройки передать попробовать в settings
источник

МС

Михаил Синегубов... in Scrapy
на самом деле, самый простой вариант - отдебажить нахрен что scrapyd творит - это сугубо мое ИМХО
источник

СК

Семён Кашин... in Scrapy
i
тебе надо сделать там, чтобы scrapyd запускал его чисто как-будто ты запускаешь ТОЛЬКО scrapy crawl, а все настройки передать попробовать в settings
или сделать так, что бы мой формат подставлялся
источник

i

i in Scrapy
а в логе пишется что-то про %(batch_time)s or %(batch_id)d must be in the feed URI?
источник

i

i in Scrapy
если да, а ты задаешь там во-всю, то может как у меня проблема была, FEED_URI не там задается а берется с другого места?
источник

СК

Семён Кашин... in Scrapy
i
а в логе пишется что-то про %(batch_time)s or %(batch_id)d must be in the feed URI?
нет, ничего такого нет
источник

t

tfhx8 in Scrapy
Кто в chrome selenium разбирается? Раньше если скачивать файл повторно, то он добавлял к файлу одинаковому цифру, сейчас же почему то стал заменять. Как вернуть обратно?
источник