Size: a a a

2020 February 28

AR

Andrey Rahmatullin in Scrapy
ну, можно мастер взять
источник

К

Кирилл in Scrapy
о_О
источник

EB

Elisei Badanin in Scrapy
еще, кстати, проблема может быть с файрволами, бд может быть закрыта, а пауки запускаться на сторонних серверах
источник

К

Кирилл in Scrapy
Кирилл
Кто знает, как можно использовать эксепшн ImageException который кидает ImagesPipeline при минимальных размерах изображений чтоб сделать кастомную логику для маленьких изображений. Или в каком-то другом месте впилиться, чтоб можно было использовать размеры изображения?

Про свой папйплайн с Image.open('image.png').size понятно, но интересно есть ли способы использовать существующие исключения
Ладно, я так понимаю, нужно повторно изображение открывать и брать размеры
источник

МС

Михаил Синегубов in Scrapy
Кирилл
Ладно, я так понимаю, нужно повторно изображение открывать и брать размеры
Ну, в родном пайпе есть метод image_downloaded, там размеры всплывают. Можно его аккуратненько попробовать перекрыть
Где фильтр по размерам, ещё не копался. Уехал с работы
источник

К

Кирилл in Scrapy
Да, но там самого итема нет. Разве что записать размеры в имя файла
источник

RG

Roman Gangal in Scrapy
Elisei Badanin
для себя юзаю jl, csv не всегда удобно, особенно когда разный набор колонок(нужно в пауке все указывать)
а можно с этого момента поподробнее? каким образом юзать .jl и выводить его в нужный для себя формат? Я вообще о .jl узнал только когда начал юзать scrapyd. Что это за формат и с чем его едят?)
источник

AR

Andrey Rahmatullin in Scrapy
JSON lines
источник

AR

Andrey Rahmatullin in Scrapy
Каждый итем отдельным жсоном
источник

К

Кирилл in Scrapy
источник

EB

Elisei Badanin in Scrapy
Roman Gangal
а можно с этого момента поподробнее? каким образом юзать .jl и выводить его в нужный для себя формат? Я вообще о .jl узнал только когда начал юзать scrapyd. Что это за формат и с чем его едят?)
просто как формат, вместо scrapy crawl spider -o out.csv использую -o out.jl
источник

EB

Elisei Badanin in Scrapy
можно файл по строчкам читать и каждая строка отдельный json
источник

EB

Elisei Badanin in Scrapy
есть либы для питона
источник

EB

Elisei Badanin in Scrapy
для меня основным преимуществом является то, что в json можно деревбя использовать
источник

EB

Elisei Badanin in Scrapy
ну и я не заморачиваюсь с классом итема, а просто yield {‘k1’: ‘v1’, ….} делаю
источник

RG

Roman Gangal in Scrapy
все понял. спасибо парни! тогда вообще не проблема, просто импортну этот файл в csv да и все. не понятно почему разрабы scrapyd этот формат захарткодили без возможности самому указать. Может он типа более производительнее на запись?
источник

EB

Elisei Badanin in Scrapy
захардкодили?
источник

A

Andrii in Scrapy
Друзья, нужен совет. Есть таблица, делаю поиск по наличию слова (email, phone ...) - нахожу (в column 1). А как теперь перейти на column 2 и взять текст?
источник

A

Andrii in Scrapy
источник

EB

Elisei Badanin in Scrapy
td[2] в томже tr
источник