Size: a a a

2020 December 03

М

Мур in Scrapy
Кирилл
Джанго маст хэв, рано или поздно всё равно понадобится
Изучу чутка попозже
источник

К

Кирилл in Scrapy
Мур
Это я понимаю, но времени маловато до нг что бы проект запилить
Тогда делай на фласке, если уже с ним хорошо знаком, на нём можно сделать тоже самое что и на остальных
источник

М

Мур in Scrapy
Кирилл
Тогда делай на фласке, если уже с ним хорошо знаком, на нём можно сделать тоже самое что и на остальных
👍
источник
2020 December 04

D

Dmitry in Scrapy
Традиционный вечерний вопрос по архитектуре! Какой кошерный метод выгружать итемы во внешнюю БД? Чтобы не ломал неблокирующую архитектуру скрапи. peewee и sqlalchemy из коробки блокирующие, как я понимаю, и в лучшем случае заведутся под asyncio реактором.
источник

К

Кирилл in Scrapy
Dmitry
Традиционный вечерний вопрос по архитектуре! Какой кошерный метод выгружать итемы во внешнюю БД? Чтобы не ломал неблокирующую архитектуру скрапи. peewee и sqlalchemy из коробки блокирующие, как я понимаю, и в лучшем случае заведутся под asyncio реактором.
Используй  или deferToThread(), или куда-то в очередь пихай чтоб в другом месте сохранилось
источник

К

Кирилл in Scrapy
Но обычно о таком можно не волноваться, так как это не самое узкое место в парсинге
источник

D

Dmitry in Scrapy
Спасибо. Прямо как в доках твистеда, там граблей нет?
источник

D

Dmitry in Scrapy
from twisted.internet import threads

def doLongCalculation():
   # .... do long calculation here ...
   return 3

def printResult(x):
   print(x)

# run method in thread and get result as defer.Deferred
d = threads.deferToThread(doLongCalculation)
d.addCallback(printResult)
источник

К

Кирилл in Scrapy
Dmitry
Спасибо. Прямо как в доках твистеда, там граблей нет?
Посмотри примеры в исходниках экспортеров и стораджах, там есть похожие куски кода
источник

D

Dmitry in Scrapy
источник

D

Dmitry in Scrapy
Все без изысков, просто каждый запрос в deferToThread и все
источник

A

Andrii in Scrapy
Всем привет, оффтоп, кто-нибудь встречал Celery чаты на просторах телеграма? (распределитель задач, обычно в связке с django используют)
источник

1

15821 in Scrapy
Всем доброго утра) подскажите как сделать и в принципе как вы справляетесь в таком случае) есть сайт с разными категориями товаров, соответственно с разным количеством типов характеристик. Типов характеристик около 40. На выходе нужен csv. Все данные на русском языке
источник

1

15821 in Scrapy
Получается мне нужен айтем на каждую характеристику на английском и внутри словарь для перевода каждой характеристики?
источник

МС

Михаил Синегубов... in Scrapy
15821
Получается мне нужен айтем на каждую характеристику на английском и внутри словарь для перевода каждой характеристики?
1. просканить заранее сайт и захардкорить характеристики
2. парсить в промежуточный файл/базу по принципу key-value потом конвертить в нужный формат
источник

МС

Михаил Синегубов... in Scrapy
это, если что, варианты, а не шаги действий :)
источник

1

15821 in Scrapy
т.е боль пользования скрапи?)
Получается собирать данные в словари, кидать в отдельный файл, потом пройтись по всем ключам и таким образом сделать заголовки. Я не могу представить пока всеравно запись данных т.к. в csv ведь надо учитывать все заголовки и там где пустые поля оставлять пустую ячейку.. может надо поспать и снова попробовать просто)
Спасибо
источник

МС

Михаил Синегубов... in Scrapy
15821
т.е боль пользования скрапи?)
Получается собирать данные в словари, кидать в отдельный файл, потом пройтись по всем ключам и таким образом сделать заголовки. Я не могу представить пока всеравно запись данных т.к. в csv ведь надо учитывать все заголовки и там где пустые поля оставлять пустую ячейку.. может надо поспать и снова попробовать просто)
Спасибо
а при чем тут скрапи? тебе любой софт/фрейморк ничего не сможет делать. В любом случае как то костылить придется
источник

К

Кирилл in Scrapy
15821
т.е боль пользования скрапи?)
Получается собирать данные в словари, кидать в отдельный файл, потом пройтись по всем ключам и таким образом сделать заголовки. Я не могу представить пока всеравно запись данных т.к. в csv ведь надо учитывать все заголовки и там где пустые поля оставлять пустую ячейку.. может надо поспать и снова попробовать просто)
Спасибо
Может быть не использовать csv, если он плохо подходит под твой формат?
источник

1

15821 in Scrapy
Условие заказчика :(
источник