Size: a a a

2021 May 20

А

Александр in Scrapy
Да
источник

S

SoHard 🎄 in Scrapy
тогда зачем скрапи?
источник

А

Александр in Scrapy
Все что я хотел - выяснить, нет ли более "Архитектурно-правильного" способа для этой задачи
источник

(

(o_O) in Scrapy
+1
источник

А

Александр in Scrapy
Я его использовал раньше, сейчас это на голанге с потоками
источник

А

Александр in Scrapy
Просто заинтересовало предложение выше с "менеджерами процессов"
источник

(

(o_O) in Scrapy
Если один урл, то тупо get+sleep
источник

А

Александр in Scrapy
И хотел узнать какие есть примеры так называемых менеджеров процессов
источник

А

Александр in Scrapy
Сейчас так и работает, спасибо
источник

(

(o_O) in Scrapy
дык systemd
источник

А

Александр in Scrapy
Думал, мало ли, есть более правильный вариант, с точки зрения архитектуры
источник

(

(o_O) in Scrapy
Если вам один урл, то конкурентность не нужна. Не усложняйте
источник

(

(o_O) in Scrapy
А так, если очень хочется, пишем spider, прикручиваем scrapy-rt и шлем в его апи запросы с любой переодичностью
источник

К

Кирилл in Scrapy
В systemd есть все что нужно для процессов, кроме легкости вхождения) но один раз разобраться и не нужно будет ничего левого ставить
источник

А

Александр in Scrapy
Нужно много урлов, но все с разной периодичностью
источник

А

Александр in Scrapy
Systemd не совсем подходит с периодичностью с точностью в секунды
источник

А

Александр in Scrapy
И судя по всему, действительно реальное решение - это асинхронно проходится по списку с урлами и периодичностью, делать запросы и sleep по периоду, а так же отлавливать новые урлы с периодичностью и добавлять их в список с уже существующими урлами
источник

А

Александр in Scrapy
По крайней мере, сейчас так реализованно
источник

А

Александр in Scrapy
Работает нормально, но такое чувство, как будто есть какие-то нюансы
источник

К

Кирилл in Scrapy
Да, пока скрапи запустится, пройдет достаточно много времени. Он должен в idle ждать новых ссылок, чтоб быстро отрабатывать
источник