Size: a a a

2020 March 16

К

Кирилл in Scrapy
И потом добавляешь прокси
источник

МС

Михаил Синегубов in Scrapy
Alexsander_1
Спасибо за мысли, третий вариант точно работает
ты первые два попробуй, если глазками смотреть, похоже на  то, что алгорритм постоянный.
а там, только куки сгененить и все
источник

SS

Sergey Sergey in Scrapy
Ну, у меня не получается с высокой скоростью парсить на пяти прокси... вопрос именно в скорости. Поэтому большой поток и нужен
источник

A

Alexsander_1 in Scrapy
Михаил Синегубов
ты первые два попробуй, если глазками смотреть, похоже на  то, что алгорритм постоянный.
а там, только куки сгененить и все
Понял)
источник

К

Кирилл in Scrapy
Выше где-то писали сайты с пулом прокси, их больше, они дешевле приватных, но лучше фришных
источник

B

Bulatbulat48 in Scrapy
Sergey Sergey
А можешь посоветовать ротатор с динамическим подключением новых прокси а не из списка?
crawlera попробуйте
источник

SS

Sergey Sergey in Scrapy
Кирилл
И потом добавляешь прокси
Кирилл, а ты используешь scrapyd и веб интерфейсы для регулярного парсинга? И как потом воедино данные со всех серверов собираешь?
источник

К

Кирилл in Scrapy
У фришных большая latency, они забивают очередь и нихрена не будет происходить, только будешь ждать чтоб они тебе ответили что сфейлились
источник

К

Кирилл in Scrapy
Sergey Sergey
Кирилл, а ты используешь scrapyd и веб интерфейсы для регулярного парсинга? И как потом воедино данные со всех серверов собираешь?
Использую, то, что больше под задачу подходит, иногда и scrapyd. Собираю в бд
источник

SS

Sergey Sergey in Scrapy
Кирилл
Использую, то, что больше под задачу подходит, иногда и scrapyd. Собираю в бд
Собираешь в бд на стороннем сервере или на том-де, с которого парсишь?
источник

К

Кирилл in Scrapy
С которого паршу, зачем куда-то еще
источник

SS

Sergey Sergey in Scrapy
Кирилл
С которого паршу, зачем куда-то еще
Ну, когда парсинг идет на нескольких серверах например)
источник

К

Кирилл in Scrapy
Ну,  тут какая задача, то и делаю
источник

SS

Sergey Sergey in Scrapy
Кирилл
Ну,  тут какая задача, то и делаю
Понял, спасибо
источник

К

Кирилл in Scrapy
Разницы особо нет, на локалхост или на remote положить
источник

МС

Михаил Синегубов in Scrapy
люди, пните в верном направлении:
есть куча html страниц с сайта. Надо найти одинаковые блоки, к примеру меню.
Но это надо сделать без явного указания. Все на что меня хватило "как-то" найти одинаковые куски html. Но меня не хватает даже на "как найти одинаковые куски" :). Есть какие варианты?
источник

G

Genadyi in Scrapy
Есть инструмент который правильно даст xpath вытащить?
источник

G

Genadyi in Scrapy
А то самому писать его лень слегка
источник

AR

Andrey Rahmatullin in Scrapy
нет, это творческая задача
источник

G

Genadyi in Scrapy
Принял
источник