Size: a a a

2020 October 21

D

Dr. Bot in Scrapy
i
а нельзя как-то превысить бесплатные лимиты и попасть на бабки?
только по трафику. что очень вряд ли. если ты не будешь скачивать ГБ файлов
источник

i

i in Scrapy
а есть какие-то настройки, чтобы оно само мне условный "кабель" отрубило на превышении?
источник

D

Dr. Bot in Scrapy
да. там есть страница Биллинг или как-то так. можно алерт настроить и вроде можно настроить чтобы вырубило при превышении лимита
источник

i

i in Scrapy
тогда клево
источник

i

i in Scrapy
надо будет поковырять попробовать. интересно, если использовать aws для парсинга амазона, амазон с этого не офигеет ли)
источник

i

i in Scrapy
типа, пристрелил сам себя))
источник

D

Dr. Bot in Scrapy
так амазон вроде даже рекомендуют с aws парсить. ибо айпи в белом листе )
источник

ЛГ

Лев Гареев in Scrapy
решил проблему запустив парсер через впн
источник

ЛГ

Лев Гареев in Scrapy
потом разберусь с прокси, все-равно спасибо вам. тут очень приятное и отзывчивое комьюнити
источник

A

Andrii in Scrapy
i
типа, пристрелил сам себя))
кстати на люминати у тебя только дата центр айпи?
источник

A

Andrii in Scrapy
они такие себе :(
источник

OS

Oleg Shleiko in Scrapy
Dr. Bot
https://youtu.be/hc5_FvnInnc ну вот фирма юзает скрапи в промышленных масштабах. юзают aws, посмотри видео. мож будет полезно.
на самом деле не очень полезное видео
источник

ЛГ

Лев Гареев in Scrapy
Правильно ли я понял, что берется итем из списка этого, по нему исполняется весь парсинг и если там цикл действий кончается, то уже потом берется след итем из этого списка и тд.?
 start_urls = ['https://de.bizin.eu/rus/cat/oborudovanie#.X474I9AzaUl']
источник

МС

Михаил Синегубов... in Scrapy
Лев Гареев
Правильно ли я понял, что берется итем из списка этого, по нему исполняется весь парсинг и если там цикл действий кончается, то уже потом берется след итем из этого списка и тд.?
 start_urls = ['https://de.bizin.eu/rus/cat/oborudovanie#.X474I9AzaUl']
от просто подумай, у меня сейчас не очень хорошее настроение, и, теперь, пересмотри свое сообщение и сделай так, что бы ни я ни кто другой не психовал
источник

ЛГ

Лев Гареев in Scrapy
Михаил Синегубов
от просто подумай, у меня сейчас не очень хорошее настроение, и, теперь, пересмотри свое сообщение и сделай так, что бы ни я ни кто другой не психовал
"у меня сейчас не очень хорошее настроение" - почему посторонний человек должен думать о твоем настроении? его можно просто игнорировать, если что-то не так сказано, написано. Мое право высказать вопрос, твое право ответить, проигнорировать. Мир не так устроен?)
источник

ЛГ

Лев Гареев in Scrapy
Михаил Синегубов
от просто подумай, у меня сейчас не очень хорошее настроение, и, теперь, пересмотри свое сообщение и сделай так, что бы ни я ни кто другой не психовал
В описании канала правил оформления постов я не нашел, если дело в коде, я не думал строку запихивать в кавычки, если это константа - без проблем
источник

МС

Михаил Синегубов... in Scrapy
Лев Гареев
"у меня сейчас не очень хорошее настроение" - почему посторонний человек должен думать о твоем настроении? его можно просто игнорировать, если что-то не так сказано, написано. Мое право высказать вопрос, твое право ответить, проигнорировать. Мир не так устроен?)
тогда поставь себя на место другого человека, и подумай, нахрена ему пялиться в скрин, в котором одна строчка кода?
источник

ЛГ

Лев Гареев in Scrapy
Михаил Синегубов
тогда поставь себя на место другого человека, и подумай, нахрена ему пялиться в скрин, в котором одна строчка кода?
тут проебался, прошу прощения, привычка дурная :)
источник

ЛГ

Лев Гареев in Scrapy
   start_urls = ['https://de.bizin.eu/rus/cat/oborudovanie#.X474I9AzaUl']
источник

МС

Михаил Синегубов... in Scrapy
Лев Гареев
тут проебался, прошу прощения, привычка дурная :)
отучайся, это я еще вчера не бухтел насчет твоих простынок с кодом 🤬
вооо, исправляешься

собтвенно по сабжу - там после start_urls идет дичайшая каша из приоритетов, времени ответа сервера, новых реквестов и прочей хрени.

но, если подходить в общих чертах, то да. К примеру. если у тебя 100 стартовых запросов и настройка в 20 конкурирующих, то возьмутся первые 20, полностью обработаются, и только потом возьмутся следующие. По крайней мере у меня такая ситуация была. Но там был идеал, пара доп реквестов и сайт шустрый был
источник