Size: a a a

2020 March 23

СТ

Семён Трояновский in Scrapy
Не слушай ну там в хэдерс всякая полезная инфа для сайта
источник

СТ

Семён Трояновский in Scrapy
Типа user agent и так далее
источник

СТ

Семён Трояновский in Scrapy
Он нужен чтобы правильно сыммитировать запрос
источник

🎅B

🎅 Austin Bluethy in Scrapy
Да, но в моем случае это не нужно. Так то да, этр довольна важная инфа
источник

СТ

Семён Трояновский in Scrapy
Ну конкретно в твоём случае, если это просто один раз один сайт, можно было даже и паука не писать )
источник

СТ

Семён Трояновский in Scrapy
Просто открыть полную ссылку запроса и вручную сохранить json))
источник

🎅B

🎅 Austin Bluethy in Scrapy
Да, это я уже понял. Просто изначально я даже не знал, что сайт работает на JS. Я думал, что это защита от парсинга
источник

МС

Михаил Синегубов in Scrapy
ребят, вы ...лять о чем тут перетираете, в какие, нафиг, файлы и хидеры?
# -*- coding: utf-8 -*-
import scrapy
import json


class ParserSpider(scrapy.Spider):
   name = 'corona_parser'
   start_urls = ['https://coronavirus.zone/data.json']

   def parse(self, response):
       raw_data = response.text
       data = json.loads(raw_data)
       for rec in data:
           yield {
               'region': rec['region'],
               'cases': rec['cases'],
               'deaths': rec['death']
           }
источник

🎅B

🎅 Austin Bluethy in Scrapy
🎅 Austin Bluethy
Мне нужен цикл
Да, уже пробовал
источник

МС

Михаил Синегубов in Scrapy
все нормально работает, без никаких извращений,
и да, там на самом деле response.text
источник

МС

Михаил Синегубов in Scrapy
🎅 Austin Bluethy
Да, уже пробовал
так в чем вопрос?
источник

🎅B

🎅 Austin Bluethy in Scrapy
Уже не в чем. Все решили. Спаисбо
источник

СТ

Семён Трояновский in Scrapy
Михаил Синегубов
ребят, вы ...лять о чем тут перетираете, в какие, нафиг, файлы и хидеры?
# -*- coding: utf-8 -*-
import scrapy
import json


class ParserSpider(scrapy.Spider):
   name = 'corona_parser'
   start_urls = ['https://coronavirus.zone/data.json']

   def parse(self, response):
       raw_data = response.text
       data = json.loads(raw_data)
       for rec in data:
           yield {
               'region': rec['region'],
               'cases': rec['cases'],
               'deaths': rec['death']
           }
ну моя идея была в том что зачем пересобирать циклом json если он итак уже идёт нормальный
источник

СТ

Семён Трояновский in Scrapy
Просто пересохранить его и все
источник

МС

Михаил Синегубов in Scrapy
Семён Трояновский
Просто пересохранить его и все
1. Зачем сохранять
2. Зачем тогда скрапи
3. На самом деле, можно и сайта JS'ом таскать, не думаю, что такая уж дикая нагрузка добавится
источник

СТ

Семён Трояновский in Scrapy
Михаил Синегубов
1. Зачем сохранять
2. Зачем тогда скрапи
3. На самом деле, можно и сайта JS'ом таскать, не думаю, что такая уж дикая нагрузка добавится
Ну в общем да, конкретно в этом случае можно и просто сохранить вручную )
источник

МС

Михаил Синегубов in Scrapy
Семён Трояновский
Ну в общем да, конкретно в этом случае можно и просто сохранить вручную )
можно то, что Остину (или как его там) нужно, а все остальное, нафиг никому не впилось
(сорян, утро понедельника, во мне сейчас 100500 Зартов сидят 😂)
источник

СТ

Семён Трояновский in Scrapy
Да, все ок ) я сам ещё начинаю только изучать, не в курсе всех сертифицированных практик, ну вроде у него получилось все и отлично )
источник

S

Sergey in Scrapy
Михаил Синегубов
можно то, что Остину (или как его там) нужно, а все остальное, нафиг никому не впилось
(сорян, утро понедельника, во мне сейчас 100500 Зартов сидят 😂)
😂
источник

СТ

Семён Трояновский in Scrapy
Михаил Синегубов
все нормально работает, без никаких извращений,
и да, там на самом деле response.text
подскажи плз, если допустим у меня задача собирать json'ы такими как они есть, то есть их структура и контент меня вполне устраивают, но их много и нужно чтобы они парсились с некоторой периодичностью, при таких вводных данных идея написать кастомный пайплайн на сохранение item в json адекватна или это тоже будет извращение?)
источник