Size: a a a

Сообщество Python Программистов

2021 January 06

K

KarmaBot in Сообщество Python Программистов
Вы увеличили карму Alexander T до 3383.69 (+10.00)
источник

$

$name$ in Сообщество Python Программистов
Alexander T
вэльюэррор
бля, а если её поднимет библиотека?)
Не, лучше свой напишу 😅😅😅
источник

Mb

Mr. bug in Сообщество Python Программистов
def get_anecdote(bot, update):
 receive = requests.get("http://anekdotme.ru/random")
 page = BeautifulSoup(receive.text, "html.parser")
 find = page.select(".anekdot_text")
 for text in find:
   page = (text.getText().strip())
 bot.message.reply_text(page)

Почему не работает?
источник

КБ

Кирилл Баст... in Сообщество Python Программистов
Mr. bug
def get_anecdote(bot, update):
 receive = requests.get("http://anekdotme.ru/random")
 page = BeautifulSoup(receive.text, "html.parser")
 find = page.select(".anekdot_text")
 for text in find:
   page = (text.getText().strip())
 bot.message.reply_text(page)

Почему не работает?
А у тебя парсится без бота этот сайт?
источник

КБ

Кирилл Баст... in Сообщество Python Программистов
Мне кажется ты не так ищешь
источник

Mb

Mr. bug in Сообщество Python Программистов
Кирилл Баст
А у тебя парсится без бота этот сайт?
А как по другому?
Я просто только сегодня разбираю всё это(типа учусь)
источник

КБ

Кирилл Баст... in Сообщество Python Программистов
Mr. bug
А как по другому?
Я просто только сегодня разбираю всё это(типа учусь)
Так у тебя без бота получается это сделать?
источник

Mb

Mr. bug in Сообщество Python Программистов
Кирилл Баст
Так у тебя без бота получается это сделать?
Нет, не получается
источник

КБ

Кирилл Баст... in Сообщество Python Программистов
Mr. bug
Нет, не получается
Значит дело в том что ты не правильно парсишь
источник

КБ

Кирилл Баст... in Сообщество Python Программистов
Посмотри уроки по парсингу
источник

КБ

Кирилл Баст... in Сообщество Python Программистов
Как искать элемент в коде страницы и т.д
источник

КБ

Кирилл Баст... in Сообщество Python Программистов
Еще учитывай что твой сайт может быть защищен антипарсингом, и все может быть не так легко
источник

Mb

Mr. bug in Сообщество Python Программистов
Кирилл Баст
Посмотри уроки по парсингу
import requests
from bs4 import BeautifulSoup

url = 'https://quotes.toscrape.com/'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'lxml')
quotes = soup.find_all('span', class_='text')

for quote in quotes:
   print(quote.text)
источник

Mb

Mr. bug in Сообщество Python Программистов
Mr. bug
import requests
from bs4 import BeautifulSoup

url = 'https://quotes.toscrape.com/'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'lxml')
quotes = soup.find_all('span', class_='text')

for quote in quotes:
   print(quote.text)
Вот так получается - но я не знаю как в бот это вписать
источник

КБ

Кирилл Баст... in Сообщество Python Программистов
Mr. bug
import requests
from bs4 import BeautifulSoup

url = 'https://quotes.toscrape.com/'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'lxml')
quotes = soup.find_all('span', class_='text')

for quote in quotes:
   print(quote.text)
Вот так и нужно
источник

Mb

Mr. bug in Сообщество Python Программистов
Mr. bug
def get_anecdote(bot, update):
 receive = requests.get("http://anekdotme.ru/random")
 page = BeautifulSoup(receive.text, "html.parser")
 find = page.select(".anekdot_text")
 for text in find:
   page = (text.getText().strip())
 bot.message.reply_text(page)

Почему не работает?
А это я нашёл в инете, там не получается
источник

Mb

Mr. bug in Сообщество Python Программистов
Кирилл Баст
Вот так и нужно
А как в бот вписать?)
Вот в чём проблема у меня
источник

Mb

Mr. bug in Сообщество Python Программистов
источник

КБ

Кирилл Баст... in Сообщество Python Программистов
Mr. bug
А как в бот вписать?)
Вот в чём проблема у меня
Вот здесь хз, за ботов не шарю
источник

Mb

Mr. bug in Сообщество Python Программистов
Mr. bug
import requests
from bs4 import BeautifulSoup

url = 'https://quotes.toscrape.com/'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'lxml')
quotes = soup.find_all('span', class_='text')

for quote in quotes:
   print(quote.text)
Тогда вопрос такой, как это вписать в бота?
Тем кто знает)
источник