Size: a a a

2021 November 13

D

D̸̓̽͠ ̧̩̗̗̹͕͎͎̪͚́͛̓̀... in Python
) понял и уже сам сделал😁
источник

EE

Egor Egorov in Python
объясни нам, что имел в виду, тренируй формулировку задач))
источник

D

D̸̓̽͠ ̧̩̗̗̹͕͎͎̪͚́͛̓̀... in Python
points = [[1, 1], [1, 2], [1, 3], [2, 2], [2, 3], [3, 3]]
xs = set([x[0] for x in points])
ys = set([x[1] for x in points])
output1 = []
output2 = []
for i in xs:
   points1 = list(filter(lambda x: x[0] == i, points))
   output1.append(points1)
for i in ys:
   points2 = list(filter(lambda x: x[1] == i, points))
   output2.append(points2)
print(output1)
print(output2)
источник

D

D̸̓̽͠ ̧̩̗̗̹͕͎͎̪͚́͛̓̀... in Python
[[[1, 1], [1, 2], [1, 3]], [[2, 2], [2, 3]], [[3, 3]]]
[[[1, 1]], [[1, 2], [2, 2]], [[1, 3], [2, 3], [3, 3]]]
источник

D

D̸̓̽͠ ̧̩̗̗̹͕͎͎̪͚́͛̓̀... in Python
вот какой результат
источник

D

D̸̓̽͠ ̧̩̗̗̹͕͎͎̪͚́͛̓̀... in Python
код костыль но работает😂
источник

EE

Egor Egorov in Python
главное что решил проблему)
источник

DK

Dima K in Python
Раз в десять медленнее примера что выше кинули (правда не знаю решает ли оно одну и ту же задачу, я тупо в timeit вкинул)
источник

V

Vic in Python
тут не запрещено вакансии постить на работу по Питону?
источник

T

Tishka17 in Python
Ну открой правила, а
источник

T

Tishka17 in Python
first = {}
second = {}
for point in points:
  first.setdefault(point[0], []).append(point)
  second.setdefault(point[1], []).append(point)
источник

DK

Dima K in Python
В 3 раза медленнее первого варианта
источник

D

Danya in Python
Если важен перф, стоит ли вообще на питоне писать..
источник

T

Tishka17 in Python
Первый вариант делает что-то другое
источник

V

Vic in Python
Нам на проект требуется питонист, который напишет парсеры данных с сайтов.
Парсеров нужно много, сегодня 5 разных сайтов(это в основном англоязычные форумы), если успешно и оперативно справитесь дадим еще, всего их более 20ти нужно.
Стоимость: за каждый сайт 5тр. Оплата 50 на 50 за каждый по очереди.
Стек: любая либа типа scrapy, может понадобится  selenium если сайт хитрый, но как правило на форумах нет подгрузки яваскрипта.
Результат: набор данных в csv и сам код парсера с инструкцией по запуску(достаточно такой: запусти py и он начнет).
Срок: ожидаю, что на каждый парсер уйдет не более 1 дня, а лучше по 2-3 в день делать. Данных на сайтах много, они могут качаться 1-2-3 часов, объем может быть большим, например 500мб. спарсить надо прям всю историю форума.

Пишите сюда @Vic_Ai_Blockchain и сразу опыт свой

#работа #удаленка
источник

g(

git commit suicide (... in Python
Удачи с таким бюджетом кого-то найти
источник

1K

1 Kosov in Python
в целом согласен по 200к на парсер
источник

g(

git commit suicide (... in Python
AI blockchain парсинг форумов
источник

DK

Dima K in Python
Для студентов норм, там ведь работы мало и наверное это одноразовая акция. Хотя да, я бы не взялся за такое
источник

1K

1 Kosov in Python
да нихера там не мало работы
источник