Size: a a a

Data Science Chat

2021 September 04

М

Манкурт Кобейн... in Data Science Chat
Речь о рецептивном поле?
На что именно смотреть?
источник

RN

Roman Nm in Data Science Chat
Как я понимаю, рецептивное поле - это поле именно на первоначальном изображении. Я имею в виду аналог этого понятия, но именно на предыдущем слое (или через один - в случае двух последовательных свёрток)
источник

М

Манкурт Кобейн... in Data Science Chat
А, карта признаков получившаяся?
источник

RN

Roman Nm in Data Science Chat
Нет, карта признаков это вообще не о том
источник

М

Манкурт Кобейн... in Data Science Chat
Тогда речь о ядре свёртки?.. Я вас не понимаю
источник

М

Манкурт Кобейн... in Data Science Chat
Что за "зона влияния"?
источник

RN

Roman Nm in Data Science Chat
Какие пикселы из предыдущего слоя влияют на следующий
источник

М

Манкурт Кобейн... in Data Science Chat
Мне хорошее пояснение дали в соседнем чате, вдруг пригодится кому
источник

S

Somebody in Data Science Chat
Херню сказали, не в том был прикол
источник

I

Ilya in Data Science Chat
Привет, кто-нибудь пробовал несколько тетрадей на коллабе запускать ?
Это все происходит на одном gpu с соответствующим замедлением каждой из тренировок или на нескольких ?
И если пробовали то, сколько, мне бы 2-3 не помешало бы.
источник

М

Манкурт Кобейн... in Data Science Chat
В смысле?
источник

S

Somebody in Data Science Chat
Прикол был не в рецептивном поле
источник
2021 September 05

М

Манкурт Кобейн... in Data Science Chat
Это мы ещё с @rio_man  выяснили.
Не понял только, почему вы пишите "херню сказали" в ответ на сообщение, в котором ни слова про рецептивное поле
источник

S

Somebody in Data Science Chat
Хорошо, не рецептивная область, дело было и не в том,  что в обоих случаях получается квадратик 2х2
Кстати, к слову, в сети подразумеваются паддинги
источник

М

Манкурт Кобейн... in Data Science Chat
Так а в чём же? Вы об экономии озу?

Про наличие паддингов знаю
источник

S

Somebody in Data Science Chat
Я не помню точно. Прикол был в том, что 5×5=25>18=3×3×2
Там каким-то образом можно было из 2 ядер 3х3 получить в точности такое же, как 5х5, но не в общем случае, а для какого-то класса ядер
источник

S

Somebody in Data Science Chat
"Тензоры" 2х2 можно получать и несколькими свертками 2х2, даже меньше  тепеней свободы получится: 2х2х3
источник

М

Манкурт Кобейн... in Data Science Chat
Ну дык. Вы и пишите, что количество признаков с ядром свёртки 5х5 больше, чем с двумя ядрами 3х3. Так по оперативке выгоднее выходит. У меня не по этому поводу вопрос был, но спасибо, что поучаствовали в обсуждении
источник

S

Somebody in Data Science Chat
А я и не о том писал
источник

S

Somebody in Data Science Chat
Точнее не только о том
источник