Поясню немного. В NLP сейчас эйфория по поводу того, что некоторые задачи можно решить на нейросетях, вообще не вдаваясь в лингвистику и методы анализа текстов как таковые. Народ бросился использовать готовые средства. На питоне есть несколько библиотек, где думать о применении не надо. Но и расширить их, мягко говоря, сложно. В джулийном варианте, вроде бы по ключевым моментам современного NLP всё есть, а вот в деталях - масса недоделок. Полностью готовым не заиспользуешь
Было бы хорошо наверное сделать какой-то гибридный подход: всё, что сейчас легко делать на Julia делать на ней (типа подготовки данных), а куски которые сейчас сложно переносятся делать через вызовы python библиотек. Если иметь рабочий пайплайн, в котором задача решена от начала до конца, то можно постепенно убирать питоновские куски.
Но чтобы такое сделать, нужен опыт в решении задач, то есть понимать, что у неё начало, что у неё конец. Если вы всё это знаете и умеете, то вопросов нет, вам тогда и в самом деле никто кроме разработчиков не нужен. Если же есть какие-то сомнения по поводу практических задач, то тогда нет ничего плохого в том, чтобы консультироваться с теми, кто не занимается непосредственной разработкой, но могут на верхнем уровне сказать чего хватает, а чего нет.