Если ты модель не пытаешься обучать, а только инференс делаешь, то, если можель написана не через задницу, на параллельность пофиг.
Если глобальный объект никак не модифицируется в процессе вызова функции, то не важно, глобальный он или локальный.
А большинство ML моделек запрограммированы именно так, что во время инференса никакие их параметры не меняются. Все переменные, которые нужны для инференса, либо являются константами, либо вычисляются внутри функции, делающей предсказание (например, метода forward в pytorch). Так что если ты этот метод вызовешь из нескольких потоков одновременно, в каждом вызове он будет работать со своим собственным контекстом.
Поэтому я бы предложил оставить код как есть и расслабиться.