При "классической" схеме подразумевается, что соотношение времени переключения тредов намного меньше (на порядки) периода системного тика. Поэтому, для уменьшения latency переключение делается при выходе из прерываний и других "интересных" мест. А уменьшение периода системного тика неоправданно из-за получаемого высокого оверхеда.
Кстати, сейчас широко получили распространение так называемые "tickless" системы, где таймер генерирует прерывание не с заранее данным периодом, а "когда нужно"

Конечно, никто "полезную" работу (вычислительную) при таком подходе в обработчике таймера не делает.
Имхо, применять данные механизмы и подобные абстракции (DPC, Thread) на слабом вычислителе нужно очень аккуратно, ибо чаще всего нецелесообразно