В OFDM-сигнале поднесущие ортогональны между собой. Это означает, что интеграл от их произведения равен 0.
Моделирую следующим образом, но небольшая погрешность остается, и не могу точно определиться:
Код
n = 1:100000;
t = n*0.0001;
f1 = 100;
f2 = 160;
s1 = cos(2*pi*f1*t);
s2 = cos(2*pi*f2*t);
plot(s1);
hold on;
plot(s2);
sm = s1.*s2;
ss = sum(sm);
t = n*0.0001;
f1 = 100;
f2 = 160;
s1 = cos(2*pi*f1*t);
s2 = cos(2*pi*f2*t);
plot(s1);
hold on;
plot(s2);
sm = s1.*s2;
ss = sum(sm);
Разве две гармоники все время ортогональны между собой? Как это правильно доказать? Потому что помню из учебника Баскакова, что либо во временной области должен быть правильный разнос, либо в частотной... Но вроде же ортогональны только синус и косинус? Одной частоты. Просто правильно подобран временной сдвиг.
А в итоге получилось, что мне доказывали недавно, что разнос между поднесущими частотами в OFDM-сигнале не может быть любым, и что он зависит в том числе от длины информационного символа в поднесущей частоте. Вернее пытались доказать, но я так и не понял. Я даже на практике когда генерировал все поднесущие частоты, мог задать любую частоту дискретизации, получая тем самым любую полосу сигнала и любой частотный разнос. По кабелю, вроде, все ок передавалось. Можете уточнить ситуацию?
И вот так то, вроде, когда на отрезке укладывается нецелое число периодов гармонических сигналов, то эти сигналы неортогональны. Но я так понимаю, что обычно это не учитывается при генерации и приеме OFDM-сигнала? Там же типичная ситуация, вроде, когда в одном OFDM-символе укладывается нецелое число периодов сигнала. Или обязательно учитывается?