Я делал OFDM-систему в пакете MATLAB, все шикарно, есть большой разброс амплитуд ОФДМ-сигнала, но этот разброс не в 4 и не в 6 раз. Сейчас сделал ОБПФ в C# и получил жуткие всплески вначале и в конце ОФМД-символа.
Я подумал сначала, что в этом что-то есть, потому что складываем много сигналов и там при определенных фазах комплексных гармоник может получиться сложение в конкретных точек очень большого числа амплитуд сигналов в фазе, поэтому все может быть... Но! В Матлабе-то я такого еще не видел
Я прошу Вас помочь разобраться с этим явлением. Как избежать такого всплеска? Нажмите для просмотра прикрепленного файла
И заодно хочу спросить элементарную вещь: почему в MATLAB при выполнении ОБПФ длиной 1000 выборок при частоте дискретизации 100 кГц, например, в спектре длиной 1000 выборок появляется лишь одна гармоника 100кГц, а при выполнении ОБПФ на C# получается две гармоники - 100кГц и 900 кГц? С института я понимаю возможность этих двух ситуаций и вспоминаю некоторые математические доказательства, но до меня пока не доходит.
Бонусный вопрос - почему у меня погрешность возникает порядка 10е-6 при восстановлении сигнала?