реклама на сайте
подробности

 
 
> Делал OFDM Matlab, сейчас на C# сильно большой пик-фактор
lennen
сообщение Oct 15 2015, 09:22
Сообщение #1


Местный
***

Группа: Свой
Сообщений: 227
Регистрация: 1-10-15
Из: Москва
Пользователь №: 88 647



Я на MATLAB сделал OFDM-модем раньше, и все супер. Скрин работы программы.
Прикрепленное изображение
Здесь использован метод уменьшения пиковой мощности (ПАПР), поэтому уровень сигнала во временной области находится около 2 В, сильно не изменяется. Если убрать галочку TR, то уровень может меняться от 2 В до 4 В, например, но не более того. С этим я очень хорошо разбирался, но, однако, в алгоритмы формирования OFDM-символа в частотной области сильно не лазил, были готовые решения, принцип работы которых как будто был полностью понятен. Сейчас оказалось, что у меня небольшой нежданчик в теории.
Вот программа, которую я сейчас пишу на C#, просто ОБПФ от спектра, а затем БПФ для возвращения к частотной области:
Прикрепленное изображение
Посмотрите, имеется множество всплесков, амплитуда которых больше уровня 20 в 4 раза. Я думаю, у меня неортогональные несущие, но я не понимаю, почему у меня так.

Я вспомнил про сумму синусоид, что мы это строили в универе, и "суммировал" меньшее количество гармоник. Смотрите рисунок:
Прикрепленное изображение
Это же классика, если складываются 4 колебания, как в данном случае, то в суммарном сигнале имеются всплески.

Но тогда вернемся к OFDM - там же нет таких всплесков. Поэтому к вам вопрос, как мне изменить мою программу, что поменять в коде этой программы, чтобы не было наблюдаемых громадных всплесков амплитуды ОФДМ-сигнала?
Go to the top of the page
 
+Quote Post



Reply to this topicStart new topic
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0

 


RSS Текстовая версия Сейчас: 19th June 2025 - 20:35
Рейтинг@Mail.ru


Страница сгенерированна за 0.01375 секунд с 7
ELECTRONIX ©2004-2016