реклама на сайте
подробности

 
 
> Изменение длительности сигнала при смещении частоты
vutang
сообщение Aug 23 2011, 06:59
Сообщение #1


Участник
*

Группа: Участник
Сообщений: 42
Регистрация: 10-12-09
Из: Томск
Пользователь №: 54 174



Допустим следующую ситуацию. На приемной стороне мы ожидаем 2 OFDM сигнала (с одинаковыми CDMA кодами) длительностью Тс каждый (передаются последовательно друг за другом без временных интервалов между ними). Частота гетеродина в передатчике изменилась на некоторую величину. При изменении частоты несущей (уменьшении/увеличении), по идее должна изменяться (увеличиваться/уменьшаться) длительность передаваемого сигнала (Тс+/-Тсм). Приемник постоянно производит расчет корреляционной фун-ции опорного сигнала с принятым. Допустим сигнал обнаружен по пику корреляционной ф-ции, после этого мы формируем выборку длительностью 2*Тс, а на самом деле пара сигналов будет длительностью 2*Тс+/-2*Тсм. Если бы длительность не изменялась, а менялась только фаза, за счет смещения частоты, то после формирования выборки можно произвести расчет взаимной корреляционной ф-ции между опорным и первым принятым или между двумя принятыми сигналами, в пике которой мы смотрим соотношение мнимой и действительной части и затем можем вычислить смещение по частоте, как f=atan(Im/Re)/2*pi*Tс.
Но, что произойдет если длительность сигнала изменится на случайную величину...как это может повлиять на оценку частоты и на вид корреляционной функции...непонятно. Может я ошибаюсь и все будет совершенно не так. Поделитесь знаниями, кто может.
Go to the top of the page
 
+Quote Post



Reply to this topicStart new topic
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0

 


RSS Текстовая версия Сейчас: 21st July 2025 - 09:34
Рейтинг@Mail.ru


Страница сгенерированна за 0.01362 секунд с 7
ELECTRONIX ©2004-2016