Цитата(DmitryR @ Jul 25 2008, 11:06)

Я объясню, почему плохо подходят в моем понимании. Обработка сигналов нужна обычно зачем? Сделать коммуникационное устройство...
Э-мм... А Вы в этом уверены?
Цитата(DmitryR @ Jul 25 2008, 11:06)

...То есть, в подавляющем большинстве случаев, микросхему. В оставшихся случаях - мелкосерийное устройство на FPGA. В первом случае FPGA еще используется для прототипирования, чтобы продемонстрировать реализуемость выбранного DSP алгоритма в HDL и потом этот HDL перенести в ASIC.
Ничего не понял.
Стало быть, обработка сигналов нужна для того, чтобы сделать коммуникационное устройство, то есть микросхему, верно?
Цитата(DmitryR @ Jul 25 2008, 11:06)

...В свете вышесказанного попытка применить GPU означает что? Сделать плату, на которой будет этот GPU, его сверхбыстрая память, еще все же будет несложная FPGA, которая будет захватывать данные от источника сигнала (АЦП) и передавать на PCI-E мост (так как PCI-E это единственный интерфейс GPU). Да, BOM этого всего может оказаться дешевле одной большой FPGA, но во что выльется разработка? И естественно, ни о какой серийности говорить не придется. А так стоит один кристалл, получает данные сам, сам считает и сам отправляет дальше. С учетом сложности разработки будет гораздо дешевле GPU. Надо сделать много - выпустили ASIC, он будет стоить еще дешевле.
Не правильно Вы меня поняли.
Я предлагал не разрабатывать устройство с GPU самостоятельно, а использовать уже готовые системы, которые можно купить за умеренные деньги.
Тем более, что "плату" сейчас сделать не представляется возможным - на чипы нет открытых доков.
Цитата(DmitryR @ Jul 25 2008, 11:06)

...Поэтому GPU хороша в одном случае: когда данные надо все равно завести в компьютер и посчитать. Что случается реально нечасто, и даже в этом случае есть экономическая тонкость: сделав приблуду к серийной GPU (плату, которая ваш сигнал заведет в компьютер), вы львиную долю денег отдадите производителю GPU. А сделав плату на FPGA - заработаете эти деньги сами.
Неверно.
Вероятно, Вам следует ознакомиться со спецификацией PCI-E. Для создания полноценной системы обработки/хранения данных из обычного компьютера, который целиком будет дешевле даже одной микросхемы "старшей" FPGA, потребуется только АЦП с тем же интерфейсом - PCI-E, то есть небольшая и сравнительно недорогая в разработке карточка.

Или даже готовый АЦП-шный блок, прикрученный к быстрому интерфейсу, типа HS USB или Ethernet.
Цитата(DmitryR @ Jul 25 2008, 11:06)

...В FPGA могут одновременно использоваться все умножители, что там есть. В свежеобъявленном Stratix-IV 1300 штук максимум, и частота там будет уже повыше, мегагерц до шестисот примерно. В реальных микросхемах, которые можно купить немедленно - около полутысячи или чуть больше.
Это, конечно, серьёзно. Скажите, а КИХ-фильтр с длиной, равной количеству умножителей, работающий на тех же 450 МГц, создать реально?
Без подколки спрашиваю - самому такие штуки делать не доводилось.
Цитата(DmitryR @ Jul 25 2008, 11:06)

...Я вообще не в курсе - я не алгоритмист

. Задачу же не я ставил, я только обсуждаю ее технический аспект. Но по теме - в Virtex-5 умножители 18*25, так что можно данные тащить 25 бит и использовать 18-бит коэффиценты. Или наоборот. Мы расчитывали фильтры длиной 512 - 18*18 бит хватало.
А кто-нибудь этот Virtex-5 живьём видел?
Собственно, вопрос мой был о том, достаточно ли точности в 16 бит для фильтра аж в 7000 тапов? Судя по ответу автора темы, достаточно.

Цитата(yes @ Jul 25 2008, 13:13)

а документация на эти GPU и доступ к ним? или предполагается использовать готовые видеокарты?
мне на будущее хотелось бы понять - насколько реально такое решение
Доков на сами чипы, как я и писал, мало. Но бесплатная среда разработки софта уже появилась, посмотрите здесь:
http://www.nvidia.com/object/cuda_home.html#Ещё полезно почитать форумы Nvidia, там есть ответы на многие вопросы:
http://forums.nvidia.com/index.php?showforum=62Цитата(yes @ Jul 25 2008, 13:13)

...а если свою плату с GPU делать - там наверняка широченная шина памяти, то есть камней надо несколько
если инженеру с зарплатой в несколько к$ придется "хачить" GPU или какие-то драйвера к видеокарте дольше месяца - то неизвестно, что дешевле
Об этом не может быть и речи...