|
Samtec)LVDS) ->read DDR3, а вот write DDR3 на стандартный DDR3 коннектор, и наоборот... Хочу готовую плату, или если нет, то хочу разработать |
|
|
|
Jun 24 2016, 13:55
|
вопрошающий
    
Группа: Свой
Сообщений: 1 726
Регистрация: 24-01-11
Пользователь №: 62 436

|
Добрый день,
возможно у меня философский вопрос, не пинайте меня, пожалуйста, за это.
Уже в трех проектах мне надобно было брать поток с оцифровщиков и, минимальными изменениями заводить на PC. Сам PC обычно перекидывал содержимое этого потока на графические карты, а там дикая производительность решала все мои вопросы. При попытке хоть часть алгоритма оставить в FPGA время разработки проекта становилось ужасно ненормально большим. Задачи о которых я горовю - это задачи линейной и мультилинейной алгебры. В FPGA я с 2009, в вычислительной математике с 1990. То есть я четко понимаю, что мне надо:
я хочу поток с одного или нескольких оцифровщиков (а иногда с других компьютеров), положить в пишущий порт памяти, примерно на 1-8ГБ, иметь возможность воткнуть эту память в обычную материнку, чтобы она разпозналась как обычная память, и читать с процессора ее как есть, синхронизацию можно организовать внутри самой памяти, помещая на каждый блок на 4К какую-то синхронизационную информацию.
Аналогично, хочу сделать в обратную сторону, но это не сильно актуально.
Вопросы, скажите, пожалуйста:
1. есть ли уже готовый такой модуль? 2. думаю, что такого модуля нет, правильно ли я понимаю, что такое можно разработать, если всем этим будет управлять какая-нибудь не дорогая плиска, а на входе будет около 60 LVDS пар, работающих на примерно 200-800МГц частоте. Конечно хотелось бы иметь возможность и сердексы подсатвлять, но, наверное это не сразу. 3. сам много писал для плисок, но ни разу не разводил, да и с памятью работал больше гоняя чужие примеры или примеры с мануалов. Скажите, пожалуйста, сколько при сильной мотивации мне надо положить времени на такую разработку и сколько денег на платы и железки, если сам буду стараться по максимуму?
Спасибо
PS: просто реально приспичило, так как оцениваю, что мне таких плат в следующем году может потребоваться около 100, а то, что мы сейчас делаем через Terasic TR4 просто невозможно дальше модернизировать из-за того, что наши заумные алгоритмы плохо ложатся на FPGAшную логику, а количество умножителей в плисках все также стремится к нулю при одинаковой цене с графической картой. Все-таки хочется цену разумную иметь, у нас все-таки не военка с резиновым бюджетом.
ИИВ
|
|
|
|
|
 |
Ответов
|
Jun 25 2016, 20:53
|

ядовитый комментатор
     
Группа: Свой
Сообщений: 2 765
Регистрация: 25-06-11
Пользователь №: 65 887

|
Цитата Но на таком уровне задачу на коленке не решит - попытка приделает звершку к стандартному интерфейсу тянет за собой необходимость соблюдать этот стандарт начиная от электрический параметров и кончая временными и функциональными. То есть куча проблем а что взамен? - с экономим 10-30% пропускной памяти и 10 % CPU ? Думаю тут надо внимательно на системном уровне для начала подумать - прикинуть + и - той или иной реализации с конкретными цифрами. Согласен с этой позицией- разумеется можно пытаться мастерить конструкторы, но хорошо получаться это будет ровно до тех пор пока осознание упущенных выгод (в т.ч в плане денег) от возможного применения кастомного решения не испортит окончательно настроение. Причем заметьте, сделав такую платформу раз можно подрядить ее не только под свои задачи но и продавать другим людям с похожим характером проблем. Цитата из самого большого - сервер с 8-ю бордами H8QG6-F, в каждой по PCIe заходил трафик из своей TR4, буфферизовался на терабайте внутренней памяти и перенаправлялся на АМДшную сдвоенную карту, на которой и проходил основной расчет. Трафик с PCIe от TR4 почти полностью убивал способность 64 наличевствующих обычных ядер хоть что-то посчитать (получалось около 10% от пика, в то время, как без PCIe трафика все разгонялось до 60% от пика). Трафик с GPU всегда можно сделать блочно, поэтому там все было классно, а в TR4 тогда буфферизация на внутренней памяти не была задействована, так как слотов не хватало. Зион + пара гпу на плате + возможно псие свич на рамдиски для длинных буферов - наружу можно выводить через что угодно, от усб 3.0 с тандерболтом заканчивая оптикой. Выйдет дешевле и "дубовее" чем покупная серверная платка + отдельные видеокарты , к тому же легко масштабировать. На всякий случай подмечу, что современные корпуса гпу и цпу спроектированы таким образом чтобы использовать как можно меньшее количество слоев- в 1U запихнуть это добро можно без существенных проблем.
|
|
|
|
Сообщений в этой теме
iiv Samtec)LVDS) ->read DDR3, а вот write DDR3 на стандартный DDR3 коннектор Jun 24 2016, 13:55 RobFPGA Приветствую!
Для начала - каков входной поток... Jun 24 2016, 15:06 iiv Приветствую Вас RobFPGA,
да, понимаю, PCIe, так т... Jun 24 2016, 19:56 RobFPGA Приветствую!
Ну я и имел ввиду двух-портовая ... Jun 24 2016, 21:36 iiv а вообще в идеале чтобы одна и та же планка для вв... Jun 24 2016, 22:12 RobFPGA Приветствую!
Если так то я бы на вашем месте ... Jun 24 2016, 22:56 iiv Да нет же все это шашечки, а мне ехать надо. Сейча... Jun 25 2016, 09:29  RobFPGA Приветствую!
Цитата(iiv @ Jun 25 2016, 1... Jun 25 2016, 11:07   iiv Цитата(RobFPGA @ Jun 25 2016, 17:07) Кака... Jun 25 2016, 14:02    RobFPGA Приветствую!
Цитата(iiv @ Jun 25 2016, 1... Jun 25 2016, 18:54 EvilWrecker Здравствуйте,
Достаточно давно делаю платки для ... Jun 25 2016, 14:09 iiv Цитата(EvilWrecker @ Jun 25 2016, 20:09) ... Jun 25 2016, 14:49 EvilWrecker Цитатанаша фирма с 2008 является официальным консу... Jun 25 2016, 15:35 iiv Цитата(EvilWrecker @ Jun 25 2016, 20:35) ... Jun 25 2016, 19:19  dm.pogrebnoy Цитата(iiv @ Jun 25 2016, 22:19) EDIT: ср... Jun 25 2016, 20:10  RobFPGA Приветствую!
Цитата(iiv @ Jun 25 2016, 2... Jun 25 2016, 21:16   iiv Цитата(RobFPGA @ Jun 26 2016, 02:16) Вы ч... Jun 28 2016, 17:48    RobFPGA Приветствую!
Цитата(iiv @ Jun 28 2016, 2... Jun 28 2016, 22:02 Flood Не пробовали качать данные по PCIe непосредственно... Jun 25 2016, 20:02 RobFPGA Приветствую!
Цитата(Flood @ Jun 25 2016,... Jun 25 2016, 20:47
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0
|
|
|