Помощь - Поиск - Пользователи - Календарь
Полная версия этой страницы: Non-transparent bridge (NTB) встроенный в xeon e5
Форум разработчиков электроники ELECTRONIX.ru > Интерфейсы > Форумы по интерфейсам > ISA/PCI/PCI-X/PCI Express
valmon
Камрады, помогите решить задачу.
Есть возможность вдохновить вторую жизнь пачке старенького железа, объединив попарно скоростным интерконнектом, с различными hba не вариант, на каждой железке только одно место под установку через ризер одной карты, которое уже занято, но под ней есть пачка pci-e слотов. Собственно, появилась мысль соединить попарно шины pci-e между железками гибкой платой.
Так как соединяем U образной перемычкой, то все получается идеально, side-a приходиn в side-b и наоборот, но что делать с clock, да и вообще, возможен ли вот такой пассивный коннект?
Материалы по теме NTB в XEON
http://download.intel.com/design/intarch/papers/323328.pdf
https://github.com/jonmason/ntb/wiki
krux
NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.
и нужен он там для горячего резервирования двух компов, работающих с дисками.

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.
valmon
Цитата(krux @ Nov 9 2016, 10:48) *
NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.
и нужен он там для горячего резервирования двух компов, работающих с дисками.

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

А разве SBB не использует DMA? И что не так с со скоростью?
valmon
Цитата(krux @ Nov 9 2016, 10:48) *
NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.
и нужен он там для горячего резервирования двух компов, работающих с дисками.

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

Да и если я не чего не путаю, наличие вот этого
Код
#include <linux/dma-mapping.h>

Означает что дма он всетаки использует.
Для просмотра полной версии этой страницы, пожалуйста, пройдите по ссылке.
Invision Power Board © 2001-2025 Invision Power Services, Inc.