Помощь - Поиск - Пользователи - Календарь
Полная версия этой страницы: Задержка в адаптере QSFP+ to SFP+
Форум разработчиков электроники ELECTRONIX.ru > Интерфейсы > Форумы по интерфейсам > Fast Ethernet/Gigabit Ethernet/FibreChannel
novartis
Совсем ничего не знаю QSFP+ и SFP+. Поэтому вопросы могут показаться глупымы.

Имеется Дата Центр. Он предоставляет доступ к ресурсам через SFP+.
Хотим купить отладочную плату DE5a-Net Arria 10 FPGA Development Kit от Terasic.
На ней имеется 4 x QSFP+.
Как я понимаю напрямую присоединить ее к сети Дата Центра не получится.
Можно поставить адаптер.
Типа такого Cable Module ETH 10GbE 40Gb/s to 10Gb/s QSFP to SFP+
http://www.mellanoxstore.com/products/mell...sfp-to-sfp.html
У меланокса это единственный адаптер на сайте.
Подойдет он вообще для нас или нет?

В тоже время у маланокса есть кабели Passive Copper Hybrid Cable QSFP to SFP+.
http://www.mellanoxstore.com/categories/ca...sfp-to-sfp.html
Может лучше кабель использовать?

Самый главный вопрос, который мучает, вносит ли адаптер или кабель дополнительную задержку в пересылку данных в сравнении с вариантом, если бы соединяли Дата Центр SFP+ c платой ПЛИС с SFP+ по оптике?
Может кто натыкался на исследования, замеры таких задержек?

prig
Вообще-то, всё надо смотреть в соответствующих разделах стандарта 802.3
Наскольксо я помню, задержки на 10GBASE-R там не специфицируются (когда прилетело, тогда и прилетело).

Другой вопрос, что на пассивных медных кабелях Вам может понадобиться обеспечивать нечто, называемое 10GBASE-CR и т.д.
На ПЛИСе понадобится сгенерить 4 канала. Особых проблем с ними быть не должно. М.б. придётся покрутить настройки трансиверов.
Умеет ли работать с медными кабелями "Дата Центр" - другой вопрос. Скорее всего, должен уметь.

Об активных медных кабелях ничего не скажу. Слышал краем уха, но не более.

Как вариант, можно использовать оптику:
в ПЛИСе для QSFP генерятся 4 канала 10GBASE-SR,
ставится оптический QSFP модуль 40GBASE-SR4(разъём MPO-12),
соединяется кабелем-переходником MPO-12 в 4x2LC (есть варианты на 12 LC)
с SFP+ модулями 10GBASE-SR (разъем LC duplex).
novartis
Спасибо большое за ответ!
Нагуглил, что MPO-12 - это 12 оптических влокон.
А LC это одно оптическое волокно.
4x2LC - это 8 оптических волокон. Так?

А как из 12 волокон информация распределяется на 8 волокон?

prig
Цитата(novartis @ Jun 21 2016, 10:12) *
...А как из 12 волокон информация распределяется на 8 волокон?


4 волокна просто не используются.
novartis
Цитата
в ПЛИСе для QSFP генерятся 4 канала 10GBASE-SR

получаются четыре независимых 10G ethernet канала?


Цитата
соединяется кабелем-переходником MPO-12 в 4x2LC (есть варианты на 12 LC)

Что то не гуглится такое, варианты на 12 LC гуглятся, а в 4x2LC не найду.
prig
Ну да, гуглится не сразу. Сам недавно искал, и тоже пришлось потыкаться. Нашлось, например, вот такое:
MTP/MPO Fiber-Optical Fanout Cables OM3 Multi-Mode 50/125µm, 8 cores, MTP female to 4x LC/PC duplex
С соответствующими 802.3 стыкуется. Должно прокатить.

П.С. Если будете тестить, дайте знать, что получилось. А то мне тоже скоро может такое понадобиться, и примерно в таком же раскладе.
novartis
Ну мы еще не купили DE5a-Net Arria 10.

Я вот все еще не понимаю, если 4 волокна не используются, как 40G распределяется на 4 х 10G без потери пропускной способности?
prig
Цитата(novartis @ Jun 22 2016, 22:33) *
Ну мы еще не купили DE5a-Net Arria 10.

Я вот все еще не понимаю, если 4 волокна не используются, как 40G распределяется на 4 х 10G без потери пропускной способности?


- Ааа... Ещё не факт, что они есть живые, срок поставки может "доставить". Как-то не совсем просто с этими Ариями.
Правда, в "вашей" плате стоит 3-й спидгрейд, м.б. обойдётся без особых заморочек.
Но морально приготовиться к осложнениям при покупке не помешает. Что бы Вам там поставщики сейчас не говорили.

- В 10G одна пара, в 40G - четыре. 4*2=8. 12-4=8. Что не так?
Что бы было совсем спокойно, таки посмотрите соответствующие стандарты 803.3 (и именно версии SR).
Для просмотра полной версии этой страницы, пожалуйста, пройдите по ссылке.
Invision Power Board © 2001-2025 Invision Power Services, Inc.