Помощь - Поиск - Пользователи - Календарь
Полная версия этой страницы: Межпроцессорное взаимодействие через PCI-e
Форум разработчиков электроники ELECTRONIX.ru > Интерфейсы > Форумы по интерфейсам > ISA/PCI/PCI-X/PCI Express
Darel
Доброго времени суток!
Очень необходим ответ на концептуальный вопрос... (стоит ли вообще копать в этом направлении...)
Возможно ли соединение одноплатных одинаковых компьютеров в единую систему посредством PCI-e с осуществлением межпроцессорного взаимодействия?
I.S.A.
Может я и не прав, но сходу вот что скажу:
Нет. Т.к. на шине должен быть один мастер, железо должен инициализировать биос, а их там будет два (и не только их) и на одинаковых адресах. Память тоже общая и кому откуда что брать? А если можно, то должно быть некое устройство сопряжения двух шин, которая команды будет как-то распознавать и перекидывать... Там мне кажется полный пипец.
Tosha
Видимо нужен аналог PCI NON-TRANSPARENT bridge для pci-express, т.е. мост который не транслирует обращения автоматически. Правда в этом случае нужно программная реализация взаимодействия. Не могу подсказать конкретный мост, можно у PLX посмотреть.
broken_false
Очень, однако интересный вопрос!
решение которого даёт суперкомпьютер под столом и за разумную сумму...
В случае двух плат возможно сединение через бридж - но это (почти) не интересно - мало участников
седующе неинтересное решение HIB

А вот дальше то что надо - PCIe коммутатор Host-To-Host
пример:
http://onestopsystems.com/09_17_2007.html
хотелось бы такое-же решение но за разумные средства!
I.S.A.
А почему PCI-e. Есть AMD HyperTransport и процессор Opteron. Все, что необходимо для многопроцессорных систем уже заложено. Плюс, то, что у каждого проца своя память. При колличестве процов больше 2-х, это станет очень даже заметным.
broken_false
В контексте моих исследовай, а меня интересовал производительный линукс кластер с хорошим соотношением цена производительнось лучше - PCIe
он уже распаян и разьём есть на большинстве мATX
Микросхемы коммутаторов PCI-e выпускают несколько компаний весь вопрос в обвязке и драйверах ядра
Другие реешения инфинибанд, FC, гигабит и даже ieee1394 - хуже либо по цене либо по скорости
HyperTransport надо ка-кто вытаскивать из станартнх плат...
I.S.A.
Цитата(broken_false @ Sep 27 2007, 18:18) *
...
коммутаторов PCI-e выпускают несколько компаний весь вопрос в обвязке и драйверах ядра
Другие реешения инфинибанд, FC, гигабит и даже ieee1394 - хуже либо по цене либо по скорости
HyperTransport надо ка-кто вытаскивать из станартнх плат...


Про скорость: http://www.rosinvest.com/news/192205/
Потом HT - это пакетная передача данных от девайса до проца, гибкая.... Я не агетирую ее использовать, но рассмотреть такой вариант считаю правильным.

Есть платы с HTX разъемом ( http://www.amd64.ru/index.php?link=5&addr=8#1801 ) для Opteron и есть отладочные платы на Virtex-4 ( http://www.hypertransport.org/consortium/c...cfm?RecordID=91 , http://www.hypertransport.org/products/pro...cfm?RecordID=75 ).
Да, это выливается в копейку и в геморр, но результат возможно того стоит???
Darel
Спасибо всем откликнувшимся!
Отдельное спасибо broken_false за ссылочку на сайт One Stop System...
К сожалению, когда я писал вопрос, я забыл упомянуть, что предполагаемое к использованию железо не включает произведения Интел или АМД, поэтому НТ отпадает... (Сорри, моя ошибка...).
А вообще, замысел включал в себя кроме межпроцессорного взаимодействия как такового, еще и возможность других камней использовать периферию камня вышедшего из строя - допустим, тот же видеоадаптер...

З.Ы. По поводу суперкомпьютера под столом... я недавно читал небольшую заметку (по-моему, на ixbt, точно не помню...), так там умельцы из одного забугорного института сваяли супер из нескольких мам, посредством гигабитного Ethernet-свича и у них это обошлось где-то в 2,5 тыс. евро (по-моему...)...
blackfin
Цитата(Darel @ Oct 1 2007, 17:07) *
З.Ы. По поводу суперкомпьютера под столом... я недавно читал небольшую заметку (по-моему, на ixbt, точно не помню...), так там умельцы из одного забугорного института сваяли супер из нескольких мам, посредством гигабитного Ethernet-свича и у них это обошлось где-то в 2,5 тыс. евро (по-моему...)...
Так это просто... Windows+COM(в смысле ATL+IDL).
Victor®
Цитата(Tosha @ Sep 26 2007, 11:38) *
Видимо нужен аналог PCI NON-TRANSPARENT bridge для pci-express, т.е. мост который не транслирует обращения автоматически. Правда в этом случае нужно программная реализация взаимодействия. Не могу подсказать конкретный мост, можно у PLX посмотреть.


Немного не так.
Основная проблема заключается в том, что при использовании прозрачного
моста конфигурационные циклы передаются с одной стороны на другую.
В случае 2 хостов - каждый из них попытается просканировать другую сторону,
выделить память и прицепить драйвера.
Non-Transparent мост не передает конфигурационные запросы с одной стороны
на другую, и рассматривается хостами уже не как мост - а как PCI устройства.
Можно провести аналогию с двухпортовой памятью.

По поводу PCIe не подскажу. Работал с PCI-X.
anton
Вроде гдето попадалось упоминание что PCIe поддерживает режим мульти мастер.
Tosha
Есть такой файлик от PLX как раз про непрозрачное межхостовое взаимодействие.
http://plxtech.com/pdf/technical/expressla...entBridging.pdf
Darel
Цитата(Tosha @ Nov 27 2007, 07:41) *
Есть такой файлик от PLX как раз про непрозрачное межхостовое взаимодействие.
http://plxtech.com/pdf/technical/expressla...entBridging.pdf

Спасибо! Двигаюсь в этом направлении...
Для просмотра полной версии этой страницы, пожалуйста, пройдите по ссылке.
Invision Power Board © 2001-2025 Invision Power Services, Inc.