|
|
  |
Вопросы по HFSS |
|
|
|
Oct 24 2013, 16:19
|
Частый гость
 
Группа: Участник
Сообщений: 100
Регистрация: 29-09-09
Пользователь №: 52 652

|
А вы на загрузку процессора при расчете смотрели? У меня правда пиратская версия, может в этом все дело, но галочки HPC pack, use multiprocessing .... стоят, однако суммарная загрузка процессора составлят 12...17% в 4 ядерном процессоре. То ли дело CST, она грузит полностью все реальные ядра, а еще круче Sonnet, там и виртуальные ядра на все 100% загружены. Смысла нету использовать 2 машины, если HFSS одну загрузить не может.
Сообщение отредактировал freeport - Oct 24 2013, 16:27
|
|
|
|
|
Oct 24 2013, 18:21
|
Знающий
   
Группа: Свой
Сообщений: 648
Регистрация: 22-07-05
Пользователь №: 7 016

|
Цитата Считать будет быстрее? Будет, если будете распределять частотный свип, и это будет у вас работать так, что передаются только S parameters, то при правильной конфигурации будет считать быстрее (существенно быстрее если много точек у discrete sweep). С параметрическими задачами, вопросы возникают, если надо сохранять поля и имеется много портов и больше 1 mil tets. Вы можете мговенно оценить нижную границу прокачиваемой по сети информации, посмотрев на размер папки с результати для одной геоментрии. Цитата А вы на загрузку процессора при расчете смотрели? Не смешивайте французское с нижегородским. Если обсуждается загрузка процессоров солвером, то он при правильном задании выбирает и все 16 ядер на ура. Прочитайте про HPC based direct solver, он наиболее быстрый и наиболее полноценно использует все ядра.
|
|
|
|
|
Oct 26 2013, 18:26
|
Знающий
   
Группа: Свой
Сообщений: 648
Регистрация: 22-07-05
Пользователь №: 7 016

|
Цитата у меня как раз много точек дискрет свипа и много-много итераций дискрет свипа работает на ура при неограниченном количестве портов, когда ближние поля не нужны. Учтите только, что меширование происходит только на первой машине , поэтому пока идет меширование остальные компы будут простаивать. Но если много точек дискрит свипа то оверхед не очень большой.
|
|
|
|
|
Oct 27 2013, 15:22
|
Знающий
   
Группа: Свой
Сообщений: 918
Регистрация: 20-09-06
Пользователь №: 20 539

|
Цитата дискрет свипа работает на ура при неограниченном количестве портов, когда ближние поля не нужны. Учтите только, что меширование происходит только на первой машине , поэтому пока идет меширование остальные компы будут простаивать. Но если много точек дискрит свипа то оверхед не очень большой. хорошие новости, спасибо! а в процессе расчета первый комп, после окончания делания сетки, в расчетах будет принимать участие или нет? Цитата Господа, подскажите, как же заставить распределять дискрет свип по машинам в программе? Вопрос о распределенных вычислениях затрагивается не впервые в этой теме. Может стоит сделать небольшой мануал по данной проблеме. Теоретически, если мне все-таки дадут играться компами, то возможно и накропаю отчет, но если есть кто-то кому вот не лениво сесть и сделать туториал для старших прапорщиков, я только за. :-)
|
|
|
|
|
Oct 28 2013, 15:09
|
Знающий
   
Группа: Свой
Сообщений: 648
Регистрация: 22-07-05
Пользователь №: 7 016

|
Цитата тут надо понимать первый комп = первое ядро. Это верно при HPC лицензии. Если есть еще давно купленная лицензия с MP и Distributed Solve (DSO), то первым будет именно первый компьютер, который после меширования можно использовать и для расчета с использованием всех ядер. HPC не смотря на то что существенно дороже, для дискрете свипа менее полезна, чем связка MP и Distributed Solve (DSO), по этой причине Ansys решил прекратить продавать эту связку, раскошеливайтесь официальные пользователи!
|
|
|
|
|
Oct 31 2013, 14:22
|
Знающий
   
Группа: Свой
Сообщений: 918
Регистрация: 20-09-06
Пользователь №: 20 539

|
Цитата(mr_Bond @ Oct 26 2013, 20:43)  Господа, подскажите, как же заставить распределять дискрет свип по машинам в программе? Вопрос о распределенных вычислениях затрагивается не впервые в этой теме. Может стоит сделать небольшой мануал по данной проблеме. Как оказалось все очень просто. 1. Ставим везде RSM и HFSS 2. Запускаем везде Register with RSM из пуска -> программы -> ансис hfss 3. Если что-то пишет не запущено, то запускам вручную службу ансиса RSM из панель управления - администрирование - службы и повторяем шаг 2. 4. Запускаем на одной из машин hfss. 5. В нем tools -> edit distributed machine conf и там создаем список из имен или ИП доступных машин(включаю локальный IP, если на нем тоже надо считать), первой очень желательно ставить САМУЮ быструю 6. В глобальных настройках солвера прописать сколько доступно процов локально и сколько всего по сетке. т.е. я так понял, если доступно 2 компа 4 и 6 ядер, то кол-во распр. процов = 10. имно как-то мутновато, т.е. не совсем понятна логика распределения потоков в процессе счета, как оно определяет кому сколько выдавать, если компов много? не может ли возникнуть ситуация, когда на 4 ядерной машине будет запущено 6 потоков, а на 4-х - 6? 7. Там же выбрать тип лицензии (я выбрал HPC pack и обе галочки под ним вкл.) 8. Проверяем, что решение действительно не банальный local mode, а крутой distibuted и запускаем считалку. 9. Если ошибки типа - не могу связаться с удаленными компами - проверять фаервол. 10. Если все ок - сидим раскладываем пасьянсы, пока не закончит :-) Процесс решения у меня выглядит так: на первом из списка компе запускается расчет начальной сетки и потом итеративно на НЕМ ЖЕ (поэтому я писал, что это комп должен быть мощным) она доводится до ума. Это долго, это точно никак нельзя тоже распараллелить? :-) После того как решение сошлось до необходимой ошибки, начинается дискретный свип - и он полностью параллельный, точки считаются одновременно на ВСЕХ доступных компах (в идеале, если кол-во компов = кол-во точек - общее время счета всего свипа чуть больше времени расчета 1й точки). Вот такой мой опыт. Гуру, можно ли что-то еще улучшить?
|
|
|
|
|
Nov 1 2013, 06:49
|
Местный
  
Группа: Свой
Сообщений: 447
Регистрация: 11-08-11
Из: Россия :-)
Пользователь №: 66 671

|
Цитата(Pir0texnik @ Oct 31 2013, 18:22)  Процесс решения у меня выглядит так: на первом из списка компе запускается расчет начальной сетки и потом итеративно на НЕМ ЖЕ (поэтому я писал, что это комп должен быть мощным) она доводится до ума. Это долго, это точно никак нельзя тоже распараллелить? :-) предлагаю ещё попробавать технологию DDM (ставим галку как нарисунке), плучаем следующее: начальная сетка строится одним процессом, а "доводится до ума" уже распределённо. всем, удачи.
Эскизы прикрепленных изображений
|
|
|
|
|
Nov 1 2013, 11:08
|
Местный
  
Группа: Свой
Сообщений: 447
Регистрация: 11-08-11
Из: Россия :-)
Пользователь №: 66 671

|
Цитата(Pir0texnik @ Nov 1 2013, 11:49)  хелп про DDM говорит, что надо машин больше 3 шт... Я наскреб только 2шт. Так же он не совсем понятно про него говорит, т.к. DDM - это вроде как для больших задач, когда не хватает памяти на одной машине. .На небольшой задаче ДДМ даст эффект? не машины, похоже что несколько ядер (минимум 3). А вот для не больших задач похоже не даст он воспользоваться DDM... сижу разбираюсь... мутно как всё.. предлагаю подключить коллективный разум )
|
|
|
|
|
Nov 1 2013, 13:44
|
Группа: Новичок
Сообщений: 7
Регистрация: 1-11-13
Пользователь №: 79 006

|
такая проблема: моделирую PIF антенну в HFSS и на излучателе надо запилить чип индуктивности 11,5 нГ, но я не представляю как это реализовать в HFSS. никто не подскажет?
|
|
|
|
|
  |
15 чел. читают эту тему (гостей: 15, скрытых пользователей: 0)
Пользователей: 0
|
|
|