Цитата(yes @ Nov 2 2016, 11:15)

извиняюсь за офтоп, ну хотелось оценить, если ли какие-то альтернативы imx-у (чтобы индустриальная или еще лучше температура, доступная документация и т.д.) - больше не буду

Пятый эксинос его по вычислительной части как тузик грелку сделает, я на hardkernel.com года три назад купил платку с 5-ым эксиносом, так там на основном процессоре 8ГФлоп на раз на двойной точности и на графической карте 70ГФлоп на одинарной получалось... Такие характеристики пока только лаптопы-десктопы могут обогнать. Но сколько же я трахался, чтобы туда хотя бы лапак поставить!!! Да и ввод-вывод там кривой, если по USB - то все классно, а так - все висит, когда обменивается, так как не было разумных библиотек для обмена с слабых процессорах и счета на сильных процессорах. Вроде сейчас это стало появляться, но мне уже стало не актуально.
Цитата(yes @ Nov 2 2016, 11:15)

я за imx не агитирую - просто обращаю внимание, что по сети ходит фейковый документ ( с сахары или еще какой помойки), где по fp imx проигрывает атому то ли в 50, то ли в 20 раз - так там авторы компилили для арма с soft-float - то есть с софтверной эмуляцией плавучки
нужно брать тулзы linaro-**eabihf (hf==hard float)
это ежу понятно. Ну или взять imx233 который без хардверной плавающей точки, там вообще 2-3мегафлопса получается

Цитата(yes @ Nov 2 2016, 11:15)

и еще интересно - почему для АРМа протестировать плату сложнее, чем для АТОМа? ведь и там и там Линукс, и там и там кросс-компиляторы - какая разница?
мне не шашечки, а ехать надо, да и платы с памятью разводить времени нет. Я не тестируюсь, а гоняю свои решалки. Они сильно завязаны на библиотеки LAPACK и BLAS, да и FFT часто тоже нужно. Если компилить как есть, производительность почти всегда никудышная, но есть куча специализированных версий BLAS, как то OpenBLAS или ATLAS, которые очень хорошо разгоняются. Я и сам когда-то участвовал в написании бласов, для Крей Ресеча и для Нвидии, но наша фирма не потянула борьбу с Донгаррой и сейчас я - больше пользователь таких библиотек, а не их писатель. На x86 архитектуру этих библиотек завались, а вот на армы эти библиотеки реально криво собраны. Попытка пересобрать обычно приводит к многодневным танцам с бубном, ну, или потерей в 20-30 раз производительности.
Разница в оптимизированной и не оптимизированной библиотеке в том, что большая часть вычислительной линейной алгебры - это операции похожие на dgemm, то есть умножение двух матриц, где объем участвующих данных по порядку меньше, чем выполняемое число умножений и сложений.
Чтобы библиотеку соптимизировать, надо разбивать задачу на подблоки, чтобы все локально вычисляемое лежало в кеше процессора, тогда медленная скорость доступа к памяти не будет заметна на фоне быстрых вычислений. Это очень актуально на быстрых многоядерных процессорах, так как, например, у меня на графической карте 1ТФлоп на двойной, но только 256ГБ/с=32ГСлова/с скорость доступа, то же самое с процессорами - на моем десктопе около 100ГФлоп/с, но он прокачивает около 18ГБ/с=2ГСлова/с данных. На одинарной точности все становится еще плачевнее и даже в два раза меньшая длина слова не спасает.
На Intel Edison то, что я увидел: 0.8ГФлоп/с на двойной, 3ГВ/с=0.4ГСлова/с, то есть процессор только в 2 раза быстрее памяти и оптимизация несказанно проще достигается. На Intel Joule картина должна быть похуже. Но, самое главное, это архитектура, на которой уже такие толпы людей ставили лапаки, что там все просто и очень предсказуемо. Не забываем, что лапак пользуется в матлабе и их клонах, а также практически во всех газодинамических и электромагнитных решалках, которых, на современных персональных компьютерах, включая Атом-архитектуру, просто завались.
ЗЫ: с индустриальным диапазоном - вы конечно правы, но я решил эту задачу по зверски - заставив пользователя принудительно охлаждать аппарат, подключая водяной радиатор.