Re: Linux and FreeBSD

From
Constantin Stefanov (2:5020/400)
To
Slawa Olhovchenkov (2:5054/37.63)
Date
2005-05-31T12:50:56Z
Area
RU.UNIX.BSD
From: Constantin Stefanov <cstef@mail.ru>

Slawa Olhovchenkov wrote:
>  >> А это не учитывается?
>  CS> А такие скачки просто нельзя учесть. Ведь прикладную программу пишут на
>  CS> уровне выше ethernet - обычно MPI. Там еще оверхеда накрутят (сначала
>  CS> сам MPI, потом TCP, IP, и только потом ethernet). И какой будет размер
>  CS> этих заголовков, зависит как минимум от реализации MPI, а она не
>  CS> единственная. Вот и получится, что такие провалы учесть просто нельзя.
> 
> Да ладно, насколько я издали вижу этих расчетчиков -- они учитывают и
> выравнивание на параграф и попадание в кэши. Условная компиляция на оптимальный
> размер пакета не такая и сложная вещь на этом фоне.
Нет, кончено, не очень сложная. Но: выравнивание на размер параграфа и 
т.п. определяется кодом самой расчетной системы. А оверхед в пакетах 
определяется той реализацией MPI, с которой задачу будет линковать 
конечный пользователь. А в момент написания программы (да и компиляции 
порой) версия этой библиотеки просто неизвестна. А если даже 
пользователь и будет компилировать программу, в стандарте MPI на 
заложено механизма получения такой информации.

>  CS> Итого. Использование другого интерконнекта дает вполне себе ощутимый
>  CS> рост эффективности вычислительной установки (до 20%), особенно заметный
>  CS> на больших установках. Это при том, что модельная задача имеет неплохие
>  CS> коммуникационные свойства.
>  CS> Вот тебе и первое приближение ответа.
> 
> Теперь делаем второе приближение -- смотрим на системы с myrinet. Видим
> эффективность порядка 61%. Рабочая гипотеза: важна не технология, а скорость
> передачи (10 у infi, 2 у мури и 1 у GE. Систем с 2xGE слишком мало, а с 10GE
> вообще нету).
Да, на LinPack (той самой тестовой задаче) это в большой степени так - у 
нее хорошие коммуникационные свойства. Есть другие классы задач, где 
бегает много мелких пакетиков, и где пропускная способность отходит на 
второй план - там важны именно задержки. И тут мы получим совсем другие 
соотношения.

> К сожалению мне не удалось найти систем, построенных на аналогичном
> оборудовании. Возможно еще и собственно построитель играет роль (кривые-прямые
> руки АКА систематическая ошибка).
> 
> Кстати, на скоростях 10G начинает сказываться проблема с попускной способностью
> PCI-X.
Именно поэтому компания mellanox (производитель существенной части 
оборудования InfiniBand приводит в качестве пиковых результаты, 
полученные на PCI Express). Кстати, на 10G Ethernet точно также упрешься 
в это ограничение.

-- 
Константин Стефанов
--- ifmail v.2.15dev5.3
 * Origin: Demos online service (2:5020/400)
SEEN-BY: 46/50 50/203 520 400/814 450/159 186 247 1024 451/30 461/43 132 640
SEEN-BY: 469/999 550/196 4616/3 4625/8 4627/10 4635/4 4652/15 5000/76 5000
SEEN-BY: 5006/1 5007/1 5010/70 5011/13 5015/10 5019/31 5020/52 118 154 175 194
SEEN-BY: 5020/400 545 549 604 715 758 830 937 1057 1523 1604 1630 1922 2020
SEEN-BY: 5020/2142 2238 2450 2590 4441 5021/29 5022/128 5025/3 750 5026/45
SEEN-BY: 5027/16 5029/32 5030/49 115 473 500 556 966 1063 1900 5031/70 72
SEEN-BY: 5034/13 5035/3 38 5036/1 34 5042/13 5049/1 50 97 5051/15 5054/1 4 8 9
SEEN-BY: 5054/28 35 36 37 63 66 67 70 75 81 84 85 5055/95 5057/1 5060/88
SEEN-BY: 5061/15 120 5062/1 10 5063/3 5066/18 5067/2 5069/7 5070/1222 5074/9
SEEN-BY: 5075/5 35 5079/23 5080/80 1003 5081/2 5082/6 5083/21 5085/13 5090/108
SEEN-BY: 5095/20 5096/18 6000/12 254 6001/3 10
PATH: 5020/400 4441 545 5054/1 37