ИНФОРМАЦИЯ |
© Крюков В.А.
Курс лекций
"Распределенные
ОС"
Все компьютеры в распределенной системе связаны между собой коммуникационной сетью. Коммуникационные сети подразделяются на широкомасштабные (Wide Area Networks, WANs) и локальные (Local Area Networks, LANs).
Широкомасштабные сети
WAN состоит из коммуникационных ЭВМ,
связанных между линии, собой коммуникационными линиями (телефонные радиолинии,
спутниковые каналы, оптоволокно) и обеспечивающих транспортировку сообщений.
Обычно используется техника store-and-forward, когда следующий с ссобщения
передаются из одного компьютера в промежуточной буферизацией.
Коммутация пакетов или коммутация линий.
Коммутация линий
(телефонные разговоры) требует резервирования линий на время всего сеанса
общения двух устройств.
Пакетная коммутация основана на разбиении
сообщений в пункте отправления на порции (пакеты), посылке пакетов по адресу
назначения, и сборке сообщения из пакетов в пункте назначения. При этом линии
используются эффективнее, сообщения могут передаваться быстрее, но требуется
работа по разбиению и сборке сообщений, а также возможны задержки (для передачи
речи или музыки такой метод не годится).
ISO OSI (International Standards Organizations' Reference Model of Open Systems Interconnection) организует коммуникационные протоколы в виде семи уровней и специфицирует функции каждого уровня.
Локальные сети.
Особенности LAN:
Свойственные многоуровневой модели ISO OSI накладные расходы являются причиной того, что в LAN применяются более простые протоколы.
Клиент-сервер
Можно избежать подтверждения получения сервером
сообщения-запроса от клиента, если ответ сервера должен последовать скоро.
Удаленный вызов процедур
Send, receive - подход ввода/вывода Более
естественный подход, применяемый в централизованных ЭВМ - вызов процедур.
Birrell and Nelson (1984) (независимо и раньше - Илюшин А.И.,1978) предложили позволить вызывающей программе находиться на другой ЭВМ.
MPP с распределенной памятью может рассматриваться как частный случай локальной сети. Решетка транспьютеров, в которой каждый транспьютер параллельно с вычислениями может обмениваться одновременно по 8 каналам с 4 соседями, является хорошим примером, для которого будут формулироваться различные экзаменационные задачи. Время передачи сообщения между двумя узлами транспьютерной матрицы (характеристики аппаратуры - время старта передачи Ts, время передачи одного байта информации соседнему узлу Tb, процессорные операции, включая чтение из памяти и запись в память считаются бесконечно быстрыми). За время Ts+Tb транспьютер может передать 1 байт информации своим четырем соседям и принять от них 4 байта информации (по одному байту от каждого). Конвейеризация и параллельное использование нескольких маршрутов.
Обмен сообщениями между прикладными процессами
SEND,
RECEIVE (адресат/отправитель, [тэг], адрес памяти, длина)
Адресация - физический/логический номер процессора, уникальный идентификатор динамически создаваемого процесса, служба имен (сервер имен или широковещание - broadcasting). Обычно пересылка в соседний компьютер требует три копирования - из памяти процесса-отправителя в буфер ОС на своем компьютере, пересылка между буферами ОС, копирование в память процесса-получателя.
Блокирующие операции send (до освобождения памяти с данными или до завершения фактической передачи) и неблокирующие.
Буферизуемые и небуферизуемые (rendezvous или с потерей информации при отсутствии receive).
Надежные и ненадежные.
(1) Цели:
(2) Что включено в MPI ?
(3) Что не включено в MPI ?
(4) Некоторые понятия.
Коммуникационные операции могут быть:
Операция называется локальной, если ее выполнение не требует коммуникаций; нелокальной, если ее выполнение может требовать коммуникаций; коллективной, если в ее выполнении должны участвовать все процессы группы.
(5) Группы, контексты, коммуникаторы.
Группа - упорядоченное (от 0 до ранга группы) множество идентификаторов процессов (т.е. процессов). Группы служат для указания адресата при посылке сообщений (процесс-адресат специфицируется своим номером в группе), определяют исполнителей коллективных операций. Являются мощным средством функционального распараллеливания - позволяют разделить группу процессов на несколько подгрупп, каждая из которых должна выполнять свою параллельную процедуру. При этом существенно упрощается проблема адресации при использовании параллельных процедур.
Контекст - область видимости для сообщений, аналогичное области видимости переменных в случае вложенных вызовов процедур. Сообщения, посланные в некотором контексте, могут быть приняты только в этом же контексте. Контексты - также важные средства поддержки параллельных процедур.
Коммуникаторы - позволяют ограничить область видимости (жизни, определения) сообщений рамками некоторой группы процессов, т.е. могут рассматриваться как пара - группа и контекст. Кроме того, они служат и для целей оптимизации, храня необходимые для этого дополнительные объекты. Имеются предопределенные коммуникаторы (точнее, создаваемые при инициализации MPI-системы):
(6) Операции над группами (локальные, без обмена сообщениями).
Для
поддержки пользовательских серверов имеется коллективная операция разбиения
группы на подгруппы по ключам, которые указывает каждый процесс группы. Для
поддержки связывания с серверами, имеются средства построения коммуникатора по
некоторому имени, известному и серверу и клиентам.
(7) Точечные коммуникации.
Основные операции - send,
receive Операции могут быть блокирующими и неблокирующими.
В операции send задается:
В операции receive задается:
Имеется четыре режима коммуникаций - стандартный, буферизуемый, синхронный и режим готовности.
В стандартном режиме последовательность выдачи операций send и receive произвольна, операция send завершается тогда, когда сообщение изъято из памяти и она уже может использоваться процессом. При этом выполнение операции может осуществляться независимо от наличия receive, либо требовать наличие (вопрос реализации MPI). Поэтому операция считается нелокальной.
В буферизуемом режиме последовательность выдачи операций send и receive произвольна, операция send завершается тогда, когда сообщение изъято из памяти и помещено в буфер. Если места в буфере нет - ошибка программы (но есть возможность определить свой буфер). Операция локальная.
В синхронном режиме последовательность выдачи операций произвольна, но операция send завершается только после выдачи и начала выполнения операции receive. Операция нелокальная. В режиме готовности операция send может быть выдана только после выдачи соответствующей операции receive, иначе программа считается ошибочной и результат ее работы неопределен. Операция локальная.
Во всех четырех режимах операция receive завершается после получения сообщения в заданный пользователем буфер приема.
Неблокирующие операции не приостанавливают процесс до своего завершения, а возвращают ссылку на коммуникационный объект, позволяющий опрашивать состояние операции или дожидаться ее окончания. Имеются операции проверки поступающих процессу сообщений, без чтения их в буфер (например, для определения длины сообщения и запроса затем памяти под него). Имеется возможность аварийно завершать выданные неблокирующие операции, и поэтому предоставлены возможности проверки, хорошо ли завершились операции. Имеется составная операция send-receive, позволяющая избежать трудностей с порядком выдачи отдельных операций в обменивающихся между собой процессах. Для частного случая обмена данными одного типа и длины предлагается специальная операция сообщения (send-receive-replace), в которой для посылки и приема используется один буфер.
(8) Коллективные коммуникации.
Для обеспечения коллективных
коммуникаций введены следующие функции:
|
BROADCAST |
|
||||||||||||||||||||||||||||||||||||||
|
SCATTER GATHER |
|
||||||||||||||||||||||||||||||||||||||
|
ALLGATHER |
|
||||||||||||||||||||||||||||||||||||||
|
ALLTOALL |
|
Названия функций и параметры:
MPI_BARRIER(IN
comm)
MPI_BCAST(IN/OUT buffer, IN cnt, IN type, IN root, IN
comm)
MPI_GATHER(IN sendbuf, IN sendcnt, IN sendtype, OUT recvbuf, IN
recvcnt, IN recvtype, IN root, IN comm)
MPI_SCATTER(IN sendbuf, IN
sendcnt, IN sendtype, OUT recvbuf, IN recvcnt, IN recvtype, IN root, IN
comm)
MPI_ALLGATHER(IN sendbuf, IN sendcnt, IN sendtype, OUT recvbuf,
IN recvcnt, IN recvtype, IN comm)
MPI_ALLTOALL(IN sendbuf, IN sendcnt,
IN sendtype, OUT recvbuf, IN recvcnt, IN recvtype, IN comm)
Широко известная система PVM [5] была создана для объединения нескольких связанных сетью рабочих станций в единую виртуальную параллельную ЭВМ. Система представляет собой надстройку над операционной системой UNIX и используется в настоящее время на различных аппаратных платформах, включая и ЭВМ с массовым параллелизмом.
Задача пользователя представляет собой множество подзадач, которые динамически создаются на указанных процессорах распределенной системы и взаимодействуют между собой путем передачи и приема сообщений (а также посредством механизма сигналов).
Достоинства - простота, наличие наследованного от OS UNIX аппарата процессов и сигналов, а также возможность динамического добавления к группе вновь созданных процессов.
Недостатки - низкая производительность и функциональная ограниченность (например, имеется только один режим передачи сообщений - с буферизацией).
Развивает MPI в следующих направлениях:
Подробнее: http://www.mpi-forum.org/.
Содержание курса | Далее: Лекция 4. |
© Лаборатория Параллельных Информационных
Технологий, НИВЦ МГУ