3. Цели изучения дисциплины.

Но-мер цели

Содержание цели

Студент должен иметь представление:

П1

об общей совокупности проблем, возникающих при использовании параллельных высокопроизводительных вычислительных систем для решения научных и производственных задач

П2

о достигнутом на современном этапе уровне результатов теоретических исследований в области параллельного программирования

П3

об уровне практической реализации теоретических результатов для автоматизации распараллеливания алгоритмов

П4

об актуальных вопросах теории параллельных вычислений

Студент должен знать:

З1

объект курса (параллельные высокопроизводительные вычислительные системы), предмет курса (параллельные алгоритмы), задачи курса (методы распараллеливания и средства организации выполнения параллельных программ), место теории параллельных вычислений в общей совокупности изучаемых дисциплин

З2

архитектуру высокопроизводительных вычислительных систем, типовые топологии схем коммутации, классификацию многопроцессорных вычислительных систем

З3

модели параллельных вычислительных процессов, концепцию неограниченного параллелизма, модели многопроцессорных систем с общей и распределенной памятью, модель конвейерной системы

З4

модель алгоритма в виде графа "операнд - операции", представление алгоритма в виде графа потока данных, расписание параллельных вычислений

З5

модель параллельных вычислений в виде сети Петри, основные проблемы параллельных вычислений: синхронизация, взаимоисключение, блокировка (тупики)

З6

потоковую модель параллельных вычислений в виде графа "процесс-ресурс", понятие процесса, проблемы взаимодействия процессов, синхронизация параллельных процессов, аппарат событий

З7

параллелизм данных и параллелизм задач, показатель эффективности распараллеливания (ускорение), эффективность использования вычислительной системы, способы оценки показателей эффективности

З8

уровни распараллеливания вычислений, распараллеливание вычислений на уровне команд, выражений, программных модулей, отдельно выполняемых заданий

З9

параллельные языки программирования и расширения стандартных языков, средства автоматического распараллеливания, параллельные компиляторы, параллельные предметные библиотеки, инструментальные системы для проектирования параллельных программ

З10

общие принципы построения и реализации MPI, общие функций MPI, коммуникаторы, функции обмена сообщениями типа «точка-точка»: блокирующий и неблокирующий обмен, синхронные и стандартные посылки сообщений

З11

технологию программирования OpenMP, последовательные и параллельные нити программы, организацию параллельных секций, параллельные циклы, директивы синхронизации, спецификации OpenMP для языков C и С++.

З12

DVM систему разработки параллельных программ, мобильность и эффективность выполнения программ, состав DVM-системы, основные директивы распараллеливания, использование отладчика и анализатора производительности DVM-программ.

З13

перспективы развития многопроцессорных ВС и параллельного программирования.

Студент должен уметь:

У1

разрабатывать, отлаживать и запускать на исполнение параллельные программы с использованием функций MPI

У2

разрабатывать, отлаживать и запускать на исполнение параллельные программы с использованием функций OpenMP

У3

разрабатывать, отлаживать и запускать на исполнение параллельные программы с использованием функций DVM

У4

выполнять анализ эффективности распараллеливания алгоритмов с использованием различных систем организации взаимодействия ветвей

4. содержание И Структура УЧЕБНОЙ дисциплины

НЕ нашли? Не то? Что вы ищете?

4.1. Выдержка из госа

СД.06

Архитектура вычислительных систем:

100

способы организации и типы ВС; параллельная обработка информации: уровни и способы организации; реализация в многомашинных и многопроцессорных ВС; операционные конвейеры; векторные, матричные, ассоциативные системы; однородные системы и среды; RISC-архитектуры; развитие архитектур, ориентированных на языковые средства и среду программирования; основы метрической теории ВС; технология распределенной обработки данных.

4.2. структура дисциплины

Разделы и темы дисциплины последовательно зависят от материалов предыдущих тем. Последовательность тем, объемы в часах, достигаемые результаты и соответствие требованиям ГОС сведены в таблицу:

Номер и наименование раздела и темы

Объем в часах

Результаты изучения, соответствие целям (см. п. 3)

Соответствие требованиям ГОС (см. п. 1)

Лекции

Лаб. раб.

Сам. Раб.

Представ-

ления

Знания

Умения

Лекции

Тема 1. Введение. Цели, задачи и проблемы параллельных вычислений

2

2

П1,П2,П3

З1

Т1,Т5

Тема 2. Архитектура высокопроизводительных ЭВМ

4

2

З2

Тема 3. Моделирование и анализ параллельных алгоритмов

6

4

З3

Тема 4. Принципы разработки параллельных алгоритмов и программ

6

4

З4, З5, З6, З7

Тема 5. Средства разработки параллельных программ

2

2

З8, З9

Тема 6. Интерфейс передачи сообщений MPI

9

8

З10

Тема 7. Технология программирования OpenMP.

2

2

З11

Тема 8. DVM система разработки параллельных программ.

2

2

З12

Тема 9. Заключение

1

1

З13

Лабораторный практикум

Лабораторная работа № 1.

4

6

З1,З2,

З4,З5

У1,У4

Т7,Т8

Лабораторная работа № 2.

4

6

З6,З7,

З8,З9

У1,У4

Т7,Т8

Лабораторная работа № 3.

4

6

З3,З4

З11

У2,У4

Т7,Т8

Лабораторная работа № 4.

4

6

З3,З4

З12

У3,У4

Т7,Т8

4.3. Содержание дисциплины

Тема 1. Введение. Цели, задачи и проблемы параллельных вычислений

Лекций - 2 часа, самостоятельная работа – 1 час.

Ограничения максимальной производительности однопроцессорных ЭВМ. Постоянное возникновение задач, потребности которых превышают возможности однопроцессорных ЭВМ. Параллельные и распределенные вычисления и их техническая основа – вычислительные кластеры, ГРИД-системы и суперкомпьютеры. История развития параллельных вычислительных систем, виды параллелизма. Современное состояние суперкомпьютеров, списки ТОР500 и ТОР50, российский уровень развития суперкомпьютеров. Перспективы развития суперкомпьютерной техники и параллельных вычислений. Основные проблемы использования параллельной обработки данных. Закон Амдаля (о существовании последовательных алгоритмов). Закон Мура (о росте производительности последовательных компьютеров). Закон Гроша (о высокой стоимости параллельных систем). Гипотеза Минского (о влиянии потерь на взаимодействие на степень ускорения параллельных вычислений по сравнению с последовательными). Сложность разработки параллельных алгоритмов. Трудоемкость проверки правильности параллельных программ.

Тема 2. Архитектура высокопроизводительных ЭВМ

Лекций - 4 часа, самостоятельная работа - 4 часа.

Конвейерные и векторные вычисления. Процессорные матрицы. Многопроцессорные вычислительные системы с общей и распределенной памятью (мультипроцессоры и мультикомпьютеры). Схемы коммутации (полная коммутация - общая память, перекрестные коммутаторы, локальные схемы коммутации - общая шина, решетки, кластеры). Анализ возможных схем взаимодействия ветвей параллельных алгоритмов и типовые топологии схем коммутации – кольцо, линейка, решетки, полный граф, гиперкуб, тор, дерево. Аппаратная реализация и программная эмуляция топологий. Классификация многопроцессорных вычислительных систем. СуперЭВМ. Многопроцессорные вычислительные комплексы (МВС). Многомашинные вычислительные комплексы. Сети ЭВМ. Высокопроизводительные вычислительные кластеры. Систематика Флинна. Потоки данных (команд). Конкретизация видов многопроцессорных систем: векторные компьютеры, симметричные мультипроцессоры (SMP), массивно-параллельные компьютерные системы (MPP), кластеры.

Из за большого объема этот материал размещен на нескольких страницах:
1 2 3 4