Ответы на экзаменационные вопросы интернет-курсов интуит (intuit): 348. Теория и практика параллельных вычислений

Вид материалаЭкзаменационные вопросы

Содержание


Актуальная информация по учебным программам ИНТУИТ
Повышение квалификации
Лицензия на образовательную деятельность
Developer Project предлагает поддержку при сдаче экзаменов учебных курсов
«заказать услугу»
Подобный материал:

Ответы на экзаменационные вопросы интернет-курсов ИНТУИТ (INTUIT): 348. Теория и практика параллельных вычислений




  1. H-векторный и H-индексный способы создания данных отличаются от векторного и индексного способов тем, что:
  2. MPI поддерживает топологии вида:
  3. Алгоритм быстрой сортировки основан на:
  4. Алгоритмы маршрутизации определяют:
  5. Базовая операция "сравнить и переставить" обычно используется в:
  6. Базовая операция "сравнить и переставить" состоит из:
  7. Базовая операция "сравнить и разделить" отличается от операции "сравнить и переставить":
  8. В буферизованном режиме функция отправки сообщения завершается:
  9. В декартовой топологии множество процессов представляется в виде:
  10. В каком из режимов можно провести вычислительный эксперимент?
  11. В коллективных операциях передачи данных обязаны принимать участие:
  12. В методах покоординатной маршрутизации поиск путей передачи данных осуществляется:
  13. В методе передачи пакетов:
  14. В модели вычислений вершинами графа являются:
  15. В модели вычислений дуги графа определяют:
  16. В модели Хокни используются параметры:
  17. В модифицированной каскадной схеме:
  18. В обобщенном алгоритме быстрой сортировки в дополнение к обычному методу быстрой сортировки предлагается:
  19. В основе классификации вычислительных систем в систематике Флинна используются:
  20. В отличие от геометрических схем комбинаторные методы решения задачи оптимального разделения графов не принимают во внимание:
  21. В рамках системы ПараЛаб какие допускаются схемы выполнения вычислений при проведении экспериментов:
  22. В рамках системы ПараЛаб какие присутствуют средства для детального изучения и исследования параллельных алгоритмов решения сложных вычислительных задач:
  23. В рассматриваемой учебной задаче по решению задачи Дирихле при использовании разделенной памяти, какие возможны способы разделения данных?
  24. В результате выполнения одной итерации параллельного алгоритма быстрой сортировки исходное множество процессоров разделяется на:
  25. В синхронном режиме передачи завершение функции отправки сообщения происходит:
  26. В статической схеме передачи данных:
  27. В худшем случае трудоемкость быстрой сортировки оценивается выражением:
  28. В чем состоит первая проблема, которую приходится решать при организации параллельных вычислений на системах с распределенной памяти?
  29. В чем состоят необходимые условия для возможности организации параллельных вычислений:
  30. Взвешенный граф это:
  31. Внутренняя сортировка это:
  32. Время начальной подготовки (tн) характеризует:
  33. Все данные для передачи в качестве сообщения MPI описываются с помощью триады:
  34. Выбор способа разделения вычислений на независимые части основывается:
  35. Вычислительный эксперимент в системе ПараЛаб – это:
  36. Граф "подзадачи – сообщения" представляет собой:
  37. Граф "процессы – каналы" используется:
  38. Граф это:
  39. Двоичный код Грея используется для определения соответствия между:
  40. Длительность времени передачи одного слова данных по одному каналу передачи данных определяется:
  41. Для кластерных систем характерна:
  42. Для локальной схемы передачи данных характерно:
  43. Для определения угла поворота в рекурсивном инерционном методе деления пополам при решении задачи оптимального разделения графов, используется:
  44. Для организации параллельных вычислений в вычислительных системах с распределенной памятью необходимо:
  45. Для параллельных алгоритмов для систем с общей памятью при проведении вычислительных экспериментов может наблюдаться сверхлинейное ускорение. Каковы возможные причины достижения этого эффекта?
  46. Для поддержки упорядоченности в ходе выполнения алгоритма обобщенной быстрой сортировки процессоры должны выполнять:
  47. Для постановки задачи в системе ПараЛаб необходимо выбрать:
  48. Для разбиения графа на k частей в методе бинарного деления для решения задачи оптимального разделения графов необходимо:
  49. Для разбиения графа на k частей в методе бинарного деления для решения задачи оптимального разделения графов необходимо выполнить:
  50. Для распределения вычислений между процессорами в вычислительных системах с распределенной памятью необходимо:
  51. Для рассылки от одного процессора всем остальным процессорам сети при использовании топологии типа гиперкуб достаточно (N=log2p):
  52. Для снижения сложности моделирования и анализа параллельных методов операции передачи и приема данных считаются выполняющимися:
  53. Для того чтобы выбрать ведущий элемент в параллельном алгоритме быстрой сортировки выполняются следующие действия:
  54. Для эффективного выполнения алгоритма Кэннона необходимо, чтобы процессоры вычислительной системы были организованы в топологию:
  55. Для эффективного выполнения алгоритма Фокса необходимо, чтобы процессоры вычислительной системы были организованы в топологию:
  56. Для эффективного выполнения параллельного алгоритма умножения матрицы на вектор, основанного на разделении матрицы на вертикальные полосы, необходимо, чтобы процессоры вычислительной системы были объединены в топологию:
  57. Для эффективного выполнения параллельного алгоритма умножения матрицы на вектор, основанного на разделении матрицы на горизонтальные полосы, необходимо, чтобы процессоры вычислительной системы были объединены в топологию:
  58. Для эффективного выполнения параллельного алгоритма умножения матрицы на вектор, основанного на блочном разделении матрицы, необходимо, чтобы процессоры вычислительной системы были объединены в топологию:
  59. Для эффективного выполнения параллельного алгоритма умножения матриц, основанного на ленточной схеме разделения данных, необходимо, чтобы процессоры вычислительной системы были организованы в топологию:
  60. За основу организации параллельных вычислений при реализации метода сопряженных градиентов выбирается:
  61. За основу организации параллельных вычислений при реализации метода сопряженных градиентов выбирается параллельное выполнение операции умножения матрицы на вектор, потому что:
  62. За счет чего увеличивается число передач данных между процессорами при блочном представлении сетки области расчетов на системах с распределенной памятью?
  63. Завершение вызова функции неблокирующего обмена приводит:
  64. Завершение функции MPI_Send означает, что:
  65. Задача нахождения МОД формулируется как:
  66. Задача оптимального разделения графа состоит в разбиении вершин графа на непересекающиеся подмножества:
  67. Задача поиска всех кратчайших путей обычно формулируется как:
  68. Задача разделения вычислительной сети, на которую разбивается область обрабатываемых данных, между процессорами может быть сведена:
  69. Задача редукции определяется в общем виде как:
  70. Задача сортировки данных обычно формулируется как:
  71. Из представленных в лекции алгоритмов, лучшей масштабируемостью обладает:
  72. Из представленных в лекции алгоритмов, лучшей масштабируемостью обладает:
  73. К основным преимуществам кластерных вычислительных систем относится:
  74. К числу параметров вычислительной системы в системе ПараЛаб относятся:
  75. К числу суперкомпьютеров относятся:
  76. К числу характеристик топологии сети передачи данных относятся:
  77. Как исключается неоднозначность вычислений в параллельном алгоритме метода сеток на системах с общей памятью?
  78. Какая из приведенных в лекции топологий (при одинаковом количестве процессоров) обладает наименьшим диаметром:
  79. Какая из приведенных в лекции топологий (при одинаковом количестве процессоров) обладает наибольшей связностью:
  80. Какая из приведенных в лекции топологий (при одинаковом количестве процессоров) обладает наименьшей стоимостью:
  81. Какая коммуникационная операция используется в параллельном алгоритме умножения матрицы на вектор, основанном на блочном разделении матрицы, для получения блоков результирующего вектора на процессорах, составляющих одну строку процессорной решетки?
  82. Какая коммуникационная операция используется при выполнении параллельного алгоритма умножения матрицы на вектор, основанного на разделении матрицы на вертикальные полосы?
  83. Какая схема разделения данных используется при разработке параллельных алгоритмов Фокса и Кэннона?
  84. Какая схема разделения данных используется при реализации параллельного алгоритма Гаусса?
  85. Какие алгоритмы обладают наилучшими теоретическими показателями ускорения и эффективности (в случае, когда не учитываются затраты на передачу данных между процессорами):
  86. Какие алгоритмы обладают наилучшими теоретическими показателями ускорения и эффективности (в случае, когда не учитываются затраты на передачу данных между процессорами):
  87. Какие достоинства и недостатки имеет асинхронный механизм передачи сообщений?
  88. Какие достоинства имеет синхронный механизм передачи сообщений?
  89. Какие из перечисленных ниже классы задач поддерживает система имитационного моделирования ПараЛаб:
  90. Какие коммуникационные операции используются при выполнении параллельного алгоритма Кэннона?
  91. Какие коммуникационные операции используются при выполнении параллельного алгоритма Фокса?
  92. Какие механизмы передачи данных могут быть задействованы?
  93. Какие проблемы параллельного программирования являются общими для систем с общей и распределенной памятью?
  94. Какие режимы передачи данных поддерживает система имитационного моделирования ПараЛаб:
  95. Какие способы разделения элементов матрицы между процессорами вычислительной системы используются для разработки параллельных алгоритмов умножения матрицы на вектор?
  96. Какие способы распределения данных между процессорами вычислительной системы изложены в данной лекции?
  97. Какие способы распределения элементов матрицы между процессорами вычислительной системы изложены в данной лекции?
  98. Какие схемы разделения данных используются при разработке параллельных алгоритмов умножения матриц?
  99. Какие топологий сети не поддерживает система имитационного моделирования ПараЛаб:
  100. Каким образом обеспечивается балансировка вычислительной нагрузки процессоров для параллельных алгоритмов для систем с общей памятью,?
  101. Каковы причины значительного снижения полезной вычислительной нагрузки для процессоров при организации волновых вычислений в системах с распределенной памятью?
  102. Какое расположение вектора правых частей и вектора неизвестных используется при реализации параллельного алгоритма Гаусса:
  103. Какой способ наиболее эффективен при подсчете общей для всех процессоров погрешности вычислений, которые используются в параллельной реализации метода сеток на системах с распределенной памятью?
  104. Какую компьютерную систему можно отнести к суперкомпьютерам:
  105. Канал передачи данных можно рассматривать как:
  106. Каскадная схема используется для:
  107. Качество разрабатываемых параллельных методов определяется:
  108. Кластерные вычислительные системы:
  109. Количество выполняемых операций при определении номера ближайшей вершины до охватывающего дерева и корректировке расстояний после расширения МОД ограничивается сверху величиной:
  110. Коллективные операции MPI:
  111. Комбинаторные методы решения задачи оптимального разделения графов обычно обеспечивают:
  112. Масштабирование разрабатываемого параллельного алгоритма это процесс:
  113. Матрица смежности это:
  114. Метод бинарного деления для решения задачи оптимального разделения графов заключается:
  115. Метод передачи пакетов в большинстве случаев приводит к:
  116. Метод покоординатного разбиения для решения задачи оптимального разделения графов отличается от метода бинарного деления тем, что:
  117. Метод покоординатной маршрутизации в приложении к топологии типа гиперкуб состоит:
  118. Минимально необходимый набор операций для организации информационного взаимодействия между процессорами в вычислительных системах с распределенной памятью включает в себя только:
  119. Минимально охватывающим деревом называется:
  120. Модель вычислений – это:
  121. Можно ли утверждать, что представленные в лекции алгоритмы обладают идеальными теоретическими показателями ускорения и эффективности (в случае, когда не учитываются затраты на передачу данных между процессорами):
  122. На каждой итерации обратного хода метода Гаусса используется
  123. На каждой итерации прямого хода алгоритма Гаусса для нахождения ведущей строки используется
  124. На каких топологиях сети в системе ПараЛаб не реализованы алгоритмы обработки графов:
  125. На каких топологиях сети в системе ПараЛаб реализована быстрая сортировка:
  126. На каких топологиях сети в системе ПараЛаб реализованы алгоритмы перемножения матриц:
  127. На одном из этапов метода покоординатного разбиения для решения задачи оптимального разделения графов:
  128. На основании результатов экспериментов, представленных в лекции, можно сказать, что наибольшее ускорение демонстрирует:
  129. Нижняя оценка необходимого количества операций для упорядочивания набора из n значений определяется выражением:
  130. Номер процесса в рамках MPI именуется:
  131. Обобщенная передача данных от всех процессов всем процессам может быть описана как:
  132. Общее наименьшее количество итераций параллельного алгоритма Шелла равно:
  133. Общее число итераций параллельного алгоритма чет-нечетной сортировки при использовании p процессоров равно:
  134. Один из возможных способов агрегации вычислений для увеличения эффективности параллельного алгоритма Флойда состоит:
  135. Один из этапов параллельного алгоритма быстрой сортировки состоит том, что:
  136. Операцию редукции данных MPI_Reduce можно описать:
  137. Операция широковещательной рассылки данных это:
  138. Оптимальная стратегия выбора ведущего элемента при применении параллельных алгоритмов быстрой сортировки состоит в выборе такого значения ведущего элемента, при котором:
  139. Основное отличие комбинаторных алгоритмов от геометрических методов, применяемых для решения задачи оптимального разделения графов, заключается:
  140. Основной набор параметров, описывающих время передачи данных, состоит из следующего набора величин:
  141. Основным показателем успешности выполнения этапа распределения подзадач между процессорами является:
  142. Основными отличиями параллельного алгоритма Шелла от метода чет-нечетной перестановки являются:
  143. Охватывающим деревом (или остовом) неориентированного графа называется:
  144. Параллельный вариант алгоритма Шелла состоит в следующем:
  145. Под кластером обычно понимается:
  146. Под коллективными операциями в MPI понимаются:
  147. Под коммуникатором в MPI понимается:
  148. Под мультикомпьютером понимается:
  149. Под мультипроцессором понимается:
  150. Под параллельной программой в рамках MPI понимается:
  151. Под процессом понимают:
  152. Показатели ускорения и эффективности параллельного алгоритма Прима имеют вид (без учета затрат на передачу данных):
  153. Показатели ускорения и эффективности параллельного алгоритма Флойда имеют вид (без учета затрат на передачу данных):
  154. Помимо выполнения экспериментов в режиме имитации, в системе ПараЛаб предусмотрена возможность проведения реальных экспериментов в режиме удаленного доступа к вычислительному кластеру. Какие возможны операции после выполнения реальных параллельных вычислений:
  155. При анализе результатов проведенных экспериментов пользователю предоставляется возможность:
  156. При асинхронном способе взаимодействия участники взаимодействия:
  157. При векторном способе новый производный тип создается как:
  158. При выборе способа разделения вычислений при прочих равных условиях нужно отдавать предпочтение:
  159. При выполнении алгоритма обобщенной быстрой сортировки в качестве ведущего элемента обычно выбирается:
  160. При выполнении параллельного алгоритма Гаусса основными коммуникационными операциями являются:
  161. При выполнении параллельного алгоритма, основанного на ленточной схеме разделения данных, основной коммуникационной операцией является:
  162. При выполнении параллельного алгоритма, основанного на разделении матрицы на горизонтальные полосы, сбор данных результирующего вектора выполняется при помощи:
  163. При выполнении параллельного алгоритма, основанного на разделении данных на горизонтальные полосы, сбор данных полученных результатов выполняется при помощи:
  164. При вычислении общей суммы последовательности числовых значений стоимостно-оптимальным алгоритмом является:
  165. При горизонтальном разбиении матрицы исходных данных на каждой итерации алгоритма Флойда потребуется передавать между подзадачами:
  166. При индексном способе новый производный тип создается как:
  167. При использовании метода передачи сообщений:
  168. При надлежащем выборе ведущих элементов в алгоритме быстрой сортировки исходный массив данных оказывается упорядоченным после выполнения:
  169. При построении графических зависимостей для экспериментов, проведенных в режиме имитации, используются:
  170. При построении графических зависимостей для экспериментов, проведенных в режиме удаленного доступа к параллельной вычислительной системы, используется:
  171. При применении параллельных алгоритмов быстрой сортировки одним из основных моментов является:
  172. При проведении серии экспериментов системой ПараЛаб может автоматически варьироваться:
  173. При разработке параллельного алгоритма умножения матриц, основанного на ленточной схеме разделения данных, может быть использован подход:
  174. При разработке параллельных алгоритмов для матричных вычислений за основу выбирается разделение данных, потому что:
  175. При разработке параллельных алгоритмов решения дифференциальных уравнений в частных производных за основу выбирается разделение данных, потому что:
  176. При реализации параллельного алгоритма Гаусса рекомендуется использовать ленточную циклическую схему разделения данных, потому что
  177. При реализации параллельного алгоритма для метода сопряженных градиентов вычисления над векторами дублируются на всех процессорах для того, чтобы:
  178. Прием сообщений при помощи функции MPI_Recv может быть осуществлен:
  179. Прием сообщения при помощи функции MPI_Recv может быть инициирован:
  180. Применение неблокирующего способа выполнения обменов позволяет:
  181. Производным типом данных в MPI называется:
  182. Протяженность производного типа в MPI это:
  183. Процессы параллельной программой в рамках MPI:
  184. Процессы, между которыми выполняется передача данных:
  185. Пусть в решаемой задаче последовательная часть составляет четыре единицы времени, а часть, допускающая линейное распараллеливание, шесть единицы времени. Если использовать закон Амдаля, сколько потребуется процессоров для достижения ускорения в два раза:
  186. Пусть в решаемой задаче последовательная часть составляет четыре единицы времени, а часть, допускающая линейное распараллеливание, шесть единицы времени. Если использовать закон Амдаля, какая достигается эффективность, если используются три вычислительных элемента:
  187. Пусть в решаемой задаче последовательная часть составляет четыре единицы времени, а часть, допускающая линейное распараллеливание, шесть единицы времени. Если использовать закона Густавсона-Барсиса, сколько потребуется процессоров для достижения ускорения в два раза (результат округлите в большую сторону):
  188. Пусть есть задача вычисление суммы следующего вида y=\sum\limits_{i=1}N a_ib_ic_i. Пусть N = 4 и применяется каскадная схема, аналогичная схеме описанной в лекции для суммирования элементов вектора. Какая в этом случае минимально возможная высота дерева модели вычисления:
  189. Пусть есть задача вычисление суммы следующего вида y=\sum\limits_{i=1}N a_ib_i. Пусть N = 8 и применяется каскадная схема, аналогичная схеме описанной в лекции для суммирования элементов вектора. Какая в этом случае минимально возможная высота дерева модели вычисления:
  190. Пусть есть задача вычисления произведения всех элемента вектора y= \prod\limits_{i=1}N a_i. Пусть N = 6 и применяется каскадная схема с минимально возможной высотой дерева модели вычисления. Чему в этом случае равно ускорение при использовании неограниченного числа вычислительных элементов:
  191. Пусть есть задача вычисления произведения всех элемента вектора y= \prod\limits_{i=1}N a_i. Пусть N = 10 и применяется каскадная схема, аналогичная схеме описанной в лекции для суммирования элементов вектора. Какая в этом случае минимально возможная высота дерева модели вычисления:
  192. Пусть есть задача вычисления суммы следующего вида y=\sum\limits_{i=1}N a_i. Пусть N = 6 и применяется каскадная схема с минимально возможной высотой дерева модели вычисления. Чему в этом случае равна стоимость вычислений при использовании восьми вычислительных элементов:
  193. Пусть есть задача вычисления суммы следующего вида y=\sum\limits_{i=1}N a_ib_i. Пусть N = 8 и применяется каскадная схема с минимально возможной высотой дерева модели вычисления. Чему в этом случае равна эффективность при использовании восьми вычислительных элементов:
  194. Пусть перед программистом поставлена задача перемножения матрицы на вектор. Размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 50 нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на блоки (количество блоков по строкам и по строкам равно и равно q=\sqrt{p}, где p – количество процессоров), чему будет равно теоретическая эффективность при использовании 4 процессоров:
  195. Пусть перед программистом поставлена задача перемножения матрицы на вектор. Размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 50 нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на блоки (количество блоков по строкам и по строкам равно и равно q=\sqrt{p}, где p – количество процессоров), чему будет равно теоретическое ускорение при использовании 16 процессоров:
  196. Равновесность подмножеств вершин в задаче оптимального разделения графа:
  197. Разработка параллельных алгоритмов включает в себя этапы:
  198. Распределение подзадач между процессорами должно быть выполнено таким образом, чтобы:
  199. Распределенные вычислительные системы:
  200. Рассмотрение графа "подзадачи – сообщения" концентрирует внимание на вопросах:
  201. Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 200x200. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 500 нсек. Пропускная способность сети \beta = 50 Mбайт/сек. Элементы матрицы имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на ленты, чему будет равна теоретическая эффективность при использовании 4 процессоров:
  202. Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 500 нсек. Пропускная способность сети \beta = 50 Mбайт/сек. Элементы матрицы имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании использовать алгоритм Кеннона, чему будет равно теоретическое ускорение при использовании 4 процессоров:
  203. Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 200x200. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 500 нсек. Пропускная способность сети \beta = 50 Mбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать алгоритм Фокса, чему будет равна теоретическая эффективность при использовании 4 процессоров:
  204. Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 500 нсек. Пропускная способность сети \beta = 50 Mбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на ленты, чему будет равно теоретическое ускорение при использовании 4 процессоров:
  205. Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 500 нсек. Пропускная способность сети \beta = 50 Mбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать алгоритм Фокса, чему будет равно теоретическое ускорение при использовании 4 процессоров:
  206. Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 200x200. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 500 нсек. Пропускная способность сети \beta = 50 Mбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать алгоритм Кеннона, чему будет равна теоретическая эффективность при использовании 4 процессоров:
  207. Рассмотрим задачу перемножения матрицы на вектор. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 50 нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на строки чему будет равно теоретическое ускорение при использовании 2 процессоров:
  208. Рассмотрим задачу перемножения матрицы на вектор. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 40 нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на строки чему будет равно теоретическая стоимость при использовании 2 процессоров:
  209. Рассмотрим задачу перемножения матрицы на вектор. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 50 нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на строки чему будет равно ускорение при использовании 4 процессоров:
  210. Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 50 нсек. Пропускная способность сети \beta = 60 Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма Гауса использовалось 4 процессора, то какая в этом случае достигается теоретическая эффективность:
  211. Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 200x200. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 50 нсек. Пропускная способность сети \beta = 50 Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма сопряженных градиентов использовалось 4 процессора, то какая в этом случае достигается теоретическая эффективность:
  212. Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 500 нсек. Пропускная способность сети \beta = 50 Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма Гауса использовалось 4 процессора, то какое в этом случае достигается теоретическое ускорение:
  213. Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 5 нсек. Пропускная способность сети \beta = 500 Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма сопряженных градиентов использовалось 4 процессора, то какое в этом случае достигается теоретическое ускорение:
  214. Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 20x20. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 50 нсек. Пропускная способность сети \beta = 60 Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма сопряженных градиентов использовалось 4 процессора, то какая в этом случае достигается теоретическая стоимость параллельного алгоритма:
  215. Рассмотрим задачу поиска решения системы линейных уравнений. Размер матрицы системы линейных уравнений 10x10. На вычислительной системе все операции сложения и умножения выполняются одинаковое время \tau = 2 нсек. Латентности сети \alpha = 50 нсек. Пропускная способность сети \beta = 60 Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании алгоритма Гауса использовалось 4 процессора, то какая в этом случае достигается теоретическая стоимость параллельного алгоритма:
  216. Режим передачи по готовности может быть использован только если:
  217. Режим разделения времени:
  218. С какими проблемами сталкивается программист, разрабатывая параллельные программы для систем с общей памятью?
  219. С ростом числа процессоров, наибольшее ускорение демонстрирует:
  220. С ростом числа процессоров, наибольшее ускорение демонстрируют:
  221. С ростом числа процессоров, согласно теоретической оценке, наибольшее ускорение демонстрирует:
  222. Сигнатурой производного типа в MPI именуется:
  223. Сложность последовательного алгоритма Флойда имеет порядок:
  224. Соседние вершины в кольцевой топологии отображаются кодом Грея:
  225. Соседние вершины в нумерации кода Грея имеют:
  226. Способы логического представления (отображения) топологий характеризуются следующими тремя основными характеристиками:
  227. Среди предусмотренных в составе MPI операций передачи сообщений различают:
  228. Среди рассмотренных в лекции типовых топологий приведены:
  229. Стоимость вычислений - это:
  230. Суперкомпьютеры:
  231. Типовые топологии сети передачи данных определяются:
  232. Топология полный граф сети кластерной вычислительной системы может иметь ограничения на:
  233. Топология типа тор в MPI является частным видом топологии типа:
  234. Три схемы распараллеливания алгоритма быстрой сортировки различаются:
  235. Трудоемкость алгоритма пузырьковой сортировки оценивается выражением:
  236. Трудоемкость нахождения МОД характеризуется:
  237. Трудоемкость параллельного алгоритма чет-нечетной сортировки оценивается выражением:
  238. Увеличение вершин:
  239. Указание используемого коммуникатора является:
  240. Уплотнение дуг это:
  241. Управление распределением нагрузки для процессоров необходимо:
  242. Ускорение параллельных вычислений – это:
  243. Функция MPI_Recv:
  244. Функция блокирующего ожидания завершения одного обмена в MPI называется:
  245. Циклический q-сдвиг, это операция, при которой:
  246. Чем определяется эффективность параллельных вычислений?
  247. Число итераций параллельного алгоритма Флойда равно:
  248. Эксперименты в режиме имитации возможно проводить:
  249. Этап распределения подзадач между процессорами является избыточным, если:
  250. Эффективность параллельных вычислений – это:






Актуальная информация по учебным программам ИНТУИТ расположена по адресу: t.ru/.

ссылка скрыта

(программ: 450)

ссылка скрыта

(программ: 14)

ссылка скрыта и ссылка скрыта

ссылка скрыта

ссылка скрыта

ссылка скрыта

ссылка скрыта



Developer Project предлагает поддержку при сдаче экзаменов учебных курсов Интернет-университета информационных технологий INTUIT (ИНТУИТ). Мы ответили на экзаменационные вопросы 380 курсов INTUIT (ИНТУИТ), всего 110 300 вопросов, 154 221 ответов (некоторые вопросы курсов INTUIT имеют несколько правильных ответов). Текущий каталог ответов на экзаменационные вопросы курсов ИНТУИТ опубликован на сайте объединения Developer Project по адресу: ссылка скрыта

Подтверждения правильности ответов можно найти в разделе ссылка скрыта, верхнее меню, там опубликованы результаты сдачи экзаменов по 100 курсам (удостоверения, сертификаты и приложения с оценками).

Более 21 000 вопросов по 70 курсам и ответы на них, опубликованы на сайте ссылка скрыта, и доступны зарегистрированным пользователям. По остальным экзаменационным вопросам курсов ИНТУИТ мы оказываем платные услуги (см. вкладку верхнего меню ссылка скрыта. Условия поддержки и помощи при сдаче экзаменов по учебным программам ИНТУИТ опубликованы по адресу: ссылка скрыта

Примечания:

- ошибки в текстах вопросов являются оригинальными (ошибки ИНТУИТ) и не исправляются нами по следующей причине - ответы легче подбирать на вопросы со специфическими ошибками в текстах;

- часть вопросов могла не войти в настоящий перечень, т.к. они представлены в графической форме. В перечне возможны неточности формулировок вопросов, что связано с дефектами распознавания графики, а так же коррекцией со стороны разработчиков курсов.