Экзаменационные вопросы интернет-курсов интуит (intuit): Математические

Вид материалаЭкзаменационные вопросы

Содержание


Актуальная информация по учебным программам ИНТУИТ
Повышение квалификации
Лицензия на образовательную деятельность
Developer Project предлагает поддержку при сдаче экзаменов учебных курсов
«заказать услугу»
Подобный материал:

Ответы на экзаменационные вопросы интернет-курсов ИНТУИТ (INTUIT): Математические методы распознавания образов

  1. HMM по своей сути является
  2. Алгоритм персептрона представляет собой
  3. Аппроксимация непрерывной дифференцируемой функцией за счет замены функции активации "сигмовидной" функцией лежит в основе
  4. Аргумент функции активации нейрона принимает значения в зависимости
  5. Аргументом функции активации является
  6. Базисные вектора между собой
  7. Базисными векторами унитарной симметрической матрицы являются
  8. Байесовский классификатор по отношению к минимизации вероятности ошибки классификации является
  9. Байесовский подход исходит
  10. В алгоритме персептрона в основу положен принцип действия
  11. В двумерных задачах образы представляются
  12. В евклидовом пространстве существуют два симметричных друг другу множества. Могут ли они быть разделены гиперплоскостью?
  13. В евклидовом пространстве существуют два симметричных друг другу множества. Верно ли то, что они не могут быть разделены гиперплоскостью?
  14. В задаче классификации по M классам, вероятность ошибки классификации
  15. В каких интеллектуальных системах применяется задача распознавания образов?
  16. В каком случае признак может не обладать хорошими разделительными свойствами?
  17. В качестве классификатора можно использовать
  18. В качестве признаков, основанных на статистиках первого порядка, может использоваться
  19. В методе селекции признаков в качестве критерия выступают
  20. В основе байесовского метода лежит предположение о существовании
  21. В основе контекстно-зависимой классификации лежит понятие
  22. В последовательности классов наблюдения
  23. В преобразовании Карунера-Лоева в качестве критерия выступает
  24. В том случае, когда цена ошибок различного типа существенно различается, принято использовать
  25. В чем основной смысл комитетного метода распознавания?
  26. В чем преимущество дискретного косинусного преобразования?
  27. В чем состоит алгоритм Гаусса-Зейделя?
  28. В чем состоит основная задача байесовского метода?
  29. В чем состоит основная цель байесовского подхода?
  30. В чем суть выбора признаков?
  31. Вектор признаков принято называть
  32. Величина, равная отношению числа пикселов с заданным уровнем интенсивности к общему числу пикселов в регионе носит название
  33. Верно ли то, что аргумент функции активации нейрона принимает значения в зависимости от индекса прецедента?
  34. Верно ли то, что базисные вектора между собой ортогональны?
  35. Верно ли то, что биекция - это разбиение множества на два подмножества?
  36. Верно ли то, что в двумерных задачах образы представляются точками на плоскости?
  37. Верно ли то, что в евклидовом пространстве невозможно существование двух симметричных друг другу множеств?
  38. Верно ли то, что в качестве эталона при использовании машинного зрения могут служить силуэты объектов в сцене?
  39. Верно ли то, что в основе байесовского метода лежит предположение о существовании вероятностной меры на пространстве образов, которая либо известна, либо может быть оценена?
  40. Верно ли то, что в основе контекстно-зависимой классификации лежит понятие байесовского классификатора?
  41. Верно ли то, что вектор признаков принято называть наблюдением?
  42. Верно ли то, что выпуклые оболочки симметричных друг другу множеств, разделенных гиперплоскостью, не существуют?
  43. Верно ли то, что выходной нейрон может реализовывать бесконечное количество гиперплоскостей?
  44. Верно ли то, что генерация признаков через линейные преобразования исходных измерений образов невозможна?
  45. Верно ли то, что для бесконечного ряда при применении общей рекуррентной процедуры необходимой является поточечная сходимость?
  46. Верно ли то, что евклидово расстояние между парой ближайших точек в выпуклых оболочках симметричных друг другу множеств, разделенных гиперплоскостью невозможно определить?
  47. Верно ли то, что если выпуклая оболочка объединения множеств X1 и -X2 не содержит начала координат, то множества X1 и X2 являются разделимыми?
  48. Верно ли то, что если два симметричных друг другу множества разделены гиперплоскостью, то оптимальная разделяющая гиперплоскость существует, но не единственна, так как имеет "двойника"?
  49. Верно ли то, что если действительная матрица является унитарной, то она является ортогональной?
  50. Верно ли то, что если задана полная ортогональная система функций одной переменной, то можно построить полную ортогональную систему функций любого числа переменных?
  51. Верно ли то, что задача минимизации эмпирического риска не разрешима?
  52. Верно ли то, что задача поиска пары ближайших точек может быть приведена к задаче квадратичного программирования?
  53. Верно ли то, что использование булевой функции в качестве классификатора невозможно?
  54. Верно ли то, что каждая точка в пространстве признаков образует поле притяжения?
  55. Верно ли то, что комитет для несовместной системы не существует?
  56. Верно ли то, что максимум функции П(φ) единственный?
  57. Верно ли то, что максимум функции П(φ) не может быть достигнут внутри сферы?
  58. Верно ли то, что минимальное выпуклое множество, содержащее данное, принято называть выпуклой оболочкой?
  59. Верно ли то, что минимальное общее число изменений, вставок и потерь, требуемое для изменения образа A в образ B носит название редакторское расстояние?
  60. Верно ли то, что множество, содержащее отрезок, соединяющий две произвольные внутренние точки, называется вогнутым?
  61. Верно ли то, что невозможно отыскать дискриминантную функцию по обучающей последовательности?
  62. Верно ли то, что общая рекуррентная процедура не может сходиться?
  63. Верно ли то, что основная задача байесовского метода состоит определении наиболее вероятного класса?
  64. Верно ли то, что основная идея комитетного метода состоит в использовании нескольких классификаторов?
  65. Верно ли то, что основой байесовского метода являются статистические наблюдения?
  66. Верно ли то, что плотность всех точек обучающей последовательности одинакова?
  67. Верно ли то, что построение линейной разделяющей гиперповерхности невозможно по определению?
  68. Верно ли то, что прецедент не может иметь поле притяжения?
  69. Верно ли то, что прецеденты не могут быть результатами реализации случайных величин?
  70. Верно ли то, что проверка условия критерия равномерной сходимости по вероятности затрудняется неопределенностью распределения выборки?
  71. Верно ли то, что разделяющая гиперплоскость не может быть оптимальной?
  72. Верно ли то, что разделяющая гиперплоскость по отношению к отрезку, соединяющему ближайшие точки выпуклых оболочек симметричных друг другу множеств, является унимодальной?
  73. Верно ли то, что рекуррентная процедура не может иметь более одной формы?
  74. Верно ли то, что с увеличением степеней свободы способность классификатора по разделению уменьшается?
  75. Верно ли то, что система подмножеств не может быть совместной?
  76. Верно ли то, что скрытый слой нейронов делит пространство на икосаэдры?
  77. Верно ли то, что соответствие между символами эталона и пробного образца должно быть двудольным графом?
  78. Верно ли то, что существование равновероятных классов с одинаковой матрицей ковариации исключено?
  79. Верно ли то, что существует разделяющий комитет аффинных функционалов, состоящий из не более чем m-1 членов при четном m?
  80. Верно ли то, что существует разделяющий комитет аффинных функционалов, состоящий из не более чем m членов при нечетном m?
  81. Верно ли то, что сходимость в вероятностном смысле может определяться с вероятностью равной 1?
  82. Верно ли то, что точки из обучающей последовательности являются независимыми случайными величинами?
  83. Верно ли то, что функция плотности вероятностей в одном классе зависит от других классов?
  84. Верно ли то, что цель байесовского метода состоит в разработке такого классификатора, который будет правильно определять наиболее вероятный класс для пробного образа?
  85. Верно ли то, что число гиперплоскостей, достаточное для разделения любых точечных множеств точек общего положения не зависит от размерности множества?
  86. Верно ли то, что число гиперплоскостей, достаточное для разделения любых точечных множеств точек общего положения неопределимо?
  87. Верно ли утверждение, что выходной нейрон производит сечение гиперкуба, полученного в скрытом слое?
  88. Верно ли утверждение, что каждый нейрон задает гиперплоскость, которая разделяет пространство пополам?
  89. Вероятности ошибки по отношению к разделению пространства признаков на M областей являются
  90. Вероятность получения решающего правила с заданным качеством называют
  91. Вероятность, которая задает распределение индекса класса после эксперимента, носит название?
  92. Вершины контуров носят название
  93. Внешний (выходной) нейрон реализует
  94. Внутри региона значения интенсивностей описываются
  95. Возможна ли генерация признаков через линейные преобразования исходных измерений образов?
  96. Возможно ли вычисление порога для минимальной вероятности ошибки?
  97. Возможно ли вычисление порога для проверки отношения правдоподобия?
  98. Возможно ли использование булевой функции в качестве классификатора?
  99. Возможно ли обобщение классов на третий порядок Марковской цепи?
  100. Возможно ли пересечение гиперплоскости с кривой?
  101. Возможно ли построение линейной разделяющей гиперповерхности?
  102. Возможно ли присутствие матрицы потерь в двухклассовой задаче?
  103. Возможно ли существование в евклидовом пространстве двух симметричных друг другу множеств?
  104. Возможно ли существование классификатора, минимизирующего общий средний риск?
  105. Возможно ли существование разделяющего комитета в классе аффинных функционалов?
  106. Все вектора из каждого полиэдра отображаются
  107. Всегда ли разрешима теоретико-множественная задача?
  108. Выбор класса, к которому следует отнести вектор, зависит
  109. Выбор признаков, которые с достаточной полнотой (в разумных пределах) описывают образ, носит название
  110. Выбор решающего правила, по которому на основании вектора признаков осуществляется отнесение объекта к тому или иному классу, называется
  111. Выделите из перечисленных ниже записей элементы, обладающие дискриминантными свойствами:?
  112. Выделите из предложенных ниже записей классификаторы по минимуму расстояния:
  113. Выделите из предложенных ниже записей составляющие части обобщенной схемы нейрона:
  114. Выделите из предложенных ниже записей те, которые могут быть использованы в виде эталонов:
  115. Выпуклая оболочка объединения множеств X1 и -X2 не содержит начала координат. Тогда множества X1 и X2 являются
  116. Выпуклая оболочка объединения множеств X1 и -X2 содержит начало координат. Тогда множества X1 и X2
  117. Выпуклые оболочки двух множеств на плоскости не пересекаются. В таком случае эти множества
  118. Выпуклые оболочки двух множеств на плоскости пересекаются. Такие множества считаются линейно разделимыми. Верно ли такое утверждение?
  119. Выпуклые оболочки симметричных друг другу множеств, разделенных гиперплоскостью
  120. Выходной нейрон производит
  121. Выявление признаков, которые имеют наилучшие классификационные свойства для конкретной задачи, называется
  122. Выявление признаков, которые наиболее полно описывают объект, носит название
  123. Где достигается максимум функции П(φ)?
  124. Где особо эффективно применяются HMM?
  125. Главный недостаток многих критериев отделимости классов - это
  126. Два множества на плоскости линейно разделимы тогда и только тогда, когда их выпуклые оболочки
  127. Два симметричных друг другу множества разделены гиперплоскостью. Существует ли в этом случае оптимальная разделяющая гиперплоскость?
  128. Дивергенция учитывает различия
  129. Дискриминантными свойствами обладают
  130. Для действительной матрицы условие унитарности обозначает, что матрица
  131. Для заданного конечного множества прецедентов всегда можно построить разбиение пространства признаков на полиэдры такое, что ни в каком полиэдре не окажется
  132. Для нахождения наименьшего расстояния между симметричными множествами используют
  133. Для определения многомерной плотности нормального распределения используют
  134. Для формирования унитарной матрицы Адамара применяется
  135. Для чего используется понятие прецедента при распознавании образов?
  136. Для чего может использоваться правило Марковской цепи?
  137. Для чего может применяться распознавание образов?
  138. Для чего предназначено распознавание образов?
  139. Для чего применяется предобработка векторов признаков?
  140. Для чего распознавание образов может быть применено в медицине?
  141. Евклидово расстояние между парой ближайших точек в выпуклых оболочках симметричных друг другу множеств, разделенных гиперплоскостью
  142. Единственен ли максимум функции П(φ)?
  143. Если априорные вероятности и функции правдоподобия неизвестны, то их можно оценить
  144. Если все подпространства одинаковой размерности, то разделяющие поверхности - это
  145. Если два симметричных друг другу множества разделимы гиперплоскостью, то оптимальная разделяющая гиперплоскость
  146. Если емкость класса решающих функций бесконечна, то оценка
  147. Если емкость класса решающих функций конечна, то всегда имеет место
  148. Если задана полная ортогональная система функций одной переменной, то можно построить
  149. Если значения признаков отличаются несущественно, гипотеза носит название
  150. Если значения признаков отличаются существенно, гипотеза носит название?
  151. Если имеется множество векторов признаков, полученных для некоторого набора образов, но правильная классификация этих образов неизвестна, возникает задача
  152. Если логарифмическая дискриминантная функция представляет собой квадратичную форму, то ее разделяющая поверхность являетсяа
  153. Если матрица положительно определенная, то
  154. Если матрица является действительной, то что для нее обозначает условие унитарности?
  155. Если матрица является положительно определенной, то ее собственные значения
  156. Если отсутствует возможность построения разделяющей прямой. то нельзя построить
  157. Если при применении "наивного" метода потенциальных функций рассматриваемые функции соизмеримы, то
  158. Если разделяющая поверхность является гиперповерхностью второго порядка, то байесовский классификатор является
  159. Если распределение случайных величин совпадает для разных классов, то признак
  160. Если речь идет о сходимости в вероятностном смысле, то такая сходимость может определяться
  161. Если сумма выхода сумматора и порога больше нуля, то функция активации равна
  162. Если сумма выхода сумматора и порога меньше нуля, то функция активации равна
  163. Если число вершин в гиперкубе равно 8, то число нейронов второго слоя равно
  164. Если число нейронов второго слоя равно 32, то чему будет равно количество вершин гиперкуба?
  165. Зависит ли функция плотности вероятностей в одном классе от других классов?
  166. Зависит ли число гиперплоскостей, достаточное для разделения любых точечных множеств точек общего положения, от размерности множества?
  167. Задача байесовского метода состоит
  168. Задача математического программирования имеет
  169. Задача поиска кратчайшего пути на графе может быть решена методом
  170. Задача поиска пары ближайших точек может быть приведена к задаче
  171. Задача распознавания на основе имеющегося множества прецедентов называется
  172. Задача скалярно селекции на основе проверки статистических гипотез решается путем оценивания
  173. Идея комитетного метода распознавания состоит в использовании
  174. Из перечисленных ниже записей выделите линейные поверхности решения:
  175. Из перечисленных ниже элементов выберите те, от которых не зависит эмпирический риск:
  176. Из предложенных ниже записей выберите основные направления обработки речи:
  177. Из предложенных ниже записей выберите приложения, в которых может возникнуть необходимость выбора класса, к которому следует отнести вектор:
  178. Из предложенных ниже записей выберите те, от которых зависит выбор класса, к которому следует отнести вектор:
  179. Из предложенных ниже записей выберите те, от которых зависит средний риск:
  180. Из предложенных ниже записей выделит составляющие части редакторского расстояния:
  181. Из предложенных ниже записей выделите виды дискретных преобразований:
  182. Из предложенных ниже записей выделите интеллектуальные системы, в которых применяется задача распознавания образов:
  183. Из предложенных ниже записей выделите основные направления обработки речи:
  184. Из предложенных ниже записей выделите те критерии, которые могут применяться при определении меры близости при рассмотрении строчных образов:
  185. Из предложенных ниже записей выделите те области науки, в которых применяется распознавание образов:
  186. Из предложенных ниже записей выделите те, которые можно считать ошибками при решении задачи сравнения цепочек упорядоченных символов:
  187. Из предложенных ниже записей выделите те, которые соответствуют назначению систем машинного зрения:
  188. Из предложенных ниже записей выделите те, которые являются свойствами двудольного графа соответствия между символами эталона и пробного образца:
  189. Из предложенных ниже записей выделите типы селекции признаков:
  190. Из приведенных ниже записей выберите типы комитетов:
  191. Из приведенных ниже записей выделите составляющие части линейной дискриминантной функции:
  192. Измерения, используемые для классификации образов, называются
  193. Имеет ли значение последовательность организации классификации векторов?
  194. Имеет ли унитарная симметрическая матрица сопряженную матрицу?
  195. Имеется множество прецедентов. Может ли каждый из них иметь поле притяжения?
  196. Используется ли полином Эрмита в методе потенциальных функций?
  197. Используются ли силуэты объектов в сцене при использовании машинного зрения?
  198. К действиям, которые могут применяться при матриц преобразования Адамара и Хаара, следует относить
  199. К интеллектуальным системам, в которых применяется задача распознавания образов, следует отнести
  200. К какой задаче может быть сведена задача поиска пары ближайших точек?
  201. К направлениям обработки речи следует отнести
  202. К объектам, которые могут рассматривать в виде эталонов, следует относить
  203. К основным направлениям обработки речи следует отнести:
  204. К основным операциям предобработки следует относить
  205. К основным элементам построения системы распознавания образов следует относить
  206. К ошибкам, которые могут возникать в задаче сравнения цепочек упорядоченных символов, следует относить
  207. К параметрам цифрового изображения следует отнести
  208. К приложениям, в которых может возникнуть необходимость выбора класса, к которому следует отнести вектор, следует отнести
  209. К свойствам двудольного графа соответствия между символами эталона и пробного образца следует отнести
  210. К составляющим частям линейной дискриминантной функции следует отнести
  211. К составляющим частям обобщенной схемы нейрона следует отнестия
  212. К составляющим частям редакторского расстояния следует относить
  213. К составляющим частям ядра IWR-систем относят
  214. К способам описания меры отделимости следует относить
  215. К типам комитетов следует отнести
  216. К типам селекции признаков следует относить
  217. К формам использования критериев (мер отделимости классов) следует относить?
  218. К этапам решения задачи распознавания образов следует относить
  219. Каждая гиперплоскость должна иметь
  220. Каждая гиперплоскость должна иметь направляющий вектор, который по отношению к своему прецеденту должен быть
  221. Каждая точка образует в пространстве признаков
  222. Каждый нейрон второго слоя трехслойной нейронной сети описывает
  223. Каждый нейрон задает гиперплоскость, которая разделяет пространство
  224. Как может определяться сходимость, если она рассматривается в вероятностном смысле?
  225. Как можно классифицировать ситуацию радиолокационной разведки?
  226. Как называется классификация векторов при обработке изображений?
  227. Как называется классификация векторов при распознавании речи?
  228. Как называется минимальное общее число изменений, вставок и потерь, требуемое для изменения образа A в образ B?
  229. Как называется множество, содержащее отрезок, соединяющий две произвольные внутренние точки?
  230. Как называется процедура выделения из множества признаков меньшего подмножества с наилучшим сохранением информативности для классификации?
  231. Как называется срединный перпендикуляр к отрезку, соединяющему пару точек в выпуклых оболочках обоих множеств?
  232. Как называется сумма диагональных элементов матрицы?
  233. Как называются измерения, используемые для классификации образов?
  234. Как настройка классификатора зависит от количества степеней свободы?
  235. Как принято называть вершины контуров?
  236. Как принято называть минимальное выпуклое множество, содержащее данное?
  237. Как принято называть разбиение множества на два подмножества?
  238. Как принято называть совокупность признаков, относящихся к одному образу?
  239. Какие действия могут применяться при вычислении матриц преобразования Адамара и Хаара?
  240. Какие из перечисленных ниже элементов используются для формулы Байеса?
  241. Какие из предложенных ниже записей применяются для определения редакторского расстояния?
  242. Какие из предложенных ниже записей следует относить к типам селекции признаков?
  243. Какие из предложенных ниже записей соответствуют направлениям обработки речи?
  244. Какие из предложенных ниже элементов могут быть использованы в виде эталонов?
  245. Какие из предложенных ниже элементов не входят в неравенство Бернштейна?
  246. Какие из приведенных ниже утверждений соответствуют свойствам графа соответствия между символами эталона и пробного образца?
  247. Какие из приведенных ниже элементов входят в неравенство Бернштейна?
  248. Какие ошибки могут возникать при решении задачи сравнения цепочек упорядоченных символов?
  249. Каким образом изменяется способность классификатора по разделению с увеличением степеней свободы?
  250. Каким образом может быть осуществлено построение нейронной сети-классификатора?
  251. Каким образом представляются образы в двумерных задачах?
  252. Каким отношением ограничена вероятность ошибки классификации задаче классификации по M классам?
  253. Какими величинами являются точки из обучающей последовательности?
  254. Какими являются между собой базисные вектора?
  255. Какова плотность разных точек обучающей последовательности?
  256. Какова природа байесовского подхода?
  257. Каково другое название вектора признаков?
  258. Каково значение or(x1, x2), если x1=0, а x2=1?
  259. Каково значение функции and(x1, x2), если x1=0, а x2=1?
  260. Каково значение функции or(x1, x2), если x1=1 и x2=1?
  261. Каково значение функции xor(x1, x2), если x1=1 и x2=1?
  262. Каковы основные направления обработки речи?
  263. Какое количество гиперплоскостей реализует выходной нейрон?
  264. Какое количество ограничений имеется в задаче квадратичного программирования?
  265. Какое правило принято называть байесовским?
  266. Какой считается система тригонометрических функций?
  267. Какой является оптимальная разделяющая гиперплоскость по отношению к отрезку, соединяющему ближайшие точки выпуклых оболочек симметричных друг другу множеств?
  268. Качество решающего правила измеряют
  269. Квадратичная дискриминантная функция с n элементами имеет
  270. Классификацию через оператор логического сложения осуществляет
  271. Классификация векторов по классам называется
  272. Классификация объектов по нескольким категориям или классам может производиться с помощью
  273. Классификация объектов при распознавании образов основывается
  274. Кластеризация представляет собой
  275. Когда зависимость классов ограничивается только внутри двух последовательных классов, такой класс моделей называется
  276. Когда может возникнуть необходимость выбора класса, к которому следует отнести вектор?
  277. Кодирование (запоминание) последовательности поворота вектора по пикселям на границе описываемой области носит название
  278. Количество ограничений в задаче квадратичного программирования равняется
  279. Комитет для несовместной системы
  280. Контура изображаются
  281. Линейная дискриминантная функция с n элементами имеет
  282. Максимум функции П(φ)
  283. Матрицы преобразования Адамара и Хаара вычисляются через
  284. Мера расстояния между плотностями определяется понятием
  285. Минимальное выпуклое множество, содержащее данное, носит название
  286. Минимальное общее число изменений, вставок и потерь, требуемое для изменения образа A в образ B, носит название
  287. Минимизация риска по отношению к разделению пространства признаков на M областей является
  288. Множество, содержащее отрезок, соединяющий две произвольные внутренние точки, называется
  289. Могут ли прецеденты быть результатами реализации случайных величин?
  290. Могут ли симметричные множества в евклидовом пространстве быть разделены гиперплоскостью?
  291. Могут ли совпадать размерность вектора признаков и вектора коэффициентов?
  292. Моделирование последовательности наблюдений как кусочно-стационарного процесса носит название
  293. Может ли коническое сечение являться разделяющей поверхностью?
  294. Может ли максимум функции П(φ) достигаться внутри сферы?
  295. Может ли матрица ковариации быть диагональной?
  296. Может ли обучающая последовательность быть выборкой конечного объема из пространства признаков?
  297. Может ли прецедент иметь поле притяжения?
  298. Может ли разделяющая гиперплоскость быть оптимальной?
  299. Может ли рекуррентная процедура иметь более одной формы?
  300. Может ли система подмножеств быть совместной?
  301. Может ли сходиться общая рекуррентная процедура?
  302. Можно ли определить совпадение порядка букв, как критерий, применяемый при определении меры близости при рассмотрении строчных образов?
  303. Можно ли отыскать дискриминантную функцию по обучающей последовательности?
  304. На какие структурные части делит пространство слой нейронов?
  305. На плоскости точками общего положения считаются те точки
  306. На сколько частей делит пространство гиперплоскость, заданная нейроном?
  307. На чем основывается классификация объектов при распознавании образов?
  308. Надежностью обучения классификатора называют
  309. Направляющий вектор гиперплоскости по отношению к своему прецеденту является
  310. Научная дисциплина, целью которой является классификация объектов по нескольким категориям или классам, носит название
  311. Нейрон третьего слоя осуществляет
  312. Некоторое количественное измерение объекта произвольной природы носит название
  313. Нелинейный классификатор может быть построен
  314. Образ, правильная классификация которого известна, носит название
  315. Общая информация, которая присутствует в векторах, требует, чтобы классификация была организованна
  316. Общая информация, которая присутствует в векторах, требует, чтобы классификация была выполнена
  317. Объект следует относить к тому классу, для которого апостериорная вероятность
  318. Одной из наиболее используемых моделей, описывающих зависимость классов, является
  319. Одной из основных причин сокращения числа признаков принято считать
  320. Определимо ли евклидово расстояние между парой ближайших точек в выпуклых оболочках симметричных друг другу множеств, разделенных гиперплоскостью?
  321. Определимо ли число гиперплоскостей, достаточное для разделения любых точечных множеств точек общего положения?
  322. Оптимальная разделяющая гиперплоскость по отношению к отрезку, соединяющему ближайшие точки выпуклых оболочек симметричных друг другу множеств, является
  323. Основной мотивацией для сокращения числа признаков является
  324. Основной целью научной дисциплины распознавания образов является
  325. От каких из предложенных ниже записей не зависит средний риск?
  326. От каких параметров зависит средний риск?
  327. Отбор наиболее информативных признаков для классификации носит название
  328. Отправной точкой контекстно-зависимой классификации является
  329. Пассивная селекция - это
  330. Плавающий поиск базируется на стратегии
  331. Плотность двух наугад взятых из обучающей последовательности точек
  332. По своей сути нейрон является
  333. По своей сути прецедент является
  334. Подпространство главных собственных значений
  335. Поскольку с каждым полиэдром связаны образы одного класса, то с каждой вершиной гиперкуба
  336. Построение из исходного набора признаков нового набора меньшего размера, в котором состав признаков не является подмножеством исходного набора признаков, носит название
  337. Построение линейной разделяющей гиперповерхности
  338. Почему распределение Гаусса широко используется?
  339. Правило классификации по максимуму апостериорной вероятности называется
  340. Правило отнесения образа к одному из классов на основании его вектора признаков носит название
  341. Предположение о существовании вероятностной меры на пространстве образов, которая либо известна, либо может быть оценена, лежит в основе
  342. Предположение о существовании какого элемента лежит в основе байесовского метода?
  343. Преобразование Карунена-Лоева приводит к построению
  344. Преобразование сингулярных значений матрицы носит название
  345. При больших дисперсиях признак становится
  346. При применении "наивного" метода потенциальных функций рассматриваемые функции оказались соизмеримы. К чему это может привести?
  347. При применении общей рекуррентной процедуры для бесконечного ряда требуется
  348. При рассмотрении строчных образов к критериям, определяющим меру близости, следует относить
  349. Применима ли евклидова норма для линейной поверхности решения с диагональной матрицей ковариации?
  350. Применимо ли правило Марковской цепи для описания зависимости классов?
  351. Применяется ли кронекерово произведение для формирования унитарной матрицы Адамара?
  352. Применялся "наивный" метод потенциальных функций с соизмеримыми функциями. Верно ли то, что это может привести к погружению одних точек в другие?
  353. Примером нежадной стратегии является
  354. Проверка условия критерия равномерной сходимости по вероятности затрудняется
  355. Производится ли поиск дискриминантной функции по обучающей последовательности?
  356. Процедура выделения из множества признаков меньшего подмножества с наилучшим сохранением информативности для классификации называется
  357. Процесс обучения заканчивается, когда нейрон правильно классифицирует
  358. Пусть f(x,a) - класс дискриминантных функций, где aªA - параметр. Число степеней свободы при выборе конкретной функции в классе определяется
  359. Пусть f(x,a) - класс дискриминантных функций, где aªA - параметр. Каким образом можно определить число степеней свободы при выборе конкретной функции в классе?
  360. Пусть f(x,a) - класс дискриминантных функций, где aªA - параметр. Верно ли то, что число степеней свободы при выборе конкретной функции в классе определяется размерностью A?
  361. Пусть считается, что данных для определения вероятности принадлежности объекта каждому из классов достаточно. Тогда такие вероятности носят название
  362. Равновероятные классы с одинаковой матрицей ковариации
  363. Разбиение множества на два подмножества носит название
  364. Разделяющую гиперплоскость при определенных условиях приняли за оптимальную. Возможно ли это?
  365. Разработка какого элемента является целью байесовского метода?
  366. Разрешима ли задача минимизации эмпирического риска?
  367. Распознавание без обучения носит название
  368. Распределение оттенков серого цвета среди пикселов в регионе называется
  369. Результатами реализации случайных величин могут быть
  370. Результатом процесса дискретизации непрерывной функции в виде двумерного массива является
  371. С увеличением степеней свободы способность классификатора по разделению
  372. Символьное распознавание - это распознавание
  373. Система тригонометрических функций является
  374. Системы, в которых состояния напрямую не наблюдаются и могут быть лишь оценены из последовательности наблюдений с помощью некоторой оптимизационной техники, носят название
  375. Системы, назначение которых состоит в получении изображения через камеру и составление его описания в символьном виде, носят название
  376. Сколько ограничений имеет задача квадратичного программирования?
  377. Сколько степеней свободы имеет квадратичная дискриминантная функция с 5 элементами?
  378. Сколько степеней свободы имеет квадратичная дискриминантная функция с 3 элементами?
  379. Сколько степеней свободы имеет линейная дискриминантная функция с 5 элементами?
  380. Сколько степеней свободы имеет линейная дискриминантная функция с 10 элементами?
  381. Скрытый слой нейронов делит пространство
  382. Совокупность признаков, относящихся к одному образу, называется
  383. Соответствие между символами эталона и пробного образца должно быть
  384. Составляющей частью линейной дискриминантной функции считается
  385. Срединный перпендикуляр к отрезку, соединяющему пару точек в выпуклых оболочках обоих множеств, носит название
  386. Статистические свойства речевого сигнала внутри высказывания
  387. Стратегия называется "жадной", если она
  388. Сумма диагональных элементов матрицы называется
  389. Существует ли возможность нахождения среднего риска в двухклассовой задаче при наличии матрицы потерь?
  390. Существует ли классификатор по минимуму расстояния с диагональной матрицей ковариации?
  391. Существует ли классификатор по минимуму расстояния с недиагональной матрицей ковариации?
  392. Существует ли комитет для несовместной системы?
  393. Существует множество X. Множество -X по отношению к данному множеству является
  394. Существуют ли в евклидовом пространстве два симметричных друг другу множества?
  395. Существуют ли выпуклые оболочки симметричных друг другу множеств, разделенных гиперплоскостью?
  396. Существуют ли равновероятные классы с одинаковой матрицей ковариации?
  397. Тип стохастической аппроксимации нестационарных стохастических последовательностей со статистическими свойствами, которые подвергаются различным случайным переходам среди множества различных стационарных процессов, носит название
  398. Точки x1, x2,…,xm пространства Rl называются точками общего положения, если
  399. Точки из обучающей последовательности
  400. Точки, лежащие "очень далеко" от среднего значения, носят название
  401. Трехслойная нейронная сеть позволяет описать
  402. Универсальной характеристикой класса решающих функций является
  403. Унитарная матрица Адамара порядка n - это матрица
  404. Формула Байеса позволяет вычислить апостериорные вероятности событий через
  405. Функции Хаара на замкнутом сегменте [0,1] являются
  406. Функция плотности вероятностей в одном классе
  407. Цель байесовского метода состоит
  408. Целью генерации признаков через линейные преобразования исходных измерений образов является
  409. Целью преобразования Карунена-Лоева является построение такого вектора признаков, чтобы признаки были
  410. Чем затрудняется проверка условия критерия равномерной сходимости по вероятности?
  411. Чем по своей сути является соответствие между символами эталона и пробного образца?
  412. Число вершин в гиперкубе равно 16. Чему равно число нейронов второго слоя?
  413. Число нейронов второго слоя
  414. Число нейронов второго слоя равно 4. Чему равно количество вершин гиперкуба?
  415. Что могут представлять собой высказывания в HMM?
  416. Что обозначает запись (X')T=(XT, 1)?
  417. Что образует каждая точка в пространстве признаков?
  418. Что определяет зависимость классов?
  419. Что определяет запись (W')T=(WT, W0)?
  420. Что представляет собой алгоритм Витерби?
  421. Что принято называть надежностью обучения классификатора?
  422. Что такое HMM?
  423. Что такое квантование сигнала?
  424. Что такое прецедент?
  425. Что такое распознавание образов?
  426. Что является необходимым требованием для бесконечного ряда при применении общей рекуррентной процедуры?
  427. Что является целью распознавания образов?
  428. Чтобы полученное эмпирическое решающее хорошо работало (отражало общие свойства) для всех образов, в формуле присутствует
  429. Эталоном при использовании машинного зрения можно считать
  430. Эффективное кодирование необходимой для классификации информации, содержащейся в оригинальных данных, носит название
  431. Является ли система тригонометрических функций ортогональной?
  432. Является ли система тригонометрических функций полной системой функций?



Актуальная информация по учебным программам ИНТУИТ расположена по адресу: t.ru/.

ссылка скрыта

(программ: 450)

ссылка скрыта

(программ: 14)

ссылка скрыта и ссылка скрыта

ссылка скрыта

ссылка скрыта

ссылка скрыта

ссылка скрыта



Developer Project предлагает поддержку при сдаче экзаменов учебных курсов Интернет-университета информационных технологий INTUIT (ИНТУИТ). Мы ответили на экзаменационные вопросы 380 курсов INTUIT (ИНТУИТ), всего 110 300 вопросов, 154 221 ответов (некоторые вопросы курсов INTUIT имеют несколько правильных ответов). Текущий каталог ответов на экзаменационные вопросы курсов ИНТУИТ опубликован на сайте объединения Developer Project по адресу: ссылка скрыта

Подтверждения правильности ответов можно найти в разделе ссылка скрыта, верхнее меню, там опубликованы результаты сдачи экзаменов по 100 курсам (удостоверения, сертификаты и приложения с оценками).

Более 21 000 вопросов по 70 курсам и ответы на них, опубликованы на сайте ссылка скрыта, и доступны зарегистрированным пользователям. По остальным экзаменационным вопросам курсов ИНТУИТ мы оказываем платные услуги (см. вкладку верхнего меню ссылка скрыта. Условия поддержки и помощи при сдаче экзаменов по учебным программам ИНТУИТ опубликованы по адресу: ссылка скрыта

Примечания:

- ошибки в текстах вопросов являются оригинальными (ошибки ИНТУИТ) и не исправляются нами по следующей причине - ответы легче подбирать на вопросы со специфическими ошибками в текстах;

- часть вопросов могла не войти в настоящий перечень, т.к. они представлены в графической форме. В перечне возможны неточности формулировок вопросов, что связано с дефектами распознавания графики, а так же коррекцией со стороны разработчиков курсов.