LO07 інноваційні методи економічних досліджень

Вид материалаДокументы

Содержание


Ключові слова
Основна частина.
Подобный материал:
LO07

ІННОВАЦІЙНІ МЕТОДИ ЕКОНОМІЧНИХ ДОСЛІДЖЕНЬ

В статті розглянуто сучасні методи економічних досліджень як альтернатива класичним статистичним методам. Проаналізовано основні характеристики, переваги та недоліки технології Data Mining, нейронних мереж та імітаційного моделювання. Визначено перспективи використання даних методів для аналізу інформації та економічного прогнозування. Доведено неадекватність використання нормального закону розподілу випадкових величин у практиці. Розглянуто один із синергетичних підходів, які мають найближче відношення до економіки – теорію хаосу. Проаналізовано дилему штучного і людського інтелекту.

Ключові слова: Data Mining, прогнозування, нейронні мережі, імітаційне моделювання, класифікація, прогнозування, біфуркаційна діаграма, теорія хаосу, штучний і людський інтелект.

In the article modern methods of economic investigations like the alternative to classical statistical methods are described. Data Mining, neural networks and Computer Simulation references and advantages are analyzed. Perspectives of usage methods for analyzing and economic prediction are determined. Inadequacy of the random variables normal distribution usage in practice is proved. One of synergetic approach that has the nearest attitude toward an economy is considered – Chaos Theory. Dilemma of artificial and human intelligence is analyzed.

Keywords: Data Mining, predicting, neural networks, Computer Simulation, Classification, Forecasting, bifurcation diagram, Chaos Theory, artificial and human intelligence.

Вступ. Незаперечним залишається факт про значний внесок Саймона Кузнєца у розвиток досліджень з економіки. Усім відомо, що у 1971 році він отримав Нобелівську премію “за емпірично обґрунтоване тлумачення економічного зростання, що призвело до нового, більш глибокого розуміння як економічної і соціальної структури, так і процесу розвитку”. Дослідження перспективи процесу економічного зростання визначили ряд емпіричних закономірностей для різних країн. В результаті досліджень ученого були встановлені “Цикли Кузнєца”. Вони є 20-річними періодами чергування швидкого і повільного зростання технічного прогресу, населення і національного доходу.

Справді, циклічність виступає формою економічного розвитку. Це питання часто привертало увагу вчених-економістів і навіть сьогодні залишається одним з найактуальніших в економічної теорії. Вивчення особливостей циклу як форми економічного розвитку дуже важливе, на нашу думку, також і для прогнозування економічної ситуації в майбутньому, виходячи з наявних і доступних на сьогоднішній день даних. Проте, варто зауважити, що висновки Кузнєца про 20-річну циклічність досить умовні та приблизні. Тобто, циклів тривалістю рівно 20 років не спостерігається.

Усім відомо, що Саймона Кузнєца називали батьком економічної статистики. І, власне, в цьому криється вся проблема. Тобто, проблема не в правильності висновків, які він робив на основі великої кількості статистичних даних, проблема власне у методах, які він використовував у своїх дослідженнях – статистичних методах. Традиційна математична статистика, що довгий час претендувала на роль основного інструменту аналізу даних, має суттєвий недолік: її концепцією є усереднювання по вибірці, що призводить до операцій над фіктивними величинами. Як виявляється, методи математичної статистики є корисними, головним чином, для перевірки наперед сформульованих гіпотез і “для грубого розвідувального аналізу”.

Тому з’являється потреба у використанні нових методів економічного дослідження. Тим більше, що розвиток методів запису і зберігання даних привів до бурхливого зростання обсягів збираної та аналізованої інформації. Обсяги даних настільки значні, що людині просто не під силу проаналізувати їх самостійно, хоча необхідність проведення такого аналізу цілком очевидна, адже в цих “необроблених даних” укладені знання, які важливі для вивчення економічних явищ, виявлення закономірностей і прогнозування на їх основі “можливих сценаріїв” економічної ситуації в світі чи в кожній окремій країні.

Метою даної роботи є визначення інноваційних методів економічного дослідження як альтернативи класичним статистичним методам з метою підвищення ефективності аналізу інформації та прогнозування. Для досягнення поставленої мети ми розглянемо особливості технології. Data Mining, сутність поняття “нейронна мережа”, проаналізуємо імітаційне моделювання як один із найсучасніших способів дослідження і прогнозування складних систем, визначимо його переваги й недоліки.

Основна частина. Варто відзначити, що недоліком класичних статистичних методів є те, що їх практичне застосування принципово обмежується лише випадками опрацювання ретроспективних даних кількісного характеру, що монотонно змінюються. Тобто, під час прогнозування у даному випадку відбувається опис майбутнього, яке фактично є продовженням або екстраполяцією минулого. Ця обставина істотно обмежує можливості зазначених методів, бо ми живемо у світі, де постійно відбуваються якісно нові події, не властиві минулому. Сюди, насамперед, належать стрибкоподібні зміни, які мають характер нелінійних явищ.

Суттєвим недоліком статистичного аналізу є припущення про нормальний закон розподілу випадкових величин, за якого вважають, що ймовірність малих змін є набагато вищою, ніж ймовірність великих змін. У той же час, як свідчить практика, різкі зміни трапляються досить часто.

Наприклад, на межі XX та XXI століть такими явищами були розпад Радянського Союзу і “миттєва” зміна геополітичної рівноваги у світі, бурхливий розвиток інформаційного суспільства. З допомогою статистичних методів такі явища передбачити неможливо. Доказом цього є також те, що з допомогою цих методів не вдалося передбачити світову нафтову кризу на початку 70-х років і навіть вибухоподібний розвиток інформаційних технологій у 90-х роках.

Стрибкоподібна зміна, що виникає при плавній зміні зовнішніх умов називається катастрофою. Математична теорія, що аналізує поведінку нелінійних динамічних систем при зміні їх параметрів, називається теорією катастроф. Можливість наукового вивчення криз і катастроф довгий час бралася під сумнів через неповторність і унікальність цих явищ. Проте надалі завдяки аналізу логістичного відображення в сценаріях розвитку криз і катастроф найрізноманітнішої природи було виявлено багато загального. Графіком логістичного відображення є біфуркаційна діаграма. Точка біфуркації – це точка, в якій система може бути притягнута до одного з кількох атракторів. Атрактор – це певний стан, до якого притягується система. Відповідно було зроблено висновок, що широкий клас нелінійних явищ не тільки демонструє однакову якісну поведінку, а й має універсальні кількісні характеристики.

Синергетика – це міждисциплінарний напрям досліджень, в межах якого виявляють спільні властивості різних систем. У міру наростання внутрішньої нерівноваги система наближається до біфуркаційного моменту. У цій точці еволюційний шлях системи розгалужується. Система стає дуже чутливою до зовнішніх і внутрішніх дій. Вибір того або іншого шляху в точці біфуркації залежить від чинника випадковості, що реалізовується через діяльність конкретних людей [5].

Нижче наведено біфуркаційну діаграму (Рис.1), яка в разі одновимірного відображення включає безліч точок площини, абсциса (r) якої дорівнює значенням біфуркаційного параметра, а ордината (x) – сталим значенням розглянутої змінної, тобто виступає певним станом системи. На рисунку видно, як у міру зростання параметра змінюється стан системи. Спочатку система прямує до стану рівноваги, потім її динаміка стає періодичною, з циклічними коливаннями між двома значеннями (крива “роздвоюється”), і, нарешті, після досягнення 32-х рівноважних значень, переходить до детермінованого хаосу (тонована область на діаграмі).

ссылка скрыта

Рис.1. Біфуркаційна діаграма


В суспільному житті саме конкретна історична постать може вивести систему на нову новий рівень. Тому роль випадковості в економіці не просто велика – вона фундаментальна. Це робить процес незворотним. Розвиток таких систем має принципово непередбачуваний характер [5]. Отже, синергетично мислячий економіст не оцінюватиме те або інше рішення за допомогою прямолінійного порівняння попереднього і подальшого станів, а буде порівнювати реальний хід наступних подій з вірогідним ходом подій при альтернативному ключовому рішенні. Тобто синергетичне уявлення про економічний і соціальний розвиток вимагає нелінійної інтуїції та альтернативного мислення.

Як свідчить досвід розвитку пострадянських країн, експерименти з суспільством – це ризикована і дуже дорога справа. Складним завданням є зміна атракторів. Для того, щоб підійти до цього завдання, потрібно навчитися управляти хаосом. Як правило, хаос асоціюється з безладом. Однак синергетика доводить нам творчу природу хаосу. Проте це не гарантія виходу на організацію вищого рівня, а лише унікальна можливість, яка може бути реалізована. На перший погляд, природа хаосу виключає можливість управляти ним. Насправді ж нестійкість траєкторій хаотичних систем робить їх надзвичайно чутливими до управління. Отже, основна ідея управління хаосом: кожне зі збурень дещо міняє траєкторію, зберігаючи при цьому цілісність системи. Завдання управління в ситуації хаосу – спробувати зберегти стабільність системи з одночасним пошуком нових альтернатив її розвитку. Це вимагає пошуку досить складних та часто прихованих закономірностей.

Data Mining перекладається як “видобуток” чи “розкопка даних”. Нерідко поруч з Data Mining зустрічаються слова “інтелектуальний аналіз даних”. Людський розум сам по собі не пристосований для сприйняття великих масивів різнорідної інформації. Людина до того ж не здатна уловлювати більше двох-трьох взаємозв'язків навіть у невеликих вибірках. Але і традиційна математична статистика також нерідко “здає позиції ” при розв’язанні задач з реального, тобто складного, життя.

Data Mining – нова технологія інтелектуального аналізу даних з метою виявлення прихованих закономірностей у вигляді значущих особливостей, кореляцій, тенденцій і шаблонів. Сучасні системи опрацювання даних використовують засновані на методах штучного інтелекту засоби уявлення і інтерпретації, що й дозволяє знаходити розчинену в терабайтних сховищах не очевидну, але вельми цінну інформацію [4]. На противагу класичним статистичним методам, Data Mining висуває гіпотези на основі аналізу.

Data Mining алгоритмами, засобами штучного інтелекту досліджує і виявляє в “сирих даних” приховані структури, шаблони або залежності, які раніше не були відомі, є нетривіальні, практично корисні, а головне – доступні для інтерпретації людиною і необхідні для ухвалення рішень в різних сферах діяльності.

Алгоритми, що використовуються в Data Mining, вимагають великої кількості обчислень. Раніше це було стримуючим чинником широкого практичного застосування Data Mining, проте зростання продуктивності сучасних процесорів зняло гостроту цієї проблеми. Тепер за прийнятний час можна провести якісний аналіз сотень тисяч і мільйонів записів. Важливим є те, що ця технологія динамічно удосконалюється.

Основна особливість Data Mining – це поєднання широкого математичного інструментарію (від класичного статистичного аналізу до нових кібернетичних методів) і останніх досягнень у сфері інформаційних технологій [4]. В технології Data Mining гармонійно об'єдналися кількісний і якісний аналіз даних. Проведення якісного аналізу машиною, на нашу думку, має певні переваги, оскільки тут немає суб’єктивізму, який в тій чи іншій мірі присутній при здійсненні аналізу людиною.

Більшість аналітичних методів, що використовуються в технології Data Mining – це відомі математичні алгоритми і методи. Новою ж є можливість їх використання для вирішення тих або інших конкретних проблем, обумовлена новими технічними і програмними засобами. Єдиної думки щодо того, які задачі слід відносити до Data Mining, немає. Як правило, називають наступні: класифікація, кластеризація, прогнозування, асоціація, візуалізація, аналіз і виявлення відхилень, оцінювання, аналіз зв'язків, підведення підсумків.

Найпростіша і поширена задача Data Mining – це класифікація. В результаті рішення задачі класифікації виявляються ознаки, які характеризують групи об'єктів досліджуваного набору даних – класи. Логічним продовженням ідеї класифікації є кластеризація. Результатом кластеризації є розбиття об'єктів на групи. Прикладом методу вирішення задачі кластеризації є особливий вид нейронних мереж (карти Кохонена), що самоорганізуються.

Щодо асоціації, в ході рішення задачі пошуку асоціативних правил відшукуються закономірності між зв'язаними подіями в наборі даних. Пошук закономірностей здійснюється між декількома подіями, які відбуваються одночасно. Найвідоміший алгоритм рішення задачі пошуку асоціативних правил – алгоритм Apriori [4].

В результаті рішення задачі прогнозування на основі особливостей існуючих даних оцінюються пропущені або ж майбутні значення цільових чисельних показників. Для вирішення таких задач широко застосовуються методи математичної статистики, нейроні мережі, тощо.

В результаті візуалізації створюється графічний образ аналізованих даних. Приклад методів візуалізації – представлення даних в 2-D і 3-D вимірюваннях.

Підведення підсумків – задача, мета якої – опис конкретних груп об'єктів з аналізованого набору даних та інші.

Висновок про ефективність Data Mining можна також зробити, класифікуючи стадії цієї технології :

Стадія 1. Виявлення закономірностей (вільний пошук).

Стадія 2. Використання виявлених закономірностей для прогнозу невідомих значень (прогностичне моделювання).

Стадія 3. Аналіз виключень – стадія призначена для виявлення і пояснення аномалій, знайдених в закономірностях.

Зараз технологія Data Mining використовується практично у всіх сферах діяльності людини, де накопичені ретроспективні дані.

Data Mining – це набір засобів, який допомагає аналітикам у знаходженні моделей і відношень у даних, але він не говорить про цінність цих моделей. Тобто, хоча інструментарій інтелектуального аналізу і звільняє користувача від можливих складностей у застосуванні статистичних методів, він, все-таки, потребує від нього розуміння роботи цього інструментарію й алгоритмів, на яких він базується [7].

Новітні версії майже всіх відомих статистичних пакетів поряд із традиційними статистичними методами містять також елементи Data Mining. Проте основна увага приділяється в них класичним підходам – кореляційному, регресійному, факторному аналізу та іншим. Недоліком відповідних систем можна вважати вимоги щодо спеціальної підготовки користувача. Існує, однак, і принциповий недолік статистичних пакетів, що обмежує їх застосування в Data Mining: більшість методів, що входять до складу пакетів, спираються на усереднені характеристики вибірки, які в разі дослідження складних життєвих явищ часто є фіктивними. І все ж деякі сучасні пакети пропонують модулі для інтелектуального аналізу. Наприклад, STATISTICA містить модуль Data Miner, що дає змогу будувати дерева рішень, нейронні мережі, виявляти IF THEN правила тощо. До найпотужніших і найчастіше застосовуваних статистичних пакетів належать SAS (компанія SAS Institute), SPSS, STATGRAPICS (Manugistics), STATISTICA, STADIA, Eviews [3].

Штучні нейронні мережі, які зазвичай називають просто нейронними мережами, на сьогодні є одним з найбільш відомих та водночас загадкових засобів інтелектуального аналізу даних, що розвивається завдяки досягненням в галузях теорії нейронних мереж та інформатики. Оскільки бурхливий розвиток комп’ютерної техніки створює передумови для появи нейрокомп’ютерів (тобто комп’ютерів 6-го покоління), які, за прогнозами фахівців в галузі штучного інтелекту, будуть переробляти інформацію за тими ж принципами, що й людський мозок, то зацікавленість нейромережевими технологіями поступово охоплює все більш широке коло користувачів.

Особлива привабливість нейронних мереж для сучасних дослідників полягає в тому, що їх застосування, завдяки так званому навчанню на наявних даних, дає можливість прогнозувати, які значення прийматимуть досліджуванні змінні у нових спостереженнях, ґрунтуючись на даних попередніх спостережень. При грамотному застосуванні інструментарію нейронних мереж точність таких прогнозів значно перевищує точність прогнозів, здійснених за допомогою інших, зокрема класичних статистичних методів [2].

Основним недоліком нейромережної технології є те, що вона потребує дуже великого обсягу навчальної вибірки. Ще один істотний недолік такий: навіть натренована нейронна мережа – це “чорна скринька”. Знання, зафіксовані як ваги кількох сотень міжнейронних зв’язків, людина не в змозі проаналізувати й інтерпретувати. До нейромережних систем належить, скажімо, BrainMaker (CSS), NeuroShell (Ward Systems Group), OWL (HyperLogic).

Потрібно пам’ятати, що основною особливістю таких інтелектуальних систем є те, що їх основою виступають певні знання. Знання тут розуміються як інформація, що зберігається та формалізується у відповідності з деякими правилами. Так, комп’ютери можуть вирішувати деякі завдання, наприклад, складні математичні задачі швидше і точніше, ніж люди, але завдання, що вимагають узагальнень та навчання новим стандартам поведінки, люди, беззаперечно, виконують краще. Природний інтелект людини здатен до самоусвідомлення, що не є характерним для штучного інтелекту. Тим більше, людський інтелект логічний і творчий, тоді як штучний – формальна система, що характеризується все-таки скінченним числом ситуацій. Отже, штучний інтелект – необхідна умова для проведення ефективних економічних досліджень, проте не “панацея від усіх хвороб”.

Одним з найсучасніших способів дослідження і прогнозування складних систем вважають також імітаційне моделювання, ефективність якого особливо зросла з появою нових потужних інформаційних систем і технологій. Імітаційне моделювання можна визначити як процес конструювання математичної моделі з реальної системи з дослідженням і проведенням експериментів на цій моделі. Цілі проведення подібних експериментів найрізноманітніші – від виявлення властивостей і закономірностей досліджуваної системи до розв’язання конкретних практичних задач. Унаслідок вивчення поведінки моделі за різних умов і різних значень параметрів з’являється можливість прогнозувати поведінку реальної системи, передбачати наслідки тих чи інших подій або змін.

Наприклад, AnyLogic– це інструмент імітаційного моделювання, гнучкість якого дає змогу відображати динаміку складних і різнорідних економічних і соціальних систем на будь-якому бажаному рівні абстракції. AnyLogic містить набір примітивів і бібліотечних об'єктів для ефективного моделювання виробництва і логістики, бізнес-процесів і персоналу, охорони здоров’я, фінансів, споживчого ринку, а також навколишньої інфраструктури в їх природній взаємодії. Об'єктно-орієнтований підхід, запропонований AnyLogic, полегшує ітеративну та поетапну побудову великих моделей.

Отже, імітація – це комп’ютерний експеримент, що проводиться з моделлю системи, а не з самою системою. Це особливо важливо під час дослідження регіональних і глобальних економічних процесів, коли прямий експеримент або принципово неможливий, або може призвести до непередбачених наслідків. Таким чином, імітація є єдиним способом дослідження систем без здійснення реальних експериментів.

З іншого боку, імітаційне моделювання є дзеркалом компетентності дослідника та його творчого потенціалу. Ми маємо на увазі як етап створення такої моделі, так і її аналіз. Техніка вирішення проблем є ітеративною, експериментальною. Вона є комбінацією науки і мистецтва. Аналітикові важко оцінити адекватність моделі і знайти правильне рішення на її основі, якщо недостатніми є його знання як у відповідній предметній галузі, так і з теорії ймовірностей чи інших розділів математики.

Висновки. У сучасних умовах класичні статистичні методи економічних досліджень виявились неефективними, оскільки їх використання супроводжується усереднюванням по вибірці, в результаті проводяться операції над фіктивними величинами. Ці методи є корисними, головним чином, для перевірки наперед сформульованих гіпотез і “для грубого розвідувального аналізу”.

Проте, ми дійшли висновку про те, що ґрунтуючись на нормальному розподілі випадкових величин, статистичні методи, обмежується лише опрацюванням ретроспективних даних кількісного характеру, що монотонно змінюються. На противагу цьому – в реальному житті спостерігаються стрибкоподібні зміни систем, що, в свою чергу, призводить до катастроф і хаосу. Синергетика доводить, що саме хаос, звичайно, при правильному підході, є унікальною можливістю, яка може бути реалізована для переходу на вищий рівень організації будь-якої системи.

Розвиток методів запису і збереження даних призвів до того, що обсяги даних настільки великі, що людині просто не під силу проаналізувати їх самостійно. Тому гострою постає необхідність використання інноваційних методів економічних досліджень. Як альтернативу класичним статистичним методам варто розглядати технологію Data Mining, нейронні мережі та імітаційне моделювання. Data Mining висуває гіпотези на основі аналізу, а не навпаки. Привабливість нейронних мереж для сучасних дослідників полягає в тому, що їх застосування дає можливість прогнозувати, які значення прийматимуть досліджуванні змінні у нових спостереженнях, ґрунтуючись на даних попередніх спостережень.

Штучний інтелект – необхідна умова для проведення ефективних економічних досліджень в сучасних умовах, проте лідируючі позиції, завдяки таким характеристикам, як уява та логіка, займає людський інтелект.

Методи імітаційного моделювання дозволяють зібрати необхідну інформацію про поведінку системи шляхом створення її комп’ютерної моделі. Унаслідок вивчення поведінки моделі за різних умов і різних значень параметрів з’являється можливість прогнозувати поведінку реальної системи, передбачати наслідки тих чи інших подій або змін.


Список використаних джерел:
  1. Барсегян Ф. Методы и модели анализа данных OLAP и Data Mining / Ф. Барсегян, М. Куприянов, В. Степаненко, И. Холод. –СПб.: БХВ. –2008. – 267 с.
  2. Кислова О.М. Можливості застосування штучних нейронних мереж в аналізі соціологічної інформації: [електронний ресурс ] /О. М. Кислова, К.Б.Бондаренко// Вісник Харківського національного університету імені В.Н.Каразіна.–2010.–№891.–Режим доступу:

ссылка скрыта
  1. Огляд алгоритмів та ІС Data Mining: [електронний ресурс]. – Режим доступу: ссылка скрыта
  2. Петренко А.І. Grid та інтелектуальна обробка даних Data Mining: [електронний ресурс] / А.І. Петренко // Системні дослідження та інформаційні технології. –2008. – № 4. –С.97-110. – Режим доступу: ссылка скрыта
  3. Пугачова О.Г. Теорія катастроф і біфуркації: синергетика в економіці: [електронний ресурс]  /О.Г. Пугачова // Інститут інноваційних технологій. – Режим доступу: ссылка скрыта
  4. Ситник В.Ф. Імітаційне моделювання: Навч.-метод. посібник для самост. вивч. дисц. / В.Ф Ситник, Н.С. Орленко. –К.:КНЕУ. –1999. –208с.
  5. Тема 2. Технології інтелектуальних обчислень – стан проблеми, нові рішення: [електроннийресурс]. – Режим доступу: ссылка скрыта