ПРОГНОЗУВАННЯ МЕТРИКИ ДОСТОВІРНОСТІ ІНФОРМАЦІЇ

Матеріал з Вікіпідручника

ПРОГНОЗУВАННЯ МЕТРИКИ ДОСТОВІРНОСТІ ІНФОРМАЦІЇ[ред.]

Анотація:[ред.]

Розглянуто показники якості інформації (метрики Data Quality). Запропоновано підхід та інформаційна технологія до оцінювання та прогнозування показника якості, що описує достовірність інформації. Проведено короткий аналіз робіт, що присвячені різним підходам до визначення метрик Data Quality. Нелінійний характер показника достовірності інформації дає можливість прогнозувати його майбутню поведінку із застосуванням моделі стохастичної волатильності (МСВ), в якій для оцінювання параметрів застосовано програмно реалізований алгоритм Гіббса. Запропоновано розроблену для прогнозування волатильності валютного курсу інформаційну технологію застосувати для прогнозування майбутньої поведінки міри невизначеності показника достовірності інформації. Прогнозування показника достовірності інформації має ключовий вплив на процес прийняття рішень.

Ключові слова: програмне забезпечення (ПЗ), етап проектування ПЗ, метрики складності ПЗ етапу проектування, граничні значення метрик складності ПЗ, значущість метрик складності ПЗ, кількість інформації метрик складності ПЗ, ефективність метрик складності ПЗ, адитивний критерій ефективності.

ВСТУП[ред.]

Сучасна індустрія програмного забезпечення характеризується високою конкуренцією. Для успішної роботи на цьому ринку софтверна компанія повинна розробляти, впроваджувати та супроводжувати ПЗ швидко, вкладаючись в термін, та із задовільною складністю. Ряд софтверних компаній вкладають значні кошти в модернізацію процесів розроблення ПЗ з метою підвищення його якості. За особливостями і властивостями життєвого циклу програм їх доцільно ділити на ряд класів і категорій, з яких найбільш розрізняються два великих класи – малі й великі, що визначаються кількістю рядків програмного коду [1-10]. В основі прикладних проєктів Big Data лежить аналіз і обробка великих об’ємів даних. Проте, перед тим як обробляти певні дані потрібно перевірити чи взагалі дані відповідають певним критеріям, саме цим і займаються спеціалісти з Data Quality.Теорія якості інформації (Data Quality) формується на основі різних дисциплін та різних підходів. Актуальність напряму пов’язана з появою комп’ютерів, сховищ даних з великими об’ємами інформації та з необхідністю обробки цього масиву інформації. Вивчення непрямо пов’язаних аспектів Data Quality тривало багато років у різних дисциплінах, серед яких: теорія інформації, семіотика, теорія прийняття рішень, теорія оптимального керування та ін. В окрему дисципліну Data Quality сформувалось у середині 1990-х років. Суттєвий вклад у формування Data Quality в окрему дисципліну зробили такі дослідники, як Ванг Р., Лі Ю., Балоу Д. та інші, отримавши значні теоретичні та практичні результати [1, 12]. Зусилля дослідників були зосередженні на формуванні основних понять та означень Data Quality. Проте досі немає єдиної загальноприйнятної системи означень метрик Data Quality. Мета — застосування інформаційної технології, розробленої для прогнозування волатильності валютного курсу, для прогнозування майбутньої поведінки міри невизначеності показника достовірності інформації, важливого при прийнятті рішень.

ОГЛЯД РОБІТ[ред.]

Метрики Data Quality Data Quality є одним із найменш досліджених напрямів серед дисциплін, пов’язаних з інформацією. Основним питанням є визначення метрик Data Quality. Порівняння деяких підходів до визначень метрик Data Quality, які і зараз є актуальними, проведено в роботах [3] та [4]. Розглянемо підходи, описані в [3-6]: • Ванд Ю., Ванг Р. [7-12]. В основі прикладних проєктів Big Data лежить аналіз і обробка великих об’ємів даних. Проте, перед тим як обробляти певні дані потрібно перевірити чи взагалі дані відповідають певним критеріям, саме цим і займаються спеціалісти з Data Quality. Data Quality стосується стану якісної чи кількісної інформації. Існує багато визначень Data Quality, але дані, як правило, вважаються високоякісними, якщо вони "придатні для [їх] передбачуваного використання в операціях, прийнятті рішень та плануванні". [1] [2-7] Більше того, дані вважаються високоякісними, якщо вони правильно відображають реальну конструкцію, на яку вони посилаються. Метрики Data Quality визначаються на основі функцій, що мають своє відображення в інформаційній системі. Запропоновано 5 метрик: повнота, точність, своєчасність, несуперечливість, надій- ність. Метрика неточності інформації визначається як представлення стану реального світу відмінним від того, яким його слід було б відобразити. Метрика повноти визначається як втрати під час відображення станів реального світу у стани інформаційної системи. • Ванг Р., Стронг Д. Цими вченими метрики Data Quality сформовано на основі емпіричного підходу. Автори виділили 15 різних метрик із 179 розглянутих. • Редман T. Ним метрики Data Quality згруповано у три групи: група концептуального виду інформації, що складається з 5-и метрик; група розміру інформації з 4-х метрик; група формату інформації з 8-и метрик. • Жарке М. запропонував специфічні метрики Data Quality, які класифікуються відповідно до ролі користувачів у середовищі бази даних, а саме: 6 метрик для якості проектування та адміністрування; 6 метрик для якості програмного забезпечення; 5 метрик для якості використання інформації та 5 метрик для якості зберігання інформації. • Автори: Бовее М., Срівастава М. та Мак Б., пропонують 4 метрики, а саме: відкритість для доступу (accessibility); можливість інтерпретувати (interpretability); доцільність (relevance); вірогідність (credibility). • Науманном Ф. було розглянуто 21-у метрику, які згруповано з точки зору інтегрованих Web-інформаційних систем у 4 групи: має відношення до змісту; технічна; інтелектуальна; має відношення до створення екземплярів. Порівняння метрик DataQuality Порівняльну таблицю згаданих вище метрик Data Quality наведено в [3-9]. В табиці введено такі позначення: (–) — в роботах різних авторів використовується та сама назва для метрик з різними значеннями; (+/–) — різні пропозиції використовують ту саму назву для метрик зі схожими значеннями; (+) — ті самі назви й ті самі значення для характеристик у пропозиціях різних авторів. Виходячи з більшості пропозицій стосовно метрик, Data Quality базується на таких метриках, як: точність, повнота, несуперечність, своєчасність, можливість інтерпретувати та відкритість для доступу. Найбільше уваги приділено повноті, достовірності та своєчасності інформації. Всі інші запропоновані метрики або мають другорядні властивості, або є більш залежними від контексту і дуже специфічні. Застосування метрик повноти, достовірності та своєчасності інформації на основі нечітких множин розглядається в роботі [5-7]. Продемонстровано застосування показників Data Quality з точки зору прийняття рішень. Визначити якість даних важко через багато контекстів, в яких використовуються дані, а також різну точку зору серед кінцевих користувачів, виробників та зберігачів даних. [3-5] З точки зору споживача, якість даних: − дані, придатні для використання споживачами даних − дані що відповідають або перевищують очікування споживачів − дані, які "відповідають вимогам передбачуваного використання − З точки зору бізнесу якість даних: − дані, які придатні для використання за передбачуваними оперативними функціями, процесами прийняття рішень та іншими ролями або які демонструють відповідність встановленим стандартам, щоб забезпечити придатність до використання − дані, які придатні для використання за призначенням у операціях, прийнятті рішень та плануванні − "здатність даних задовольняти заявленим діловим, системним та технічним вимогам підприємства" − З точки зору стандартів якість даних: − "ступінь, до якого набір властивих характеристик (якісних розмірів) об'єкта (даних) відповідає вимогам" − "корисність, точність та правильність даних для їх застосування" Можливо, у всіх цих випадках "якість даних" - це порівняння фактичного стану певного набору даних із бажаним станом, причому бажаний стан зазвичай називають "придатним для використання", "до специфікації", "" задоволення очікувань споживачів, "" без дефектів "або" відповідність вимогам ". Виходячи з цього, щоб аналізувати безліч файлів або записів Big Data, ці інформаційні набори повинні володіти не тільки певною структурою, а й відповідати наступним характеристикам[1-14]: − актуальність - відповідність даних відображають реальний стан цільового об'єкта в поточний період часу; − об'єктивність - точність відображення даними реального стану цільового об'єкта, яка залежить від методів і процедур збору інформації, а також від щільності реєстрованих даних; − цілісність - повнота відображення даними реального стану цільового об'єкта змістом і структурою зі збереженням їх правильної ідентифікації та взаємної пов'язаності; − релевантність - відповідність даних про реальний стан цільового об'єкта і важливість справ, що характеризує можливість їх застосування з урахуванням змісту, структури і формату; − сумісність - процедурний показник, який характеризує можливість обробляти і аналізувати дані в подальшому, не тільки в рамках поточного завдання; − вимірність - якісні чи кількісні характеристики реального стану цільового об'єкта і кінцевий обсяг набору цифрових даних; − керованість - можливість цільовим і осмисленим чином обробити, передати і контролювати дані про реальний стан цільового об'єкта, на основі структури і формату датасета; − прив'язка до джерела даних - пов'язана і достовірна ідентифікація ланцюжка постачання даних, наприклад, вказівка авторства, джерела генерації та інші атрибути походження даних (Data Provenance); − довіра до постачальника даних - оцінка одержувачем ділових якостей постачальника публічних даних як відповідального, авторитетного, організованого і відносно незалежного видавця цифрової інформації високої якості. Виходячи з усього вищесказаного, можна зробити висновок, що Data Quality є надзвичайно важливим аспектом прикладних проєктів Big Data. Саме використання якісних даних дозволить добитися найкращих результатів роботи.Наведено механізм визначення допустимого періоду часу на прийняття рішення та класифікацію ситуацій за умов нечітких множин. Демонструється зростання у часі метрики достовірності. За реальних обставин інформація, що надходить, може бути недостовірною, тобто значення метрики достовірності у часі може зменшуватись. Отже, метрика достовірності має невизначений характер і може зростати або спадати та потребує детального дослідження.

Часто Data Quality плутають із мануальним чи функціональним тестуванням або не розуміють, що це за напрям. Ми виділили 5 причин, чому варто глянути в бік Data Quality:Відносно низький поріг входження в професію — точно менше математики, ніж в Data Science, досить прості для засвоєння мови програмування, які можна вивчити з нуля.Застосування передових інформаційних технологій: Python та SQL у вмілих руках можуть творити справжні дива Робота з даними стає все більш актуальною, попит на неї зростає. Світ диджиталізується, даних більшає, а без перевірки їх якості — ніяк. І саме тут на допомогу приходять інженери з Data Quality!Сфера Data (зокрема й напрям Data Quality) стрімко розвивається. А це означає, що завжди буде різноманітність в роботі, нові підходи, інструменти, можливість покреативити. Серед розмаїття метрик виділимо 3 основних, поведінка яких залежить від часу — це метрики повноти, достовірності та своєчасності інформації. З моменту отримання перших відомостей величина показника повноти зростає. Його поведінка може мати нерівномірний характер, але загальна тенденція не змінюється [6]. Величина показника своєчасності з часом зменшується. Так само як і зміна показника повноти, спадання величини показника своєчасності може мати нерівномірний характер. Величина показника достовірності інформації з плином часу може випадковим чином збільшуватися або зменшуватися, оскільки інформація, що надходить, може бути як достовірною, так і недостовірною. Проаналізуємо поведінку показника достовірності, оскільки саме він може мати остаточний вплив у процесі прийняття рішення. Поведінка показника достовірності має невизначений, тобто випадковий характер, і може бути представлена моделлю, яка описує змінну волатильність показника достовірності. Мірою невизначеності є дисперсія, поведінку якої описують різноманітні авторегресійні моделі. Серед великої кількості авторегресійних моделей виділимо нелінійні моделі, а саме, модель стохастичної волатильності (МСВ), яка здобула популярність завдяки високій адекватності опису умовної дисперсії досліджуваних процесів. МСВ описує процес, що має нелінійний нестаціонарний характер, який і має показник достовірності. Оцінка параметрів МСВ показника достовірності дозволить прогнозувати його майбутню поведінку, а саме дисперсію показника достовірності інформації. Прогнозування не дає відповіді щодо напряму зміни показника достовірності, але дає відповідь про його майбутню стаціонарність, що може вплинути на процес прийняття рішення. Малі програми створюються переважно для одержання конкретних результатів та аналізу відносно простих процесів. Вони не призначені для масового поширення, не мають конкретного незалежного замовника-споживача, не обмежуються замовником певною вартістю, трудомісткістю, вимогами заданої якості та термінами їх створення та не підлягають незалежному тестуванню, гарантуванню якості та сертифікації. До малих програм можна віднести програми, призначені для проміжних розрахунків, для потреб програміста і т.і. Клас великих програм складають масштабні проекти для складних систем управління та обробки інформації, які оформляються у вигляді програмних продуктів з гарантованою якістю. Великі програми мають великий розмір та високу вартість. Від замовника великої програми або програмної системи розробники повинні одержати вимоги до характеристик та функційності продукту. Від розробників проектів вимагаються гарантії високої якості, надійності функціонування та безпеки застосування компонентів і програмних систем. До великих програм відноситься системне програмне забезпечення, а також деяке прикладне програмне забезпечення, наприклад, офісні пакети, графічні редактори і т.і. Великі програми називають ще програмними системами (ПС) або інформаційними системами (ІС). Програмна складність характеризується довжиною програми або обсягом пам'яті ЕОМ, необхідної для розміщення ПЗ [2-7]. Структурна складність програм визначається кількістю взаємодіючих компонент, кількістю зв'язків між компонентами та складністю їх взаємодії [2-9]. Складність деякого міжмодульного зв'язку в процесі проектування можна характеризувати ймовірністю помилки при її формалізації та ступенем впливу цієї помилки на наступне функціонування модулів [8-12]. Складність програмних модулів характеризується конструктивною складністю створення оформленої компоненти програми і оцінюється з позиції складності внутрішньої структури та перетворення змінних в кожному модулі, а також інтегрально за деякими зовнішніми статичними характеристиками модулів [12-14]. Складність програми для систем реального часу переважно визначається допустимим часом відгуку, а для інформаційних систем – кількістю типів оброблюваних змінних [2-7]. Одним з основних засобів аналізу та оцінювання складності ПЗ є метричний аналіз. Метрика визначається як міра ступеня володіння властивістю, яка має числове значення [3-9]. Метрика ПЗ – це міра, яка дозволяє одержати числове значення деякої властивості ПЗ або його специфікацій. Сучасна програмна індустрія накопичила велику кількість метрик, які оцінюють окремі виробничі та експлуатаційні властивості ПЗ. Однак прагнення їх універсальності, неврахування типу та області застосування розроблюваного ПЗ, ігнорування етапів життєвого циклу ПЗ та необґрунтоване їх використання в процедурах прийняття виробничих рішень істотно підірвало довіру розробників та користувачів ПЗ до метрик. Ці обставини вимагають ретельного відбору метрик для певного типу та області застосування розроблюваного ПЗ, врахування їх обмежень на різних етапах життєвого циклу ПЗ, встановлення порядку їх сумісного використання, накопичення та інтеграції різнорідної метричної інформації для прийняття своєчасних виробничих рішень

ПОБУДОВА МОДЕЛІ[ред.]

Розглянемо поведінку показника достовірності інформації на прикладі валютного курсу. Для прогнозування поведінки метрики достовірності інформації також можна застосувати розроблені та програмно реалізовані алгоритми оцінювання параметрів МСВ методом змішаного зсуву на основі процедури Монте-Карло для марковських ланцюгів із використанням алгоритму Гіббса та оцінювання параметрів моделі. [1-7].

ФУНКЦІЇ ПРОГНОЗУВАННЯ[ред.]

Метою оцінювання параметрів моделі є прогнозування. Об’єктом прогнозування є волатильність (дисперсія) величини метрики достовірності інформації. Модель, що описує зміну значення волатильності у часі, дає можливість прогнозувати на один крок вперед. Для цього потрібно у відповідне рівняння підставити поточне значення волатильності та відповідні параметри. Для прогнозування на декілька кроків вперед слід побудувати функцію прогнозування. В роботі [1-3] описано процес отримання функції прогнозування на декілька кроків вперед на основі МСВ:

ТЕХНІЧНА РЕАЛІЗАЦІЯ[ред.]

Розрахунок максимальних значень метрик складності ПЗ етапу проектування показав, що існує великий розкид діапазонів значень вхідних даних – значення вхідних векторів розрізняються в десятки, сотні, тисячі та навіть мільйони разів, що ускладнює аналіз метрик складності ПЗ етапу проектування. Опрацювання метрик в природньому вигляді призводитиме до того, що визначальними при аналізі складності проектів та ПЗ є метрики з великими діапазонами значень (метрики Холстеда, Кафура, МакКлура), метрики з середніми діапазонами значень (метрика Чепіна, прогнозована LOC-оцінка, прогнозована кількість операторів програми) менше впливатимуть на результати оцінювання рівня складності проектів та ПЗ, а метрики з малими діапазонами значень (метрики Джилба, Маккейба, прогнозована оцінка складності інтерфейсів) взагалі не впливатимуть на оцінку рівня складності проекту та ПЗ, тобто відбувається втрата частини значущої інформації про складність проекту та ПЗ. Проведемо оцінку ефективності метрик складності ПЗ з точки зору оцінювання їх інформації. Критеріями оцінювання інформації є [6]: 1) релевантність – наявність зв'язку з проблемою (відповідність інтересам та проблемі) та здатність інформації внести ясність у процес розуміння проблеми. Для оцінювання релевантності інформації слід співставити її з інформаційними потребами та відповісти на питання, чи зможе ця інформація допомогти в найближчому майбутньому. Ознаки релевантності: наявність явної вказівки на сферу інтересів через наявність ключових слів; наявність непрямої, змістовної вказівки; 2) достовірність – на скільки представлений опис відповідає дійсності: або можна вірити інформації, або потрібне додаткове дослідження, або не можна довіряти в принципі. Достовірність перевіряється за наступними параметрами: наявність підтвердження з інших джерел; сумісність з іншою інформацією; знання джерела та його мотивів; авторитет або тривала позитивна історія роботи з джерелом; властивості каналу передачі інформації. Очевидно, що визначальне місце тут посідає знання про джерело інформації, тому важливо вести роботу по вивченню джерел, постійному збиранню інформації про них; 3) значущість – розуміння інформації, повнота висвітлення предмету інтересу, своєчасність інформації та її достатність для прийняття рішень. Щодо релевантності метрик складності ПЗ проблемі оцінювання складності проектів та ПЗ, то висновок однозначний – інформація релевантна, причому рівень релевантності найвищий (дорівнює 1), оскільки саме метрики складності дають уявлення про рівень складності проекту і ПЗ.В роботі [1-4] зображено програмну систему, розроблену на описаних вище підходах, яку можна модифікувати та застосувати для прогнозування майбутньої поведінки метрики достовірності інформації. Розроблена система функціонує на основі валютного курсу, значення якого зберігаються у базі даних. Модифікація полягає у необхідності зберігати у базі даних значень показника достовірності інформації. Етапи проектування системи та технології, що використані для її реалізації, детально описані в [14]. Розглянуті всі модулі та структура системи, наведені концептуальна та фізична модель бази даних, описано інтерфейс користувача та надано інструкції з користування системою.

ВИСНОВКИ 1[ред.]

В роботі є підхід по прогнозуванню волатильності (дисперсії) величини показника достовірності інформації на основі авторегресійних моделей, зокрема моделі стохастичної волатильності. Поведінка метрик повноти та своєчасності інформації є передбачуваною, а поведінка метрики достовірності інформації носить невизначений характер. Запропоновано розроблену для прогнозирования волатильності валютного курсу інформаційну технологію застосувати для прогнозування на короткий термін майбутньої поведінки міри невизначеності показника достовірності інформації, важливого під час прийняття рішень. Запропонований підхід відкриває подальший напрям дослідження, який полягає у визначенні оптимального часового інтервалу, на основі якого необхідно формувати значення показника достовірності інформації. Отже, методи оцінки складності ПЗ, особливо на етапі проектування, на сьогодні є суб'єктивно залежними, для знаходження значень метрик використовуються експертні вагові коефіцієнти; порівняння значень метрик поточних проектів з попередніми (постає проблема, що робити, якщо проект принципово новий); немає загальноприйнятої номенклатури метрик; відсутні точні значення метрик, з якими можна було б порівняти поточні одержані значення; при виборі проекту враховується не стільки інформація про складність проекту та майбутнього ПЗ, скільки інформація про тривалість, вартість, технології програмування та репутацію фірми-розробника.

Висновки 2[ред.]

В ході дослідження обрано метрики складності ПЗ етапу проектування та досліджено граничні значення метрик складності, які розрізняються в десятки, сотні, тисячі та навіть мільйони разів, що призводить до визначальності впливу при аналізі складності проектів та ПЗ метрик з великими діапазонами значень (метрики Холстеда, Кафура, Мак-Клура), незначності впливу на результати оцінювання рівня складності проектів та ПЗ метрик з діапазонами значень середньої величини та відсутності впливу на оцінку рівня складності проекту та ПЗ метрик з малими діапазонами значень, тобто до втрати частини значущої інформації про складність проекту та ПЗ. Оцінки ефективності метрик складності ПЗ етапу проектування показали, що порівняно високу ефективність мають метрики Мак-Клура, Маккейба, оцінки складності інтерфейсів ПЗ; середню ефективність мають метрики Чепіна, Джилба -абсолютна, відносна, Кафура; низьку ефективність мають метрики очікуваної LOC-оцінки та прогнозованої кількості операторів програми. Отже, при оцінюванні складності ПЗ необхідно враховувати метрики з малими діапазонами значень, оскільки їх ефективність є значною. Однак, необхідно попередньо опрацьовувати діапазони значень метрик. Перспективним є розроблення нового або модифікованого методу опрацювання інформації -масштабування, нормування,

ЛІТЕРАТУРА[ред.]

1. Ballou D. P., Wang R. Y., Pazer H. & Tayi G. K. Modeling information manufacturing systems to determine information product quality // Management Science. — 1998. — № 44 (4). — P. 462–484. 2. Lee Y.W., Strong D.M., Kahn B.K. & Wang R.Y. AIMQ: A methodology for information quality assessment // Information and Management. — 2002. — № 40(2). — P. 133–146. 3. Catarci T., Scannapieco M. Data Quality under the Computer Science Perspective // Archivi&Computer. — 2002. — № 2. — P. 1–12. 4. Wang R.Y., Storey V.C. and Firth C.P. A Framework for Analysis of Data Quality Research // IEEE Transaction on Knowledge and Data Engineering. — 1995. — 7, № 4. — P. 623–640. 5. Згуровський М.З., Панкратова Н.Д. Основи системного аналізу. — К.: Видавнича група BHV, 2007. — 544 с. 6. Batini C. and Scannapieco M. Data Quality Springer-Verlag Concepts, Methodologies and Techniques. Data-Centric Systems and Applications. — Berlin: Springer-Verlag. — 2006. — P. 19–30. 7. Taylor S.J. Modeling Financial Time Series. — John Wiley, Chichester, 1986. — 268 p. 8. Савенко О. Дослідження методів антивірусного діагностування комп'ютерних мереж / Олег Савенко, Сергій Лисенко // Вісник Хмельницького національного університету. – 2007. – № 2. – Т. 2. – С. 120–126. 9. Williamson M. M. Virus throttling / M. M. Williamson, J. Twycross, J. Griffin, and A. Norman // Virus Bulletin. – 2009. 10. Савенко О. Модель процесу пошуку троянських програм в персональному комп’ютері / Олег Савенко, Сергій Лисенко // Радіоелектронні і комп’ютерні системи. – 2008. – № 7. – С. 87–92. 11. Савенко О.С. Поведінкова модель троянських програм / О.С.Савенко, С.М. Лисенко // Комп’ютерні науки та інформаційні технології (CSIT-2007): міжнар. наук.-техн. конф., 27–29 вересня 2007 р. : тези доповідей. – 2007. – С. 129–132. 12. Система пошуку троянських програм з використанням нечіткого логічного висновку: зб. наук. праць міжнародної науково-практичної конференції [«Інтелектуальний аналіз інформації ІАІ-2008»], (Київ, 14-17 травня 2008 р.) / [редкол.: С.В. Сирота та ін]. – К.:Просвіта. – 2008. – С. 413–431. 13. Савенко О.С. Алгоритми пошуку троянських програм в персональних комп'ютерах / О.С. Савенко, С.М. Лисенко // Радіоелектронні і комп'ютерні системи. – 2009. – № 5. – C. 120–126. 14. Савенко О. Розробка процесу виявлення троянських програм на основі використання штучних імунних систем / Олег Савенко, Сергій Лисенко // Вісник Хмельницького національного університету. – 2008. – № 5. – С. 183–1

Автор курсу - Огірко Ігор Васильович.