14609

Засоби створення сховищ даних

Доклад

Информатика, кибернетика и программирование

Доповідь з дисципліни: Технології сховищ даних на тему: Засоби створення сховищ даних Створення сховищ даних. Технології OLAP та Data Mining Структура сховища даних та оптимізація його обсягів Методи інтелектуального аналізу інформації час...

Украинкский

2013-06-08

137.96 KB

3 чел.

10

Доповідь

з дисципліни:

«Технології сховищ даних»

на тему:

«Засоби створення сховищ даних»

Створення сховищ даних. Технології OLAP та Data Mining

Структура сховища даних та оптимізація його обсягів

Методи інтелектуального аналізу інформації часто розглядають як природний розвиток концепції сховищ даних. Головна відмінність сховища від бази даних полягає в тому, що їх створення і експлуатація переслідують різну мету. База даних відіграє роль помічника в оперативному управлінні організацією. Це щоденні задачі отримання актуальної інформації: бухгалтерські звітності, облік договорів, тощо. Сховище даних накопичує всі необхідні дані для здійснення задач стратегічного управління в середньостроковому і довгостроковому періоді. Наприклад, продаж товару і генерація рахунку проводяться з використанням бази даних, а аналіз динаміки продажів за декілька років, що дозволяє спланувати роботу з постачальниками - за допомогою сховища даних.

Сховище даних (Data Warehouse) - це систематизована інформація з різнорідних джерел, яка є необхідною для обробки з метою ухвалення стратегічно важливих рішень

Сховище будується на основі клієнт-серверної архітектури, СУБД і утиліт підтримки прийняття рішень. Дані, що надходять у сховище, стають доступні тільки для читання.

Властивості сховища даних;

  1.  предметна орієнтація (інформацію організовано відповідно до основних аспектів діяльності);
  2.  інтегрованість даних (дані в сховище надходять з різних джерел і відповідно агрегуються);
  3.  стабільність, інваріантність у часі (записи в DW ніколи не змінюються, являючи собою відбитки даних, зроблені у певний час);
  4.  мінімізація збитковості інформації (перед завантаженням у сховища дані фільтруються, зберігаються у певній послідовності, а також формується деяка підсумкова інформація).

В сховищах даних надмірність даних є мінімальною (приблизно 1%), оскільки:

  1.  при завантаженні у сховище дані сортуються і фільтруються;
  2.  інформація у сховищах зберігається в хронологічному порядку, що майже повністю виключає перекриття даних;
  3.  при завантаженні у сховище дані зводяться до єдиного формату, включаючи обчислення підсумкових (агрегованих) показників.

Сервери багатовимірних баз даних можуть зберігати дані по-різному, крім агрегованих показників формується ще й додаткова інформація: поля часу, дати; адресні посилання, таблиці метаданих тощо. Це приводить до значного збільшення інформації. Вхідний масив розміром 200 Mb може розростись до об'єму 5 Gb. Сховище даних повинне бути оптимально організованою базою даних, яка забезпечує максимально швидкий і оперативний пошук інформації.

Вітрина даних - це спрощений варіант сховища даних, що містить лише тематично орієнтовані, агреговані дані

Глобальне сховище даних складається з трьох рівнів:

1) сховище агрегованих даних;

2) вітрини даних, які базуються на інформації зі сховища даних;

3) клієнтські робочі місця, на яких встановлено засоби оперативного аналізу даних.

У розпорядженні виробників прикладних програмних засобів є три різні технології роботи з базами даних:

  1.  DAO (Data Access Objects) - доступ до локальних баз даних;
  2.  RDO (Remote Data Objects) - доступ до віддалених баз даних;
  3.  ADO (ActiveX Data Objects) - доступ до Widows-додатків через Інтернет. В основному використовується з міркувань безпеки.

Одним з перспективних напрямів удосконалення доступу до даних є гнучке конфігурування системи, коли розподіл між клієнтською і серверною частинами можливий за допомогою використання механізму віддалених процедур.

Поряд з потоками даних існують і потоки метаданих, які розміщуються в депозитарії. Він дає змогу визначити семантичну структуру додатка у вигляді опису термінів предметної галузі, їхні взаємозв' язки й атрибути.

Метадані - це дані про дані, які визначають джерело, приймач та алгоритм трансформації даних під час перенесення їх від джерела до приймача

Метадані містять:

  1.  описи структур даних та їхніх взаємозв'язків;
  2.  інформацію про джерела даних і про ступінь їх вірогідності;
  3.  інформацію про власників даних, права доступу;
  4.  схему перетворення стовпців вхідних таблиць у стовпці кінцевих таблиць;
  5.  правила підсумовування, консолідації та агрегування даних;
  6.  інформацію про періодичність оновлення даних;
  7.  каталог використаних таблиць, стовпців та ключів;
  8.  фізичні атрибути стовпців;
  9.  кількість табличних рядків та обсяг даних;
  10.  часові ярлики (дата та час створення/модифікації записів);
  11.  статистичні оцінки часу виконання запитів.

Контроль модифікації (versioning) полягає у властивості метаданих відслідковувати зміни в структурі даних та їх значення в часі.

Функціональна архітектура сховища даних містить наступні компоненти:

  1.  сховище даних;
  2.  клієнтська частина системи (дизайнери сховища, засоби розробки додатків, засоби адміністрування, інструменти аналізу даних, завантаження словника метаданих з XML-файлу у сховище і експорт його зі сховища в XML-файл;
  3.  сервер обміну даними (Data Exchange Server) - набір програм імпорту/експорту даних зі сховища й каталогів для організації обміну даними із зовнішніми OLTP-системами;
  4.  бібліотеки прикладних класів: ACL (Application Class Library), VCL (Visual Component Library), Win Lite.

Наповнення інформаційних сховищ відбувається в декілька етапів:

  1.  екстракція (витяг) - імпорт даних у сховище з інформаційних підсистем, виробничих відділів та інших джерел;
  2.  трансформація - консолідування, агрегування даних, розбиття їх на фракції, коригування та трансформування у відповідні формати;
  3.  завантаження - у сховище, синхронізація з датою або зовнішніми подіями.

Обслуговування інформаційних сховищ полягає в: копіюванні баз даних, налаштуванні, тиражуванні, надсиланні застарілих баз даних до архіву, управлінні правами користувачів, створенні та редагуванні графічних діаграм баз даних, тощо.

Типи архівації у сховищах поділяють на:

  1.  звичайна;
  2.  копіювальна;
  3.  додаткова;
  4.  диференціальна;
  5.  щоденна.

Архівні магнітні носії зберігають у вогнетривких сейфах або за межами обчислювального центру. Крім того, розробляється план архівації компонентів сервера баз даних. Сучасні сервери автоматично підтримують копію свого каталогу на кожному сервері вузла. Цей процес називається реплікацією каталогів (directory replication).

Звичайна архівація каталогів на всіх серверах здійснюється раз на тиждень у вихідні дні, а диференціальна - щодня в робочі .дні. У річному архіві, як правило, зберігаються дані останнього тижня місяця. Усі зміни в каталозі сервера, а також в особистих і загальних сховищах записуються у файли, які називаються журналами трансакцій (transaction log files).

Під час виконання додаткової архівації каталогу або інформаційного сховища архівуванню підлягають лише журнали трансакцій.

Для ефективної роботи зі сховищем даних, необхідно зібрати максимум інформації про процес. Наприклад, для прогнозування обсягів продажів можуть бути використані бази даних облікових систем компанії, маркетингові дані, відгуки клієнтів, дослідження конкурентів і т.п.

Необхідною для прогнозу є наступна інформація:

  1.  хронологія продажів;
  2.  стан складу на кожний день - якщо спад продажів буде пов'язаний із відсутністю товару на складі, а не через відсутність попиту;
  3.  відомості про ціни конкурентів;
  4.  зміни у законодавстві;
  5.  загальний стан ринку;
  6.  курс долара, інфляція;
  7.  відомості про рекламу;
  8.  відомості про відношення до продукції клієнтів;
  9.  різного роду специфічну інформацію. Наприклад, для продавців морозива - температуру, а для фармакологічних складів -санітарно-епідеміологічний стан, тощо.

Проблема полягає в тому, що зазвичай в системах оперативного обліку більша частина цієї інформації відсутня, а наявна - неповна або спотворена. Кращим варіантом в цьому випадку буде створення сховища даних, куди б з певною заданою періодичністю надходила вся необхідна інформація, заздалегідь систематизована і очищена (рис.1).

Рис.1. Приклад сховища даних

Ефективна архітектура сховища даних організовується таким чином, щоб бути складовою частиною інформаційної системи управління підприємством.

Найбільш поширений випадок, коли сховище організовано за типом "зірка", де в центрі розміщуються факти і агрегатні дані, а "проміннями" є виміри. Кожна "зірка" описує певну дію, наприклад, продаж товару, його відвантаження, надходження коштів й інше:


Рис.2. Схема організації сховища даних за типом "зірка"

Як правило, дані копіюються в сховище з оперативних баз даних і інших джерел відповідно до певних правил.

Технологія аналітичної обробки даних в реальному часі OLAP

OLAP (On-Line Analytical Processing) є ключовим компонентом організації сховищ даних. Ця технологія заснована на побудові і візуалізації багатовимірних кубів даних з можливістю довільного маніпулювання даними, що містяться в кубі (Рис.3). Це дозволяє представити дані для аналізу в будь-якому розрізі.

Повернемося, наприклад, до аналізу продажів. Припустімо, що керівнику необхідно знати обсяги продажів за деякий період, (наприклад, за місяць), що нещодавно завершився. При цьому, компанія продає не один, а множину товарів і має велику кількість торгівельних точок (ТТ) -магазинів.

Рис.3. Схема організації розміщення даних для технології OLAP

Перші два найпростіші питання, на які потрібно мати відповіді, - це обсяги продажів товарів в кожній торгівельній точці та за кожний місяць.

Відповідь на ці питання оформляється у вигляді двовимірної таблиці. В першому випадку рядками і стовпцями цієї таблиці відповідно будуть назви товарів, місяці і суми, а в другому - назви ТТ і суми:

Таблиця 1. Приклад багатовимірного звіту

Проте, аналіз даних в такому представленні є ускладненим. Виникає потреба об'єднання даних декількох таблиць. В результаті у звіті фігуруватиме три аналітичні виміри (місто, товар і торгівельна точка), і замість двовимірних таблиць буде використовуватись тривимірна модель представлення даних.

Технологія комплексного багатовимірного аналізу даних OLAP представляє собою головний компонент організації сховищ даних, а саме: збору, очищення й попередньої обробки інформації. Часто OLAP характеризують як швидкий аналіз багатовимірної розподіленої інформації.

Автор реляційної моделі даних Е.Ф. Кодд сформулював 18 правил OLAP, які розділив на 4 групи:

  1.  Основні властивості:

1. багатовимірне представлення даних;

2. інтуїтивне оперування даними (без застосування меню);

3. доступність;

4. пакетне вилучення замість інтерпретації;

5. моделі аналізу OLAP (за категоріями, тлумачний, абстрактний і стереотипний);

6. архітектура "клієнт-сервер";

7. прозорість;

8. можливість одночасного обслуговування багатьох користувачів.

  1.  Спеціальні властивості:

9. обробка ненормалізованих даних;

10. збереження результатів OLAP;

11. вилучення значень, яких немає (відрізняються від нульових значень);

12. обробка значень, яких немає (ігноруються OLAP-аналізатором без врахування їх джерел).

  1.  Особливості представлення звітів:

13. гнучкість формування звітів;

14. стандартна продуктивність звітів (не знижується із зростанням кількості вимірів і об'єму бази даних;

15. автоматичне налаштування фізичного рівня.

  1.  Управління вимірами:

16. універсальність вимірів;

17. необмежена кількість вимірів і рівнів агрегації;

18. необмежені операції над розмінностями.

Зазначимо, що на практиці не всі вказані особливості враховуються. Можливості компанії Oracle в галузі сховищ даних базуються на таких складових як:

o наявність реляційних СУБД Oracle (7,8 і вище);

  1.  існування набору готових додатків, що забезпечують можливості розробки і адміністрування сховищ даних;
  2.  високий технологічний потенціал в галузі OLAP-технологій;
  3.  доступність ряду програмних розробок інших компаній.

До складових OLAP-технологій відносять:

  1.  Oracle Express (OE) Server - об'єктний сервер, який забезпечує обчислювальні можливості всіх програмних продуктів технології Express;
  2.  Oracle Express Analyzer - об'єктно-орієнтована система аналізу бази даних;
  3.  Oracle Financial Analyzer - система, що підтримує розподілене оперування бюджетом, фінансовий аналіз і економічне моделювання;
  4.  Oracle Sales Analyzer - система для маркетингового аналізу, а також для загального аналізу великих обсягів даних;
  5.  Oracle Express Relational Access Manager - система створення динамічного зв'язку між пакетом OE і сховищем OE.
  6.  Oracle Pack - засіб оптимізації системи.
  7.  Oracle Diagnostics Pack - засіб контролю, діагностики й підтримки бази даних, операційної системи та додатків.
  8.  Oracle Change Management Pack - засіб ліквідації помилок і втрат під час модернізації баз даних.

У першої системи управління базами даних (функції сервера) і взаємодія з користувачем були поєднані в одній програмі. Бази даних і прикладні програми, які працювали з ними, функціонували на одному (центральному) комп'ютері. Там же виконувались усі процедури звертання до даних і їх обробка.

Комп'ютер, що керує певним ресурсом, називають сервером цього ресурсу, комп'ютер, який ним користується - клієнтом (файл-сервер, сервер баз даних). Той самий комп'ютер може виконувати як роль сервера, так і клієнта.

Цей принцип поширюється і на взаємодію програм. Якщо одна з них виконує деякі функції, надаючи іншим відповідний набір послуг, то вона називається сервером. Програми, що користуються цими послугами, називаються клієнтами (SQL-сервер і SQL-клієнт).

Підтримка інтелектуального аналізу є одним із базових компонентів сучасних корпоративних інформаційних систем. В межах OLAP-технологій вона отримала самостійний розвиток в сучасних технологіях.

Корпоративне сховище даних може функціонувати в трьох архітектурах - реляційній (ROLAP), багатовимірній (MOLAP), і гібридній або змішаній (HOLAP).

У ROLAP (Relation OLAP) - архітектурі дані зберігаються в реляційній базі даних, а агретовані - у спеціальних службових таблицях. Реляційні таблиці і зв'язки між ними генеруються автоматично. Головні функції системи розподіляються між трьома логічними рівнями:

  1.  масштабована паралельна реляційна база даних забезпечує зберігання і швидкий доступ;
  2.  середній рівень аналізу підтримує багатовимірне представлення даних і розширені функціональні можливості, які є недоступними на базовому реляційному сервері;
  3.  рівень представлення відповідає за донесення результатів до користувачів.

Реляційна архітектура забезпечує високу швидкість роботи зі сховищем при невеликих обсягах даних.

HOLAP (Hybrid OLAP) - передбачає збереження основних даних в реляційному сховищі, а агрегованих - в багатовимірній базі MOLAP (Multidimensional OLAP) у зручному для користувача вигляді

Технологія аналізу сховищ даних (Data Mining)

Data Mining (добування знань, даних) - технологія аналізу сховищ даних, що грунтується на методах штучного інтелекту та інструментах підтримки прийняття рішень. Зокрема сюди входить знаходження трендів і комерційно корисних залежностей. Деколи використовують термін "knowledge discovery" (виявлення знань) - виявлення прихованих структур (patterns) у сховищах даних, щоб перетворити їх на знання або термін "інтелектуальний аналіз даних". Всі ці терміни є синонімами.

Класичне визначення технології "видобування даних" (Data Mining) звучить таким чином: це виявлення в початкових ("сирих") даних - раніше невідомих, нетривіальних, практично корисних і доступних інтерпретації знань. Тобто інформація, знайдена в процесі застосування методів Data Mining, повинна бути нетривіальною і раніше невідомою, наприклад, отриманий показник середніх продажів не є таким. Знання повинні описувати нові зв'язки між властивостями, передбачати значення та характеристики одних параметрів на основі інших.

Основна мета Data Mining полягає у виявленні прихованих правил і закономірностей у великих масивах даних. На відміну від оперативної аналітичної обробки даних (OLAP), у Data Mining основну задачу формулювання гіпотез і виявлення незвичайних шаблонів (закономірностей) перекладено з людини на комп'ютер.

Фірми Oracle, Microsoft, IBM т. ін. випустили ряд продуктів (DarWin, Microsoft SQL Server 200, IBM Intelligent for Data, відповідно), що реалізують алгоритми Data Mining і дають змогу автоматизувати процес аналізу даних.

Методи Data Mining дозволяють виявляти стандартні закономірності:

  1.  асоціація (кілька подій пов'язані одна з одною, наприклад при купівлі пива дуже часто купують і чіпси чи горішки);
  2.  послідовність (ланцюжок пов'язаних у часі подій, наприклад: нова квартира - нові меблі);
  3.  кластеризація (відрізняється від класифікації тим, що групи заздалегідь не створені. Використовується для сегментації ринку і замовників);
  4.  прогнозування (базою служить історична інформація. Ґрунтується на побудові математичних моделей).

Існують два способи впровадження нової інформаційної технології в локальні інформаційні структури:

1.    пристосування її до організаційної структури підприємства;

2. модернізування організаційної структури з метою найбільш ефективного використання нової інформаційної технології.

Перший спосіб є дешевшим і не вимагає великих змін в організації діяльності підприємства. Проте ефект від його впровадження може бути незначним. Другий спосіб вимагає більших капіталовкладень, але забезпечує якісно новий рівень діяльності підприємства чи організації.

Наведені нижче приклади з різних областей економіки демонструють основну перевагу методів Data Mining - здатність виявлення нових знань, які неможливо отримати методами статистичного, регресивного аналізу або економетрики.

1. Клієнти компанії за допомогою одного з інструментів Data Mining були об'єднані в сегменти з схожими ознаками. Це дозволило проводити різну маркетингову політику і будувати окремі моделі поведінки для кожного сегменту. Найважливішими чинниками для розподілу були: віддаленість регіону клієнта, сфера діяльності, середньорічні суми операцій, кількість операцій за тиждень.

2. Автоматичний аналіз банківської бази даних кредитних операцій фізичних осіб виявив правила, за якими позичальникам відмовляли у видачі кредиту. Вирішальними чинниками, виявились: термін кредиту, середньомісячний дохід і витрати позичальника. Надалі це враховувалося при експрес-кредитуванні.

3. При аналізі бази даних клієнтів страхової компанії був встановлений соціальний портрет людини, що страхує життя - це виявився чоловік 35-50 років, що має двох і більше дітей і середньомісячний дохід вище $2000.

Висунення гіпотез. Під гіпотезою в даному випадку будемо розуміти припущення про вплив певних чинників на досліджувану задачу. При цьому форма цієї залежності в значення не має. Тобто можна припустити, що на продаж впливає відхилення ціни на товар від середньоринкової, але при цьому не зазначати, як саме цей чинник впливає на продажі. Для вирішення цієї задачі і використовується Data Mining. Наприклад, для обробки даних про обсяги продажів певного товару висувається гіпотеза про вплив чинника його відсутності у торговій точці.

Автоматизувати процес висунення гіпотез не представляється можливим, принаймні, на сьогоднішньому рівні розвитку технологій. Цю задачу повинні вирішувати експерти - фахівці в даній області. З використанням їх знань про предмет, методом опитування накопичується максимальна кількість гіпотез/припущень.

Результатом цього кроку буде список з описом всіх чинників. Наприклад, для задачі прогнозування попиту це може бути список наступного вигляду: сезон, день тижня, обсяги продажів за попередні тижні, обсяги продажів за аналогічний період минулого року, рекламна компанія, маркетингові заходи, якість продукції, бренд, відхилення ціни від середньоринкової, наявність даного товару у конкурентів, тощо.

При розв'язку певної задачі необхідно створювати спеціалізований набір даних, причому їх велика кількість не обумовлює якість рішення.

Після підготовки таблиці з описом чинників експертно оцінюється значущість кожного з чинників. Ця оцінка не є остаточною, вона служить відправним пунктом. В процесі аналізу може виявитися, що чинник, який експерти вважали вкрай важливим, таким по суті не є і, навпаки, незначущий із їхньої точки зору чинник може мати значний вплив. У будь-якому випадку, всі варіанти проаналізувати відразу неможливо, потрібно від чогось відштовхуватися, цією крапкою і є оцінка експертів. До того ж, досить часто реальні дані підтверджують їх оцінку. Результатом цього кроку може бути таблиця наступного вигляду (табл.5.2).

Коли гіпотезу висуває один експерт, задача оцінки значущості істотно спрощується. Проте, із зростанням складності системи, зростає і складність отримання адекватної оцінки експертів.

Таблиця 2. Приклад експертної оцінки значущості чинників

Чинник

Оцінка значущості (< 100)

Сезон

100

День тижня

80

Обсяги продажів за попередні тижні

100

Рекламна кампанія

60

Маркетингові заходи

40

Якість продукції

50

Відхилення ціни від середньоринкової

60

Наявність даного товару у конкурентів

15

Часто думки експертів можуть розходитись - виникає питання одержання середніх показників з десятків думок. Для цього існують спеціальні математичні методи - методи проведення складних експертиз: ранжування, парне порівняння та інші.


Висновок

Інтелектуальний аналіз інформації часто розглядають як природний розвиток концепції сховищ даних, в якому накопичуються всі необхідні дані для здійснення задач стратегічного управління середньострокового та довгострокового періодів. Обслуговування інформаційних сховищ полягає в: копіюванні баз даних, налаштуванні, тиражуванні, надсиланні застарілих баз даних до архіву, управлінні правами користувачів, створенні та редагуванні графічних діаграм баз даних, тощо.

Ключовим компонентом організації сховищ даних є технологія OLAP, яка базується на побудові і візуалізації багатовимірних кубів даних з можливістю довільного оперування даними, що містяться в кубі. OLAP повинна відповідати набору правил, що були сформульовані автором реляційної моделі даних Едгаром Франком Коддом.

Data Mining (добування знань, даних) - технологія аналізу сховищ даних, що ґрунтується на методах штучного інтелекту та інструментах підтримки прийняття рішень. Функціонування Data Mining полягає у виявленні прихованих правил і закономірностей у великих масивах даних. На відміну від OLAP, у Data Mining основну задачу формулювання гіпотез і виявлення незвичних шаблонів виконує комп'ютер. Data Mining дозволяє виявити нові знання, які неможливо отримати методами статистичного, регресивного аналізу або економетрики.


 

А также другие работы, которые могут Вас заинтересовать

6191. Папулосквамозные дерматозы (псориаз, красный плоский лишай). Заболевания потовых и сальных желёз (себорея, ихтиоз, угревая болезнь) 150.5 KB
  Папулосквамозные дерматозы (псориаз, красный плоский лишай). Заболевания потовых и сальных желёз (себорея, ихтиоз, угревая болезнь) Определение Этиология Классификация по клиническим формами разновидностям Тактика среднего ме...
6192. Словообразовательные процессы 49 KB
  Словообразовательные процессы Лексика языка непосредственно отражает реальную действительность, изменения в развитии общества, науки, техники и Основное назначение лексической единицы - функция наименования, номинации. Каждое новое явление...
6193. События в Windows. Генерация событий 97.5 KB
  События Приложения Windows управляются сообщениями. Это значит, что приложение общается с Windows, aWindows - с приложением посредством предопределенных сообщений. Эти сообщения представляют собой структуры, содержащие различные порции ин...
6194. Пряма у просторі і на комплексному кресленні 241.5 KB
  Пряма у просторі і на комплексному кресленні Проектування прямої на дві площини проекцій При ортогональному проектуванні на площину пряма проектується у пряму (друга інваріантна властивість паралельного проектування). Тому для визначення проекції пр...
6195. Спрос, предложение, определяющие их факторы. Рыночный механизм 70 KB
  Спрос, предложение, определяющие их факторы. Рыночный механизм. Понятие спроса. Факторы, определяющие спрос. Эластичность спроса. Предложение и определяющие его факторы. Эластичность предложения. Рыночный механизм. Рыно...
6196. Разработка методики исследований. Планирование и проведение исследований 137.5 KB
  Понятие методики системного анализа О разработке методики системного анализа. Методика системного анализа разрабатывается и применяется в тех случаях, когда у лиц, принимающих решения ППР на начальном этапе нет достаточных сведений о проблемно си...
6197. Философия в эпохи Средневековья и Возрождения 104 KB
  Философия в эпохи Средневековья и Возрождения. Вопрос 1 Философия Аврелия Августина и Фомы Аквинского. Люби, и тогда делай, что хочешь (А. Августин). Истина должна быть конечной целью вселенной (Ф.Аквинский). Жизнь и труды А. Августина. Апогеем разв...
6198. Защищенный документооборот и технологические системы обработки и хранения конфиденциальных документов 165 KB
  Защищенный документооборот и технологические системы обработки и хранения конфиденциальных документов 1. Конфиденциальность документов 1. Понятие о конфиденциальной информации и конфиденциальности документов В современной российской рыно...
6199. Коллекции данных и их обработка на языке С# и в среде Net 219 KB
  Коллекции В некоторых ситуациях возникает потребность хранения более одного элемента в коллекциях данных. Может понадобиться хранить группу или коллекцию, некоторым образом включенную в более крупную конструкцию. Язык С# и среда Net представляют мно...