12981

Математичний аналіз. Відповіді

Шпаргалка

Математика и математический анализ

Математичний аналіз Числова послідовність та її границя. Границя й неперервність функції в розумінні Коші та Гейне. Властивості неперервних функцій на відрізку. Диференційованість функції. Критерії диференційованості. Локальний екстремум. Нео

Украинкский

2013-05-07

976 KB

30 чел.

  1.  Математичний аналіз
    1.  Числова послідовність та її границя.
    2.  Границя й неперервність функції в розумінні Коші та Гейне.
    3.  Властивості неперервних функцій на відрізку.
    4.  Диференційованість функції. Критерії диференційованості.
    5.  Локальний екстремум. Необхідні та достатні умови екстремуму.
    6.  Інтеграл Рімана. Критерій інтегрованості функції за Ріманом.
    7.  Числові ряди. Достатні ознаки збіжності.
    8.  Застосування визначеного інтеграла.
    9.  Невласні інтеграли, ознаки збіжності.
    10.  Степеневі ряди та їх застосування.
  2.  Алгебра та геометрія
  3.  Прямі та площини у просторі.
  4.  Критерій сумісності системи лінійних рівнянь.
  5.  Лінійна залежність та ранг системи векторів, методи обчислення рангів.
  6.  Лінійні оператори в скінченно-вимірних просторах та їх матриці.
  7.  Власні вектори та власні значення лінійного оператора. Оператори з простим спектром.

6. Лінійні оператори в дійсних евклідових просторах.

  1.  Квадратичні форми. Зведення квадратичних форм до канонічного вигляду.
  2.  Основна теорема про подільність многочленів.
  3.  Жорданові нормальні форми.
  4.  Дискретна математика
  5.  Множини. Операції над множинами. Застосування теорії множин в математиці.
  6.  Відношення, операції над відношеннями.
  7.  Комбінаторика. Основні комбінаторні схеми.
  8.  Біном Ньютона.
  9.  Булеві функції. Мінімізація булевих функцій.
  10.  Функціональна повнота систем булевих функцій.Теорема Поста.
  11.  Графи, їх різновиди. Шляхи у графах. Зв”язність графів.
  12.  Планарні графи. Гіпотеза про 4 фарби.

11.Основні поняття абстрактної теорії автоматів. Автомати Мілі та Мура.

  1.  Методи оптимізації
  2.  Задача лінійного програмування. Її властивості.
  3.  Критерій оптимальності базисного розв’язку задачі лінійного програмування.
  4.  Двоїсті задачі лінійного програмування. Теорема двоїстості.
  5.  Транспортна задача лінійного програмування. Властивості. Методи розв’язання транспортних задач. Транспортна задача з обмеженими пропускними спроможностями.
  6.  Диференціальні рівняння
  7.  Теорема існування та єдності розв’язку задачі Коші диференціального рівняння першого порядку.

5.Лінійні диференціальні рівняння та їх розв’язування методом Лагранжа та Бернуллі.

  1.  Теорія ймовірностей та математична статистика
  2.  Випадкові події та їх ймовірності.
  3.  Основні теореми теорії ймовірностей.
  4.  Схема Бернуллі та її наближені формули.
  5.  Дискретна випадкова величина та її числові характеристики.
  6.  Неперервна випадкова величина та її числові характеристики.

8.Граничні теореми теорії ймовірностей. Закон великих чисел.

9.Основні поняття та типи випадкових процесів.

10.Основні поняття та задачі математичної статистики. Вибіркове, параметричне та непараметричне оцінювання.

  1.  Чисельні методи

2.Наближене розв’язування нелінійних рівнянь. Умови існування та єдиності коренів. Локалізація коренів. Уточнення коренів. Методи простої ітерації, хорд, дотичних (Ньютона). Достатні умови збіжності.

3.Арифметичні методи розвязування системи лінійних алгебраїчних рівнянь (СЛАР). Метод послідовного виключення невідомих Гауса та його модифікації.

4.Ітераційні методи розв’язування СЛАР. Метод простої ітерації; метод Зейделя. Достатні умови збіжності.

5.Інтерполяція функцій. Інтерполяційний многочлен Лагранжа. Оцінка залишкового члена у формі Лагранжа.

6.Інтерполяція функцій на початку та в кінці таблиці. Інтерполяційні многочлени Ньютона-1 вперед та Ньютона-2 назад.

7.Апроксимація функцій многочленами найкращого наближення (МНН). Метод найменших квадратів для побудови МНН.

8.Чисельне інтегрування функцій. Квадратурні формули прямокутників, трапецій, Сімпсона. Оцінка похибки квадратурних формул.

9.Наближене розв’язування звичайних диференціальних рівнянь. Різницеві методи для задачі Коші для лінійних ЗДР: схема Ейлера, модифікована схема Ейлера, схема Ейлера-Коші.

10.Зведення крайових задач для лінійних ЗДР 2-го порядку до СЛАР. Метод сіток. Метод прогонки для тридіагональних СЛАР.

11. Основні поняття методу сіток. Апроксимація різницевих схем. Стійкість різницевих схем.

9. Системне програмування

  1.  Функції та структура операційної системи. Завантаження операційної системи.
  2.  Розподіл та управління ресурсами. Управління процесором.

Управління пам’яттю. Невіртуальна та віртуальна пам’ять.

  1.  Управління файловою системою. Файлова система DOS, UNIX, WINDOWS 2000.
  2.  Розподіл пам’яті ПЕОМ. Базова система вводу – виводу. Область даних BIOS. Переривання. Таблиця векторів переривань.

10. Програмування

  1.  Етапи розробки прикладних програм.
  2.  Поняття алгоритму. Види алгоритмів. Властивості алгоритмів. Способи реалізації алгоритмів.
  3.  Мови програмування та їх класифікація.
  4.  Типізація даних в мовах програмування. Скалярні та структуровані типи даних.
  5.  Скалярні типи даних та операції над ними.
  6.  Способи структурування даних: масиви, рядки, множини, записи, файли.
  7.  Оператори мов програмування: порожній; присвоєння; вводу-виводу; складений; умовний; оператори циклу.
  8.  Підпрограми процедури і функції. Механізм передачі параметрів у підпрограмах. Формальні і фактичні параметри. Локальні і глобальні змінні.
  9.  Файловий тип даних. Типізовані, текстові, безтипові файли. Файли прямого та послідовного доступу.
  10.  Вказівний тип даних. Динамічні змінні. Динамічні структури даних – списки.
  11.  Модульний принцип організації програм. Структура модуля. Видимість об’єктів модулів. Роздільна компіляція модулів.
  12.  Об’єктно-орієнтоване програмування. Поняття класу, об’єкта.
  13.  Об’єктно-орієнтоване програмування. Інкапсуляція. Наслідування. Поліморфізм.
  14.  Методи розробки алгоритмів та програм.
  15.  Алгоритми пошуку елемента в масиві та підпослідовності в послідовності.
  16.  Алгоритми сортування.

12. Теоретична механіка, Механіка суцільних середовищ.

4.Поняття суцільного середовища. Способи задання руху. Підходи Лагранжа й Ейлера.

5.Основні рівняння плоскої теорії пружності в декартових координатах.

7.Комплексне подання напружень і зміщень в плоскій теорії пружності.


Теорема1. Якщо послідовність
{аn}має границею число а, то ця границя єдина.

Теорема2. Якщо послідовність {аn}має границю, то вона обмежена.

Теорема3. Якщо послідовність {аn}має границею число а, то для довільного b, яке менше ніж а, існує такий номер N, починаючи з якого буде виконуватися нерівність аn>b.

Теорема4. нехай маємо дві збіжні послідовності , , тоді anbn => ab.

Теорема5 (про два міліціонери або про границю проміжної послідовності). Якщо для членів трьох послідовностей {an}, {bn}, {cn} при довільному n виконується нерівність ancnbn при чому послідовності an i bn збіжні і мають границею одне і теж саме число а, то послідовність cn також збіжна причому  


МА

3.Властивості неперервних функцій на відрізку.

Теорема. (Больцано-Коші) Якщо функція  неперервна на сегменті  і приймає на кінцях сегменту значення, які протилежні за знаком, то існує одна така точка с, яка належить сегменту , що .

Доведення. Для визначеності будемо вважати, що . Поділимо сегмент  пополам . Може виявитись, що в точці  , тоді теорема доведена. Якщо ж , то з цих двох сегментів виберемо той, на кінцях якого функція  приймає значення різних знаків. Позначимо його через . Очевидно, що цей сегмент включається в . Сегмент поділимо пополам  .

Якщо , то теорема доведена. Якщо ж ні, то серед двох останніх сегментів виберемо той, на кінцях якого функція  приймає різні знаки . Продовжуючи цей процес далі ми можемо на п-му кроці, в результаті поділу сегмента пополам одержати точку систему вкладених сегментів, довжини яких прямують до нуля.

За теоремою Кантора існує точка с, яка належить всім цим сегментам. Покажемо, що це буде точка, в якій . Дійсно, розглянемо окремо послідовності лівих і правих кінців вкладених сегментів. Послідовність , а . Перейшовши до границі будемо мати . Аналогічно послідовність правих кінців , причому , тоді . Оскільки обидва співвідношення виконуються одночасно, то це можливо лише тоді, коли  .

Теорема. (Больцано-Коші) Якщо  - неперервна на сегменті  і принаймні на кінцях сегмента приймає різні значення А і В, то для довільного числа С, такого що , існує точка , така що .

Теорема. (Веєрштрасса) Якщо функція  - неперервна на сегменті , то вона обмежена на цьому сегменті, тобто існують такі числа .

Доведення. Для визначеності доведемо, що  обмежена зверху. Будемо доводити методом від супротивного.

Припустимо, що функція  - необмежена зверху, тобто знайдеться така точка  на , що  . знайдемо точку . Отримали нескінчену послідовність значень аргументу . Як відомо з такої послідовності можна виділити підпослідовність . Так як  - неперервна, то використовуючи означення неперервності за Гейне матимемо, що . Одержане суперечить побудові послідовності , яка не являється обмеженою зверху.

Теорема. (Веєрштрасса) Якщо функція  неперервна на сегменті , то вона досягає на цьому сегменті свого найменшого і найбільшого значення.


МА

6.Інтеграл Рімана. Критерій інтегрованості функції за Ріманом.

Означення. Визначеним інтегралом називається границя, до якої прямує n-а інтегральна сума   при прямуванні до нуля довжини найбільшого частинного інтервалу.

Як і в невизначеному інтегралі, функція  f(x) називається підінтегральною функцією, вираз f(x)dx – змінною інтегрування. Інтервал основою  [a, b] називається інтервалом інтегрування, число а – нижньою, а число b -  верхньою межами інтегралу. Відмітимо очевидний результат .

Суми Дарбу та їх властивості. Нехай функція f(x) визначена на відрізку [a, b],  - деяке розбиття відрізку  [a, b] і .

Покладемо , .

Очевидно, .

Означення. Сума  називається верхньою інтегральною сумою Дарбу, а сума  - нижньою.

Відмітимо наступні властивості інтегральних сум Дарбу.

  1.  Якщо функція f обмежена, то при довільному розбитті суми  і  визначенні, тобто і  - скінченні, і тому вирази  мають смисл.
  2.  Якщо , то  і .
  3.  Наслідок з 2. для будь-яких розбиттів   і  відрізка [a, b] виконується нерівність .

Необхідна і достатня умова інтегрованості функції на відрізку

Теорема. Для того щоб обмежена на деякому відрізку функція була інтегрованою на цьому відрізку, необхідно і достатньо, щоб  .

Доведення. Умова   означає, що для будь-якого   існує , таке, що  для будь-якого розбиття  .

Оскільки  , то нерівність  рівносильна нерівності .

Необхідність. Нехай на відрізку [a,b] функція f  інтегрована на цьому відрізку і нехай , тоді . Тому для будь-якого  існує , таке, що якщо , то  , чи .

Звідси при , згідно з  властивостями інтегральних сум Дарбу, отримаємо нерівність .

Таким чином, якщо , то , а це і означає виконання умови .

Достатність. Нехай функція f обмежена і має місце . З визначення нижнього і верхнього інтегралу Дарбу і з того, що нижній інтеграл менший або дорівнює верхньому, маємо , тому , звідки в силу   слідує , що . Позначимо їх загальне значення через І, тобто , з , отримаємо , і тому .

Звідси в силу  слідує , що , а значить, .Але в силу властивості інтегральних сум Дарбу . З  і  слідує, що , це і означає інтегрованість функції f.

Класи інтегрованих функцій

Твердження. Якщо функція f(x) – неперервна на сегменті [a, b], то вона інтегрована.

Твердження. Якщо обмежена функція f(x) на сегменті [a, b] має скінчене число точок розриву, то вона інтегрована.

Твердження. Монотонно-обмежена функція буде завжди інтегрованою


Властивості степеневих рядів

Теорема. Степеневий ряд рівномірно збігається на будь-якому відрізку, що знаходиться всередині інтервалу збіжності.

Доведення. Нехай степеневий ряд збігається в інтервалі  .

Візьмемо додатне число . Тоді для всіх  справджується нерівність .

Оскільки степеневий ряд   всередині інтервалу збіжності збігається абсолютно і  , то числовий додатній ряд  збігається . Згідно з  і ознакою Веєрштрасса, степеневий ряд  на відрізку  збігається рівномірно.

Властивість. Сума степеневого ряду всередині інтервалу збіжності є функція неперервна.

Властивість. Сума степеневого ряду на будь-якому відрізку , є функція інтегрована і визначений інтеграл від неї можна дістати по членним інтегруванням даного ряду.

Властивість. Сума степеневого ряду є функція, диференційована в кожній точці інтервалу збіжності, і похідну від неї можна дістати поленим диференціюванням даного ряду.

Теорема. Якщо степеневий ряд  - збігається на проміжку  і має суму рівну функції , то ряд, отриманий диференціюванням даного ряду.


АіГ

6. Лінійні оператори в дійсних евклідових просторах.

Означення. Лінійний оператор  називається спряженим оператором А, якщо , де u,v – деякі вектори простору V.

Лема. Якщо для будь-яких векторів u,v виконуються рівності:

1. ; 2. ; 3. ; 4. ;

 5. ; 6. .

Теорема. Для довільного лінійного оператора А евклідового простору існує спряжений . Якщо оператор А має матрицю А, то  має матрицю .

Властивості спряжених операторів:

1. ; 2. ; 3. ; 

4. ; 5. ; 6. ;

7. підпростір U є інваріантним відносно оператора А тоді і тільки тоді, коли його ортогональне доповнення буде інваріантне відносно оператора ;

8.  і  мають однакові власні значення.


АіГ

10.Жорданові нормальні форми.

Означення. Жордановою клітиною порядку k, яка відноситься до числа , називається матриця порядку k, яка має вигляд , іншими словами, на її головній діагоналі стоїть одне і те ж число  з поля Р; паралель, найближча до головної діагоналі зверху, зайнята числом 1; всі решта елементи матриці рівні 0.   Озн.Жордановою матрицею порядку n наз матриця порядку n,яка має вигляд ;тут вздовж головної діагоналі ідуть жорданові клітинки   деяких порядків, не обов’язково різних, які відносяться до деяких чисел з поля Р, також не обов’язково різних; всі місця за цими клітинками зайняті нулями. При цьому , тобто одна жорданова клітка порядку n належить до числа жорданових матриць цього порядку, і, зрозуміло .Діагональні матриці є окремим випадком жорданових матриць.  довільної жордановою матриці  порядку n. Знайдемо спочатку канонічний вигляд для характеристичної матриці (1) однієї жордановою клітки порядку k. Обчислюючи визначник матриці і споминаючи, що старший коефіцієнт многочлена  повинен бути рівним 1, отримаємо, що . З іншої сторони, серед мінорів k-1-го порядку цієї матриці є мінор, рівний 1, а саме той, який отримується після видалення першого стовпця і останнього рядка цієї матриці. Тому . Звідси слідує, що канонічним видом для матриці (1) служить наступна -матриця порядку k: (*).

Лема. Якщо многочлени  попарно взаємно прості, то має місце наступна еквівалентність: .


ДМ

4.Біном Ньютона.

Біном Ньютона:. Узагальнення цієї формули є поліноміальна формула.

.


Знаходження початкового базисного розв’язку (опорного плану) ТЗ.

Метод північно-західного кута. Заповнення транспортної таблиці починаємо з її верхньої лівої клітинки (північно-західної). Метод мінімального елементу. Ідея методу полягає в тому, щоб максимальним чином завантажити перевезеннями ті комунікації, які мають найменші транспортні витрати.

Метод подвійної переваги.

Метод потенціалів розв’язку транспортної задачі.

Сутність метода потенціалів полягає  в наступному.

1) В якості першого наближення до оптимального розв’язку береться будь-який початковий базисний розв’язок (побудований методами північно-західного кута, мінімального елемента, або будь яким іншим методом).

2) Визначаються потенціали   та  так, щоб в кожній базисній клітині виконувалась умова:  

3) Визначимо відносні оцінки  для небазисних (вільних) клітин. Якщо для всіх цих клітин , то в силу двоїстого критерію оптимальності ТЗ відповідний базисний розв’язок є оптимальним. Якщо існують небазисні клітинки, для яких , то досліджуваний базисний розв’язок можна покращити, вводячи в число базисних одну з вказаних клітин (звичайно ту, для якої ).

Відмітимо, що в невиродженому випадку  і тому . Таким чином , останній пункт метода потенціалів полягає в наступному:

4) За допомогою описаного вище процесу перерозподілу грузів по циклу, клітинка  вводиться в число базисних; а базисна клітинка  , яка входить в цикл та для якої  виводиться з числа базисних. Отриманий новий допустимий базисний розв’язок перевіряємо на оптимальність (пункт 2,3) і т. д., до тих пір поки не для деякого поточного базисного рішення не буде виконаний критерій оптимальності. Неважко побачити, що у невиродженому випадку (,  метод потенціалів приводить до оптимального рішення ТЗ за скінченне число кроків. Так само як і для довільної ЗЛП, при розв’язанні ТЗ у виродженому випадку в принципі можливе зациклення. Зауважимо, що у виродженому випадку в число базисних включають всі зайняті клітинки, а також необхідне число вільних (загальна їх кількість повинна дорівнювати m+n–1), але таким чином, щоб всі вказані клітинки не утворювали цикл.


ТІМС

1.Випадкові події та їх ймовірності.

Означення. Випробування – експеримент, який можна проводити при однакових умовах необхідну кількість разів.

Означення. Результат – елементарна подія ().

Означення. Всі елементарні події деякого досліду утворюють простір елементарних подій (, ).

Означення. Випадковою подією А називається підмножина елементарних подій простору ).

Означення. Елементарні події, з яких складається  подія А, називаються сприятливими для події А.

Означення. Сумою двох випадкових подій називається така подія, яка складається з елементарних подій, які є сприятливими для події А або для події В (А+В={x|xAxB}).

Означення. Добутком подій А і В називається подія, яка відбувається тоді і тільки тоді, коли відбуваються обидві події разом (АВ={x|xAxB}).

Означення. Різницею двох подій А і В називається подія, яка відбувається тоді і тільки тоді, коли відбувається подія А і не відбувається подія В(А-В={x|xAxB}).

Означення. Подія називається протилежною до події А, якщо А = і А+=.

Означення. Подія, яка внаслідок випробування обов’язково відбувається називається достовірною подією u (А+=u.).

Означення. Подія, яка ніколи не відбувається внаслідок випробувань називається незалежною подією v (А =v).

Означення. Події А і В називаються несумісними, якщо виконується умова АВ=v.

Означення. Події А1,...,Аn утворюють певну групу подій, якщо АіАj=v, а .

Інтуїтивне означення ймовірності. Ймовірність  - міра об'єктивної можливості випадкової події.

Класичне означення. Ймовірність події А рівна відношенню сприятливих для події А елементарних подій (m) до всіх можливих елементарних подій (n).

Р – імовірність. Р(А)=.

Властивості ймовірностей:

  1.  0<P(A)<1;
  2.  P(u)=1 – ймовірність достовірної події;
  3.  p(v)=0 – імовірність неможливої події.

Зауваження. Математичним апаратом для безпосереднього обчислення класичних імовірностей є комбінаторика.

Статистичне означення. Відносною частотою події А N(А) називається відношення числа випробувань М, в яких ця подія сталась, до загального числа випробувань N.

N(А)=.Відносна частота при необмеженому збільшені числа випробувань має властивість стійкості  Р(А)=.

ТІМС

2.Основні теореми теорії ймовірностей.

Теорема. Імовірність появи хоча б однієї з двох подій рівна сумі їх імовірностей без імовірності їх сумісної появи: р(А+В)=р(А)+р(В)-р(АВ).    (1)

Доведення. (за класичним означенням). Нехай подія А має m1 сприятливих подій (|A|=m1), |B|=m2, |AB|=m3, ||=n. P(A+B)= , m=|A+B|, = =Р(A)+Р(B)-Р(AB). (2)

Зауваження. Якщо АВ=vР(А+В)=Р(А)+Р(В).

Зауваження. Формули (1-2) можна узагальнити на довільну скінчену суму доданків: Р()=-+-...+(-1)n-1Р(A1,…,An); Р(Аі)= Р(Аі).

Зауваження. Р(А)=р, то р(А)=1-р.

Означення. Подія В називається незалежною від події А, якщо ймовірність події В не залежить від здійснення події А.

Означення. Якщо події А і В залежні, то ймовірність події В при умові, що подія А відбудеться називається умовною ймовірністю (Р(А/В)).

Означення. Події В1,...Вk називаються незалежними в сукупності, якщо ймовірність кожної з них не залежить від того чи відбулися решта подій.

Зауваження. події можуть бути попарно-незалежними, але не бути незалежними в сукупності.

Теорема. Імовірність сумісної появи двох подій рівна добутку ймовірностей однієї з них на умовну ймовірність іншої при умові, що перша відбувалася (Р(АВ)=Р(А)Р(В/А)=Р(В)Р(А/В)).

Зауваження. якщо події А і В незалежні, то Р(АВ)=Р(А)Р(В).

Імовірність сумісної появи декількох подій рівна добутку імовірності цих подій, кожна наступна ймовірність обчислюється тільки тоді, коли відбулися попередні.

Р(А1,...,Аn)=Р(А1)Р(А21)Р(А31А2)…Р(Аn1...Аn-1).

Для незалежних подій зручно використовувати формулу:  Р(А1,...,Аn)=1-Р(А1) Р(А2)... Р(Аn).

Для незалежний подій зручно використовувати формулу: P(A1+…+An)=1-P(A1)…P(An).


ТІМС

3.Схема Бернуллі та її наближені формули.

Означення. Під схемою Бернуллі в теорії ймовірностей розуміють n раз підряд повторення одного і того ж досліду (випробування), який має два результати: успіх – подія А відбулася, невдача – подія А не відбулася, причому ймовірність успіху в кожному випробувані стала і не залежить від номеру випробування.

n, р – параметри схеми Бернуллі.

Імовірність того, що в n випробуваннях подія А відбулася m разів обчислюється за формулою Pn(m)=Cmnpmqn-m  (1), q=1-p – формула Бернуллі.

Означення. Імовірності Pn(m) називається біноміальними.

Права частина розкладу (1) (p+q)n=.

Імовірність того, що успіх в схемі Бернуллі відбудеться m1mm2 разів обчислюється за формулою .

Імовірність того, що внаслідок n випробувань успіх відбудеться хоча б один раз обчислюється за формулою Pn(1mn)=1-qn.

Приклад. Що імовірніше виграти у рівносильного противника:

1. 3 партії з 4 чи 5 з 8

 .

Відмітимо, що спочатку біноміальні ймовірності зростають до певного m0, а потім спадають.

Означення. Число m0 називається найімовірнішим числом схеми Бернуллі. m0=[p(n+1)].

Якщо число p(n+1) – ціле, в схемі Бернуллі є два найімовірніших числа m0 i  m0-1.


4.Дискретна випадкова величина та її числові характеристики.

Означення. Кажуть, що задана дискретна випадкова величина , якщо вказана скінчена або злічена множина чисел х1,...,хn і кожному з них поставлено у відповідність число рі0, причому .

Означення. Числа хі називаються значеннями випадкової величини і, а рі – її випадковістю.

Означення. Відповідність між можливими значеннями випадкової величини та їх імовірності називається розподілом імовірності випадкової величини.

Означення. У випадку дискретної випадкової величини ця відповідність застосовується у вигляді таблиці і називається законом розподілу дискретної випадкової величини. Для наочності закон розподілу зображають у вигляді многокутника розподілу. Для цього в прямокутній системі координат будують точки (хіі) і послідовно з’єднують їх. Випадкові величини також можна задати за допомогою функції розподілу.

Означення. Функцію розподілу випадкової величини називають імовірність того, що випадкова величини прийняла значення менше деякого фіксованого числа х.

Властивості функції розподілу:

  1.  0F(x)1;
  2.  P(axb)=F(b)-F(a) ;
  3.  F(x)F(x1) F(x2)x1x2;
  4.  F(x) – неперервна справа;
  5.  F(x)1, x+; F(x)0, x-;

Математичне сподівання випадкової величини (М) – її середнє значення в імовірнісному сенсі. Математичне сподівання наближено рівне М==.

Властивості:

  1.  МС=С, де С – стала; 2.М(С)=СМ(); 3. М(і)= М(і); 4. і – незалежні, M(і)=Мі. Зауваження. М - це величина невипадкова.

Теорема. У схемі Бернуллі математичне сподівання рівне М=np, де n, p – параметри схеми Бернуллі.

Для дискретної випадкової величини математичне сподівання обчислюється за формулою М=хірі.

Зауваження. механічний зміст математичного сподівання – це центр мас матеріальної системи точок.

2. Дисперсія  випадкової величини (розсіювання) показує розсіювання значень випадкової величини відносно її середнього значення (D).

DM(-M)2=M(2-2M+(M)2)=M2-2M(M)+M((M)2)=M2-2(M)2+(M)2=M2-(M)2.

Властивості: 1. DC=0, C-const; 2. D(C)=C2D; 3. інезалежні, D(i)=Di.

Теорема. Дисперсія числа появ подій в схемі Бернуллі D=npq.

3. Середнє квадратичне відхилення випадкової величини =.

Зауваження. Якщо випадкову величину розглядати як систему матеріальних точок, дисперсія – це момент інерції відносно математичного сподівання.

ТІМС

5.Неперервна випадкова величина та її числові характеристики.

Означення. Випадкова величина називається неперервною, якщо її функція розподілу F(x) – неперервна на R.

Для неперервної випадкової величини та х0R має місце рівність Р(0)=0, а також P(axb)=F(b)-F(a), де F(x) – функція розподілу неперервної випадкової величини.

Означення. Кажуть, що неперервна випадкова величина F(x) розподільна з щільністю, якщо існує невід’ємна функція f(x)0, х0R, що F(x)=, при цьому f(x) називається щільністю ймовірності непевної випадкової величини , а її графік кривої – крива розподілу.

Властивості f(x):

  1.  f(x)0 (xR);
  2.  ;
  3.  F’(x)=f(x);
  4.  P(axb)= .

Аналогічно як і у випадку дискретної випадкової величини для неперервної розглянемо її числові характеристики, імовірнісний зміст яких такий самий як і у випадку дискретної випадкової величини.

Формули для знаходження  цих характеристик наступні:

  1.  M=;
  2.  D=-(M)2;
  3.  =.


ТІМС

8.Граничні теореми теорії ймовірностей. Закон великих чисел.

В багатьох дослідах використовується схема: є послідовність незалежних однаково розподілених ВВ, з неї утворюється середнє арифметичне n перших членів. Як поводить це середнє арифметичне, якщо n досить велике?

Коли кількість випадкових величин необмежено збільшується, то  їх середнє арифметичне прямує до середнього арифметичного їх математичних сподівань. У цьому полягає суть закону великих чисел. Подальше уточнення закону великих чисел ішло у двох напрямках:

-   перший був пов’язаний з динамікою поведінки середніх арифметичних

(до основних результатів цього напрямку слід віднести посилений закон великих чисел і закон повторного логарифму, отримані Колмогоровим),

-   другій (центральні граничні теореми) - пов’язаний з теоремою Муавра – Лапласа (цей напрямок дозволив описати клас всіх розподілів, які можуть виступати в якості граничних для функцій розподілу сум незалежних випадкових величин, у випадку, коли кожним окремим доданком можна знехтувати).

Класична гранична теорема. Під граничною теоремою теорії імовірності розуміють теореми, які при відповідних умовах встановлюють теоретичні закони розподілу для сум  ВВ.

Дана послідовність взаємно незалежних ВВ ξ1, ξ2,…, ξn…, які мають скінченні математичні сподівання  і дисперсії . Позначимо

.

Справедлива теорема (достатня умова Ліндерберга)

Теорема. Якщо послідовність взаємно незалежних ВВ ξ1, ξ2,…, ξn… для будь-якої сталої  задовольняє умові Ліндерберга

, то при  рівномірно по х

,

тобто функція розподілу суми ВВ при необмеженому збільшенні доданків прямує до нормального закону розподілу.

Наслідок. Якщо незалежні ВВ ξ1, ξ2,…, ξn… однаково розподілені і мають скінчену відмінну від 0 дисперсію, то при  рівномірно по х

.


ТІМС

9.Основні поняття та типи випадкових процесів.

Означення. Під випадковим процесом розуміються випадкові величини, які змінюються в залежності від часу або іншого параметру.

Випадковий процес позначається X(t)=Xt(), , tT, де - простір елементарних подій.

Т – деяка числова множина.

Означення. При 0, Хt(0) називається реалізацією або траєкторією випадкового процесу.

При фіксованому t0, Xt0() – звичайна випадкова величина.

Відрізняють випадкові процеси з дискретними і непевними значеннями, з дискретним часом і непевним.

Випадковий процес вважається заданим, якщо для будь-якого набору параметра t, 0t1<t2<…<tn, tiТ, вказаний розподіл Ft1,…,tn(x1,…,xn)=P(X(t1))<x1X(t2)<…<xnX(tn), причому розподіли складових

Означення. Випадковий процес називається процесом із незалежними змінними, якщо для будь-якого набору  tt1<t2<…<tn випадкові величини X(t1),X(t2),…,X(tn) є незалежними. 

У цьому випадку розподіл набуває вигляду  Ft1,…,tn(x1,…,xn)=Ft1(x1)Ft2(x2)…Ftn(xn).

Для випадкового процесу вводяться означення:

- математичне сподівання m(t)=MX(t), яке характеризує середні течії, навколо якої ґрунтується реалізація випадкового процесу;

- дисперсія 2=DX(t)=M(X(t)-m(t))2, яка характеризує розсіяння реалізації відносно течії випадкового процесу.

Зв’язок між випадковими величинами, які утворюють випадковий процесом характеризує кореляційна (автокореляційна) функція випадкового процесу. B(t,s)=M[X(t)-m(t))(X(s)-m(s)], а також нормована кореляційна формула (t,s)=. Ці функції характеризують ступінь залежності випадкових величин випадкового процесу в моменти часу t і s.

Зауваження. Для процесів з незалежними значеннями B(t,s)=0, i (t,s)=0, ts.


ТІМС

10.Основні поняття та задачі математичної статистики. Вибіркове, параметричне та непараметричне оцінювання.

В теорії ймовірностей явища повністю задані їх моделлю і виявляють ще до дослідження ці закономірності, які будуть мати місце після його проведення.

У математичній статистиці імовірна модель визначена з точністю до невідомих параметрів. Відсутні відомості про параметри компенсуються тим, що можна проводити випробування і на їх підставі поповнювати недостатню інформацію.

Таким чином в певному сенсі задача математичної статистики є оберненою до задач теорії ймовірностей.

В математичній статистиці прийнято виділити два напрямки дослідження:

1. пов’язаний з оцінкою невідомих параметрів;

2. пов’язаний з перевіркою деяких апріорних припущень або статистичних гіпотез. У математичній статистиці прийнято називати одну з гіпотез основною, а іншу – альтернативною або конкурентною.

 В математичній статистиці досліджують байєсовські і небайєсовські моделі. Перші виникають тоді, коли невідомий параметр є випадкова величина і є апріорна інформація про її розподіл.

Друга модель з'являється тоді, коли невідомий параметр не можна вважати випадковою величиною і всі статистичні висновки робляться на підставі результатів випробувань.

В математичній статистиці використовують поняття параметричної і непараметричної моделі. Параметричні моделі виникають тоді, коли відома з точністю до параметра функція по-розподілу характеристики, що спостерігається і необхідно за результатами випробувань визначити цей параметр, або перевірити гіпотезу про приналежність цього параметра заздалегідь визначеній множині значень (задача перевірки статистичної гіпотези).

Основні поняття: 

1. генеральна сукупність (вибіркова);

2. теоретична і емпірична функція розподілу; параметри та їх оцінки.

Означення. Припустимо, що маємо N об’єктів, кожному з яких притаманне певне значення числової характеристики . Сукупність цих N об’єктів називається генеральною сукупністю.

Таким чином генеральна сукупність – це N  чисел, серед яких можуть бути однакові.

Для того, щоб встановити параметри генеральної сукупності ми можемо провести n випробувань. Кожне випробування полягає в тому, що випадковим чином відбираємо один об’єкт генеральної сукупності і визначаємо його характеристику . Отриманий таким чином ряд чисел називається вибіркою об’єму n (x1,…,xn).

Вибірка повинна бути репрезентативною (представницькою), повинна відображати всі характеристики генеральної сукупності. Репрезентативність насамперед досягається за допомогою випадковості відбору. На практиці застосовують не випадкові методи відбору. Основними з них є:

1. механічний;2. типовий;3. серійний; 4. комбінований.

Також відрізняють схеми відбору: повторна і безповторна.


Метод простої ітерації розв’язування СЛАР

Цей метод має вигляд(4) де  вибирається довільно. Метод простої ітерації є явною однокроковою стаціонарною схему із сталим параметром . У координатній формі (4) має вигляд де параметр .

Метод простої ітерації збігається коли .

Метод простої ітерації зручно застосовується до тих СЛАР, в яких діагональні коефіцієнти перевищують інші коефіцієнти невідомих.


ЧМ

10.Зведення крайових задач для лінійних ЗДР 2-го порядку до СЛАР. Метод сіток. Метод прогонки для тридіагональних СЛАР.

Метод сіток розв‘язування крайових задач.

Розглянемо таку крайову задачу

,       

,       (10)

 ,

, , , .

Використовуючи формулу (7) для другої похідної та формули (5) і (1) для першої похідної в граничній умові у точці a та формули (6) і (2) - для першої похідної в граничній умов у точці b на рівномірній сітці  дістанемо таку схему для розв‘язання задачі (10):

 ,

 ,     (11)

 .

Таким чином, ми отримали систему лінійних алгебраїчних рівнянь порядку n+1 з невідомими  , .

Тут  , .

Отже, за допомогою заміни похідних різницевими схемами ми звели крайову задачу (10) до розв‘язання системи лінійних алгебраїчних рівнянь (11).


ЧМ

11.Основні поняття методу сіток. Апроксимація різницевих схем. Стійкість різницевих схем. Розглянемо методи побудови сіткових схем, які найчастіше застосовуються на практиці і апроксимують крайові задачі. Ці схеми часто виражаються через різниці шуканих функцій і їх називають різницевими схемами. Розглянемо сітку , ,  , .

Першу похідну можна апроксимувати так:

  1.  права різницева похідна ,  .   (1)
  2.  ліва різницева похідна , .   (2)
  3.  центральна різницева похідна  , .   (3)
  4.  комбінація правої та лівої різницевих похідних: ,    (4)
  5.  можливі й інші формули апроксимацій першої похідної, наприклад:, (5)

, (6) і т.д.

Другу похідну можна апроксимувати теж:

  1.  центральна друга похідна  ,      (7)
  2.  права друга різницева похідна  ,      (8)
  3.  ліва друга різницева похідна  ,      (9)

Можливі її інші формули апроксимації другої похідної.


ПР

1.Етапи розробки прикладних програм.

1. Постановка задачі.

2. Опис математичної моделі.

3. Розв’язок математичної моделі.

4. Побудова алгоритму розв’язку.

5.

6. Програмна реалізація.

7. Відлагодження програми. (Способи: верифікація, доведення правильності)

8. Документування(коментарі, описи)

9. Промислова експлуатація.


ПР

3. Мови програмування та їх класифікація.

Мова програмування – це знакова система представлення алгоритму для подальшої трансляції мов машинних кодів для виконання процесів.

Мова має алфавіт та синтаксис.

Мови поділяються на:

  •  Мови низького рівня;
  •  Мови середнього рівня;
  •  Мови високого рівня;

Інший спосіб поділу:

  •  Імперативні (процедурні(Паскаль, С), ОО(С++, Делфі), візуальні)
  •  Декларативні (предикатні( Пролог), функціональні (Лісп)).


ПР

14.Методи розробки алгоритмів та програм.

  •  Метод повного перебору усіх можливих варіантів;
  •  Метод розділяй і володарюй;
  •  Метод послідовних наближень;
  •  Метод найшвидшого (градієнтного) спуску;
  •  Метод динамічного програмування;
  •  Метод пошуку в глибину і ширину;
  •  Метод моделювання.


ПР

15.Алгоритми пошуку елемента в масиві та підпослідовності в послідовності.

підхідом є простий послідовний перегляд масиву із збільшенням крок за кроком тієї його частини, де потрібного елемента не знайдено. Такий метод називається лінійним пошуком. Умовою припинення пошуку буде одна із наступних :

  шуканий елемент знайдений в деякій позиції i, тобто a[i]=x;

  весь масив переглянутий і шуканий елемент відсутній. Таким чином, алгоритм лінійного пошуку можна записати у вигляді послідовності команд :

i:=1;
while (i<=N)and(a[i]<>x) do i:=i+1;

Очевидно, що закінчення циклу гарантоване, і в найгіршому випадку, коли необхідного елемента не виявиться, це станеться через N кроків.

Виникає питання, чи можливо пошук пришвидшити? Єдиний вихід - спростити умову в заголовку цикла, оскільки вона складається із двох логічних множників. Потрібно сформулювати просту умову, яка буде еквівалентною вихідній. Це можна зробити, якщо гарантувати, що співпадіння з шуканими ключем завжди буде. Тому помістимо вкінець масиву додатковий елемент - "барєр" із шуканим значенням x. Звичайно, при цьому необхідно попередньо розширити на один елемент масив a та діапазон допустимих значень індекса :

a:array [1..N+1] of basetype

Алгоритм в цьому випадку матиме вигляд :

i:=1;
a[N+1]:=x;
while a[i]<>x do i:=i+1;

В обох випадках алгоритму істинність умови i=N+1 свідчить про відсутність шуканого елемента в масиві.

Аналіз лінійного пошуку. Очевидним є той факт, що кількість основних операцій порівняння, необхідних для встановлення входження шуканого елемента, залежить від його позиції і взагалі від його наявності в масиві. Оскільки тип масиву basetype може бути досить складним і великим по об'єму пам'яті, то можна вважати порівняння елементів цього типу складнішою операцією ніж порівняння індексів.

Очевидно, що ніякого іншого способу підвищення ефективності пошуку в масиві не має, якщо відсутня додаткова інформація про дані. Пошук можна значно покращити, якщо елементи в масиві попередньо будуть впорядковані.

Нехай масив a є впорядкованим по зростанню, тобто ai+1іai, i=1,N-1.

Розглядуваний алгоритм базується на таких принципах :

  1.  вибирається довільно деякий елемент, наприклад am;
  2.  проводиться порівняння am з аргументом пошуку x;
  3.  якщо значення співпадають, то пошук припиняється, якщо am<x, то відкидаються з розгляду всі елементи масиву до a m включно, якщо a m>x, то відкидаються з розгляду всі елементи масиву після am включно.

Такий процес послідовного вибору та порівняння елемента із шуканим ключем продовжується поки або не буде встановлено входження в масив, або не залишиться жодного елемента для вибору, тобто входження не має.

Введемо наступні позначення : L, R - індексні змінні, що відмічають відповідно лівий і правий кінці частини масиву, де ще можна знайти потрібний елемент. Алгоритм такого пошуку можна записати у вигляді послідовності команд :

L:=1; R:=N; f:=true;
while (L<=R) and f do
begin
m:=k; {k -
довільне значення між L і R}
if a[m]=x then f:=false else
if a[m]<x then L:=m+1 else R:=m-1
end;

Очевидно, що вибір m може бути довільним. Однак найкраще - відкидати на кожному кроці, незалежно від результату порівняння, якомога більше елементів. Оптимальним є вибір серединного елемента в розглядуваній частині, оскільки завжди рівноімовірно відкидатиметься половина масиву. В результаті максимальна кількість порівнянь округлює число log(N) до найближчого цілого. Це значно краще від лінійного пошуку (середня кількість порівнянь - N/2).

Ефективність алгоритму можна дещо покращити. Перевірку на рівність із шуканим ключем можна виконувати в другу чергу, оскільки вона зустрічається лише один раз і приводить до припинення пошуку. Крім того ймовірність точного попадання в потрібне значення є меншою ніж попадання в більше або менше значення. Тому варто поміняти місцями заголовки умовних операторів :

if a[m]<x then L:=m+1 else
if a[m]>x then R:=m-1 else f:=false;

Однак, можна ще покращити ефективність, якщо спростити умову припинення алгоритму. Для цього необхідно відмовитися від бажання припинення пошуку при фіксації співпадання. Тоді пошук продовжуватиметься доти, доки досліджувана частина масиву не стягнеться до одного елемента, який і буде шуканим:

L:=1; R:=N;
while L<R do
begin
m:=(L+R) div 2;
if a[m]<x then L:=m+1 else R:=m
end;

Умова припинення циклу L>=R досягається. Адже для цілочисельного серединного значення m справедлива нерівність L<=m<R, якщо попередньо виконувалася умова L<R. Отже, або L збільшується при присвоєнні йому значення m+1, або R зменшується при присвоєнні йому значення m. Таким чином, різниця R-L на кожному кроці зменшується, і при досягненні нульового значення (L=R) повторення циклу припиняється.

Варто зауважити, що виконання умови L=R ще не гарантує знаходження потрібного ключа. Потрібно враховувати, що елемент a[R] в порівнянні ніколи участі не бере.Тому необхідна додаткова перевірка після циклу на рівність a[R]=x.

Розглянутий алгоритм як і алгоритм лінійного пошуку знаходить шуканий елемент з найменшим індексом, тобто перше входження в масив. А простий бінарний пошук - довільний із співпадаючих елементів.


МСС

  1.  Поняття суцільного середовища. Способи задання руху. Підходи Лагранжа й Ейлера.

Механіка суцільного середовища – значна частина механіки, яка присвячена руху газоподібних, рідких і твердих деформівних тіл.

Способи задання руху суцільного середовища

Нехай суцільне середовище займає об’єм , а  – довільна його точка, яка у вибраній системі координат характеризується трійкою чисел  або , .

Для того, щоб задати рух точки , потрібно задати її координати як функції часу .

У випадку абсолютно твердого тіла відстані між точками не змінюються і тому його рух завжди можна розглядати як сукупність поступального і обертального рухів. У випадку деформівного тіла для задання руху середовища потрібно задавати рух кожної його точки. Таку задачу розв’язати  практично неможливо, тому для опису руху середовища використовують такі два підходи.

Точка зору Лагранжа на вивчення руху суцільного середовища.

Виділимо із суцільного середовища конкретну точку, наприклад, таку, яка в початковий момент часу  мала координати  або . Тоді рівняння руху цієї точки можна записати у вигляді:

;

;   або      .  (1.1)

;

Рівняння (1.1) визначає рух суцільного середовища. Якщо в (1.1)  зафіксовані, то ці рівняння визначають рух тієї точки, яка в момент часу  мала координати . Якщо зафіксувати , а  вважати змінними, то з (1.1) одержимо розподіл точок середовища в розглядуваний момент часу. При змінних  і  одержимо положення суцільного середовища в розглядувані моменти часу і співвідношення (1.1) будуть визначати рух суцільного середовища.

Основна задача механіки суцільного середовища полягає у визначенні функцій (1.1). Величини  і  при цьому називаються змінними Лагранжа.

Точка зору Ейлера на вивчення руху суцільного середовища.

Допустимо тепер, що нас цікавить не історія руху індивідуалізованих точок суцільного середовища, а те, що відбувається в різні моменти часу в заданій геометричній точці простору, віднесеного до певної системи координат. Через цю точку в різні моменти часу будуть проходити різні частинки суцільного середовища. Це складає суть точки зору Ейлера на вивчення руху суцільного середовища. Наприклад, рух води в річці можна вивчати, або слідкуючи за рухом кожної частинки води (точка зору Лагранжа), або спостерігаючи зміну протікання води у визначених місцях річки, не прослідковуючи рух окремих частинок води вздовж річки (точка зору Ейлера).

Рух, з точки зору Ейлера, вважається відомим якщо швидкість, густина,температура, тиск і інші величини задані як функції точки простору  і часу  ;

; (1.10)

;

.

Величини , , ,  називаються змінними Ейлера. При фіксованих , , , і змінному співвідношення (1.10) визначають зміну з часом швидкості , тиску , густини  і абсолютної температури  в заданій точці простору, для різних частинок, які проходять через неї. При фіксованому  і змінних  ці співвідношення визначають розподіл характеристик руху в просторі в заданий момент часу; при змінних , ,  і  – розподіл характеристик руху в просторі в різні моменти часу.

Таким чином, з точки зору Лагранжа, нас цікавлять закони зміни швидкості, прискорення, тиску, густини і інших величин для даної індивідуалізованої точки суцільного середовища, а з точки зору Ейлера – ці ж величини в заданій точці простору.

Математично точка зору Ейлера відрізняється від точки зору Лагранжа тільки тим, що для першої змінними є координати точок простору , , , і час , а для другої – параметри індивідуалізованої точки , ,  суцільного середовища і час .

Для доведення еквівалентності точок зору Лагранжа і Ейлера в механічному відношенні, здійснимо перехід від змінних Лагранжа до змінних Ейлера і навпаки.

Якщо для рівнянь руху (1.1) має місце умова (1.2), то рівняння (1.3) визначають перехід від змінних Лагранжа до змінних Ейлера. Якщо швидкість, тиск, густина і температура задані у змінних Лагранжа

;

; (1.11)

;

,

то співвідношення (1.3) дають можливість визначити ці величини як функції змінних Ейлера.


МСС

  1.  Основні рівняння плоскої теорії пружності в декартових координатах.

Якщо деформівне пружне тіло перебуває в умовах плоскої деформації внаслідок дії зовнішніх поверхневих сил, то основні рівняння теорії пружності (7.2) – (7.9) приймають вигляд:

диференціальні залежності Коші

; ; ; (7.25)

умови сумісності Сен-Венана

; (7.26)

диференціальні рівняння рівноваги

: ; (7.27)

граничні умови

: ; (7.28)

закон Гука

; ;  (7.29)

Введемо функцію напружень  за формулами

;  ;   (7.30)

Легко перевірити, що диференціальні рівняння рівноваги виконуються тотожно.

Із закону Гука (7.29) визначаємо

; ;  (7.31)

Підставляючи (7.31) в умову сумісності (7.26), одержимо після певних перетворень  або   (7.32)

Співвідношення (7.32) можна записати так:  (7.33)

де  – оператор Лапласса.

Таким чином плоска задача теорії пружності зведена до бігармонічного рівняння (7.32) або (7.33) для визначення функції напружень .

Граничні умови (7.28) приймають вигляд

:   (7.34)

Якщо розв’язок бігармонічного рівняння (7.32), який задовольняє граничним умовам (7.34) буде відомим, то компоненти тензора напружень визначаться за формулами (7.30), а компоненти тензора деформації - за формулами (7.31). Компоненти вектора переміщення можна визначити за формулами Чезаро, в яких компоненти тензора деформації визначаються із співвідношень (7.29), (7.30).

МСС

7.Комплексне подання напружень і зміщень в плоскій теорії пружності.

Комплексне подання компонент тензора напружень і вектора зміщень

, (9.30)

 де .

;

.  (9.31)

Із (9.31) складемо такі комбінації

;      . (9.32)

Замість другої формули (9.32) можна використати еквівалентне співвідношення

. (9.33)

Таким чином компоненти тензора напружень (9.32), (9.33) і вектора зміщення (9.30) виражаються через дві аналітичні функції , , які називаються комплексними потенціалами Мусхелішвілі, а відповідні формули – формулами Колосова-Мусхелішвілі.

У випадку першої основної задачі, тобто коли на контурі  області  (рис. 9.1) задано зовнішні напруження , , граничні умови мають вигляд;   , (9.34)

де ;     .

Враховуючи (7.30), співвідношення (9.34) запишемо так

;      

або;      . (9.35) Залежності (9.35) запишемо у комплексній формі. (9.36) 

Підставляючи в (9.36) співвідношення (9.29), знаходимо після інтегрування по контуру  граничну умову першої основної задачі, де  – афікс точок контура ;   – довільна комплексна стала.

Якщо на контурі  розглядуваної області  задано зміщення його точок (друга основна задача), то на підставі9.30)граничну умову можна подати у вигляді , (9.38) де ;    – відомі функції на контурі . У випадку мішаної задачі на одній частині контура граничні умови мають вигляд (9.37), а на іншій – (9.38).


 

А также другие работы, которые могут Вас заинтересовать

45058. Ділові папери як засіб писемної професійної комунікації 92.5 KB
  Ділові папери як засіб писемної професійної комунікації ПЛАН Поняття про документ. Функції документа. Класифікація документів. Ознаки класифікації та види документів.
45059. Документація з кадрово-контрактних питань 77 KB
  Документація з кадровоконтрактних питань ПЛАН Заява. ЗАЯВА Заява – це вид документів з кадрово-контрактних питань. Заява – це офіційне повідомлення в усній доповідь або письмовій документ формі в якому викладається певне прохання рідше пропозиція окремої особи чи організації. Розрізняють два основних види заяв: особиста заява яка містить прохання звертання до керівної посадової особи складається власноручно в одному примірнику; службова заява що укладається посадовою особою від власного імені або від організації...
45060. Автобіографія. Документація з кадрово-контрактних питань 124.5 KB
  Після закінчення 1987 р. Після закінчення у 1993 р. Після закінчення коледжу у 1996 р. дотепер – викладач екологічної безпеки Харківського реґіонального інституту післядипломної освіти вчителів.
45061. Довідково-інформаційні документи. Довідка, клопотання, службові записки, звіт. Складні слова в діловій українській мові 135.5 KB
  Утворення і правопис складних слів Складні слова можуть утворюватись за допомогою сполучних звуків і без них. УВАГА З цими словами не слід змішувати складних слів перша частина яких є вищий ступінь прислівника на Е: вищезгаданий нижчепідписаний. При цьому перша основа може закінчуватись: 1 на голосний звук: всюдихід кількаразовий радіокомітет; у словах із числівниками одно дво три чотири: одноденний двозначний триніжок чотирикутник; також у словах із...
45062. Державна мова – мова професійного спілкування 144.5 KB
  Поняття національної та літературної мови. Головні ознаки літературної мови. Отже основною метою нормативної дисципліни “Українська мова професійного спілкування†є усвідомлення системи української мови і розкриття особливостей її функціонування передусім у межах ділового і наукового стилів професійного спілкування. При цьому специфіка курсу полягатиме у тому що він спиратиметься на розмежування культурного і політичного аспектів життя мови.
45063. Поняття про функціональні стилі мови. Стилі сучасної української літературної мови у професійному спілкуванні 227.5 KB
  Стилі сучасної української літературної мови у професійному спілкуванні План Поняття про функціональні стилі мови. Стилістична диференціація сучасної української мови. Функціональні стилі української мови та сфера їх застосування. Специфіка мови професійного спілкування.
45064. Професійна сфера як інтеграція офіційно-ділового, наукового і розмовного стилів 144 KB
  Поняття професійна мова€ охоплює три функціональні різновиди літературної мови – НАУКОВИЙ та ОФІЦІЙНОДІЛОВИЙ стилі. Дослідження історії їх становлення характеру лексичних та граматичних структурних компонентів жанрового багатства специфіки усної та писемної форм вираження – основна мета курсу української мови професійного спілкування. Науковий стиль сучасної української літературної мови почав розвиватися з середини ХІХ ст. не беручи до уваги старої української мови основні традиції якої в науковому стилі втратилися в середині ХVІІІ...
45065. Українська термінологія в професійному спілкуванні, Загальнонаукова, міжгалузева і вузькоспеціальна термінологія 81 KB
  Термінологія - розділ мовознавства що вивчає терміни у цьому значенні все частіше використовують поняття термінознавство як наука що вивчає українську термінологію; 2 сукупність термінів певної мови або однієї певної галузі знання чи з усіх галузей знання. Системність термінології зумовлена двома типами зв’язків які надають сукупності термінів системного характеру: логічним коли між поняттями певної галузі науки існують системні зв’язки – а вони є в кожній науці терміни що називають ці поняття мають бути системно пов’язаними;...
45066. Основи культури української мови 256.5 KB
  Словники у професійному мовленні. Типи словників. Роль словників у підвищенні культури мови. Таким чином точність мовлення великою мірою залежить від глибини знань інтелектуального рівня мовця та ерудиції особистості володіння логікою думки законами її мовного вираження а також від багатства активного словникового запасу мовця.