49954

Законы распределения случайных величин

Лабораторная работа

Математика и математический анализ

Функция распределения x b. Функция плотности распределения вероятности: М. Нормальное распределение Плотность распределения: 45.

Русский

2014-01-13

413 KB

59 чел.

16

  1.  некоторые наиболее важные Законы распределения

случайных величин

  1.  Равномерное распределение вероятностей

Для него вероятность того, что с.в. Х попадет в интервал Х:

Prob(Х)=(-)/(b-a).

Функция распределения        ,                        a<x<b.

Функция плотности распределения (вероятности):

М.о. и дисперсия: .

  1.  Нормальное распределение

Плотность распределения:                                                     (45.4).

Точки перегиба кривой плотности распределения:  и .

Функция распределения:

             (46.4),

где  - м.о., (х) – стандарт.

Чем больше (х), тем ниже и шире кривая плотности распределения.

Плотность n-мерного нормального распределения: , где - определитель корреляционной матрицы , а Ajl – алгебраическое дополнение элемента kjl-того определителя.

Р(х) можно выразить через интеграл вероятности Гаусса

,                                                (47.4)

                                                            (48.4).

Функция (47) – нечетная (Ф(-z) = - Ф(z)),  имеются таблицы ее значений.

Вероятность попадания с.в. Х в интервал (a,b)

                                                     (49.4).

Если b-a =6 (X), то вероятность того, что с.в. Х окажется в интервале  равна 0.9973. Линейные функции с.в., подчиняющиеся нормальным законам распределения, имеют также нормальный закон распределения.

Как показал Ляпунов в случае, если число n безгранично увеличивается, кривая плотностей вероятностей суммы не зависит от кривых плотностей вероятностей, слагаемых при некоторых предположениях, и представляет собой нормальную кривую (45.4).

Условия: слагаемые величины х=х12+...+хn (xi, i=1, 2...n) в среднем одного порядка и одного порядка некоторые характеристики слагаемых - вторые и третьи моменты. Т.о. если с.в. образуется из суммы большого числа независимых, неограниченных случайных переменных факторов, то ее закон - близок к нормальному, т.е. в действительности многие переменные представляют собой результат простого суммирования многих независимых факторов.

Закон больших чисел:

.

  1.  Усеченный нормальный закон

Если известны границы возможных значений с.в. (a,b), то

  (50.4).

Закон используется для описания реальных величин, распределенных нормально (например, не могущих принимать отрицательные значения).

  1.  Логарифмически нормальное распределение

Если некоторая с.в. Х распределена по нормальному закону (45.4), то ее экспоненциальная функция

Y=exp(X)                                                                               (51.4)

(X=ln(Y)) распределится по закону (используем (40.3)):

                         (52.4).

М. о. и дисперсия:

,                             (53.4).

Коэффициент вариации:  .    Изменению Х по нормальному закону (45.4) в пределах (-,) соответствует изменение Y по закону (52) в пределах (0,+).

  1.  Распределение Вейбулла

В теории хрупкого разрушения и других отраслях техники нашло применение распределение Вейбулла. Интегральная кривая распределения:

        (54.4).

Плотность распределения:

          (55.4).

В выражения для числовых характеристик распределения Вейбулла входит гамма-функция

                                                           (56.4),

которая табулирована  в математических справочниках.

  1.  Распределение Гумбеля (двойное экспоненциальное распределение)

Используется при статистическом анализе снеговых и ветровых нагрузок на сооружения. Функция распределения (интегральная): 

                                                               (57.4)

Значению x= соответствует вероятность непревышения , равная

P()=exp(-exp0))=exp(-1)=1/e=0.36788.

Значению x=0 соответствует вероятность непревышения 0, равная P(0)=exp[-exp(/)].

Плотность распределения: 

             (58.4).

В (58) <x<, <<, >0.

Если возвести в n-ную степень (57), то интегральная кривая не изменит своего вида, а только сместится вдоль оси на величину ln(n):

            (59.4).

Параметры и связаны с м.о.  и дисперсией D(x):

                                           (60.4).

4.7 Распределение максимумов случайных величин

Рассматривается n статически независимых с.в. Xi (i  = 1, 2, …, n) и имеется вероятность того, что ни одна из них не превысит х. Вероятность непревышения значения х величиной XiProb(Xi<x)=Pi(x),

где Pi(x) – интегральный закон распределения Xi.

Вероятность непревышения х ни одной из величин Xi:

                         (61.4),

где Pn(x) – интегральный закон распределения максимумов совокупности n с.в. Xi.

Тогда плотность распределения вероятностей:

                                                    (62.4).

Для 3-х с.в.

Если закон распределения всех с.в. Xi одинаков, то

                                          (63.4),

где Pn(x) и pn(x) – интегральная функция распределения и плотность распределения максимумов, получаемых при n реализациях одной и той же с.в. Xi.

М.о. и дисперсия максимума в n опытах:

                                          (64.4),

 

(65.4).

  1.  Распределение Пуассона

Это дискретное распределение описывает число событий, происходящих в одинаковых промежутках времени при условии, что события происходят независимо одно от другого с постоянной интенсивностью. Вероятность того, что с.в. Х примет значение, равное m (m – целое число):

                                      (65.4)

Распределение зависит от одного параметра , называемого пуассоновским потоком.

Существуют некоторые недостатки при описании реальных с.в.: так в некоторых законах с.в. может принимать отрицательные значения (нормальный закон), хотя этими законами описываются изначально только положительные величины (предел текучести стали и т.д.). Кроме того, теоретические распределения допускают, хотя и с малой вероятностью, возможность сколь угодно больших отклонений с.в. от среднего значения.

Все теоретические закономерности и законы теории вероятностей относятся к идеальным схемам. Применяемые обычно теоретические законы распределения относятся к ситуациям с неограниченным нарастанием числа случайных факторов или с неограниченным повторением некоторого явления и имеют характер предельных закономерностей, к которым приближаются реальные распределения.

Кроме перечисленныхиспользуются и другие распределения – Пирсона 3-го рода, Рэлея, Максвелла, Пирсона 2-го рода, 2 (хи-квадрат), Стьюдента, Фишера и т.д.

5. СЛУЧАЙНЫЕ ФУНКЦИИ

5.1 Характеристики случайных функций

Случайная функция – функция, которая в результате опыта может принять тот или иной неизвестный заранее конкретный вид. Обычно аргументом случайной функции (с.ф.) является время, тогда с.ф. называют случайным процессом (с.п.).

С.ф. непрерывно изменяющегося аргумента t называется такая с.в., распределение которой зависит не только от аргумента t=t1, но и от того, какие частные значения принимала эта величина при других значениях данного аргумента t=t2. Эти с.в. корреляционно связаны между собой и тем больше, чем ближе одни к другим значения аргументов. В пределе при интервале между двумя значениями аргумента, стремящемся к нулю, коэффициент корреляции равен единице:

,

т.е. t1 и t1+t1 при t10 связаны линейной зависимостью.

С.ф. принимает в результате одного опыта бесчисленное (в общем случае несчетное) множество значений – по одному для каждого значения аргумента или для каждой совокупности значений аргументов. Эта функция имеет одно вполне определенное значение для каждого момента времени. Результат измерения непрерывно изменяющейся величины является такой с.в., которая в каждом данном опыте представляет собой определенную функцию времени.

С.ф. можно также рассматривать как бесконечную совокупность с.в., зависящую от одного или нескольких непрерывно изменяющихся параметров t. Каждому данному значению параметра t соответствует одна с.в Xt. Вместе все с.в. Xt определяют с.ф. X(t). Эти с.в. корреляционно связаны между собой и тем сильнее, чем ближе друг к другу.

Элементарная с.ф. – это произведение обычной с.в. Х на некоторую неслучайную функцию (t): X(t)=X(t), т.е. такая с.ф., у которой случайным является не вид, а только ее масштаб.

С.ф.  - имеет м.о. равное нулю. p[x(t1)] – плотность распределения с.в. Х (значения с.ф. X(t)), взятой при произвольном значении t1 аргумента t.

Реализация с.ф. X(t) – описывается уравнением x=f1(t) при t=t1 и уравнением x=f2(t) при t=t2.

Вообще функции x=f1(t) и x=f2(t) – различные функции. Но эти функции тождественны и линейны тем более, чем более (t1t2)  t1 ближе к t2.

Одномерная плотность вероятности с.ф. p(x,t) – зависит от х и от параметра t. Двумерная плотность вероятности p(x1,x2;t1,t2) – совместный закон распределения значений X(t1) и X(t2) с. ф. X(t) при двух произвольных значениях t и t аргумента t.

.                          (66.5)

В общем случае функция X(t) характеризуется большим числом n-мерных законов распределения .

М.о. с.ф. X(t) - неслучайная функция , которая при каждом значении аргумента t равна м.о. ординаты с.ф. при этом аргументе t.

- функция, зависящая от x и t.

Аналогично и дисперсия - неслучайная функция.

Степень зависимости с.в. для различных значений аргумента характеризуется автокорреляционной функцией.

Автокорреляционная функция с.ф. X(t) - неслучайная функция двух аргументов Kx(ti,tj), которая при каждой паре значений ti, tj равна корреляционному моменту соответствующих ординат с.ф. (при i=j корреляционная функция (к.ф.) обращается в дисперсию с.ф.);

                 (67.5)=(34.3),

где  - совместная плотность распределения двух с.в. (значений с.ф.), взятых при двух произвольных значениях t1 и t2 аргумента t.  При t1=t2=t получаем дисперсию D(t).

Автокорреляционная функция - совокупность м.о. произведений отклонений двух ординат с.ф. , взятых при аргументах t1 и t2, от ординат неслучайной функции м.о. , взятых при тех же аргументах.

Автокорреляционная функция характеризует степень изменчивости с.ф. при изменении аргумента. На рис. видно, что зависимость между значениями с.ф., соответствующим двум данным значениям аргумента t - слабее в первом случае.

Рис. Корреляционно связанные случайные функции

Если две с.ф. X(t) и Y(t), образующие систему не являются независимыми, то тождественно не равна нулю их взаимная корреляционная функция:

               (68.5),

где  - совместная плотность распределения двух с.в. (значений двух с.ф. X(t) и Y(t)), взятых при двух произвольных аргументах (t1 - аргумент функции X(t), t2 - аргумент функции Y(t)).

Если X(t) и Y(t) независимы, то KXY(t1,t2)=0. Система из n с.ф.  X1(t), X2(t),...,Xn(t) характеризуется n м.о. , n автокорреляционными функциями  и еще n(n-1)/2 корреляционными функциями .

Взаимная корреляционная функция (характеризует связь между двумя с.ф., т.е. стохастическую зависимость)  двух с.ф. X(t) и Y(t) - неслучайная функция двух аргументов ti и tj, которая при каждой паре значений ti, tj равна корреляционному моменту соответствующих сечений с.ф. Она устанавливает связь между двумя значениями двух функций (значения - с.в.), при двух аргументах t1 и t2.

Особое значение имеют стационарные случайные функции, вероятностные характеристики которых не меняются при любом сдвиге аргумента. М.о. стационарной с.ф. постоянно (т.е. не является функцией), а корреляционная функция зависит лишь от разности значений аргументов ti и tj.

,                                (69.5)

Это четная функция (симметрично OY).

Из (69.5) .

При большом значении интервала времени =t2-t1 отклонение ординаты с.ф. от ее м.о. в момент времени t2 становится практически независимым от значения этого отклонения в момент времени t1. В этом случае функция KX(), дающая значение корреляционного момента между X(t1) и X(t2), при  стремится к нулю.

Многие стационарные с.ф. обладают эргодическим свойством, которое заключается в том, что при неограниченно возрастающем интервале наблюдения среднее наблюденное значение стационарной с.ф. с вероятностью, равной 1, будет неограниченно приближаться к ее м.о. Наблюдение стационарной с.ф. при разных значениях t на достаточно большом интервале в одном опыте равноценно наблюдению ее значений при одном и том же значении t в ряде опытов.

Иногда требуется определить характеристики преобразованных с.ф. по характеристикам исходных с.ф. Так если

                                                            (70.5),

то  т.е. м.о. интеграла (производной) от с.ф. равно интегралу (производной) от м.о. (y(t) - скорость изменения с.ф. X(t),  - скорость изменения м.о.).

При интегрировании или дифференцировании с.ф. получаем также с.ф. Если X(t) распределена нормально, то Z(t) и Y(t) распределены тоже нормально. Если X(t) – стационарная с.ф., то Z(t) уже не стационарная с.ф., т.к.  зависит от t.

Примеры корреляционных функций.

1)  (из (2) при );                      2) ;  

3) ;                                                      4) ;  

5) (из (3) при );                                      6)  (из (4) при ).

На графиках  = 1,  = 5,  = 1.

- характеризует быстроту убывания корреляционной связи между ординатами с.ф. при увеличении разности аргументов этих ординат .

 - характеризует "степень нерегулярности процесса". При малом  ординаты процесса оказываются сильно коррелированными и реализация процесса похожа на синусоиду; при большом  периодичность с частотой становится незаметной.

Корреляционные функции 4 и 6 – не имеют производных при =0. Соответствующие спектральные плотности:

2) ;

3) ;

4) ;

6) .

Чтобы найти корреляционную функцию интеграла (производной) от с.ф., нужно дважды проинтегрировать (продифференцировать) корреляционную функцию исходной с.ф. сначала по одному, затем по другому аргументу:

                                                     (71.5).

Формула (71) для стационарной функции примет вид:

.

Корреляционная функция с.ф. и ее производной . Для дифференцируемого стационарного процесса ордината с.ф. и ее производной, взятая в тот же момент времени являются некоррелированными с.в. (а для нормального процесса и независимыми).

При умножении с.ф. на детерминированную получаем с.ф. Z(t)=a(t)X(t), корреляционная функция которой равна

KZ(t1,t2)=a(t1)a(t2) KX(t1,t2)                                                     (72.5),

где a(t) - детерминированная функция.

Сумма двух с.ф. является тоже с.ф. Z(t)=X(t)+Y(t) и ее корреляционная функция при наличии корреляционной связи между X(t) и Y(t):

KZ(t1,t2)=KX(t1,t2)+ KY(t1,t2)+2KXY(t1,t2),                                        (73.5)

где KXY(t1,t2) - см. (68.5) - взаимная корреляционная функция двух зависимых с.ф. X(t) и Y(t). 

Если X(t) и Y(t) независимы, то KXY(t1,t2)=0.     М.о. с.ф. Z(t):       .

5.2. Выбросы случайной функции за заданный уровень

Необходимость определения вероятностных характеристик процесса пересечения с. функцией заданного уровня возникает, когда необходимо вычислить вероятность того, что в течение срока службы нагрузка, действующая на строительную конструкцию, не превысит допустимого уровня. Найдем вероятность пересечения случайной функцией (дифференцируемой) X(t) некоторого уровня а в течение времени t. Полагая скорость изменения с.ф. V(t)=dX(t)/dt постоянной в течение времени dt (с точностью до бесконечно малых второго порядка) условие пересечения функцией X(t) уровня а за малый промежуток времени dt:

X(t)<a; X(t)+V(t)dt>a                                                            (74.5)

или

a-V(t)dt<X(t)<a (V(t)>0)                                                    (75.5).

Вероятность этого события (выраженного условием (75)):

                                                      (76.5),

где p(x,V) - совместная плотность распределения с.ф. X(t) и V(t). 

Ввиду близости пределов внутреннего интеграла (его заменили на p(a,V)Vdt - площадь прямоугольника) вероятность выброса:

                                                        (77.5).

Если разделить вероятность выброса Qa на время dt, в течение которого он ожидается, получится временная плотность вероятности выброса за уровень а в момент t (среднее число выбросов в единицу времени):

                                                            (78.5).

В случае стационарного с.п. X(t) и Y(t) - независимые с.ф. и (при том  и известна автокорреляционная функция для X(t) - KX()), следовательно,

p(x,V)=px(x)pV(V),                                                              (79.5)

где p(x,V) - совместная плотность распределения X(t) и Y(t); px(x)и pV(V) - соответственно плотности распределения X(t) и Y(t).

Тогда временная плотность вероятности выброса:

                                       (80.5),

где  - м.о. положительной скорости V(t).

Для нормального распределения X(t):

                                                     (81.5)

распределение скорости V(t) будет также нормальным и независимым от распределения X(t):                                                           (82.5).

М.о.  вследствие стационарности процесса. По (72) .

Подстановка (82) и (81) в (80) даст для временной плотности вероятности выброса

                                                  (83.5).

Доказательство (83.5):

.

Заменим подынтегральное выражение,

,

тогда

,

и тогда .

Чем больше уровень а, тем меньше q(a). При очень малом значении q(a) выбросы можно рассматривать как редкие события, т.е. как независимые с.в.

Если число выбросов в течение времени t подчиняется закону Пуассона  (66), тогда вероятность того, что за время T не произойдет ни одного выброса при условии, что X(t) – стационарная функция

Pt=exp[q(a)T]                                                                 (84.5)

Это функция надежности.

В случае нестационарной функции

                                                                  (85.5).

6. Приближенные методы нахождения распределения функций с.в.

  1.  Метод Монте-Карло (метод рандомизации)

Есть система двух с.в. X и Y и p(x,y) – совместная плотность их распределения. Данный метод позволяет найти плотность распределения p(U), где U=U(X,Y). 

Для одномерной с.в. Х, где р(х) – плотность ее распределения, можно найти p(U), причем U есть функция от X:

U=U(X)).

Суть метода в том, что аргументам X и Y даются случайные значения, распределенные согласно p(x,y). Случайные числа для значений аргументов можно брать по таблицам (есть таблицы для равномерного, нормального распределений, распределения Пирсона и т.д.) или определять на ЭВМ по специальной программе. Каждой случайной точке (xi,yj) соответствует определенное значение функции U(xi,yj). После реализации достаточно большого количества значений с.в. U их можно сгруппировать по интервалам n<U<(n+1) и построить ступенчатую аппроксимацию искомой кривой распределения p(U). Метод эффективен при использовании ЭВМ и при разрывности функции U(X,Y) (или при различном ее аналитическом описании в различных областях плоскости XOY).

Если есть функция двух с.в. U=U(X,Y) и p(x,y) – совместная плотность распределения X и Y, то

(получено из (40.3) и (29.3)), где x=(U,y). 

                                                                 (86.6)

и

                                                      (87.6),

но для двух аргументов.

  1.  Метод статистических испытаний

Производится достаточно большое число статистических испытаний по схеме Бернулли, т.е. на каждом испытании генерируются случайные реализации всех исходных величин. Далее, например, если необходимо определить вероятность отказа системы, то испытания проводятся n раз, и каждый раз проверяется условие наступления отказа (например, Q>R, где Q – фактическая нагрузка на систему, R – прочность системы). Затем частота появления отказа: P*(A)=m/n, где m – количество отказов. При n -

P*(A)P(A),

где P(A) – вероятность наступления отказа, являющаяся достоверной величиной.

В данном методе необходимо оценить погрешность определения P*(A) при определенном количестве испытаний n или оценить количество испытаний n, необходимое для достижения частотой наступления отказа P*(A) достаточной достоверности.

7. Вероятность редких событий (появление случайного

события A  за время  T)

Пусть некоторое событие A появляется случайно, причем корреляционная связь между вероятностями соседних по времени событий практически отсутствует, т.е. на срок возникновения последующего события не влияют сроки появления предыдущих. Наблюдениями в течение очень большого промежутка времени можно установить среднюю частоту появления события A, т.е. число событий, образующееся в среднем за единицу времени. U=n/T, где n - число событий, появившихся за большой промежуток времени T.

Тогда вероятность появления события A хотя бы один раз за время t:

1- Pt = 1- e-ut                                                       (88.7),

где Pt - вероятность не появления события A за время t.

Если средняя частота появления события A - u переменна во времени (т.е. u=u(t)), то

                                                       (89.7).

Если событие A крайне нежелательно или недопустимо (например, А – отказ), то выражение

                                                            (90.7)

есть функция надежности, представляющая собой вероятность непоявления события A в течение времени t ни разу.

При постоянной U(t)=const:

Pt=e-ut                                                                      (91.7).


 

А также другие работы, которые могут Вас заинтересовать

81498. Метилирование ДНК. Представление о метилировании чужеродных и лекарственных соединений 108.02 KB
  Метилирование ДНК это модификация молекулы ДНК без изменения самой нуклеотидной последовательности ДНК что можно рассматривать как часть эпигенетическойсоставляющей генома. Метилирование ДНК заключается в присоединении метильной группы к цитозину в позиции С5 цитозинового кольца. У человека за процесс метилирования ДНК отвечают три фермента называемые ДНКметилтрансферазами 1 3 и 3b DNMT1 DNMT3 DNMT3b соответственно.
81499. Источники и образование одноуглеродных групп. Тетрагидрофолиевая кислота и цианкобаламин и их роль в процессах трансметилирования 168.87 KB
  Образование и использование одноуглеродных фрагментов. Ещё один источник формального и формиминофрагментов гистидин. Все образующиеся производные Н4фолата играют роль промежуточных переносчиков и служат донорами одноуглеродных фрагментов при синтезе некоторых соединений: пуриновых оснований и тимидиловой кислоты необходимых для синтеза ДНК и РНК регенерации метионина синтезе различных формиминопроизводных формиминоглицина и т. Перенос одноуглеродных фрагментов к акцептору необходим не только для синтеза ряда соединений но и для...
81500. Антивитамины фолиевой кислоты. Механизм действия сульфаниламидных препаратов 104.02 KB
  В медицинской практике в частности в онкологии нашли применение некоторые синтетические аналоги антагонисты фолиевой кислоты. Аминоптерин является наиболее активным цитостатикомантагонистом фолиевой кислоты; отличается высокой токсичностью вследствие чего показан лишь при тяжёлых формах псориаза. ПАБК необходима микроорганизмам для синтеза фолиевой кислоты которая превращается в фолиниевую кислоту участвующую в синтезе нуклеиновых кислот.
81501. Обмен фенилаланина и тирозина. Фенилкетонурия; биохимический дефект, проявление болезни, методы предупреждения, диагностика и лечение 261.77 KB
  Тирозин условно заменимая аминокислота поскольку образуется из фенилаланина. Метаболизм феиилаланина Основное количество фенилаланина расходуется по 2 путям: включается в белки; превращается в тирозин. Превращение фенилаланина в тирозин прежде всего необходимо для удаления избытка фенилаланина так как высокие концентрации его токсичны для клеток.
81502. Алкаптонурия и альбинизм: биохимические дефекты, при которых они развиваются. Нарушение синтеза дофамина, паркинсонизм 403.53 KB
  Нарушение синтеза дофамина паркинсонизм. Заболевание развивается при недостаточности дофамина в чёрной субстанции мозга. Для лечения паркинсонизма предлагаются следующие принципы: заместительная терапия препаратамипредшественниками дофамина производными ДОФА леводопа мадопар наком и др. подавление инактивации дофамина ингибиторами МАО депренил ниаламид пиразидол и др.
81503. Декарбоксилирование аминокислот. Структура биогенных аминов (гистамин, серотонин, γ-аминомасляная кислота, катехоламины). Функции биогенных аминов 239.46 KB
  Процесс отщепления карбоксильной группы аминокислот в виде СО2 получил название декарбоксилирования. В живых организмах открыты 4 типа декарбоксилирования аминокислот. αДекарбоксилирование характерное для тканей животных при котором от аминокислот отщепляется карбоксильная группа стоящая по соседству с αуглеродным атомом.
81504. Дезаминирование и гидроксилирование биогеных аминов (как реакции обезвреживания этих соединений) 168.64 KB
  Инактивация биогенных аминов происходит двумя путями: 1 метилированием с участием SM под действием метилтрансфераз. Таким образом могут инактивироваться различные биогенные амины но чаще всего происходит инактивация гастамина и адреналина. Так инактивация адреналина происходит путём метилирования гидроксильной группы в ортоположении . Реакция инактивации гистамина также преимущественно происходит путём метилирования 2 окислением ферментами моноаминооксидазами МАО с коферментом FD таким путем.
81505. Нуклеиновые кислоты, химический состав, строение. Первичная структура ДНК и РНК, связи, формирующие первичную структуру 107.11 KB
  Первичная структура ДНК и РНК связи формирующие первичную структуру Нуклеи́новые кисло́ты высокомолекулярные органические соединения биополимеры полинуклеотиды образованные остатками нуклеотидов. Нуклеиновые кислоты ДНК и РНК присутствуют в клетках всех живых организмов и выполняют важнейшие функции по хранению передаче и реализации наследственной информации. Поскольку в нуклеотидах существует только два типа гетероциклических молекул рибоза и дезоксирибоза то и имеется лишь два вида нуклеиновых кислот дезоксирибонуклеиновая ДНК...
81506. Вторичная и третичная структура ДНК. Денатурация, ренативация ДНК. Гибридизация, видовые различия первичной структуры ДНК 108.02 KB
  Вторичная структура ДНК. В 1953 г. Дж. Уотсоном и Ф. Криком была предложена модель пространственной структуры ДНК. Согласно этой модели, молекула ДНК имеет форму спирали, образованную двумя полинуклеотидными цепями, закрученными относительно друг друга и вокруг общей оси. Двойная спираль правозакрученная, полинуклеотидньхе цепи в ней антипараллельны