Кафедра высшей математики и информатики
Ковальчук В.М.
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Опорный конспект
Для студентов экономических специальностей
г. Бобруйск 2004
Лекция 1. Предмет теории вероятностей. Случайные события и вероятности событий
Предметом теории вероятностей является анализ явлений, наблюдения над которыми не всегда приводят к одним и тем же исходам и в то же время обладающим некоторой статистической регулярностью, которая проявляется в статистической устойчивости частот исходов.
Статистическая устойчивость частот делает весьма правдоподобной гипотезу о возможности количественной оценки случайности того или иного события, появляющегося в результате эксперимента. Как правило, эксперимент предпринимается для изучения некоторых свойств интересующих нас экономического процесса или явления. При этом производится построение математической модели эксперимента, которое включает описание:
· Возможных исходов;
· Класса рассматриваемых событий;
· Вероятностей наступления этих событий.
Современная теория вероятностей основана на аксиоматическом подходе Колмогорова, позволяющим охватить все классические разделы теории вероятностей и дать основу для развития ее новых разделов, вызванных запросами практики.
Одной из важных сфер приложения теории вероятностей является экономика, так как при исследовании и прогнозировании экономических показателей используется эконометрика, опирающаяся на теорию вероятностей. Практическое значение вероятностных методов состоит в том, что они позволяют по известным характеристикам простых случайных явлений прогнозировать характеристики более сложных явлений.
1.1.Случайные события. Вероятность.
Пространством элементарных событий
называют множество W взаимоисключающих исходов эксперимента такое, что каждый интересующий результат эксперимента может быть однозначно описан с помощью элементов этого множества. Элементы W называются элементарными событиями и обозначаются w.
Событием
называют любое подмножество AÍW элементов из W. Событие A произойдет, если произойдет какое-либо из элементарных событий wÎA. Пустое множество Æ называется невозможным событием.
Суммой
двух событий A и B называется событие A B(AÈB), состоящее из элементарных событий, принадлежащих хотя бы одному из событий A или B.
Произведением
двух событий A и B называется событие AB(AÇB), состоящих из элементарных событий, принадлежащих одновременно A и B.
Противоположным
событием событию A называют событие `A , состоящее из элементарных событий, не принадлежащих A.
Разностью
двух событий A и B называют событие AB, состоящее из элементарных событий, которые входят в событие B.
События A и B называются несовместными
, если у них нет общих элементарных событий.
Пусть F – поле событий для данного эксперимента. Вероятностью
P(A) называется числовая функция, определенная на всех AÎF и удовлетворяющая трем условиям (аксиомам вероятностей):
1. P(A)³ 0;
2. P(W)=1;
3. Для любой конечной или бесконечной последовательности наблюдаемых событий
Существует 4 способа задания вероятности:
1. Классический способ задания вероятности
При данном способе пространство элементарных событий является конечным, и все элементарные события равновероятны. Тогда вероятность события определяется равенством
где
2. Геометрический способ задания вероятности
При данном способе пространство элементарных событий является бесконечным, но все элементарные события, входящие в это пространство, являются равновозможными.
Если отождествлять пространство элементарных событий с некоторой замкнутой областью пространства из
3. Дискретный способ задания вероятности
При данном способе пространство элементарных событий является бесконечным счетным. Числовая неотрицательная функция Р определяется таким образом, чтобы вероятность каждого элементарного события была равна некоторому числу ,
4. Статистический способ задания вероятности
При данном способе рассматривается случайный эксперимент для которого построить пространство элементарных событий невозможно. Тогда эксперимент проводится комбинаторики (соединений).
Каждая из комбинаторных формул определяет общее число элементарных событий в некотором эксперименте, состоящем в выборе наудачу
б) с возвращением (выбор осуществляется поэлементно с обязательным возвращением отобранного элемента на каждом шаге и тщательном перемешиванием исходного множества перед следующим выбором).
В результате получаются различные постановки эксперимента по выбору наудачу Перестановки.
Возьмем перестановки
. Общее число перестановок из Размещения
. Будем составлять из размещениями
из Замечание.
Перестановки можно считать частным случаем размещений (именно размещениями из Сочетания.
Из сочетаниями
из
или
Лекция №2 Свойства вероятностей. Условная вероятность. Теоремы сложения и умножения вероятностей.
Пусть для некоторого случайного эксперимента построено пространство элементарных событий
Теорема сложения:
Пусть событие
Теорема умножения :
Вероятность произведения событий
2.2. Формула полной вероятности. Формула Бейеса ( теорема гипотез)
Пусть случайный эксперимент можно описать событиями гипотезами
. Предполагается, что событие Теорема:
Вероятность любого события Теорема:
Пусть событие
Которые описывают случайный эксперимент. Если в результате реализации
эксперимента произошло событие
следующим формулам :
Лекция №3 -5 Случайные величины. Функции распределения случайных величин
3.1. Дискретные случайные величины
Случайная величина , обозначаемая дискретной,
если она принимает конечное либо счетное множество значений, т.е. множество
Законом распределения
дискретной случайной величины называется совокупность пар
чисел
Зная закон распределения случайной величины, можно вычислить функцию распределения
:
где суммирование распространяется на все значения индекса Математическим ожиданием
Модой
дискретной случайной величины, обозначаемой Медианой
случайной величины
Дисперсией
случайной величины называется математическое ожиданиеквадрата ее отклонения:
Дисперсия дискретной случайной величины вычисляется по формуле:
Средним квадратическим отклонением
(стандартом) случайной величины Начальным моментом
порядка Центральным моментом
порядка Биноминальным
называют закон распределения дискретной случайной величины закону Пуассона
, если
Математическое ожидание и дисперсия случайной величины, распределенной по закону Пуассона:
Геометрическое распределение
возникает в том случае, когда производится серия испытаний до первого появившегося события
Математическое ожидание и дисперсия случайной величины, распределенной по геометрическому закону, соответственно равны:
Гипергеометрический закон
распределения используется при проверке качества продукции. Проверяется
Функция гипергеометрического распределения имеет вид
Гипергеометрический закон стремится к биноминальному закону распределению, если
3.2.Непрерывные случайны величины.
Случайная величина непрерывной,
если существует такая неотрицательная, интегрируемая по Риману функция Плотностью распределения вероятностей
называют предел, если он существует, отношения вероятности попадания случайной величины
Х на отрезок
последний стремится к 0, т.е.
Свойства плотности распределения вероятностей:
–
непрерывная или кусочно непрерывна функция; Функция распределения
случайной величины
Математическое ожидание и дисперсия случайной величины :
Модой
непрерывной случайной величины Медианой
непрерывной случайной величины Начальный момент
Центральный момент
Коэффициент асимметрии
или «скошенности» распределения
Коэффициент эксцесса
или островершинности распределения
Случайная величина
нормированной (стандартизованной) случайной величиной.
3.3. Законы распределения непрерывной случайной величины
Равномерное распределение:
Пусть плотность вероятности равна нулю всюду, кроме отрезка
Функция равномерного распределения задается формулой:
Математическое ожидание, дисперсия и среднее квадратическое отклонение соответственно равны:
Показательное распределение. Показательным (экспоненциальным) называют распределение вероятностей непрерывной случайной величины
Функция распределения случайной величины, распределенной по показательному закону, имеет вид:
Математическое ожидание
Лекция №6. Нормальное распределение.
Распределение с непрерывной случайной величины называется нормальным, если плотность распределения ее описывается формулой:
где
Функция распределения случайной величины Х, распределенной по нормальному закону:
Полученный интеграл нельзя выразить через элементарные функции, но его можно вычислить через специальную функцию:
называемую нормальной функцией распределения (функцией Лапласа). Эта функция неубывающая, непрерывная слева и
Центральные моменты случайной величины с нормальным законом распределения вычисляются через следующие рекуррентные соотношения:
поскольку
Коэффициенты ассиметрии и эксцесса для нормального закона распределения равны нулю:
так как они характеризуют скошенность и крутизну исследуемового закона распределения по сравнению с нормальным.
Вероятность попадания случайной величины
или
Вероятность заданного отклонения вычисляется по формуле:
Лекция 7-8. Предельные теоремы и законы больших чисел
Все законы вероятности получены из практики, то есть из наблюдений за массовыми случайными явлениями. Массовые случайные явления проявляются в статистической совокупности.
Было замечено, что при определенных условиях массовые случайные явления порождают величину неслучайную, которая подчиняется вполне определенным закономерностям. Все полученные соответствующие теоремы и образуют теоремы закона больших чисел, в которых приведены условия, когда среднее значение случайных величин стремится к величине не случайной.
Неравенство Чебышева
:
Теорема:
Вероятность того, что случайная величина
положительное действительное число:
Теорема Чебышева (закон больших чисел).
Теорема:
Если
средние арифметические наблюденных значений случайных величин сходиться по
вероятности к среднему арифметическому их математических ожиданий:
Закон больших чисел справедлив и для зависимых случайных величин, то есть справедлива
теорема Маркова:
Теорема: :
Если для случайных величин
сходится по вероятности к среднему арифметическому их математических ожиданий:
Теоремы Бернулли :
Если производится
события в каждом испытании:
Теорема Пуассона:
Пусть производится
сходится по вероятности к среднему арифметическому вероятности
появления события в различных испытаниях:
Теорема Лендеберга-Леви:
Пусть
закону распределения с плотностью распределения вероятностей равной
– нормированная случайная величина.
Это центральная предельная теорема для одинаково распределенных случайных независимых величин.
Теорема Ляпунова:
Если
моменты третьего порядка, удовлетворяющие условиям:
то закон распределения величины
распределения с плотностью распределения вероятности
Эта теорема имеет большое практическое значение, так как, используя ее, можно вычислить вероятность того, что сумма независимых случайных величин принимает значение, принадлежащее интервалу. Условие
Теорема Мавра -Лапласа (локальная):
Пусть производится Теорема Муавра- Лапласа (интегральная):
Пусть производится
справедливо соотношение:
Из предельного равенства теоремы следует формула:
Отсюда вытекают следующие соотношения:
В отличии от теорем Бернулли и Пуассона последние две формулы более точную оценку
вероятности отклонений частоты появления событий от его математического ожидания и
частости события от вероятности появления события в каждом испытании.
Двумерные случайные величины.
Совокупность случайных величинФункция распределения
системы двух случайных величин
Используя функцию распределения, можно найти вероятность попадания случайной точки в
бесконечную полуполосу
Дискретной
называют двухмерную величину, составляющие которой дискретны.
Законом распределения
двумерной дискретной случайной величины называется множество
всевозможных значений
дискретных двумерных случайных величин и соответствующих им вероятностей
Непрерывной
называют двумерную величину, составляющие которой непрерывны.
Функция
когда обе стороны прямоугольника стремятся к нулю, называется плотностью распределения
вероятностей:
Зная плотность распределения, можно найти функцию распределения по формуле:
Вероятность попадания случайной точки Начальным моментом
порядка
случайные величины, то
Если Центральным моментом
порядка
Если составляющие величины являются дискретными, то
Если составляющие величины являются непрерывными, то
Условным математическим ожиданием
выражение вида:
Корреляционным моментом
независимых случайных величин
отклонений этих величин:
Корреляционный момент двух независимых случайных величин Коэффициентом корреляции
случайных величин
произведению средних квадратических отклонений этих величин:
Коэффициент корреляции удовлетворяет условию =
0 , называются
некоррелированными.
Уравнения
Лекция №9.Случайные функции. Цепи Марков. Пуассоновский поток событий
Пусть случайная функция
0 t 0 tt
Реализация Семейство реализаций
При зафиксированном значении аргумента t случайная функция X(t) превращается в случайную величину- сечение
случайной функции или процесса. Тогда X(t) в данный момент времени t определяется плотностью распределения f(x ; t). Однако одномерные законы распределения и их числовые характеристики, вычисленные для одного момента времени ( для одного сечения семейства реализаций) не могут оценивать характер изменения процесса во времени. Для этой цели используют характеристики связи между ординатами, взятыми в различные моменты времени. Наиболее полно эти связи характеризуются многомерной плотностью распределения Математическим
ожиданием случайной функцией
и является средней траекторией для всех возможных реализаций.
Дисперсией
случайной функции
и характеризующей возможный разброс реализаций случайной функции относительно средней траектории.
Корреляционной
функцией случайной функции стационарным
, если его многомерная плотность распределения не изменяется при сдвиге соответствующих моментов времени на любую величину. В рамках корреляционной теории , процесс считается стационарным, если его ковариационная функция
Корреляционная функция стационарного процесса по модулю не превосходит дисперсию:
Стационарный процесс у которого корреляционная функция стремится к нулю эргодичным.
Эргодические процессы представляют наибольший интерес для практических приложений, поскольку их характеристики, определяемые по семейству и по одной реализации совпадают:
Марковскими
случайными процессами называют такие процесса, у которых плотность совместного распределения произвольных двух сечений полностью определяют характер процессов, т.е. дальнейшее поведение процесса зависит только от значений, принятых процессом в настоящий момент времени , и не зависит от ранее принятых.
Марковский случайный процесс, в котором сама функция принимает счетное множество возможных состояний (дискретные состояния)цепями Маркова
. Если переход из состояния в состояние происходит в дискретные моменты времени дискретными цепями Маркова
. Если переходы возможны в любой момент времени, то процесс называют непрерывными цепями Маркова
. Вероятность того, что дискретная цепь Маркова в момент времени вероятностью перехода
из состояние в состояние однородной:
Дискретные цепи Маркова однозначно определяются либо матрицей переходов
или графом состояний
21
Р32
Р431
Х2
Х3
Х4
Р12
Р23
Р34
Вектором вероятностей
(безусловной вероятностью) состояния цепи Маркова называют вероятности плотностью вероятностей
перехода
Для непрерывных цепей Маркова вектор вероятностей состояния есть функция времени и определяется путем решения системы дифференциальных уравнений, которые составляются по графу состояния цепи Маркова по следующим правилам :
· в левой части каждого уравнения стоят производные по времени вероятностей состояния цепи;
· правая часть этих уравнений содержит столько членов, сколько переходов (стрелок на графе) связанно с данным состоянием;
· каждый член правой части уравнений равен произведению плотности вероятностей перехода , соответствующей данной стрелки графа состояния, умноженной на вероятность того состояния из которого исходит стрелка;
· каждый член правой части уравнений имеет знак «минус», если стрелка графа состояния входит в данное состояния и знак «плюс», если стрелка выходит из данного состояния.
Например:
Имеем граф состояния однородной непрерывной цепи ркова:
3
X2
Для этого графа составляем систему уравнений по вышеуказанным правилам:
Учитывая, что
Переход из состояния в состояние в непрерывных цепях Маркова происходит вод воздействием потока событий.
Потоком событий
называется последовательность однородных событий, следующих одно за другим в какие-то случайные моменты времени.
Поток событий называю простейшим или стационарным Пуассоновским, если он стационарен, ординарен и без последействия.
1. Поток называется стационарным, если вероятность попадания события на участок времени
2. Поток называют потоком без последействия, если для любых непересекающихся участков времени число событий, попадающих на один из них, не зависит от числа событий на другом участке.
3. Поток событий называют ординарным, если вероятность попадания на элементарный участок двух и более событий пренебрежительно мала по сравнению с вероятностью попадания на этот участок одного события.
Плотностью вероятностей
перехода интенсивностью потока событий
или средним числом событий в единицу времени. Для стационарного потока
не зависит от времени. Для нестационарного
– функция времени
Лекция №10. Предмет математической статистики. Генеральная и выборочная совокупности. Вариационные ряды и их характеристики
Математическая статистика –
раздел высшей математики, изучающий методы сбора, систематизации и обработки результатов случайных массовых явлений с целью выявления существующих закономерностей.
Вся подлежащая изучению совокупность объектов наблюдений называют генеральной совокупностью.
Иными словами, совокупность всех возможных, всех мыслимых, значений исследуемой случайной величины. Понятие генеральной совокупности аналогично понятию случайной величины (закону распределения, вероятностному пространству).
Та часть объектов, которая отобрана для непосредственного изучения из генеральной совокупности, называется выборочной совокупностью или выборкой.
Число объектов в генеральной или в выборочной совокупности называют их объемом .Основная форма представления выборочной совокупности – вариационные ряды. Вариационный ряд
– это ранжированные в порядке возрастания или убывания ряд вариантов с соответствующими им весами (частотами и частостями). Различные значения признака (случайной величины
Частости и частоты еще называют весами.
Кроме частости и частоты используют понятие накопленной частости и частоты,
которые обозначают
Если варианты не отличаются друг от друга меньше определенного значения- то такой ряд называют дискретным.
Если варианты отличаются друг от друга на сколь угодно малую величину, то такой ряд называют непрерывным.
Для построения непрерывного вариационного ряда рекомендуемое число интервалов
Графически вариационные ряды изображают в виде полигона и гистограммы.
Полигон существуют для дискретного вариационного ряда в виде зависимости
Вариационные ряды характеризуются показателями средних значений и вариации. К средним значениям относят:
– средняя арифметическая
Перечисленные средние относят к аналитическим. Кроме них в статистическом анализе применяют структурные или порядковые средние. К ним относят медиану
и моду
.
Медианой
вариационного ряда называется значение признака, приходящееся на середину ранжированного ряда наблюдений.
Для дискретного вариационного ряда с нечетным числом членов медиана равна серединному варианту, а для ряда с четным числом членов – полусумме двух серединных вариантов. Приближенно медиану можно найти с помощью кумуляты как значение признака, для которого
Модой
вариационного ряда называют вариант, которому соответствует наибольшая частота.
К показателям вариации вариационных рядов относят:
– вариационный размах,
равный разности между наибольшим и наименьшим вариантами ряда: – выборочная (эмпирическая) дисперсия
, равная средней арифметической квадратов отклонений вариантов от их средних арифметических:среднее квадратическое
отклонение – коэффициент вариации
,
равный процентному отношению среднего квадратического отклонения к средней арифметической:
Лекция 11. Связь между генеральной и выборочной совокупностью.
Понятие генеральной совокупности в определенном смысле аналогично понятию случайной величины (закону распределения, вероятностному пространству). Выборку можно рассматривать, как некий эмпирический аналог генеральной совокупности.
Средние арифметические распределения признака в генеральной и выборочной совокупностях называются соответственно генеральной
и выборочной средними.
Дисперсии этих распределений называют генеральной
и выборочной дисперсиями.
Отношение числа элементов генеральной
и выборочной долями
.В случае бесконечной генеральной совокупности (
Сущность выборочного метода состоит в том, чтобы по некоторой части генеральной совокупности (по выборке) выносить суждение о свойствах генеральной совокупности в целом.
Чтобы по данным выборки можно было достоверно судить о генеральной совокупности, выборочная совокупность должна быть отобрана случайно
(т.е. по схеме случая или «урн»). При случайном отборе используют два способа образования выборки:
· Повторный отбор
, когда каждый элемент, отобранный и обследованный, возвращается в общую совокупность и может быть повторно отобран;
· Бесповторный отбор
, когда отобранный элемент не возвращается в общую совокупность.
Оценкой
неизвестного параметра генеральной совокупности
в отличие от оцениваемого параметра случайной
величиной, зависящей от закона распределения
В качестве оценок параметров генеральной совокупности желательно использовать оценки, удовлетворяющие одновременно требованиям несмещенности
, состоятельности
и эффективности
.
Оценка несмещенной
, если ее математическое ожидание равно оцениваемому параметру:
Требование несмещенности гарантирует отсутствие систематических ошибок при оценивании.
Оценка
параметра состоятельной
, если она удовлетворяет закону больших чисел, т.е. сходится по вероятности к оцениваемому параметру:эффективной
, если она имеет наименьшую дисперсию среди всех возможных оценок параметра моментов, максимального правдоподобия
и наименьших квадратов. Согласно методу моментов,
определенное количество выборочных моментов (начальных метода наибольшего правдоподобия
составляют функции правдоподобия,
выражающая плотность вероятности совместного появления результатов выборки Метод наименьших квадратов
предусматривает определение оценки из условий минимизации квадратов отклонений выборочных данных
Точечная и интервальная оценка.
Оценка неизвестного параметра одним
числом точечной
:
является несмещенной и состоятельной оценкой генеральной доли
а для бесповторной:
Выборочная средняя
а для бесповторной:
Выборочная дисперсия
повторной и бесповторной выборок есть смещенная и состоятельная оценка генеральной дисперсии Интервальной
оценкой параметра доверительным
, а вероятность доверительной вероятностью
или надежностью оценки. Наиболее часто доверительный интервал выбирают симметричным относительно параметра предельной ошибкой выборки. При заданной доверительной вероятности
Интервальные оценки (доверительные интервалы) для генеральной средней и генеральной доли равны:
где
· Для повторного отбора:
· Для бесповторного отбора:
Предельные ошибки и необходимый объем выборки (Повторный и бесповторный отбор)
Для определения необходимого объема выборки
и для бесповторного отбора:
Необходимый объем выборки для оценки генеральной доли
И для бесповторного отбора:
Лекция №12. Проверка статистических гипотез.
Статистической гипотезой
называется любое предположение о виде или параметрах генеральной совокупности, проверяемое по выборке.
Различают простую
и сложную
статистические гипотезы. Простая гипотеза, в отличие от сложной, полностью определяет теоретическую функцию распределения наблюдаемой случайной величины.
Проверяемую гипотезу обычно называют нулевой .
Наряду с нулевой гипотезой
рассматривают альтернативную,
или конкурирующую,
гипотезу . Правило, по которому принимается или отвергается
,
называется статистическим критерием. Суть проверки статистической гипотезы заключается в том, что используется специальная составленная выборочная характеристика (критерий)
известно. По этому распределению определяется критическое значение критерия
событие,
когда
);· Критическая область
, когда
).
При таком подходе возможны четыре случая (см. табл.):
Таким образом, вероятность уровнем значимости
критерия, есть вероятность допущения ошибки 1-ого рода. Вероятность допустить ошибку 2-ого рода обозначают мощностью критерия. При фиксированном объеме выборке невозможно одновременное уменьшение ошибок 1-ого и 2-ого рода. Критическая область
Критерии проверки гипотез называю параметрическими, если известен закон распределения генеральной совокупности, что задает определенное распределение критерия. При неизвестном законе распределения генеральной совокупности, то критерии называют непараметрическими.
По своему прикладному содержанию. Статистические гипотезы подразделяются на несколько основных типов:
· О равенстве числовых характеристики генеральных совокупностей;
· О числовых значениях параметров;
· О законе распределения;
· Об однородности выборок (т.е. о принадлежности их одной и той же генеральной совокупности).
Проверка гипотез о равенстве средних значений при известной и неизвестной дисперсии.
Имеются две генеральные совокупностиизвестными
дисперсиями
о равенстве генеральных средних, т.е.
:
критерий отвергается. Если
не противоречит имеющимся наблюдениям. При неизвестных
генеральных дисперсиях
В этом случае критерий вычисляем по выражению:
Доказано, что в случае критерий
отвергается на уровне значимости
В случае невозможности наложения допущения о равенстве генеральных дисперсий задача не имеет точного решения (пока) – это проблема Беренса-Фишера.
Рассмотренные критерии можно применять для исключения грубых ошибок при проведении наблюдений.
Например, если в ряде наблюдений
:
критерий должен подчиняться так же закону распределения Стьюдента со степенью свободы
принимается. При условии
отвергается.
Проверка гипотезы о равенстве дисперсий двух нормальных генеральных совокупностей.
Проверка гипотезы
, о том, что дисперсии двух нормально распределенных генеральных совокупностей
критерий
принимается.
Лекция№13.Проверка статистических гипотез о законе распределения генеральной совокупности
Проверку гипотезы
, о том, что генеральная совокупность подчиняется определенному теоретическому закону распределения
выбирают некоторую случайную величину
отвергают. Если же вероятность
можно считать правдоподобной или, по крайней мере, не противоречащей опытным данным. Существует несколько критериев согласия: Критерий согласия
(хи- квадрат) Пирсона В наиболее часто используемом на практике критерии
– Пирсона
в качестве меры расхождения
, равная относительной сумме квадратов отклонений межу эмпирическими . Доказано, что при справедливости гипотезы
и при
имеет –
распределение со
следующая: 1. Разбиваем всю область наблюдаемых выборочных значений . 2.Для выбранного уровня значимости
– распределения находим критическое значение
больше критического, т.е.
отвергается, если
не противоречит опытным данным. Следует отметить, что критерий
имеет закон распределения
лишь при
Критерий согласия Колмогорова
Критерий Колмогорова применяется в тех случаях, когда заранее известен не только вид распределения, но и числовые характеристики распределения. В этом критерии в качестве меры расхождения между теоретическими и эмпирическими распределениями рассматривают максимальное значение абсолютной величины разности между эмпирической функцией распределения
называемое статистикой критерия Колмогорова.
Доказано, что какова бы ни была функция распределения
Методика применения критерия Колмогорова следующая:
- Строятся эмпирическая функция распределения
и предполагаемая теоретическая функция распределения
.
- Определяется мера расхождения между теоретическим и эмпирическим распределением
и вычисляется величина :
- При заданном уровне значимости





отвергается. Если


не противоречит опытным данным.
Следует отметить, что на практике часто не известны параметры законов распределения генеральных совокупностей. Использование в этом случае критерий Колмогорова, заменяя неизвестные характеристики оценками, дает завышенное значение вероятности
- Если гипотеза не удовлетворяет условиям критерия Колмогорова, то ее можно отбросить;
- Если же гипотеза по критерию Колмогорова не противоречит опытным данным, то необходима дополнительная проверка другими критериями, например,
– Пирсона.
Лекция №14. Основные понятия дисперсионного анализа
Дисперсионный анализ
– статистический метод оценки влияния различных факторов на результаты эксперимента. Суть анализа заключается в разложении общей вариации случайной величины на независимые слагаемые, каждое из которых характеризует влияние того или иного фактора или их взаимодействие. Факторами обычно называют внешние условия, влияющие на эксперимент.
По числу факторов, влияние которых исследуется, различают:
· Однофакторный дисперсионный анализ;
· Двухфакторный дисперсионный анализ;
· Многофакторный дисперсионный анализ.
Для проведения дисперсионного анализа необходимо соблюдение следующих условий: результаты наблюдений должны быть независимыми случайными величинами с нормальным законом распределения с одинаковой дисперсией.
Однофакторный дисперсионный анализ
Однофакторная дисперсионная модель имеет вид:
Где
Под уровнем фактора
понимается некоторая его мера или состояние, например номер партии детали, количество вносимых удобрений и т.п.
Проверим существенность влияния № партий изделий на их качество. Пусть имеется межгрупповая
(факторная) сумма квадратов отклонений;
Понятие о двухфакторном дисперсионном анализе
Двухфакторная дисперсионная модель имеет вид:
где
Групповые средние находятся по формулам:
Общая средняя:
Далее рассчитываются
Автоматизированный дисперсионный анализ возможен с помощью табличного процессора Excel.Для этого в опции Сервис находим пакет анализа данных (см. рис.)
Лекция№15. Корреляционно – регрессионный анализ
В естественных науках различают функциональную и статистическую зависимости. Под функциональной понимают такую зависимость, когда значению одной переменной соответствует вполне определенное значение другой переменной. Под статистической (вероятностной или стохастической) понимают такую зависимость, когда одна переменная влияет на закон распределения другой.
Наибольший интерес для практики представляют вероятностные зависимости в виде закономерностей изменения средних значений (условного математического ожидания) одной случайной величины при условии, что другая принимает определенные значения. Такие вероятностные зависимости получили название корреляционных.
Простейшая корреляционная зависимость может быть представлена в виде уравнения регрессии:
Величина
характеризует тесноту связи между случайными переменными
и
в генеральной совокупности
. Известно, что при совместном нормальном законе распределения случайных величин
является показателем тесноты связи лишь в случае линейной зависимости (линейной регрессии) между переменными, получаемые, в частности, при совместном нормальном распределение. В практике статистических исследований нам не известны законы распределения генеральных совокупностей, располагаем лишь выборкой пар значений
- Выявление связи между случайными переменными и оценка ее тесноты;
- Установление формы и изучение зависимости между случайными переменными.
Основной метод нахождения неизвестных параметров уравнений регрессии в статистических исследованиях является метод наименьших квадратов
. Суть этого метода в том, что неизвестные параметры уравнений регрессии выбираются таким образом, чтобы сумма квадратов отклонений эмпирических групповых средних
Линейная корреляционная зависимость и прямые регрессии
Линейную корреляционную зависимость между переменными
неизвестные параметры которых находим методом наименьших квадратов.
Например, для
После преобразований получаем систему нормальных уравнений для определения параметров линейной регрессии:
где соответствующие средние определяются по формулам:
Подставляя значения коэффициента регрессии
Свойства выборочного (статистического) коэффициента корреляции
Для оценки тесноты связи между переменными
2. Если все значения переменных увеличить (уменьшить) на одно и то же число или в одно и то же число раз, по величина коэффициента корреляции не изменится.
3. При линейную функциональную зависимость.4. При
линейная
связь отсутствует. При оценке тесноты связи между переменными
Понятие о нелинейной регрессии, индекс корреляции и коэффициент детерминации
В экономических приложениях часто возникает необходимость выражать корреляционную зависимость в виде нелинейных уравнений регрессии, поскольку линейные зависимости приводят к большим ошибкам. Выбор вида нелинейной регрессии называется спецификацией
или этапом параметризации модели
и осуществляется методами визуального оценивания точек корреляционного поля, анализа сути наблюдаемых экономических процессов и т.п. Наиболее часто в экономических исследованиях используют следующие виды нелинейной регрессии:
· Полиноминальная ;· Гиперболическая
;· Степенное
и т.п.
Для определения неизвестных параметров выбранного уравнения регрессии используется метод наименьших квадратов
.
При нелинейной регрессии для оценки тесноты связи между переменными используют не коэффициент корреляции
Коэффициент детерминации, равный квадрату индекса корреляции, показывает долю общей вариации зависимой переменной, обусловленной регрессией или изменчивостью объясняющей переменной:
Чем ближе
Табличный процессор Excel так же позволяет проводит автоматизированный корреляционно- регрессионный анализ. Для этого в опции Сервис находим пакет анализа данных (см. рис.)
Литература
1. Мацкевич И.П., Свирид Г.П. Высшая математика. Теория вероятностей и математическая статистика. – Мн.: Высшая школа, 1993.
2. Лихолетов И.И., Мацкевич И.П. Руководство к решению задач по высшей математики с основами математической статистики и теории вероятностей. – Мн.: Высшая школа, 1976.
3. Булдык Г.М. Теория вероятностей и математическая статистика. – Мн.: Высшая школа, 1989.
4. Венцель Е.С. Теория вероятностей. – М.: Наука, 1969.
5. Кремер Н.Ш. Теория вероятностей и математическая статистика. – М.: ЮНИТИ-ДАНА,2000.-543 с.
6. Свирид Г.П.,Черторицкий Ю.Н.,Шевченко Л.И. Теория вероятностей и математическая статистика. Контрольные задания и методические рекомендации к ним для студентов экономических специальностей.-Мн.: БГЭУ,1998.
7. Булдык Г.М., Ковальчук В.М. Теория вероятностей и математическая статистика. Практикум. Часть 1.- Мн.: БГЭУ, 1999.-54 с.
8. Гороховик С.Я. Рыбалтовский И.В. Система случайных величин. Индивидуальные задания по теории вероятностей для студентов всех специальностей. – Мн.:БГЭУ,2000. – 18с.
Математическая логика и теория множеств
В математической логике предложено большое число символов логических операций, причём различные авторы часто пользовались для одной и той же операции различными обозначениями. Значительно бо́льшая степень унификации характерна для символики теории множеств[209].
Джордж Буль (1854) использовал для логических операций конъюнкции и дизъюнкции обычные знаки умножения и сложения. Близкие к современным обозначения ∧, ∨{displaystyle land , lor } предложил Джузеппе Пеано (1895); они были по сравнению с ныне употребляемыми вариантами более «сглаженными», в виде дуг окружности. Современный символ дизъюнкции ∨{displaystyle lor } впервые встречается в статье «Математическая логика, основанная на теории типов»[210]Бертрана Рассела (1908), в то время как конъюнкция обозначена там точкой на линии строки (знак дизъюнкции образован от лат. vel ‘или’; позднее возникла традиция двойным знаком дизъюнкции обозначать операцию строгой дизъюнкции[211]). Современный символ конъюнкции ∧{displaystyle land } (перевёрнутый знак дизъюнкции) предложен Арендом Гейтингом (1930); распространённой альтернативой для него остаётся знак амперсанда&[64][212].
В языках программирования для конъюнкции, дизъюнкции и строгой дизъюнкции применяются обычно другие обозначения (например, в языке Ада используются зарезервированные слова and, or и xor[213], а в языках C и C — обозначения &, |, ^ для побитовых операций и &&, || для логических операций[214]).
Логическое отрицаниеДжузеппе Пеано в 1897 году обозначил символом ∼{displaystyle sim } (тильда), похожим на минус; сейчас стандартным является близкий к нему символ ¬{displaystyle lnot }, предложенный Гейтингом в 1930 году[64][212]. Используют для обозначения отрицания и горизонтальную черту над выражением, встречавшуюся ещё у Буля и Чарльза Пирса (1867)[215]. В языках программирования для отрицания применяют и другие обозначения (так, в языке Ада используется зарезервированное слово not
[213], а в языках C и C — обозначения ~
для побитовой операции и !
для логического отрицания[214]).
Первый логический символ, имеющий смысл «следовательно», предложил Иоганн Ран в 1659 году, он состоял из трёх точек: . .˙{displaystyle {dot {. .}}}. Отред (1677) изображал следствие двумя надстрочными точками. Перевёрнутый символ: ˙. ˙{displaystyle {dot {}},.{dot { ,}}} в XIX веке иногда заменял союз «потому что» в англоязычных странах[60].
Знак →{displaystyle to } для обозначения импликации предложил Давид Гильберт (1922). Не менее распространён и знак ⊃, употреблявшийся в этом значении ещё Джузеппе Пеано (1898) и сменивший более раннее начертание ɔ данного знака (которое Пеано применял начиная с 1891 года). Для обозначения эквиваленции используют как символ тождества ≡{displaystyle equiv } (так поступал Рассел в уже упоминавшейся работе 1908 года), так и знак ↔{displaystyle leftrightarrow }, предложенный Альбрехтом Беккером (1933)[212][216].
Штрих Шеффера∣{displaystyle mid } для обозначения операции антиконъюнкции ввёл Генри Шеффер, обосновавший в своей статье «Набор пяти независимых постулатов…»[217] (1913) возможность построения логики высказываний на основе единственной логической операции — антиконъюнкции[218]. Результаты Шеффера, впрочем, предвосхитил Чарльз Пирс (1880), который в неопубликованной при его жизни работе «Булева алгебра с одной константой» фактически осуществил такое построение на основе другой операции — антидизъюнкции, для обозначения которой обычно используют знак ↓{displaystyle downarrow } (стрелка Пирса)[219][220].
Первые символы для кванторов появились в 1879 году в книге Готлоба Фреге «Исчисление понятий»; обозначения Фреге основывались на громоздкой двумерной нотации и в дальнейшем широкого распространения не получили. Впоследствии были предложены более удачные обозначения; например, Оскар Митчелл в 1883 году и Чарльз Пирс в 1885 году использовали заглавные греческие буквы Π{displaystyle Pi } и Σ{displaystyle Sigma } (сам термин «квантор» также предложил Пирс)[221]. Общепринятым для квантора существования стало обозначение ∃{displaystyle exists } (Джузеппе Пеано, 1897), а для квантора общности — символ ∀{displaystyle forall }, образованный Герхардом Генценом в 1935 году по аналогии с символом Пеано; эти символы представляют собой перевёрнутые первые буквы английских слов Exists ‘существует’ и All ‘все’[222][223].
Знак выводимости (турникет) введён, по существу, Фреге (1879) в уже упоминавшейся книге «Исчисление понятий»[224]. В современном начертании встречается у Бертрана Рассела (1908)[210].
Выражение λx.E{displaystyle lambda x.E} означает «функция, сопоставляющая каждому значению аргумента x{displaystyle x} соответствующее значение выражения E{displaystyle E}» (где E{displaystyle E} в общем случае зависит от x{displaystyle x}). Оператор λ-абстракции и основанное на его использовании λ-исчисление предложены Алонзо Чёрчем в конце 1920-х годов (первая публикация — его статья[225] 1932 года, в которой Чёрч, правда, ещё писал λx[E]{displaystyle lambda x[E]}; современный стандартный вид нотация приняла к 1941 году)[226].
На символику теории множеств большое влияние оказала тесно связанная с ней и уже хорошо разработанная к концу XIX века символика математической логики. Знак принадлежности ∈{displaystyle in } (по происхождению — стилизованная буква ε в греч.εστι ‘быть’) был введён Джузеппе Пеано (1889) в работе «Основания арифметики, изложенные новым способом»[227]. Он же является автором символов пересечения и объединения множеств (1888). Теоретико-множественные символы «содержится» и «содержит» появились в 1890 году у Эрнста Шрёдера[212][228].
В 1880-е годы Георг Кантор открыл иерархию бесконечных множеств и упорядочил их по мощности. Наименьшую из них — мощность натурального ряда — он обозначил первой буквой еврейского алфавита «алеф» с нулевым индексом: ℵ0.{displaystyle aleph _{0}.}Порядковое число натурального ряда Кантор обозначил буквой ω,{displaystyle omega ,} последней буквой греческого алфавита. Мощность множества вещественных чисел принято обозначать буквой c{displaystyle c} (от слова continuum ‘непрерывность’)[229][230].
Знак ∅{displaystyle varnothing } для обозначения пустого множества предложил в 1939 году Андре Вейль в ходе работы группы Бурбаки над подготовкой к изданию книги «Теория множеств. Сводка результатов» трактата «Элементы математики» (в качестве прототипа знака была использована буква норвежского алфавита с тем же начертанием)[231]. До 1939 года пустое множество иногда обозначалось символом нуля[232].
Обозначение f:X→Y{displaystyle fcolon Xrightarrow Y} для отображения множества X в множество Y впервые появилось в 1940 году в лекциях Витольда Гуревича по относительным гомотопическим группам[233].
В 1888 году Рихард Дедекинд в статье «Was ist und was sollen die Zahlen» впервые использовал символ N{displaystyle mathbb {N} } для множества натуральных чисел и R{displaystyle mathbb {R} } для множества вещественных чисел. Для целых и комплексных чисел Дедекинд предложил символы K,J{displaystyle mathbb {K} ,mathbb {J} } соответственно. Современное общепринятое обозначение Z{displaystyle mathbb {Z} } для множества целых чисел впервые употребил Эдмунд Ландау в 1930 году (у Ландау над символом Z была чёрточка: Z¯{displaystyle mathbb {bar {Z}} }, впоследствии упразднённая). Бурбаки в монографии «Алгебраические структуры» (1942) поддержали символ Z{displaystyle mathbb {Z} } и предложили обозначение Q{displaystyle mathbb {Q} } для поля рациональных чисел. Символ C{displaystyle mathbb {C} } для поля комплексных чисел появился в статье Натана Джекобсона (1939) и в 1950-е годы стал общепринятым[234].