Разряды | -4 | -3 | -2 | -1 | 0 | 1 | 2 | 3 |
Частоты | 0,012 | 0,05 | 0,144 | 0,266 | 0,240 | 0,176 | 0,092 | 0,20 |
Число попаданий в i-й разряд | 6 | 25 | 72 | 133 | 120 | 88 | 46 | 10 |
Определить аналитический вид плотности распределения f(x).
Решение. Вначале построим гистограмму распределения случайной величины Х.

Как видно из гистограммы, подходящей для аппроксимации является гауссова функция:
![]()
Таким образом, необходимо определить лишь два параметра, математическое ожидание
и дисперсию
. Поскольку мы не располагаем всеми наблюденными n=500 значениями случайной величины, оценим
и
по группированному статистическому ряду. Делается это так: выбирается в качестве "представителя" i-го разряда его середина и этому значению хi приписывается частота
.
Тогда
=-3,5*0,012-2,5*0,05-1,5*0,144-0,5*0,266+0,5*0,240+1,5*0,176+2,5*0,092+3,5*0,02=0,162.

Среднее квадратическое отклонение
![]()
Таким образом оценку для плотности распределения случайной величины Х можно записать в виде
.
Для решения задач обоснованного прогноза, т. е. для определения пределов, в которых с наперед заданной надежностью будет содержаться интересующая нас величина, если другие связанные с ней величины получат определенные значения, необходимо определить их функциональную зависимость. Функция представляющая собой статистическую зависимость одной случайной величины от другой называется регрессией.
Для гауссового распределения системы случайных величин (X, Y) связь между ними выражается уравнениями линейной регрессии:

где
и
- коэффициенты линейной регрессии y на х и х на y, соответственно.
Коэффициенты линейной регрессии выражаются через характеристики системы (X, Y) следующим образом:

или, учитывая, что коэффициент корреляции
имеем:

Перемножив левые и правые части этих равенств, после извлечения корня получаем
![]()
т. е. коэффициент корреляции есть среднее геометрическое коэффициентов линейной регрессии. Он характеризует насколько близко связь между случайными величинами Х и Y к линейной зависимости.
Выборочные уравнения прямых регрессий имеют вид:

В тех случаях, когда линейное приближение является явно недостаточным, можно рассматривать в качестве приближенных уравнений регрессий более сложные функции, неизвестные параметры которой определяются методом наименьших квадратов.
Пример. Определить выборочное уравнение линейной регрессии Х по Y, если по результатам опытов получены следующие оценки:

Решение. Выборочный коэффициент корреляции

Тогда x-410=0,1*(64,3/62)*(y-170), или x=0,104y+392,32.
Выводы
1. Одной из часто встречающихся задач, встающих перед аналитиками различных специальностей, является задача нахождения зависимости между некоторыми наборами данных эксперимента. В общей постановке задача описания эмпирической зависимости с помощью параметрической регрессии предполагает, что задается функция, определенная с точностью до нескольких параметров, которые подбирают таким образом, чтобы получающаяся функция с максимальной точностью соответствовала данным эксперимента. Наиболее просто определяются параметры для случая линейной регрессии.
2. При выравнивании (сглаживании) эмпирических зависимостей наиболее часто исходят из того, что наилучшим приближением в данном классе функций является то, для которого сумма квадратов отклонений обращается в минимум. Вопрос о том, в каком классе функций следует искать наилучшее приближение, решается уже не математически, а исходя из характера эмпирической кривой. Аналогично обстоит дело и с задачей выравнивания статистических распределений. Принципиальный вид выравнивающей плавной кривой
выбирается заранее, исходя из условий возникновения случайной величины Х или просто из соображений, связанных с внешним видом гистограммы.
3. Одним из основных методов определения статистических оценок параметров, входящих в выравнивающую функцию, является метод наименьших квадратов.
12. Статистическая проверка гипотез
При решении многих задач приходится делать предположение о виде законов распределения рассматриваемых случайных величин или соотношении между их числовыми характеристиками. Такие предположения принято называть гипотезами. Приняв ту или иную гипотезу, из нее выводят определенное следствие и рассматривают, насколько оно оправдывается на опыте, т. е. проверяют согласие принятой гипотезы с опытом.
Процедура обоснованного сопоставления высказанной гипотезы с имеющимися выборочными данными осуществляется с помощью того или иного статистического критерия и называется статистической проверкой гипотез.
Результат подобного сопоставления может быть либо отрицательными (данные наблюдения противоречат высказанной гипотезе, а потому от этой гипотезы следует отказаться), либо неотрицательными (данные наблюдения не противоречат высказанной гипотезе, а потому ее можно принять в качестве одного из естественных и допустимых решений). При этом неотрицательный результат статистической проверки гипотезы не означает, что высказанное нами предположительное утверждение является наилучшим, единственно подходящим: просто оно не противоречит имеющимся у нас выборочным данным, однако таким же свойством могут наряду с данной гипотезой обладать и другие гипотезы.
По своему прикладному содержанию высказываемые в ходе статистической обработки данных гипотезы можно подразделить на несколько основных типов:
1. Гипотезы о типе законов распределения исследуемой величины.
2. Гипотезы об однородности двух или нескольких обрабатываемых выборок или некоторых характеристиках анализируемых совокупностей.
3. Гипотезы о числовых значениях параметров исследуемой генеральной совокупности.
4. Гипотезы о типе зависимости между компонентами исследуемого многомерного признака.
5. Гипотезы независимости и стационарности обрабатываемого ряда наблюдений.
Для проверки гипотезы о виде закона распределения случайной величины часто применяется критерий согласия
(критерий Пирсона). Он позволяет производить проверку гипотезы соответствия опытного закона распределения теоретическому (предполагаемому) не только в случаях, когда последний известен полностью, но и тогда, когда параметры предполагаемого закона распределения определяются на основании опытных данных.
Пусть проведено n независимых опытов, в каждом из которых случайная величина Х приняла определенное значение. Результаты опытов сведены в m разрядов и в виде группированного статистического ряда:
i |
|
| ... |
|
|
|
| ... |
|
|
|
| ... |
|
Мы выводим гипотезу Н, состоящую в том, что случайная величина Х имеет ряд распределения с вероятностями pi, i=1,2,...,m, а отклонения частот
от вероятностей pi объясняются случайными причинами.
Чтобы проверить правдоподобность этой гипотезы, надо выбрать какую-то меру расхождения статистического распределения с гипотетическим.
В качестве меры расхождения R между гипотетическим распределением и статистическим при использовании критерия
берется сумма квадратов отклонений
с некоторыми весами
:
![]()
Коэффициенты ci вводятся потому, что отклонения, относящиеся к разным значениям pi, нельзя считать равноправными по значимости: одно и то же по абсолютной величине отклонение
может быть малозначительным, если сама вероятность pi велика, и очень заметным, если она мала. Пирсон доказал, что если взять
|
Из за большого объема этот материал размещен на нескольких страницах:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |


-3
-2
-1
1
2