Что такое среднеквадратичное значение
Перейти к содержимому

Что такое среднеквадратичное значение

  • автор:

Что такое среднеквадратичное значение

Видео: Математическое Ожидание, Дисперсия, Стандартное Отклонение за 5 минут

Содержание

RMS против среднего

Чтобы понять разницу между среднеквадратичным и средним значением, необходимо знать, что такое среднее (или среднее значение), а что такое среднеквадратичное значение (среднеквадратичное значение). Среднеквадратичное значение и Среднее значение — это два математических понятия, используемых для описания общей природы набора чисел. Использование распространяется на физические науки и связанные с ними технологии в том же контексте. Среднее значение — это довольно знакомая и интуитивно понятная концепция, в то время как RMS — это концепция, явно основанная на математическом определении. Давайте подробно рассмотрим их определения и методы расчета среднего и среднеквадратичного значений.

Что такое среднее (или среднее) значение?

В математике среднее — это суммирование ряда значений, чтобы дать общее представление о коллекции. Он также используется в качестве описательной статистики, следовательно, считается мерой центральной тенденции.

Среднее значение рассчитывается разными способами в зависимости от приложения. Поэтому точное математическое определение среднего значения варьируется: это среднее арифметическое, среднее геометрическое, гармоническое среднее и взвешенное среднее. Их определения следующие.

куда Икся представляют значения данных и шя — вес каждого значения. Стоит отметить, что AM, GM и HM удовлетворяют следующей неопределенности: AM≥GM≥HM.

Средневзвешенное значение можно рассматривать как расширение среднего арифметического. Усеченное среднее, межквартильное среднее и выигрышное среднее также используются в конкретных случаях, но наиболее часто используются первые три типа средних, известные как средние по Пифагору.

Что такое RMS — среднеквадратическое значение?

В некоторых приложениях простые пифагоровы средние не являются точным указанием выборки данных. Например, рассмотрим изменяющийся во времени синусоидальный электронный сигнал без сдвига напряжения. Среднее значение амплитуды в пределах цикла равно нулю, что означает, что напряжение в течение этого периода было нулевым, что физически неверно. В результате любые вычисления, включающие значения, неверны.

Например, рассчитанная энергия дает неверные значения. Если рассматривать максимальные или минимальные значения сигнала, ответы все равно являются отдаленным признаком разумного. Анализируя первопричину, становится очевидным, что колебания от отрицательного к положительному приводит к тому, что значения компенсируют друг друга, когда они суммируются. Следовательно, значения должны добавляться таким образом, чтобы они не отменяли друг друга.

В качестве альтернативы можно рассматривать квадратичное среднее или среднеквадратичные значения. Среднеквадратичное значение определяется как,

Поскольку каждое значение возведено в квадрат, все значения положительны, и отмены чередующихся значений предотвращается.

Напряжение и ток в электросети в наших домах указывают на действующие значения напряжений и тока переменного напряжения источника. Идею среднего квадрата можно распространить на более общий случай (все символы имеют обычное значение):

В чем разница между среднеквадратичным и средним (средним) значением?

math4school.okis.ru

Статистика — наука, занимающаяся сбором, обработкой и изучением всевозможных данных, связанных с массовыми явлениями, процессами и событиями, носящими преимущественно случайный характер.

Математическая статистика — раздел прикладной математики, посвящённый математическим методам систематизации, обработки и исследования статистических данных для научных и практических целей.

Статистическое наблюдение — это спланированный, научно организованный сбор массовых данных о социально-экономических явлениях и процессах.

Случайными величинами в статистике называют такие величины, которые в ходе наблюдений или испытаний могут принимать различные значения. Можно говорить о том, что их значения зависят от случая.

На практике часто после проведения реальных испытаний составляются таблицы распределения значений случайных величин по частотам (или по относительным частотам), после чего для большей наглядности распределение данных представляют либо в виде диаграммы, либо в виде полигона частот (полигона относительных частот).

► Например, имеются результаты 20 измерений диаметра d болта (в миллиметрах с точностью до 0,1):

10,1 10,0 10,2 10,1 9,8 9,9 10,0 10,0 10,2 10,0

10,0 9,9 10,0 10,1 10,0 9,9 10,0 10,1 10,1 10,0

Представим эти данные с помощью: 1) таблицы распределения по частотам M и относительным частотам W ; 2) полигона частот.

1) Таблица частот и относительных частот
d 9,8 9,9 10,0 10,1 10,2
M 1 3 9 5 2
W = M /N 0,05 0,15 0,45 0,25 0,1

Отметим, что сумма всех значений частот (строка значений M ) равна N = 20, сумма всех значений относительных частот (строка значений W ) равна 1.

2) Полигон частот

В статистике исследуют различные совокупности данных — числовых значений случайных величин с учётом частот, с которыми они встречаются в совокупности. При этом совокупность всех данных называют генеральной совокупностью .

Самым распространённым способом статистических наблюдений является выборочное наблюдение . В процессе такого наблюдения изучается только часть генеральной совокупности. Эту часть отбирают специальным методом и называют выборкой .

В статистических исследованиях выборку называют репрезентативной , если в ней присутствуют те и только те значения случайной величины, что и в генеральной совокупности, причём частоты имеющихся в ней данных находятся практически в тех же отношениях, что и в генеральной совокупности.

Центральные тенденции

Совокупность данных иногда бывает полезно охарактеризовать (оценить) одним числом — мерой центральной тенденции числовых значений её элементов. К таким характеристикам относятся мода, медиана и среднее значение .

Мода (обозначают Mo ) — это значение случайной величины, имеющее наибольшую частоту в рассматриваемой выборке.

► Например, мода выборки 7, 6, 2, 5, 6, 1 равна 6; выборка 2, 3, 8, 2, 8, 5 имеет две моды:

Медиана (обозначают Mе ) — это число (значение случайной величины), разделяющее упорядоченную выборку на две равные по количеству данных части.

Если в упорядоченной выборке нечётное количество данных, то медиана равна серединному из них. Если в упорядоченной выборке чётное количество данных, то медиана равна среднему арифметическому двух серединных чисел.

► Например, 1) чтобы найти медиану выборки

сначала расположим элементы выборки в порядке возрастания:

Количество данных нечётно. Слева и справа от числа 4 находятся по три элемента. Значит, 4 — серединное число выборки, поэтому Mе = 4.

2) Рассмотрим уже упорядоченную выборку, состоящую из шести элементов:

Количество данных чётно, серединные данные выборки: 3 и 4, поэтому Mе = (3+4) /2 = 3,5 .

Средним значением (или средним арифметическим ) выборки называется число, равное отношению суммы всех элементов выборки к их количеству.

Если рассматривается совокупность случайной величины X , то её среднее значение обозначают X .

► Например, найдём среднее значение выборки случайной величины X , если распределение значений по частотам представлено в таблице:

Меры разброса

Не каждую выборку имеет смысл оценивать с помощью центральных тенденций (моды, медианы, среднего значения).

► Например, если исследуется выборка 80, 80, 320, 4 600 годовых доходов (в тысячах рублей) четверых человек, то очевидно, что

ни медиана Mе = 200,

ни среднее значение X = 1 270

не могут выступать в роли объективной характеристики данной выборки. Это объясняется тем, что наименьшее значение выборки существенно отличается от наибольшего — разность наибольшего и наименьшего значений (4 520) соизмерима с наибольшим значением.

Размах (обозначается R ) — разность между наибольшим и наименьшим значениями случайной величины выборки. Размах показывает, как велик разброс значений случайной величины в выборке.

Отклонением от среднего значения называют разность между рассматриваемым значением случайной величины и средним значением выборки.

► Например, если значение величины X1 = 52, а среднее значение X = 50, то отклонение X1 от среднего значения будет равно

Отклонение от среднего значения может быть как положительным так и отрицательным числом. Справедливо свойство отклонений от среднего значения:

сумма отклонений всех значений выборки от среднего значения равна нулю:

где n — количество элементов выборки.

Поэтому характеристикой стабильности элементов выборки может служить сумма квадратов отклонений от среднего значения или среднее арифметическое этих квадратов.

Дисперсия (обозначается D ) — это среднее арифметическое квадратов отклонений от среднего значения:$$D=\frac<(X_1-\overline)^2+(X_2-\overline)^2+. +(X_n-\overline)^2>=\frac<1>\sum_^(X_k-\overline)^2.$$

Для оценки степени отклонения от среднего значения удобно иметь дело с величиной той же размерности, что и сами элементы выборки. С этой целью используют значение корня квадратного из дисперсии \(\sqrt\).

Средним квадратичным отклонением (обозначают σ ) называют корень квадратный из дисперсии:$$\sigma =\sqrt=\sqrt<\frac<1>\sum_^(X_k-\overline)^2>.$$Дисперсию и среднее квадратичное отклонение в статистике называют так же мерами рассеивания значений случайной величины около среднего значения.

► Например, найдём среднее квадратичное отклонение значений выборки:

1) Находим среднее значение выборки:

2) Вычисляем отклонения от среднего значения:

3) Определяем сумму квадратов отклонений:

4) Находим дисперсию:

5) Вычисляем среднее квадратичное отклонение:

Теорема о средних

Кроме среднего арифметического значения$$\overline=\frac

X_i\in R$$выборки X1 , X2 , . , Xn в некоторых специальных случаях используют и другие средние величины. Вот некоторые из них:

Среднее геометрическое (обозначим G ):$$G=\sqrt[n]

Среднее квадратическое (квадратичное) (обозначим Q ):$$Q=\sqrt<\frac

Теорема о средних . Любые положительные числа X1 , X2 , . , Xn удовлетворяют неравенствам: $$\min \left \

, X_n \right \>\leq H\leq G\leq \overline\leq Q\leq\max \left \

, X_n \right \>,$$ причём если среди этих чисел найдутся хотя бы два различных, то все неравенства строгие .

8 базовых понятий статистики для науки о данных

Victoria Likhanova

Статистика — это разновидность математического анализа, использующая количественные модели и репрезентации для анализа экспериментальных или реальных данных. Главное преимущество статистики — простота представления информации. Недавно я пересматривала материалы по статистике и выделила 8 основных понятий, которые должен знать каждый специалист по обработке данных:

  • дескриптивная аналитика;
  • вероятность;
  • среднее значение;
  • изменчивость;
  • взаимозависимость переменных;
  • вероятностное распределение;
  • проверка гипотезы и статистическая значимость;
  • регрессия.

Дескриптивная аналитика

Дескриптивная аналитика описывает события в прошлом и помогает бизнесу оценить эффективность деятельности, предоставляя всем участникам процесса контекст, необходимый для интерпретации информации.

Вероятность

Вероятность — это мера возможности наступления события при случайном эксперименте.

Дополнение: P(A)+P(A’) =1

Пересечение: P(A∩B)=P(A)P(B)

Объединение: P(A∪B)=P(A)+P(B)−P(A∩B)

Условная вероятность: P(A|B) — это мера возможности наступления одного события по отношению к другому/-им событию/-ям. P(A|B)=P(A∩B)/P(B), когда P(B)>0.

Независимые события: два события считаются независимыми, если наступление одного из них не влияет на возможность наступления другого. P(A∩B)=P(A)P(B), где P(A) != 0 и P(B) != 0 , P(A|B)=P(A), P(B|A)=P(B).

Взаимоисключающие события: два события считаются взаимоисключающими, если оба они не могут произойти в одно и то же время. P(A∩B)=0 и P(A∪B)=P(A)+P(B).

Теорема Байеса описывает вероятность наступления события, исходя из ранее известной информации об условиях, которые могут иметь отношение к этому событию.

Среднее значение

Среднее арифметическое: среднее значение набора данных.

Медиана: срединное значение упорядоченного набора данных.

Мода: наиболее часто встречающееся значение в наборе данных. Если таких значений несколько, это называется мультимодальным распределением.

Асимметрия: мера симметричности.

Эксцесс: мера, показывающая медленное или быстрое убывание “хвоста” данных относительно нормального распределения.

Изменчивость

Амплитуда: разница между минимальным и максимальным значениями в наборе данных.

Межквартильный размах (IQR): IQR = Q3−Q1

Дисперсия: среднеквадратичное отклонение значений от среднего арифметического, показывающее разброс данных относительно него.

Стандартное отклонение: стандартный разброс между каждым отдельным значением и средним арифметическим, квадратный корень из дисперсии.

Среднеквадратическая ошибка (SE): приблизительная величина стандартного отклонения выборочного распределения.

Взаимозависимость переменных

Причинность: такая зависимость между двумя событиями, когда одно из них влияет на другое.

Ковариантность: количественная мера совокупной изменчивости двух или более переменных.

Корреляция: мера взаимозависимости между двумя переменными с коэффициентом от -1 до 1, нормализованная версия ковариантности.

Ковариантность и корреляция

Вероятностное распределение

Функции вероятностного распределения

Функция распределения масс (PMF): функция, которая указывает, что дискретная случайная переменная в точности равна какому-либо значению.

Функция плотности вероятности (PDF): функция для непрерывных данных, согласно которой значение в любой выборке может расцениваться как добавляющее относительной вероятности тому, что значение случайной переменной равно значению этой выборки.

Функция кумулятивной плотности (CDF): функция, которая указывает, что случайная переменная меньше определённого значения или равна ему.

Непрерывное распределение вероятностей

Равномерное распределение: распределение, при котором все исходы имеют одинаковую вероятность (также известно как прямоугольное распределение).

Нормальное/гауссово распределение: кривая распределения имеет форму колокола и симметрична. Согласно центральной предельной теореме, выборочное распределение средних арифметических приближается к нормальному при увеличении объёма выборки.

Экспоненциальное распределение: вероятностное распределение времени между событиями в пуассоновском точечном процессе.

Распределение хи-квадрат: распределение суммы квадратов стандартных нормальных отклонений.

Дискретное распределение вероятностей

Распределение Бернулли: распределение случайной переменной, при котором для наступления события есть одна попытка и 2 возможных исхода: 1 — успех с вероятностью p и 0 — неудача с вероятностью 1-p.

Биномиальное распределение: распределение некоторого количества успешных исходов события в количестве n независимых экспериментов. У каждого события есть только 2 возможных исхода: 1 — успех с вероятностью p и 0 — неудача с вероятностью 1-p.

Распределение Пуассона: распределение, которое отражает вероятность заданного числа событий k, происходящих в течение фиксированного промежутка времени, если эти события наступают с известной постоянной усреднённой вероятностью λ и независимо от времени.

Проверка гипотезы и статистическая значимость

Нулевая и альтернативная гипотезы

Нулевая гипотеза: общее утверждение, согласно которому между измеряемыми явлениями или их группами нет взаимозависимости.

Альтернативная гипотеза: гипотеза, обратная нулевой.

При проверке статистической гипотезы ошибка типа I — это непринятие истинной нулевой гипотезы, а ошибка типа II — принятие ложной нулевой гипотезы.

Интерпретация

P-значение: вероятность того, что данная статистика будет иметь как минимум такие же экстремальные значения, как и ранее наблюдаемая, при условии, что нулевая гипотеза верна. Когда p-значение > α, нулевую гипотезу невозможно не принять, в том время как если p-значение ≤ α, нулевая гипотеза не принимается, следовательно, мы имеем статистически значимый результат.

Критическое значение: точка на шкале статистики, выше которой нулевая гипотеза не принимается (зависит от уровня значимости проверки, α). Значение зависит от статистики (отдельная для каждого типа проверки) и уровня значимости проверки α (определяет точность проверки).

Уровень значимости и область непринятия: область непринятия зависит от уровня значимости. Уровень значимости (α) — это вероятность непринятия нулевой гипотезы при условии, что она верна.

Z-тест — это статистическая проверка, при которой распределение статистики при нулевой гипотезе может приближаться к нормальному, а также проверяет среднее арифметическое распределения при известной генеральной дисперсии. Следовательно, при больших объёмах выборки или известной генеральной дисперсии многие статистические проверки удобно проводить в форме Z-тестов.

T-тест — это статистическая проверка, используемая, когда генеральная дисперсия неизвестна, а объём выборки небольшой (n < 30).

Парная выборка означает, что сбор данных производится дважды с одной и той же группы, человека, образца, предмета. Независимая выборка подразумевает, что две выборки должны быть получены с двух абсолютно разных совокупностей.

ANOVA (дисперсионный анализ)

Аназиз ANOVA позволяет выяснить, являются ли результаты эксперимента статистически значимыми. При однофакторном дисперсионном анализе сравниваются два средних арифметических двух независимых групп с помощью одной независимой переменной. Двухфакторный дисперсионный анализ — продолжение однофакторного, здесь для вычисления главного эффекта и эффекта взаимодействия используются две независимые переменные.

Тест хи-квадрат

Тест хи-квадрат определяет, соответствует ли модель нормальному распределению при введении набора дискретных данных. Критерий согласия определяет, соответствует ли распределению выборка совокупности одной категориальной переменной. Критерий независимости хи-квадрат позволяет проверить два набора данных на предмет наличия взаимосвязи.

Регрессия

Линейная регрессия

Постулаты линейной регрессии:

  • линейная зависимость;
  • многомерная нормальность;
  • небольшая мультиколлинеарность или её отсутствие;
  • небольшая автокорреляция или её отсутствие;
  • гомоскедастичность.

Линейная регрессия — это линейный подход к моделированию взаимозависимости между зависимой и независимой переменными. Независимая переменная — это контролируемая в ходе научного эксперимента переменная, используемая для измерения влияния на зависимую переменную. Зависимая переменная — это переменная, измеряемая в ходе научного эксперимента.

Множественная линейная регрессия — это линейный подход к моделированию взаимозависимости между одной зависимой и двумя или более независимыми переменными.

Этапы построения линейной регрессии

Этап 1: Проанализируйте описание модели, причинные зависимости и направленность.

Этап 2: Проверьте данные, в том числе категориальные, недостающие и выбросы.

  • Выброс — это образец данных, значительно отличающийся от других наблюдений. Можно использовать метод стандартного отклонения и межквартильного размаха (IQR).
  • Вспомогательная переменная принимает только 0 и 1 в качестве значения и отражает влияние на категориальные переменные.

Этап 3: Простой анализ — проверьте результат сравнения независимой и зависимой переменных, а также двух независимых переменных.

  • Используйте диаграмму рассеивания для проверки взаимозависимости.
  • Когда более двух независимых переменных имеют сильную взаимосвязь, это называется мультиколлинеарностью. Для количественной оценки можно использовать фактор, увеличивающий дисперсию (VIF): если VIF > 5, между переменными существует сильная взаимосвязь, если VIF > 10, между переменными возникает мультиколлинеарность.
  • Величина взаимодействия отражает изменения в наклоне кривой между значениями.

Этап 4: Множественная линейная регрессия — проверьте модель и истинные переменные.

Этап 5: Остаточный анализ.

  • Проверьте нормальное распределение, а также соответствуют ли ему остатки.
  • Гомоскедастичность описывает ситуацию, когда величина погрешности одинакова для всех значений независимых переменных, следовательно, значения остатков также одинаковы на протяжении всей кривой регрессии.

Этап 6: Интерпретация результатов регрессии.

Среднеквадратичное значение (СКЗ). Действующее или эффективное значение. Root-mean-square (RMS)

31.01.2012 12:46 |

Среднеквадратичное значение (СКЗ). Действующее или эффективное значение
Истинное среднеквадратичное значение (ИСКЗ)

Root-mean-square (RMS) − среднеквадратичное значение – англ.
True Root-Mean-Square (TRMS) − истинное среднеквадратичное значение – англ.

Для любой периодической функции (например, тока или напряжения) вида f = f(t) среднеквадратичное значение функции определяется как:

1___images_stories_reference_terminology_rms_001.png

Если функция задана в виде суммы гармоник (как например в случае тока нелинейной нагрузки)

то действующее значение периодической несинусоидальной функции выражается формулой

Поскольку Fn − амплитуда n-ой гармоники, то Fn / √2 − действующее значение гармоники. Таким образом, полученное выражение показывает, что действующее значение периодической несинусоидальной функции равно корню квадратному из суммы квадратов действующих значений гармоник и квадрата постоянной слагающей.

Например если, несинусоидальный ток выражается формулой:

то среднеквадратичное значение тока равно:

1___images_stories_reference_terminology_rms_005.png

Все приведённые выше соотношения используются при вычислении в тестерах измеряющих ИСКЗ, в цепях измерения тока ИБП, в анализаторах сети и в др. оборудовании.

Истинное среднеквадратичное значение (ИСКЗ), True Root-Mean-Square (TRMS)

Большинство простых тестеров не могут точно измерять среднеквадратичное значение несинусоидального сигнала (то есть сигнала с большими гармоническими искажениями, например, прямоугольной формы). Они правильно определяют СКЗ напряжения только для синусоидальных сигналов. Если таким прибором измерить СКЗ напряжения прямоугольной формы, то показание будет ошибочным. Причина ошибки – обычные тестеры при вычислении учитывают основную гармонику (для обычной сети – 50 Гц), но не берут в расчет высшие гармоники сигнала.

Для решения данной проблемы существуют особые приборы, точно измеряющие СКЗ с учётом высших гармоник (обычно до 30-50 гармоник). Они маркируются символом TRMS или ИСКЗ (true root-mean-square) – истинное среднеквадратичное значение, True RMS, истинное СКЗ.

Так, например, обычный тестер может измерить с ошибкой напряжение на выходе ИБП с аппроксимированной синусоидой, в то время как тестер «APPA 106 TRUE RMS MULTIMETER» измеряет напряжение (СКЗ) правильно.

Замечания

Для синусоидального сигнала, фазное напряжение в сети (нейтраль – фаза, phase voltage) равно:

Для синусоидального сигнала, линейное напряжение в сети (фаза – фаза, interlinear voltage) равно:

Соотношение между фазным и линейным напряжением:

ф – линейное (напряжение)

л – фазное (напряжение)

СКЗ – среднеквадратичное значение

макс – максимальное или амплитудное значение (напряжения)

Фазному напряжению 220 В соответствует линейное напряжение 380 В

Фазному напряжению 230 В соответствует линейное напряжение 400 В

Фазному напряжению 240 В соответствует линейное напряжение 415 В

Напряжение в сети 220 В (СКЗ), — амплитудное значение напряжения около ±310 В

Напряжение в сети 230 В (СКЗ), — амплитудное значение напряжения около ±325 В

Напряжение в сети 240 В (СКЗ), — амплитудное значение напряжения около ±340 В

Напряжение в сети 380 В (СКЗ), — амплитудное значение напряжения около ±537 В

Напряжение в сети 400 В (СКЗ), — амплитудное значение напряжения около ±565 В

Напряжение в сети 415 В (СКЗ), — амплитудное значение напряжения около ±587 В

Ниже приведён обычный пример фазных напряжений в 3-фазной сети:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *