Біноміальний розподіл

Вступ до біноміального розподілу

Біноміальний розподіл — це дискретний розподіл ймовірностей, який моделює кількість успіхів у послідовності незалежних експериментів, кожен з яких підпорядковується розподілу Бернульлі з однаковою ймовірністю успіху. У цьому сенсі біноміальна модель виводиться безпосередньо з повторних випробувань Бернульлі. У кожному випробуванні можливі лише два результати: успіх або невдача. Таким чином, біноміальна модель для кожного можливого значення \( x \) визначає ймовірність спостереження рівно \( x \) успіхів у загальній кількості \( n \) випробувань, за умови, що ймовірність успіху в кожному випробуванні залишається сталою і дорівнює \( p \). Такий тип експерименту повинен задовольняти низку властивостей:

  • Для кожного випробування можливі лише два результати: успіх з ймовірністю \( p \) та невдача з ймовірністю \( 1 - p \).
  • Випробування є незалежними.
  • Ймовірність успіху \( p \) залишається сталою для всіх випробувань.
  • Загальна кількість випробувань \( n \) визначена заздалегідь.
  • Випадкова змінна \( X \) представляє кількість успіхів, отриманих у послідовності випробувань.
  • Кожне випробування дає один взаємовиключний результат: або успіх, або невдачу.

Формально біноміальний розподіл виражається як

\[ P(X = x) = b(x; n, p) = \binom{n}{x} p^{x} q^{n – x} \]

де:

  • \( q = 1 – p \).
  • \( n \) представляє загальну кількість незалежних випробувань.
  • \( x \) — кількість спостережуваних успіхів.
  • \( p \) — ймовірність успіху в кожному окремому випробуванні.
  • \( q \) — ймовірність невдачі, що дорівнює ( 1 - p ).
  • \( \dbinom{n}{x} \) — біноміальний коефіцієнт, який підраховує кількість різних способів отримати \( x \) успіхів із \( n \) випробувань.

Враховуючи, що \( p + q = 1 \), біноміальна модель задовольняє фундаментальну умову, необхідну для будь-якого розподілу ймовірностей:

\[ \sum_{x = 0}^{n} b(x; n, p) = 1 \]

Цей зв'язок гарантує, що сумарна ймовірність за всіма можливими результатами дорівнює одиниці, що означає, що розподіл повністю описує кожен потенційний результат \( n \) випробувань Бернульлі.

Біноміальний розподіл безпосередньо пов'язаний із біномом Ньютона, який стверджує, що розклад \( (p + q)^n \) дає всі можливі комбінації успіхів і невдач у \( n \) випробуваннях. Кожен член цього розкладу відповідає можливій кількості успіхів \( x \), а його відповідна ймовірність визначається саме вищезазначеною біноміальною формулою.

Ключові особливості

  • \[\text{1. } \quad P(X = x) = b(x; n, p) = \binom{n}{x}\, p^{x}\, q^{\,n – x} \quad x = 0,1,\dots,n \]

  • \[\text{2. } \quad \mu = E(X) = np \]

  • \[\text{3. } \quad \sigma^{2} = \mathrm{Var}(X) = np(1 - p) \]

  • \[\text{4. } \quad \sigma = \sqrt{\,np(1 – p)\,} \]

Кожен вираз підкреслює ключову властивість біноміального розподілу, узагальнюючи, як він моделює кількість успіхів, де знаходиться його середнє значення і як його мінливість зростає зі збільшенням кількості випробувань.

Середнє значення біноміального розподілу

Середнє значення або математичне сподівання біноміального розподілу представляє середню кількість успіхів, яку можна очікувати за велику кількість ідентичних експериментів. Щоб формально обчислити середнє значення, ми виходимо з означення математичного сподівання:

\[ \mu = E(X) = \sum_{x=0}^{n} x \, P(X = x) = n p \]

Підставивши функцію ймовірності біноміального розподілу, маємо:

\[ E(X) = \sum_{x=0}^{n} x \, \binom{n}{x} p^{x} (1 - p)^{n - x} \]

Використовуючи тотожність, яка пов'язує два споріднених біноміальних коефіцієнти шляхом зменшення як \( n \), так і \( x \) на одиницю:

\[ x \binom{n}{x} = n \binom{n-1}{x-1} \]

вираз набуває вигляду:

\[ E(X) = n p \sum_{x=1}^{n} \binom{n-1}{x-1} p^{x-1} (1 - p)^{(n-1)-(x-1)} \]

Доданок суми дорівнює 1, оскільки він відповідає повній ймовірності біноміального розподілу з параметрами \( n - 1 \) та \( p \). Отже, отримаємо:

\[ \mu = E(X) = n p \]

Це показує, що середнє значення біноміального розподілу лінійно залежить як від кількості випробувань, так і від ймовірності успіху в кожному випробуванні. У середньому ми очікуємо, що \( n p \) з \( n \) експериментів дадуть успішний результат.


Цей результат також можна вивести, зауваживши, що біноміальна випадкова змінна \( X \) може бути представлена як сума ( n ) незалежних випадкових змінних Бернульлі \( X_1, X_2, \ldots, X_n \), кожна з яких набуває значення 1 (успіх) з ймовірністю \( p \) і 0 (невдача) з ймовірністю \( 1 - p \):

\[ X = X_1 + X_2 + \cdots + X_n \]

За лінійністю сподівання:

\[ E(X) = E(X_1) + E(X_2) + \cdots + E(X_n) = n p \]

Дисперсія біноміального розподілу

Дисперсія біноміального розподілу вимірює, наскільки кількість спостережуваних успіхів може відхилятися від середнього значення \( \mu = n p \). У той час як середнє значення описує центральну тенденцію розподілу, дисперсія кількісно визначає його розсіювання, тобто наскільки концентрованими або розсіяними є результати в повторних експериментах. Формально дисперсія визначається як:

\[ \sigma^2 = \mathrm{Var}(X) = E(X^2) – [E(X)]^2 = n p q \]

Щоб обчислити її, нагадаємо, що біноміальна змінна \( X \) може бути представлена як сума \( n \) незалежних бернульлівських змінних \( X_1, X_2, \ldots, X_n \), де кожне випробування має ймовірність успіху \( p \):

\[ X = X_1 + X_2 + \cdots + X_n \]

Оскільки дисперсія бернульлівської змінної становить \( \mathrm{Var}(X_i) = p(1 - p) \), а випробування є незалежними, дисперсія їхньої суми є простою сумою окремих дисперсій:

\[ \mathrm{Var}(X) = \mathrm{Var}(X_1) + \mathrm{Var}(X_2) + \cdots + \mathrm{Var}(X_n) \]

Отже, дисперсія біноміального розподілу дорівнює:

\[ \sigma^2 = n p q \]

Цей результат показує, що мінливість розподілу зростає лінійно з кількістю випробувань \( n \) і залежить як від ймовірності успіху \( p \), так і від ймовірності невдачі \( (1 - p) \).

Приклад 1

Розглянемо завод, що виробляє електронні датчики. Кожен датчик перевіряється, щоб визначити, чи працює він правильно за певних температурних умов. Припустимо, що з партії продукції випадковим чином відібрано 6 датчиків, і ймовірність того, що один датчик пройде тест, становить ( p = 0.7 ). Ми хочемо знайти ймовірність того, що рівно 4 з 6 датчиків будуть працювати належним чином під час тесту.


Припускаючи, що кожен тест є незалежним, ймовірність визначається так:

\[ \begin{align} b(4; 6, 0.7) &= \binom{6}{4} (0.7)^4 (0.3)^2 \\[5pt] &= \frac{6!}{4! \, 2!} (0.7)^4 (0.3)^2 \\[10pt] &= 15 \times 0.2401 \times 0.09 = 0.324135 \end{align} \]

Символ факторіала \((!)\) позначає добуток усіх додатних цілих чисел до заданого числа включно.

Отже, ймовірність того, що рівно чотири датчики з шести пройдуть тест, становить приблизно \( 0.324 \), або 32.4%.

Кумулятивний біноміальний розподіл

У деяких випадках метою є не знайти ймовірність отримання рівно \( x \) успіхів, а ймовірність отримання не більше певної кількості успіхів \( r \) у \( n \) випробуваннях Бернульлі. Цей тип ймовірності отримують шляхом підсумовування всіх окремих членів біноміального розподілу від \( x = 0 \) до \( x = r \):

\[ B(r; n, p) = \sum_{x = 0}^{r} b(x; n, p) \]

де \( b(x; n, p) \) представляє функцію ймовірності біноміального розподілу. Значення кумулятивного біноміального розподілу часто наводяться в спеціальних таблицях, призначення яких схоже на стандартну нормальну Z-таблицю. Кожен запис у цих таблицях відповідає кумулятивній ймовірності отримання до заданої кількості успіхів для конкретних комбінацій \( n \) та \( p \).

Більш формально кумулятивна ймовірність біноміального розподілу може бути виражена як:

\[ P[X \le c] = \sum_{x = 0}^{c} \binom{n}{x} p^{x} (1 – p)^{n – x} \]

Ця ймовірність часто обчислюється за допомогою кумулятивних біноміальних таблиць, у яких наведені попередньо обчислені значення \( P[X \le c] \) для вибраних значень \( n \) та \( p \). Спрощений фрагмент такої таблиці показано нижче.

n c p = 0.05 p = 0.10 p = 0.20 p = 0.30 p = 0.40 p = 0.50
1 0 0.950 0.900 0.800 0.700 0.600 0.500
1 1 1.000 1.000 1.000 1.000 1.000 1.000
2 0 0.903 0.810 0.640 0.490 0.360 0.250
2 1 0.998 0.990 0.960 0.910 0.840 0.750
2 2 1.000 1.000 1.000 1.000 1.000 1.000

Ці таблиці дозволяють користувачам швидко знаходити кумулятивні ймовірності без обчислення кожного члена суми, так само як стандартна нормальна Z-таблиця використовується для визначення кумулятивних ймовірностей при нормальному розподілі. Перетин рядка та стовпця дає кумулятивну ймовірність \( P[X \le c] \), тобто ймовірність отримання до \( c \) успіхів для відповідного значення \( n \) та \( p \).

Такі табличні значення дозволяють швидко оцінити біноміальні ймовірності без виконання повного підсумовування вручну, так само як Z-таблиця спрощує обчислення ймовірностей при нормальному розподілі.

Нормальна наближена біноміального розподілу

У певних випадках біноміальний розподіл, який за своєю природою є дискретним, може бути ефективно наближений неперервним нормальним розподілом. Це наближення є доцільним, коли біноміальний розподіл має приблизно симетричну форму у вигляді дзвона, що тісно нагадує профіль нормальної кривої. Такі ситуації зазвичай виникають, коли кількість випробувань \( n \) є великою, а ймовірність успіху \( p \) не є занадто близькою до 0 або 1.

За таких умов випадкова змінна \( X \), що має розподіл \( \mathrm{Bin}(n, p) \), може бути наближена нормальним розподілом з тим самим середнім значенням та дисперсією:

\[ X \approx \mathcal{N}(x; n p, n p q) \]

Цей метод спрощує обчислення та дозволяє оцінити біноміальні ймовірності за допомогою інструментів та Z-таблиць, пов'язаних із нормальним розподілом, забезпечуючи точні результати в більшості практичних застосувань.


Якщо \( X \) — біноміальна випадкова змінна з середнім \( \mu = n p \) та дисперсією \( \sigma^2 = n p q \), то граничний розподіл стандартизованої змінної \( Z \), визначеної як:

\[ \frac{X – n p}{\sqrt{n p q}} \xrightarrow{d} \mathcal{N}(x; 0, 1) \quad \text{при } n \to \infty \]

є стандартним нормальним розподілом:

\[ Z \sim \mathcal{N}(x; 0, 1) \]

Позначення \( \xrightarrow{d} \) означає збіжність за розподілом, що означає, що розподіл ймовірностей стандартизованої змінної поступово наближається до стандартного нормального розподілу зі збільшенням \( n \).

Приклад 2

Щоб краще проілюструвати нормальне наближення біноміального розподілу, розглянемо компанію, яка виробляє маленькі електронні компоненти. Під час контролю якості кожен виріб перевіряється на відповідність необхідним електричним характеристикам. Припустимо, що перевіряється 100 компонентів і що ймовірність того, що один компонент пройде перевірку, становить \( p = 0.9 \). Ми хочемо знайти ймовірність того, що від 85 до 92 компонентів успішно пройдуть перевірку.


Нехай \( X \) — дискретна випадкова змінна, що представляє кількість компонентів, які пройшли перевірку. Тоді ймовірність, що нас цікавить, може бути записана як:

\[ P(85 \le X \le 92) = \sum_{x=85}^{92} b(x; 100, 0.9) \]

Оскільки \( n \) велике, а \( p \) не є занадто близьким до 0 або 1, ми можемо використовувати нормальне наближення з:

\[ \mu = n p = 100 \times 0.9 = 90 \] \[ \sigma = \sqrt{n p q} = \sqrt{100 \times 0.9 \times 0.1} = 3 \]

Оскільки біноміальна змінна \( X \) є дискретною (вона набуває лише цілих значень), а нормальний розподіл є неперервним, ймовірність того, що \( X \) лежить у проміжку від 85 до 92, краще наближити площею під нормальною кривою від пів одиниці нижче 85 до пів одиниці вище 92. З цієї причини ми замінюємо дискретні межі на

\[ x_1 = 84.5 \quad \text{та} \quad x_2 = 92.5 \]


Потім ми обчислюємо відповідні стандартизовані значення за допомогою перетворення:

\[ z = \frac{x – \mu}{\sigma} \]

що дає:

\[ z_1 = \frac{84.5 - 90}{3} = -1.83, \quad z_2 = \frac{92.5 - 90}{3} = 0.83 \]

Ми можемо записати:

\[ P(85 \le X \le 92) = \sum_{x=85}^{92} b(x; 100, 0.9) \approx P(-1.83 \le Z \le 0.83) \]


Згідно зі стандартним нормальним розподілом, маємо:

\[ P(-1.83 \le Z \le 0.83) = P(Z \le 0.83) – P(Z \le -1.83) \]

З стандартної нормальної Z-таблиці:

\[ P(Z \le 0.83) = 0.7967, \quad P(Z \le -1.83) = 0.0336 \]


Таким чином, ми отримаємо:

\[ P(-1.83 \le Z \le 0.83) = 0.7967 – 0.0336 = 0.7631 \]

Отже, ймовірність того, що від 85 до 92 компонентів пройдуть перевірку якості, становить приблизно 0.763, або 76.3%:

Порівняння біноміального та гіпергеометричного розподілів

Біноміальний розподіл застосовується, коли кожне випробування має однакову ймовірність успіху і коли одне випробування не впливає на наступне. Така умова є доцільною для вибірки з поверненням або для ситуацій, у яких сукупність достатньо велика, щоб вилучення одного елемента не змінювало її загального складу. Однак у багатьох реальних задачах (наприклад, при контролі якості) вибрані елементи не повертаються. У таких випадках склад сукупності змінюється після кожного вибору, і припущення біноміального розподілу більше не є дійсними. Правильною моделлю стає гіпергеометричний розподіл.

Коли розмір сукупності \(N\) не є великим порівняно з розміром вибірки \(n\), ймовірність успіху більше не може вважатися сталою протягом випробувань. Тоді біноміальна модель має бути замінена відповідною моделлю для скінченної сукупності:

\[ X \sim \text{Hyp}(N, K, n) \]

де \(K\) — кількість успіхів у сукупності. Перехід від біноміального до гіпергеометричного розподілу відображає перехід від незалежних випробувань із фіксованими ймовірностями до більш реалістичної ситуації вибірки без повернення.

Зв'язок між біноміальним та розподілом Пуассона

Коли кількість випробувань \( n \) велика, а ймовірність успіху \( p \) мала, при цьому \( n p = \lambda \) залишається сталою, біноміальний розподіл збігається до розподілу Пуассона:

\[ P(X = x) = \frac{e^{-\lambda}\lambda^x}{x!} \]

Таким чином, біноміальний розподіл слугує основою, з якої в границі виникає модель Пуассона, що пропонує спрощене представлення рідкісних і незалежних подій, які відбуваються в часі або просторі.