Текст:Александр Машин:Conservatoire

From Традиция
Jump to navigation Jump to search

Conservatoire



Автор:
Александр Машин

В консерваторию по классу скрипки на 10 мест 100 претендентов:
10 евреев и 90 русских. Собрался ректорат, решают, кого взять, чтобы
по справедливости.
Проректор-патриот: «Надо взять 10 русских».
Проректор-коммунист: «Надо взять 9 русских и одного еврея».
Проректор-демократ: «Надо взять 5 евреев и 5 русских».
Проректор-сионист: «Надо взять 9 евреев и одного русского».
Ректор: «А вы все, оказывается, националисты».
Все: «Ни фига себе! А кого же, по-твоему, надо брать?»
Ректор: «Тех, кто лучше играет на скрипке».

Анекдот № 143830



Дата публикации:
27 мая 2023







Предмет:
Социометрия
О тексте:


Рассмотрим динамику стабильного сообщества, состоящего из тех же групп, что и вмещающее его сообщество, и восполняющего себя по мере естественной убыли в соответствии со своими предпочтениями, которые могут склоняться к выбору объективно лучшего кандидата, или принадлежащего к той или иной группе.

Случай двух групп[edit | edit source]

Обозначения[edit | edit source]

Пусть:

  • C C  — общая неизменная численность некоего сообщества, состоящего из двух групп, как и вмещающее его сообщество: C = C 1 + C 2 = const C = C_1 + C_2 = \const , естественная убыль в котором компенсируется набором из вмещающего сообщества, причём выбор из той или иной группы определяется имеющимся соотношением численности групп в сообществе и их предпочтениями,
  • k ( t ) = C 1 ( t ) C ( t ) k\left(t\right) = \frac{C_1\left(t\right)}{C\left(t\right)}  — доля первой группы в нём в момент времени t t , при этом, k ( 0 ) = k 0 k\left(0\right) = k_0 ,
  • 0 < θ   < 1 0 < \theta\ < 1  — скорость естественного выбытия членов сообщества,
  • 0 α 1   1 0 \leq \alpha_1\ \leq 1 и 0 α 2   1 0 \leq \alpha_2\ \leq 1  — вероятности того, что средний член соответствующей группы предпочтёт своего при заполнении вакансии, руководствуясь только принадлежностью к группе,
  • 0 β 1   1 0 \leq \beta_1\ \leq 1 и 0 β 2   1 0 \leq \beta_2\ \leq 1  — вероятности того, что средний член соответствующей группы предпочтёт при заполнении вакансии достойнейшего, независимо от принадлежности к группе,
  • 0 ν   1 0 \leq \nu\ \leq 1  — вероятность того, что кандидат из первой группы достойнее кандидата из второй группы,
  • соответственно, 0 1 α 1 β 1 1 0 \leq 1 - \alpha_1 - \beta_1 \leq 1 и 0 1 α 2 β 2 1 0 \leq 1 - \alpha_2 - \beta_2 \leq 1  — вероятности того, что член группы предпочтёт чужого кандидата, несмотря ни на что.

Постановка[edit | edit source]

Получим закон изменения k ( t ) = C 1 ( t ) C ( t ) k\left(t\right) = \frac{C_1\left(t\right)}{C\left(t\right)} , учитывая, что предпочтение кандидату из первой группы отдадут:

  • члены первой группы, численностью C 1 ( t ) = k ( t ) C C_1\left(t\right) = k\left(t\right)C :
    • всегда предпочитающие своих (вероятность α 1 \alpha_1 ) или,
    • предпочитающие достойнейших, при условии, что кандидат из первой группы достойнейший (вероятность β 1 ν \beta_1 \nu ),
  • и члены второй группы, численностью C 2 ( t ) = ( 1 k ( t ) ) C C_2\left(t\right) = \left(1 - k\left(t\right)\right)C :
    • предпочитающие достойнейших, при условии, что кандидат из первой группы достойнейший (вероятность β 2 ν \beta_2 \nu ),
    • всегда предпочитающие чужих (вероятность 1 α 2 β 2 1 - \alpha_2 - \beta_2 ).

Дополнительные обозначения[edit | edit source]

Дополнительно введём:

  • d C 1 = d C 1 + d C 1 + \dd C_1 = \dd C^{-}_1 + \dd C^{+}_1  — изменение численности первой группы за время d t \dd t , состоящее из её естественной убыли и прироста в результате кооптации; учитывая, что C = const C = \const , d C = d C 1 + d C 2 = 0 \dd C = \dd C_1 + \dd C_2 = 0 ,
  • γ 1 = 1 α 1 β 1 ν \gamma_1 = 1 - \alpha_1 - \beta_1 \nu  — вероятность, что член первой группы предпочтёт, по той или иной причине, кандидата из второй группы,
  • γ 2 = 1 α 2 β 2 ( 1 ν ) \gamma_2 = 1 - \alpha_2 - \beta_2 \left( 1 - \nu \right)  — вероятность, что член второй группы предпочтёт, по той или иной причине, кандидата из первой группы.

Дифференциальное уравнение[edit | edit source]

Получим дифференцильное уравнение: d C 1 = d C 1 + d C 1 + = θ C 1 ( t ) d t В ы б ы т и е + θ C ( t ) ( k ( t ) ( 1 γ 1 ) з а с ч ё т г о л о с о в с в о и х + ( 1 k ( t ) ) γ 2 з а с ч ё т г о л о с о в ч у ж и х ) d t П о п о л н е н и е . \begin{equation*} \dd C_1 = \dd C^{-}_1 + \dd C^{+}_1 = \underbrace{ -\theta C_1\left(t\right) \dd t }_{ \substack{ \scriptsize{ Выбытие } } } + \underbrace{ \theta C\left(t\right) \left( \underbrace{ k\left(t\right) \left( 1 - \gamma_1 \right) }_{ \substack{ \scriptsize{ за\,счёт\,голосов\,своих } } } + \underbrace{ \left( 1 - k\left(t\right) \right) \gamma_2 }_{ \substack{ \scriptsize{ за\,счёт\,голосов\,чужих } } } \right) \dd t }_{ \substack{ \scriptsize{ Пополнение } } }. \end{equation*}

Отсюда, разделив на C ( t ) C\left(t\right) , получим: (1) d k = θ k ( t ) d t + θ ( k ( t ) ( 1 γ 1 ) + ( 1 k ( t ) ) γ 2 ) d t = θ ( γ 2 ( γ 1 + γ 2 ) k ( t ) ) d t . \begin{equation} \label{Gammas differential} \eqalign{ \dd k &= -\theta k\left(t\right) \dd t + \theta \left( k\left(t\right) \left( 1 - \gamma_1 \right) + \left( 1 - k\left(t\right) \right) \gamma_2 \right) \dd t \\ &= \theta \left( \gamma_2 - \left( \gamma_1 + \gamma_2 \right) k\left(t\right) \right) \dd t . } \end{equation}

Уравнение динамики[edit | edit source]

Если γ 1 + γ 2 = 0 \gamma_1 + \gamma_2 = 0 , для чего необходимо, чтобы γ 1 = γ 2 = 0 \gamma_1 = \gamma_2 = 0 , т.е., члены обеих групп всегда предпочитают своих, то d k = 0 \dd k = 0 , соответственно, k = const k = \const , т.е., распределение групп не меняется.

Иначе, решение уравнения (1) \eqref{Gammas differential} с начальным условием k ( 0 ) = k 0 k\left(0\right) = k_0 даёт: (2) k ( t ) = γ 2 γ 1 + γ 2 + ( k 0 γ 2 γ 1 + γ 2 ) e θ ( γ 1 + γ 2 ) t = k 0 e θ ( γ 1 + γ 2 ) t + γ 2 γ 1 + γ 2 ( 1 e θ ( γ 1 + γ 2 ) t ) = 1 α 2 β 2 ( 1 ν ) + ( k 0 ( 2 α 1 α 2 β 1 ν β 2 ( 1 ν ) ) ( 1 α 2 β 2 ( 1 ν ) ) ) e θ ( 2 α 1 α 2 β 1 ν β 2 ( 1 ν ) ) t 2 α 1 α 2 β 1 ν β 2 ( 1 ν ) . \begin{equation} \label{Dynamics} \eqalign{ k\left(t\right) &= \frac{\gamma_2}{ \gamma_1 + \gamma_2 } + \left( k_0 - \frac{\gamma_2}{ \gamma_1 + \gamma_2 } \right) e ^ { -\theta \left( \gamma_1 + \gamma_2 \right) t } \\ &= k_0 e ^ { -\theta \left( \gamma_1 + \gamma_2 \right) t } + \frac{\gamma_2}{ \gamma_1 + \gamma_2 } \left( 1 - e ^ { -\theta \left( \gamma_1 + \gamma_2 \right) t } \right) \\ &= \dfrac{ 1 - \alpha_2 - \beta_2 \left( 1 - \nu \right) + \left( k_0 \left( 2 - \alpha_1 - \alpha_2 - \beta_1 \nu - \beta_2 \left( 1 - \nu \right) \right) - \left( 1 - \alpha_2 - \beta_2 \left( 1 - \nu \right) \right) \right) e ^ { -\theta \left( 2 - \alpha_1 - \alpha_2 - \beta_1 \nu - \beta_2 \left( 1 - \nu \right) \right) t } }{ 2 - \alpha_1 - \alpha_2 - \beta_1 \nu - \beta_2 \left( 1 - \nu \right) } . } \end{equation}

Предел[edit | edit source]

Если γ 1 + γ 2 > 0 \gamma_1 + \gamma_2 > 0 , то, со временем, доля первой группы стремится к: k = lim t k ( t ) = lim t ( ( k 0 γ 2 γ 1 + γ 2 ) e θ ( γ 1 + γ 2 ) t + γ 2 γ 1 + γ 2 ) = γ 2 γ 1 + γ 2 = 1 α 2 β 2 ( 1 ν ) 2 α 1 α 2 β 1 ν β 2 ( 1 ν ) . \begin{equation*} \eqalign{ k^* &= \lim\limits_{t \rightarrow \infty} k\left(t\right) \\ &= \lim\limits_{t \rightarrow \infty} \left( \left( k_0 - \frac{\gamma_2}{ \gamma_1 + \gamma_2 } \right) e ^ { -\theta \left( \gamma_1 + \gamma_2 \right) t } + \frac{\gamma_2}{ \gamma_1 + \gamma_2 } \right) \\ &= \frac{\gamma_2}{ \gamma_1 + \gamma_2 } \\ &= \frac{1 - \alpha_2 - \beta_2 \left( 1 - \nu \right)} { 2 - \alpha_1 - \alpha_2 - \beta_1 \nu - \beta_2 \left( 1 - \nu \right) } . } \end{equation*}

С учётом значения предела k k^* , формула динамики (2) \eqref{Dynamics} принимает вид: (3) k ( t ) = k + e θ ( γ 1 + γ 2 ) t ( k 0 k ) . \begin{equation} k\left(t\right) = k^* + e ^ { -\theta \left( \gamma_1 + \gamma_2 \right) t } \left( k_0 - k^* \right) . \end{equation}

Примеры динамики на графике[edit | edit source]

Gnuplot Produced by GNUPLOT 6.0 patchlevel 0 0.25 0.3 0.35 0.4 0.45 0.5 0 50 100 150 200 250 Справедливость vs трибализм: θ = 0,02, k0 = 50%, γ1 = 0,5, γ2 = 0,25 Справедливость vs трибализм: θ = 0,02, k0 = 50%, γ1 = 0,5, γ2 = 0,25 Чужебесие vs справедливость: θ = 0,02, k0 = 50%, γ1 = 0,75, γ2 = 0,5 Чужебесие vs справедливость: θ = 0,02, k0 = 50%, γ1 = 0,75, γ2 = 0,5 Чужебесие vs трибализм: θ = 0,02, k0 = 50%, γ1 = 0,75, γ2 = 0,25 Чужебесие vs трибализм: θ = 0,02, k0 = 50%, γ1 = 0,75, γ2 = 0,25 Доля первой группы, k(t) Время t Изменение распределения сообщества со временем, k(t)


Случай нескольких групп[edit | edit source]

Обозначения[edit | edit source]

Пусть:

  • C C  — общая неизменная численность сообщества, состоящего из n n групп: C ( t ) = i = 1 n C i ( t ) = const C \left( t \right) = \sum\limits_{i=1}^{n}C_i \left( t \right) = \const ,
  • k i ( t ) = C i ( t ) C ( t ) k_i\left(t\right) = \frac{C_i\left(t\right)}{C\left(t\right)}  — доля i i -ой группы в нём в момент времени t t ; i = 1 n k i = 1 \sum\limits_{i=1}^n k_i = 1 (это коинтеграционное уравнение с коинтеграционным вектором ( 1 , 1 , , 1 n ) \left( 1, 1, \dots, 1_n \right)^{\top} ); при этом, k i ( 0 ) = k i 0 k_i\left(0\right) = k_i^0 ; соответственно, вводятся векторы-столбцы k ( t ) = ( k 1 ( t ) , k 2 ( t ) , , k i ( t ) , , k n ( t ) ) \mathbf{k}\left(t\right) = \left( k_1\left(t\right), k_2\left(t\right), \dots , k_i\left(t\right), \dots , k_n\left(t\right) \right)^{\top} и  k 0 = ( k 1 0 , k 2 0 , , k i 0 , , k n 0 ) \mathbf{k^0} = \left( k^0_1, k^0_2, \dots , k^0_i, \dots , k^0_n \right)^{\top} ,
  • θ \theta  — скорость естественного выбытия членов сообщества,
  • α i \alpha_i  — вероятность того, что средний член i i -ой группы руководствуется только принадлежностью к группе при заполнении вакансии,
  • α i j \alpha_{ij}  — вероятность того, что средний член i i -ой группы предпочтёт члена j j -ой группы при заполнении вакансии, руководствуясь только принадлежностью к группе; j = 1 n α i j = α i \sum\limits_{j=1}^n \alpha_{ij} = \alpha_i ,
  • β i \beta_i  — вероятность того, что средний член i i -ой группы предпочтёт при заполнении вакансии достойнейшего, независимо от принадлежности к группе. Отсюда:
    • α i + β i = j = 1 n α i j + β i = 1 \alpha_i + \beta_i = \sum\limits_{j=1}^n \alpha_{ij} + \beta_i = 1 ,
  • ν i \nu_i  — вероятность того, что кандидат из  i i -ой группы достойнее других кандидатов; i = 1 n ν i = 1 \sum\limits_{i=1}^n \nu_i = 1 .

Постановка задачи[edit | edit source]

Получим закон изменения k i ( t ) = C i ( t ) C ( t ) k_i\left(t\right) = \frac{C_i\left(t\right)}{C\left(t\right)} , учитывая, что предпочтение кандидату из i i -ой группы отдадут:

  • члены всех групп, всегда предпочитающих кандидата из  i i -ой группы, вместе собирающие долю голосов 1 C ( t ) j = 1 n α j i C j ( t ) = j = 1 n α j i k j ( t ) \frac{ 1 }{ C\left(t\right) } \sum\limits_{j=1}^n \alpha_{ji} C_j\left(t\right) = \sum\limits_{j=1}^n \alpha_{ji} k_j\left(t\right) ,
  • члены всех групп, предпочитающие лучших, при условии, что кандидат из  i i -ой группы действительно лучший, вместе собирающие долю голосов 1 C ( t ) j = 1 n β j ν i C j ( t ) = ν i j = 1 n β j k j ( t ) \frac{ 1 }{ C\left(t\right) } \sum\limits_{j=1}^n \beta_j \nu_i C_j\left(t\right) = \nu_i \sum\limits_{j=1}^n \beta_j k_j\left(t\right) .

Дополнительные обозначения[edit | edit source]

Дополнительно введём:

  • d C i = d C i + d C i + \dd C_i = \dd C^{-}_i + \dd C^{+}_i  — изменение численности i i -ой группы за время d t \dd t , состоящее из её естественной убыли и прироста в результате кооптации; учитывая, что C = const C = \const , d C = i = 1 n d C i = 0 \dd C = \sum\limits_{i=1}^n \dd C_i = 0 ,
  • Γ = ( γ i j ) = ( α i j + β i ν j ) \Gamma = \left( \gamma_{ij} \right) = \left( \alpha_{ij} + \beta_i \nu_j \right)  — квадратная матрица вероятностей, что член i i -ой группы предпочтёт, по той или иной причине, кандидата из  j j -ой группы. Отсюда:
    • j = 1 n γ i j = 1 \sum\limits_{j=1}^n \gamma_{ij} = 1 ,
    • 1 = j = 1 n γ i j = j = 1 n ( α i j + β i ν j ) = j = 1 n α i j + j = 1 n β i ν j = α i + β i j = 1 n ν j = α i + β i = 1 1 = \sum\limits_{j=1}^n \gamma_{ij} = \sum\limits_{j=1}^n \left( \alpha_{ij} + \beta_i \nu_j \right) = \sum\limits_{j=1}^n \alpha_{ij} + \sum\limits_{j=1}^n \beta_i \nu_j = \alpha_i + \beta_i \sum\limits_{j=1}^n \nu_j = \alpha_i + \beta_i = 1 ,
    • Γ \Gamma  — стохастическая справа матрица, Γ \Gamma^{\top}  — стохастическая слева,
    • Γ I \Gamma - I и Γ I \Gamma^{\top} - I  — вырожденные матрицы (сумма, соответственно, каждой строки и каждого столбца равна нулю).

Дифференциальное уравнение[edit | edit source]

Получим дифференциальное уравнение: d C i = d C i + d C i + = θ C i ( t ) d t В ы б ы т и е + θ C ( t ) ( j = 1 n γ j i k j ( t ) ) d t П о п о л н е н и е . \begin{equation*} \dd C_i = \dd C^{-}_i + \dd C^{+}_i = \underbrace{ -\theta C_i\left(t\right) \dd t }_{ \substack{ \scriptsize{ Выбытие } } } + \underbrace{ \theta C\left(t\right) \left( \sum\limits_{j=1}^{n} \gamma_{ji} k_j\left(t\right) \right) \dd t }_{ \substack{ \scriptsize{ Пополнение } } } . \end{equation*}

Разделив на  C ( t ) C\left(t\right) , получим: (4) d k i = θ k i ( t ) d t + θ ( j = 1 n γ j i k j ( t ) ) d t = θ ( k i ( t ) В ы б ы т и е + j = 1 n γ j i k j ( t ) П о п о л н е н и е ) d t . \begin{equation} \label{Multiple gammas differential} \eqalign{ \dd k_i &= -\theta k_i\left(t\right) \dd t + \theta \left( \sum\limits_{j=1}^{n} \gamma_{ji} k_j\left(t\right) \right) \dd t \\ &= \theta \left( \underbrace{ -k_i\left(t\right) }_{ \substack{ \scriptsize{ Выбытие } } } + \underbrace{ \sum\limits_{j=1}^{n} \gamma_{ji} k_j\left(t\right) }_{ \substack{ \scriptsize{ Пополнение } } } \right) \dd t . } \end{equation}

С использованием векторов и матриц систему уравнений вида (4) \eqref{Multiple gammas differential} можно переписать в виде: (5) d k = θ ( Γ  Пополнение  I  Выбытие  ) k ( t ) d t . \begin{equation} \label{Matrix differential} \dd \mathbf{k} = \theta \left( \texttip{ \Gamma^{\top} }{ Пополнение } - \texttip{ I }{ Выбытие } \right) \mathbf{k}\left(t\right) \dd t . \end{equation}

Это уравнение сходно с основным кинетическим.

Уравнение динамики[edit | edit source]

Решением системы уравнений (5) \eqref{Matrix differential} с начальным условием k ( 0 ) = k 0 \mathbf{k}\left(0\right) = \mathbf{k}^0 является: (6) k ( t ) = e θ ( Γ I ) t k 0 . \begin{equation} \label{Multiple solution} \mathbf{k}\left(t\right) = e ^ { \theta \left( \Gamma^{\top} - I \right) t } \mathbf{k^0} . \end{equation}

Упрощение[edit | edit source]

Примем во внимание, что:

  • умножение на скалярную матрицу всегда коммутативно, а θ I t - \theta I t  — скалярная матрица, поэтому возможен переход от экспоненты суммы к произведению экспонент,
  • экспонента транспонированной матрицы равна транспонированной экспоненте.

С учётом этого, решение (6) \eqref{Multiple solution} можно переписать как: (7) k ( t ) = e θ ( Γ I ) t k 0 = e ( θ Γ t ) θ I t k 0 = ( e θ Γ t ) e θ I t k 0 . \begin{equation} \mathbf{k}\left(t\right) = e ^ { \theta \left( \Gamma^{\top} - I \right) t } \mathbf{k^0} = e ^ { \left( \theta \Gamma t \right) ^{\top} - \theta I t } \mathbf{k^0} = \left( e ^ { \theta \Gamma t } \right) ^{\top} e ^ { - \theta It } \mathbf{k^0} . \end{equation}

Поскольку θ I t - \theta It  — скалярная матрица, то она и диагональна, и её экспонента e θ I t = ( e θ t 0 0 0 e θ t 0 0 0 e θ t ) = e θ t I e ^ { - \theta It } = \begin{pmatrix} e^{-\theta t} & 0 & \dots & 0 \\ 0 & e^{-\theta t} & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & e^{-\theta t} \end{pmatrix} = e^{-\theta t} I .

С учётом этого, а также коммутативности умножения на единичную матрицу, (8) k ( t ) = e θ t I ( e θ Γ t ) k 0 = e θ t ( e θ Γ t ) k 0 = e θ t e θ Γ t k 0 = (9) = e θ t в ы б ы т и е e θ Γ t п о п о л н е н и е k 0 и с х о д н о е п о л о ж е н и е . \begin{align} \mathbf{k}\left(t\right) & = e^{-\theta t} I \left( e ^ { \theta \Gamma t } \right) ^{\top} \mathbf{k^0} = e^{-\theta t} \left( e ^ { \theta \Gamma t } \right) ^{\top} \mathbf{k^0} = e^{-\theta t} e ^ { \theta \Gamma ^{\top} t } \mathbf{k^0} = \\ & = \underbrace{ e^{-\theta t} }_{ \substack{ \tiny{ выбытие } } } \underbrace{ e ^ { \theta \Gamma ^{\top} t } }_{ \substack{ \tiny{ пополнение } } } \underbrace{ \mathbf{k^0} }_{ \substack{ \tiny{ исходное } \\ \tiny{ положение } } } . \end{align}

Стохастичность[edit | edit source]

Матрица Γ \Gamma^{\top} стохастична слева, т.е., 1 1 × n Γ = 1 1 × n \mathbf{1}_{1 \times n} \Gamma^{\top} = \mathbf{1}_{1 \times n} . Это же относится и к любой её степени: 1 1 × n ( Γ ) i = 1 1 × n \mathbf{1}_{1 \times n} \left( \Gamma^{\top} \right) ^ i = \mathbf{1}_{1 \times n} . С учётом опредедения матричной и скалярной экспоненты через бесконечный ряд: 1 1 × n e θ ( Γ I ) t = 1 1 × n e θ t e θ Γ t = e θ t 1 1 × n ( i = 0 ( θ Γ t ) i i ! ) = e θ t ( i = 0 θ i t i 1 1 × n ( Γ ) i i ! ) = e θ t ( i = 0 θ i t i 1 1 × n i ! ) = e θ t 1 1 × n ( i = 0 θ i t i i ! ) = e θ t 1 1 × n e θ t = 1 1 × n . \begin{equation*} \eqalign{ \mathbf{1}_{1 \times n} e^{\theta \left( \Gamma^{\top} - I \right) t} &= \mathbf{1}_{1 \times n} e^{-\theta t} e^{\theta \Gamma^{\top} t} \\ &= e^{-\theta t} \mathbf{1}_{1 \times n} \left( \sum\limits_{i=0}^{\infty} \frac{ \left( \theta \Gamma^{\top} t \right) ^ i }{ i! } \right) &= e^{-\theta t} \left( \sum\limits_{i=0}^{\infty} \frac{ \theta^i t^i \mathbf{1}_{1 \times n} \left( \Gamma^{\top} \right) ^ i }{ i! } \right) &= e^{-\theta t} \left( \sum\limits_{i=0}^{\infty} \frac{ \theta^i t^i \mathbf{1}_{1 \times n} }{ i! } \right) &= e^{-\theta t} \mathbf{1}_{1 \times n} \left( \sum\limits_{i=0}^{\infty} \frac{ \theta^i t^i }{ i! } \right) \\ &= e^{-\theta t} \mathbf{1}_{1 \times n} e^{\theta t} = \mathbf{1}_{1 \times n} . } \end{equation*} Таким образом, матрица e θ ( Γ I ) t e^{\theta \left( \Gamma^{\top} - I \right) t} тоже стохастична слева.

Поскольку эта матрица не стохастична справа, уравнение динамики (6) \eqref{Multiple solution} не описывает марковский процесс.


Предел[edit | edit source]

Если существует k \mathbf{k^*} , такое, что e θ ( Γ I ) t k = k e^{\theta \left( \Gamma^{\top} - I \right) t} \cdot \mathbf{k^*} = \mathbf{k^*} , то есть, собственный вектор матрицы e θ ( Γ I ) t e^{\theta \left( \Gamma^{\top} - I \right) t} с собственным числом 1, для любого t t , то: (10) k ( t ) = e θ ( Γ I ) t k 0 + k e θ ( Γ I ) t k = 0 = k + e θ ( Γ I ) t ( k 0 k ) . \begin{equation} \eqalign{ \mathbf{k} \left( t \right) &= e^{\theta \left( \Gamma^{\top} - I \right) t} \cdot \mathbf{k^0} + \underbrace{ \mathbf{k^*} - e^{\theta \left( \Gamma^{\top} - I \right) t} \cdot \mathbf{k^*} }_{ = 0 } \\ & = \mathbf{k^*} + e^{\theta \left( \Gamma^{\top} - I \right) t} \left( \mathbf{k^0} - \mathbf{k^*} \right) . } \end{equation}


Соответственно, lim t k ( t ) = lim t ( k + e θ ( Γ I ) t ( k 0 k ) ) = k + lim t e θ t lim t e θ Γ t ( k 0 k ) . \begin{equation*} \eqalign{ \lim\limits_{t \rightarrow \infty} \mathbf{k} \left( t \right) &= \lim\limits_{t \rightarrow \infty} \left( \mathbf{k^*} + e^{\theta \left( \Gamma^{\top} - I \right) t} \left( \mathbf{k^0} - \mathbf{k^*} \right) \right) \\ &= \mathbf{k^*} + \lim\limits_{t \rightarrow \infty} e^{ -\theta t } \lim\limits_{t \rightarrow \infty} e^{ \theta\Gamma^{\top} t} \left( \mathbf{k^0} - \mathbf{k^*} \right) . } \end{equation*}

Как указано выше, k \mathbf{k^*}  — собственный вектор матрицы e θ ( Γ I ) t e ^ { \theta \left( \Gamma^{\top} - I \right) t } , из чего следует, что он же должен быть собственным вектором и  Γ \Gamma^{\top} , поскольку собственные векторы сохраняются при возведении в степень, получении экспоненты и умножении на скаляр. Этот вывод можно получить и иным способом: если достигнуто стационарное состояние, то  d k = 0 d\mathbf{k} = \mathbf{0} . Отсюда, 0 = d k = θ ( Γ I ) k d t \mathbf{0} = d\mathbf{k} = \theta \left( \Gamma^{\top} - I \right) \mathbf{k^*} dt , следовательно, ( Γ I ) k = 0 \left( \Gamma^{\top} - I \right) \mathbf{k^*} = \mathbf{0} , и Γ k = k \Gamma^{\top} \cdot \mathbf{k^*} = \mathbf{k^*} , то есть, k \mathbf{k^*}  — собственный вектор Γ \Gamma^{\top} с собственным числом 1.

Ссылки[edit | edit source]