Conservatoire
Автор: Александр Машин
В консерваторию по классу скрипки на 10 мест 100 претендентов:
10 евреев и 90 русских. Собрался ректорат, решают, кого взять, чтобы
по справедливости.
Проректор-патриот: «Надо взять 10 русских».
Проректор-коммунист: «Надо взять 9 русских и одного еврея».
Проректор-демократ: «Надо взять 5 евреев и 5 русских».
Проректор-сионист: «Надо взять 9 евреев и одного русского».
Ректор: «А вы все, оказывается, националисты».
Все: «Ни фига себе! А кого же, по-твоему, надо брать?»
Ректор: «Тех, кто лучше играет на скрипке».
Анекдот № 143830
Дата публикации: 27 мая 2023
Предмет: Социометрия
О тексте:
Рассмотрим динамику стабильного сообщества, состоящего из тех же групп, что и вмещающее его сообщество, и восполняющего себя по мере естественной убыли в соответствии со своими предпочтениями, которые могут склоняться к выбору объективно лучшего кандидата, или принадлежащего к той или иной группе.
Пусть:
C
C
— общая неизменная численность некоего сообщества, состоящего из двух групп, как и вмещающее его сообщество:
C
=
C
1
+
C
2
=
const
C = C_1 + C_2 = \mbox{const}
, естественная убыль в котором компенсируется набором из вмещающего сообщества, причём выбор из той или иной группы определяется имеющимся соотношением численности групп в сообществе и их предпочтениями,
k
(
t
)
=
C
1
(
t
)
C
(
t
)
k\left(t\right) = \frac{C_1\left(t\right)}{C\left(t\right)}
— доля первой группы в нём в момент времени
t
t
, при этом,
k
(
0
)
=
k
0
k\left(0\right) = k_0
,
0
<
θ
<
1
0 < \theta\ < 1
— скорость естественного выбытия членов сообщества,
0
⩽
α
1
⩽
1
0 \leq \alpha_1\ \leq 1
и
0
⩽
α
2
⩽
1
0 \leq \alpha_2\ \leq 1
— вероятности того, что средний член соответствующей группы предпочтёт своего при заполнении вакансии, руководствуясь только принадлежностью к группе,
0
⩽
β
1
⩽
1
0 \leq \beta_1\ \leq 1
и
0
⩽
β
2
⩽
1
0 \leq \beta_2\ \leq 1
— вероятности того, что средний член соответствующей группы предпочтёт при заполнении вакансии достойнейшего, независимо от принадлежности к группе,
0
⩽
ν
⩽
1
0 \leq \nu\ \leq 1
— вероятность того, что кандидат из первой группы достойнее кандидата из второй группы,
соответственно,
0
⩽
1
−
α
1
−
β
1
⩽
1
0 \leq 1 - \alpha_1 - \beta_1 \leq 1
и
0
⩽
1
−
α
2
−
β
2
⩽
1
0 \leq 1 - \alpha_2 - \beta_2 \leq 1
— вероятности того, что член группы предпочтёт чужого кандидата, несмотря ни на что.
Получим закон изменения
k
(
t
)
=
C
1
(
t
)
C
(
t
)
k\left(t\right) = \frac{C_1\left(t\right)}{C\left(t\right)}
, учитывая, что предпочтение кандидату из первой группы отдадут:
члены первой группы, численностью
C
1
(
t
)
=
k
(
t
)
C
C_1\left(t\right) = k\left(t\right)C
:
всегда предпочитающие своих (вероятность
α
1
\alpha_1
) или,
предпочитающие достойнейших, при условии, что кандидат из первой группы достойнейший (вероятность
β
1
ν
\beta_1 \nu
),
и члены второй группы, численностью
C
2
(
t
)
=
(
1
−
k
(
t
)
)
C
C_2\left(t\right) = \left(1 - k\left(t\right)\right)C
:
предпочитающие достойнейших, при условии, что кандидат из первой группы достойнейший (вероятность
β
2
ν
\beta_2 \nu
),
всегда предпочитающие чужих (вероятность
1
−
α
2
−
β
2
1 - \alpha_2 - \beta_2
).
Дополнительно введём:
d
C
1
=
d
C
1
−
+
d
C
1
+
dC_1 = dC^{-}_1 + dC^{+}_1
— изменение численности первой группы за время
d
t
dt
, состоящее из её естественной убыли и прироста в результате кооптации; учитывая, что
C
=
const
C = \mbox{const}
,
d
C
=
d
C
1
+
d
C
2
=
0
dC = dC_1 + dC_2 = 0
,
γ
1
=
1
−
α
1
−
β
1
ν
\gamma_1 = 1 - \alpha_1 - \beta_1 \nu
— вероятность, что член первой группы предпочтёт, по той или иной причине, кандидата из второй группы,
γ
2
=
1
−
α
2
−
β
2
(
1
−
ν
)
\gamma_2 = 1 - \alpha_2 - \beta_2 \left( 1 - \nu \right)
— вероятность, что член второй группы предпочтёт, по той или иной причине, кандидата из первой группы.
Получим дифференцильное уравнение:
d
C
1
=
d
C
1
−
+
d
C
1
+
=
−
θ
C
1
(
t
)
d
t
+
θ
C
(
t
)
(
k
(
t
)
(
1
−
γ
1
)
+
(
1
−
k
(
t
)
)
γ
2
)
d
t
.
\begin{equation*}
dC_1 = dC^{-}_1 + dC^{+}_1 =
-\theta C_1\left(t\right) dt + \theta C\left(t\right) \left( k\left(t\right) \left( 1 - \gamma_1 \right) + \left( 1 - k\left(t\right) \right) \gamma_2 \right) dt .
\end{equation*}
Отсюда, разделив на
C
(
t
)
C\left(t\right)
, получим:
d
k
=
−
θ
k
(
t
)
d
t
+
θ
(
k
(
t
)
(
1
−
γ
1
)
+
(
1
−
k
(
t
)
)
γ
2
)
d
t
=
\begin{equation*}
dk = -\theta k\left(t\right) dt + \theta \left( k\left(t\right) \left( 1 - \gamma_1 \right) + \left( 1 - k\left(t\right) \right) \gamma_2 \right) dt =
\end{equation*}
(1)
=
θ
(
γ
2
−
(
γ
1
+
γ
2
)
k
(
t
)
)
d
t
.
\begin{equation} \label{Gammas differential}
= \theta \left( \gamma_2 - \left( \gamma_1 + \gamma_2 \right) k\left(t\right) \right) dt .
\end{equation}
Если
γ
1
+
γ
2
=
0
\gamma_1 + \gamma_2 = 0
, для чего необходимо, чтобы
γ
1
=
γ
2
=
0
\gamma_1 = \gamma_2 = 0
, т.е., члены обеих групп всегда предпочитают своих, то
d
k
=
0
dk = 0
, соответственно,
k
=
const
k = \mathrm{const}
, т.е., распределение групп не меняется.
Иначе, решение уравнения
(1)
\eqref{Gammas differential}
с начальным условием
k
(
0
)
=
k
0
k\left(0\right) = k_0
даёт:
(2)
k
(
t
)
=
(
k
0
−
γ
2
γ
1
+
γ
2
)
e
−
θ
(
γ
1
+
γ
2
)
t
+
γ
2
γ
1
+
γ
2
=
\begin{equation}
\label{Dynamics}
k\left(t\right) = \left( k_0 - \frac{\gamma_2}{ \gamma_1 + \gamma_2 } \right) e ^ { -\theta \left( \gamma_1 + \gamma_2 \right) t } + \frac{\gamma_2}{ \gamma_1 + \gamma_2 } =
\end{equation}
(3)
=
(
k
0
(
2
−
α
1
−
α
2
−
β
1
ν
−
β
2
(
1
−
ν
)
)
−
(
1
−
α
2
−
β
2
(
1
−
ν
)
)
)
e
−
θ
(
2
−
α
1
−
α
2
−
β
1
ν
−
β
2
(
1
−
ν
)
)
t
+
1
−
α
2
−
β
2
(
1
−
ν
)
2
−
α
1
−
α
2
−
β
1
ν
−
β
2
(
1
−
ν
)
.
\begin{equation}
= \dfrac
{ \left( k_0 \left( 2 - \alpha_1 - \alpha_2 - \beta_1 \nu - \beta_2 \left( 1 - \nu \right) \right) - \left( 1 - \alpha_2 - \beta_2 \left( 1 - \nu \right) \right) \right) e ^ { -\theta \left( 2 - \alpha_1 - \alpha_2 - \beta_1 \nu - \beta_2 \left( 1 - \nu \right) \right) t } + 1 - \alpha_2 - \beta_2 \left( 1 - \nu \right)
}
{ 2 - \alpha_1 - \alpha_2 - \beta_1 \nu - \beta_2 \left( 1 - \nu \right) } .
\end{equation}
Если
γ
1
+
γ
2
>
0
\gamma_1 + \gamma_2 > 0
, то, со временем, доля первой группы стремится к:
k
∗
=
lim
t
→
∞
k
(
t
)
=
lim
t
→
∞
(
(
k
0
−
γ
2
γ
1
+
γ
2
)
e
−
θ
(
γ
1
+
γ
2
)
t
+
γ
2
γ
1
+
γ
2
)
=
\begin{equation*}
k^* = \lim\limits_{t \rightarrow \infty} k\left(t\right) =
\lim\limits_{t \rightarrow \infty} \left( \left( k_0 - \frac{\gamma_2}{ \gamma_1 + \gamma_2 } \right) e ^ { -\theta \left( \gamma_1 + \gamma_2 \right) t } + \frac{\gamma_2}{ \gamma_1 + \gamma_2 } \right) =
\end{equation*}
=
γ
2
γ
1
+
γ
2
=
\begin{equation*}
= \frac{\gamma_2}{ \gamma_1 + \gamma_2 }
=
\end{equation*}
(4)
=
1
−
α
2
−
β
2
(
1
−
ν
)
2
−
α
1
−
α
2
−
β
1
ν
−
β
2
(
1
−
ν
)
.
\begin{equation}
= \frac{1 - \alpha_2 - \beta_2 \left( 1 - \nu \right)}
{ 2 - \alpha_1 - \alpha_2 - \beta_1 \nu - \beta_2 \left( 1 - \nu \right) } .
\end{equation}
С учётом значения предела
k
∗
k^*
, формула динамики
(2)
\eqref{Dynamics}
принимает вид:
(5)
k
(
t
)
=
k
∗
+
e
−
θ
(
γ
1
+
γ
2
)
t
(
k
0
−
k
∗
)
.
\begin{equation}
k\left(t\right) = k^* + e ^ { -\theta \left( \gamma_1 + \gamma_2 \right) t } \left( k_0 - k^* \right) .
\end{equation}
Gnuplot
Produced by GNUPLOT 6.0 patchlevel 0
0.25
0.3
0.35
0.4
0.45
0.5
0
50
100
150
200
250
Справедливость vs трибализм: θ = 0,02, k0 = 50%, γ1 = 0,5, γ2 = 0,25
Справедливость vs трибализм: θ = 0,02, k 0 = 50%, γ 1 = 0,5, γ 2 = 0,25
Чужебесие vs справедливость: θ = 0,02, k0 = 50%, γ1 = 0,75, γ2 = 0,5
Чужебесие vs справедливость: θ = 0,02, k 0 = 50%, γ 1 = 0,75, γ 2 = 0,5
Чужебесие vs трибализм: θ = 0,02, k0 = 50%, γ1 = 0,75, γ2 = 0,25
Чужебесие vs трибализм: θ = 0,02, k 0 = 50%, γ 1 = 0,75, γ 2 = 0,25
Доля первой группы, k(t)
Время t
Изменение распределения сообщества со временем, k(t)
Пусть:
C
C
— общая неизменная численность сообщества, состоящего из
n
n
групп:
C
(
t
)
=
∑
i
=
1
n
C
i
(
t
)
=
const
C \left( t \right) = \sum\limits_{i=1}^{n}C_i \left( t \right) = \mbox{const}
,
k
i
(
t
)
=
C
i
(
t
)
C
(
t
)
k_i\left(t\right) = \frac{C_i\left(t\right)}{C\left(t\right)}
— доля
i
i
-ой группы в нём в момент времени
t
t
;
∑
i
=
1
n
k
i
=
1
\sum\limits_{i=1}^n k_i = 1
(это коинтеграционное уравнение с коинтеграционным вектором
(
1
,
1
,
…
,
1
n
)
⊤
\left( 1, 1, \dots, 1_n \right)^{\top}
); при этом,
k
i
(
0
)
=
k
i
0
k_i\left(0\right) = k_i^0
; соответственно, вводятся векторы-столбцы
k
(
t
)
=
(
k
1
(
t
)
,
k
2
(
t
)
,
…
,
k
i
(
t
)
,
…
,
k
n
(
t
)
)
⊤
\mathbf{k}\left(t\right) = \left( k_1\left(t\right), k_2\left(t\right), \dots , k_i\left(t\right), \dots , k_n\left(t\right) \right)^{\top}
и
k
0
=
(
k
1
0
,
k
2
0
,
…
,
k
i
0
,
…
,
k
n
0
)
⊤
\mathbf{k^0} = \left( k^0_1, k^0_2, \dots , k^0_i, \dots , k^0_n \right)^{\top}
,
θ
\theta
— скорость естественного выбытия членов сообщества,
α
i
\alpha_i
— вероятность того, что средний член
i
i
-ой группы руководствуется только принадлежностью к группе при заполнении вакансии,
α
i
j
\alpha_{ij}
— вероятность того, что средний член
i
i
-ой группы предпочтёт члена
j
j
-ой группы при заполнении вакансии, руководствуясь только принадлежностью к группе;
∑
j
=
1
n
α
i
j
=
α
i
\sum\limits_{j=1}^n \alpha_{ij} = \alpha_i
,
β
i
\beta_i
— вероятность того, что средний член
i
i
-ой группы предпочтёт при заполнении вакансии достойнейшего, независимо от принадлежности к группе. Отсюда:
α
i
+
β
i
=
∑
j
=
1
n
α
i
j
+
β
i
=
1
\alpha_i + \beta_i = \sum\limits_{j=1}^n \alpha_{ij} + \beta_i = 1
,
ν
i
\nu_i
— вероятность того, что кандидат из
i
i
-ой группы достойнее других кандидатов;
∑
i
=
1
n
ν
i
=
1
\sum\limits_{i=1}^n \nu_i = 1
.
Получим закон изменения
k
i
(
t
)
=
C
i
(
t
)
C
(
t
)
k_i\left(t\right) = \frac{C_i\left(t\right)}{C\left(t\right)}
, учитывая, что предпочтение кандидату из
i
i
-ой группы отдадут:
члены всех групп, всегда предпочитающих кандидата из
i
i
-ой группы, вместе собирающие долю голосов
1
C
(
t
)
∑
j
=
1
n
α
j
i
C
j
(
t
)
=
∑
j
=
1
n
α
j
i
k
j
(
t
)
\frac{ 1 }{ C\left(t\right) } \sum\limits_{j=1}^n \alpha_{ji} C_j\left(t\right) = \sum\limits_{j=1}^n \alpha_{ji} k_j\left(t\right)
,
члены всех групп, предпочитающие лучших, при условии, что кандидат из
i
i
-ой группы действительно лучший, вместе собирающие долю голосов
1
C
(
t
)
∑
j
=
1
n
β
j
ν
i
C
j
(
t
)
=
∑
j
=
1
n
β
j
ν
i
k
j
(
t
)
\frac{ 1 }{ C\left(t\right) } \sum\limits_{j=1}^n \beta_j \nu_i C_j\left(t\right) = \sum\limits_{j=1}^n \beta_j \nu_i k_j\left(t\right)
.
Дополнительно введём:
d
C
i
=
d
C
i
−
+
d
C
i
+
dC_i = dC^{-}_i + dC^{+}_i
— изменение численности
i
i
-ой группы за время
d
t
dt
, состоящее из её естественной убыли и прироста в результате кооптации; учитывая, что
C
=
const
C = \mbox{const}
,
d
C
=
∑
i
=
1
n
d
C
i
=
0
dC = \sum\limits_{i=1}^n dC_i = 0
,
Γ
=
(
γ
i
j
)
=
(
α
i
j
+
β
i
ν
j
)
\Gamma = \left( \gamma_{ij} \right) = \left( \alpha_{ij} + \beta_i \nu_j \right)
— квадратная матрица вероятностей, что член
i
i
-ой группы предпочтёт, по той или иной причине, кандидата из
j
j
-ой группы. Отсюда:
∑
j
=
1
n
γ
i
j
=
1
\sum\limits_{j=1}^n \gamma_{ij} = 1
,
1
=
∑
j
=
1
n
γ
i
j
=
∑
j
=
1
n
(
α
i
j
+
β
i
ν
j
)
=
∑
j
=
1
n
α
i
j
+
∑
j
=
1
n
β
i
ν
j
=
α
i
+
β
i
∑
j
=
1
n
ν
j
=
α
i
+
β
i
=
1
1 = \sum\limits_{j=1}^n \gamma_{ij} = \sum\limits_{j=1}^n \left( \alpha_{ij} + \beta_i \nu_j \right) = \sum\limits_{j=1}^n \alpha_{ij} + \sum\limits_{j=1}^n \beta_i \nu_j = \alpha_i + \beta_i \sum\limits_{j=1}^n \nu_j = \alpha_i + \beta_i = 1
,
Γ
\Gamma
— стохастическая справа матрица,
Γ
⊤
\Gamma^{\top}
— стохастическая слева,
Γ
−
I
\Gamma - I
и
Γ
⊤
−
I
\Gamma^{\top} - I
— вырожденные матрицы (сумма, соответственно, каждой строки и каждого столбца равна нулю).
Получим дифференцильное уравнение:
d
C
i
=
d
C
i
−
+
d
C
i
+
=
−
θ
C
i
(
t
)
d
t
+
θ
C
(
t
)
(
∑
j
=
1
n
γ
j
i
k
j
(
t
)
)
d
t
.
\begin{equation*}
dC_i = dC^{-}_i + dC^{+}_i =
-\theta C_i\left(t\right) dt +
\theta C\left(t\right) \left(
\sum\limits_{j=1}^{n} \gamma_{ji} k_j\left(t\right)
\right) dt .
\end{equation*}
Разделив на
C
(
t
)
C\left(t\right)
, получим:
d
k
i
=
−
θ
k
i
(
t
)
d
t
+
θ
(
∑
j
=
1
n
γ
j
i
k
j
(
t
)
)
d
t
=
\begin{equation*}
dk_i =
-\theta k_i\left(t\right) dt +
\theta \left(
\sum\limits_{j=1}^{n} \gamma_{ji} k_j\left(t\right)
\right) dt =
\end{equation*}
(6)
=
θ
(
−
k
i
(
t
)
+
∑
j
=
1
n
γ
j
i
k
j
(
t
)
)
d
t
.
\begin{equation}
\label{Multiple gammas differential}
=
\theta \left(
-k_i\left(t\right) +
\sum\limits_{j=1}^{n} \gamma_{ji} k_j\left(t\right)
\right) dt .
\end{equation}
С использованием векторов и матриц систему уравнений вида
(6)
\eqref{Multiple gammas differential}
можно переписать в виде:
(7)
d
k
=
θ
(
Γ
⊤
−
I
)
k
(
t
)
d
t
.
\begin{equation}
\label{Matrix differential}
d\mathbf{k} = \theta \left( \Gamma^{\top} - I \right) \mathbf{k}\left(t\right) dt .
\end{equation}
Это уравнение сходно с основным кинетическим.
Решением системы уравнений
(7)
\eqref{Matrix differential}
с начальным условием
k
(
0
)
=
k
0
\mathbf{k}\left(0\right) = \mathbf{k}^0
является:
(8)
k
(
t
)
=
e
θ
(
Γ
⊤
−
I
)
t
k
0
.
\begin{equation}
\label{Multiple solution}
\mathbf{k}\left(t\right) = e ^ { \theta \left( \Gamma^{\top} - I \right) t } \mathbf{k^0} .
\end{equation}
Примем во внимание, что:
умножение на скалярную матрицу всегда коммутативно, а
−
θ
I
t
- \theta I t
— скалярная матрица, поэтому возможен переход от экспоненты суммы к произведению экспонент,
экспонента транспонированной матрицы равна транспонированной экспоненте.
С учётом этого, решение
(8)
\eqref{Multiple solution}
можно переписать как:
(9)
k
(
t
)
=
e
θ
(
Γ
⊤
−
I
)
t
k
0
=
e
(
θ
Γ
t
)
⊤
−
θ
I
t
k
0
=
(
e
θ
Γ
t
)
⊤
e
−
θ
I
t
k
0
.
\begin{equation}
\mathbf{k}\left(t\right) = e ^ { \theta \left( \Gamma^{\top} - I \right) t } \mathbf{k^0} = e ^ { \left( \theta \Gamma t \right) ^{\top} - \theta I t } \mathbf{k^0} = \left( e ^ { \theta \Gamma t } \right) ^{\top} e ^ { - \theta It } \mathbf{k^0} .
\end{equation}
Поскольку
−
θ
I
t
- \theta It
— скалярная матрица, то она и диагональна, и её экспонента
e
−
θ
I
t
=
(
e
−
θ
t
0
…
0
0
e
−
θ
t
…
0
⋮
⋮
⋱
⋮
0
0
…
e
−
θ
t
)
=
e
−
θ
t
I
e ^ { - \theta It } = \begin{pmatrix} e^{-\theta t} & 0 & \dots & 0 \\ 0 & e^{-\theta t} & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & e^{-\theta t} \end{pmatrix} = e^{-\theta t} I
.
С учётом этого, а также коммутативности умножения на единичную матрицу,
(10)
k
(
t
)
=
e
−
θ
t
I
(
e
θ
Γ
t
)
⊤
k
0
=
e
−
θ
t
(
e
θ
Γ
t
)
⊤
k
0
=
e
−
θ
t
e
θ
Γ
⊤
t
k
0
.
\begin{equation}
\mathbf{k}\left(t\right) = e^{-\theta t} I \left( e ^ { \theta \Gamma t } \right) ^{\top} \mathbf{k^0} = e^{-\theta t} \left( e ^ { \theta \Gamma t } \right) ^{\top} \mathbf{k^0}
= e^{-\theta t} e ^ { \theta \Gamma ^{\top} t } \mathbf{k^0} .
\end{equation}
Матрица
Γ
⊤
\Gamma^{\top}
стохастична слева, т.е.,
1
1
×
n
Γ
⊤
=
1
1
×
n
\mathbf{1}_{1 \times n} \Gamma^{\top} = \mathbf{1}_{1 \times n}
. Это же относится и к любой её степени:
1
1
×
n
(
Γ
⊤
)
i
=
1
1
×
n
\mathbf{1}_{1 \times n} \left( \Gamma^{\top} \right) ^ i = \mathbf{1}_{1 \times n}
. С учётом опредедения матричной и скалярной экспоненты через бесконечный ряд:
1
1
×
n
e
θ
(
Γ
⊤
−
I
)
t
=
1
1
×
n
e
−
θ
t
e
θ
Γ
⊤
t
=
e
−
θ
t
1
1
×
n
(
∑
i
=
0
∞
(
θ
Γ
⊤
t
)
i
i
!
)
=
\begin{equation*}
\mathbf{1}_{1 \times n} e^{\theta \left( \Gamma^{\top} - I \right) t} =
\mathbf{1}_{1 \times n} e^{-\theta t} e^{\theta \Gamma^{\top} t} =
e^{-\theta t} \mathbf{1}_{1 \times n} \left( \sum\limits_{i=0}^{\infty} \frac{ \left( \theta \Gamma^{\top} t \right) ^ i }{ i! } \right) =
\end{equation*}
=
e
−
θ
t
(
∑
i
=
0
∞
θ
i
t
i
1
1
×
n
(
Γ
⊤
)
i
i
!
)
=
e
−
θ
t
(
∑
i
=
0
∞
θ
i
t
i
1
1
×
n
i
!
)
=
e
−
θ
t
1
1
×
n
(
∑
i
=
0
∞
θ
i
t
i
i
!
)
=
\begin{equation*}
= e^{-\theta t} \left( \sum\limits_{i=0}^{\infty} \frac{ \theta^i t^i \mathbf{1}_{1 \times n} \left( \Gamma^{\top} \right) ^ i }{ i! } \right)
= e^{-\theta t} \left( \sum\limits_{i=0}^{\infty} \frac{ \theta^i t^i \mathbf{1}_{1 \times n} }{ i! } \right)
= e^{-\theta t} \mathbf{1}_{1 \times n} \left( \sum\limits_{i=0}^{\infty} \frac{ \theta^i t^i }{ i! } \right)
=
\end{equation*}
=
e
−
θ
t
1
1
×
n
e
θ
t
=
1
1
×
n
.
\begin{equation*}
= e^{-\theta t} \mathbf{1}_{1 \times n} e^{\theta t} = \mathbf{1}_{1 \times n} .
\end{equation*}
Таким образом, матрица
e
θ
(
Γ
⊤
−
I
)
t
e^{\theta \left( \Gamma^{\top} - I \right) t}
тоже стохастична слева.
Поскольку эта матрица не стохастична справа, уравнение динамики
(8)
\eqref{Multiple solution}
не описывает марковский процесс.
Если существует
k
∗
\mathbf{k^*}
, такое, что
e
θ
(
Γ
⊤
−
I
)
t
⋅
k
∗
=
k
∗
e^{\theta \left( \Gamma^{\top} - I \right) t} \cdot \mathbf{k^*} = \mathbf{k^*}
, то есть, собственный вектор матрицы
e
θ
(
Γ
⊤
−
I
)
t
e^{\theta \left( \Gamma^{\top} - I \right) t}
с собственным числом 1, для любого
t
t
, то:
k
(
t
)
=
e
θ
(
Γ
⊤
−
I
)
t
⋅
k
0
+
k
∗
−
e
θ
(
Γ
⊤
−
I
)
t
⋅
k
∗
=
\begin{equation*}
\mathbf{k} \left( t \right) =
e^{\theta \left( \Gamma^{\top} - I \right) t} \cdot \mathbf{k^0} + \mathbf{k^*} - e^{\theta \left( \Gamma^{\top} - I \right) t} \cdot \mathbf{k^*} =
\end{equation*}
(11)
=
k
∗
+
e
θ
(
Γ
⊤
−
I
)
t
(
k
0
−
k
∗
)
.
\begin{equation}
= \mathbf{k^*} + e^{\theta \left( \Gamma^{\top} - I \right) t} \left( \mathbf{k^0} - \mathbf{k^*} \right) .
\end{equation}
Соответственно,
lim
t
→
∞
k
(
t
)
=
lim
t
→
∞
(
k
∗
+
e
θ
(
Γ
⊤
−
I
)
t
(
k
0
−
k
∗
)
)
=
\begin{equation*}
\lim\limits_{t \rightarrow \infty} \mathbf{k} \left( t \right) = \lim\limits_{t \rightarrow \infty} \left( \mathbf{k^*} + e^{\theta \left( \Gamma^{\top} - I \right) t} \left( \mathbf{k^0} - \mathbf{k^*} \right) \right) =
\end{equation*}
=
k
∗
+
lim
t
→
∞
e
−
θ
t
lim
t
→
∞
e
θ
Γ
⊤
t
(
k
0
−
k
∗
)
.
\begin{equation*}
= \mathbf{k^*} + \lim\limits_{t \rightarrow \infty} e^{ -\theta t } \lim\limits_{t \rightarrow \infty} e^{ \theta\Gamma^{\top} t} \left( \mathbf{k^0} - \mathbf{k^*} \right) .
\end{equation*}
Как указано выше,
k
∗
\mathbf{k^*}
— собственный вектор матрицы
e
θ
(
Γ
⊤
−
I
)
t
e ^ { \theta \left( \Gamma^{\top} - I \right) t }
, из чего следует, что он же должен быть собственным вектором и
Γ
⊤
\Gamma^{\top}
, поскольку собственные векторы сохраняются при возведении в степень, получении экспоненты и умножении на скаляр. Этот вывод можно получить и иным способом: если достигнуто стационарное состояние, то
d
k
=
0
d\mathbf{k} = \mathbf{0}
. Отсюда,
0
=
d
k
=
θ
(
Γ
⊤
−
I
)
k
∗
d
t
\mathbf{0} = d\mathbf{k} = \theta \left( \Gamma^{\top} - I \right) \mathbf{k^*} dt
, следовательно,
(
Γ
⊤
−
I
)
k
∗
=
0
\left( \Gamma^{\top} - I \right) \mathbf{k^*} = \mathbf{0}
, и
Γ
⊤
⋅
k
∗
=
k
∗
\Gamma^{\top} \cdot \mathbf{k^*} = \mathbf{k^*}
, то есть,
k
∗
\mathbf{k^*}
— собственный вектор
Γ
⊤
\Gamma^{\top}
с собственным числом 1.