Considerando a decomposição espectral das matrizes $A$ e $B$, com autovetores $u_i$ e $s_i$ formando bases ortonormais:
$ A = \sum_{i} \lambda_i u_i u_i^{T} $ e $ B = \sum_{i} \gamma_i s_i s_i^{T} $
Pelo método Random Skewers cria-se vetores aleatórios unitários $\beta$ e calcula-se a média:
$ < \overline{A \beta} \cdot \overline{B \beta} > $
Onde $ \overline{A \beta} $ é igual ao valor $A \beta$ normalizado ($ |A\beta|= 1$). Este valor é utilizado como uma métrica de quão diferente são as matrizes $A$ e $B$ em relação à respostas para diferentes vetores de seleção.
Utilizando que $A \cdot B = A^TB$ e $ (AB)^T = B^T A^T$:
$ \overline{A \beta} \cdot \overline{B \beta} = \frac{1}{N_A N_B}(\sum_{i} \lambda_i u_i u_i^{T}\beta)^T(\sum_{j} \gamma_j s_j s_j^{T}\beta) $
Onde $N_A$ e $N_B$ são os termos utilizados para a normalização, continuando:
$\frac{1}{N_A N_B} (\sum_{i} \beta^T\lambda_i u_i u_i^{T})(\sum_{j} \gamma_j s_j s_j^{T}\beta) = \frac{1}{N_A N_B} (\sum_{i,j} \lambda_i \gamma_j \beta^T u_i u_i^{T} s_j s_j^{T}\beta) $
Com $u_i^Ts_j = u_i \cdot s_j = cos\theta_{ij}$
$ \beta^T u_i = u_i \cdot \beta = cos\theta_i^{A}$
$ s_j^T \beta = s_j \cdot \beta = cos\theta_j^{B}$
Teremos
$ \frac{1}{N_A N_B} (\sum_{i,j} \lambda_i \gamma_j cos\theta_{ij} cos\theta_i^{A} cos\theta_j^{B}) $
Para acharmos $N_A$ e $N_B$ basta considera a expressão:
$ A \beta \cdot A \beta = |A\beta|^2$
$ A \beta \cdot A \beta = \sum_{i,j} \lambda_i \lambda_j cos\theta_{ij} cos\theta_i^{A} cos\theta_j^{A} $
E como $cos\theta_{ij} = 0$ para $i \neq j$ e $1$ caso contrário
$ A \beta \cdot A \beta = \sum_{i} \lambda_i^2 cos^2\theta_i^{A} $
Logo
$N_A = \frac{1}{\sqrt{\sum_{i} \lambda_i^2 cos^2\theta_i^{A}}} $
e equivalentemente:
$N_B = \frac{1}{\sqrt{\sum_{i} \gamma_i^2 cos^2\theta_i^{B}}} $
$ RS(A,B) = \langle \frac{\sum_{i,j} \lambda_i \gamma_j cos\theta_{ij} cos\theta_i^{A} cos\theta_j^{B}}{\sqrt{\sum_{ij} \lambda_i^2\gamma_j^2 cos^2\theta_i^{A}cos^2\theta_j^{B}} } \rangle$
Agora precisamos apenas integrar o último termo. De qualquer forma nota-se que o
$ RS(A,B) \leq \sum_{ij}\frac{ \lambda_i\gamma_j cos^2\theta_{ij}}{\sum{ij}\lambda_i\gamma_j} $
Onde o último termo nada mais é do que o PCA similarity factor, a medida de Krzanowski com os pesos dados pelos autovalores.
Para isso usaremos:
$ (u_i \cdot \beta)(s_j \cdot \beta) = \frac{(u_i + s_i \cdot \beta)^2 - (u_i \cdot \beta)^2 - (s_j \cdot \beta)^2}{2} $
$ ((u_i + s_i) \cdot \beta)^2 = |u_i + s_i|^2 cos^2 \theta^{A + B}{ij} $
$ ((u_i + s_i) \cdot \beta)^2 = 4 cos^2 \frac{\theta_{ij}}{2} cos^2 \theta^{A + B}{ij} = 4(\frac{1 + cos \theta{ij}}{2}) cos^2 \theta^{A + B}{ij}$
Onde utilizamos no passo intermediário que o módulo de $u_i + s_j$ é igual a diagonal do paralelograma dos vetores $u_i$ e $s_j$. Com isso teremos:
$ RS = \sum_{ij} \int d\beta \frac{\lambda_i \gamma_j cos \theta_{ij} (u_i \cdot \beta)(s_j \cdot \beta)}{\sqrt{\sum_{lm} \lambda^2_{l}\gamma^2_{m}(u_l \cdot \beta)^2(s_m \cdot \beta)^2}}$
$ D(\beta) = \sqrt{\sum_{lm} \lambda^2_{l}\gamma^2_{m}(u_l \cdot \beta)^2(s_m \cdot \beta)^2} $
$ RS = \sum_{ij} \int d\beta \frac{\lambda_i \gamma_j cos \theta_{ij} cos^2 \theta^{A+B}_{ij}}{D(\beta)} + \sum_{ij} \int d\beta \frac{\lambda_i \gamma_j cos^2 \theta_{ij} cos^2 \theta^{A+B}_{ij}}{D(\beta)} - \frac{1}{2} \left[ \sum_{ij} \int d\beta \frac{\lambda_i \gamma_j cos \theta_{ij} (u_i \cdot \beta)^2}{D(\beta)} + \sum_{ij} \int d\beta \frac{\lambda_i \gamma_j cos \theta_{ij} (s_j \cdot \beta)^2}{D(\beta)}\right]$
Mas a primeira e duas últimas integrais dessa soma serão iguais, já que ao integrarmos em todos vetores de módulo igual a 1 não importará qual vetor escolhermos para o produto interno (seja $u_i$, $s_j$ ou $u_i + s_j$), assim teremos:
$ RS = \sum_{ij} \int d\beta \frac{\lambda_i \gamma_j cos^2 \theta_{ij} cos^2 \theta^{A+B}_{ij}}{D(\beta)}$
E usando um argumento análogo podemos colocar em evidência apenas uma das integrais, já que todas serão iguais:
$ RS = \left[ \sum_{ij} \lambda_i \gamma_j cos^2 \theta_{ij} \right] \int d\beta \frac{(u \cdot \beta)^2}{D(\beta)}$
Onde $u$ é qualquer vetor.