Lembramos que um método iterativo é definido pela sequência
$$ \mathbf{x}^{(k+1)} = N^{-1}(\mathbf{b} + P\mathbf{x}^{(k)} $$onde $A=N-P.$ Se $\mathbf{x}_s$ é a solução do sistema $A\mathbf{x} = \mathbf{b}.$ Então podemos escrever o erro no passo $(k+1)$ como $$ \mathbf{e}^{(k+1)} = \mathbf{x}^{(k+1)} - \mathbf{x}_s = N^{-1}P\mathbf{e}^{(k)} $$ Avaliando a norma dos erros temos: $$ \| \mathbf{e}^{(k+1)}\| \leq \| N^{-1}P\| \|\mathbf{e}^{(k)}\| \leq \| N^{-1}P\|^{k+1} \|\mathbf{e}^{(0)}\| $$ Daí uma condição suficiente para a convergência é que $\| N^{-1}P\| \lt 1$.
Vamos somente dar a definição da norma de uma matriz induzida do espaço vetorial $\mathbb{R}^n$. Seja $A$ uma matriz $n\times n$, e suponha que em $\mathbb{R}^n$ (o conjunto das matrizes colunas), seja dada uma norma $\| \cdot \|_u$. Podemos definir no conjunto das matrizes $n\times n$ a norma: $$ \|A\|_{uu} = \sup_{\|x\|_u =1}\| Ax\|_u $$ Esta a chamada norma induzida de uma matriz.
Neste caso tomamos em $\mathbb{R}^n$ a norma $\|\mathbf{x}\|_\infty = \max|x_i|$ e depois de alguns cálculos (que foram feitos na aula) temos $$ \| N^{-1}P \| = \sup_i \sum_{j\neq i} \frac{|a_{ij}|}{|a_{ii}|} $$
A condição da norma de $N^{-1}P$ ser menor do que 1 neste caso nos dá o critério conhecido como critério das linhas: Para cada linha $i$ da matriz $A$ devemos ter: $$ \sum_{j\neq i} \frac{|a_{ij}|}{|a_{ii}|} \lt 1 $$
Definimos os números $\beta_1,\dots, \beta_n$ recorrentemente: $$ \begin{eqnarray} \beta_1 &= &\sum_{j=2}^n\frac{|a_{1j}|}{|a_{11}|} \\ \vdots & & \vdots \\ \beta_{i}& = &\sum_{j=1}^{i-1} \frac{\beta_j|a_{ij}|}{|a_{ii}|}+ \sum_{j=i+1}^n \frac{|a_{ij}|}{|a_{ii}|} \end{eqnarray}$$
A matriz $A$ satisfaz o critério de Sassenfeld se $\beta_i \lt 1$ para todo $i\in \{1,\dots, n\}$