Dissertação

Arquivo
Dissetação Davi2..pdf
Documento PDF (398.6KB)
                    Universidade Federal de Alagoas
Instituto de Matemática
Programa de Pós-Graduação em Matemática
Dissertação de Mestrado

Desigualdade de Ruelle

Davi dos Santos Lima

Maceió, Brasil
Setembro de 2012

Davi dos Santos Lima

Desigualdade de Ruelle

Dissertação de Mestrado na área de concentração em Sistemas Dinâmicos submetida
em 27 de Novembro de 2012 à banca examinadora, designada pelo Colegiado do Programa de Pós-Graduação em Matemática da
Universidade Federal de Alagoas, como parte
dos requisitos necessários à obtenção do grau
de mestre em Matemática.

Orientador: Prof. Dr. Krerley Irraciel Martins Oliveira.

Maceió
2012

Banca Examinadora:

Prof. Dr. Krerley Irraciel Martins Oliveira (Orientador)

Prof. Dr. Walter Huaraca Vargas

Prof. Dr. Carlos Bocker

3

Agradecimentos
Agradeço a DEUS pelas oportunidades e a Maria por sua interseção.
Aos meus pais e familiares, por sempre me acolher e me dá forças.
Ao meu orientador, Krerley Oliveira, que acreditou que eu seria capaz no momento
mais difı́cil da minha graduação, pela amizade e pelo companheirismo.
A todos os professores e funcionários do IM que direta ou indiretamente contribuiram
para o meu avanço matemático.
A todos os meus amigos, matemáticos e não matemáticos, os primeiros, certamente
me ajudaram a crescer profissionalmente com conversas sobre matemática e os não
matemáticos pelos momentos descontraı́dos, divertidos e pelas palavras de apoio.
Ao CNPq pelo apoio financeiro.
Enfim, a todos que estiveram comigo em muitos momentos de incertezas, sou muito
grato!

5

Resumo
Neste trabalho, revisaremos fatos básicos de Teoria Ergódica, um importante invariante métrico que é a Entropia, apresentaremos uma ferramenta útil para o estudo do
comportamento dinâmico de uma aplicação, os Expoentes de Lyapunov sobre uma variedade compacta e relacionamos a entropia com os expoentes via a Desigualdade de
Ruelle, fato principal do trabalho.
Palavras-chave: Teoria Ergódica; Entropia; Expoentes de Lyapunov; Desigualdade
de Ruelle.

6

Abstract
In this work, we review basic facts of Ergodic Theory, an important metric invariant,
Entropy, we present a useful tool for studying the dynamic behavior of an application,
the Lyapunov exponents, on a compact manifold and relate entropy with exponents via
the Ruelle’s inequality, because the main work.

7

Sumário
1 Introdução

9

2 Um Pouco de Teoria Ergódica
2.1 Medidas Invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10
10

3 Mais um pouco de Teoria Ergódica
3.1 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Decomposição Ergódica . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Semicontinuidade da Entropia . . . . . . . . . . . . . . . . . . . . . . . .

11
11
22
25

4 Desigualdade de Ruelle
4.1 Teorema de Oseledets . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Demonstração do Teorema 4.0.1 . . . . . . . . . . . . . . . . . . . . . . .

28
28
32
35

5 Apêndice
5.1 Geometria Riemanniana . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Conexões Afins . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.2 Conexão Riemanniana . . . . . . . . . . . . . . . . . . . . . . . .
5.1.3 Aplicação Exponencial . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Álgebra Exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41
41
41
42
43
45

8

Capı́tulo 1
Introdução
Nesta dissertação vamos abordar como se relaciona duas formas de estudar o comportamento de um sistema (f, µ). Um deles, a entropia, analisa o comportamento do sistema
com a informação entre as órbitas de pontos do espaço considerado; a outra, os expoentes
de Lyapunov, analisa o comportamento assintótico da derivada dos iterados dos pontos,
i.e., um estudo geométrico do sistema. Naturalmente, gostarı́amos de relacionar os dois
conceitos. Para estudar o comportamento do sistemas com propriedades geométricas,
fixaremos o nosso ambiente, uma variedade compacta. Para definirmos o que vem a ser
entropia, precisamos de uma partição do ambiente em que estamos, pois vamos entender
dois pontos como iguais se eles estão no mesmo elemento da partição. Isso se mostrará
bastante conveniente, pois iterando os pontos podemos distinguı́-los a partir do momento
que seus iterados distinguem. Com essa abordagem, temos um perspectiva puramente
dinâmica e probabilı́stica do sistema a ser estudado. Em 1978, no Boletim da Sociedade
Brasileira de Matemática, o matemático David Ruelle, publicou um artigo no qual o principal resultado é uma relação muito bonita entre os dois conceitos. Para isso ele supunha
um sistema invariante, (f, µ) de classe C 1 definido sobre sobre uma variedade compacta
C ∞ . Aqui, reproduziremos uma das demonstrações da Desigualdade de Ruelle, tal como
a relação ficou conhecida, e para tanto definiremos e veremos algumas propriedades de
entropia e expoentes de Lyapunov.

9

Capı́tulo 2
Um Pouco de Teoria Ergódica
2.1

Medidas Invariantes

Fixemos M um conjunto, S σ-álgebra de subconuntos de M . Um par (f, µ) será dito
invariante se µ(f −1 (A)) = µ(A), onde f : M → M é uma aplicação mensurável e A
é um conjunto qualquer mensurável. Diremos ainda que µ é f -invariante ou que f é
µ-invariante quando a condição acima ocorrer. A uma dupla (M, S) como acima dá-se o
nome de espaço mensurável, e quando a um espaço mensurável acrescenta-se uma medida
µ a tripla (M, S, µ) é chamado espaço de medida.
Teorema 2.1.1 (Recorrência de Poincaré). Seja (M, S, µ) um espaço de medida, f :
M → M uma tranformação mensurável e A ∈ S um conjunto com medida positiva.
Quase todo ponto x ∈ A retorna a A.
Corolário 2.1.1.1. Nas condições do Teorema de Recorrência de Poincaré, quase todo
ponto x ∈ A retorna infinitas vezes a A.

10

Capı́tulo 3
Mais um pouco de Teoria Ergódica
3.1

Entropia

Em Teoria da Medida, é de costume desprezar conjuntos cuja medida é nula. Escreve-se
A = B(mod.0) quando µ(A∆B) = 0.
Definição 3.1.1. Dado um espaço de medida (M, B, µ), uma partição do mesmo, é uma
coleção de conjuntos mensuráveis ξ = {ξα }α∈Λ indexados por algum conjunto não vazio
de ı́ndices, Λ, satisfazendo
[
ξα = M (mod.0) e ξα ∩ ξβ = ∅, α 6= β.
α∈Λ

Observação 3.1.1. Veremos logo mais, que sempre poderemos para os nossos objetivos,
usar Λ finito.
Dadas duas partições ξ e η, denotaremos ξ ≺ η para significar que todo elemento de
η está contido em algum elemento de ξ. Com duas partições, ξ e η, podemos definir a
soma ξ ∨ η := {ξi ∩ ηj , ξi ∈ ξ, ηj ∈ η} que satisfaz portanto, ξ ≺ ξ ∨ η e η ≺ ξ ∨ η.
Seja f : M → M uma transformação mensurável. Dada uma partição ξ de M ,
temos outra partição determinada por f : f −1 (ξ) := {f −1 (ξi ); ξi ∈ ξ}. Dada uma famı́lia
enumerável de partições Pn definimos
_
Pn = {∩n Pn ; Pn ∈ Pn }.
n∈N

Denotamos
n

ξ =

n−1
_

f −j (ξ), ∀n ≥ 1.

j=0

Para µ-q.t.p x ∈ M existe um elemento de ξ que o contém, tal elemento será denotado
por ξ(x). Para cada n ≥ 1 o elemento ξ n (x) que contém x ∈ M está dado por:
ξ n (x) = ξ(x) ∩ f −1 (ξ(f (x))) ∩ ... ∩ f −(n−1) (ξ(f −(n−1) (x)).
11

Note que a sequência ξ n é não decrescente, ou seja, ξ n ≺ ξ n+1 para todo n.
Para uma dada partição ξ, definimos Iξ : M → R ∪ {∞} por Iξ (x) = − log µ(ξ(x)).
Claramente Iξ é mensurável.
A continuidade da função ϕ : [0, 1] → [0, 1], ϕ(x) = −x log x nos permite convencionar
que 0 log 0 = 0 = limx→0 ϕ(x). Com essa convenção definimos
Definição 3.1.2. A entropia de ξ é
Z
X
Hµ (ξ) = Iξ (x)dµ(x) = −
µ(C) log µ(C)
C∈ξ

.
Uma noção importante de entropia é o de entropia condicional conforme a definição
abaixo.
Definição 3.1.3. Sejam ξ e η partições de M , a entropia de ξ dado η é
Hµ (ξ/η) = −

X

µ(D)

D∈η

C∈ξ

X

= −

X µ(C ∩ D)
µ(D)

µ(C ∩ D) log

C∈ξ,D∈η

log

µ(C ∩ D)
µ(D)

µ(C ∩ D)
.
µ(D)

(3.1)

Tomando η = {∅, M } obtemos que Hµ (ξ/η) = Hµ (ξ)
Lema 3.1.1. Sejam ξ, η, ζ partições com entropia finita. Valem,
1. Hµ (ξ ∨ η/ζ) = Hµ (ξ/ζ) + Hµ (η/ξ ∨ ζ).
2. ξ ≺ η então Hµ (ξ/ζ) ≤ Hµ (η/ζ) e Hµ (ζ/ξ) ≥ Hµ (ζ/η).
3. Se ξ ≺ η então Hµ (ξ/η) = 0
4. Se µ é f -invariante então Hµ (f −1 (ξ)/f −1 (η)) = Hµ (ξ/η)
Demonstração. Vamos começar provando 1 :

Hµ (ξ ∨ η/ζ) =

X

−µ(C ∩ D ∩ E) log

µ(C ∩ D ∩ E)
µ(E)

−µ(C ∩ D ∩ E) log

µ(C ∩ D ∩ E)
+
µ(C ∩ E)

−µ(C ∩ D ∩ E) log

µ(C ∩ E)
µ(E)

C∈ξ,D∈η,E∈ζ

=

X
C∈ξ,D∈ηE∈ζ

+

X
C∈ξ,D∈η,E∈ζ

(3.2)

Usamos a propriedade do logarı́tmo do produto. A soma do lado direito pode ser reescrita
como
12

X

−µ(F ∩ D) log

F ∈ξ∨ζ,D∈η

X
µ(F ∩ D)
µ(C ∩ E)
+
,
−µ(C ∩ E) log
µ(F )
µ(E)
C∈ξ,E∈ζ

mas isto é por definição, Hµ (η/ξ ∨ ζ) + Hµ (ξ/ζ). Isto termina o item 1.
Para demonstração de 2, veja que se ξ ≺ η então
Hµ (ξ/ζ) =

X

X

−µ(D ∩ E) log

µ(C ∩ E)
µ(E)

−µ(D ∩ E) log

µ(D ∩ E)
= Hµ (η/ζ).
µ(E)

C∈ξ,E∈ζ D⊂C,D∈η

≤

X

X

C∈ξ,E∈ζ D⊂C,D∈η

(3.3)

Para a demonstração de 3 veja que se ξ ≺ η então cada elemento de η está em algum
elemento de ξ, portanto µ(C ∩ D) = µ(D) ou µ(C ∩ D) = 0, em qualquer um desses
casos temos,
µ(C ∩ D)
= 0,
µ(C ∩ D) log
µ(D)
donde, Hµ (ξ/η) = 0.
O ı́tem 4 decorre da definição, pois
µ(f −1 (C ∩ D) log

µ(f −1 (C ∩ D))
µ(C ∩ D)
= µ(C ∩ D) log
−1
µ(f (D))
µ(D)

.
A partir da observação feita depois da definição de Hµ (ξ/η) quando η = {∅, M } vemos
que o ı́tem 1 do lema acima de reduz a
Hµ (ξ ∨ η) = Hµ (ξ) + Hµ (η/ξ),

(3.4)

isso é obtido tomando ζ = {∅, M }.
Além disso, do ı́tem 2 e da observação anterior, temos
Hµ (ξ ∨ η) ≤ Hµ (ξ) + Hµ (η)

(3.5)

Lema 3.1.2. Dado k ≥ 1 e  > 0 existe δ > 0 tal que para quaisquer partições finitas
ξ = {ξ1 , ..., ξk } e η = {η1 , ..., ηk },
µ(ξi ∆ηi ) < δ ∀i = 1, ..., k ⇒ Hµ (η/ξ) < .
Demonstração. Fixe  > 0 e k ≥ 1. Pela continuidade da função φ : [0, 1] → R dada por
φ(x) = −x log x existe ρ > 0 tal que φ(x) < /k 2 para todo x ∈ [0, ρ) ∪ (1 − ρ, 1]. Tome
δ = ρ/k. Dadas as partições ξ e η como no enunciado, seja ζ a partição de M cujos
elementos são os cojuntos da forma ξi ∩ ηj quando i 6= j e o conjunto ∪ki=1 ξi ∩ ηi . Note
S
P
que ξi ∩ ηj ⊂ ki=1 ξi ∆ηi e dai, µ(ξi ∩ ηj ) ≤ ki=1 µ(ξi ∆ηi ) < kδ = ρ sempre que i 6= j e
desde que A ∩ B = A ∪ B − A∆B temos
13

µ(

k
[

ξi ∩ ηi ) ≥

i=1

k
X

µ(ξi ) − µ(ξi ∆ηi ) >

k
X

i=1

µ(ξi ) − ρ = 1 − ρ.

i=1

Portanto,
Hµ (ζ) =

X

φ(µ(ζ 0 )) < card(ζ)/k 2 ≤ .

ζ 0 ∈ζ

Da definição temos ξ ∨ η = ξ ∨ ζ, e daı́
Hµ (η/ξ) = Hµ (ξ ∨ η) − Hµ (ξ) = Hµ (ξ ∨ ζ) − Hµ (ξ),
a expressão acima é Hµ (ζ/ξ) ≤ Hµ (ζ) < .
A função φ(x) = −x log x é côncava em [0, 1]. Podemos usar essa propriedade para
mostrar que se ξ é uma partição finita, então Hµ (ξ) ≤ log card(ξ).
Com efeito, suponha card(ξ) = n. Temos
1
1X
Hµ (ξ) =
φ(µ(C))
n
n C∈ξ
1X
µ(C))
≤ φ(
n C∈ξ
1
= φ( )
n
1
1
= − log
n
n

(3.6)

donde, Hµ (ξ) ≤ log n.
Lema 3.1.3. Se {an }n≥0 é uma sequência de números reais satisfazendo an+p ≤ an + ap
an
para todo n, p ≥ 1 então lim
existe e é igual a inf n an /n. O limite pode ser −∞, mas
n→∞ n
an
se
for limitada inferiormente, o limite será c > −∞.
n
Demonstração. Fixe p > 0. Cada n > 0 pode escrito como n = kp + i com 0 ≤ i < p
(aqui k depende de n). Observe que akp ≤ ak + ak(p−1) ≤ 2ak + ak(p−2) ≤ ... ≤ kak .
Segue-se que
an
akp+i
ai
akp
ai
kap
ai
ap
=
≤
+
≤
+
=
+
n
kp + i
kp
kp
kp
kp
kp
p
Agora veja que quando n → ∞ temos que k → ∞. Dessa forma, como ai permanece
limitado temos
lim sup
n→∞

logo,
lim sup
n→∞

an
ap
≤ ,
n
p

an
ap
≤ inf .
n
p
14

ap
an
≤
qualquer que seja n, e portanto,
p p
n
an
ap
≤ lim inf .
inf
n→∞ n
p
an
an
Isto mostra que lim
existe e vale inf .
n→∞ n
n n

Por outro lado, inf

Lema 3.1.4. Hµ (ξ m+n ) ≤ Hµ (ξ m ) + Hµ (ξ n ) para todo m, n ≥ 1
W
Demonstração. Temos ξ m+n = m+n−1
f −j (ξ) = ξ m ∨ f −m (ξ n ). Pelo Lema 1.1.1 temos
j=0
Hµ (ξ m+n ) ≤ Hµ (ξ m ) + Hµ (f −m (ξ n )).
Como µ é f -invariante temos a desigualdade desejada.
A partir do Lema anterior e do Lema 3.1.3 temos que o limite
1
Hµ (ξ n )
n→∞ n
lim

existe. Este será denotado por hµ (f, ξ), e chamado de entropia de f com respeito a ξ.
Exemplo 3.1.1. Seja f : [0, 1] → [0, 1] a função dada por f (x) = 10x(mod.1) = 10x −
[10x], onde [10x] representa o maior inteiro menor ou igual a 10x. Para cada i = 0, ...9
faça ξi = [i/10, i+1/10]. Seja ξ = {ξ0 , ..., ξ9 }. Como se x ∈ f −1 (ξi ) então f (x) ∈ ξi temos
que ξ 2 = ξ ∨ f −1 (ξ) = {ξj , j = 0, ..., 99}, onde ξj = [j/102 , (j + 1)/102 ]. Para o caso geral,
não é difı́cil notar que ξ n = {ξj ; j = 0, ..., 10n − 1, onde ξj = [j/10n , (j + 1)/10n ]}. Seja
P n −1
m(ξj ) log µ(ξj ).
m a medida de Lebesgue do intervalo [0, 1]. Veja que Hm (ξ n ) = 10
j=0
−n
Mas, m(ξj ) = 10 , disto

n

Hm (ξ ) =

n −1
10
X

10−n log 10−n

j=0

= n10−n log 10

n −1
10
X

1

j=0

= n log 10

(3.7)

Segue-se de 3.7 que hµ (f, ξ) = log 10.
Teorema 3.1.1. Se f : M → M preserva µ e ξ é uma partição de M então
decresce para hµ (f, ξ).
Demonstração. Vamos mostrar inicialmente que,
n

Hµ (ξ ) = Hµ (ξ) +

n−1
X
j=1

15

Hµ (ξ/f −1 (ξ j )).

1
Hµ (ξ n )
n

De fato, para n = 2, temos
Hµ (ξ 2 ) = Hµ (ξ ∨ f −1 (ξ)) = Hµ (ξ) + Hµ (ξ/f −1 (ξ)),
conforme a observaçao (1.4). Assuma validade para n = p ≥ 2. Para n = p + 1 temos,
Hµ (ξ p+1 ) = Hµ (f −1 (ξ p ) ∨ ξ)
= Hµ (f −1 (ξ p )) + Hµ (ξ/f −1 (ξ p ))
= Hµ (ξ p ) + Hµ (ξ/f −1 (ξ p ))
p
X
Hµ (ξ/f −1 (ξ j )).
= Hµ (ξ) +

(3.8)

j=1

A última passagem vem da hipótese de indução. Desta fórmula e do ı́tem 2 do lema 3.1.1
temos Hµ (ξ n ) ≥ nHµ (ξ/f −1 (ξ n )) e daı́,
Hµ (ξ n+1 ) = n[Hµ (ξ n ) + Hµ (ξ/f −1 (ξ n ))]
≤ (n + 1)Hµ (ξ n ).

(3.9)

Ou seja,
1
1
Hµ (ξ n+1 ) ≤ Hµ (ξ n )
n+1
n
Definição 3.1.4. O supremo de hµ (f, ξ) sobre todas as partições com entropia finita é
a entropia do sistema (f, µ), e é denotado por hµ (f ).
Exemplo 3.1.2. Sejam f : M → M e x ∈ M ponto periódico de f , i.e., f p (x) = x para
algum p ∈ N. Considere
1
µ = (δx + δf (x) + ... + δf p−1 (x) ).
p
Neste caso, a medida toma somente um número finito de valores. Consequentemente,
a entropia Hµ (ξ) toma somente um número finito de valores quando consideramos as
partições enumeráveis de M . Em particular, limn→∞ n−1 Hµ (ξ n ) = 0 para toda ξ. Disto,
hµ (f ) = 0.
Lema 3.1.5. hµ (f, η) ≤ hµ (f, ξ) + Hµ (η/ξ) para quaisquer partições ξ e η de M com
entropia finita.
Demonstração. Sabemos que Hµ (ξ ∨ η/ζ) = Hµ (ξ/ζ) + Hµ (η/ξ ∨ ζ). Segue-se que para
quaisquer n ≥ 1 temos
Hµ (η n+1 /ξ n+1 ) = Hµ (η n ∨ f −n (η)/ξ n ∨ f −n (ξ))
= Hµ (η n /ξ n ∨ f −n (ξ)) + Hµ (f −n (η)/η n ∨ ξ n ∨ f −n (ξ))
≤ Hµ (η n /ξ n ) + Hµ (f −n (η)/f −n (ξ))
(3.10)
16

aqui estamos usando o Ítem 2 do Lema 3.1.1. Como µ é f -invariante, temos do ı́tem 4
do Lema 3.1.1 que Hµ (f −n (η)/f −n (ξ)) = Hµ (η/ξ). Portanto, se ak = Hµ (η k /ξ k ) temos
ak+1 − ak ≤ a1 e portanto an ≤ na1 , i.e.,
Hµ (η n /ξ n ) ≤ nHµ (η/ξ).
Assim, Hµ (η n ) ≤ Hµ (ξ n ∨η n ) = Hµ (ξ n )+Hµ (η n /ξ n ) ≤ Hµ (ξ n )+nHµ (η/ξ). Dividindo
por n e tomando o limite obtemos a conclusão.
Com o Lema acima, vamos justificar a observação 3.1.1, para mostrar que a definição
de hµ (f ) pode ser feita considerando o supremo sobre todas partições finitas.
Lema 3.1.6. hµ (f ) = sup{hµ (f, ξ); ξ finita}.
Demonstração. Seja e
hµ (f ) = sup{hµ (f, ξ); ξ finita}. Claramente, e
hµ (f ) ≤ hµ (f ). Para
mostrar a desigualdade contrária, dado  > 0, existe ξ = {C1 , C2 , ...} uma partição com
entropia finita, P
tal que hµ (f ) < hµ (f, ξ) + /2. Desde que ξ tem entropia finita, existe
N ∈ N tal que i>N −µ(Ci ) log µ(Ci ) < /2.
P
Tome η = {C1 , C2 , ..., CN , ∪j>N Cj }. Veja que Hµ (η/ξ) = i>N −µ(Ci ) log µ(Ci ) +
µ(∪j>N Cj ) log µ(∪j>N Cj ) < /2, e do Lema 3.1.5 temos
hµ (f ) < hµ (f, ξ) + /2 ≤ hµ (f, η) + Hµ (η/ξ) + /2 < hµ (f, η) + .
Como η é finita, temos que hµ (f ) ≤ e
hµ (f ).
Observação 3.1.2. Ainda do Lema 3.1.5 temos que se ξ ≺ η então hµ (f, ξ) ≤ hµ (f, η),
uma vez que pelo Lema 3.1.1 sabemos que Hµ (ξ/η) = 0.
W
Lema 3.1.7. hµ (f, ξ) = limn→∞ Hµ (ξ/ nj=1 f −j (ξ)) para qualquer partição ξ com entropia finita.
Demonstração. Sabemos do Teorema 3.1.1 que
n

Hµ (ξ ) = Hµ (ξ) +

n−1
X

Hµ (ξ/f −1 (ξ k )).

k=1
n−1
1X
1
n
Logo, hµ (f, ξ) = lim Hµ (ξ ) = lim
Hµ (ξ/f −1 (ξ k )). Por lado, {Hµ (ξ/f −1 (ξ n )}n
n n
n n
k=0
é uma sequência decrescente e então seu limite coincide com o limite à Cesaro.
Wn−1 j
Quando f é inversı́vel chamamos ξ ±n = j=−n
f (ξ).

Lema 3.1.8. Se ξ é uma partição com entropia finita então hµ (f, ξ) = hµ (f, ξ k ) para
todo k ≥ 1. Se f é inversı́vel então hµ (f, ξ) = hµ (f, ξ ±k ) para todo k ≥ 1

17

Demonstração. Veja que para qualquer n ≥ 1 temos
n−1
_

f

−j

k

(ξ ) =

n−1
_

j=0

f

−j

j=0

(

k−1
_

−i

f (ξ)) =

i=0

n+k−1
_

f −j (ξ) = ξ n+k .

j=0

1
n+k 1
Assim, hµ (f, ξ k ) = lim Hµ (ξ n+k ) = lim
Hµ (ξ n+k ) = hµ (f, ξ)
n n
n
n n+k
No caso inversı́vel,
n−1
_

f

−j

(ξ

±k

)=

j=0

n−1
_

f

−j

(

j=0

k−1
_

−i

f (ξ)) =

i=−k

n+k−1
_

f −l (ξ) = f −k (ξ n+2k ),

l=−k

para todo n e para todo k. Portanto,
n + 2k 1
1
Hµ (ξ n+2k ) = hµ (f, ξ).
hµ (f, ξ ±k ) = lim Hµ (f −k (ξ n+2k )) = lim
n
n n
n n + 2k

Proposição 3.1.1 (Fórmula de Abramov). hµ (f k ) = khµ (f ) para todo k ∈ N. Se f é
inversı́vel hµ (f k ) = |k|hµ (f ) para todo k ∈ Z.
Demonstração. Para uma melhor compreensão na demonstração, denotaremos
ξfk = ξ ∨ f −1 (ξ) ∨ ... ∨ f −(k−1) (ξ).
Observe que

(ξfk )m
fk

= (

k−1
_

f −j (ξ))m
fk

j=0

=

k−1
_

−i

f (ξ) ∨

i=0

=
=

mk−1
_

2k−1
_

−i

f (ξ) ∨ ... ∨

i=k

mk−1
_

f −i (ξ)

i=mk−m

f −i (ξ)

i=0
ξfkm

(3.11)

Considere g = f k e tome ξ uma partição de M com entropia finita. Portanto, ξfk também
tem entropia finita, ja que Hµ (ξfk ) ≤ kHµ (ξ).
Assim,
1
1
k
khµ (f, ξ) = lim Hµ (ξfkm ) = lim Hµ ((ξfk )m
g ) = hµ (g, ξf ).
m m
m m
Tomando o supremo sobre todas as partições ξ obtemos, hµ (f k ) ≥ khµ (f ). Por outro
lado, pela observação 3.1.2, desde que ξ ≺ ξfk temos hµ (g, ξ) ≤ hµ (g, ξfk ) = khµ (f, ξ)
18

tomando o supremo sobre ξ com entropia finita obtemos hµ (f k ) ≤ khµ (f ). Com isto
concluı́mos o caso não inversivel.
Para o caso inversı́vel, tome ξ com entropia finita e observe que para todo n ≥ 1
n−1 i
n−1 j
−j
Hµ (∨n−1
(ξ)) = Hµ (f −n+1 (∨i=0
f (ξ))) = Hµ (∨j=0
f (ξ)),
j=0 f

pois µ é f -invariante. Segue-se que dividindo por n e tomando o limite hµ (f, ξ) =
hµ (f −1 , ξ). Tomando o supremo sobre todas as partiçoes ξ obtemos hµ (f ) = hµ (f −1 ).
Trocando f por f k temos, hµ (f −k ) = hµ (f k ) = khµ (f ) para todo k natural.
Teorema 3.1.2. Seja ξ1 ≺ ξ2 ≺ ... ≺ ξn ≺ ... uma sequência não decrescente de partições
com entropia finita tais que ∪n∈N ξn gera a σ-álgebra dos conjuntos mensuráveis. Então
hµ (f ) = lim hµ (f, ξn ).
n→∞

Lema 3.1.9. lim Hµ (η/ξn ) = 0 para qualquer partição finita η.
Demonstração. Seja η = {η1 , ..., ηk }. Dado  > 0, fixe δ como no Lema 3.1.2. Seja A a
álgebra formada pelas uniões ∪n ξn . Por hipótese, A gera a σ-álgebra dos mensuráveis de
M . Portanto, para cada i = 1, ..., k existe Ai tal que
µ(ηi ∆Ai ) < δ/(4k)

(3.12)

Disto, para cada i = 1, ..., k temos,
µ(Ai ∩ ∪j6=i Aj ) ≤ µ(∪kj=1 Aj ∆ηj ) < δ/4,

(3.13)

µ(M \ ∪ki=1 Ai ) = µ(∪ki=1 ηi \Ai ) < δ/4.

(3.14)

e

Agora defina
ηi0 =




Ai
i−1
Ai \ ∪j=1 Aj

M \ ∪k−1
j=1 Aj

se i = 1
se 1 < i < k
se i = k

Temos que η 0 = {η10 , ..., ηk0 } é uma partição de M . Afirmamos que
µ(Ai ∆ηi0 ) < δ/2, ∀i = 1, 2, ..., k.

(3.15)

De fato, vale para i = 1 trivialmente da definição de η10 . Para 1 < i < k temos
que Ai \ηi0 = Ai ∩ ∪j<i Aj e usando 3.13 temos que µ(Ai ∆ηi0 ) < δ/4, já que ηi0 \Ai = ∅.
Finalmente, para i = k temos que ηk0 \Ak está contido no complementar de ∪ki=1 Ai e
usando 3.14 temos µ(ηk0 \Ak ) < δ/4. Segue-se que µ(ηk0 ∆Ak ) < δ/2. Logo,
µ(ηi ∆ηi0 ) ≤ µ(ηi ∆Ai ) + µ(Ai ∆ηi0 ) < δ

(3.16)

para todo i = 1, 2, ..., k. É óbvio que ηi0 ∈ A para todo i. Então, como A é gerada por
∪n ξn , podemos encontrar m tal que todo ηi0 é uma união finita de elementos de ξm . Em
outras palavras, η 0 ≺ ξm . Disto, usando os Lemas 3.1.1, a equação 3.16 e 3.1.2, temos
19

Hµ (η/ξn ) ≤ Hµ (η/ξm ) ≤ Hµ (η/η 0 ) < , ∀m ≥ n.
Isto demonstra o lema.
Vamos demostrar o teorema:
Demonstração. Pelo Lema 3.1.5 temos
hµ (f, η) ≤ hµ (f, ξn ) + Hµ (η/ξn ) ∀n.
Fazendo n → ∞ e tomando o supremo sobre todas as partições η temos acabado o
teorema.
O seguinte corolário é o importante teorema de Kolmogorov-Sinai.
Corolário 3.1.2.1 (Kolmogorov-Sinai). Seja ξ uma partição cujos iterados ξ n geram a
σ-álgebra dos mensuráveis. Então hµ (f ) = hµ (f, ξ).
Demonstração. Basta aplicar o teorema acima para a sequência ξ n , usando que hµ (f, ξ) =
hµ (f, ξ n ).
Analogamente o temos quando f : M → M é inversı́vel. Como o
Corolário 3.1.2.2. Suponha que f : M → M é inversı́vel. Seja ξ uma partição com
entropia finita tal que a ∪n ξ ±n gera a σ-álgebra dos mensuráveis de M. Então, hµ (f ) =
hµ (f, ξ).
Demonstração. A prova é análoga ao corolário anterior, mas usando que hµ (f, ξ ±n ) =
hµ (f, ξ) para todo n ≥ 1.
Corolário 3.1.2.3. Suponha f : M → M inversı́vel e que existe ξ com entropia finita
tal que ∪n∈N ξ n gera a σ-álgebra dos mensuráveis de M . Então, hµ (f ) = 0
Demonstração. De fato, sabemos que hµ (f ) = hµ (f, ξ) = limn Hµ (ξ/f −1 (ξ n )), usando o
Corolário 3.1.2.1 e o Lema 3.1.7. Como ∪n ξ n gera a σ-álgebra B dos mensuráveis de M ,
∪n f −1 (ξ n ) gera a σ-ágebra f −1 (B), e por f ser inversı́vel f −1 (B) = B. Usando o Lema
3.1.9 temos que limn Hµ (ξ/f −1 (ξ n )) = 0. Portanto, hµ (f ) = 0.
Suponha que M é um espaço métrico e esteja munido da σ-álgebra de Borel.
Corolário 3.1.2.4. Seja ξ1 ≺ ξ2 ≺ ... ≺ ξn ... uma sequência não-decrescente de partições
com entropia finita e limn diamξ(x) = 0 para µ-quase todo x ∈ M . Então
hµ (f ) = lim hµ (f, ξn ).
n

Demonstração. Seja U um aberto qualquer de M . A hipótese garate que para cada x
existe n(x) para o qual ξx = ξn(x) (x) está contido em U . Claramente ξx pertence a álgebra
A gerada por ∪n ξn . Observe também que esta álgebra é enumerável, já que ela está
formada pelas uniões finitas de elementos de ξn . Em particular, existe uma quantidade
enumerável de ξx ’s, donde U = ∪x ξx está em A. Isto mostra que a σ-álgebra gerada
por ∪n ξn contém os borelianos. A conclusão, portanto, segue-se aplicando o Teorema
3.1.2.
20

Exemplo 3.1.3. Seja f : [0, 1] → [0, 1] a função dada por f (x) = 10x(mod.1) e ξ como
no exemplo 3.1.1. Vemos que limn→∞ diam(ξ n ) = 0, donde ξ é geradora. Logo, de 3.1.2.4
e de 3.1.2.1 temos que hm (f ) = log 10.
Exemplo 3.1.4. Seja f : S 1 → S 1 um homeomorfismo e µ uma probabilidade invariante
por f . Dada qualquer partição finita ξ de S 1 em subintervalos, denotemos por x1 , ..., xm
os seus pontos extremos. Para qualquer j ≥ 1, a partição f −j (ξ) é formada pelos subintervalos cujos extremos são os pontos f −j (xi ). Isto implica que para cada n ≥ 1, os
elementos de ξ n têm os seus pontos extremos no conjunto
{f −j (xi ); j = 0, 1, ..., n − 1 e i = 1, ..., m}.
Em particular, card(ξ) ≤ mn. Segue-se que
1
1
1
hµ(f, ξ) = lim Hµ (ξ n ) ≤ log card(ξ n ) ≤ log mn = 0.
n
n
n
Disto, hµ (f ) = 0, pois qualquer partição finita está na condições do Corolário 3.1.2.4.
Dizemos que f : M → M é expansiva se existe  > 0(constante de expansividade) tal
que
d(f j (x), f j (y)) ≤ , ∀j ≥ 0 ⇒ x = y.
Equivalentemente, f : M → M é expansiva se existe  > 0 tal que dados x 6= y existe
n ∈ N tal que d(f n (x), f n (y)) ≥ .
Quando a transformação é inversivel existe uma versão análoga, trocando N por Z na
definição anterior.
Proposição 3.1.2. Seja f : M → M expansiva num espaço métrico compacto e  > 0
uma contante de expansividade. Então tem-se limn diam(ξ n ) = 0 para toda partição finita
com diam(ξ) < 
Demonstração. A sequência diam(ξ n ) é não crescente. Seja δ o seu ı́nfimo e suponha que
δ > 0. Então, para todo n ≥ 1 existem pontos xn e yn tais que d(xn , yn ) > δ/2 mas xn e
yn pertencem ao mesmo elemento de ξ n , e portanto satisfazem,
d(f j (xn ), f j (yn )) ≤ diam(ξ) < , ∀j = 0, ..., n − 1.
Por compacidade existe N1 ⊂ N tal que existe limn∈N1 xn = x e N2 ⊂ N1 para o qual existe
limn∈N2 yn = y. Temos, x 6= y mas d(f j (x), f j (y)) <  para todo j ≥ 0, contrariando a
hipótese de expansividade.
A proposição anterior mostra que toda transformação expansiva admite partição geradora.

21

3.2

Decomposição Ergódica

Um sistema (f, µ) é ergódico se todo conjunto f -invariante E, i.e. f −1 (E) = E, satistaz
µ(E)µ(E c ) = 0.
Faça M1 (f ) o conjunto das probabilidades invariantes por f e Me (f ) o conjunto das
probabilidades para as quais (f, µ) é ergódico.
Uma medida ν é absolutamente contı́nua com respeito a µ se µ(E) = 0 implica
ν(E) = 0. Nesse caso, escrevemos ν  µ. Observe que ν  µ e µ  ρ então ν  ρ.
ν e µ são mutuamente singulares quando ν e µ estão suportadas em conjuntos disjuntos.
Proposição 3.2.1. Se µ e ν são probabilidades invariantes por f , com µ ergódica e
ν  µ então ν = µ.
Se ν e µ são ergódicas então ou elas coincidem ou são mutuamente singulares.
Demonstração. Seja ϕ uma função mensurável limitada qualquer. Como µ é invariante
e ergódica com respeito a f temos pelo teorema de Birkhoff que
n−1

1X
ϕ(f j (x))
ϕ̃(x) = lim
n n
j=0
R
é constante em µ quase todo x e ϕ̃(x) = ϕdµ . Como ν  µ temos que a igualdade
anterior vale em ν quase todo x. Em particular,
Z
Z
Z
ϕ̃dν = ϕdν = ϕdµ
(a primeira igualdade decorre do teorema de Birkhoff). Como as intergrais com respeito
a µ e ν são iguais quando ϕ é uma função mensurável qualquer, temos que µ = ν.
Agora suponha que µ e ν são ergódicas para f e que ν não é absolutamente contı́nua
com respeito a µ. Logo, existe um mensurável B com µ(B) = 0 e ν(B) > 0. O conjunto
A = ∪n≥0 f −n (B) é invariante módulo zero (i.e. A = f −1 (A)(mod.0)). É facil ver que,
µ(A) = 0 e ν(A) > 0, por σ-aditividade e porque B ⊂ A, portanto a ergodicidade de
(f, ν) nos diz que ν(A) = 1, donde µ e ν sao mutuamente singulares.
Veja que se µ1 e µ2 são medidas invariantes por f então para qualquer t ∈ [0, 1] temos
que (1 − t)µ1 + tµ2 é invariante por f . Isto significa que o conjunto M1 (f ) é convexo. A
proposição seguinte caracteriza as medidas ergódicas desse convexo; elas são os elementos
extremais do mesmo.
Proposição 3.2.2. Uma probabilidade µ é ergódica para f se, e somente se, não é
possı́vel escrever a mesma como combinação convexa (1 − t)µ1 + tµ2 com t ∈ (0, 1) e µ1
e µ2 distintas.
Demonstração. Se µ não é ergódica, então existe A mensurável f -invariante tal que
0 < µ(A) < 1. Defina µ1 e µ2 as restrições normalizadas de µ a A e a Ac , respectivamente,
µ1 (E) =

µ(A ∩ E)
µ(Ac ∩ E)
e µ2 (E) =
.
µ(A)
µ(Ac )
22

Como A e Ac são invariantes por f , tanto µ1 quanto µ2 sao invariantes por f e se t=µ(A)
então 1 − t = µ(Ac ) e
µ(E) = (1 − t)µ1 (E) + tµ2 (E),
donde se µ não é ergódica então µ não é extremal. Para a recı́proca, suponha que µ
é ergódica e que µ = (1 − t)µ1 + tµ2 com t ∈ (0, 1). É claro que µ(E) = 0 implica
µ1 (E) = 0 = µ2 (E), ou seja, µ1  µ e µ2  µ. Pela Proposição 3.2.1 temos µ = µ1 = µ2
e assim µ é extremal.
O lema a seguir mostra que as probabilidades ergódicas estão suportadas em conjuntos
disjuntos do espaço M .
Lema 3.2.1. Seja I um conjunto enumerável(podendo ser finito), e seja {µi ; i ∈ I} uma
famı́lia de probabilidades com ı́ndices em I todas distintas. Então existem subconjuntos
mensuráveis {Pi ; i ∈ I} dois a dois disjuntos, tais que

1 se i = k
−1
f (Pi ) = Pi e µj (Pk ) =
0 se i 6= k.
Demonstração. Fixe j, k naturais distintos. Pela Proposição 3.2.1, a probabilidade µj
não pode ser absolutamente contı́nua com respeito a µk . Logo, existe um subconjunto
mensurável Aj,k com µj (Aj , k) > 0 e µk (Aj,k ) = 0. Denote por Bj,k = ∪n≥0 f −n (Aj,k ).
Disto, µj (Bj,k ) > 0 pois Aj,k ⊂ Bj,k e µk (Bj,k ) = 0 pois µk é f -invariante. Além disso,
temos f −1 (Bj,k ) ⊂ Bj,k . Denote Cj,k = ∩n≥0 f −n (Bj,k ). De imediato, Cj,k ⊂ f −1 (Cj,k ).
Por outro lado, de f −1 (Bj,k ) ⊂ Bj,k temos f −(n+1) (Bj,k ) ⊂ f −n (Bj,k ) e portanto
\
\
f −1 (Cj,k ) =
f −(n+1) (Bj,k ) ⊂
f −n (Bj,k ) = Cj,k
(3.17)
n≥0

n≥0

Isso mostra que f −1 (Cj,k ) = Cj,k . Desde que a sequência {f −n (Bj,k )}n é decrescente e µj
é uma propabilidade temos que
µj (Cj,k ) = lim µj (f −n (Bj,k )) = µj (Bj,k ) > 0.
n

Logo, por ergodicidade obtemos µ(Cj,k ) = 1. Além disso, µk (Cj,k ) = 0 pois Cj,k ⊂
Bj,k . Agora defina,
\
[
Dj =
Cj,k e Pj = Dj \
Dk .
k6=j

k6=j

−1
c
−1
c
c
j6=k Cj,k ) ≤
P Como fc (Cj,k ) = Cj,k e µj (Cj,k ) = 0 temos f (Dj ) = Dj e µj (Dj ) = µj (∪
−1
(Pj ) = Pj ,
j6=k µ(Cj,k ) = 0, ou seja, µj (Dj ) = 1, ainda µk (Dj ) = 0 para k 6= j. Daı́, f
0
µj (Pj ) = 1 e µk (Pj ) = 0 para j 6= k. Além disso, os Pj s sao dois a dois disjuntos.

No caso de subconjuntos convexos de espaços vetoriais de dimensão finita todo elemento pode ser escrito como combinação convexa dos elementos extremais. Por exemplo,

23

num triângulo ABC todo ponto pode ser escrito como combinação convexa do vértices,
sabemos em particular, que o baricentro G = (A + B + C)/3.
Naturalmente surge a pergunta: Pode toda probabilidade invariante ser escrita como
combinação convexa de probabilidades ergódicas?
O principal teorema desta seção dar uma resposta a essa pergunta, e exceto pelo
número de parcelas a mesma é afirmativa.
Exemplo 3.2.1. Seja f : [0, 1] → [0, 1] dada por f (x) = x2 . As medidas de Dirac no
0 e no 1, δ0 e δ1 , são ergódicas e invariantes. Veja que todo ponto em [0, 1) vai para o
0. Assim, qualquer probabilidade invariante de dar peso total a {0, 1}. Em particular,
µ = µ({0})δ0 + µ1 {1}δ1 . Ou seja, µ é uma combinação convexa (nesse caso finita) de
medidas ergódicas.
Exemplo 3.2.2. Consedere f : T2 → T2 dada por f (x, y) = (x + y, y). Como o determinante de f é identicamente 1, a medida de Lebesgue m é preservada por f . Todo cı́rculo
horizontal Sy1 = S 1 × {y} é invariante por f . Além disso, a restrição f : Sy1 :→ Sy1 é
a rotação Ry . Denote por my a medida de Lebesgue em Sy1 . Observe que my tambem é
invariante por f e é ergódica para y irracional. Por outro lado, o Teorema de Fubini nos
diz que
Z
m(E) = my (E)dy
para todo mensurável E. Como os racionais tem medida de Lebesgue nula, a igualdade anterior não é afetada restringindo a integral ao conjunto dos números irracionais. Assim,
a igualdade anterior nos dá m como combinação convexa (nesse caso não-enumerável)
de medidas ergódicas.
Fixemos (M, B, µ) um espaço de probabilidade e ξ uma partição mensurável de M
em conjuntos mensuráveis. Denotaremos por π : M → ξ a projeção natural que associa a
cada elemento x ∈ M o elemento ξ(x) da partição ξ que o contém. Essa projeção permite
munir ξ de uma estrutura de espaço de probabilidade da seguinte forma. Primeiramente,
diremos que um conjunto C de ξ é mensurável se, e somente, π −1 (C) ∈ B. A coleção B̂
de tais C de fato é uma σ-álgebra como se pode ver facilmente. Em seguida definimos a
medida quociente por
µ̂(C) = µ(π −1 (C))
para cada C ∈ B̂.
Teorema 3.2.1 (Decomposição Ergódica). Considere M um espaço métrico completo e
separável, f : M → M uma transformação mensurável e µ uma probabilidade invariante.
Então, existe um conjunto mensurável M0 ⊂ M com µ(M0 ) = 1, uma partição ξ de
M0 em subconjuntos mensuráveis e uma famı́lia de probabilidades {µP ; P ∈ ξ} em M ,
satisfazendo
(a) µP (P ) = 1 para µ̂-quase todo P ∈ ξ;
(b) A aplicação P 7→ µP (E) é mensurável para todo E ∈ B;
(c) µP é invariante e ergódica para µ̂-quase todo P ∈ ξ;
R
(d) µ(E) = µP (E)dµ̂(P ) para todo E ∈ B.
24

3.3

Semicontinuidade da Entropia

Vamos analisar a função hf : M1 (f ) → R∗ definida por hf (µ) = hµ (f ). Nosso primeiro
exemplo mostrará que essa função nem sempre é contı́nua. Nesta seção mostraremos,
no entanto, que em um amplo contexto, a mesma é semicontı́nua superiormente: Dado
 > 0 hf (ν) < hf (µ) + , i.e., hν (f ) < hµ (f ) +  para toda ν suficientemente próxima de
µ na topologia fraca∗ .
O exemplo seguinte vem nos mostrar que nem sempre a aplicação hf é contı́nua.
Exemplo 3.3.1. Seja f : [0, 1] → [0, 1] dada por f (x) = 10x(mod.1). A entropia de
f com respeito a medida de de Lebesgue m é hm (f ) = log 10. Para cada k ≥ 1 seja
Fk o conjunto dos pontos fixos do iterado f k . Observe que Fk é um conjunto invariante
com card(Fk ) = 10k , e que estes pontos estão equidistribuı́dos no seguinte sentido: cada
intervalo Ai,k = [(i − 1)/10k , i/10k ], 1 ≤ i ≤ 10k − 1 contém exatamente um ponto de Fk .
Considere a sequência de medidas
µk =

1 X
δx .
10k x∈F
k

A coleção dos conjuntos Ai,k geram os boreliano de [0, 1] e são conjuntos de continuidade
para a medida de Lebesgue, i.e., m(∂Ai,k ) = 0. Segue-se que para mostrar que µk → m é
suficiente mostrar que
lim µn (Ai,k ) = m(Ai,k ).
n→∞

Para isso, note que µn (Ai,k ) =

1 X
δx (Ai,k ), e como o número de pontos periódicos
10n x∈F
n

de perı́odo n > k em Ai,k é 10n−k (de fato, escolher um número em Ai,k de perı́odo n
significa escolher n−k dı́gitos de 0 a 9, uma vez que os k primeiros ja estão determinados)
temos
1
10n−k = 10−k = m(Ai,k ).
10n
Isto mostra que µn → m. Porém, hµn (f ) = 0 e hm (f ) = log 10.
µn (Ai,k ) =

O exemplo acima mostra que a função hf não varia continuamente.
Considere qualquer partição finita ξ de M cujo bordo
[
∂ξ =
∂C
C∈ξ

satisfaz µ(∂ξ) = 0. A função ν 7→ ν(C) é contı́nua no ponto µ uma vez que C é conjunto
de continuidade para µ, para todo C ∈ ξ. Portanto, a função
X
ν 7→ Hν (ξ) =
−ν(C) log ν(C)
C∈ξ

25

também é contı́nua em µ. A hipótese sobre ξ também implica que µ(ξ n ) = 0 para todo
n ≥ 1 uma vez que
n−1
[
∂ξ n ⊂
f −j (∂ξ).
j=0

Segue-se que a função ν 7→ Hν (ξ n ) é contı́nua para todo n.
Proposição 3.3.1. Seja ξ uma partição finita tal que µ(∂ξ) = 0, A função ν 7→ hν (f, ξ)
é semicontinua superiormente em µ.
Demonstração. De fato, por definição
hν (f, ξ) = inf Hν (ξ n )
n

e o infimo de uma famı́lia de funções contı́nuas é semicontı́nua superiormente.
Corolário 3.3.0.1. Suponha que existe uma partição ξ tal que µ(∂ξ) = 0 e ∪n ξ n gera a
σ-álgebra dos mensuráveis de M . A função µ 7→ hµ (f ) é semicontı́nua superiormente.
Demonstração. Pelo Corolário 3.3.0.1, dado  > 0 existe uma vizinhança U de µ na
topologia fraca? tal que hν (f, ξ) < hµ (f, ξ) +  para toda ν em U . Temos da definiçao
que hµ (f, ξ) ≤ hµ (f ). Por ser geradora 3.1.2.1 nos diz que hν (f, ξ) = hν (f ), qualquer que
seja ν. Portanto, hν (f ) ≤ hµ (f ) + . Isso termina a prova do corolário.
Suponhamos agora que M é um espaço métrico compacto e µ uma probabilidade
boreliana em M . Nesse caso temos versão mais especializada do corolário anterior
Corolário 3.3.0.2. Suponha que existe  > 0 tal que toda partição finita ξ com diamξ < 
satisfaz limn diamξ n = 0. Então, a função ν 7→ hν (f ) semicontı́nua superiormente.
Consequentemente, essa função é limitada e o seu supremo é atingido por alguma medida
µ.
Demonstração. Sabemos que limn diamξ n = 0 implica que ∪n ξ n gera a σ-álgebra dos
mensuráveis de M . Dado qualquer medida µ, escolha rx ∈ (0, ) tal que µ(∂B(x, rx )) = 0.
Seja U uma cobertura finita de M por tais bolas; tome para ξ a partição associada a
U, i.e., a partição cujos elementos são os conjuntos maximais para U que, para cada
U ∈ U estao contidos em U ou U c . Segue do corolário anterior que a função entropia é
semicontı́nua superiormente em µ. Como µ é arbitraria a prova está concluı́da. As demais
afirmações decorrem do fato de M1 (M ), das probabilidades invariantes, ser compacto e
a função entropia ser semicontı́nua superiormente.
Proposição 3.3.2. Seja f : M → M uma transformação expansiva de um espaço
métrico compacto e seja  > 0 uma constante de expansividade de f . Então,
lim diam(ξ n ) = 0
n

para toda partição finita ξ com diam(ξ) < .

26

Demonstração. A sequência diam(ξ n ) é não-crescente. Seja δ o ı́nfimo de da mesma e
suponha que δ > 0. Então, para todo n ≥ 1 existem pontos xn e yn com d(xn , yn ) > δ/2
mas xn e yn estão no mesmo elemento de ξ n e portanto satisfazem
d(f j (xn ), f j (yn )) ≤ diam(ξ) < 
para todo 0 ≤ j < n. Por compacidade, existe (nj )j sequência de naturais com nj → ∞
tal que x = limj xnj e y = limj ynj . Então, x 6= y mas d(f j (x), f j (y)) < , contradizendo
o fato de  ser constante de expansividade de f . Isto mostra que δ = 0 e portanto,
limn diam(ξ n ) = 0
Para encerrar essa seção definiremos, a entropia topológica de f como sendo o número
h(f ) = sup{hµ (f ); µ ∈ M1 (f )}, o qual está bem definido sempre que f é continua e f
está definida num compacto.

27

Capı́tulo 4
Desigualdade de Ruelle
Vamos neste capı́tulo abordar uma importante estimativa superior para entropia que
ajuda, por exemplo, no estudo de medidas maximais para uma dada f de classe C 1
definida sobre uma variedade M compacta C ∞ .
Teorema 4.0.1. Sejam M e f nas condições acima. Para qualquer probabilidade invariante boreliana µ temos
Z X
hµ (f ) ≤
λi (x)mi (x)dµ(x)
i:λi (x)>0

Se o sistema (f, µ) é ergódico, então os expoentes de Lyapunov são constantes µ-q.t.p.
e assima desigualdade de Ruelle se reduz a
X
λi mi
(4.1)
hµ (f ) ≤
i;λ> 0

4.1

Teorema de Oseledets

O Teorema Ergódico de Birkhoff diz que se ϕ é uma função mensurável e µ é uma
probabilidade invariante por uma transformação mensurável f : M → M de tal modo
que ϕ ∈ L1 (µ) então o limite
n−1

1X
ϕ̃(x) = lim
ϕ(f j (x)),
n→∞ n
j=0

(4.2)

existe para quase todo x ∈ M .
Exemplo 4.1.1. Considere f : R → R de classe C 1 , φ : R → R uma função mensurável,
µ uma medida f -invariante, sabemos pelo teorema ergódico de Birkhoff que
n−1

1X
lim
φ(f i (x))
n→∞ n
i=0
28

existe num conjunto de medida total. Tomando em particular, φ = log |f 0 | temos
n−1

1X
lim
φ(f i (x)) =
n→∞ n
i=0

n−1

1X
lim
log |f 0 (f i (x))|
n→∞ n
i=0

n−1
Y
1
|f 0 (f i (x))|)
= lim log(
n→∞ n
i=0

(4.3)

e pela regra da cadeia, a última expressão vale
lim

1
log |(f n )0 (x)|.
n

Isto nos dá uma parte do Teorema de Oseledets em dimensão 1, uma vez que o limite
anterior existe µ-q.t.p.
O exemplo acima nos permite estudar o comportamente assintótico de (f n )0 , e portanto de f n ; quando n é suficientemente grande temos |(f n )0 (x)| ≈ exp(nϕ̃(x)).
Definição 4.1.1. Uma sequência de funções {φn }n , com φn : M → R é subaditiva para
uma transformação mensurável f : M → M quando
φm+n ≤ φm + φn ◦ f m , ∀n, m ≥ 1.

(4.4)

Exemplo 4.1.2. Seja A : M → GL(d) uma função mensurável, com valores no conjunto GL(d) das matrizes quadradas inversı́veis com entradas reais e dimensao d. Defina
φ(x) = A(x) e φn (x) = A(f n−1 (x))...A(f (x))A(x) para todo n ≥ 1 e x ∈ M . Então a
sequência {ϕn }, onde ϕn (x) = log k φn (x) k é subaditiva. De fato,
φm+n (x) = φn (f m (x)) + φn (x).
Logo,
ϕm+n (x) = log kφn (f m (x))φn (x)k
≤ log kφn (f m (x))k + log kφn (x)k
= ϕn (f m (x)) + ϕm (x),

(4.5)

para quaisquer m, n ∈ N e x ∈ M .
Dada uma função ϕ : M → R denotamos ϕ+ (x) = max{0, ϕ(x)}. O teorema a seguir
é equivalente a Birkhoff e para uma demonstração o leitor pode consultar [O-V].
Teorema 4.1.1 (Kingman). Sejam µ uma probabilidade invariante para uma transformação f : M → M e ϕn : M → R uma sequência subaditiva de funções mensuráveis,
1
tal que ϕ+
1 ∈ L (µ). Então, a sequência {ϕn /n}n converge em µ-q.t.p. x ∈ M para uma
função mensurável ϕ : M → [−∞, ∞). Além disso, ϕ+ ∈ L1 (µ) e
Z
Z
Z
1
1
ϕdµ = lim
ϕn dµ = inf
ϕn dµ ∈ [−∞, ∞).
n n
n n
29

Exemplo 4.1.3 (Furstenberg-Kesten). Seja M um espaço mensurável, f : M → M
transformação mensurável e T : M → Mm×m (R) mensurável tal que log+ kT (.)k ∈
L1 (µ). Escreva Txn = T (f n−1 (x))...T (f (x))T (x). Então existe uma função mensurável
λ : M → R ∪ {−∞} tal que
1
λ(x) = lim log kTxn k
n→∞ n
existe em µ quase todo ponto. Além disso, λ ∈ L1 (µ) e
Z
Z
Z
1
n
λdµ = lim
log kTx kdµ = inf log kTxn kdµ.
n→∞ n
n
A demonstração desses fatos se gue-se diretamente do Teorema de Kingman, e do
exemplo 4.1.2
Proposição 4.1.1. Seja {Tn }n∈N uma sequência de matrizes m × m com entradas em R
tais que
lim sup
n→∞

1
log kTn k ≤ 0,
n

(4.6)

escrevemos
T n = Tn ...T2 T1
e assumimos que os limites
1
log k(T n )∧k k
n→∞ n
lim

(4.7)

existem para k = 1, ..., m. Então
(a) limn→∞ (T n∗ T n )1/2n = Λ existe, onde T ∗ denota a transposta de T .
(b) Sejam exp(λ(1) ) < ... < exp(λ(s) ) os autovalores de Λ (λ(r) são reais, e possivelmente
λ(1) = −∞), e U (1) ,..., U (s) os autoespaços correspondentes. Escrevendo V (0) = {0}
e V (r) = U (1) + ... + U (r) , temos:
1
log kT n uk = λ(r) , quando u ∈ V (r) \V (r−1)
n→∞ n
lim

para r = 1, 2, ..., s.
Uma demonstração da Proposição acima pode ser encontrada em [R2].
Teorema 4.1.2 (Teorema Ergódico Multiplicativo de Oseledets). Considere f : M → M
e µ uma probabilidade f -invariante. Seja T : M → Mm×m (R) um função mensurável tal
que
log+ kT (·)k ∈ L1 (µ)
(4.8)
Escrevemos Txn = T (f n−1 (x))...T (f (x))T (x). Usamos T ∗ para significar a transposta de
T.
Existe Γ ⊂ M tal que f (Γ) ⊂ Γ, µ(Γ) = 1 e as seguintes propriedades ocorrem se
x ∈ Γ:
30

(a) lim(Txn∗ Txn )1/2n = Λx existe.
(1)

(s)

(s)

(b) Sejam exp(λx ) < ... < exp(λx ) os autovalores de Λx ( onde s = s(x), os λx
(1)
(1)
(s)
são reais, e possivelmente λx = −∞), e Ux ,...,Ux os autoespaços correspon(r)
(r)
(r)
(r)
dentes. Faça mx = dim Ux . As funções x 7→ λx , x 7→ mx são f -invariantes.
(0)
(r)
(1)
(r)
Escrevendo Vx = {0} e Vx = Ux + ... + Ux , temos:
1
log kTxn uk = λx(r)
n→∞ n
lim

(r)

(r−1)

sempre que u ∈ Vx \Vx

, para r = 1, ..., s.

Vamos mostrar que
lim
n

1
log+ kT (f n−1 (x))k = 0,
n

para quase todo x ∈ M .
Lema 4.1.1. Se ϕ é uma função integrável então limn n−1 ϕ(f n−1 (x)) = 0 para µ quase
todo x ∈ M .
Demonstração. Pelo Teorema Ergódico de Birkhoff, existe um conjunto B = B(ϕ), invariante por f , de medida um para qualquer medida invariante por f tal que
n−1

1X
Sn (x) =
ϕ(f i (x))
n i=0
converge para todo x ∈ B. Temos que
1
n−1
ϕ(f n−1 (x)) = Sn (x) −
Sn−1 (x).
n
n
Segue-se que limn→∞ ϕ(f n−1 (x)) = 0.
Do Lema 4.11, para ϕ(·) = log kT (·)k, que existe Γ1 tal que f (Γ1 ) ⊂ Γ1 , µ(Γ1 ) = 1, e
1
log+ kT (f n−1 (x))k = 0 se x ∈ Γ1 .
n→∞ n
lim

Pelo exemplo 4.1.3, existe ainda Γ2 tal que f (Γ2 ) ⊂ Γ2 , µ(Γ2 ) = 1, e, para q = 1, 2, ..., m
1
log k(Txn )∧q k
n→∞ n
existe, e é uma função f invariante de x.
Tome Γ = Γ1 ∩ Γ2 . O teorema segue-se da Proposição 4.1.1 aplicada à sequência
Tn = T (f n−1 (x)) para x ∈ Γ.
lim

31

Corolário 4.1.2.1. Seja x ∈ Tx M , u ∈ Tx M ; temos
1
log kTxn uk = χ(x, u)
n→∞ n
existe, finito ou −∞. Se λ ∈ R, os espaços lineares
lim

(4.9)

Vxλ = {u ∈ Tx M ; χ(x, u) ≤ λ}
é uma função mensurável de x ∈ Γ.
(r)

Isto é uma consequência imediata do Teorema anterior. Nós temos χ(x, u) = λx se
(r)
(r−1)
(r)
(r)
u ∈ Vx \Vx
, e Vxλ = ∪{Vx ; λx ≤ λ}.
Observação 4.1.1. 4.9 implica que
χ(f (x), T (x)u) = χ(x, u).
De fato, observe que Tfn(x) = T (f n (x))...T (f 2 (x))T (f (x)), donde Tfn(x) T (x)u = Txn+1 u.
(r)

Em particular, temos T (x)Vxλ ⊂ Vfλ(x) , T (x)Vx
(r)

inversı́vel e portanto, T (x)Vxλ = Vfλ(x) , T (x)Vx

4.1.1

(r)

(1)

⊂ Vf (x) . Se λx 6= −∞, temos T (x)
(r)

= Vf (x) .

Espectro

Fixado (M.B, µ) um espaço de medida e f : M → M uma aplicação mensurável µ
preservando µ. Seja T : M → Mm (R) uma aplicação mensurável tal que
log+ T (·) ∈ L1 (M, µ).
Como na seção anterior, escrevemos Txn = T (f n−1 (x))...T (f (x))T (x). Pelas observações
(1)
(s)
(1)
(s)
anteriores podemos definir Λx ; s = s(x); λx < ... < λx = χ(x); Ux ,...,Ux ; {0} =
(0)
(1)
(s)
Vx ⊂ Vx ⊂ ... ⊂ Vx = Tx M , e as funções u 7→ χ(x, u) e λ 7→ Vxλ .
(r)
(r)
(r)
(r−1)
(r)
Faça mx = dim Ux = dim Vx − dim Vx
. Os números λx são os expoentes
(r)
de Lyapunov com multiplicadade mx , eles constituem o espectro de (f, T ). Diremos
(1)
(2)
(s)
que Vx ⊂ Vx ⊂ ... ⊂ Vx é a filtração associada de Tx M . Note que o espectro é
f -invariante e portante se (f, µ) é ergódico o espectro constante em µ quase todo ponto.
Espectro de (f, T ∧ )
Considere T ∧p : M → M(m) (R) a p-ésima potência exterior de T . Temos:
p

(T ∧p )nx (u1 ∧ ... ∧ up ) =
=
=
=
=
=

T ∧p (f n−1 (x))...T ∧p (x)(u1 ∧ ... ∧ up )
T ∧p (f n−1 (x))...T ∧p (f (x))(T (x)u1 ∧ ... ∧ T (x)up )
T ∧p (f n−1 (x))...(T (f (x)T (x)u1 ∧ ... ∧ T (f (x))T (x)up )
...
T (f n−1 (x))...T (x)u1 ∧ ... ∧ T (f n−1 (x))...T (x)up
(Txn )∧p (u1 ∧ ... ∧ up )
(4.10)
32

Segue-se que
(T ∧p )nx = (Txn )∧p .
∧p
Veja que se An é uma sequência de matrizes com An → A então A∧p
n → A . É fácil ver
que (Txn )∧p∗ (Txn )∧p = ((Txn )∗ Txn )∧p . Destas considerações temos que:

lim ((Txn )∧p∗ (Txn )∧p )1/2n = Λ∧p
x .

n→∞

Isto determina o espectro de T ∧p e a filtração associada de (Tx M )∧p . Escrevendo
∧p
, obtemos em particular que
T ∧ = ⊕m
p=0 T
X
1
(r)
m(r)
log k(Txn )∧ k =
x λx .
n→∞ n
(r)
lim

(4.11)

r:λx >0

e por convergência domimada
Z
Z
1
n ∧
lim
log k(Tx ) k =
n→∞ n

X

mx(r) λ(r)
x dµ(x).

(4.12)

(r)
r:λx >0

Espectro de (f −1 , T ∗ )
Suponha agora f inversı́vel, com inversa mensurável, vejamos quem é o espectro de
(f −1 , T ∗ ). Faça Λ̂x = limn→∞ (T̂xn∗ T̂xn )1/2n , onde T̂xn = T ∗ (f −n+1 (x))...T ∗ (f −1 (x))T ∗ (x).
Desde que o espectro de Λ̂x é f -invariante ele também é o espectro de limn→∞ (Ťxn∗ Ťxn )1/2n
para quase todo x ∈ M , onde
Ťxn = T ∗ (x)T ∗ (f (x))...T ∗ (f n−1 (x)) = T̂fnn−1 (x) .
Por outro lado, o espectro de Ťxn∗ Ťxn é o mesmo de Ťxn Ťxn∗ = Txn∗ Txn . Portanto o
espectro de Λ̂x é o mesmo de Λx .
Espectro de (f, (T ∗ )−1 )
Suponha que T é inversı́vel em µ-quase todo ponto e que
log+ kT −1 (·)k ∈ L1 (M, µ).
e x = limn→∞ (Texn∗ Texn )1/2n , onde
Defina Λ
Texn = (T ∗ )−1 (f n−1 (x))...(T ∗ )−1 (f (x))(T ∗ )−1 (x).
e −1 = Λx , já que (Ten∗ Ten )−1 = T n∗ T n . Segue-se que o espectro de (f, (T ∗ )−1 )
Note que Λ
x
x
x
x
x
ex(r) = −λ(s−r+1)
é obtido mudando o sinal do espectro de (f, T ): λ
. A filtração de Tx M
x
(r)
(s−r)⊥
∗ −1
associada com (f, (T ) ) é a ortogonal da filtração associada a (f, T ): Vex = Vx
.

33

O caso inversı́vel
Agora suponhamos f : M → M inversı́vel com inversa mensurável preservando µ.
Teorema 4.1.3. Seja T : M → GLm (R) uma função mensurável no conjunto das matrizes inversiveis m × m., tal que
log+ kT (·)k, log+ kT −1 (·)k ∈ L1 (M, µ).
Escreva:
Txn = T (f n−1 (x))...T (f (x))T (x)
Tx−n = T −1 (f −n (x))...T −1 (f −2 (x))T −1 (x).
Então, existe ∆ ⊂ M tal que f (∆) = ∆, µ(∆) = 1, e uma decomposição mensurável
(1)
(s)
x 7→ Wx ⊕ ... ⊕ Wx de Tx M sobre ∆ (com s = s(x)), tal que
1
(r)
log kTxk uk = λ(r)
x , se u ∈ Wx \{0}.
n→±∞ k
lim

(1)

(s)

(1)

(s)

Novamente os números λx < ... < λx com multiplicidades mx ,...,mx constituem
(1)
(s)
o espectro de (f, T ) em x. Seja Vx ⊂ ... ⊂ Vx a filtração associada de Tx M . Dos
comentários anteriores, sabemos que o espectro de (f −1 , T −1 ◦ f −1 ) em x consiste dos
(1)
(s)
(1)
números −λsx < ... < −λx com multiplicidades mx , ..., mx . Faça:
Vx−s ⊂ ... ⊂ Vx−1
a filtração associada. Suponha que
Vx(r−1) ∩ V (−r) = {0}

(4.13)

Vx(r−1) + V (−r) = Tx M

(4.14)

e
par r = 2, 3, ..., s. Então, pondo
Wx(r) = V (r) ∩ Vx(−r)
obtemos:
Tx M = Vx(−1) ∩ (Vx(1) + Vx(−2) ) ∩ (Vx(2) + Vx(−3) ) ∩ ... ∩ Vx(s)
= Wx(1) ⊕ Wx(2) ⊕ ... ⊕ Wx(s)
e o teorema ocorre. Resta-nos mostrar que valem 4.13 e 4.14. Defina S como o conjunto
dos pontos x tal que 4.13 não ocorre. Dado δ > 0 e 2 ≤ r ≤ s, seja Sn o subconjutnto de
S tal que se x ∈ Sn ,
kTxn uk ≤ kuk exp n(λx(r−1) + δ)
(4.15)
e
34

kTx−n uk ≤ kuk exp n(−λ(−r)
+ δ)
x
(r−1)

para todo u ∈ Vx

(−r)

∩ Vx

(4.16)

. De 4.16, se x ∈ f −n (Sn ),
kTxn uk ≥ kuk exp n(λ(r)
x − δ)

(r−1)

(4.17)

(−r)

(r)

(r−1)

para todo u ∈ Vx
∩Vx . Para x ∈ Sn ∩f −n (Sn ), 4.15 e 4.17 nos dá λx −λx
≤ 2δ.
(r)
(r−1)
−n
Como µ(Sn ∩ f (Sn )) → µ(S) nós temos que λx − λx
≤ 2δ para quase todo x ∈ S
e, desde que δ é arbitrário, nós obtemos que µ(S) = 0. Assim, 4.13 está provado. 4.14
segue-se porque
dim Vx(r−1) + dim Vx(−r) = m.
(r)

(r)

De agora em diante escreveremos λr (x) e mr (x) para λx e mx respectivamente.

4.2

Demonstração do Teorema 4.0.1

Sejam 0 ≤ χ1 (A)2 ≤ χ2 (A) ≤ ... ≤ χm (A)2 os autovalores de uma matriz A∗ A de ordem
m. Um fato de álgebra linear que será usado é o
Lema 4.2.1. Suponha que X e Y são dois espaços vetoriais de dimensão m e A : X → Y
uma aplicação linear. Seja b uma constante positiva. Existe uma constante C = C(m, b),
tal que para qualquer r > 0,
Vol(Vbr (A(B(0, r)))) ≤ Cr

m

m
Y

max{χi (A), 1}

i=1

Além disso, se g é uma aplicação C 1 a continuidade da aplicação x 7→ Dg(x)∗ Dg(x)
garante a existência de um 1 > 0 tal que se d(x, y) < 1 então
1
2
onde estamos usando a dependência contı́nua dos autovalores.
De 4.18 temos
2
max{1, χi (Dg(x))}
3
≤
≤ , 1 ≤ i ≤ m.
3
max{1, χi (Dg(y))}
2
|χi (D(g(x))) − χ(Dg(y))| ≤

(4.18)

(4.19)

m
De fato, sejam {ai }m
i=1 e {bi }i=1 sequências de números reais tais que

|ai − bi | ≤

1
∀i = 1, ..., m
2

35

(4.20)

Veja inicialmente que max{1, ai } ≥ 1 e max{1, bi } ≥ 1, logo
0 ≥
≥
=
=
≥
≥

ai − bi + |ai − bi | − 1
ai − bi + |1 − ai | − |1 − bi | − 1
1 + ai + |1 − ai | − (1 + bi + |1 − bi |) − 1
2 max{1, ai } − 2 max{1, bi } − 1
2 max{1, ai } − 2 max{1, bi } − max{1, bi }
2 max{1, ai } − 3 max{1, bi },

(4.21)

isto mostra 4.19 completamente devido à simetria ao substituirmos ai = χi (Dg(x)) e
bi = χi (Dg(y)).
Fixe n ≥ 1. Da compacidade de M e por f n ser C 1 que existe 2 tal que f n (B(x, 2 )) ⊂
B(f n (x), ρ0 /2) para todo x ∈ M . Tome 0 como em 5.3, para g = f n , onde ρ0 é o raio
de injetividade da aplicação exponencial. Considere  > 0 menor que os números i ,
i = 0, 1, 2 e menor que ρ0 /4.
Para cada k ∈ N, seja Ek um conjunto maximal /k separado de M . Definimos uma
partição finita ξk = {ξk (x); x ∈ Ek } de M tal que ξk (x) ⊂ Int(ξk (x)) e
Int(ξk (x)) = {y ∈ M ; d(y, x) < d(y, x0 ) se x 6= x0 ∈ Ek }
para todo x ∈ Ek . Quando y ∈ ξk (x) então d(y, x) < /k, pois se d(y, x) > /k
então para x0 6= x d(y, x0 ) ≥ d(y, x) > /k, donde {y} ∪ Ek é /k separado, donde
Ek não é maximal. Isto mostra que para todo x ∈ Ek , ξk (x) ⊂ B(x; /k) e portanto,
diam(ξk ) ≤ 2/k. Pela Fórmula de Abramov e por 3.1.2.4 temos
nhµ (f ) = hµ (f n ) = lim hµ (f n , ξk ).
k→∞

(4.22)

Veja que

hµ (f, ξ) =
=
=
≤
≤
=

1
Hµ (f −n+1 (ξ) ∨ ... ∨ f −1 (ξ) ∨ ξ)
n→∞ n
1
lim [Hµ (f −n+1 (ξ) ∨ ... ∨ f −1 (ξ)|ξ) + Hµ (ξ)]
n→∞ n
1
lim [Hµ (f −n+1 (ξ) ∨ ... ∨ f −2 (ξ)|f −1 (ξ) ∨ ξ) + Hµ (f −1 (ξ)|ξ)]
n→∞ n
1
lim [Hµ (f −n+1 (ξ) ∨ ... ∨ f −2 (ξ)|f −1 (ξ)) + Hµ (f −1 (ξ)|ξ)]
n→∞ n
n−1
1 X
lim [
Hµ (f −i (ξ)|f −i+1 (ξ))]
n→∞ n
i=1
lim

lim

n→∞

n−1
Hµ (f −1 (ξ)|ξ),
n

ou seja,

36

(4.23)

hµ (f, ξ) ≤ Hµ (f −1 (ξ)|ξ).

(4.24)

Aplicando 4.24 à f n e à ξk temos
hµ (f n , ξk ) ≤ Hµ (f −n (ξk )|ξk )
X
=
µ(ξk )Hµ (f −n (ξk )|ξk (x))
x∈Ek

≤

X

µ(ξk (x)) log Kn (x),

(4.25)

x∈Ek

onde
Kn (x) = #{x0 ∈ Ek ; f −n (ξk (x0 )) ∩ ξk (x) 6= ∅}
= #{x0 ∈ Ek ; ξk (x0 ) ∩ f n (ξk (x)) 6= ∅}.

(4.26)

Disto, vemos ser importante estimarmos o número de elementos x0 ∈ Ek para os quais
ξk (x0 ) intersectam um dado conjunto da forma f n (ξk (x)). Portanto, estimaremos Kn (x).
Seja b = b(ρ0 ) ≥ 1 como no Lema 5.1.2. Denotemos por Vδ (F ) = {y : d(y, F ) < δ} a
vizinhança de raio δ em torno de F .
Lema 4.2.2. Denotando B(0, /k) a bola centrada na origem de Tx M e raio /k e δ = /k
temos:
f n (ξk (x)) ⊂ f n (expx (B(0, δ))) ⊂ expf n (x) Vbδ (Df n (x)B(0, δ))
Demonstração. Denotando BM (x, δ) a bola com centro x e raio δ. Tem-se expx (B(0, δ)) =
BM (x, δ). Segue-se disto a primeira inclusão, já que ξk (x) ⊂ BM (x, δ).
n
Para a outra inclusão, tome v ∈ exp−1
f n (x) f (exp(B(0, δ))). Queremos mostrar que
|v − Df n (x)w| ≤ bδ
para algum w ∈ B(0, δ). Existe y = f n (z) com z ∈ expx (B(0, δ)) tal que v = exp−1
f n (x) (y).
n
Usando 5.3 para g = f e chamando z = expx (w), temos d(x, z) = |w| ≤ /k, donde
f n (z) ∈ B(f n (x), ρ/2). Além disso, (lembre-se que y = f n (z))
d(f n (x), expf n (x) Df n (x) exp−1
x (z)) ≤
≤
≤
≤
<

d(f n (x), y) + d(y, expf n (x) Df n (x) exp−1
x (z))
ρ/2 + d(x, z)
ρ0 /2 + |w|
ρ0 /2 + /k
ρ0
(4.27)

Segue-se que podemos usar 5.1.2. Note que

37

−1
n
−1
|v − Df n (x)w| = | exp−1
f n (x) (y) − expf ( x) (expf n (x) Df (x) expx (z))|

≤ bd(y, expf n (x) Df n (x) exp−1
x (z))
≤ bd(x, z)
≤ bδ

(4.28)

como querı́amos demonstrar.
Se
ξk (x0 )

\

f n (ξk (x)) 6= ∅

para algum x0 ∈ Ek então

  
\

n
0 
expf n (x) Vδe Df (x)B 0,
6= ∅,
B x,
2k
k
T
onde δe = ((2b+1)/2)/k. Com efeito, Se y ∈ ξk (x0 ) f n (ξk (x)) então d(y, B(x0 , /(2k))) <
/(2k). Assim, aumentando a vizinhança de raio δ em /(2k), temos o desejado.
Chamemos eb = (2b + 1)/2 > b. Temos que
!



  
eb−1 
−1
−1
0
0 
n
B expf n (x) (x ),
⊂ expf n (x) B x ,
⊂ V2δe Df (x)B 0,
.
2k
2k
k


b−1 
0 e
De fato, se v ∈ B exp−1
(x
),
, então existe z ∈ M tal que v = exp−1
f n (x)
f n (x) (z).
2k
Observe que d(x0 , f n (x)) ≤ d(y, x0 ) + d(y, f n (x)), para algum y ∈ ξk (x0 ) ∩ f n (ξk (x)).
Logo, y = f n (y 0 ) com y 0 ∈ ξk (x), i.e., d(f n (y 0 ), f n (x)) ≤ ρ0 /2 e então d(x0 , f n (x)) ≤
/k + ρ0 /2 < ρ0 . Além disso,
d(z, f n (x)) = |v|
−1
0
0
≤ |v − exp−1
f n (x) x | + | expf n (x) x |
< eb−1 /(2k) + d(x0 , f n (x))
< eb−1 /(2k) + /k + ρ0 /2
< ρ0 .

(4.29)

Portanto, podemos usar 5.1.2
eb−1 d(z, x0 ) ≤ b−1 d(z, x0 ) ≤ | exp−1n (z) − exp−1n (x0 )| ≤ b−1  ≤ eb  .
f (x)
f (x)
2k
2k
−1
0 
0 
ou seja, z ∈ B(x , 2k ) e portanto v ∈ expf n (x) B(x , 2k )

 
Para a outra continência, tome y ∈ B x0 ,
∩ expf n (x) Vδe(Df n (x)B(0, /k)). Note
2k
0
0
que se v ∈ exp−1
f n (x) (B(x , /(2k))) então expf n (x) (v) ∈ B(x , /(2k)). Se

 
 \
y ∈ B x0 ,
expf n (x) Vδe(Df n (x)B 0,
)
2k
k
38

então d(expf n (x) (v), y) ≤ /k e assim | exp−1
f n (x) (y) − v| ≤ b/k. Como
d(y, expf n (x) (Df n (x)B(0, /k))) ≤ eb/k
temos que
d(v, Vδe(Df n (x)B(0, /k))) ≤ 2eb/k.
Aqui usamos que expp (Vδ (A)) = Vδ (expp (A)), onde A ⊂ Tp M .
Desde que B(x0 , /(2k)), x0 ∈ Ek sao disjuntas (pois Ek é /k separado), temos que
0 e−1
0
B(exp−1
f n (x) (x ), b /k), x ∈ Ek também são disjuntas. Segue-se que
0 e−1
0
n
Kn (x) ≤ #{B(exp−1
f n (x) (x ), b /(2k)); x ∈ Ek e ξk (x ) ∩ f (ξk (x)) 6= ∅}
0
0
e
≤ Vol(V2δe(Df n (x)B(0, /k)))/ min{Vol(B(exp−1
f n (x) (x ), /(2bk))); x ∈ Ek }.

Sabemos do Lema 4.2.1 que
Vol(V2δe(Df n (x)B(0, /k))) ≤ C1

m
  m Y

k

max{1, χi (Df n (x))}.

i=1

0
e
O volume de uma bola B(exp−1
f n (x) (x ), /(2bk)) é da forma C2

  m

k
somente de m e de 2eb. Portanto, para C = C(m, 2eb) = C1 /C2 temos,
Kn (x) ≤ C

m
Y

, onde C2 depende

max{χi (Df n (x)), 1}

i=1

Observe que log+ χi (Df n (x)) = max{0, log χi (Df n (x))} = log max{1, χi (Df n (x))}.
Por 4.18, para y ∈ ξk (x) temos que
log+ χi (Df n (x)) ≤ log 2 + log+ χi (Df n (y))
logo,
log Kn (x) ≤ log C + m log 2 +

m
X

log+ χi (Df n (y)).

i=1

Segue-se que

Hµ (f

−n

(ξk )|ξk ) ≤

XZ
x∈Ek

log Kn (x)dµ(y)

ξk (x)

≤ log C + m log 2 +

Z X
m
M i=1

Isto, fazendo k → ∞, juntamente com 4.22 temos
39

log+ χi (Df n (y))dµ(y).

(4.30)

nhµ (f ) ≤ log C + m log 2 +

Z X
m

log+ χi (Df n (x))dµ(x)

M i=i

Sabemos que kDf n (x)∧p k =

Qm

i=m−p+1 χi (Df

∧

n

kDf (x) k ≥

m
Y

n

(x)), 1 ≤ p ≤ m, temos

max{1, χi (Df n (x))}.

i=1

Daı́, nhµ (f ) ≤ log C + m log 2 + M log |Df n (x)∧ |dµ(x).
Da expressão anterior
R

Z
log C + m log 2 1
+
log |Df n (x)∧ |dµ(x)
hµ (f ) ≤
n
n M
Z
1
≤ lim
log |Df n (x)∧ |dµ(x)
n→∞ n M
Z X
λi (x)mi (x)dµ(x).
=

(4.31)

i;λi (x)>0

Isto termina a demonstração.
Corolário 4.2.0.1. Seja f : M → M uma transformação C 1 e µ uma probabilidade
boreliana f -invariante ergódica. Se hµ (f ) > 0 então f tem pelo menos um expoente de
Lyapunov positivo.
P
Demonstração. De fato, a condição hµ (f ) > 0 implica i;λi >0 λi mi > 0, assim para o
qual existe i com λi > 0.
Corolário 4.2.0.2. Se f : M → M é um difeomorfismo C 1 , µ ergódica e hµ (f ) > 0
então f tem um expoente positivo e um negativo.
Demonstração. Pelo Corolário anterior, desde que hµ (f ) = hµ (f ) e é claro (f −1 , µ)
tambem é ergódico, logo temos que f −1 tem um expoente positivo. Mas, o espectro
de f −1 é simétrico ao de f . Logo, f tem um expoente negativo.

40

Capı́tulo 5
Apêndice
Neste apêndice faremos uma breve menção de alguns conceitos de Geometria Riemanniana, a fim de explicitar as propriedades básicas da Aplicação exponencial que foi usada
na prova da Desigualdade de Ruelle.

5.1

Geometria Riemanniana

5.1.1

Conexões Afins

Um campo de vetores X numa variedade diferenciável M é uma correspondência que
associa a cada ponto p ∈ M um vetor X(p) ∈ Tp M .
Definição 5.1.1. Um campo vetorial ao longo de uma curva c : I → M é uma aplicação
que a cada t ∈ I associa um vetor tangente V (t) ∈ Tc(t)M , aplicaçao esta diferenciável em
M no seguinte sentido: se f é uma função diferenciável em M , então a função t 7→ V (t)f
é uma função diferenciável em I.
é chamado campo velocidade(ou tangente) de c.
O campo dc( dtd ) indicado por dc
dt
A restrição de uma curva c a um intervalo fechado [a, b] ⊂ I chama-se um segmento.
Se M é Riemannian, definimos o comprimento de um segmento por
Z
dc
b
la = | |1/2 dt.
dt
Proposição 5.1.1. Toda variedade diferenciável (de Hausdorff e com base enumerável)
possui uma métrica Riemanniana.
Indicaremos por C(M ) o conjunto dos campos de vetores de classe C ∞ em M e por
D(M ) o anel das funções reais de classe C ∞ definidas em M .
Definição 5.1.2. Uma conexão afim ∇ numa variedade diferenciável M é uma aplicação
∇ : C(M ) × C(M ) → C(M )
definida por ∇(X, Y ) = ∇X Y e que satisfaz:
41

1. ∇f X+gY = f ∇X Z + g∇Y Z
2. ∇X (Y + Z) = ∇X Y + ∇X Z
3. ∇X (f Y ) = f ∇X Y + X(f )Y
onde X, Y, Z ∈ C(M ) e f, g ∈ D(M ).
Proposição 5.1.2. Seja M uma variedade diferenciável com uma conexão afim ∇ .
Então existe uma única lei associa a um campo vetorial V ao longo da curva diferDV
enciável c : I → M um outro campo vetorial
ao longo de c, denominado derivada
dt
covariante de V ao longo de c, tal que
(a)
(b)

DV
DW
D(V + W )
=
+
,
dt
dt
dt
D(f V )
df
DV
= V +f
,
dt
dt
dt
onde W é um campo de vetores ap longo de c e f ∈ D(M)

(c) Se V é induzido por um campo de vetores Y ∈ C(M ), i.e., V (t) = Y (c(t)), então
DV
de c e
= ∇dc/dt Y
dt
A proposição anterior mostra que a escolha de uma conexão afim em M dá origem a
uma ”derivada”de campos de vetores ao longo de curvas.

5.1.2

Conexão Riemanniana

Definição 5.1.3. Seja M uma variedade diferenciável com uma conexão afim ∇ e uma
métrica Riemanniana h , i. A conexão é dita ser compatı́vel com a métrica quando para
toda curva diferenciável c e quaisquer pares de campos de vetores paralelos P e P 0 ao
longo de c tivermos hP, P 0 i =constante
Proposição 5.1.3. Suponha que uma variedade Riemanniana M tem uma conexão ∇
compativel com a métrica. Sejam V e W campos de vetores ao longo da curva diferenciável c : I → M . Então
DV
Dw
d
hV, W i = h
, W i + hV,
i, t ∈ I.
(5.1)
dt
dt
dt
Definição 5.1.4. Uma conexão afim ∇ em uma variedade difenrenciável M é dita
simétrica quando
∇X Y − ∇Y X = [X, Y ]
Teorema 5.1.1 (Levi-Civita). Dada uma variedade Riemanniana M existe uma única
conexão afim ∇ em M satisfazendo
(a) ∇ é simétrica
(b) ∇ é compativel com a métrica Riemanniana.
42

5.1.3

Aplicação Exponencial

No que se segue M será uma variedade Riemanniana munida de sua conexão Riemanniana.
Definição 5.1.5. Uma curva parametrizada γ : I → M é uma geodesica em t0 ∈ I se
D dγ
= 0. Se γ é uma geodésica para todo t ∈ I, dizemos que γ é uma geodésica. Se
dt dt
[a, b] ⊂ I e γ : I → M é uma geodésica, a restrição de γ a [a, b] é chamada (segmento
de) geodésica ligando γ(a) e γ(b).
Se γ é uma geodésica, então
D dγ dγ
d dγ dγ
h , i = 2h
, i = 0,
dt dt dt
dt dt dt
dγ
dt
|
=
c
=
6
0.
i.e.,
excuiremos
geodésicas
é contante. Suporemos de agora em diante, que | dγ
dt
que se reduzem a pontos. O comprimento de arco s de γ, a partir de uma origem fica,
digamos t = t0 , e então dado por
Z t
dγ
s(t) =
| |dt = c(t − t0 ).
t0 dt

usando (3.1) da proposição 5.1.3. Isto mostra que o comprimento do vetor tangente

Quando c = 1 temos uma geodesica normalizada.
Proposição 5.1.4. Dado p ∈ M , existem um aberto V ⊂ M , p ∈ V , números δ > 0,
1 > 0 e uma aplicação C ∞
γ : (−δ, δ) × U, U = {(q, v), q ∈ V, v ∈ Tq M, |v| < 1 },
tais que a curva t 7→ γ(t, v, q), t ∈ (−δ, δ), é a única geodésica de M que no instante
t = 0 passa por q com velocidade v, para cada q ∈ V e cada v ∈ Tq M com |v| < 1 .
A Proposição 5.1.4 afirma que se |v| < , a geodésica γ(t, q, v) existe no intervalo
(−δ, δ) e é única. Em verdade, é possı́vel aumentar a velocidade de uma geodésica
diminuindo seu intervalo de definição, ou vice-versa. Isto decorre so seguinte lema
Lema 5.1.1 (Homogeneidade de uma geodésica). Se a geodésica γ(t, q, v) está definida
no intervalo (−δ, δ), então a geodésica γ(t, q, av), a ∈ R+ , está definida no intervalo
(−δ/a, δ/a) e
γ(at, q, v) = γ(t, q, av).
A Proposição 5.1.4 juntamente com o Lemma de Homogeneidade , permite tornar o
intervalo de definição de uma geodésica uniformemente grande em uma vizinhança de p.
Mais precisamente, temos o seguinte resultado
Proposição 5.1.5. Dado p ∈ M , existem uma vizinhança V de p em M , um número
 > 0 e uma aplicação C ∞ , γ : (−2, 2) × U → M , U = {(q, w) ∈ T M ; q ∈ V, w ∈
Tq M, |w| < }, tal que t 7→ γ(t, q, w), t ∈ (−2, 2), é a única geodésica de M que no
instante t = 0 passa por q com velocidade w, para cada q ∈ V e cada w ∈ Tq M , com
|w| < .
43

Demonstração. A geodésica γ(t, q, v) da Proposição 5.1.4 está definida para todo |t| < δ
e para |v| > 1 . Pelo lema de homogeneidade, γ(t, q, δv/2) está definida para |t| < 2.
Tomando  < δ1 /2, a geodésica γ(t, q, w) está definida para |t| < 2 e |w| < .
Seja p ∈ M e U ∈ T M um aberto dado pela proposição 5.1.4. A aplicação exp : U →
M dada por


v
, (q, v) ∈ U,
exp(q, v) = γ(1, q, v) = γ |v|, q,
|v|
é chamada a aplicação exponencial em U.
É claro que exp é diferenciálvel. Na maior parte das aplicações utiliza-se a restrição
de exp ao espaço tangente Tq M , isto é, definiremos
expq : B(0, ) ⊂ Tq M → M
por expq (v) = exp(q, v).
Geometricamente, expq (v) é o ponto de M obtido percorrendo um comprimento igual
a |v|, a partir de q sobre a geodésica que passa por q com velocidade v/|v|. Em particular,
d(expq (v), q) = |v|.
Proposição 5.1.6. Dado q ∈ M , existe  > 0 tal que expq : B(0, ) ⊂ Tq M → M é um
difeomorfismo C ∞ de B(0, ) sobre um aberto de M .
Demonstração. Calculemos d(expq )0 :
d
(expq (tv))
dt
t=0
d
(γ(1, q, tv))
=
dt
t=0
d
= v.
=
(γ(t, q, v))
dt
t=0

d(expq )0 (v) =

(5.2)

Logo, d(expq )0 é a identidade de Tq M , donde pelo Teorema da Função Inversa, expq é
um difeomorfismo C ∞ numa vizinhança de 0.
Exemplo 5.1.1. Seja M = Rn . Como a derivação covariante coincide com a usual,
as geodésicas são retas parametrizadas proporcionalmente ao comprimento de arco. A
exponencial é a identidade (com a identificação usual do espaço tangente em p com Rn ).
Vamos enunciar algumas propriedades da aplicação exponencial que nos serão úteis
na demonstração da desiguldade de Ruelle.
A compacidade de M garante a existência de um número universal ρ0 > 0, chamado
de raio de injetividade tal que
expx : B(0, ρ0 ) ⊂ Tx M → B(x, ρ0 ) ⊂ M
é um difeomorfismo C ∞ para todo x ∈ M . O lema seguinte é um fato conhecido de
geometria riemanniana
44

Lema 5.1.2. Para qualquer 0 < r ≤ ρ0 existe um número b = b(r) ≥ 1 tal que para
qualquer x ∈ M , y e z estão em B(x, r) ⊂ M , então
−1
b−1 d(y, z) ≤ | exp−1
x (y) − expx (z)| ≤ bd(y, z).

Além disso, se g : M → M é uma função C 1 existe 0 tal que
d(x, y) ≤ 0 ⇒ d(g(y), expg(x) ◦Dg(x) ◦ exp−1
x (y)) ≤ d(x, y).

5.2

(5.3)

Álgebra Exterior

Seja E um espaço vetorial de dimensão m e B = {e1 , ..., em } uma base de E munido de
produto interno. O espaço E ∧p , p ≤ m, é o conjunto das combinações lineares da forma
v1 ∧ v2 ∧ ... ∧ vp com vi ∈ E, i = 1, ..., p, e ∧ satisfaz
1. Se α e β são reais, então

v1 ∧ ... ∧ (αvi + βvi0 ) ∧ ... ∧ vp = αv1 ∧ ... ∧ vi ∧ ... ∧ vp + βv1 ∧ ... ∧ vi0 ∧ ... ∧ vp
2. Para quaisquer pares de vetores vi e vj vale:
v1 ∧ ... ∧ vi ... ∧ vj ∧ ...vp = −v1 ∧ ... ∧ vj ∧ ... ∧ vi ∧ ...vp
O conjunto B1 = {ei1 ∧ ... ∧ eip ; 1 ≤ i1 < ... < ip ≤ m} é uma base de E ∧p . Assim,
dim E ∧ = mp . Uma transformação linear T : E → E induz de modo natural uma
transformação k-linear alternada T ∧p : E ∧p → E ∧p , dada por
T ∧p (v1 ∧ ... ∧ vp ) = T v1 ∧ ... ∧ T vp
Observe que T ∧p + S ∧ = (T + P )∧P e αT ∧p = (αT )∧p Vamos munir E ∧p de um
produto interno declarando que

1, se (i1 , ..., ip ) = (j1 , ..., jp ),
hei1 ∧ ... ∧ eip , ej1 ∧ ... ∧ ejp i =
0, se (i1 , ..., ip ) 6= (j1 , ..., jp ),
Disto hv1 ∧ ... ∧ vp , w1 ∧ ... ∧ wp i = det(hvi , wj i). O conjunto E ∧p é a p-ésima potência
exterior de E e a transformação T ∧p a p-ésima potência exterior de T .
Proposição 5.2.1. Seja T : E → E uma tranformação linear. Então
kT

∧p

k=

m
Y

χi (T ),

i=m−p+1

onde 0 ≤ χ21 (T ) ≤ ... ≤ χ2i (T ) ≤ ...χ2m (T ) são os autovalores de T ∗ T .

45

(5.4)

Segue-se disso que kT ∧p k ≤ kT kp . Portanto, se temos uma sequência de matrizes
Tn → T então Tn∧p → T ∧p . Com efeito, dado  > 0 tome n0 ∈ N tal que n > n0 implique
kTn − T k < ()1/p , temos
kTn∧p − T ∧p k = k(Tn − T )∧p k
≤ kTn − T kp
≤ .

46

(5.5)

Bibliografia
[R] D. Ruelle. An inequality for the entropy of differential maps. Bol. Soc. Bras. Mat.,
9 (1978), 83-87.
[R2] D. Ruelle. Ergodic Theory of Dynamical Systems. Publ. Math. IHES 50, 275-305
(1979)
[Man ] R. Mañe. Ergodic Theory and Differentiable Dynamics. Springer-Verlag, 1987.
[QXZ] M. Qian, J. Xie, S. Zhu. Smooth Ergodic Theory for Endomorphisms. Springer
Verlag, 2009.
[Wal] P. Walters. An Introduction to Ergodic Theory (Graduate Texts in Mathematics
79). Springer, New York, 1982.
[YP] Y. Pesin. Dimension theory in dynamical systems: Contemporary views and applications. The University of Chicago, Chicago-London, 1997.
[1] K. Oliveira, M. Viana. Fundamentos de Teoria Ergódica. A ser publicado.

47