Dissertação
Dissertação - Wagner Ranter.pdf
Documento PDF (531.7KB)
Documento PDF (531.7KB)
UNIVERSIDADE FEDERAL DE ALAGOAS
INSTITUTO DE MATEMÁTICA
WAGNER RANTER GOUVEIA DA SILVA
Existência e Unicidade de Medidas Maximizantes para Classes Robustas de
Difeomorfismos Locais
Maceió
2012
WAGNER RANTER GOUVEIA DA SILVA
Existência e Unicidade de Medidas Maximizantes para Classes Robustas de
Difeomorfismos Locais
Dissertação de Mestrado na área de concentração de Sistemas Dinâmicos submetida em
25 de Março de 2013 à Banca Examinadora,
designada pelo Colegiado do Programa de
Pós-Graduação em Matemática da Universidade Federal de Alagoas, como parte dos
requisitos necessários à obtenção do grau de
mestre em Matemática.
Orientador: Prof.
Martins de Oliveira
Maceió
2012
Dr.
Krerley Irraciel
Minha família.
AGRADECIMENTOS
Ao meu Deus pela força de nunca desistir e pelas oportunidades a oferecida:
À minha família, em especial aos minha mãe Ma de Fátima de Gouveia por tudo, ao meu
irmão Waldemar Gouveia (Gaspar) por todos os momentos juntos
Ao meu orientador Prof. Dr. Krerley Oliveira pelo apoio, conselhos e muitas conversas
sobre matemática.
Aos Professor Walter Huaraca pela conversas sobre matemática, trabalho, festas, namoradas, enfim, sobre minha vida. Agradeço, também, pelos conselhos, pela orientação
na graduação a qual ajudou-me a trilhar o mestrado com menos dificuldade e, por fim,
agradeço a amizade.
Aos meus amigos de turma por todos os momentos juntos - sejam estudando ou jogando
boliche. Em especial ao Rafael Alvarez, Rafael Nobrega, Davi Lima, pelas conversas e discussões que me ajudaram neste trabalho, ao Abrão Mendes pela amizade e solidariedade,
aos Felipe Leandro, Allan George, Marcos Ranieri pelas "resenha".
Aos funcionários do IM, em especial, Sinvaldo, Dona Marieleide (Minha Patroa), Dona
Maria e Seu Manuel pelas brincadeiras e conversas descontraídas.
À minha namorada Brigida Villar, pelo companheirismo.
À CAPES REUNE pelo apoio financeiro durante estes dois anos.
RESUMO
Neste trabalho estudamos a prova da existência de medidas que maximizam a entropia
métrica para um conjunto aberto de difeomorfismos locais de classe C 1 de uma variedade
Riemanniana compacta, conexa.
Nesse contexto, também, foi visto que a entropia topológica coincide com logaritmo do
grau. Além disso, temos que as medidas maximizantes são automedidas do operador de
Ruelle-Perron-Frobenius.
Quando a aplicação é topologicamente mixing, a medida maximizante é única e positiva em todos os conjuntos abertos.
Palavras Chaves: Medida maximizante, Grau, O Operador de Ruelle-Perron-Frobenius.
ABSTRACT
At this work, we study the proof of the existence of measures that maximaizing
the metric entropy for a open set of local diffeomorphisms of classes C 1 of a compact,
connected Riemannian manifold.
In this context, we also see that the topological entropy coincides with the logarithm of
the degree. Furthermore, we have that the maximizing measures are eigenmeasures of the
Ruelle-Perron-Frobenius operator.
When the map is topologically mixing, the maximizing measure is unique and positive
on every open set.
Keywords: Maximizing measure, Degree, The Ruelle-Perron-Frobenius Operator.
LISTA DE FIGURAS
1
Variedade diferenciável . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 58
2
ϕ diferenciável em p
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 59
3
Curvas coordenadas e seus vetores tangentes . . . . . . . . . . . . . . .
p. 60
SUMÁRIO
Introdução
p. 10
1 Noções Básicas
p. 11
1.1
Medidas invariantes e ergódicas . . . . . . . . . . . . . . . . . . . . . .
p. 11
1.2
Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 12
1.2.1
Entropia de uma partição . . . . . . . . . . . . . . . . . . . . .
p. 13
1.2.2
Entropia de um sistema dinâmico . . . . . . . . . . . . . . . . .
p. 16
1.2.3
Teorema de Kolmogorov-Sinai . . . . . . . . . . . . . . . . . . .
p. 19
Fórmula de Rokhlin . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 21
1.3.1
Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 21
Entropia topológica . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 26
1.4.1
Definição via Coberturas . . . . . . . . . . . . . . . . . . . . . .
p. 26
1.4.2
Definição de Rufus Bowen e Dinaburg . . . . . . . . . . . . . . .
p. 29
1.4.3
A equivalência entre as definições . . . . . . . . . . . . . . . . .
p. 31
Princípio variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 33
1.3
1.4
1.5
2 Preliminares
p. 35
2.1
Operador de Ruelle-Perron-Frobenius . . . . . . . . . . . . . . . . . . .
p. 35
2.2
Medidas com entropia grande . . . . . . . . . . . . . . . . . . . . . . .
p. 37
2.2.1
Produto exterior . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 38
2.2.2
Expoente de Lyapunov . . . . . . . . . . . . . . . . . . . . . . .
p. 39
2.3
Tempos hiperbólicos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 41
2.4
Partições geradoras . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 47
2.5
Fórmula de Rokhlin . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 Resultado principal
p. 49
p. 51
3.1
Existência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 51
3.2
Unicidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 54
4 Apêndice
p. 58
4.1
Variedades diferenciáveis; espaços tangentes . . . . . . . . . . . . . . .
p. 58
4.2
Variedades Riemanniana . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 62
4.3
A distância intrínseca . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 62
4.4
Isomorfismo e conjugação de transformações . . . . . . . . . . . . . . .
p. 63
4.5
Decomposição ergódica . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 67
4.6
Esperanças condicionais . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 69
4.7
Entropia local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 70
4.8
Desigualdade de Ruelle . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 70
BIBLIOGRAFIA
p. 71
10
INTRODUÇÃO
O objetivo desse trabalho é estudar a prova do seguinte teorema, dada por Krerley
Oliveira e Marcelo Viana em (2).
Teorema 0.0.1. Seja f : M → M um difeomorfismo local de classe C 1 e grau p ≥ 1. Se
f satisfaz:
1
log ||(Dfxn )∧k || < log p.
1≤k≤d−1 x∈M n→∞ n
max max lim sup
(1)
Então htop (f ) = log p, e qualquer automedida maximal µ do dual do operador de transferência L é uma medida maximizante. Em particular, existe alguma medida maximizante
para f . Se f é topologicamente mixing então a medida maximizante é única e positiva
nos abertos.
Então para tal, precisaremos de algumas noções básicas que dividimos em três capítulos.
No primeiro capítulo, daremos algumas noções básicas e exemplos sobre entropia
métrica e entropia topológica que são partes fundamentais do Teorema 3.0.4.
No segundo capítulo, desenvolveremos técnicas que serão úteis na demonstração do
Teorema 3.0.4. Na Seção 2.1 mostraremos a existência de automedida maximal para
o operador de Ruelle-Perron-Frobenius, depois, mostraremos que tais medidas tem propriedades interessantes. Na Seção 2.2, daremos algumas noções sobre produto exterior,
expoentes de Lyapunov e mostraremos um lema que será de fundamental importância
para o decorrer do trabalho. Na Seção 2.3, daremos algumas noções de tempos hiperbólicos que serão úteis para mostrarmos a existência de partições geradoras e usaremos o
teorema de Rokhlin (Teorema 2.5.3) para termos uma estimativa da entropia topológica.
No terceiro capítulo, reproduziremos a prova dada por Oliveira e Viana do teorema
enunciado acima. Primeiro, provaremos a existência de uma medida maximizante e, além
disso, que uma automedida maximal também é uma medida maximizante. Depois, se f
como no teorema é topologicamente mixing então mostraremos que tal medida maximizante é única.
11
1
NOÇÕES BÁSICAS
Neste capítulo apresentaremos os conceitos e resultados necessários para o desenvolvimento deste trabalho.
1.1
Medidas invariantes e ergódicas
Seja (M, B, ν) um espaço de probabilidade. Considere f : M → M uma transformação
mensurável, dizemos que ν é f -invariante se ν(f −1 (B)) = ν(B) para todo B ∈ B.
Daremos uma condição suficiente para que exista uma medida invariante.
Teorema 1.1.1 (Existência de medidas invariantes). Seja f : M → M uma transformação contínua num espaço métrico compacto. Então existe pelo menos uma medida de
probabilidade em M invariante por f .
O ponto principal na demonstração é considerar uma certa topologia no conjunto
M1 (M ) das medidas de probabilidade em M , que chamamos de topologia fraca*. A
ideia é que duas medidas são consideradas próximas se as integrais com relação a cada
uma dessas duas medidas estejam próximas para (muitas) funções contínuas. Temos que
com essa topologia M1 (M ) é compacto, daí construímos uma sequência de medida de
modo que seja f -invariante então possui uma subsequência convergente para uma medida
f -invariante.
Exemplo 1.1.1. Seja f : [0, 1] → [0, 1], definida por f (x) = 10x (mod 1). A medida de
Lebesgue é f -invariante.
De fato, seja (a, b) ⊂ [0, 1]. Temos que f −1 (a, b) = ∪9k=0 (a + k/10, b + k/10), daí segue
que m(f −1 (a, b)) =
P9
k=0 m(a + k/10, b + k/10) = m(a, b).
Logo pela aditividade de m
segue que vale para uniões finitas de intervalos. Agora, a família das uniões finitas de
intervalos é uma álgebra que gera a σ-álgebra de Borel de [0, 1]. Logo, pelo Teorema 4.4.8
(Apêndice), temos que m é f -invariante.
12
Daremos agora a definição de topologicamente mixing.
Definição 1.1.2. Dizemos que f : M → M é topologicamente mixing se dado qualquer
conjunto aberto U ⊂ M existe N ∈ N tal que f N (U ) = M .
Dizemos que (f, ν) é um sistema ergódico se dado B ∈ B tal que f −1 (B) = B então
ou ν(B) = 0 ou ν(B) = 1.
1.2
Entropia
Para motivar a definição de entropia de Kolmogorov-Sinai, vamos considerar a seguinte
situação básica da Teoria da Informação. Consideremos um canal de comunicação que
transmite, sucessivamente, certos símbolos. Esse canal pode ser um telégrafo transmitindo
pontos e traços, segundo o antigo código Morse, uma fibra ótima, transmitindo zeros e uns,
segundo o código binário ASCII, ou qualquer outro sistema de transmissão sequencial de
informação. O objetivo é medir a entropia do canal, ou seja, a quantidade de informação
transmitida, em média, a cada unidade de tempo.
Em Teoria da Informação é usual considerar logaritmos na base 2, porque essencialmente todos os canais de informação que encontramos na prática são binários. No entanto,
em Teoria Ergódica é mais comum considerar logaritmos naturais (base e), e nós faremos
o mesmo. Por definição, a quantidade de informação associada a um caracter a ∈ A está
dada por
I(a) = − log pa
onde pa é a probabilidade (frequência) do caracter a. A informação média associada ao
alfabeto A é dada por
I(A) =
X
−pa I(a) =
a
X
−pa log pa .
a
Mais geralmente, a informação associada a uma palavra a1 ...an é
I(a1 ...an ) = − log pa1 ...an
onde a probabilidade pa1 ...an da palavra é, usualmente, maior que o produto pa1 ...pan das
probabilidades das suas letras (vale a igualdade no caso independente). Denotando por
An o conjunto de todas as palavras de comprimento n, definimos
I(An ) =
X
a1 ,...,an
−pa1 ...an log pa1 ...an .
13
Finalmente, a entropia do canal de comunicação é definida por:
1
I = lim I(An ).
n
1.2.1
(1.1)
Entropia de uma partição
Queremos adaptar estas ideias ao nosso contexto em Teoria Ergódica. A principal
diferença é que, enquanto em Teoria da Informação o alfabeto A é discreto(finito), em
geral, esse não é necessariamente o caso para o espaço de estados da maioria dos sistemas dinâmicos interessantes. Esse ponto é resolvido fazendo uso de partições, finitas ou
enumeráveis, do espaço de estados.
Seja (M, B, ν) um espaço de probabilidade. Neste capítulo, uma partição é uma família
finita ou enumerável P de subconjuntos de M disjuntos dois-a-dois e cuja a união tem
medida total. Denotamos por P(x) o elemento da partição que contém x. A soma P ∨ Q
de duas partições P e Q é uma partição cujos elementos são as interseções P ∩ Q com
P ∈ P e Q ∈ Q. Mais geralmente, dada qualquer família de partições Pn , definimos
_
Pn = {∩n Pn : Pn ∈ Pn , ∀n ∈ N}.
n
A cada partição P associamos a respectiva função de informação
IP : M → R, IP (x) = − log ν(P(x)).
É claro que a função IP é mensurável. Então chamamos entropia, ou informação média,
da partição P ao número
Hµ (P) =
Z
IP dµ =
X
−µ(P ) log µ(P ).
P ∈P
Como é usual na teoria da integral de Lebesgue, fazemos a convenção de que 0 log 0 =
lim x log x = 0.
x→0
Relacionamos com isto, a seguinte observação será útil em diversas ocasiões. Considere
a função φ : (0, ∞) → R da da por φ(x) = −x log x. Derivando duas vezes vemos que φ00 < 0.
Portanto φ é côncava:
t1 φ(x1 ) + · · · + tk φ(xk ) ≤ φ(t1 x1 + · · · + tk xk )
(1.2)
para todo x1 , ..., xk e t1 , ..., tk ≥ 0 com t1 + · · · + tk = 1. Além disso, a concavidade é estrita:
vale a igualdade em (1.2) se, e somente se, x1 = · · · = xk .
14
Dizemos que duas partições P e Q são independentes se ν(P ∩ Q) = ν(P )ν(Q) para
todo P ∈ P e todo Q ∈ Q. Nesse caso, IP∨Q = IP + IQ e, portanto,
Hν (P ∨ Q) = Hν (P) + Hν (Q).
Exemplo 1.2.1. Seja M = {1, ..., d}N munido de uma medida produto ν = η N . Denotamos
pi = η({i}) para cada i ∈ {1, ..., d}. Para cada n ≥ 1, seja P n a partição de M em cilindros
[0; a1 , ..., an ] de comprimento n. A entropia de P n é
Hν (P n ) =
X
−pa1 · · · pan log(pa1 · · · pan )
a1 ,...,an
=
X
X
−pa1 · · · paj · · · pan log paj
j a1 ,...,an
=
XX
j
−paj log paj
aj
A última soma é igual a 1, uma vez que
Hν (P n ) =
d X
d
X
pa1 · · · paj−1 paj+1 · · · pan .
ai ,i6=j
P
i pi = 1. Portanto,
−paj log paj =
j=1 aj =1
X
d X
d
X
−pi log pi = −n
j=1 i=1
d
X
pi log pi .
i=1
Chamaremos de entropia condicional de uma partição P com relação a uma partição
Q ao número
Hν (P/Q) =
X X
−ν(P ∩ Q) log
P ∈P Q∈Q
ν(P ∩ Q)
.
ν(Q)
(1.3)
Intuitivamente, ele mede a informação adicional fornecida pela partição P uma vez conhecida a informação da partição Q. É claro que Hν (P/M) = Hν (P) para todo P, onde
M denota a partição trivial M = {M }. Além disso, se P e Q são independentes então
Hν (P/Q) = Hν (P).
Dadas duas partições, P e Q dizemos que P é menos fina que Q, e escrevemos P ≺ Q,
se todo elemento de Q está contido em algum elemento de P, a menos de medida nula.
A soma P ∨ Q é, precisamente, a menos fina de todas as partições R tais que P ≺ R e
Q ≺ R.
Agora daremos algumas propriedades da entropia condicional de uma partição.
Lema 1.2.1. Sejam P, Q e R partições com entropia finita. Então,
(a) Hν (P ∨ Q/R) = Hν (P/R) + Hν (Q/P ∨ Q);
(b) se P ≺ Q então Hν (P/R) ≤ Hν (Q/R) e Hν (R/P) ≥ Hν (R/Q).
15
(c) P ≺ Q se, e somente se, Hν (P/Q) = 0.
Observe, em particular, que se tomarmos P = M no item (b) do Lema 1.2.1 obtemos
que
Hν (R/Q) ≤ Hν (R) para quaisquer partições Q e R.
(1.4)
Além disso, tomando R = M no item (a), segue que
Hν (P ∨ Q) = Hν (P) + Hν(Q/P) ≤ Hν (P) + Hν (Q).
(1.5)
Seja f : M → N uma transformação mensurável e seja ν uma probabilidade em M .
Então f∗ ν é uma probabilidade em N . Além disso, se P é uma partição de N então
f −1 (P) = {f −1 (P ) : P ∈ P} é uma partição de M . Por definição:
Hν (f −1 (P)) =
X
−ν(f −1 (P )) log ν(f −1 (p))
P ∈P
X
=
−f∗ ν(P ) log f∗ ν(P )
P ∈P
= Hf∗ ν (P).
Em particular, se M = N e a medida ν é invariante por f então
Hν (f −1 (P)) = Hν (P) para toda partição P.
(1.6)
Também precisaremos da seguinte propriedade de continuidade.
Lema 1.2.2. Dado k ≥ 1 e ε > 0 existe δ > 0 tal que, para quaisquer partições finitas
P = {P1 , ..., Pk } e Q = {Q1 , ..., Qk },
ν(Pi ∆Qi ) < δ para todo i = 1, ..., k ⇒ Hν (Q/P) < ε,
onde ν(Pi ∆Qi ) = ν(Pi \Qi ) + ν(Qi \Pi ).
Demonstração. Fixe ε > 0 e k ≥ 1. Pela continuidade da função φ : [0, 1] → R, φ(x) =
−x log x, existe ρ > 0 tal que φ(x) < ε/k 2 para todo x ∈ [0, ρ) ∪ (1 − ρ, 1]. Tome δ =
ρ/k. Dadas duas partições P e Q como no enunciado, denote por R a partição cujos
elementos são as interseções Pi ∩ Qj com i 6= j e também o conjunto ∪ki=1 Pi ∩ Qi . Note
que ν(Pi ∩ Qj ) ≤ ν(Pi ∆Qi ) < δ para todo i 6= j e
ν(
k
[
i=1
Pi ∩ Qi ) ≥
k
X
i=1
(ν(Pi ) − ν(Pi ∆Qi )) >
k
X
i=1
(ν(Pi ) − δ) = 1 − ρ.
16
Portanto,
Hν (R) =
ε
φ(ν(R)) < #R 2 .
k
R∈R
X
É claro da definição que P ∨ Q = P ∨ R. Então, usando (1.4) e (1.5),
Hν (Q/P) = Hν (P ∨ Q) − Hν (P) = Hν (P ∨ R) − Hν (P)
= Hν (R/P) ≤ Hν (R) < ε.
1.2.2
Entropia de um sistema dinâmico
Seja f : M → M uma transformação mensurável preservando uma medida de probabilidade ν. A noção de entropia do sistema (f, ν), apresentada a seguir, é inspirado pela
ideia de entropia de um canal de comunicação definida por (1.1)
Dada uma partição P de M com entropia finita, denotamos
Pn =
Wn−1 −i
f (P) para cada n ≥ 1.
i=0
Observe que o elemento P n (x) que contém x ∈ M está dado por:
P n (x) = P(x) ∩ f −1 (P(f (x))) ∩ · · · ∩ f −(n−1) (P(f (n−1) (x))).
É claro que a sequência P n é não-decrescente, ou seja, P n ≺ P n+1 para todo n. Portanto,
a sequência das entropias Hν (P n ) também é não-decrescente.
Daremos uma definição e consequentemente um lema que será útil no desenvolver da
teoria.
Definição 1.2.3. A sequência (an )n∈N é dita subaditiva quando am+n ≤ am + an .
Lema 1.2.4. Seja an uma sequência subaditiva. Então:
an
an
→ L = inf{ }.
n
n
aN
an
}. Dado ε > 0, ∃ N tal que
≤ L + ε. Se n > N,
n
N
escrevemos n = qN + r com 0 ≤ r ≤ N − 1.
Demonstração. Seja L = inf{
aqN +r
aqN ar qaN ar qaN ar
an
1
=
≤
+ ≤
+ ≤
+ ≤ L + ε + sup{a1 , ..., aN −1 }.
n
qN + r
n
n
n
n
qN
n
n
Se n for suficientemente grande, L ≤
an
≤ L + 2ε.
n
17
Mostraremos agora que sequência (Hν (P n ))n≥1 é subaditiva:
Lema 1.2.5. Hν (P n+m ) ≤ Hν (P n ) + Hν (P m ) para todo m, n ≥ 1.
Demonstração. Por definição, P m+n = ∨m+n−1
f −i (P) = P m ∨f −m (P n ). Portanto, usando
i=0
(1.5),
Hν (P m+n ) ≤ Hν (P m ) + Hν (f −m (P n )).
(1.7)
Por outro lado, como ν é invariante por f , a propriedade (1.6) implica que
Hν (f −m (P n )) = Hν (P n )
para todo m, n. Substituindo esse fato em (1.7) obtemos a conclusão do lema.
Chamaremos entropia de f com relação à medida ν e à partição P o limite
1
1
hν (f, P) = lim Hν (P n ) = inf Hν (P n ).
n n
n n
(1.8)
Observe que esta entropia é tanto maior quanto mais fina for a partição. De fato, se
P ≺ Q então P n ≺ Qn para todo o n. Usando o Lema 1.2.1, segue que Hν (P n ) ≤ Hν (Qn )
para todo n. Consequentemente,
P ≺ Q ⇒ hν (f, P) ≤ hν (f, Q)
(1.9)
Finalmente, a entropia do sistema (f, ν) é definida por
hν (f ) = sup hν (f, P),
(1.10)
P
onde o supremo é tomado sobre todas as partições com entropia finita. Uma observação
útil é que a definição não é afetada se consideramos o supremo apenas sobre as partições
finitas.
Exemplo 1.2.2. Considere a transformação decimal f : [0, 1] → [o, 1], dada por f (x) =
10x( mod 1). Como observamos anteriormente, f preserva a medida de Lebesgue no
intervalo m. Seja P a partição de [0, 1] por intervalos da forma ((k − 1)/10, k/10] com
k = 1, ..., 10. Então P n é a partição do [0, 1] por intervalos da forma ((k − 1)/10n , k/10n ]
com k = 1, ..., 10n . Assim, como
n
Hm (P ) =
n
10
X
k=1
−10−n log 10−n = n log 10.
18
Segue-se
hm (f, P) = lim Hm (P n ) = log 10.
n
Usando a teoria que será desenvolvida na seção seguinte, veremos que hm (f ) também
é igual a log 10, ou seja, P realiza o supremo na definição (1.10).
Este lema será útil na prova do teorema de Kolmogorov-Sinai.
Lema 1.2.6. hν (f, Q) ≤ hν (f, P)+Hν (Q/P) para quaisquer partições P e Q com entropia
finita.
Demonstração. Pelo Lema 1.2.1, para todo n ≥ 1 vale que
Hν (Qn+1 /P n+1 ) = Hν (Qn ∨ f −n (Q)/P n ∨ f −n (P))
≤ Hν (Qn /P n ) + Hν (f −n (Q)/f −n (P)).
O último termo é igual a Hν (Q/P), poque a medida ν é f -invariante. Portanto, a relação
anterior prova que
Hν (Qn /P n ) ≤ nHν (Q/P) para todo n ≥ 1.
(1.11)
Usando o Lema 1.2.1, uma vez mais, segue que
Hν (Qn ) ≤ Hν (P n ∨ Qn ) = Hν (P) + Hν (Qn /P n ) ≤ Hν (P n ) + nHν (Q/P).
Dividindo por n e passando o limite quando n → ∞ obtemos a conclusão do lema.
Lema 1.2.7. hν (f, P) = lim
Hν (P/ ∨ni=1 f −i (P)) para qualquer partição P com entropia
n
finita.
Demonstração. Usando o Lema 1.7 (a) e o fato de que a medida ν é invariante:
n−1
_
Hν (
n−1
_
f −i (P)) = Hν (
i=0
j=1
n−2
_
= Hν (
f −j (P)) + Hν (P/
f −j (P)) + Hν (P/
j=0
n−1
_
j=1
n−1
_
f −j (P))
f −j (P))
j=1
para todo n. Por recorrência, segue que
n−1
_
Hν (
j=0
f −j (P)) = Hν (P) +
n−1
X
k=1
Hν (P/
k
_
j=1
f −j (P)).
19
Portanto, hν (f, P) é dada pelo limite Cesaro
n−1
k
_
X
_
1
1 n−1
−j
lim
H
(
f
(P))
=
lim
H
(P/
f −j (P)).
ν
n n ν
n n
j=0
j=1
k=1
Por outro lado, o item (b) do Lema 1.7, garante que a sequência Hν (P/ ∨nj=1 f −j (P))
é decrescente. Em particular, lim ∨nj=1 f −j (P) existe e, consequentemente, coincide com
n
o limite Cesaro na igualmente anterior.
1.2.3
Teorema de Kolmogorov-Sinai
Em geral, a principal dificuldade no cálculo da entropia reside no cálculo do supremo
da definição (1.10). Os métodos que vamos desenvolver nesta seção permitem simplificar
a tarefa em muitos casos de interesse, identificamos certas partições P que realizam o
supremo, isto é, tais que hν (f, P) = hν (f ). O resultado principal é o seguinte:
Teorema 1.2.8 (Kolmogorov-Sinai). Seja P1 ≺ · · · ≺ Pn ≺ · · · uma sequência não-decrescente
de partições com entropia finita tais que ∪∞
n=1 Pn gera a σ-álgebra dos conjuntos mensuráveis a menos de medidas nula. Então
hν (f ) = lim
h (f, Pn ).
n ν
Demonstração. O limite sempre existe, pois a propriedade (1.9) implica que a sequência
hν (f, P n ) é não decrescente. Para provar tal teorema usaremos o seguinte fato:
Lema 1.2.9. lim Hν (Q/P n ) = 0 para qualquer partição finita Q.
n
Demonstração. Escreva Q = {Q1 , ..., Qn }. Dado qualquer ε > 0, existe δ > 0 como no
Lema 1.2.2. Seja A a álgebra formada pelas uniões finitas de elementos de ∪n P n . Por
hipótese, A gera a σ-álgebra de todos os conjuntos mensuráveis. Logo, pelo teorema de
aproximação (Apêndice 4.4.7), para cada i = 1, ..., k existe Ai ∈ A tal que
ν(Qi ∆Ai ) < δ/(4k).
(1.12)
O fato de que os Qi formam uma cobertura de M garante que os Ai estão perto de serem,
também, uma cobertura:
ν(Ai ∩ (∪j6=i Aj )) ≤ ν(∪kj=1 (Aj \Qj )) < δ/4 para todo i
(1.13)
20
e
ν(M \ ∪kj=i Ai ) ≤ ν(∪ki=1 (Qi \Ai )) < δ/4.
(1.14)
A seguir, defina
A1 , para i = 1
M \ ∪k−1
j=1 Aj , para i = k
i−1
Qi = Ai \ ∪j=1
Aj , para 1 < i < k
Então Q0 = {Q01 , ..., Q0k } é uma partição de M . Afirmamos que
ν(Ai ∆Q0i ) < δ/2 para todo i = 1, ..., k.
(1.15)
Isto é trivial para i = 1. Para i > 1 temos que Ai \Q0i esta contido em Ai ∩ (∪j<i Aj ).
Logo, usando 1.13, obtemos que ν(Ai \Q0i ) < δ/4. Isso prova a afirmação para 1 < i < k,
uma vez que nesse caso Q0i \Ai = ∅. Finalmente, para i = k, temos que Q0k \Ak está contido
no complementar de ∪ki=1 Ai . Logo, usando (1.14), vemos que ν(Q0k \Ak ) < δ/4. Somando
essa estimativa com a anterior, vem que ν(Ak ∆Q0k ) < δ/2. Isso completa a prova da
afirmação (1.15).
Combinando as desigualdades (1.13) e (1.15), obtemos que ν(Qi ∆Q0i ) < δ para todo
i = 1, ..., k. Agora, é claro que Q0i ∈ A para todo i. Então, como se trata de uma família
finita, podemos encontrar m ≥ q tal que todo Q0i é uma união de elementos de Pm . Em
outras palavras, a partição Q0 = {Q01 , ..., Q0k } é menos fina do que Pm . Então, pelos Lema
1.2.1 e Lema 1.2.2,
Hν (Q/Pn ) ≤ Hν (Q/Pm ) ≤ Hν (Q/Q0 ) < ε para todo n ≥ m.
Isso completa a demonstração do lema.
Pelo Lema 1.2.6, também temos que
hν (f, Q) ≤ hν (f, P n ) + Hν (Q/P n ) para todo n.
Passando o limite quando n → ∞ e, então, tomando o supremo sobre todas as partições
Q, obtemos a conclusão do teorema.
Corolário 1.2.9.1. Seja P1 ≺ · · · ≺ Pn ≺ · · · uma sequência de partições finitas tais que
21
o diamPn (x) → 0 para ν-quase todo ponto x ∈ M . Então
hν (f ) = lim hν (f, Pn ).
n
Demonstração. Seja U um aberto qualquer de M . A hipótese garante que para cada x
tal que o conjunto Px = Pn(x) (x) está contido em U . É claro que Px pertence à álgebra A
gerada por ∪n Pn . Observe também que esta álgebra é enumerável, já que ela está formada
pelas uniões finitas de elementos das partições Pn . Em particular, o conjunto dos valores
tomados por Px é enumerável. Segue que U = ∪x∈U Px também está na σ-álgebra gerada
por A. Isso prova que σ-álgebra gerada por A contém todos os abertos e, portanto,
contém todos os conjuntos borelianos. Agora, a conclusão segue de uma aplicação direta
do Teorema 1.2.8.
1.3
Fórmula de Rokhlin
O fórmula de Rokhlin é uma ferramenta importante no estudo de sistemas dinâmicos,
ela dá uma relação entre entropia métrica do sistema e a integral de uma função especifica
chamada de jacobiano, quando tal jacobiano existe.
1.3.1
Jacobiano
Agora daremos a noção de jacobiano de uma medida. Essencialmente, o jacobiano de
uma medida ν (quando existir) é uma função que satisfaz as condições do Teorema de
Mudança de variáveis. Vamos a definição precisa.
Definição 1.3.1. Uma função ξ : M → R é um jacobiano para a medida ν, se é localmente
integrável com respeito à ν e para todo mensurável A tal que f |A é injetora, então
ν(f (A)) =
Z
ξdν.
A
Em outras palavras, o jacobiano é definido por ξ = d(ν(f ))/dν.
Exemplo 1.3.1. Seja M um aberto do Rn e f é uma transformação de classe C 1 , o
Teorema de Mudança de Variável nos garante que se f |A é uma difeomorfismo, então
m(f (A)) =
Z
| det Df (x)|dx.
A
Em outras palavras, isso significa que a função ξ(x) = | det Df (x)| é um jacobiano para a
medida de Lebesgue m.
22
Definição 1.3.2. Dizemos que uma medida ν é não-singular com respeito à f . Se dado
um conjunto A com ν(A) = 0, então ν(f (A)) = 0.
A seguir mostrar que uma medida não-singular para uma transformação f localmente
injetora possui um único jacobiano.
Proposição 1.3.3. Seja M um espaço métrico separável e f uma transformação localmente injetiva. Então, dada uma medida boreliana ν não-singular com respeito à f , existe
um único jacobiano ξ : M → R. Se, além disso, existir k ∈ N de modo que cada ponto de
M possui no máximo k pré-imagens, então ξ ∈ L1 (ν).
Demonstração. Existência: Para cada p ∈ M podemos encontrar um aberto Ap de modo
que f |Ap é injetora. Tomando uma subcobertura de {Ap }p∈M se necessário, podemos
supor que existe uma subcobertura enumerável {Api }i∈N ⊂ {Ap }p∈M tal que ν(Api ) > 0
para todo i ∈ N.
Podemos decompor M em subconjuntos mensuráveis Bi ⊂ Api de modo que {Bi }i∈N
k−1
é uma partição de M . Para tanto, basta definir B1 = A1 e por indução Bk = Ak \ ∪i=1
Bi .
Novamente,renumerando os Bi ’s se necessário, podemos assumir que ν(Bi ) > 0. Assim,
cada ponto x ∈ M admite, no máximo, uma quantidade enumerável de pré-imagens e
fi = f |Bi : Bi → f (Bi ) é uma bijeção.
Fixado i ∈ N, vamos denotar por νi a medida em definida em Bi por νi (A) = ν(fi (A)).
Observe que νi é absolutamente contínua com respeito à ν em Bi , já que se ν(A) = 0,
então νi (A) = ν(f (A)) = 0. Portanto, pelo teorema de Rodón-Nykodim existe uma função
ξi ∈ L1 (ν) tal que
νi (A) =
Z
A
ξi dν,
Para cada A ⊂ Bi .
Seja ξ a função definida por
ξ(x) =
X
ξi (x)XBi (x).
i∈N
Afirmamos que ξ é um jacobiano para ν e f . De fato, se fA é injetora, podemos escrever
A como a união disjunta A = ∪(A ∩ Bi ), onde segue-se que
ν(f (A)) =
X
i≥1
como queríamos demostrar.
νi (A ∩ Bi ) =
XZ
i≥1 A∩Bi
ξi dν =
Z
A
ξdν,
23
Unicidade: Se ξ é um jacobiano para ν e f , pelo Teorema da Derivação 4.4.10(Apêndice),
existe um conjunto A de medida ν total tal que se x ∈ A vale
Z
1
ξ(x) = lim
ξ(y)dν.
r→0 ν(Br (x)) Br (x)
Por outro lado, assumindo que r é suficientemente pequeno de modo que f |Br (x) é injetora,
temos que
Z
Br (x)
ξ(y)dν = ν(f (Br (x))).
Portanto, temos que para um conjunto de medida ν total vale
ν(f (Br (x))
,
r→0 ν(Br (x))
ξ(x) = lim
que mostra que ξ é único.
Assuma agora que existe k ∈ N tal que todo ponto tem no máximo k pré-imagens.
Para mostrar que ξ ∈ L1 (ν), basta observa que
Z
ξdν =
XZ
i
ξdν =
Bi
X
ν(f (Bi )) ≤ kν(M ),
i
já que todo ponto tem no máximo k pré-imagens.
Iremos denotar o jacobiano de f com respeito à ν por Jν f . Usando a definição,
podemos verificar que Jν f n (x) =
Qn−1
i
n
i=0 Jν f (f (x)) é um jacobiano para f .
Teorema 1.3.4 (Fórmula de Rohklin). Seja f : M → M uma transformação mensurável
localmente invertível num espaço métrico separável e seja ν uma probabilidade invariante
por f . Suponha que existe uma partição finita ou enumerável P tal que cada elemento
P ∈ P é domínio de injetividade de f e diamP n (x) → 0 para ν-quase todo x. Então
hν (f ) =
Z
log Jν f dν.
Demonstração. Consideremos a sequência da partições Qn = ∨nj=1 f −j (P). Pelo Corolário
1.2.9.1 e pelo Lema 1.2.7,
hν (f ) = hν (f, P) = lim Hν (P/Qn ).
n
(1.16)
24
Por definição,
Hν (P/Qn ) =
X
X
−ν(P ∩ Qn ) log
P ∈P Qn ∈Qn
=
X
X
−ν(Qn )φ
P ∈P Qn ∈Qn
ν(P ∩ Qn )
ν(Qn )
ν(P ∩ Qn )
.
ν(Qn )
Seja en (ψ, x) a esperança condicional relativamente à partição Qn , definida na seção 4.6
(Apêndice), e seja e(ψ, x) o seu limite quando n → ∞. É claro da definição que
ν(P ∩ Qn )
= en (XP , x) para todo x ∈ Qn e todo Qn ∈ Qn .
ν(Qn )
Portanto,
X Z
ν(P ∩ Qn )
−ν(Qn )φ
φ(en (XP , x))dν(x).
=
ν(Qn )
P ∈P Qn ∈Qn
P ∈P
X
X
(1.17)
Pelo Lema 4.6.1, o limite e(XP , x) = lim en (XP , x) existe para ν-quase todo ponto
n
x ∈ M . Então, observado que a função φ é não negativa limitada, podemos usar o teorema
da convergência dominada para deduzir das relações (1.16) e (1.17) que
hν (f ) =
X Z
φ(e(XP , x))dν(x).
(1.18)
P ∈P
Resta relacionar o integrando do lado direito com o jacobiano. Isso será feito por meio
do seguinte lema.
Lema 1.3.5. Para toda função mensurável limitada ψ : M → R e ν-quase todo x ∈ M ,
e(ψ, x) = ψ̂(f (x)) onde ψ̂(y) =
ψ
(z).
J
f
ν
−1
z∈f (y)
X
Demonstração. Lembre-se que Qn = ∨nj=1 f −j (P). Também usaremos a sequência de par−j
0
tições P n = ∨n−1
j=0 f (P). Representaremos por en (φ, y) a esperança condicional relativa
à partição P n e seja e(φ, y) o seu limite quando n → ∞. Afirmamos que
en (ψ, x) = e0n−1 (ψ̂, f (x)) para todo xe todo n > 1.
(1.19)
25
Passando o limite, e(ψ, x) = e0 (ψ̂, f (x)) para ν-quase todo x ∈ M . Por outro lado, pelo
do Corolário 1.2.9.1, a hipótese do teorema implica que a sequência de partições P n é
geradora. Então pelo item (e) do Teorema 4.5.1, e0 (ψ̂, y) = ψ̂(y) para ν-quase todo y ∈ M .
Logo, para provar o lema basta provar a afirmação (1.19).
Observe que Qn (x) = f −1 (P n−1 (f (x))) para todo n e todo x. Por definição de esperança condicional,
en (ψ, x) =
Z
Z
X
1
1
ψdν =
ψdν,
ν(Qn (x)) Qn (x)
ν(Qn (x)) P ∩Qn (x)
P ∈P
para toda função mensurável limitada ψ. Por definição de jacobiano e pelo Lema 4.6.2, a
expressão do lado direito é igual a
Z
Z
1
1
ψ
−1
◦ (f |P ) dν =
ψ̂dν.
ν(Qn (x)) f (P ∩Qn (x)) Jν f
ν(Qn (x)) P n−1 (f (x))
P ∈P
X
Lembrando que a medida ν é invariante, também segue que a expressão do lado direito é
igual a
Z
1
ψ̂dν = e0n−1 (ψ̂, f (x)).
ν(P n−1 (f (x))) P n−1 (f (x))
Combinando essa três igualdade obtemos (1.19).
Vamos aplicar esse resultado a ψ = XP . Como f é injetiva em todo elemento de P,
cada interseção P ∩ f −1 (y) ou é vazio ou contém exatamente um ponto. Portanto, segue
do Lema 1.3.5 que e(XP , x) = X̂P (f (x)), com
X̂P (y) =
1/Jν f ((f |
−1
P) )
se y ∈
/ f (P ).
0
se y ∈ f (P )
Então, como a medida ν é invariante,
Z
φ(e(XP , x))dν(x) =
=
=
Z
φ(X̂P (y))dν(y)
1
log Jν f ) ◦ (f |P )−1 dν
J
f
f (P )
ν
Z
Z
P
(
log Jν f dν
(a última igualdade segue da definição do jacobiano, veja o Lema 4.6.2).
Substituindo esta expressão em (1.18), vem que
hν (f ) =
X Z
P ∈P P
log Jν f dν =
Z
log Jν f dν,
26
tal como afirmado no teorema.
1.4
Entropia topológica
A entropia topológica de um sistema dinâmico é um número real não negativo que
mede a complexidade do sistema. A primeira introdução de entropia topológica foi dada
em 1965 por Adler, Konheim e McAndrew. Essa definição foi modelada após a definição
de Kolmogorov-Sinai ou entropia métrica. Mais tarde, Dinaburg (8),em 1970, e Rufus
Bowen (9), em 1971, deram independentemente uma diferente definição equivalente.
Nesse trabalho, estamos interessados apenas em espaços métricos compactos e suas
coberturas abertas.
1.4.1
Definição via Coberturas
A definição de entropia topológica que daremos a seguir foi introduzida por Adler,
Konheim e McAndrew (7), em 1965. Sua ideia de atribuir um número a uma cobertura
aberta para medir a sua complexidade foi inspirada por Kolmogorov e Tihomirov (6), em
1961.
A seguir, definiremos a noção de coberturas abertas que será de fundamental importância na definição da entropia topológica.
Definição 1.4.1. Seja X um subconjunto de um espaço métrico M . Uma cobertura de
X uma família C = (Aλ )λ∈L de subconjuntos de M tal que X ⊂
[
Aλ . Dizemos que a
λ∈L
cobertura é aberta se cada Aλ , λ ∈ L, é aberto em M .
Definiremos agora uma operação entre coberturas que será útil no cálculo da entropia
topológica.
Definição 1.4.2. Sejam α e β coberturas abertas de um espaço métrico X. Então,
• α ∨ β = {Ai ∩ Bj ; Ai ∈ α, Bj ∈ β} também é uma cobertura aberta de X.
• A cobertura β refina α se, para todo B ∈ β, existir A ∈ α tal que B ⊂ A. Denotaremos por α ≺ β.
• Se α é uma cobertura aberta de um espaço métrico X e f : X → X é uma aplicação
contínua então f −1 (α) = {f −1 (A); A ∈ α} é uma cobertura de X.
27
Temos, f −1 (α ∨ β) = f −1 (α) ∨ f −1 (β) e, se α ≺ β, então f −1 (α) ≺ f −1 (β). Em parti−i
n
cular, denotamos α ∨ f −1 (α) ∨ ... ∨ f −n+1 (α) por ∨n−1
i=0 f (α) ou simplesmente, α .
Definição 1.4.3. Sejam X um espaço métrico compacto e α uma cobertura aberta de
X. Definimos N (α) como sendo o número de conjuntos de uma subcobertura de α com
a menor cardinalidade, ou seja,
N (α) = inf{#β; β ⊂ α subcobertura de X}.
A entropia de α é o número H(α) = log N (α).
Exemplo 1.4.1. Seja X = [0, 1] ⊂ R. Considere a cobertura α = {(−1, 21 ); (− 15 , 25 ); ( 13 , 43 ); ( 23 , 23 )}.
Daí segui que N (α) = 2, portanto, H(α) = log 2.
Os lemas que veremos a seguir serão úteis para provarmos a proposição 2.1.
Lema 1.4.4. Sejam α, β coberturas abertas de X e f : X → X uma aplicação contínua.
Então,
(i) H(α) ≥ 0;
(ii) α ≺ β ⇒ H(α) ≤ H(β);
(iii) H(α ∨ β) ≤ H(α) + H(β);
(iv) H(f −1 (α)) ≤ H(α). Se f sobrejetiva então H(f −1 (α)) = H(α).
Demonstração. Sejam α, β coberturas abertas de X e f : X → X uma aplicação contínua.
(i) segue direto da definição.
Para (ii), seja {B1 , B2 , ..., BN (β) } uma subcobertura de β com menor cardinalidade. Para
cada Bi existe Ai ∈ α tal que Bi ⊂ Ai . Portanto, {A1 , A2 , ..., AN (β) } é uma subcobertura
de α. Logo, N (α) ≤ N (β), assim, H(α) ≤ H(β).
(iii) Sejam {A1 , A2 , ..., AN (α) } e {B1 , B2 , ..., BN (β) } subcoberturas de α e β, respectivamente, de menor cardinalidade. Então o conjunto {Ai ∩ Bj ; Ai ∈ α, Bj ∈ β} é uma
subcobertura de α ∨ β. Assim, N (α ∨ β) ≤ N (α)N (β).
Finalmente para (iv), seja {A1 , A2 , ..., AN (α) } uma subcobertura de α de menor cardinalidade, então {f −1 (A1 ), f −1 (A2 ), ..., f −1 (AN (α) )} é uma subcobertura de f −1 (α). Portanto
N (f −1 (α)) ≤ N (α) o que nos leva H(f −1 (α)) ≤ H(α).
28
Se f sobrejetiva e {f −1 (A1 ), ..., f −1 (AN (f −1 (α)) )} uma subcobertura de f −1 (α) de
menor cardinalidade, então {A1 , ..., AN (f −1 (α)) } também uma subcobertura de α. Assim,
N (f −1 (α)) ≥ N (α) o que acarreta N (f −1 (α)) = N (α). Portanto, H(f −1 (α)) = H(α).
Proposição 1.4.5. Se α é uma cobertura de X e f : X → X é contínua, então
1
H(αn ) existe.
n→+∞ n
lim
Demonstração. Considere an = H(αn ). Logo, an+m = H(αn+m−1 ) = H(∨n+m−1
f −i (α)) ≤
i=0
n+m−1 −i
−i
−i
−n (∨m−1 f −i (α)) ≤ H(∨n−1 f −i (α))+
H(∨n−1
f (α)) ≤ H(∨n−1
i=0 f (α))+H(∨i=n
i=0 f (α))+H(f
i=0
i=0
an
1
m−1 −i
n−1 −i
H(∨i=0 f (α)) = an +am . Portanto, an subaditiva. Logo lim
= lim
H(∨i=0 f (α))
n→+∞ n
n→+∞ n
existe.
Como consequência da proposição anterior, podemos definir o seguinte.
Definição 1.4.6. Seja α uma cobertura aberta de X e f : X → X uma aplicação contínua,
então a entropia de f com relação à α é dada por
1
H(αn ).
n→+∞ n
h(f, α) = lim
Exemplo 1.4.2. Seja f : [0, 1] → [0, 1], dada por f (x) = 2x (mod 1). Tome a cobertura
aberta α = {[0, 1/2], [1/2, 1]}. Então, temos f −1 (α) = {[0, 1/4]; [1/4, 1/2]; [1/2, 3/4]; [3/4, 1]}, ..., f −n+1
{[j/2n , (j + 1)/2n ]; j = 0, 1, ..., 2n − 1}. Logo H(αn ) = log 2n . Daí segui que,
1
1
H(αn ) = lim
n log 2 = log 2.
n→+∞ n
n→+∞ n
h(f, α) = lim
Agora, mostraremos algumas propriedades técnicas da entropia de uma aplicação f
com relação a uma cobertura.
Lema 1.4.7. Se α, β são coberturas de X. Então
(v) h(f, α) ≤ H(α);
(vi) α ≺ β ⇒ h(f, α) ≤ h(f, β).
Demonstração. Para (v), temos
H(αn ) ≤
n−1
X
i=0
H(f −1 (α)) ≤ nH(α) ⇒
1
H(αn ) ≤ H(α) ⇒ h(f, α) ≤ H(α).
n
29
Para (vi), como α ≺ β ⇒ αn ≺ β n , temos pelo Lema 1.4.4 (item (ii)) que
H(αn ) ≤ H(β n ) ⇒ h(f, αn ) ≤ h(f, β n ).
A definição de entropia topológica que daremos a seguir está bem definida, pelo que
vimos anteriormente.
Definição 1.4.8. Seja f : X → X uma aplicação contínua, a entropia topológica de f é
dada por
h(f ) = sup h(f, α)
α
onde α varia ao longo de toda cobertura aberta de X.
O teorema abaixo diz que, se f : X → X é um homeomorfismo, a entropia topológica
de f e f −1 coincidem. Assim, só estaremos interessados nos iterados positivos.
Teorema 1.4.9. Seja f : X → X um homeomorfismo de X, então h(f ) = h(f −1 ).
Demonstração. Do item (iv) acima, segue que
1
1
H(αn ) = lim
H(f n−1 (αn ))
n→+∞ n
n→+∞ n
1
1
= lim
H(∨n−1
f i (α)) = lim
H(α−n )
i=0
n→+∞ n
n→+∞ n
= h(f −1 , α).
h(f, α) =
1.4.2
lim
Definição de Rufus Bowen e Dinaburg
Daremos a seguinte definição para introduzir uma outra noção de entropia topológica.
Definição 1.4.10. Seja f : X −→ X uma aplicação contínua no espaço métrico compacto.
(a) Para n ≥ 1 e ε > 0, chamamos o conjunto S ⊂ X de um conjunto (n, ε) − separado
se, para cada x, y ∈ S com x 6= y, tivermos que d(f i (x), f i (y)) ≥ ε para algum i =
0, 1, ..., n − 1.
Seja sn (ε) ∈ N o máximo das cardinalidades de todos os conjuntos (n, ε) − separado.
30
(b) Para n ≥ 1 e ε > 0 chamamos um conjunto R ⊂ X de um conjunto (n, ε)−gerador se,
para todo x ∈ X, existir y ∈ R tal que d(f i (x), f i (y)) < ε para todo i = 0, 1, ..., n − 1.
Seja rn (ε) ∈ N a menor das cardinalidades de todos os conjuntos (n, ε) − gerador.
O lema abaixo será usado para provarmos a equivalência entre a Definição 1.4.8 e a
Definição 1.4.10.
Lema 1.4.11.
(i) Para ε > ε0 , temos que sn (ε0 ) ≥ sn (ε) e rn (ε0 ) ≥ rn (ε). Em particular,
1
1
1
1
log(sn (ε0 )) ≥ lim sup log(sn (ε)) e lim sup log(rn (ε0 )) ≥ lim sup log(rn (ε));
n→+∞ n
n→+∞ n
n→+∞ n
n→+∞ n
lim sup
(ii) Para ε > 0 e n ≥ 1 temos que
rn (ε) ≤ sn (ε) ≤ rn (ε/2).
(1.20)
Demonstração. (i) Segue direto da definição.
Para (ii), observemos o conjunto S que é um (n, ε) − separado de maior cardinalidade
é, também um (n, ε) − gerador. Caso contrário, existe x0 ∈ X tal que para todo y ∈ S vale
que d(f i (x0 ), f i (y)) ≥ ε para algum i = 0, ..., n − 1. Assim, S ∪ {x0 } é um (n, ε) − separado
com cardinalidade maior que a cardinalidade de S, absurdo. Logo, rn (ε) ≤ sn (ε).
Para mostrarmos que sn (ε) ≤ rn (ε/2), considere S (n, ε) − separado. Seja R um
(n, ε/2) − gerador de menor cardinalidade. Defina ϕ : S → R de forma que, para cada
x ∈ S, ϕ(x) ∈ R com d(f i (x), f i (ϕ(x))) < ε/2 para todo i = 0, 1, ..., n − 1.
Afirmamos que ϕ é injetiva.
Com efeito, suponha que x, x0 ∈ S tais que ϕ(x), ϕ(x0 ) ∈ R, com ϕ(x) = ϕ(x0 ). Logo,
d(f i (x), f i (x0 )) ≤ d(f i (x), f i (ϕ(x))) + d(f i (x0 ), f i (ϕ(x0 ))) < ε
para todo i = 0, ..., n − 1. Daí segue que x, x0 são iguais.
A definição de entropia topológica que veremos a seguir foi introduzida por Rufus
Bowen(9) e Dinaburg(8), em 1971 e 1970, respectivamente, ambos utilizaram a seguinte
noção.
Definição 1.4.12. Seja f : X → X uma aplicação contínua no espaço métrico compacto.
A entropia topológica de f via (n, ε) − gerador é dada por:
31
1
log(rn (ε)).
ε→0 n→+∞ n
h̄(f ) = lim lim sup
Segue de (1.20) que:
1
1
log(sn (ε)) = lim lim sup log(rn (ε)).
ε→0 n→+∞ n
ε→0 n→+∞ n
h̄(f ) = lim lim sup
1.4.3
(1.21)
A equivalência entre as definições
Apresentamos agora, alguns resultados técnicos para mostrarmos a equivalência entre
as definições de entropia topológica.
Definição 1.4.13. Diz-se que o número δ > 0 é o número de Lebesgue de uma cobertura
α de um espaço métrico X, quando todo subconjunto U ⊂ X com diâmetro menor que δ
está contido em algum elemento de α.
Proposição 1.4.14. Seja X um espaço métrico compacto, então toda cobertura aberta α
possui um número de Lebesgue.
Demonstração. Suponha, por absurdo, que a cobertura dada não possua número de Lebesgue. Obtemos, para cada n ∈ N, um conjunto Sn ⊂ X com diam Sn = sup{d(x, y); x, y ∈
Sn } < 1/n tal que nenhum Aλ contenha Sn . Escolhamos em cada Sn um ponto xn . Passando a uma subsequência se necessário, podemos admitir que lim xn = a ∈ X. Temos
a ∈ Aλ para algum λ ∈ L. Existe ε > 0 tal que B(a; ε) ⊂ Aλ . Tomemos n ∈ N tal que
1/n < ε/2 e d(a, xn ) < ε/2. Então
y ∈ Sn ⇒ d(a, y) ≤ d(a, xn ) + d(xn , y) <
1 ε
+ < ε.
n 2
Logo Sn ⊂ B(a; ε) ⊂ Aλ , uma contradição.
Lema 1.4.15. Seja f : X → X contínua em um espaço métrico compacto.
(vii) Seja α uma cobertura aberta de X com número de Lebesgue δ > 0, então
−i
N (∨n−1
i=0 f (α)) ≤ rn (δ)
para todo n ≥ 1;
(viii) Seja ε > 0 e γ = {B1 , B2 , ..., Bk } uma cobertura aberta com max diam Bi < ε, então
1≤i≤k
32
−i
sn (ε) ≤ N (∨n−1
i=0 f (γ)).
Demonstração. (vii) Seja R um (n, δ) − gerador de cardinalidade rn (δ). Então X =
[
D(x, n, δ), onde D(x, n, δ) =
n−1
\
f −i B(f i (x), δ). Portanto, para cada x ∈ R, temos
i=0
x∈R
B(f i (x), δ) ⊂ A
ki , com Aki ∈ α para cada i = 0, ..., n − 1, i. e, D(x, n, δ) ⊂
n−1
\
f −i (Aki ) ∈
i=0
−i
∨n−1
i=0 f (α). Em particular,
[ n−1
\
f −i (Aki ) cobertura de X. Daí, temos que
x∈R i=0
−i
N (∨n−1
i=0 f (α)) ≤ rn (δ).
s (viii) Seja S um (n, ε) − separado de cardinalidade sn (ε). Cada ponto do conjunto S per−i
tence a diferentes elementos de ∨n−1
i=0 f (γ) (desde que x, y ∈
Tn−1 −j
f (B
j=0
n−1 −i
ij ) ∈ ∨i=0 f (γ),
temos d(f r (x), f r (y)) ≤ diam Bir < ε). Em particular,
−i
sn (ε) ≤ N (∨n−1
i=0 f (γ)).
O seguinte resultado mostra a equivalência entre a definição de Adler, Konheim e
McAndrew e a definição de Dinaburg e Rufus Bowen.
Teorema 1.4.16. A entropia topológica de uma aplicação contínua f : X → X em um
espaço métrico compacto é dada por:
h(f ) = lim lim sup
1
ε→0 n→+∞ n
log(rn (ε))
e
1
log(sn (ε)).
ε→0 n→+∞ n
h(f ) = lim lim sup
Demonstração. Sendo h(f ) = sup h(f, α). Dado qualquer η > 0 existe uma cobertura
α
aberta de X, seja α essa cobertura, tal que
h(f, α) + η ≥ h(f ) ≥ h(f, α).
Seja δ > 0 o número de Lebesgue de α. Sabemos, pela de (1.21), que
1
1
log(rn (ε)) = lim lim sup log(sn (ε)).
ε→0 n→+∞ n
ε→0 n→+∞ n
lim lim sup
33
Em particular,
1
1
log(rn (ε)) ≥ lim sup log(rn (δ))
ε→0 n→+∞ n
n→+∞ n
1
−i
≥ lim sup log(N (∨n−1
i=0 f (α)))
n
n→+∞
= h(f, α) ≥ h(f ) − η.
lim lim sup
Por outro lado, dado ε > 0, podemos escolher uma cobertura aberta β = {B1 , ..., Bk } de
X com max diam Bi < ε. Assim, temos
1≤i≤k
1
1
−i
log(sn (ε)) ≤ lim sup log(N (∨n−1
i=0 f (β))) = h(f, β) ≤ h(f ).
n→+∞ n
n→+∞ n
lim sup
Fazendo ε → 0, temos
1
log(sn (ε)) ≤ h(f ).
ε→0 n→+∞ n
lim lim sup
Portanto,
1
log(sn (ε)) ≤ h(f ).
ε→0 n→+∞ n
h(f ) − η ≤ lim lim sup
Isso completa a prova.
1.5
Princípio variacional
Agora daremos uma importante relação entre entropia métrica e entropia topológica.
Teorema 1.5.1 (Princípio variacional). Se f : M → M é uma transformação contínua
num espaço métrico compacto então a sua entropia topológica htop (f ) coincide com o
supremo das entropias métricas hν (f ) da transformação f relativamente a todas as probabilidades invariantes. Mais precisamente,
htop (f ) = sup hν (f ).
ν
(1.22)
Mostraremos agora que o supremo em (1.22) pode ser tomado sobre todas probabilidades ergódicas.
Com efeito, considere h̄ = sup hν (f ) o supremo com relação as probabilidades ergódicas. Claramente, vemos que htop (f ) ≥ h̄. Por outro lado, dado ε > 0 existe uma
34
probabilidade η tal que
htop (f ) − ε ≤ hη (f ) ≤ htop (f ).
Como, pelo Teorema de Jacobs 4.5.2, temos que
hν (f ) =
Z
hνP (f )dν̂(P ).
Logo, alguma destas probabilidade νP temos hνP (f ) ≥ hη (f ). Assim,
htop (f ) ≤ h̄(f ).
Portanto,
htop (f ) = sup hν (f ) com ν probabilidade ergódica.
ν
(1.23)
Denotaremos entropia topológica de uma transformação f : M → M por htop (f ).
35
2
PRELIMINARES
O objetivo deste capítulo é apresentar alguns resultados que será de fundamental importância no capítulo seguinte, onde mostraremos que sob algumas hipóteses garantimos
a existência de medidas maximizantes.
2.1
Operador de Ruelle-Perron-Frobenius
Sejam (X, d) um espaço métrico compacto e f : X → X uma aplicação contínua. O par
(X, f ) é chamado de sistema dinâmico. Seja ψ : X → R+
∗ uma função contínua estritamente
positiva que chamaremos de potencial. O operador de Ruelle-Perron-Frobenius L = Lf,ψ ,
simplesmente chamado de operador de Ruelle, é definido como
X
Lg(x) =
ψ(y)g(y)
y:f (y)=x
para g em um espaço adequado de funções em X. O operador de Ruelle é uma importante
ferramenta no estude de sistemas dinâmicos.
Considere M uma variedade riemanniana de classe C 1 , compacta, conexa. Sejam
f : M → M um difeomorfismo local de classe C 1 e o potencial ψ ≡ 1. Seja p ≥ 1 o grau de
f , que é, o número #f −1 (x) das pré-imagens de qualquer x em M . Definiremos operador
de Ruelle-Perron-Frobenius no espaço das funções contínua C(M ). i. e, L : C(M ) → C(M )
definido por,
Lg(x) =
X
g(y).
y:f (y)=x
Agora mostraremos que L está bem definido. De fato, como f é um difeomorfismo local
existem V com x ∈ V e U1 , U2 , ..., Up abertos em M tal que f : Ui → V é difeomorfismo,
i = 1, 2, ..., p. Logo,
Lg(x) =
p
X
g ◦ f −1 (x), x ∈ V.
i=1
Portanto, L está bem definido. É fácil ver que se g ≥ 0 então Lg ≥ 0. Além disso, ||L|| = p.
36
Agora daremos algumas definições que será útil no decorrer desta teoria.
Seja E um espaço de Banach. Um subconjunto fechado e convexo C é chamado de
cone de E, se ele satisfaz:
λC ⊂ C para todo λ ≥ 0 e C ∩ (−C) = {0}.
Dizemos que o cone C é normal quando
inf{||x + y|| : x, y ∈ C tais que ||X|| = ||y|| = 1} > 0.
Fixemos um cone C de E. Dado um operador linear contínuo T : E → E, diremos
que T é um operador positivo sobre C se T (C) ⊂ C. Dado um funcional linear contínuo
φ : E → R, diremos que φ é um funcional positivo sobre C se φ(v) ≥ 0 para todo v ∈ C .
Chamaremos de cone dual conjunto C ∗ de todos os funcionais positivos sobre C.
0 (M ) conjunto de todas
Exemplo 2.1.1. Seja M espaço métrico compacto. Denote por C+
0 (M ) é um cone e que é preservado pelo
as funções contínuas positivas. Observe que C+
operador de Ruelle L. O cone dual
0
0
C+
(M )∗ = {η ∈ C 0 (M )∗ : η(g) ≥ 0, ∀g ∈ C+
(M )}.
Seja L∗ : M(M ) → M(M ) o operador dual de L agindo sobre o espaço das medidas
de Borel de M, sabemos por definição que à ação do dual satisfaz,
Z
gdL∗ (ν) = L∗ ν(g) = ν(Lg) =
Z
Lgdν.
Esse operador linear é positivo, no sentido de que se η é uma medida positiva então L∗ η
é também positiva.
Daremos agora uma definição que será útil mais adiante.
Definição 2.1.1. Seja T : V → V um operador linear contínuo. O raio espectral é dado
por:
q
r(T ) = n→∞
lim n ||T n ||.
É fácil ver que os espectros de L e L∗ estão contido no disco fechado de raio p.
Chamamos automedida maximal qualquer medida de probabilidade µ que satisfaz
L∗ µ = pµ.
37
Agora para mostraremos à existência de uma medida maximal. Para isso, defina
G : M(M ) → M(M ) no espaço das medidas M(M ) por
1
G(ν) = L∗ (ν).
p
Observe que G está bem definida e é contínua na topologia fraca* em M1 . Com efeito, é
∗
fácil ver que L∗ ν(M ) = pν(M ), portanto, bem definida. Agora dado νk * ν, temos
Z
∗
gdL νk =
Z
Lgdνk →
Z
Lgdν =
Z
gdL∗ ν, ∀g ∈ C(M ).
Isso mostra a continuidade de G na topologia fraca* em M(M ). Desde de que M1 é
um espaço compacto e convexo, usaremos o seguinte teorema para concluir que G possui
ponto fixo.
Teorema 2.1.2 (Tychonoff-Schauder). Seja T : V → V uma transformação contínua num
V um espaço vetorial topológico. Suponha que exita K ⊂ V compacto, convexo tal que
T (K) ⊂ K. Então T possui ponto fixo.
Assim, tomando V = M(M ) e K = M1 , pelo teorema de Tychonoff-Schauder, existe
alguma probabilidade µ tal que G(µ) = µ. Em outras palavras, µ é uma automedida
maximal. Observe também que µ é invariante para f . De fato, para toda g contínua
temos que L(g ◦ f )(x) = pg(x) e
Z
Z
1Z
1Z
∗
(g ◦ f )dµ =
(g ◦ f )dL µ =
L(g ◦ f )dµ = gdµ.
p
p
Logo, pelo seguinte lema concluímos que µ é invariante para f .
Lema 2.1.3. Sejam M um espaço métrico compacto, f : M → M uma transformação
mensurável e µ uma medida em M . Então µ é invariante para f se, e somente se,
Z
gdµ =
Z
(g ◦ f )dµ,
para toda g : M → R contínua.
2.2
Medidas com entropia grande
Nesta seção provaremos que, sob nossas hipóteses, qualquer medida com entropia
grande tem todos os seus expoentes de Lyapunov positivos.
38
2.2.1
Produto exterior
Seja V é um espaço vetorial de dimensão d com um produto interno. Para cada inteiro
k tal que 1 ≤ k ≤ d, seja V ∧k é o espaço das k-linear formas alternadas em V , isto é,
{v1 ∧ · · · ∧ vk ; vi ∈ V para 1 ≤ j ≤ k}
e seus elementos satisfazem:
(a) v1 ∧ · · · ∧ (xui + ywi ) ∧ · · · ∧ vk = x v1 ∧ · · · ∧ u ∧ · · · ∧ vk + y v1 ∧ · · · ∧ w ∧ · · · ∧ vk para
todo x, y ∈ R;
(b) v1 ∧ · · · ∧ u ∧ w ∧ · · · ∧ vk = − v1 ∧ · · · ∧ w ∧ u ∧ · · · ∧ vk .
Para qualquer transformação linear A de V , o k-ésimo produto exterior A∧k de A é a
única transformação linear de V ∧k tal que
A∧k v1 ∧ · · · ∧ vk = Av1 ∧ · · · ∧ Avk
para quaisquer v1 , ..., vk ∈ V ∧1 ≡ V .
Se {e1 , ..., ed } é uma base de V , então {ei1 ∧ · · · ∧ eik : 1 ≤ i1 < · · · < ik ≤ d} é uma base
de V ∧k , por isso dim V ∧k =
d
k .
Podemos definir um produto interno em V ∧k dado por
hv1 ∧ · · · ∧ vk , w1 ∧ · · · ∧ wk i = det(hvi , wj i), 1 ≤ i, j ≤ k,
para quaisquer v1 ∧ · · · ∧ vk , w1 ∧ · · · ∧ wk ∈ V ∧k . A norma induzida satisfaz as seguintes
propriedades:
1. ||v1 ∧ · · · ∧ vk || ≤ ||v1 ∧ · · · ∧ vl ||||vl+1 ∧ · · · ∧ vk || para qualquer l < k,
2. Para quaisquer transformações A, B de V e 1 ≤ k, l ≤ d, os operadores induzidos
satisfazem:
(i) ||(AB)∧k || ≤ ||A∧k ||||B ∧k ||;
(ii) ||A∧(k+l) || ≤ ||A∧k ||||A∧l || ≤ ||A||k+l ;
(iii) (A∧k )∗ = (A∗ )∧k ;
(iv) ||A∧k || =
∗
1/2 .
j=1 λj , onde λ1 ≤ · · · ≤ λd são os autovalores de (A A)
Qk
39
(v) Os autovalores de A∧k são da forma λi1 · · · λik com 1 ≤ ij ≤ d, onde os λj são
autovalores de A.
∧k
k
Dessas propriedades segue que dada (An )n≥1 tal que An → A então A∧
n →A .
2.2.2
Expoente de Lyapunov
Seja M um espaço métrico compacto. Considere (M, B, ρ) o completamento de um
espaço de probabilidade, i. e, B contém todos os subconjuntos de X tal que ρ(X) = 0.
(M, B, ρ) é chamado de espaço de Lebesgue. Seja T : M → GLd uma função mensurável.
Dada τ : M → M uma função que preserva ρ, definimos
Txn = T (τ n−1 (x)) · · · T (τ (x))T (x).
Denotaremos por T ∗ a matriz transposta de T .
Teorema 2.2.1 (Ergódico multiplicativo). Se
log+ ||T (·)|| ∈ L1 (M, ρ).
Então existe Γ ⊂ M tal que τ Γ ⊂ Γ, ρ(Γ) = 1, e as seguintes propriedades valem se x ∈ Γ:
(a) lim((Txn )∗ Txn )1/2n = Λx
(1)
(s)
(b) Sejam exp λx < · · · < exp λx
(r)
os autovalores de Λx ( com s = s(x), os λx
são
(1)
(1)
(s)
reais, e λx pode ser −∞), e Ux , ..., Ux os autoespaços correspondentes. Seja
(r)
(r)
(r)
(r)
(0)
mx = dim Ux . As funções x 7→ λx , mx são τ - invariante. Escrevendo Vx = {0}
(r)
(1)
(r)
e Vx = Ux ⊕ · · · ⊕ Ux , temos:
lim
n→∞
1
quando u ∈ Vx(r) \Vx(r−1)
log+ ||Txn u|| = λ(r)
x
n
para r = 1, ..., s.
(r)
Os números λx
são chamados de expoente de Lyapunov de T no ponto x ∈ M .
Também escreveremos todos os expoentes de Lyapunov como
(2)
(d)
λ(1)
x ≥ λx ≥ · · · ≥ λx ,
onde cada expoente de Lyapunov é repetido de acordo com sua multiplicidade. Chamare(i)
mos λρ de expoente de Lyapunov de ρ que é a integral do i-ésimo expoente de Lyapunov
40
com respeito à medida ρ, i. e,
λ(i)
ρ =
Z
max{0, λ(i)
x }dρ, para i = 1, ..., d.
Mostraremos que o expoente de Lyapunov de T ∧k são as somas de k expoentes de
Lyapunov de T .
Seja T ∧k : M → GL(d) o k-ésimo produto exterior de T . Temos:
k
T ∧k (τ n−1 (x)) · · · T ∧k (x) = (Txn )∧k
e
k
lim ((Txn )∧k )∗ (Txn )∧k )1/2n = n→∞
lim ((Txn )∗ (Txn ))1/2n )∧k = Λ∧
x .
n→∞
(2.1)
De fato, observe que
(T ∧k )nx (u1 ∧ · · · ∧ uk ) = T ∧k (τ n−1 (x)) · · · T ∧k (x)(u1 ∧ · · · ∧ uk )
= T (τ n−1 (x)) · · · T (x)u1 ∧ · · · ∧ T (τ n−1 (x)) · · · T (x)uk
= Txn u1 ∧ · · · ∧ Txn uk
= (Txn )∧k (u1 ∧ · · · ∧ uk )
e
((Txn )∧k )∗ (Txn )∧k (u1 ∧ · · · ∧ uk ) = (Txn )∗ (Txn )u1 ∧ · · · ∧ (Txn )∗ (Txn )uk
= ((Txn )∗ (Txn ))∧k (u1 ∧ · · · ∧ uk ).
Isso mostra à afirmação (2.1).
Assim, pelo Teorema 2.2.1 e da Propriedade (v) acima, segue que os autovalores
k
de Λ∧
x são da forma exp(
(ij )
(i1 )
(ik )
é autoespaço correspondente à
j=1 λx ) e Ux ∧ · · · ∧ Ux
Pk
(i1 , ..., ik ) com 1 ≤ i1 < · · · < ik ≤ s. Com isso, temos
k
X
1
(i )
λx j .
log ||(Txn )∧k (ui1 ∧ · · · ∧ uik )|| =
n→∞ n
j=1
lim
(2.2)
Agora, considere f : M → M um difeomorfismo local de classe C 1 em uma variedade riemaniana compacta. Sejam (M, B, µ) um espaço de Lebesgue e µ uma medida
41
f -invariante. Tomando, T = Df e τ = f , por (2.2), temos
1
log ||(Dfxn )∧k (ui1 ∧ · · · ∧ uik )||.
n→∞ n
λix1 + · · · + λixk = lim
(2.3)
Suponha que,
1
log ||Dfx∧k || < log p.
n
Assim, a soma (2.3) é estritamente menor que log p, para todo k < d.
max max lim sup
1≤k≤d−1 x∈M n→∞
Lema 2.2.2. Se µ é uma medida de probabilidade invariante com alguma integral do
expoente de Lyapunov menor que
c(f ) = log p − max max lim sup
1≤k≤d−1 x∈M n→∞
1
log ||Dfx∧k ||,
n
(2.4)
então hµ (f ) < log p.
Demonstração. Seja µ uma probabilidade invariante, e suponha λd (µ) = max{0, λdx }dµ <
1
P
c(f ). Por (2.3), temos 1≤j≤k λjx ≤ max lim sup log ||Dfx∧k || para todo 1 ≤ k < d. Então,
x∈M n→∞ n
usando a desigualdade de Ruelle 4.8.1,
R
hµ (f ) ≤
Z
X
1
log ||Dfx∧k || ≤ log p.
1≤k≤d−1 x∈M n→∞ n
λjx dµ < c(f ) + max max lim sup
j:λjx >0
Isso prova o lema.
2.3
Tempos hiperbólicos
Nesta introduziremos a noção de tempos hiperbólicos que será útil na construção da
prova do nosso resultado principal.
Definição 2.3.1. Dado c > 0, dizemos que n ∈ N é um c-tempo hiperbólico para x ∈ M
se
j−1
Y
||Df (f n−k (x))−1 || ≤ e−2cj
para todo 1 ≤ j ≤ n.
k=0
No que se segue fixamos c = c(f )/10 e falamos, simplesmente, de tempos hiperbólicos.
Dizemos que f tem densidade de tempos hiperbólicos positiva para x se o conjunto Hx dos
inteiros que são tempos hiperbólicos de f para x satisfaz
1
lim inf #(Hx ∪ [1, n]) > 0.
n
n
O próximo lema mostra que há uma infinidade de tempos hiperbólicos.
(2.5)
42
Proposição 2.3.2. Se um ponto x satisfaz
X
1 n−1
log ||Df (f i (x))−1 || < −4c < 0,
n→+∞ n i=0
lim sup
então f tem densidade de tempos hiperbólicos positiva para x.
Para mostrarmos à proposição precisamos do seguinte lema.
Lema 2.3.3. Dados A ≥ c2 > c1 > 0, seja θ0 = (c2 − c1 )/(A − c1 ). Então, dados quaisquer
números reais a1 , . . . , aN tais que
N
X
aj ≥ c2 N e aj ≤ A para todo 1 ≤ j ≤ N,
j=1
existem l > θ0 N e 1 < n1 < · · · < nl ≤ N de modo que
ni
X
aj ≥ c1 (ni − n) para todo 0 ≤ n ≤ ni − 1 e i = 1, . . . , l.
j=n+1
Demonstração. Defina S(n) =
n
X
(aj − c1 ), para cada 1 ≤ n ≤ N, e também S(0) = 0.
j=1
Então defina 1 < n1 < · · · < nl ≤ N para ser a sequencia maximal tal que S(ni ) ≥ S(n)
para todo 0 ≤ n ≤ ni −1 e i = 1, ..., l. Note que l não pode ser zero, desde que S(N ) > S(0).
Além disso, a definição significa que
ni
X
aj ≥ c1 (ni − n) para 0 ≤ n ≤ ni − 1 e i = 1, ..., l.
j=n+1
Assim, só temos de verificar que l > θ0 N . Observe que, por definição,
S(ni − 1) < S(ni−1 ) e assim S(ni ) < S(ni−1 ) + (A − c1 )
para todo 1 < i ≤ l. Além disso, S(n1 ) ≤ A − c1 e S(nl ) ≥ S(N ) ≥ N (c2 − c1 ). Isso implica,
N (c2 − c1 ) ≤ S(nl ) =
l
X
(S(ni ) − S(ni−1 ) + S(n1 ) < l(A − c1 ),
i=2
que completa a prova.
Agora provaremos a proposição anterior.
43
Demonstração. Como por hipótese
lim sup
n
X
1 n−1
log ||Df (f i (x))−1 || < −4c < 0
n i=0
segue-se
lim inf
n
X
1 n−1
− log ||Df (f i (x))−1 || > 4c > 0.
n i=0
X
1 n−1
Tomando, xn =
− log ||Df (f i (x))−1 || e bn = inf{x1 , ..., xn }, temos
n i=0
b1 ≥ b2 ≥ · · · ≥ bn ≥ · · · ≥ lim bn > 4c.
(2.6)
Assim, se tomarmos ai = − log ||Df (f i (x))−1 ||, c2 = 4c, c1 = 2c e A ≥ c2 suficientemente
grande, de modo que, A ≥ ai para todo i ∈ N, como por exemplo, A = max{− log ||Df (x)−1 ||}.
x∈M
Logo, por (2.6) temos que, dado N ∈ N segue que
N
−1
X
ai ≥ 4cN = c2 N,
i=0
então pelo lema anterior, existem l > θ0 N e 1 < n1 < · · · < nl ≤ N tal que
n
j
X
ai ≥ c1 (nj − n), para 0 ≤ n ≤ nj − 1 e j = 1, ..., l.
i=n+1
Assim, para todo 0 ≤ n ≤ nj − 1,
n
j
X
i=n+1
n
ai = − log
j
Y
||Df (f i (x))−1 || ≥ 2c(nj − n)
(2.7)
i=n+1
fazendo k = nj − n, temos 1 ≤ k ≤ nj e por (2.7) obtemos
k−1
Y
||Df (f nj −m (x))−1 || ≤ e−2ck para todo 1 ≤ k ≤ nj .
m=0
1
#(Hx ∪[1, n]) > θ0 > 0 para todo n ∈
n
N, com isso, segue que a densidade dos tempos hiperbólicos é positiva.
Logo, n1 , ..., nl são tempos hiperbólicos. Portanto,
Observação 2.3.4. A densidade que é, o lim inf em (2.5), é limitado por baixo pela constante θ0 que depende apenas de f e nossa escolha de c.
No próximo lema, temos que os ramos inversos de iterados de f são contrações.
Lema 2.3.5. Existe δ0 > 0, dependendo apenas de f e c, tal que dado qualquer tempo
hiperbólico n ≥ 1 para um ponto x em uma variedade riemaniana compacta M , e dado
44
−j de f j que leva f n (x) à f n−j (x) é definido na bola
qualquer 1 ≤ j ≤ n, o ramo inverso fx,n
de raio δ0 centrada em f n (x), e satisfaz
−j
−j
d(fx,n
(z), fx,n
(w)) ≤ e−cj d(z, w)
para todo z, w na bola de raio δ0 centrada em f n (x).
Antes de começarmos a prova do lema, faremos a seguinte afirmação.
Como f é um difeomorfismo de classe C 1 e M é compacta, podemos tomar ε0 > 0
de modo que para todo ponto x ∈ M tenhamos f |Bε0 (x) um difeomorfismo. Além disso,
dados x, y ∈ M com y ∈ Bε0 (x), temos
||Df (y)−1 ||
≤ ec .
||Df (x)−1 ||
De fato, defina f : M × M → R por
f (x, y) =
||Df (y)−1 ||
,
||Df (x)−1 ||
facilmente vemos que f está bem definida e contínua, logo uniformemente contínua. Assim, dado θ > 0, existe ε > 0 tal que se d(x, y) + d(r, s) = d((x, r); (y, s)) < ε então
|f (x, r) − f (y, s)| < θ.
Daí tomando ε0 suficientemente pequeno, segue que
d(x, y) = d((x, y); (y, y)) < ε ⇒ 1 − θ < f (x, y) < 1 + θ.
Portanto, a afirmação é verdadeira.
Agora demostraremos o lema acima.
Demonstração. Seja n ≥ 1 qualquer tempo hiperbólico para um ponto x ∈ M , então dado
qualquer 1 ≤ j ≤ n, temos
j
Y
||Df (f n−k (x))−1 || ≤ e−2cj .
k=1
A prova será por indução sobre j. Logo, para j = 1 note que, dados z, w ∈ Bδ0 (f n (x)),
onde δ0 o mínimo entre o δ dado pela Observação 4.3.2, e o ε0 da afirmação acima, segue
que
−1
−1
(z), fx,n
(w)) ≤ e−c d(z, w).
d(fx,n
45
Com efeito, seja γ a geodésica ligando z a w com γ([0, 1]) ⊂ Bδ0 (f n (x)). Assim, β(t) =
−1 (γ(t)) é uma curva diferenciável que liga f −1 (z) a f −1 (w) tal que
fx,n
x,n
x,n
−1
−1
d(fx,n
(z), fx,n
(w)) ≤ l(β),
mas
l(β) =
como γ(t) ∈ Bδ0
Z 1
0
||β (t)||dt ≤
Z 1
||Df (γ(t))−1 ||||γ 0 (t)||dt,
0
0
n
(f (x)) para todo t ∈ [0, 1], temos
||Df (γ(t))−1 || ≤ ec ||Df (f n (x))−1 || ≤ e−c .
Assim vale para j = 1. Suponha que valha para j − 1, e usando a mesma ideia veremos
que
−j
−j
j−1
j−1
d(fx,n
(z), fx,n
(w)) ≤ e−c d(fx,n
(z), fx,n
(w)) ≤ e−cj d(z, w).
Isso prova o lema.
O próximo lema será útil quando provamos que f admiti uma partição geradora.
Lema 2.3.6. Dada uma medida ergódica invariante ν cujos os expoentes de Lyapunov
são todos maiores que 8c, existe N ∈ N tal que f N tem densidade de tempos hiperbólicos
positiva para ν-quase todo ponto.
Demonstração. Desde que todos expoente de Lyapunov de ν são maiores do que 8c, para
quase todo x ∈ M existe n0 (x) ≥ 1 tal que
||Df n (x)v|| ≥ e6cn , para todo v ∈ Tx M, com ||v|| = 1, e n ≥ n0 (x).
Em particular,
||Df n (x)w|| ≥ e6cn ||w||, para todo w ∈ Tx M e n ≥ n0 (x).
Em outras palavras,
||Df n (x)−1 || ≤ e−6cn , para todo n ≥ n0 (x).
Defina αn = ν({x; n0 (x) > n}). Desde que f é um difeomorfismo local de classe C 1 , podemos também fixa uma constante K > 0 tal que log ||Df (x)−1 || ≤ K para todo x ∈ M.
46
Então
Z
Z
log ||Df n (x)−1 ||dν =
{x:n≥n0 (x)}
M
log ||Df n (x)−1 ||dν +
Z
{x:n0 (x)>n}
log ||Df n (x)−1 ||dν
≤ −(6c − Kαn )n.
Desde αn → 0 quando n → +∞, escolhendo N suficientemente grande garantimos que
1
log ||Df N (x)−1 ||dν < −4c < 0.
M N
Z
Então, como ν é ergódica para f N , pois seja A um conjunto f N -invariante com medida
positiva, então considere A0 = {x ∈ A : f k (x) ∈ A frenquência infinita} que, pelo Teorema
4.4.9, tem medida igual a medida de A. Como A0 é f -invariante e ν é para f , segue que
A tem medida total, portanto, A também tem. Logo,
Z
X 1
1 n−1
1
N kN
−1
lim
log ||Df (f (y)) || =
log ||Df N (x)−1 ||dν < −4c.
n→∞ n
N
N
M
k=0
Isso significa que podemos aplicar Proposição 2.3.2 para concluir.
Segundo a Observação 2.3.4, temos que a densidade de tempos hiperbólicos é limitada
por baixo por uma constante que depende apenas de f N e nossa escolha de c.
Lema 2.3.7. Sejam B ⊂ M, θ > 0 e g : M → M um difeomorfismo local tal que g tem
densidade de tempos hiperbólicos maior que 2θ para todo x ∈ B. Então, dado qualquer
medida de probabilidade ν em B e qualquer m ≥ 1, existe n > m tal que
ν({x ∈ B : n é tempo hiperbólico de g para x}) > θ.
Demonstração. Defina H como o conjunto dos pares (x, n) ∈ B × N tal que n é um tempo
hiperbólico para x. Ou seja, H ∩ ({x} × N) = Hx . Para cada k ≥ 1, seja Xk a medida
de contagem no intervalo [m + 1, m + k]. A hipótese implica que, dado quaisquer x ∈ B,
temos
Xk (Hx ) > 2θ
para todo k suficientemente grande. De fato,
1
1
1
#(Hx ∩ [1, n]) = #(Hx ∩ [1, m]) + #(Hx ∩ [m + 1, n]).
n
n
n
Tomando k = n − m, segue que
1
1
1
#(Hx ∩ [1, n]) = #(Hx ∩ [1, m]) + #(Hx ∩ [m + 1, n])
n
n
n
(2.8)
47
=
1
n−m
#(Hx ∩ [1, m]) +
Xk (Hx ).
n
n
Logo,
1
2θ < lim inf #(Hx ∩ [1, n])) = lim inf Xk (Hx ).
n
(2.9)
Isso pelo seguinte lema.
Lema 2.3.8. Se an = bn + cn , onde bn → 0 com an e cn limitadas inferiormente. Então
lim inf an = lim inf cn .
Com efeito, como lim inf an = lim inf(bn + cn ) ≥ lim inf cn . Por outro lado, cn = an − bn
segue que lim inf cn ≥ lim inf an − lim sup bn = lim inf an .
Isso demonstra o lema.
De (2.9), temos que existe k0 = k0 (x) tal que para todo k > k0 valha
Xk (Hx ) > 2θ.
Agora, fixe k ≥ 1 de modo que que valha (2.8) para um subconjunto C de pontos
x ∈ B com ν(C) > 1/2, isso porque, considerando Bk = {x ∈ B; Xk (Hx ) > 2θ} segue que
Bk ⊂ Bk+1 e B = ∪k Bk , portanto limk→∞ ν(Bk ) → 1. Considere, XH : B × N → R. Logo,
pelo teorema de Fubini,
(ν × Xk )(H) >
Z Z
XH (x, n)dXk dν =
C
Z
C
Xk (Hx )dν >
Z
2θdν > θ,
C
isso implica que
ν(H ∩ (B × {n})) > θ
para algum n ∈ [m + 1, m + k]. Caso contrário, temos
ZZ
XH (x, n)dνdXk =
Absurdo, pois (ν × Xk )(H) =
RR
Z
ν(H ∩ (B × {n}))dXk ≤ θ.
XH (x, n)dνdXk . Portanto, existe n ∈ [m + 1, m + k] tal
que ν(H ∩ (B × {n})) > θ.
2.4
Partições geradoras
Andes de provarmos a existência de uma partição geradora, daremos algumas infor-
mações úteis para o que segue.
Definição 2.4.1. Uma medida boreliana ν num espaço topológico é regular se para todo
48
subconjunto B e todo ε > 0 existe um conjunto fechado F e um conjunto aberto A tais
que F ⊂ B ⊂ A e ν(F \A) < ε.
Lema 2.4.2. Toda medida de probabilidade em um espaço métrico M é regular.
Demonstração. Seja B0 a família dos subconjunto borelianos B tais que para todo ε > 0
existe um fechado Fε e um aberto Aε satisfazendo Fε ⊂ B ⊂ Aε e ν(Fε \Aε ) < ε. Mostraremos que B0 é uma σ-álgebra. Claramente M ∈ B0 . Seja B ∈ B0 ; mostraremos que
B c ∈ B0 . se ε > 0 existem Fε fechado, Aε aberto com Fε ⊂ B ⊂ Aε tal que ν(Fε \Aε ) < ε.
Assim Acε ⊂ B c ⊂ Fεc e Acε \Fεc = Aε \Fε , então ν(Acε \Fεc ) = ν(Aε \Fε ) < ε. Portanto B ∈ B0 .
Agora mostraremos que B0 é fechado sobre a união enumerável. Sejam B1 , B2 , ... ∈ B0
e seja B = ∪∞
i Bi . Seja ε > 0 dado. Existem abertos Aε,i , fechados Fε,i tais que Fε,i ⊂ Bi ⊂
Aε,i e ν(Aε,i \Fε,i ) < ε/3i . Sejam Aε = ∪∞ Aε,i (que é aberto), F˜ε = ∪∞ Fε,i , e escolhendo
i=1
i=1
k tal que ν(F˜ε \ ∪ki=1 Fε,i ) < ε/2. Seja Fε = ∪ki=1 Fε,i (que é fechado). Temos Fε ⊂ B ⊂ Aε .
Assim,
ν(Aε \Fε ) ≤ ν(Aε \F˜ε ) + ν(F˜ε \Fε )
≤
≤
∞
X
ν(Aε,i \Fε,i ) + ν(F˜ε \Fε )
i=1
∞
X
ε ε
+ = ε.
i
3
2
i=1
Portanto, B0 é uma σ-álgebra.
Para completar a prova mostraremos que B0 contém todos os subconjuntos fechados
de M . Seja B um conjunto fechado e ε > 0. Considere An = {x ∈ M : d(B, x) < 1/n}
um conjunto aberto, então A1 ⊃ A2 ⊃ · · · ⊃ An ⊃ · · · e ∩∞
i=1 Ai = B. Escolha k tal que
ν(Ak \B) < ε, seja Fε = B e Aε = Ak . Isso mostra que B ∈ B0 .
Em todo que segue a constante δ0 > 0 está fixada como dada no Lema 2.3.5.
Lema 2.4.3. Se ν é uma medida ergódica invariante tal que todos os seus expoente de
Lyapunov são maiores que 8c, e α é uma partição com diâmetro menor que δ0 . Então
para ν-quase todo ponto x ∈ M , o diâmetro de αn (x) vai a zero quando n vai a infinito.
Em particular, α é uma partição f -geradora com respeito à ν.
Demonstração. Pelo Lema 2.3.6 existe N ≥ 1 tal que f N tem densidade de tempos hiper-
49
bólicos positivo para ν-quase todo ponto. Defina
γk =
k−1
_
f −jN (α) para cada k ≥ 1.
j=0
Pelo Lema 2.3.5, se k é um tempo hiperbólico de f N para x então diam γk (x) ≤ e−ck .
Em particular, uma vez que os conjuntos γk (x) são não-crescentes com k, o diâmetro de
γk (x) vai a zero quando k → ∞. Visto que αkN (x) ⊂ γk (x) e a sequência diam αn (x) é
não-crescente, isso imediatamente nos dá que o diâmetro de αn (x)vai a zero quando n vai
ao infinito, para ν-quase todo ponto x ∈ M . Pela prova do Corolário 1.2.9.1, temos que a
álgebra A gerada por ∪n αn gera a σ-álgebra de Borel. Isso completa a prova.
2.5
Fórmula de Rokhlin
O próximo teorema será útil para mostrarmos a existência do jacobiano para um
difeomorfismo local em uma variedade riemaniana compacta.
Teorema 2.5.1 (Teorema fundamental de seções transversais de Rokhlin). Seja M um
espaço métrico completo e separável. Suponha que A e B são duas partições mensuráveis
de um espaço de Lebesgue (M, F, ν) tal que para νβ -quase toda fibras B em B, A∩B = {A∩
B : A ∈ A} é enumerável para νB . Então existe uma partição enumerável γ = {γ1 , γ, ...}
de M tal que cada γj ∈ γ intersecta quase todo B em no máximo um ponto ( mod 0) para
νB , que é então um átomo de νB .
Demonstração. A prova desse fato está em (4).
Lema 2.5.2. Se f : M → M é um difeomorfismo local num espaço métrico compacto, ν
uma medida de probabilidade f -invariante. Então ν é não-singular com respeito à f .
Demonstração. Sejam A = ε e B = f −1 (ε) duas partições mensurável, onde ε representa a
partição por pontos. Como A ∩ B é enumerável, pois f −1 (x) é finita, temos, pelo Teorema
2.5.1, que existe uma partição γ = {γ1 , γ2 , ...} tal que cada γj ∈ γ intersecta νB -quase todo
B em no máximo um ponto para νB , que é então um átomo de νB . Considere Y ⊂ M ,
Y =
\
f −n (∪j≥1 γj ).
n≥0
Note que, f (Y ) ⊂ Y e para todo x ∈ Y, f −1 (x) ∩ Y consiste apenas de átomos da medida
condicional νf −1 (x) . Considere (YA , FA , fA ) (como no Apêndice). Assim, para B ⊂ Y
50
mensurável, o conjunto
{A ∈ A : νA (B ∩ A) 6= 0} = {A ∈ A : A ∩ B 6= ∅}
(2.10)
é mensurável em FA e assim sua imagem por fA , igual f (B), é mensurável. Se ν(B) = 0,
então o conjunto em (2.10) tem medida νA igual a 0, como fA é isomorfismo, obtemos
que f (B) é mensurável e tem medida 0. Portanto, ν é não-singular.
Seja f : M → M uma transformação mensurável, ν é uma probabilidade invariante.
Suponha que existe uma partição finita ou enumerável α de M tal que
(a) f é localmente injetiva, o que significa que é injetiva em todos os átomos de α;
(b) α é f -geradora com respeito à ν, no sentido que diam α(x) → 0 para ν-quase todo
ponto x ∈ M.
Teorema 2.5.3 (Versão fraca da Fórmula de Rokhlin). Seja f : M → M uma difeomorfismo local num espaço métrico compacto e seja ν uma probabilidade invariante por f .
Suponha que existe uma partição finita ou enumerável α satisfazendo (a) e (b). Então
hν (f ) =
Z
log Jν f dν.
Demonstração. Basta observar que a partição α satisfaz a hipótese do Teorema 1.3.4.
51
3
RESULTADO PRINCIPAL
Aqui sempre consideraremos M uma variedade riemaniana de classe C 1 , compacta,
conexa e d-dimensional.
Teorema 3.0.4. Seja f : M → M um difeomorfismo local de classe C 1 e grau p ≥ 1. Se
f satisfaz:
1
log ||(Dfxn )∧k || < log p.
1≤k≤d−1 x∈M n→∞ n
max max lim sup
(3.1)
Então htop (f ) = log p, e qualquer automedida maximal µ do dual do operador de transferência L é uma medida maximizante. Em particular, existe alguma medida maximizante
para f . Se f é topologicamente mixing então a medida maximizante é única e positiva
nos abertos.
3.1
Existência
Aqui provaremos que toda automedida maximal é uma medida maximizante. O pri-
meiro passo é:
Lema 3.1.1. Se µ é uma automedida maximal então Jµ f é constante igual à p.
Demonstração. Seja A qualquer conjunto mensurável tal que f |A é injetiva. Tome uma
sequência {gn } ∈ C(M ) tal que gn → XA em µ-quase todo ponto e sup |gn | ≤ 2 para todo
n. Por definição,
Lgn (x) =
X
gn (y).
y:f (y)=x
Observe que a expressão passada converge para Xf (A) em µ-quase todo ponto. Assim,
pelo teorema da convergência dominada,
Z
pgn dµ =
Z
gn d(L∗ µ) =
Z
Lgn dµ → µ(f (A)).
52
Por outro lado, temos que
R
A pdµ, concluímos que
µ(f (A)) =
Z
pdµ.
A
O seguinte lema será útil para concluirmos que a integral do expoente de Lyapunov é
positivo.
Lema 3.1.2. Se µ é uma automedida maximal então hµ ≥ log p.
Demonstração. Definimos a bola dinâmica B (n, x) por
B (n, x) = {y ∈ M ; d(f i (x), f i (y)) < para i = 0, ...n − 1}.
Tome é pequeno o suficiente para que f |f j (B (n,x)) seja injetiva para j = 0, ..., n − 1 e
para todo n. Isso é possível, pois basta tomar de modo que 2 seja menor que o número
de Lebesgue de uma cobertura {Uk }N
k=1 de M cuja f |Uk é injetiva para todo k = 1, ..., N .
Assim, como f j (B (n, x)) tem diâmetro menor que 2, temos f j (B (n, x)) ⊂ Uk para algum
1 ≤ k ≤ N . Então tomando como acima e pelo fato de que Jµ f = p, segue-se
1 = µ(M ) ≥ µ(f n (B (n, x))) = pn µ(B (n, x)).
Em particular, podemos concluir que
1
log p ≤ − log µ(B (n, x)), ∀n ∈ N
n
log p ≤ lim inf (−1/n) log µ(B (n, x)) = − lim sup(1/n) log µ(B (n, x)),
n
n
para todo pequeno. Pela formula local da entropia de Brin-Katok 4.7.1(Apêndice),
temos
hµ (f ) = −
Z
lim lim sup(1/n) log µ(B (n, x))dµ(x) ≥ log p.
→0
n
Corolário 3.1.2.1. Toda automedida ergódica maximal µ tem entropia igual a log p.
Demonstração. Pelo Lema 3.1.2, a entropia é no mínimo log p. Então, podemos aplicar
o Lema 2.2.2, para concluir que todos os expoentes de Lyapunov de µ são positivos.
Segue-se, pelo Lema 2.4.3, que µ admite uma partição geradora com diâmetro pequeno.
53
Portanto, podemos aplicar a Teorema 2.5.3 e o Lema 3.1.1, para encontrar que
hµ (f ) =
Z
log Jµ dµ = log p.
No seguinte lema mostraremos que a entropia topológica é igual a log p.
Lema 3.1.3. A entropia topológica htop (f ) = log p. Além disso, se η é alguma medida
ergódica maximizante então Jη f é constante igual a p.
Demonstração. Usando a afirmação (1.23), basta apenas considerar as probabilidades
ergódicas. Seja η uma probabilidade ergódica tal que hη (f ) ≥ log p. Pelo Lema 2.2.2
todos expoentes de Lyapunov de η são maiores que c(f ). Então, pelo Lema 2.4.3, existe
uma partição geradora com diâmetro arbitrariamente pequeno. Isso garante que podemos
aplicar Teorema 2.5.3 para η, e então obter que
hη (f ) =
Z
log Jη (f )dη.
(3.2)
Vamos escrever gη = 1/(Jη (f )). Como por hipótese η é f -invariante, segue-se que
X
gη (y) = 1
y:f (y)=x
para η-quase todo ponto x ∈ M . Da igualdade (3.2) e usando o Lema 4.4.11, temos
0 ≤ hη (f ) − log p =
Z
log
Z
X
p−1
p−1
dη =
gη (y) log
dη.
gη
gη (y)
y:f (y)=x
(3.3)
Agora, usaremos o seguinte fato elementar de cálculo:
Lema 3.1.4. Sejam pi , xi números reais positivos para, i = 1, ...n, tal que
n
X
pi log xi ≤ log
i=1
X
n
n
X
pi = 1. Então
i=1
p i xi
e a igualdade vale se, e somente se, os xi são todos iguais.
i=1
Tome pi = gη (y) e xi = p−1 /gη , obtemos
X
y:f (y)=x
X
X
p−1
p−1
≤ log
gη (y)
= log
p−1 = 0
gη (y)
g
(y)
η
y:f (y)=x
y:f (y)=x
gη (y) log
(3.4)
54
em η-quase todo ponto. Desde que a integral é não-negativa, por (3.3), a igualdade
é valida η-quase toda parte, e hη (f ) − log p = 0. Como η é arbitrário, isso mostra que
htop (f ) = log p.
De (3.3) e (3.4), obtemos a seguinte igualdade:
X
p−1
p−1
gη (y) log
= log
= 0 para η − q.t.p. x ∈ M.
gη (y)
gη (y)
gη (y)
y:f (y)=x
y:f (y)=x
X
(3.5)
Assim, pelo Lema 3.1.4, segue que p−1 /gη (y) são o mesmo para todos y ∈ f −1 (x). Em
outras palavras, para η-quase todo x ∈ M existe um número c(x) tal que p−1 /gη (y) = c(x)
para todo y ∈ f −1 (x). Então
X
X
p−1
1
=
=
gη (y) = 1
c(x) y∈f −1 (x) c(x) y∈f −1 (x)
para η-quase todo ponto x ∈ M. Isso significa, precisamente, que Jη f (y) = p para todo
y ∈ f −1 (x) e x pertencente a um conjunto de medida η total.
Isso prova a existência de uma medida maximizante.
3.2
Unicidade
Nesta seção assumiremos f topologicamente mixing, e concluiremos que a medida
maximizante é única e suportada em todo ambiente M. È suficiente considerar as medidas ergódicas. Porque, pela observação feita do Teorema de Jacobs 4.5.2(Apêndice), as
componentes ergódicas de medidas maximizante também são medidas maximizantes.
Lema 3.2.1. Qualquer medida maximizante ergódica µ é suportada nos abertos de M .
Demonstração. Suponha µ(U ) = 0 para algum conjunto aberto não vazio U . Pela hipótese
mixing, existe N ≥ 1 tal que f N (U ) = M. Partindo U em subconjuntos U1 , ..., Uk de modo
que f |Uj seja injetiva, obtemos que
N
µ(f (Uj )) =
Z
Uj
Jµ f N dµ = 0
para todo j = 1, ..., k. Pelo Lema 3.1.3, temos que Jµ f N é constante. Isso implica que
µ(f N (U )) = 0, que é uma contradição.
55
Isso tem a seguinte consequência útil: dada qualquer δ > 0 existe b = b(δ) tal que
µ(B(x, δ)) ≥ b para todo x ∈ M.
(3.6)
De fato, suponha que existem δ > 0 e uma sequência (xn )n≥1 tal que µ(B(xn , δ)) < 1/n
então, considerando um ponto de acumulação x e uma bola B(x, δ/2), temos que passando
a uma subsequência se necessário todas as bolas B(xn , δ) contém a bola B(x, δ/2). Daí
segue, µ(B(x, δ)) = 0. O que contradiz o Lema 3.2.1.
Agora sejam µ1 e µ2 quaisquer duas medidas maximizantes ergódicas. Nosso objetivo
é provar que as duas medidas coincidem. Como um primeiro passo provaremos que elas
são equivalentes. Para isso, fixemos quaisquer partição P finita de M tal que os elementos
P ∈ P tem interior não-vazio, e o bordo ∂P tem medida zero para ambas µ1 e µ2 . Isso
é possível, pois dado x ∈ M temos uma quantidade não enumerável para ∂B(x, ε). Logo,
µ(∂B(x, ε)) > 0 no máximo para uma quantidade enumerável de ε, portanto, podemos
pegar tal partição e cada elemento dessa partição tenha diâmetro tão pequeno quanto
desejado. Fixando δ > 0 pequeno o suficiente de modo que todo P ∈ P contenha alguma
bola de raio δ, usando (3.6) para ambas medidas, concluímos que existe a > 0 tal que
µ1 (P ) ≤ aµ2 (P ) e µ2 (P ) ≤ aµ1 (P ) para todo P ∈ P.
(3.7)
Agora seja g um ramo inverso de qualquer iterado f n , n ≥ 1. Usando Lema 3.1.3, obtemos
µi (P ) = µi (f n (g(P ))) =
Z
g(P )
Jµi f n dµi = pn µi (g(P ))
para i = 1, 2. Por (3.7), segue que
µ1 (g(P )) ≤ aµ2 (g(P )) e µ2 (g(P )) ≤ aµ1 (g(P ))
(3.8)
para todo P ∈ P e todo ramo inverso g de f n , para quaisquer n ≥ 1. Denotamos por Q a
família de todos os g(P ).
Lema 3.2.2. Dados quaisquer conjunto mensurável E ⊂ M e ε > 0 existe uma família E
de elementos disjuntos de Q tal que
µi E\
[
g(P )∈E
g(P ) = 0 e µi
[
g(P )\E ≤ ε para i = 1 2.
g(P )∈E
Demonstração. Pelo Lema 2.2.2, todos expoentes de Lyapunov de µi maiores que c(f ).
56
Pelo Lema 2.3.6, existem N ≥ 1 e θ > 0, com θ dependendo apenas de f N e da escolha de
c, tal que µi -quase todo ponto tem densidade de tempos hiperbólicos para f N maior que
2θ.
Sejam U1 um conjunto aberto e K1 um conjunto compacto tais que K1 ⊂ E ⊂ U1
e µi (U1 \E) ≤ ε para i = 1, 2, com µi (K1 ) ≥ 21 µi (E). Usando Lema 2.3.7, com B = K1
e ν = µi /µi (K1 ), podemos encontrar n1 ≥ 1 tal que e−cn1 < d(K1 , U1c ) e o subconjunto
L1 dos pontos x ∈ K1 para os quais n1 é um tempo hiperbólico para f N satisfazendo
µi (L1 ) ≥ θµi (K1 ) ≥ (θ/2)µi (E). Seja E1 a família de todos g(P ) que intersecta L1 , com
P ∈ P e g um ramo inverso de f N n1 . Note que os elementos de E1 são dois a dois disjuntos,
porque os elementos de P são dois a dois disjuntos. Além disso, pelo Lema 2.3.5, seus
diâmetros são menores que e−cn1 . Assim, a união E1 de todos os elementos de E1 está
contido em U1 . Por construção, temos
µi (E1 ∩ E) ≥ µi (L1 ) ≥ θµi (K1 ) ≥ (θ/2)µi (E).
Agora, considere o conjunto aberto U2 = U1 \Ē1 , seja K2 ⊂ E\Ē1 um conjunto compacto tal que µi (K2 ) ≥ (1/2)µi (E\E1 ). Observe que µi (Ē1 \E1 ) = 0, pois as fronteiras dos
átomos de P tem medida zero e elas são preservadas pelos ramos inversos, desde de que
µ1 , µ2 são invariantes. Seguindo o mesmo raciocínio, podemos encontrar n2 > n1 tais que
e−cn2 < d(K2 , U2c ) e um conjunto L2 ⊂ K2 dos pontos x tal que n2 é tempo hiperbólico
para f N com µi (L2 ) ≥ θµi (K2 ). Denote por E2 a família de imagens inversas g(P ) que
intersecta L2 , com P ∈ P e g um ramo inverso de f N n2 . Como antes, os elementos de E2
são dois a dois disjuntos, seus diâmetros são menores que e−cn2 . Logo, sua união E2 está
contida em U2 . Consequentemente, os elementos da união E1 ∪ E2 são também dois a dois
disjuntos. Além disso,
µi (E2 ∩ [E\E1 ]) ≥ µi (L2 ) ≥ θµi (K2 ) ≥ (θ/2)µi (E\E1 ).
Repetindo esse processo, construímos a família Ek , k ≥ 1, de elementos de Q tais que seus
elementos são todos dois a dois disjuntos, estão contidos em U1 e
µi (Ek+1 ∩ [E\(E1 ∪ · · · ∪ Ek )]) ≥ (θ/2)µi (E\(E1 ∪ · · · ∪ Ek ))
para cada k ≥ 1, onde Ej =
(3.9)
g(P ). Assim, µi (∪∞
k=1 Ek \E) ≤ µi (U1 \E) ≤ ε para
[
g(P )∈Ej
i = 1, 2, e (3.9) implica que
µi (E\ ∪∞
k=1 Ek ) = 0.
57
Desde que,
[E\(E1 ∪ · · · ∪ En+1 )] ∪ [En+1 ∩ (E\(E1 ∪ · · · ∪ En )] = E\(E1 ∪ · · · ∪ En ).
Logo,
µi E\(E1 ∪ · · · ∪ En+1 ) ≤ 1 −
θ n+1
µi (E).
2
Isso completa a prova do lema, com E = ∪∞
k=1 Ek .
Logo, µ1 , µ2 são probabilidades ergódicas absolutamente contínuas, pois se µ1 (E) = 0,
pelo Lema 3.2.2, temos que
µ2 (E) ≤ µ2 (
[
g(P )∈E
[
g(P )) ≤ Bµ1 (
g(P ))
g(P )∈E
= B(µ1 (
[
g(P )∈E
g(P )
\
E) + µi (
[
g(P )\E)) < ε.
g(P )∈E
Como ε > 0 é arbitrário, isso prova o desejado. Portanto, segue-se µ1 = µ2 . Isso prova a
unicidade.
58
4
APÊNDICE
4.1
Variedades diferenciáveis; espaços tangentes
Definição 4.1.1. Uma variedade diferenciável de dimensão n é um conjunto M e uma
família de aplicações injetivas xα : Uα ⊂ Rn → M de abertos Uα de Rn em M tais que:
(1)
[
xα (Uα ) = M ;
α
−1
(2) Para todo par α, β, com xα (Uα ) ∩ xβ (Uβ ) = W 6= ∅, os conjuntos x−1
α (W ) e xβ (W )
são abertos de Rn e as aplicações x−1
β ◦ xα são diferenciáveis;
(3) A família {(Uα , xα )} é máxima relativamente às condições (1) e (2).
O par (Uα , xα ) com p ∈ xα (Uα ) é chamado uma parametrização de M em p. Uma
família {(Uα , xα )} satisfazendo (1) e (2) é chamada uma estrutura diferenciável em M .
Observação 4.1.2. Uma estrutura diferenciável em M induz de maneira natural uma ton
pologia em M . A ⊂ M é aberto de M se x−1
α (A ∩ xα (Uα )) é aberto em R para todo
α. Denotaremos por M n uma variedade de dimensão n. Dizemos que uma variedade é
de classe C r , r ≥ 1, se existe uma família satisfazendo (1), (2) e (3) tal que x−1
β ◦ xα é de
classe C r .
Figura 1: Variedade diferenciável
59
Definição 4.1.3. Sejam M1n e M2m variedades diferenciáveis. Uma aplicação ϕ : M1 → M2
é diferenciável em p ∈ M1 se dada uma parametrização y : V ⊂ Rm → M2 em ϕ(p) existe
uma parametrização x : U → M1 em p tal que ϕ(U ) ⊂ y(V ) e a aplicação
y −1 ◦ ϕ ◦ x : U ⊂ Rn → Rm
(4.1)
é diferenciável em x−1 (p).
Figura 2: ϕ diferenciável em p
ϕ é diferenciável em um aberto de M1 se é diferenciável em todos os pontos desse
aberto.
Decorre, da condição (2) da Definição (4.1.1), que a definição acima independe das
escolhas das parametrizações. A aplicação (4.1) é chamada expressão de ϕ nas parametrizações x e y. Sejam M1 e M2 variedades de classes C r , ≥ 1, a aplicação ϕ é dita de
classe C k , k ≤ r se sua expressão em x e y é de classe C k .
Daremos agora uma noção de vetor tangente às variedades diferenciáveis.
Definição 4.1.4. Seja M uma variedade diferenciável. Uma aplicação diferenciável α :
(−ε, ε) → M é chamada uma curva (diferenciável) em M . Suponha α(0) = p ∈ M , e seja
D o conjunto das funções de M diferenciáveis em p. O vetor tangente à curva em t = 0 é
a função α0 (0) : D → R dada por
α0 (0)f =
d
(f ◦ α)(t)
f ∈ D.
dt
t=0
Um vetor tangente em p é o vetor tangente em t = 0 de alguma curva α : (−ε, ε) → M
com α(0) = p. O conjunto dos vetores à M em p será indicado por Tp M .
60
Se escolhermos uma parametrização x : U → M em p = x(0), podemos exprimir a
função f e a curva α nessa parametrização por
f ◦ x(q) = f (x1 , ..., xn ), q = (x1 , ..., xn ) ∈ U,
e
x−1 ◦ α(t) = (x1 (t), ..., xn (t)),
respectivamente. Portanto, restringindo f à α, obteremos
α0 (0)f =
=
n
X
i=1
d
d
= f (x1 (t), ..., xn (t))
(f ◦ α)(t)
dt
dt
t=0
t=0
x0i (0)
n
X
∂f
∂
= ds x0i (0)
∂xi
∂xi
i=1
f.
0
Em outras palavras, o vetor α0 (0) pode ser expresso na parametrização x por
α0 (0) =
n
X
i=1
Observe que
∂
∂xi
xi
∂
∂xi
.
(4.2)
0
é o vetor tangente em p à curva "curva coordenada":
0
xi → x(0, ..., 0, xi , 0, ..., 0).
Figura 3: Curvas coordenadas e seus vetores tangentes
A expressão (4.2) mostra que o vetor tangente a uma curva α em p depende apenas
das derivadas de α em um sistema de coordenadas. Decorre também de (4.2) que o
conjunto Tp M , com as operações usuais de funções, forma um espaço vetorial de dimensão
n, e que a escolha de uma parametrização x : U → M determina uma base associada
61
∂
∂x1
, ...,
0
∂
∂xn
em Tp M (Fig.3). É imediato que a estrutura linear em Tp M assim
0
definida não depende da parametrização x. O espaço vetorial T pM é chamado o espaço
tangente de M em p.
Com a noção de espaço tangente podemos estender às variedades diferenciável a noção
de diferencial de uma aplicação diferenciável.
Proposição 4.1.5. Sejam M1n e M2m variedades diferenciáveis e seja ϕ : M1 → M2 uma
aplicação diferenciável. Para cada p ∈ M1 e cada v ∈ Tp M , escolha uma curva diferenciável
α : (−ε, ε) → M1 com α(0) = p, α0 (0) = v. Faça β = ϕ ◦ α. A aplicação dϕp : Tp M1 →
Tϕ(p) M2 dada por dϕp (v) = β 0 (0) é uma aplicação linear que não depende da escolha de
α.
Demonstração. Sejam x : U → M1 e y : V → M2 parametrizações em p e ϕ(p), respectivamente. Exprimindo ϕ nestas parametrizações, podemos escrever
y −1 ◦ ϕ ◦ x(q) = (y1 (x1 , ..., xn ), ..., ym (x1 , ..., xn ))
q = (x1 , ..., xn ) ∈ U, (y1 , ..., ym ) ∈ V.
Por outro lado, exprimindo α na parametrização x, obtemos
x−1 ◦ α(t) = (x1 (t), ..., xn (t)).
Portanto,
y −1 ◦ β(t) = (y1 (x1 (t), ..., xn (t)), ..., ym (x1 (t), ..., xn (t))).
Decorre daí que a expressão de β 0 (0) na base
trização y, é dada por
β 0 (0) =
X
n
∂
∂yi
0
de Tϕ(p) M2 , associada à parame-
n
X
∂ym 0
∂y1 0
xi (0), ...,
xi (0) .
i=1 ∂xi
i=1 ∂xi
(4.3)
A relação (4.3) mostra que β 0 (0) não depende da escolha de α. Além disso, (4.3) pode ser
escrito como
∂yi
β (0) = dϕp (v) =
(x0j (0)), i = 1, ..., m; j = 1, ..., n,
∂xj
0
∂yi
indica uma matriz m × n e x0j (0) indica uma matriz coluna com n elemen∂xj
tos. Portanto, dϕp é uma aplicação linear de Tp M1 em Tϕ(p) M2 cuja matriz nas bases
∂yi
associadas às parametrizações x e y é precisamente a matriz
.
∂xj
onde
62
A aplicação dϕp é chamada diferencial de ϕ em p. Agora daremos à definição de
difeomorfismo local.
Definição 4.1.6. Sejam M1 e M2 variedades diferenciáveis. Uma aplicação ϕ : M1 → M2
é um difeomorfismo se ela é diferenciável, bijetiva e sua inversa ϕ−1 é diferenciável. ϕ é
um difeomorfismo local se para todo ponto p ∈ M1 existem vizinhanças U de p e V de
ϕ(p) tais que ϕ : U → V é um difeomorfismo.
Sejam M1 , M2 variedades diferenciáveis de classes C r . ϕ : M1 → M2 é um difeomorfismo de classe C k , k ≤ r, se ϕ é de classe C k e é um difeomorfismo. Analogamente, ϕ é
um difeomorfismo local de classe C k se para todo ponto p ∈ M1 existem vizinhanças U de
p e V de ϕ(p) tais que ϕ : U → V é um difeomorfismo de classe C k . Segue do teorema da
aplicação inversa em Rn , ver (3), que sendo ϕ um difeomorfismo de classe C k então ϕ−1
também é de classe C k .
4.2
Variedades Riemanniana
Uma métrica riemanniana numa variedade diferenciável M é uma correspondência
que associa a cada ponto p ∈ M um produto interno no espaço tangente Tp M .
Seja g uma métrica riemanniana em M . Indicamos por hu, vip ou simplesmente hu, vi
o produto interno dos vetores u, v ∈ Tp M .
O comprimento ou norma do vetor tangente u ∈ Tp M é definido obviamente por
|u| =
q
hu, vi.
Uma variedade diferenciável onde está definida uma métrica riemanniana chama-se
uma variedade riemanniana. Ou seja, trata-se de um par (M, h·, ·i) onde h·, ·i é uma
métrica riemanniana na variedade M .
Observação 4.2.1. É possível definir uma métrica riemanniana de classe C k−1 em qualquer
variedade M ∈ C k .
4.3
A distância intrínseca
Numa variedade riemanniana M , faz sentido falar em muitos conceitos geométricos.
Por exemplo, podemos definir o comprimento de um caminho α : [0, 1] → M , de classe
63
C 1 , pondo l(α) = 01 |α0 (t)|dt. Nessa expressão, |α0 (t)| =
R
q
hα0 (t), α0 (t)i é a norma do verto
tangente α0 (t) ∈ Tα(t) M , segundo o produto interno definido pela métrica de M .
Um caminho α : [0, 1] → M diz-se seccionalmente de classe C 1 se α é contínua e existe
uma partição 0 = t0 < t1 < · · · < tm = 1 tal que αi = α|[ti ,ti−1 ] é de classe C 1 para todo
i = 1, ..., m. Assim, definimos o comprimento de α por
l(α) = l(α1 ) + · · · + l(αm )
A aditividade da integral mostra que l(α) não depende da escolha da partição.
Seja M uma variedade conexa, de classe C k . Dados p, q ∈ M , existe um caminho
α : [0, 1] → M seccionalmente de classe C k , tal que α(0) = p e α(1) = q, ver (3).
Podemos então definir a distância intrínseca d(p, q) entre dois pontos p, q de uma
variedade riemanniana conexa por
d(p, q) = inf{l(α) : α é uma curva C 1 por partes ligando p a q}.
Seja M uma variedade diferenciável, com uma métrica riemanniana contínua. A
distância intrínseca acima definida satisfaz os axiomas que definem um espaço métrico.
Além disso, a topologia dessa métrica coincide com a inicial, ver (3).
A seguir daremos algumas definições e enunciaremos uma proposição que será útil
mais adiante, mas não daremos à prova desse fato que pode ser encontrada em (3).
Uma curva γ tal que d(γ(0), γ(1)) = l(γ) é chamada de geodésica minimizante. Diremos também que um conjunto S ⊂ M é fortemente convexo se para quaisquer dois pontos
q1 , q2 do fecho S de S existe uma única geodésica minimizante γ ligando q1 a q2 cujo
interior está contido em S.
Proposição 4.3.1 (vizinhanças convexa). Para cada p ∈ M existe um número δ > 0 tal
que a bola geodésica Bδ(p) é fortemente convexa.
Observação 4.3.2. Como M é compacta podemos na Proposição 4.3.1 tomar δ > 0 uniforme.
4.4
Isomorfismo e conjugação de transformações
Definição 4.4.1. Suponha (X1 , B1 , ν1 , T1 ) e (X2 , B2 , ν2 , T2 ) são espaços de probabilidades
junto com transformações que preservem as medidas. Dizemos que T1 é isomorfo à T2 se
64
existe M1 ∈ B1 e M2 ∈ B2 com ν1 (M1 ) = 1 e ν2 (M2 ) = 1 tal que
(i) T1 (M1 ) ⊂ M1 , T2 (M2 ) ⊂ M2 , e
(ii) Existe uma transformação invertível φ : M1 → M2 tal que
φT1 (x) = T2 φ(x), ∀x ∈ M1 e ν1 (·) = ν2 (φ−1 (·)).
Denotaremos por T1 ' T2 .( em (ii) os conjuntos Mi (i = 1, 2) estão equipados com a σálgebra induzida por Bi e νi restrita as σ-álgebras induzidas, respectivamente).
Note que ' é uma relação de equivalência.
Daremos agora outra noção de equivalência, só que de medidas. Antes, considere a
seguinte relação de equivalência:
∀A, B ∈ Bi , A ∼ B ⇐⇒ νi (A∆B) = 0.
Denote por B̃i a coleção das classe de equivalência e νi induz uma medida ν˜i em B̃i por
ν˜i (B̃) = νi (B). O par (B̃i , ν˜i ) é chamado álgebra de medida.
Seja (X1 , B1 , ν1 ), (X2 , B2 , ν2 ) espaços de probabilidades com suas álgebras de medidas
(B˜1 , ν˜1 ) e (B˜2 , ν˜2 ), respectivamente. Se φ : X1 → X2 preserva à medida, i. e, ν2 (A) =
ν1 (φ−1 (A)), ∀A ∈ B2 . Então temos uma aplicação φ̃−1 : (B2 , ν˜2 ) → (B˜1 , ν˜1 ) definida por
φ̃−1 (B̃2 ) = B̃1 , onde B1 = φ−1 (B2 ). Essa aplicação está bem definida desde de que φ
preserva à medida. A aplicação φ̃−1 preserva complementares e uniões enumeráveis (e
disso, interseções enumeráveis). Também ν1 (φ̃−1 (B̃) = ν2 (B̃), ∀B̃ ∈ B˜2 . Portanto φ̃−1
pode ser considera um homomorfismo de álgebras de medidas. Observe que φ̃−1 é injetiva.
Um isomorfismo entre álgebras de medidas é uma aplicação Φ : (B˜2 , ν˜2 ) → (B˜1 , ν˜1 ) bijetiva tal que preserva complementares, uniões enumeráveis e satisfaz ν1 (Φ(B̃) = ν2 (B̃), ∀B̃ ∈
B˜2 .
Definição 4.4.2. Seja Ti uma transformação que preserva à medida do espaço de probabilidade (Xi , Bi , νi ), i = 1, 2. Dizemos que T1 é conjugado a T2 se existe um isomorfismo
Φ entre as álgebras de medidas (B˜1 , ν˜1 ) e (B˜2 , ν˜2 ) tal que ΦT̃ −1 = T̃ −1 Φ.
2
1
Note que se T1 ' T2 então T1 é conjugada a T2 . Pois, φ : M1 → M2 determina um
isomorfismo nas álgebras de medidas. O próximo resultado dá uma condição suficiente
para a reciproca.
65
Teorema 4.4.3. Sejam (X1 , B1 , ν1 ), (X2 , B2 , ν2 ) espaços de probabilidades que são espaços
de Lebesgue ou Xi é um espaço métrico separável e Bi é sua σ-álgebra de conjuntos de
Borel. Se T1 é conjugada a T2 então T1 é isomorfa a T2 .
Daremos noção mais fracado que a definição de isomorfismo e conjugação.
Definição 4.4.4. Suponha (Xi , Bi , νi ) é uma espaço de probabilidade e Ti : Xi → Xi é
uma transformação que preserva a medida νi , i = 1, 2. Dizemos que T2 é um fator de T1
se existe Mi ∈ Bi com νi (Mi ) = 1 e Ti (Mi ) ⊂ Mi (i = 1, 2) e existe uma transformação que
preserva à medida φ : M1 → M2 com φT1 (x) = T2 φ(x), ∀x ∈ M1 .
A diferença entre isso e isomorfismo é que a transformação φ pode não ser invertível.
A seguinte definição é uma noção mais fraca de conjugação.
Definição 4.4.5. Seja Ti uma transformação que preserva à medida de um espaço de
probabilidade Xi , Bi , νi ), i = 1, 2. Dizemos que T2 é semi-conjugada de T1 se existe um
homomorfismo das álgebra de medida Φ : (B˜2 , ν˜2 ) → (B˜1 , ν˜1 ) tal que ΦT̃ −1 = T̃ −1 Φ.
2
1
A aplicação Φ : (B˜2 , ν˜2 ) → (B˜1 , ν˜1 ) é um homomorfismo das álgebra de medida se
Φ(Ỹ \B̃) = X̃\Φ(B̃), ∀B ∈ B2 , Φ(∪∞
n=1 B̃n ), sempre que B̃n ∈ B2 , e ν˜1 (Φ(B̃)) = ν˜2 (B̃), ∀B̃ ∈
B2 .
Daremos agora um teorema que será útil no que segue.
Teorema 4.4.6. Assuma que T : X → X 0 é uma aplicação mensurável injetiva de um
espaço de Lebesgue (X, F, ν) em um espaço separável (X 0 , F 0 , ν 0 ) e pré-imagens dos conjuntos de medida 0 (ou positivo) são de medida 0 (ou positiva). Então o espaço (X 0 , F 0 , ν 0 )
é Lebesgue e T −1 é uma aplicação mensurável.
Sejam (X, B, ν) um espaço de Lebesgue e seja ζ uma partição arbitrária de X, ζ não é
necessariamente enumerável e consistindo de conjuntos mensuráveis. Por ζ̂ denotaremos
a sub-σ-álgebra de B consistindo dos conjuntos B-mensuráveis que são união de elementos
inteiros (fibra) de ζ. Obviamente ζ̂ ⊆ {∅, X}. Chamamos uma partição de ζ-mensurável
se ela possui a seguinte propriedade de separação.
Existe {Bn } ⊂ ζ̂ tal que para quaisquer C1 , C2 em ζ com C1 6= C2 , existe um inteiro
n tal que ou
C1 ⊂ Bn e C2 ⊂ X \ Bn
ou
C2 ⊂ Bn e C1 ⊂ X \ Bn .
66
Sejam (X, B, ν) um espaço de Lebesgue. Podemos a partir de uma partição mensurável
ζ formar um novo espaço de Lebesgue, para isso, tomemos o conjunto Xζ cujos os pontos
são elementos de ζ. Então existe uma projeção natural π : X → Xζ que leva um ponto
no elemento da partição que o contém, e podemos considerar Fζ = π(ζ̂) como uma σálgebra de subconjuntos de Xζ . Também definimos νζ (·) = ν(π −1 (·)) que é uma medida
de probabilidade em (Xζ , Fζ ), o espaço (Xζ , Fζ , νζ ) é chamado de espaço fator de (X, B, ν)
com respeito à ζ. Seja T : X → X uma transformação que preserva à medida ν. Considere
a partição mensurável ζ = T −1 (ε), onde ε uma partição por pontos, então definimos
Tζ : Xζ → X por Tζ (π(x)) = T (x) é mensurável e injetiva. Portanto, pelo Teorema 4.4.6,
segue que Tζ é um isomorfismo.
Agora suponha novamente que ζ é uma partição mensurável de X. Usando a medida
νζ , é possível falar de quase toda fibra de ζ. Agora, pode ser demonstrado que para quase
todo C ∈ ζ, existe uma σ-álgebra BC e uma medida νC definida em C tal que (C, BC , νC )
é um espaço de Lebesgue e além disso,
(i) Se B ∈ B, então B ∩ C ∈ BC para quase todo C;
(ii) A função νC (B ∩ C) é Bζ -mensurável se B ∈ B;
(iii) Para B ∈ B, ν(B) = νC (B ∩ C)dνζ .
R
Além disso, pode ser mostrado que o espaço (C, BC , νC ) são unicamente definido
mod 0 para νζ . O sistema de medidas, assim definido, é chamado um sistema canônico
com respeito à ζ.
Para mais informações ler (1) ou (4).
Teorema 4.4.7 (Teorema de aproximação). Seja (M, B, ν) uma espaço de probabilidade
e seja A uma álgebra que gera a σ-álgebra B. Então para todo ε > 0 e todo B ∈ B existe
A ∈ A tal que ν(A∆B) < ε.
Demonstração. Pode encontrada em (1) ou (10).
Teorema 4.4.8 (Extensão). Seja A uma álgebra de subconjuntos de M e seja ν0 : A → R
uma função σ-aditiva com ν0 (M ) < ∞. Então existe uma única medida ν definida na
σ-álgebra gerada por A que é uma extensão de ν0 , ou seja, tal que ν(A) = ν0 (A) para todo
A ∈ A.
Demonstração. Pode encontrada em (10).
67
Teorema 4.4.9 (Recorrência de Poincaré). Seja f : M → M uma transformação mensurável e seja ν uma medida finita invariante por f . Seja E ⊂ M qualquer conjunto
mensurável com ν(E) > 0. Então, para ν-quase todo ponto x ∈ E temos que f k (x) ∈ E
com frequência infinita, i. e, existem infinitos valores de k tal que f k (x) também está em
E.
Demonstração. Mais detalhes pode ser encontrada em (10).
Teorema 4.4.10. Seja (M, B, ν) um espaço de Lebesgue e M um espaço métrico completo,
separável. Sejam B ⊂ M um mensurável, e f : B → R uma função integrável. Então a
seguinte fórmula vale para ν-quase todo x ∈ B:
Z
1
lim
f dν = f (x),
ε→0 ν(B(x, ε)) B(x,ε)
onde B(x, ε) = {y ∈ M : d(x, y) ≤ ε}
Demonstração. Pode encontrada em (11).
Lema 4.4.11. Seja M um espaço métrico compacto. Suponha que f : M → M admita
um jacobiano Jν f com relação a uma de probabilidade invariante ν. Então
Z
ψdν =
Z
ψ(x)
dν(x),
J f (x)
x∈f −1 (y) ν
X
para toda função mensurável limitada ψ : M → R.
Para mais informações consulte (10)
4.5
Decomposição ergódica
Antes de enunciarmos o teorema de decomposição ergódica vamos analisar um exem-
plo que ajudará a motivar e delimitar o seu enunciado.
Exemplo 4.5.1. Considere f : [0, 1] → [0, 1] dada por f (x) = x2 . As medidas de δ0 e
δ1 são invariantes e ergódicas para f . Também é claro que x = 0 e x = 1 são os únicos
pontos recorrentes por f e portanto toda probabilidade invariante ν satisfaz ν({0, 1}) = 1.
Em particular, ν = ν({0})δ0 + ν({1})δ1 é uma combinação convexa (finita) de medidas
ergódicas.
Seja (M, B, ν) um espaço de probabilidade e P uma partição de M em conjuntos
mensuráveis. Considere π : M → P a projeção natural que associa a cada x ∈ M o elemento
68
P(x) da partição que o contém. Essa projeção permite munir P de uma estrutura de
espaço de probabilidade, da seguinte forma. Primeiramente, dizemos que um subconjunto
Q de P é mensurável se, e somente se, a pré-imagem
π −1 (Q) = união dos elementos P ∈ P que pertencem a Q
é um subconjunto mensurável de M . É fácil ver que essa definição está correta: a família
B̂ dos subconjunto mensuráveis é uma σ-álgebra em P. Em seguida, definimos a medida
quociente ν̂ por
ν̂(Q) = ν(π −1 (Q)) para todo Q ∈ B̂.
Teorema 4.5.1 (Decomposição ergódica). Seja M um espaço métrico completo separável,
f : M → M uma transformação mensurável e ν uma probabilidade invariante. Então existe
um conjunto mensurável M0 ⊂ M com ν(M0 ) = 1, uma partição P de M0 em subconjuntos
mensuráveis e uma família de probabilidades {νP : P ∈ P} em M , satisfazendo
(a) νP (P ) = 1 para ν̂-quase todo P ∈ P;
(b) P 7→ νP (E) é mensurável, para todo conjunto mensuráveis E ⊂ M ;
(c) νP é invariante e ergódica para ν̂-quase todo P ∈ P;
(d) ν(E) = νP (E)dν̂(P ), para todo conjunto mensurável E ⊂ M ;
R
(e) Para toda função integrável ψ : M → R vale
Z
ψdν =
Z Z
ψdνP dν̂.
Teorema 4.5.2 (Jacobs). Suponha que M é um espaço métrico separável. Dada qualquer
probabilidade invariante ν, seja {νP : P ∈ P} a sua decomposição ergódica. Então hν (f ) =
R
hνP (f )dν̂(P )(quando um dos lados da igualdade é infinito o outro também é).
Com isso, temos que se ν é uma medida maximizante, segue que suas componentes
ergódicas também são maximizantes.
De fato, seja ν uma medida de probabilidade maximizante. Então, pelos Teorema de
R
Jacobs 4.5.2 e o princípio variacional 1.5.1, temos que htop (f ) = hν (f ) = hνP (f )dν̂(P ).
Considere o conjunto A = {νP : νP é maximizante}, logo
htop (f ) = hν (f ) =
Z
A
hνP (f )dν̂(P ) +
= htop (f )ν(A) +
Z
Ac
Z
Ac
hνP (f )dν̂(P )
hνP (f )dν̂(P )
< htop (f )ν̂(A) + htop (f )ν̂(Ac ) = htop (f ).
69
Portanto, absurdo. Isso prova que as νP são medidas maximizantes.
Para mais informações consulte (10).
4.6
Esperanças condicionais
Fixe uma sequência crescente qualquer P1 ≺ P2 ≺ · · · ≺ Pn ≺ · · · de partições enumerá-
veis tal que P =
W∞
n=1 Pn restrito a algum conjunto M0 ⊂ M com medida total. Usaremos
Pn (x) para denotar o elemento de Pn que contém um dado ponto x ∈ M0 .
Seja ψ : M → R uma função mensurável limitada qualquer. Para cada n ≥ 1, defina
en (ψ) : M → R da seguinte forma:
en (ψ, x) =
R
1
ν(Pn (x)) Pn (x) ψdν
se ν(Pn (x)) > 0
0
caso contrário.
(4.4)
Como as partições Pn são enumeráveis, o segundo caso da definição se aplica somente
num conjunto de pontos com medida ν igual zero. Observe também que en (ψ) é contante
em cada Pn ∈ Pn ; denotemos por En (ψ, Pn ) o valor desta constante. Então
Z
ψdν =
X Z
Pn ∈Pn
ψdν =
Pn
X
ν(Pn )En (ψ, Pn ) =
Z
en (ψ)dν
(4.5)
Pn ∈Pn
para todo n ∈ N(as somas envolvem somente os Pn ∈ Pn com medida positiva).
Lema 4.6.1. Dada qualquer função mensurável limitada ψ : M → R, existe um subconjunto Mψ de M com ν(Mψ ) = 1 tal que
(a) e(ψ, x) = lim
e (ψ, x) existe para ν-quase todo x ∈ Mψ ;
n n
(b) e(ψ) : Mψ → R é mensurável e é constante em cada P ∈ P;
(c)
R
R
ψdν = e(ψ)dν.
O próximo lema será útil para provarmos a Fórmula de Rokhlin.
Lema 4.6.2. Seja f : M → M uma função que admite o jacobiano Jν f de f com relação
a uma probabilidade ν. Então vale a fórmula de mudança de variável:
Z
f (Ux )
ψdν =
Z
Ux
(ψ ◦ f )Jν f dν
para função ψ : M → R mensurável e limitada (Ux é qualquer vizinhança de x onde f é
invertível).
70
Mais informações consulte (10).
4.7
Entropia local
Suponhamos que f : M → M é uma aplicação contínua num espaço métrico compacto.
Dado x ∈ M, n ≥ 1 e ε > 0, chamamos bola dinâmica de comprimento n e raio ε em torno
de x ao conjunto:
B(x, n, ε) = {y ∈ M : d(f i (y), f i (x)) < ε para todo i = 0, ..., n − 1}.
−i
i
Em outras palavras, B(x, n, ε) = ∩n−1
i=0 f (B(f (x), ε)). Defina:
1
h+
ν (f, ε, x) = lim sup − log ν(B(x, n, ε))
n
n
1
h−
ν (f, ε, x) = limninf − log ν(B(x, n, ε)).
n
Teorema 4.7.1 (Brin-Katok). Seja ν uma medida invariante por f . Os limites
e lim h−
ν (f, ε, x)
lim h+ (f, ε, x)
ε→0 ν
ε→0
existem e s ao iguais para ν-quase todo ponto. Denotemos por hν (f, x) o seu valor comum,
a função x 7→ hν (f, x) é mensurável e tem-se
hν (f ) =
Z
hν (f, x)dν.
Para mais informações consulte (11).
4.8
Desigualdade de Ruelle
Esta desigualdade é uma importante estimativa superior para entropia, onde relaciona
a entropia de uma medida com os expoente de Lyapunov.
Teorema 4.8.1 (Desigualdade de Ruelle). Seja f : M → M uma transformação de classe
C 1 numa variedade riemaniana compacta e ν uma probabilidade f -invariante. Então
hν (f ) ≤
Z
X
mjx λjx dν.
j:λjx >0
Quando ν é ergódica, temos hν (f ) ≤
X
mjx λjx .
j:λjx >0
Demonstração. Pode ser encontrada em (5)
71
BIBLIOGRAFIA
1 WALTERS, P. An introduction to ergodic theory. Springer-Verlag. New York. 1981.
2 OLIVEIRA, K.; VIANA, M. Existence and uniquiness of maximizing measures for
robust classes of local diffeomorphisms,Journal American Institute of Mathematical
Sciences,v.15,n.1,p.225-236, 2006.
3 do CARMO, M. P. Geometria riemanniana. 4a ed. Rio de Janeiro: IMPA, 2008.
(Projeto Euclides).
4 PARRY, W. Entropy and generators in ergodic theory. W.A. Benjamin, INC. New
York. 1969.
5 RUELLE, D. An inequality for the entropy of differentiable maps, Journal: Boletim
da Sociedade Brasileira de Matemática. v.9, n.1, p. 83-87. 1978.
6 KOMOGOROV, A. N. TIHOMIROV, V. M. -Entropy and -capacity in function
spaces.Journal:Translations of the American Mathematical Society. n.2, v.17, p. 277-364,
1961.
7 ADLER, R. L. A.G. KONHEIM, A. G. McANDREW, M. H. Topological
entropy.Journal: Translation of the American Mathematical Society. v. 144, p. 309-319.
1965.
8 DINABURG, E. I. The relation between topological entropy and metric
entropy.Journal: Dokl. Akad. Nauk SSSR. v. 190, p.19-22.1970. Journal: Soviet Math.
Dokl. v.11, p.13-16.1969.
9 BOWEN, R. Entropy for group endmorphisms and homogeneous spaces. Journal:
Translation of the American Mathematical Society. v. 153, p. 401-414. 1971.
10 OLIVEIRA, K. VIANA, M. Teoria Ergódica Um Curso Introdutório - Impa
URL: www.impa.br/ viana/out/ite.pdf
11 MAÑE, R. Ergodic theory and differential dynamics. Springer-Verlag. New York.
1987.
