Dissertação
DISSERTAÇÃO - SECRETARIA - PEDRO HENRIQUE GOMES DE CARVALHO.pdf
Documento PDF (572.2KB)
Documento PDF (572.2KB)
UNIVERSIDADE FEDERAL DE ALAGOAS
INSTITUTO DE MATEMÁTICA
PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA
PEDRO HENRIQUE GOMES DE CARVALHO
FÓRMULA DE ROKHLIN
Maceió-AL
2017
PEDRO HENRIQUE GOMES DE CARVALHO
FÓRMULA DE ROKHLIN
Dissertação de Mestrado apresentada ao
Programa de Pós-Graduação em Matemática
da Universidade Federal de Alagoas, como
requisito parcial para obtenção do grau de
Mestre em Matemática.
Orientador:
Prof.
ciel Martins de Oliveira
Maceió-AL
2017
Dr.
Krerley Irra-
Catalogação na fonte
Universidade Federal de Alagoas
Biblioteca Central
Divisão de Tratamento Técnico
Bibliotecária Responsável: Helena Cristina Pimentel do Vale
C331f
Carvalho, Pedro Henrique Gomes de.
Fórmula de Rokhlin / Pedro Henrique Gomes de Carvalho. – 2017.
41 f.
Orientador: Krerley Irraciel Martins de Oliveira.
Dissertação (mestrado em Matemática) – Universidade Federal de Alagoas.
Instituto de Matemática. Maceió, 2017.
Bibliografia: f. 41.
1. Matemática – Estudo e ensino. 2. Entropia. 3. Jacobiano. 4. Rokhlin,
Fórmula de. 5. Sistemas dinâmicos. I. Título.
CDU: 519.218.84
Resumo
Neste trabalho será apresentado a demonstração de um teorema importante de Teoria Ergódica.
A Fórmula de Rokhlin afirma que dado uma transformação localmente invertı́vel f : M → M
que admita Jacobiano, se existir uma partição finita ou enumerável que gere a σ-álgebra de
M, então pode-se calcular a entropia do sistema dinâmico através do Jacobiano; a entropia
R
é dada por hµ (f ) = log Jµ f dµ. Depois deste resultado, será dado a definição de Sistema
Dinâmico Aleatório e como a Fórmula de Rokhlin pode ser estendida para esta dinâmica.
Palavras-chave: Entropia, Jacobiano, Fórmula de Rokhlin
Abstract
In this work a demonstration of an important theorem of Ergodic Theory is presented. The
Rokhlin’s formula states that given a locally invertible transformation f : M → M which
Jacobian admits, if there is a finite or enumerable partition that generates the σ-algebra
of M, then one can compute an entropy of the dynamic system through the Jacobian; the
R
entropy is given by hµ (f ) = log Jµ f dµ. After this result, is given a definition of Random
Dynamic System and how a Rokhlin’s Formula can be extended to this dynamic.
Keywords: Entropy, Jacobian, Rokhlin’s Formula
Sumário
Introdução
p. 7
1 Esperança condicional
p. 8
1.1
Algumas definições essenciais
. . . . . . . . . . . . . . . . . . . . . . . . .
p. 8
1.2
Esperanças condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 11
2 Entropia
p. 15
2.1
Definições e alguns resultados . . . . . . . . . . . . . . . . . . . . . . . . .
p. 15
2.2
Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 19
3 Fórmula de Rokhlin
p. 26
3.1
Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 26
3.2
Fórmula de Rokhlin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
p. 29
4 Sistemas Dinâmicos Aleatórios
4.1
Entropia para sistemas dinâmicos aleatórios . . . . . . . . . . . . . . . . .
Referências
p. 34
p. 35
p. 41
7
Introdução
Começaremos no primeiro capı́tulo definindo conceitos básicos da Teoria Ergódica. Discutiremos alguns conceitos importantes, como: Esperança Condicional, Desintegração de
Rokhlin.
No segundo capı́tulo definiremos Entropia, será dada uma noção intuitiva do surgimento
do conceito de Entropia e também serão apresentados alguns teoremas que nos ajudarão no
cálculo da entropia.
O capı́tulo 03 é destinado ao tema principal deste trabalho. A noção de Jacobiano é
claramente uma generalização da ideia de Jacobiano vista em cálculo, o Jacobiano de um
difeomorfismo com respeito ao volume de Rn . Neste capı́tulo iremos definir o que vem a
ser o Jacobiano de uma função localmente invertı́vel relativamente a uma medida η. Mais
adiante, mostraremos o quão importante é a existência de Jacobiano para facilitar o cálculo
da entropia. Por fim, será demonstrado a Fórmula de Rokhlin, um teorema que relaciona o
jacobiano de uma função com a sua entropia.
No capı́tulo 04 faremos uma aplicação da fórmula de Rokhlin. Apresentaremos a fórmula
de Rokhlin para o caso de Sistemas Dinâmicos Aleatórios.
8
1
Esperança condicional
Sabemos no caso de subconjuntos convexos de espaços vetoriais com dimensão finita temse que todo elemento do convexo pode ser escrito como combinação convexa dos elementos
extremais. Por exemplo, todo ponto de um triângulo pode ser escrito como combinação
convexa dos vértices do triângulo. Tratando do conjunto das medidas invariantes por uma
transformação, as medidas ergódicas são pontos extremais. Agora, uma pergunta interessante
em Teoria Ergódica é saber se toda medida invariante é uma combinação linear de medidas
ergódicas. O teorema da decomposição ergódica responde essa pergunta. No entanto, estamos
interessados nos conceitos que surgem na preparação desse teorema. Um conceito importante
é o de esperança condicional; este conceito será fundamental para a demonstração da Fórmula
de Rokhlin, bem como o conceito da desintegração de uma medida. Abordaremos esses
conceitos neste capı́tulo.
1.1
Algumas definições essenciais
Nesta seção (M, B, µ) será um espaço de probabilidade.
Definição 1.1.1 Dizemos que uma coleção P = (Pn )n n ∈ N, de conjuntos mensuráveis de
M é uma partição se µ(Pi ∩ Pj ) = 0 para i 6= j e µ(X\ ∪i Pi ) = 0.
Exemplo 1.1.1 Seja M = R2 . Considere P = (Pj )j onde Pj = {j} × R, com j ∈ R. Então
P é uma partição de R2 .
Exemplo 1.1.2 Seja (R, B, m) um espaço de medida, onde B é a σ-álgebra de Borel e m
é a medida de Lebesgue. Então P = (Pλ )λ onde Pλ = {λ} ∈ R é uma partição de R em
conjuntos mensuráveis. A chamada partição em pontos.
9
Definição 1.1.2 Sejam P e Q duas partições, dizemos que P é menos fina que Q, se todo
elemento de Q está contido em algum elemento de P, a menos de medida nula, denotamos
por P ≺ Q.
Denotamos por P(x) o elemento da partição que contém um ponto x. A soma P ∨ Q
de duas partições P e Q é a partição cujos elementos são as interseções P ∩ Q com P ∈ P e
Q ∈ Q. Mais geralmente, dada qualquer famı́lia enumerável de partições Pn , definimos
_
Pn = {
\
n
Pn : Pn ∈ Pn para cada n}.
n
A soma P ∨ Q é precisamente a menos fina de todas as partições R tais que P ≺ R e Q ≺ R.
Neste trabalho, P será uma partição de M em conjuntos mensuráveis. Denotaremos por
π : M → P a projeção natural que associa a cada x ∈ M o elemento P(x) da partição que
contém x.
Este mapa π possibilita munir a partição P com uma estrutura de espaço de probabilidade, da seguinte forma: Um subconjunto Q de P é mensurável se, e somente se, a pré
imagem
π −1 (Q) = união dos elementos P ∈ P que pertencem a Q
é um subconjunto mensurável de M.
Proposição 1.1.1 A famı́lia B̂ dos subconjuntos mensuráveis é uma σ-álgebra em P.
Demonstração.
• {∅} e {P} ∈ B̂. De fato, ∅ = π −1 (∅) e M = π −1 (P) que é mensurável;
• Se P ∈ B̂, então π −1 (P ) é um conjunto mensurável em M, logo (π −1 (P ))c ∈ M é
mensurável. Como (π −1 (P ))c = π −1 (P c ), concluı́mos que P c ∈ B̂;
• Se Pj ∈ B̂ é uma sequência enumerável de subconjuntos mensuráveis, então π −1 (Pj ) ∈
M é mensurável para todo j. Logo ∪j π −1 (Pj ) é um subconjunto mensurável de M ,
portanto π −1 (∪j (Pj )) é mensurável, o que nos mostra que ∪j (Pj ) ∈ B̂. Logo, B̂ é uma
σ-álgebra em P.
10
Com isso, definimos a medida quociente µ̂ por
µ̂(Q) = µ(π −1 (Q)) para cada Q ∈ B̂.
Definição 1.1.3 Uma desintegração de µ relativamente a uma partição P é uma famı́lia
{µP : P ∈ P} de probabilidades em M tal que, para todo conjunto mensurável E ⊂ M :
i. µP (P ) = 1 para µ̂-quase todo P ∈ P;
ii. a aplicação P → R, definida por P → µP (E) é mensurável;
iii. µ(E) =
R
µP (E)dµ̂(P ).
As µP são chamadas probabilidades condicionais de µ relativamente a P.
Exemplo 1.1.3 Seja P = {P1 , P2 , P3 , ..., Pn } uma partição finita de M em subconjuntos
mensuráveis com µ(Pi ) > 0 para todo i. A medida quociente µ̂ é dada por µ̂({Pi }) = µ(Pi ).
Considere a restrição normalizada µi de µ a cada Pi
µi (E) =
µ(E ∩ Pi )
para todo E ⊂ M mensurável.
µ(Pi )
Então {µ1 , µ2 , ..., µn } é uma desintegração de µ relativa a P, já que
µ(E) =
n
X
µ({Pi })µ(E).
i=1
Definição 1.1.4 Dizemos que P é uma partição mensurável se, restrita a algum subconjunto de M com medida total, ela é o limite de uma sequência crescente de partições
enumeráveis. Mais precisamente, a partição é mensurável se existe algum conjunto mensurável M0 ⊂ M com medida total tal que, restrito a M0
P=
∞
_
Pn
n=1
para alguma sequência crescente P1 ≺ P2 ≺ · · · Pn ≺ · · · de partições enumeráveis. Lembre
que Pi ≺ Pi+1 significa que todo elemento de Pi+1 está contido em algum elemento de Pi .
11
A definição acima é equivalente a seguinte definição:
Definição 1.1.5 Dizemos que P é uma partição mensurável se existir um conjunto mensurável M0 ⊆ M , com medida total, e uma famı́lia enumerável {An ; n ∈ N} de conjuntos
mensuráveis tais que, para cada P ∈ P, existe uma sequência Bn ∈ {An , M \An } com
P ∩ M0 =
\
(Bn ∩ M0 ).
n∈N
Exemplo 1.1.4 Seja M = (0, 1) × (0, 1), considere a partição P = (0, 1) × {c}; com c ∈
(0, 1)} de M. P é mensurável, de fato, seja {ai ; i ∈ N} uma enumeração do conjunto Q∩(0, 1)
e defina a famı́lia de conjuntos mensuráveis
Ajai = (0, 1) × [(ai −
1
1
, ai + j ) ∩ (0, 1)]
j
2
2
Assim, temos que {Ajai ; i, j ∈ N} é uma famı́lia enumerável de conjuntos mensuráveis de M
tal que, para todo P = (0, 1) × {c} ∈ P,
P =
\
Bi,j com Bi,j ∈ {Ajai , (Ajai )c }.
i,j∈N
Depois de definirmos o que vem a ser uma medida ergódica, daremos um exemplo de
uma partição que não é mensurável.
Teorema 1.1.1 (Desintegração de Rokhlin) Suponha que o espaço métrico M é completo separável e que P é partição mensurável. Então a probabilidade µ admite alguma desintegração
relativamente a P.
Não demonstraremos o teorema acima, mas ele será bastante útil. A demonstração pode
ser encontrada na referência [2], Capı́tulo 5.
1.2
Esperanças condicionais
Para o restante do capı́tulo, fixemos uma sequência P1 ≺ P2 ≺ · · · Pn ≺ · · · de partições
enumeráveis tais que P = ∨∞
n=1 Pn restrito a algum conjunto M0 ⊂ M com medida total.
Seja ψ : M → R uma função mensurável limitada qualquer. Para cada n ≥ 1, defina
en (ψ) : M → R da seguinte forma:
12
en (ψ, x) =
1
µ(Pn (x))
0,
Z
ψ dµ,
se µ(Pn (x)) > 0
Pn (x)
caso contrário
Como as partições Pn são enumeráveis, o segundo caso da definição se aplica apenas num
conjunto de medida zero. Observe que en (ψ) é constante em cada Pn ∈ Pn ; denotamos por
En (ψ, Pn ) o valor desta constante. Então
Z
Z
X
XZ
ψdµ =
µ(Pn )En (ψ, Pn ) = en (ψ)dµ
ψdµ =
Pn
Pn
(1.1)
Pn
para todo n ∈ N.
Lema 1.2.1 Seja ψ : M → R função mensurável qualquer, então existe um subconjunto Mψ
de M com µ(Mψ ) = 1 tal que
1. e(ψ, x) = limn en (ψ, x) existe para todo x ∈ Mψ ;
2. e(ψ) : M → R é mensurável e é constante em cada P ∈ P;
3.
R
ψdµ =
R
e(ψ)dµ.
Demonstração: Vamos supor que ψ ≥ 0. Para cada α < β, seja S(α, β) o conjunto dos
pontos x ∈ M tais que
lim inf en (ψ, x) < α < β < lim sup en (ψ, x)
n
n
É claro que a sequência en (ψ, x) diverge se, e somente se, x ∈ S(α, β) (óbvio, pois se
lim inf = lim sup a sequência converge) para algum α < β. Em outras palavras, o limite
en (ψ, x) existe se, e somente se, x pertence a interseção Mψ de todos os S(α, β)c com α < β
racionais. Como se trata de uma interseção enumerável, para provar que µ(Mψ ) = 1 basta
mostrar que µ(S(α, β)) = 0 para todo α < β.
Como α, β estão fixos, podemos escrever S = S(α, β). Dado x ∈ S, fixe uma sequência
de inteiros 1 ≤ ax1 < bx1 < ... < axi < bxi < ... tais que
eaxi (ψ, x) < α e ebxi (ψ, x) > β para todo i ≥ 1
13
Defina Ai como Ai (x) = Paxi (x) e Bi como sendo a união dos elementos Bi (x) = Pbxi (x)
obtidos deste modo, para todos os pontos x ∈ S. Por construção, S ⊂ Ai+1 ⊂ Bi ⊂ Ai para
todo i ≥ 1. Em particular, S está contido no conjunto
Ŝ =
∞
\
Bi =
i=1
∞
\
Ai .
i=1
Como a sequência Pn é crescente, n ≥ 1, dados dois quaisquer dos conjuntos Ai (x) = Paxi (x)
que formam Ai , ou eles são disjuntos ou um deles está contido no outro. Então os conjuntos
Ai (x) maximais são disjuntos dois-a-dois e, portanto, constituem uma partição de Ai . Logo,
somando apenas sobre estes conjuntos maximais com medida positiva, temos
Z
ψ dµ =
Ai
XZ
Ai (x)
X
ψ dµ ≤
Ai (x)
αµ(Ai (x)) = αµ(Ai ),
Ai (x)
para qualquer i ≥ 1. Analogamente,
Z
ψ dµ =
Bi
XZ
Bi (x)
X
ψ dµ ≥
Bi (x)
βµ(Bi (x)) = βµ(Bi ).
Bi (x)
Como Ai ⊃ Bi e nós estamos supondo que ψ ≥ 0, segue que
Z
αµ(Ai ) ≥
Z
ψ dµ ≥
Ai
ψ dµ ≥ βµ(Bi ),
Bi
para todo i ≥ 1. Tomando o limite quando i → ∞, obtemos que αµ(Ŝ) ≥ βµ(Ŝ). Isto implica
que µ(Ŝ) = 0 e, portanto, µ(S) = 0. Isto prova a afirmação quando ψ é não-negativa. O caso
geral segue imediatamente, sabendo que sempre podemos escrever ψ = ψ + − ψ − , onde ψ ±
são mensuráveis, não-negativas e limitadas. Note que en (ψ) = en (ψ + ) − en (ψ − ) para todo
n ≥ 1 e, portanto, a conclusão do lema é verdadeira para ψ se ela vale para ψ + e ψ − . Isto
conclui a prova da afirmação (1).
A mensurabilidade de e(ψ) segue do fato de que o limite de funções mensuráveis é mensurável. Dado que Pn é menos fina que P, é claro que en (ψ) é constante em cada P ∈ P,
restrito a um subconjunto de M com medida total. Logo o mesmo vale para e(ψ). Isto
demonstra (2). Observe também que | en (ψ) |≤ sup | ψ | para todo n ≥ 1. Assim, usando o
teorema da convergência dominada, podemos passar o limite em (1.1). Desta forma obtemos
a afirmação (3).
14
Estaremos interessados no caso que ψ é uma função caracterı́stica, ψ = XA para algum
conjunto mensurável A ⊂ M . Ou seja,
e(ψ, x) = limn
µ(Pn (x) ∩ A)
µ(Pn (x))
15
2
Entropia
2.1
Definições e alguns resultados
Neste capı́tulo (M, B, µ) indicará um espaço de probabilidade e M é um espaço métrico
compacto. Por partição, sempre entenderemos uma famı́lia finita ou enumerável P de subconjuntos mensuráveis de M disjuntos dois-a-dois e cuja união tem medida total.
Definição 2.1.1 Seja f : M → M uma transformação mensurável, dizemos que a medida
µ é invariante por f, ou que f preserva µ se
µ(E) = µ(f −1 (E)) para todo conjunto mensurável E ⊂ M .
Exemplo 2.1.1 Consideremos a transformação f : [0, 1] → [0, 1] definida por
2x,
1
se 0 ≤ x <
2
f (x) =
1
2x − 1,
se ≤ x ≤ 1.
2
A medida de Lebesgue em [0,1] invariante por f. A demonstração pode ser encontrada na
referência [2]. Uma ideia é demonstrar que a medida é preservada em intervalos, depois
demonstrar que é preservada numa união de intervalos e daı́ usar um teorema de extensão
para obter que a medida é preservada em toda a σ-álgebra.
Um teorema bastante importante é dado a seguir, ele assegura que dada uma medida
invariante finita, quase todo ponto de qualquer conjunto mensurável E regressa a E um
número infinito de vezes:
16
Teorema 2.1.1 (Recorrência de Poincaré) Seja f : M → M uma transformação mensurável
e seja µ uma medida finita invariante por f. Seja E ⊂ M qualquer conjunto mensurável com
µ(E) > 0. Então, para µ-quase todo ponto x ∈ E existem infinitos valores de n para os quais
f n (x) também está em E
Demonstração. Seja E0 o conjunto dos pontos x ∈ E que nunca regressam a E. Observe
que as pré-imagens f −n (E0 ) são disjuntas duas-a-duas. De fato, suponhamos que existem
m > n ≥ 1 tais que f −m (E0 ) intersecta f −n (E0 ). Seja x um ponto na intersecção e seja
y = f n (x). Então y ∈ E0 e f m−n (y) = f m (x) ∈ E0 , que está contido em E. Isto quer dizer
que y volta pelo menos uma vez a E, o que contradiz a definição de E. Assim, as pré-imagens
são duas-a-duas disjuntas.
Como a medida é invariante por f, µ(f −n (E0 )) = µ(E0 ) para todo n ≤ 1, concluı́mos que
µ(
∞
[
f −n (E0 )) =
n=1
∞
X
µ(f −n (E0 )) =
∞
X
µ(E0 ).
n=1
n=1
Como a medida é finita, a expressão do lado esquerda é finita. Por outro lado, do lado direito
temos uma soma de infinitos termos, todos iguais, assim o único jeito dessa série não explodir
(da soma ser finita) é que as parcelas sejam nulas, isto é, µ(E0 ) = 0.
Agora, denotemos por F o conjunto dos pontos x ∈ E que regressam apenas um número
finito de vezes. Por definição de E, temos que todo ponto x ∈ F tem algum iterado f k (x) ∈
E0 . Ou seja,
F ⊂
∞
[
f −k (E0 ).
k=0
Agora, como µ(E0 ) = 0 e µ é invariante, temos:
µ(F ) ≤ µ(
∞
[
k=0
f −k (E0 )) ≤
∞
X
µ(f −k (E0 )) =
k=0
∞
X
µ(E0 ) = 0.
k=0
Portanto, µ(F ) = 0 e concluı́mos assim o teorema.
Agora, introduziremos um dos conceitos fundamentais para o estudo da Teoria Ergódica.
Para motivar o enunciado, considere um conjunto mensurável E ⊂ M com medida positiva
e um ponto x ∈ M qualquer. Queremos estudar o conjunto dos iterados de x que retornam
para E, isto é,
17
{j ≥ 0 : f j (x) ∈ E}.
Por exemplo, o teorema anterior (Recorrência de Poincaré) afirma que, para quase todo
ponto x ∈ E, este conjunto é infinito. Porém, gostarı́amos de uma informação mais precisa,
de uma natureza quantitativa. Chamamos de tempo médio de visita de x a E o valor de
1
#{0 ≤ j < n : f j (x) ∈ E}.
n→∞ n
τ (E, x) = lim
Seria interessante saber, por exemplo, em que condições este tempo médio de visita é positivo.
Antes de abordar este problema, é necessário responder a uma questão ainda mais básica:
esse limite existe?
O próximo resultado responde essa pergunta e generaliza.
Teorema 2.1.2 Seja f : M → M uma transformação mensurável e seja µ uma probabilidade
invariante por f. Dada qualquer função integrável ϕ : M → R, o limite
n−1
1X
ϕ̂(x) = lim
ϕ(f j (x))
n→∞ n
j=0
existe em µ-quase todo ponto x ∈ M . Além disso, a função ϕ̂ definida desta forma é integrável
e satisfaz
Z
Z
ϕ̂(x)dµ(x) =
ϕ(x) dµ(x).
Demonstração: Omitiremos a demonstração deste resultado por não ser o foco principal do trabalho, porém a demonstração pode ser obtida no livro ”Fundamentos da Teoria
Ergódica”Cap5.
O limite ϕ̂ é chamado média temporal, ou média orbital de ϕ. Uma outra observação
é que esse teorema resolve a pergunta feita anteriormente, basta tomarmos ϕ = XE .
Podemos definir então o que vem a ser uma medida ergódica.
Definição 2.1.2 Seja µ uma medida de probabilidade invariante por uma transformação
mensurável f : M → M . Diremos que o sistema (f, µ) é ergódico se, dado qualquer
conjunto mensurável E, temos que τ (E, x) = µ(E) para µ-quase todo ponto x ∈ M .
18
Dizemos que uma função φ : M → R é invariante se φ = φ ◦ f em µ-quase todo ponto.
Ou seja, a menos de um conjunto com medida nula, a função é constante em toda trajetória
de f . Além disso, dizemos que um conjunto mensurável B ⊂ M é invariante se a sua função
caracterı́stica XB é uma função invariante. Em outras palavras, B é invariante se ele difere
da sua pré-imagem f −1 (B) por um conjunto de medida nula:
µ(B∆f −1 (B)) = 0
Proposição 2.1.1 Seja µ uma probabilidade invariante de uma transformação mensurável
f : M → M . São equivalentes:
a) (f, µ) é ergódico.
b) Para todo subconjunto invariante A tem-se µ(A) = 0 ou µ(A) = 1
Agora, daremos exemplo de uma partição que não é mensurável.
Exemplo 2.1.2 Seja f : M → M uma transformação invertı́vel e µ a medida de Lebesgue invariante, tal que µ(M ) = 1. Considere P a partição de M em órbitas, onde
Ox = {f n (x)|n ∈ Z}. Primeiramente, é fácil perceber que as órbitas são subconjuntos invariantes por f. Agora, suponha por absurdo que exista uma sequência crescente de partições
enumeráveis P1 ≺ P2 ≺ · · · Pn ≺ · · · tais que
∞
_
Pn = P.
n=1
Seja Pn ∈ Pn , perceba que Pn é a união de elementos da partição de P, que são órbitas. Logo
Pn é também uma conjunto invariante de f. Portanto, µ(Pn ) = 0 ou µ(Pn ) = 1. Assim,
existe um único elemento da partição Pn com medida total, vamos denotar este elemento por
∞
Pˆn . Agora, seja P ∈ ∨∞
n=1 Pn , então P = ∩n=1 Pn , onde Pn ∈ Pn . Com isso, temos duas
possibilidades para P:
P =
∞
\
n=1
ou então
Pn , onde cada Pn = Pˆn e portanto µ(P ) = 1
19
P =
∞
\
Pn , onde existe ao menos um j ∈ N tal que Pj 6= P̂j . Assim, µ(P ) = 0.
n=1
Concluı́mos então que existe um único P̂ ∈ P com medida total, absurdo! Pois, como P
é uma partição em órbitas, cada elemento P ∈ P é um conjunto enumerável, e portanto
µ(P ) = 0, já que todo conjunto enumerável tem medida de Lebesgue igual a zero.
2.2
Entropia
Comecemos por discutir, simplesmente por motivação, o que o conceito de ganho de
”informação”poderia significar. Um experimento nesse espaço significa que um ponto x ∈ M
é selecionado aleatoriamente. Trataremos os conjuntos da partição A ∈ B como os possı́veis
resultados desse experimento, regido pela probabilidade µ. Isso significa que A ocorre com
uma probabilidade µ(A). Aqui podemos fazer uma pergunta informal acerca de um A ∈ B
fixo:
Suponha que x seja um ponto escolhido aleatoriamente em M. O quanto de informação
ganhamos ao saber que x ∈ A?
Por exemplo, se A = M , não ganhamos informação alguma sobre x. Podemos dizer que
a quantidade de ganho de informação é zero (de fato, não é surpresa saber que x ∈ M ).
Se A é apenas um ponto, esse ponto deve ser o próprio x e nós aprendemos a localização
exata de x. Então podemos dizer que a quantidade de ganho de informação é máxima. A
pergunta anterior torna-se interessante quando consideramos uma partição B e fazemos a
seguinte pergunta:
Suponhamos que x seja selecionado aleatoriamente em M e seremos informados sobre qual
conjunto da partição ele se encontra. Quanta informação sobre a localização precisa de x
esperamos ganhar?
Por um lado, quando menor for µ(A), maior será o ganho de informação ao dizer que
x ∈ A. Vamos abordar a primeira pergunta. Estamos a procura de uma função I : B → [0, ∞]
tal que:
I(A) :=o quanto de informação ganhamos ao saber que x ∈ A.
20
Além do mais, tenha as seguintes propriedades:
i. µ(A) = µ(B) ⇒ I(A) = I(B) (a informação depende apenas da medida do conjunto).
ii. µ(A) = 1 ⇒ I(A) = 0 (nenhuma informação é obtida sobre a localização de x)
iii. µ(A) = 0 ⇒ I(A) = M onde M := sup I ∈ [0, ∞] (temos o maior ganho de informação
sobre x)
iv. µ(A) < µ(B) ⇒ I(B) < I(A)
v. µ(A ∩ B) = µ(A)µ(B) (isto é, A e B são independentes) ⇒ I(A ∩ B) = I(A) + I(B).
Através da propriedade i., podemos imaginar que estamos a procura de uma função
φ : [0, 1] → [0, ∞] tal que
I(A) = φ(µ(A))
para todo A ∈ B. Vamos tentar definir uma φ universal, no sentido de que não depende
do espaço de probabilidade estabelecido. Procuramos então uma φ : [0, 1] → [0, 1] que seja
estritamente decrescente, com φ(1) = 0 e que assuma o máximo no ponto zero. Além do
mais, pela propriedade v., queremos que
φ(ab) = φ(a) + φ(b)
para todo a, b ∈ [0, 1]. Segue que φ é dada por
φ(x) = − log x.
Podemos entar definir formalmente a função informação.
Definição 2.2.1 Seja (M, B, µ) um espaço de probabilidade. Nós dizemos que I : B → [0, ∞]
dada por
I(A) = − log(µ(A))
21
é a função informação em (M, B, µ). Nós podemos pensar em I(A) como o valor da
informação que se obtém sobre a localização precisa de um ponto x escolhido aleatoriamente
em M, se for dito que x ∈ A.
Definição 2.2.2 Seja f : M → M uma transformação preservando a medida de probabilidade µ. Dada uma partição P de M, a entropia da partição P com respeito a µ
é
Z
I(x)dµ = −
Hµ (P) :=
X
µ(P ) log µ(P )
P ∈P
onde I(x) = − log(µ(P(x))). Usualmente, fazemos a convenção de que
0 log 0 = lim x log x = 0
x→0
Definição 2.2.3 Chamamos entropia condicional de uma partição P com relação a uma
partição Q ao número
Hµ (P/Q) =
XX
−µ(P ∩ Q) log(
P ∈P Q∈Q
µ(P ∩ Q)
).
µ(Q)
Observação: 2.2.1 É claro que Hµ (P/M ) = Hµ (P)
Lema 2.2.1 Sejam P, Q e R partições com entropia finita. Então
1. Hµ (P ∨ Q/R) = Hµ (P/R) + Hµ (Q/P ∨ R);
2. Se P ≺ Q então Hµ (P/R) ≤ Hµ (Q/R) e Hµ (R/P) ≥ Hµ (R/Q)
3. P ≺ Q se, e somente se, Hµ (P/Q) = 0
Demonstração. Por definição,
Hµ (P ∨ Q/R) =
X
−µ(P ∩ Q ∩ R) log
µ(P ∩ Q ∩ R)
µ(R)
−µ(P ∩ Q ∩ R) log
µ(P ∩ Q ∩ R)
µ(P ∩ R)
−µ(P ∩ Q ∩ R) log
µ(P ∩ R)
.
µ(R)
P,Q,R
=
X
P,Q,R
+
X
P,Q,R
22
A soma do lado direito pode ser reescrita como
X
−µ(S ∩ Q) log
S∈P∨R,Q∈Q
X
µ(C ∩ Q)
µ(P ∩ R)
+
−µ(P ∩ R) log
µ(S)
µ(R)
P ∈P,R∈R
∗
= Hµ (Q/P ∨ R) + Hµ (P/R).
Isto demonstra o item (1). Observe que em (*) usamos o fato de que
XX
P,R
−µ(P ∩ Q ∩ R) log
Q
X
µ(P ∩ R)
µ(P ∩ R)
=
−µ(P ∩ R) log
µ(R)
µ(R)
P ∈P,R∈R
já que
X
µ(P ∩ Q ∩ R) = µ(P ∩ R).
Q
Agora, para demonstrar (2) observe que se P ≺ Q então
Hµ (P/R) =
XX X
≤
XX X
P
P
−µ(Q ∩ R) log
µ(P ∩ R)
µ(R)
−µ(Q ∩ R) log
µ(Q ∩ R)
µ(R)
R Q⊂P
R Q⊂P
= Hµ (Q/R).
E isto prova a primeira parte de (2). A segunda parte de (2) é deixada como exercı́cio para
o leitor.
Finalmente, segue da definição que Hµ (P/Q) = 0 se, e somente se, para todo P ∈ P e todo
Q ∈ Q,
µ(P ∩ Q) = 0 ou então
µ(P ∩ Q)
= 1.
µ(Q)
Em outras palavras, ou Q é disjunto de P (a menos de medida nula) ou Q está contido em P
(a menos de medida nula). Isto quer dizer que Hµ (P/Q) = 0 se, e somente se, P ≺ Q e isto
demonstra (3).
Observe que se µ é invariante, então Hµ (f −1 (P)) = Hµ (P). Além disso, tomando R =
M(partição trivial) no item (1), vemos que
Hµ (P ∨ Q) = Hµ (P) + Hµ (Q/P) ≤ Hµ (P) + Hµ (Q).
23
Consideremos de agora em diante (a menos de menção explı́cita) f : M → M mensurável
e µ invariante por f . Dada uma partição P com entropia finita, denotamos por P n =
−j
∨n−1
(P) para cada n ≥ 1. Observe que o elemento P n (x) que contém x ∈ M está dado
j=0 f
por:
P n (x) = P(x) ∩ f −1 (P(f (x))) ∩ f −2 (P(f 2 (x))) ∩ · · · ∩ f −n+1 (P(f n−1 (x))).
Teorema 2.2.1 Hµ (P m+n ) ≤ Hµ (P m ) + Hµ (P n ) para todo m, n ≥ 1.
Demonstração: P m+n = ∨m+n−1
f −i (P) = P m ∨ f −m (P n ). Portanto
i=0
Hµ (P m+n ) ≤ Hµ (P m ) + Hµ (f −m (P n ))
Como µ é invariante, temos que Hµ (f −m (P n )) = Hµ (P n ) para todo m, n. Assim, concluı́mos
que
Hµ (P m+n ) ≤ Hµ (P m ) + Hµ (P n ).
Podemos então definir a entropia da transformação f com respeito a partição P
e a probabilidade invariante µ por
n−1
_
1
f −i (P)).
hµ (f, P) = lim Hµ (
n→∞ n
i=0
Por fim, a entropia métrica de f com respeito a µ é
hµ (f ) := sup{hµ (f, P) : P partição finita},
Observe que se P ≺ Q, então P n ≺ Qn e portanto Hµ (P n ) ≤ Hµ (Qn ), o que mostra que
hµ (f, P) ≤ hµ (f, Q)
Exemplo 2.2.1 Considere a expansão decimal f : [0, 1] → [0, 1] dada por f (x) = 10x−[10x].
O leitor pode verificar que a medida µ de Lebesgue é invariante por f. Seja P a partição nos
(i − 1) i
intervalos da forma (
, ) com i = 1, 2, ..., 10. Então P n é a partição nos intervalos
10
10
(i − 1) i
,
) com i = 1, 2, ..., 10n . Então
da forma (
10n 10n
24
n
n
Hµ (P ) =
10
X
−10−n log 10−n = n log 10.
i=1
e daı́
1
1
Hµ (P n ) = lim n log 10 = log 10.
n→∞ n
n→∞ n
hµ (f, P) = lim
Lema 2.2.2 hµ (f, P) = limn Hµ (P/ ∨nj=1 f −j (P)) para qualquer partição P com entropia
finita.
Demonstração: Lembre pelo Lema 2.2.1(1) que Hµ (P 0 ∨ Q0 /R) = Hµ(P 0 /R) + Hµ (Q0 /P 0 ∨
n−1 −j
R), assim tomando R = M, Q0 = P, P 0 = ∨j=1
f (P) e o fato de que a medida µ é invariante,
temos
n−1
_
Hµ (
f
−j
(P)) = Hµ (
j=0
n−1
_
f
−j
(P)) + Hµ (P/
j=1
n−2
_
Hµ (
n−1
_
f −j (P)) =
j=1
f −j (P) + Hµ (P/
j=0
n−1
_
f −j (P))
j=1
para todo n. Assim, por recorrência temos
n−1
_
Hµ (
f
−j
(P)) = Hµ (P) +
j=0
n−1
X
k=1
Hµ (P/
k
_
f −j (P))
j=1
Portanto, hµ (f, P) é dada pelo limite Cesaro
n−1
n−1
k
_
_
1
1X
−j
hµ (f, P) = lim Hµ (
f (P)) = lim
(P/
f −j (P))
n n
n n
j=0
j=1
k=1
Por outro lado, o Lema 2.2.1(2) garante que a sequência Hµ (P/ ∨nj=1 f −j (P)) é decrescente e
Wk
1 Pn−1
−j
(P)).
limitada, portanto limn Hµ (P/ ∨nj=1 f −j (P)) existe e é igual a limn
k=1 (P/ j=1 f
n
Concluı́mos assim que
hµ (f, P) = Hµ (P/ ∨nj=1 f −j (P)).
Lema 2.2.3 Se P é partição com entropia finita, então hµ (f, P) = hµ (f, P k ) para todo
k ≥ 1.
25
Demonstração: Observe que dado qualquer n ≥ 1
n−1
_
j=0
f
−j
k
(P ) =
n−1
_
j=0
f
−j
k−1
_
(
−i
f (P)) =
i=0
n+k−2
_
f −l (P) = P n+k−1 .
l=0
Portanto
1
1
hµ (f, P k ) = lim Hµ (P n+k−1 ) = lim Hµ (P n ) = hµ (f, P).
n n
n n
A principal dificuldade no cálculo da entropia reside no fato de calcular o supremo. O
resultado a seguir facilita essa dificuldade
Teorema 2.2.2 (Kolmogorov-Sinai) Seja P1 ≺ P2 ≺ · · · ≺ Pn ≺ · · · uma sequência nãodecrescente de partições com entropia finita tal que ∪∞
n=1 Pn gera a σ-álgebra dos conjuntos
mensuráveis a menos de medida nula. Então
hµ (f ) = limn hµ (f, Pn ).
Corolário 2.2.1 Seja P uma partição com entropia finita tal que a união dos seus iterados
−j
P n = ∨n−1
(P), n ≥ 1 gera a σ-álgebra dos conjuntos mensuráveis. Então hµ (f ) =
j=0 f
hµ (f, P).
Demonstração: Sabemos que P 1 ≺ P 2 ≺ · · · ≺ P n ≺ · · · . Pelo Lema 2.2.3, hµ (f, P) =
hµ (f, P k ). Assim pelo teorema de Kolgomorov-Sinai, hµ (f ) = lim hµ (f, P n ) = lim hµ (f, P) =
n
n
hµ (f, P).
Exemplo 2.2.2 Considere a transformação expansão decimal f : [0, 1] → [0, 1], dada por
f (x) = 10x−[10x], f preserva a medida de Lebesgue. Seja P a partição [0, 1] nos intervalos da
i−1 i
i−1 i
forma (
, ] com i = 1, ..., 10. Então P n é a partição nos intervalos da forma ( n , n ]
10 10
10 10
com i = 1, ..., 10n . Pelo Exemplo 2.2.1 vimos que
1
hµ (f, P) = lim Hµ (P n ) = log 10.
n n
Agora, como P gera a σ-álgebra dos conjuntos mensuráveis, pelo Corolário 2.2.1 podemos
concluir que a entropia da transformação expansão decimal é
hµ (f ) = hµ (f, P) = log 10.
26
3
Fórmula de Rokhlin
3.1
Jacobiano
A noção de Jacobiano é claramente uma generalização da ideia de Jacobiano vista em
cálculo, o Jacobiano de um difeomorfismo com respeito ao volume de Rn . Neste capı́tulo
iremos definir o que vem a ser o Jacobiano de uma função localmente invertı́vel relativamente
a uma medida η. Mais adiante, mostraremos o quão importante é a existência de Jacobiano
para facilitar o cálculo da entropia.
Definição 3.1.1 Seja f : M → M uma transformação mensurável. Diremos que f é localmente invertı́vel se existe alguma cobertura enumerável {Uk : k ≥ 1} de M por conjuntos
mensuráveis tais que a restrição de f a cada Uk é uma bijeção sobre a sua imagem, a qual é
um conjunto mensurável, e a inversa dessa bijeção também é mensurável. Os subconjuntos
mensuráveis destes conjuntos Uk serão chamados domı́nios de injetividade.
Observação: 3.1.1 Observe que se f é localmente invertı́vel então a pré-imagem f −1 (y) de
qualquer y ∈ M é enumerável, de fato, como a restrição a cada Uk é uma bijeção, a pré
imagem de y contém no máximo um ponto em cada Uk , que por sua vez é enumerável.
Definição 3.1.2 Seja η uma probabilidade em M, não necessariamente invariante por f.
Uma função mensurável ξ : M → [0, ∞) é um jacobiano de f relativamente a η se a restrição
de ξ a qualquer domı́nio de injetividade A é integrável com relação a η e satisfaz
Z
η(f (A)) =
ξ dη
A
Observação: Note que a definição não depende da escolha da cobertura {Uk : k ≥ 1}
27
Dizemos que uma medida é não singular com relação a transformação f se a imagem de
qualquer domı́nio de invertibilidade com medida nula também tem medida nula: Se η(A) = 0
então η(f (A)) = 0. Por exemplo, se f : U → U é um difeomorfismo local num aberto de Rd
e η é a medida de Lebesgue, então η é não singular (fórmula de mudança de variáveis).
É fácil ver que se f admite jacobiano com relação a uma medida η então essa medida é não
singular. Vamos mostrar que a recı́proca também é verdadeira.
Teorema 3.1.1 Seja f : M → M uma transformação localmente invertı́vel e seja η uma
medida boreliana em M, não singular com relação a f. Então, existe algum jacobiano de f com
relação a η e ele é essencialmente único: dois jacobianos quaisquer coincidem em η-quase
todo ponto.
Demonstração. : Provaremos inicialmente a existência. Seja {Uk : k ≥ 1} uma cobertura
enumerável arbitrária de M , onde cada Uk é um domı́nio de invertibilidade de f , defina
P1 = U1 e Pk = Uk \(U1 ∪ · · · ∪ Uk−1 ) para cada k > 1. Então, P = {Pk : k ≥ 1} é uma
partição de M formada por domı́nios de invertibilidade. Para cada Pk ∈ P, represente por
ηk a medida definida em Pk por ηk (A) = η(f (A)). Em outras palavras, ηk é a imagem por
(f |Pk )−1 da medida η restrita a f (Pk ). A hipótese de que η é não singular implica que cada
ηk é absolutamente contı́nua com relação a η restrita a Pk :
η(A) = 0 ⇒ ηk (A) = η(f (A)) = 0
para todo conjunto mensurável A ⊂ Pk . Seja ξk = dηk /d(η|Pk ) a derivada de RadónNykodim. Então ξk é uma função definida em Pk , integrável com relação a η e satisfazendo
Z
η(f (A)) = ηk (A) =
ξk dη
A
para todo conjunto mensurável A ⊂ Pk . Considere a função ξ : M → [0, ∞) cuja restrição a
cada Pk ∈ P está dado por ξk . Todo subconjunto de Uk pode ser escrito como união disjunta
de subconjuntos de P1 , ..., Pk . Aplicando a igualdade anterior a cada um desses subconjuntos
e somando as respectivas igualdades, obtemos que
Z
ξ dη para todo conjunto mensurável A ⊂ Uk e k ≥ 1.
η(f (A)) =
A
28
Isto prova que ξ é um jacobiano de f relativamente a η.
Agora, suponha que ξ e ζ são jacobianos de f relativamente a η e que existe B ⊂ M com
η(B) > 0 tal que ξ(x) 6= ζ(x) para todo x ∈ B. A menos de substituir B por um subconjunto
adequado, e permutar os papéis de ξ e ζ é necessário, podemos supor que ξ(x) < ζ(x) para
todo x ∈ B. De modo similar, podemos supor que B está contigo em algum Uk . Então,
Z
Z
η(f (B)) =
ξ dη <
ζ dη = η(f (B)).
B
B
Contradição, logo o jacobiano é único.
Usaremos a notação Jη f para representar o jacobiano de f com relação a η, quando exista.
Por definição, Jη f é integrável em cada domı́nio de invertibilidade.
Corolário 3.1.1 Seja f : M → M uma transformação localmente invertı́vel e η uma probabilidade boreliana em M não singular com relação a f. Então valem as seguintes fórmulas de
mudanças de variáveis.
1.
R
f (A)
ϕ dη =
R
A
(ϕ◦f )Jη f dη para todo domı́nio de invertibilidade A ⊂ M e toda função
mensurável ϕ : f (A) → R tal que as integrais estão definidas (podendo ser ±∞)
2.
R
A
ψ dη =
R
f (A)
(ψ/Jη f ) ◦ (f |A)−1 dη para qualquer função mensurável ψ : A → R tal
que as integrais estão definidas (podendo ser ±∞)
Demonstração:
1. Como η é não singular, existe Jη f . Usando o teorema anterior temos
Z
Z
Z
Xf (A) dη = η(f (A)) =
Jη f dη = (Xf (A) ◦ f )Jη f dη
f (A)
A
A
E portanto a equação se verifica para funções caracterı́sticas. Pelo mesmo argumento se
verifica para funções simples. Usando o Teorema da Convergência Dominada verifica-se
que o lema é válido para toda ϕ : f (A) → R mensurável, já que podemos aproximar
qualquer função mensurável integrável por funções simples.
2. Aplicando o item (1) à função ϕ = (ψ/Jη f ) ◦ (f |A)−1 temos justamente o resultado
desejado.
29
Não é verdade que toda probabilidade invariante η é não singular, é fácil construir contraexemplos para isto.
3.2
Fórmula de Rokhlin
Teorema 3.2.1 Seja f : M → M uma transformação localmente invertı́vel e seja µ uma
probabilidade invariante por f. Suponha que existe alguma partição finita ou enumerável P
tal que ∪n P n gera a σ-álgebra de M e todo P ∈ P é domı́nio de invertibilidade de f. Então
R
hµ (f ) = logJµ f dµ.
Demonstração: Consideremos a sequência de partições Qn = ∨nj=1 f −j (P). Pelo Corolário
2.2.1 e pelo Lema 2.2.2,
hµ (f ) = hµ (f, P) = limn Hµ (P/Qn ).
(3.1)
Por definição (como anteriormente, φ(x) = −xlogx)
Hµ (P/Qn ) =
X X
−µ(P ∩ Qn )log
P ∈P Qn ∈Qn
µ(P ∩ Qn ) X X
µ(P ∩ Qn )
=
µ(Qn )φ(
) (3.2)
µ(Qn )
µ(Qn )
P ∈P Q ∈Q
n
n
Seja en (φ, x) a esperança condicional de uma função φ relativamente à partição Qn e seja
e(φ, x) o seu limite quando n vai para o infinito. É claro da definição que
µ(P ∩ Qn )
= en (XP , x) para todo x ∈ Qn e todo Qn ∈ Qn .
µ(Qn )
Portanto,
XZ
µ(P ∩ Qn )
µ(Qn )φ(
)=
φ(en (XP , x)) dµ(x).
µ(Qn )
P ∈P Q Q
P ∈P
X X
n
(3.3)
n
Pelo lema 1.2.1, o limite e(XP , x) = lim en (XP , x) existe para µ-quase todo ponto x. Então,
n
observando que a função φ é limitada, podemos usar o teorema da convergência dominada
para deduzir das relações (3.1) - (3.3) que
XZ
hµ (f ) =
φ(e(XP , x)) dµ(x).
(3.4)
P ∈P
Precisaremos do seguinte lema para relacionar o jacobiano com o integrando do lado direito.
30
Lema 3.2.1 Para toda função mensurável limitada ψ : M → R e toda probabilidade boreliana η invariante por f,
X
e(ψ, x) = ψ̂(f (x)) para η-quase todo x, onde ψ̂(y) =
z∈f −1 (y)
ψ
(z).
Jη f
Demonstração. Lembre que Qn = ∨nj=1 f −j (P). Também usaremos a sequência de partições
−j
P n = ∨n−1
(P). Observe que Qn (x) = f −1 (P n−1 (f (x))) e P n (x) = P n (x) = P(x) ∩ Qn (x)
j=0 f
para todo n e todo x. Então,
Z
ψ̂ dη =
P n−1 (f (x))
XZ
P ∈P
ψ
◦ (f |P )−1 dη
J
f
n−1
η
f (P )∩P
(f (x))
Usando a fórmula de mudança de variáveis dada no Corolário 3.1.1, a expressão do lado
direito pode ser reescrita como
Z
XZ
ψ dη.
ψ(z) dη(z) =
Qn (x)
P ∩Qn (x)
P ∈P
Portanto,
Z
Z
ψ̂ dη =
P n−1 (f (x))
ψ dη
(3.5)
Qn (x)
A hipótese de que η é invariante dá que η(P n−1 (f (x)) = η(Qn (x)). Dividindo ambos os lados
de (3.5) por este número, obtemos que
en (ψ, x) = e0n−1 (ψ̂, f (x)) para todo x e todo n > 1.
Então, passando o limite, e(ψ, x) = e0 (ψ̂, f (x)) para η-quase todo x. Por outro lado, é fácil
ver que e0 (ψ̂, y) = ψ̂(y) para η-quase todo y ∈ M .
Vamos aplicar este resultado a ψ = XP e η = µ. Como f é injetiva em todo elemento de
P, cada interseção P ∩ f −1 (y) ou é vazia ou contém exatamente um ponto. Portanto, segue
do Lema anterior que e(XP , x) = XˆP (f (x)), com
(
X̂P (y) =
1/Jµ f ((f | P )−1 (y)) se y ∈ f (P );
0
se y ∈
/ f (P ).
31
Então, lembrando que a medida µ é invariante,
Z
Z
φ(e(XP , x)) dµ(x) =
Z
1
log Jµ f )◦(f |P )−1 dµ =
(
φ(X̂P (y)) dµ(y) =
J
f
µ
f (P )
Z
log Jµ f dµ
P
(usamos na última igualdade a parte (2) do corolário 3.1.1). Substituindo essa expressão em
(3.4), vem que
hµ (f ) =
XZ
P ∈P
Z
log Jµ f dµ =
log Jµ f dµ.
P
Exemplo 3.2.1 Considere a expansão decimal f : [0, 1] → [0, 1] dada por f (x) = 10x−[10x].
(i − 1) i
A medida µ de Lebesgue é invariante por f. Considere a cobertura Ui = (
, ) com
10
10
i = 1, 2, 3, ..., 10, então f restrita a cada Uj é uma bijeção e sua inversa é mensurável, logo
f é localmente invertı́vel. Essa mesma cobertura P = ∪10
i=1 Ui é uma partição que gera a
σ-álgebra de Borel em [0, 1]. Portanto, como f satisfaz as hipóteses do Teorema, podemos
aplicar a Fórmula de Rokhlin para esta transformação. O jacobiano de f relativamente a µ é
Jµ f (x) = 10 para todo x ∈ P.
Logo, concluı́mos através da fórmula de Rokhlin que a entropia da expansão decimal é
dada por
hµ (f ) =
R
log Jµ f dµ =
R
log 10 dµ = log 10.
Um outro fato interessante é dado pelo seguinte exemplo:
Exemplo 3.2.2 Seja f : S 1 → S 1 uma transformação de classe C 2 tal que |f 0 (x)| > σ > 1
para todo x ∈ S 1 . Nestas condições sabemos que existe uma única medida µ absolutamente
contı́nua com respeito à medida de Lebesgue m que é invariante por f. Além disso, µ é
ergódica (Recomenda-se uma leitura do capitulo 11 da referência [2]).
Neste caso, o Teorema de Birkhoff nos permite definir o número
n−1
λ = lim
1X
1
log |f 0 (f i (x))| = lim log |(f n )0 (x)|.
n i=0
n
32
Este número é chamado Expoente de Lyapunov de µ com respeito a f .
Pode-se mostrar que sob estas condições, existe δ > 0 tal que para toda partição P com
diâmetro menor que δ, P é geradora. Assim, podemos usar a fórmula de Rokhlin para concluir
que
Z
hµ (f ) =
log Jµ f dµ
h◦f 0
|f |. De fato, como µ = hm, podemos concluir que
h
Z
Z
Z
Z
h◦f
0
µ(f (A)) =
1 dµ =
h dm =
|f |(h ◦ f ) dm =
|f 0 |
dµ,
h
f (A)
f (A)
A
A
Vamos checar que Jµ f =
perceba que na terceira igualdade usamos a fórmula de mudança de variáveis.
Portanto, concluı́mos que a entropia de f com respeito a µ é dada por
Z
Z
h◦f
hµ (f ) = log(Jµ f ) dµ = log(|f 0 |
) dµ.
h
Esta igualdade é uma caso particular da chamada Fórmula de Pesin que afirma que:
Teorema 3.2.2 Seja f : M → M uma transformação expansora numa variedade Riemanniana compacta, tal que a derivada Df é Holder. Seja µ a única probabilidade invariante
absolutamente contı́nua com respeito à medida de Lebesgue em M. Então
hµ (f ) =
k
X
di λi ,
i=1
onde λi , i = 1, · · · , k são os expoentes de Lyapunov de f em µ-quase todo ponto e di ,
i = 1, · · · , k são as respectivas multiplicidades.
Exemplo 3.2.3 Seja G(x) =
1 1
−[ ] a transformação de Gauss, pode-se checar que a medida
x x
Z
1
µ(E) =
dx
E (1 + x) log 2
é invariante por G.
1
1
, ) para m ≥ 1. Perceba que G é localmente
m+1 m
invertı́vel e a partição P é geradora. Portanto, pelo resultado acima podemos concluir que o
Seja P a partição nos intervalos (
jacobiano de G é dado por
33
Jµ G =
onde h =
h◦G 0
|G |.
h
1
. Então, podemos concluir pela Fórmula de Rokhlin que
(1 + x) log 2
Z
hµ (G) =
h◦G 0
|G |) dµ =
log(
h
Z
0
Z 1
log |G | dµ =
0
−2 log x dx
π2
=
.
(1 + x) log 2
6 log 2
onde a segunda igualdade vem do fato da medida µ ser invariante por G.
34
4
Sistemas Dinâmicos Aleatórios
Neste trabalho, um sistema dinâmico aleatório (RDS) consiste da seguinte dupla:
i. Um espaço métrico completo e separável (X, F, P) e uma transformação invertı́vel θ :
X → X preservando uma probabilidade boreliana ergódica P.
ii. Uma variedade Riemanniana Y conexa e compacta; uma transformação mensurável
F : X × Y → X × Y da seguinte forma
F (x, y) = (θ(x), fx (y))
onde cada fx : Y → Y é um difeomorfismo local C 1 .
Denotamos por J = X × Y e Jx = {x} × Y a fibra de x ∈ X. Definimos para cada inteiro
n ≥ 0 e cada x ∈ X
fxn (y) := fθn−1 (x) ◦ · · · ◦ fθ(x) ◦ fx (y)
tal que F n (x, y) = (θn (x), fxn (y)).
Exemplo 4.0.1 Considere X = {0, 1}Z , P =Bernoulli, θ = σ (descolamento de Bernoulli)
e Y uma variedade Riemanniana conexa e compacta. Considere as funções
(
fx =
f0 se x0 = 0;
f1 se x0 = 1.
onde fi : Y → Y são difeomorfismos. É um sistema dinâmico aleatório, consiste em “iterar
dois difeomorfismos aleatoriamente de acordo com o lançamento de uma moeda”.
35
Seja M1P (J ) conjunto das medidas de probabilidade sobre (J , B) tal que
−1
µ ◦ πX
=P
onde πX : J → X é a projeção na primeira coordenada (πX (x, y) = x), e seja
M1P (F ) = {µ ∈ M1P (J ) : µ ◦ F −1 = µ}
−1
Denotamos por X a partição de X sobre pontos. A partição πX
(X ) é mensurável (veja
Exemplo 1.1.4), portanto, para cada µ ∈ M1P (J ), pelo teorema da desintegração de Rokhlin,
R
existe um sistema de medidas (µx )x∈X tal que µ = µx dP(x), chamando-se sistema canônico
de medidas condicionais. Por conveniência, dado uma medida µ ∈ M1P (F ), denotaremos por
−1
Aµ (F |θ) o conjunto de todas partições mensuráveis α de J que são mais finas que πX
(X ).
Definição 4.0.1 Uma partição P ∈ Aµ (F |θ) é geradora por F relativa a θ se e somente se
P ∞ :=
∞
_
F −j (P) ≡µ J .
j=0
onde J é a partição de sob J =
S
x∈X {x} × Y
sobre elementos unitários.
A relação ≡µ significa que dado duas partições P1 e P2 de J , então P1 ≡µ P2 se existe
um conjunto mensurável W ⊂ J com µ(J /W ) = 0 tal que P1 |W = P2 |W .
Para um RDS podemos definir também a noção de entropia de uma forma bastante
similar com a definição introduzida no capı́tulo anterior. Perceba que no capı́tulo anterior
a noção de entropia era dada em cima de partições enumeráveis. Agora, podemos estender
essa noção para uma partição mensurável (não necessariamente enumerável).
4.1
Entropia para sistemas dinâmicos aleatórios
Vamos generalizar algumas noções de entropia para partições mensuráveis. A tripla
(X, F, µ) é um espaço de Lebesgue. Para nós, um espaço de Lebesgue é um espaço métrico
compacto e separável.
36
Definição 4.1.1 Se A é uma partição mensurável de X então a entropia é definida da seguinte maneira:
i. H(A) = ∞ se A é uma partição não enumerável.
ii. H(A) = −
P
A∈A µ(A) log µ(A) se A é uma partição enumerável.
Definição 4.1.2 Se A e B são partições mensuráveis de X, então a entropia condicional
Hµ (A|B) da partição A sujeita a B é definida por
Z
Hµ (A|B) =
HµB (A|B)dµ̂(B),
X/B
onde (A|B) = {A ∩ B|A ∈ A}. É claro que podemos reescrever a definição acima como
Z
HµB(x) (A|B(x))dµ(x)
Hµ (A|B) =
X
Portanto, podemos escrever como estamos habituados
Z
Hµ (A|B) =
I(A|B)dµ,
X
onde I(A|B) é a função informação condicional definida por:
I(A|B)(x) := − log µB(x) (A(x) ∩ B(x)).
−1
Definição 4.1.3 Se µ ∈ M1P (F ) e P é uma partição mensurável de J mais fina que πX
(X ),
então
1
−1
Hµ (P n |πX
(X ))
n→∞ n
hµ (F |θ; P) := lim
onde
n
P =
n−1
_
n=0
Além do mais, seja
F −j (P).
37
hµ (F |θ) := sup{hµ (F |θ; P)}
onde o supremo é tomado sobre todas as partições mensuráveis P de J que são mais finas
−1
−1
que πX
(X ) e tem entropia finita relativa a πX
(X ), isto é,
−1
Hµ (P|πX
(X )) :=
Z
Hµx (Px )dP(x) < ∞
X
onde Px = {P ∩ Jx : P ∈ P}. O número hµ (F |θ) é chamado entropia de F relativa a θ
com respeito a medida µ.
Daremos agora uma adaptação ao cenário aleatório do bem conhecido Teorema de KolmogorovSinai. Sua declaração e um esboço de sua prova podem ser encontrados na referência [1].
Teorema 4.1.1 Seja F : J → J é um sistema dinâmico aleatório métrico, se µ ∈ M1P (F ),
e se α ∈ Aµ (F |θ) é uma partição geradora por F relativa a θ, então
hµ (F |θ) = hµ (F |θ; α) = Hµ (J |F −1 (J )).
Teorema 4.1.2 Suponha que A e B são duas partições mensuráveis do Espaço de Lebesgue
(X, F, µ) tal que A ∩ B é contável (mod 0 com respeito a µB ) para quase todo B ∈ B. Então
existe uma partição contável γ = {γ1 , γ2 , ...} de X (mod 0) tal que cada γj ∈ γ intersecta
quase todo B em não mais que um ponto, que é então um átomo de µB , em particular
A ∨ B = γ ∨ B (mod 0).
Observação: 4.1.1 As demonstrações omitidos podem ser encontradas no capı́tulo 01 da
referência [4].
Definição 4.1.4 Seja (X, F, µ) um espaço de Lebesgue. Seja T : X → X uma transformação mensurável. Nós dizemos que T é essencialmente contável se as medidas µA
do sistema canônico de medidas condicionais para a partição A := T −1 (X ) são puramente
atômicos (mod 0 com respeito a µA ), para todo A ∈ A.
38
Lema 4.1.1 Se T é essencialmente contável e preserva µ então existe um conjunto mensurável Y ⊂ X de medida total tal que T (Y ) ⊂ Y e
i. T −1 (x) ∩ Y é contável para cada x ∈ Y . Além do mais, para cada x ∈ Y , T −1 (x) ∩ Y
consiste somente de átomos da medida condicional µT −1 (x) ;
ii. T (B) é mensurável se B ⊂ Y é mensurável;
iii. T |Y é não singular, isto é, µ(B) = 0 para B ⊂ Y implica µ(T (B)) = 0.
Demonstração. A demonstração pode ser encontrada da referência [2].
Teorema 4.1.3 Seja (X, F, µ) um Espaço de Lebesgue e T : X → X uma transformação
mensurável preservando µ, essencialmente contável. Então existe o Jacobiano, ele é único
µ-q.t.p..
Demonstração. Vamos definir o Jacobiano num conjunto Y de medida total, no complementar de Y podemos definir o Jacobiano como sendo zero. Primeiramente, considere a
partição γ = {γ1 , γ2 , ...} dada pela Teorema 4.1.2 com A = e B = T −1 (), onde é a
partição em pontos do conjunto X. Então para cada j, o mapa T |γj ∩Y é injetivo, onde Y é o
conjunto de medida total dado pelo lema 4.1.1. Além do mais, T |Y é não singular, assim J
existe em cada γj ∩ Y pelo Teorema de Radon-Nikodym, fazemos a mesma construção feita
no Teorema 3.1.1 e concluı́mos o resultado.
Teorema 4.1.4 Seja (X, F, ν) um espaço de Lebesgue. Seja T : X → X uma transformação preservando ν, essencialmente contável. Então o Jacobiano Jν tem logaritmo igual
a Iν (|T −1 ()), onde I(A|B)(x) := − log µB(x) (A(x) ∩ B(x)) é a função informação.
Demonstração. Considere já T restrita a Y . Seja Z ⊂ Y um conjunto mensurável tal que
T é injetivo. Para cada y ∈ Y denotamos por A(y) o elemento de ζ = T −1 () contendo y.
Nós obtemos
39
ν(T (Z)) = ν(T −1 (T (Z)))
Z
=
1 dν(y)
T −1 (T (Z))
Z
=
(1Z (x)/νA (y){x}) dνA(y) (x)) dν(y)
T −1 (T (Z))
Z
=
(1Z (y)/νA(y) {y}) dν(y)
T −1 (T (Z))
Z
=
(1/νA(y) {y}) dν(y).
Z
Assim sendo, Jν (y) = 1/νA(y) {y} e tem logaritmo igual a Iν (|T −1 ())(y). De fato, log Jν (y) =
1
) = − log(νA(y) {y}), enquanto que I(|T −1 ())(y) = − log νA(y) ((y) ∩ A(y)) =
log(
νA(y) {y}
− log(νA(y) {y})
Por fim, podemos agora enunciar a Fórmula de Rokhlin para sistemas dinâmicos aleatórios
métrico.
Teorema 4.1.5 Se µ é uma medida ergódica invariante que admite uma partição P Fgeradora com respeito a θ, então
Z
hµ (F |θ) =
log Jµ (F )dµ.
Demonstração. Como F é essencialmente contável, podemos aplicar os teoremas anteriores.
Daı́ pelo Teorema 4.1.1 e pelo Teorema 4.1.4 , como P é uma partição geradora por F relativa
a θ, temos que
hµ (F |θ) = Hµ (J |F
−1
Z
(J )) =
I(J |F
−1
Z
(J ))(x)dµ(x) =
log Jµ (F )dµ.
Já sabemos que existe o Jacobiano em µ-q.t.p., isto é, temos uma função não-negativa e
um conjunto I ⊂ J de medida zero tal que para cada mensurável A ⊂ J\I para qual F é
injetora, vale a seguinte igualdade:
Z
µ(F (A)) =
Jµ F dµ.
A
40
Agora, restringindo Jµ F a Jx e usando o conjunto de medida zero I, consideremos a função
Jµx (fx ) = Jµ (F )|fx sob a fibra Jx para P−q.t.p. x ∈ X. Pela definição acima é claro que
Z
µθ(x) (fx (Ax )) =
Jµx (fx ) dµx
Ax
para qualquer Ax ⊂ Jx \Ix mensurável tal que fx |Ax é injetora. Em particular, Jµx é o
jacobiano de fx relativa a µx . Portanto, podemos escrever o teorema acima como sendo
Z
hµ (F |θ) =
Z
Z
(
log Jµ (F )dµ =
X
log Jµx fx (y) dµx (y)) dP(x).
Jx
Exemplo 4.1.1 Seja X = {x0 }, θ(x0 ) = x0 , P = δx0 e Y uma variedade Riemanniana
conexa e compacta. Considere fx0 : Y → Y um difeomorfismo local C 1 . Sob as condições do
Teorema 4.1.5, concluı́mos que a entropia de F relativa a θ é dada por
Z
hµ (F |θ) =
Z Z
log Jµ F dµ =
x0
Y
Z
log Jµx0 fx0 (y) dµx0 (y)) dδx0 =
Y
log Jµx0 fx0 (y) dµx0 (y) =
hµx0 (fx0 )
Neste caso, a entropia no caso determinı́stico se iguala a entropia no caso aleatório.
41
Referências
[1.]
Bartle, Robert G., Elements of Integration and Lebesgue Measure, John Wiley &
Sons, 1995.
[2.]
K. Oliveira, M. Viana Fudamentos da Teoria Ergódica, Colecao Fronteiras da Matematica, SBM, (2014).
[3.]
Bilbao, Rafael Avarez. Medidas maximizantes em sistemas dinâmicos aleatórios. /
Rafael Alvarez Bilbao. Maceió, 2015.
[4.]
F. Przytycki and M. Urbanski, Conformal fractals- ergodic theory methods, London
Mathematical Society Lecture Note 371 (2010).
[5.]
D. Simmons and M. Urbanski, Relative equilibrium states and dimensions of
berwise invariant measures for distance expanding random maps, Stochastic and Dynamics 14,1 (2014).
