Chaos

advertisement
Mecanicismo-determinismo-predicción
Pierre-Simon Laplace
(1749 - 1827)
Demonio
Pierre-Simon Laplace
(1749 - 1827)
"Podemos mirar el estado presente
del universo como el efecto del
pasado y la causa de su futuro.
Se podría condensar un intelecto que
en cualquier momento dado sabría
todas las fuerzas que animan la
naturaleza y las posiciones de los
seres que la componen, si este
intelecto fuera lo suficientemente
vasto para someter los datos al
análisis, podría condensar en una
simple fórmula el movimiento de los
grandes cuerpos del universo y del
átomo más ligero; para tal intelecto
nada podría ser incierto y el futuro
así como el pasado estarían frente sus
ojos."
Átomos/Entropía
Probabilidad
Mecánica estadística
Mecánica cuántica
Indeterminación
¿Predicción? Sí
Caos determinista
Caos. La Creación de una
Ciencia
James Gleick
Seix Barral, 1998
Traducción del original "Chaos.
Making a New Science" en Viking,
1987. Escrito por un periodista del
periódico The New York Times.
Relata los comienzos y el primer
desarrollo de la ciencias no lineal en
un lenguaje muy accesible. Un
síntoma de que se trata de un buen
escrito es que aparece como
bibliografía en algunos artículos
científicos.
Una causa muy pequeña, que se nos
escapa, determina un efecto
considerable que no podemos prever, y
entonces decimos que dicho efecto se
debe al azar.
H. Poincaré, Ciencia y método (1908)
Sensibilidad a las condiciones
iniciales (Efecto mariposa).
Azar a partir de ecuaciones simples.
Orden en el azar.
Azar local vs. estabilidad global.
¿Predicción? No
Determinismo no es igual a predicción.
Sistemas dinámicos discretos
Entendemos por sistema dinámico (SD)
al par sencillo:
(i) Condiciones iniciales
+
(ii) Regla dinámica de cambio.
Sistemas dinámicos discretos
(1) Audio-feedback: si acercamos el micrófono a la salida de sonido
crearemos un circuito de retroalimentación del volumen:
Vt+1 = r·Vt
donde V es el volumen y r la ganancia efectiva.
(2) Interés bancario: el dinero en el banco renta más o menos
capital (generalmente vemos que menos).
St+1 = r·St
donde St es el saldo al t-ésimo año y r = (1 + tasa
de interés - tasa de inflación).
(3) Crecimiento de una colonia de bacterias: las poblaciones
varían en el tiempo (solo para gente con microscopio).
Pt+1 = r·Pt
donde Pt = número de células, población, en la t-
ésima generación y r = (1 + tasa de crecimiento - tasa de defunción)
= fecundidad.
La pregunta típica en SD es: dada una condición inicial (V0 decibelios,
S0 euros o P 0 bacterias en nuestros casos) ¿cuál será el estado del
sistema después de t iteraciones? Para los sistemas lineales como los
expuestos, la respuesta no es difícil. Podemos resolverlos totalmente.
Tenemos:
xt+1 = r· xt con t = 0, 1, 2, ...
Dada una condición inicial x 0:
x1 = r · x 0
x2 = r · x 1 = r 2 · x 0
...
Y en general:
xt+1 = rt+1 · x0
Conocida la condición inicial conocemos el estado del sistema en
cualquier instante. Observemos que, a pesar de que la ecuación es
lineal el comportamiento dinámico es el de una sucesión
geométrica. Una serie temporal no lineal no implica necesariamente
reglas dinámicas no lineales.
Las gráficas siguientes muestran la riqueza de comportamientos dinámicos
posibles de nuestra función iterada lineal al variar el parámetro r.
Evidentemente, para nuestros ejemplos concretos ciertos comportamientos
carecerán de sentido: ni volúmenes musicales negativos (música
minimalista), ni intereses negativos (inflación hipergalopante), ni
poblaciones negativas (noche de los muertos vivientes) son posibles.
Decaimiento exponencial 0 < r < 1
xt+1 = r· xt
Crecimiento exponencial r > 1
xt+1 = r· xt
Comportamiento estacionario r = 1
xt+1 = r· xt
Decaimiento oscilante -1 < r < 0
xt+1 = r· xt
Crecimiento oscilante r < -1
Ciclo periódico r = -1
El mundo es un pañuelo
Un paseo pluridisciplinar por la ciencia
Bartolo Luque
Publicacions de la Universitat de València,
colección sin fronteras (2009).
Finalista del Premio Europeo de Divulgación
Científica Estudi General 2007.
ISBN: 978-84-370-7325-5.
Capítulo 3.
Vídeo-iterando, video-iterando, el caos se va alcanzando
¿Qué ocurre si enfocamos una cámara a la pantalla de un televisor que está
emitiendo justamente las imágenes que capta la propia cámara? Descubra una ruta
televisiva hacia el caos determinista.
Patrones complejos
pueden ser generados
por procesos simples
Vídeo-retroalimentación
El término iteración suele usarse en
matemáticas, los ingenieros prefieren
utilizar la palabra retroalimentación
(feed-back) para referirse al mismo.
Vamos a crear un sencillo circuito
de retroalimentación. Necesitamos
simplemente una cámara de vídeo y
un televisor.
Conecte la salida de una cámara de vídeo a la entrada de señal de un
televisor. De esa manera las imágenes recogidas por la cámara serán
vistas en la pantalla. ¿Qué ocurre si apuntamos la cámara a la propia
pantalla del televisor? La imagen que aparece en el televisor es
capturada por la cámara, que la regresa de nuevo al televisor, que vuelve a
ser capturada por la cámara, que... ¡Estamos iterando la imagen!
En nuestra calculadora conseguíamos iterar un paso cada vez que
apretábamos el botón de raíz cuadrada. Con este experimento
conseguimos 25 iteraciones por segundo y sin tan siquiera mover un
dedo. Y además obtenemos imágenes físicas y no cadenas simbólicas.
¿Qué observaremos mediante
este sencillo montaje? Si
situamos la cámara a larga
distancia obtendremos una
secuencia de pantallas
dentro de pantallas en una
sucesión que se aleja. En la
fotografía puede observar uno de
estos efectos conseguido con un
astuto giro de la cámara.
El proceso de retroalimentación puede
describirse como una reducción de la imagen
hacia un punto interior de la pantalla. Si
acercamos la cámara lo suficiente, como para
que desde su visor de cámara sólo
observemos pantalla, observaremos lo
contrario. La imagen se expandirá. Para
conseguir imágenes que le resultarán hipnóticas,
baje el brillo del televisor y ponga alto el
contraste. Apague la luz de la habitación y ajuste
ahora el zoom de la cámara de modo que la
pantalla del televisor quede perfectamente
encuadrada sin que aparezca el marco del
televisor. Es decir, nos encontramos en la región
ni demasiado lejos para que la imagen se
contraiga, ni demasiado cerca para que la imagen
se expanda. En este sencillo sistema puede
modificar muchas variables como el zoom, el
foco, el ángulo con que encaramos la pantalla del
televisor, etc.
Al igual que en nuestra calculadora podíamos comenzar a partir de un
número x0 cualquiera (excepto negativos) como condición inicial, en
nuestro experimento podemos utilizar un sinfín de objetos como imagen
inicial. Pruebe a mover una vela o un mechero encendidos entre la
cámara y el televisor para obtener resultados semejantes al de las
siguientes fotografías.
Clasificando los resultados
Después de experimentar un rato observará que los patrones espaciales se pueden clasificar en
cuatro clases según su evolución en el tiempo:
(1) La pantalla se vuelve totalmente blanca o se fija una mancha de luz estable. Este resultado es,
en lenguaje de los sistemas dinámicos, un punto fijo.
(2) Aparece una mancha de luz pulsante (estado estacionario periódico).
(3) Asistimos a una frenética aparición y desaparición de manchas de luz sin orden ni concierto
(caos determinista).
(4) Nuestra pantalla exhibe un patrón organizado o complejo de manchas, de reminiscencias
orgánicas, que parecen crecer, decrecer y evolucionar (dinámica compleja o auto-organizada).
Sin duda las imágenes
más interesantes
corresponden a esta
cuarta categoría. Aquí
tiene algunos ejemplos:
Simular para entender
Los experimentos con vídeo-retroalimentación se remontan al nacimiento de la televisión. Muchos artistas se han
mostrado interesados en sus posibilidades estéticas. Si ha experimentado con el sistema habrá observado que el
efecto de algunos controles sobre el resultado final es relativamente fácil de entender. Sin embargo, el de otros
es endemoniadamente difícil. Fue el físico J. P. Crutchfield ("Space-time dynamics in video feedback,"
Physica 10D (1984) 229-245) quien primero estudió teóricamente el sistema.
Crutchfield propone un modelo matemático para
emular lo que ocurre en nuestro experimento con vídeo
y televisor. Asume que una imagen se describe como
una matriz dos dimensional que puede ser rotada o
magnificada. Para iterar una imagen se acopla cada
píxel de la matriz con sus píxeles vecinos de manera
especificada por el valor del foco, se rota la imagen de
manera especificada por el ángulo escogido y se
magnifica por el valor z del zoom, los tres parámetros
regulables del modelo. El proceso viene descrito por
una ecuación de iteración semejante a las que
expusimos al comienzo del ensayo, pero, como el
lector puede suponer, matemáticamente mucho más
compleja.
Para iterar la ecuación, Crutchfield utilizó un ordenador.
De esta manera determinó que existían dos tipos
básicos de comportamientos dependientes del valor del
zoom. Cuando el zoom era menor que uno los puntos
de luz en la imagen, se obtenían patrones en espiral
hacia el centro. Cuando el zoom es mayor que uno los
puntos de luz se magnifican hacia el exterior, formando
en algunos casos espirales con estructura autosimilar,
fractal. La siguiente tabla muestra una clasificación de
los resultados:
Para seguir explorando
Si dispone de una cámara acoplada a su ordenador, una típica web-cam, puede
construir igualmente el circuito de retroalimentación que hemos descrito. Y además,
con un poco de pericia informática podrá medir la intensidad luminosa de los
patrones dinámicos que genere. En la gráfica que acompaña a este texto
presentamos el resultado de la variación de intensidad con el tiempo. Las primeras
gráficas muestran el comportamiento de una mancha pulsante periódica. Al variar
convenientemente las variables del sistema se observan cambios en el periodo.
En concreto la quinta, sexta y séptima línea
muestran un periodo de duración doble. Así que al variar
los parámetros de forma continua, el periodo se va
doblando una y otra vez, hasta que alcanzamos el
comportamiento de la octava gráfica, que no muestra
periodicidad: hemos alcanzado el caos determinista. El
sistema de video-iteración exhibe lo que los físicos y
matemáticos denominan cascada de bifurcaciones. Un
comportamiento que estaba presente, de manera
simbólica, en la ecuación logística que presentamos al
comienzo del ensayo y con la que se suele enseñar en la
mayor parte de cursos sobre sistemas dinámicos esta ruta
hacia el caos. La sencilla ecuación logística nos desvela un
patrón dinámico oculto en muchos sistemas del mundo
físico real, un patrón universal.
One-dimensional maps
One-dimensional maps, definition:
- a set V (e.g. real numbers between 0 and 1)
- a map of the kind f: VV
Linear maps:
- a and b are constants
- linear maps are invertible with no ambiguity  no chaos
Non-linear maps: The logistic map
Iniciación al Caos. Sistemas Dinámicos
Miguel Ángel Martín, Manuel Morán Cabré, Miguel Reyes
Síntesis, 1995
One-dimensional maps
Non-linear maps: The logistic map
with
Motivation: Discretization of the logistic equation for the dynamics
of a biological population x
b: birth rate (assumed constant)
cx: death rate depends on population (competition for food, …)
How do we explore the logistic map?
Geometric representation
1
Evolution of a map:
1) Choose initial conditions
2) Proceed vertically until you hit f(x)
3) Proceed horizontally until you hit y=x
4) Repeat 2)
5) Repeat 3)
.
:
x
f(x)
0
0.5
1
Evolution of the logistic map
fixed point ?
Phenomenology of the logistic map
a)
b)
1
1
y=x
y=x
fixed point
c)
f(x)
f(x)
0
0.5
fixed point
0
1
1
d)
0.5
1
1
chaos?
2-cycle?
0
0.5
1
What’s going on?
0
0.5
1
Analyze first a)  b)
b)  c) , …
Geometrical representation
1
1
x
x
f(x)
0
0.5
f(x)
1
Evolution of the logistic map
0
0.5
1
fixed point
How do we analyze the existence/stability of a fixed point?
Fixed points
- Condition for existence:
- Logistic map:
- Notice: since
the second fixed point exists only for
Stability
- Define the distance of
from the fixed point
Taylor expansion
- Consider a neighborhood of
- The requirement
implies
Logistic map?
Stability and the Logistic Map
- Stability condition:
- First fixed point: stable (attractor) for
- Second fixed point: stable (attractor) for
- No coexistence of 2 stable fixed points for these parameters
(transcritical bifurcation)
1
1
x
x
f(x)
0
0.5
What about
f(x)
0
1
?
0.5
1
Period doubling
1
Observations:
x
1) The map oscillates
between two values of x
f(x)
0
0.5
1
0
0.5
1
Evolution of the logistic map
2) Period doubling:
What is it happening?
Period doubling
- At
since
the fixed point
becomes unstable,
>
-Observation: an attracting 2-cycle starts 
(flip)-bifurcation
The points are found solving the equations
0
0.5
1
and thus:
These points form a 2-cycle for
However, the relation
suggests
they are fixed points for the iterated map
Why do these points appear?
Stability analysis for
and thus:
For
:
, loss of stability and bifurcation to a 4-cycle
Now, graphically..
Bifurcation diagram Plot of fixed points vs
Bifurcation diagram Plot of fixed points vs
Observations:
1) Infinite series of period doublings
at pitchfork-like (flip) bifurcations
2) After a point
chaos seems to appear
3) Regions where stable periodic
cycles exist occur for
What is general?
Bifurcation diagram
General points:
1)
Period doubling is a quite general route to chaos (other possibilities, e.g. intermittency)
2)
Period doublings exhibit universal properties, e.g. they are characterized by certain numbers
that do not depend on the nature of the map. For example, the ratio of the spacings between
consecutive values of
at the bifurcation points approaches the universal “Feigenbaum”
constant. The latter occurs for all maps that have a quadratic maximum
3)
4)
Thus, we can predict where the cascade of period doublings ends, and something else starts
The something else looks chaotic, however, can we quantify how chaotic really is?
How do we characterize/quantify chaos?
Chaos: rapid divergence of nearby points in phase space
Measure of divergence: Lyapunov exponent
Lyapunov exponent
One-dimensional system with initial conditions
and
with
After n iterations, their divergency is approximately
- If
there is convergence  no chaos
- If
there is divergence  chaos
One dimensional systems
After n steps
Thus:
(chain rule)
Logistic map
Stretching and folding
Beginning of the lecture: “Chaos: is aperiodic long-term behavior in a
deterministic system that exhibits sensitive dependence on initial conditions ”
However, in general it is necessary to have a mechanism to keep chaotic
trajectories within a finite volume of phase-space, despite the expoential
divergence of neighboring states
0
1/2
1
“stretching” (divergence) for (0,1/2)
“folding” (confinement) for (0,1/2)
0
1/2
1
- “stretching+folding” is responsible
for loss of information on initial
conditions as the iteration number
(time) increases
- for 1D maps, non-linearity makes
“time”-inversion ambiguous  loss
of information
Conclusions
Chaos
- the logistic map
Phenomenology:
- Initial conditions, fixed points and linear stability
- Bifurcation analysis, period doubling
- Bifurcation diagrams
- Chaos
Analysis:
-Lyapunov exponents
-Stretching and folding
Conclusions
Chaos and Fractals. New Frontiers of Science
Heinz-Otto Peitgen, Hartmut Jürgens, Dietmar Saupe
Springer-Verlag, 1992
Fractals, Chaos, Power Laws: Minutes from an Infinite Paradise
Manfred Schroeder
W. H. Freeman, 1992
Period Doubling Single Frequency
Steady State
M(x)
Logistic Map
Power
xn+1=rxn(1-xn)
M(xn)
M(x)
Filter profile
x=y
Frequency
shift due to
xn
Frequency
feedback
x
Period Doubling Single Frequency
Steady State
M(x)
Logistic Map
Power
xn+1=rxn(1-xn)
M(xn)
M(x)
Filter profile
x=y
Frequency
shift due to
xn xn+1
Frequency
feedback
x
Period Doubling Single Frequency
Steady State
M(x)
Logistic Map
Power
xn+1=rxn(1-xn)
M(xn+1)
M(xn)
M(x)
Filter profile
x=y
Frequency
shift due to
xn xn+1
Frequency
feedback
x
Period Doubling Single Frequency
Steady State
M(x)
Logistic Map
Power
xn+1=rxn(1-xn)
M(xn+1)
M(xn)
M(x)
Filter profile
x=y
Frequency
shift due to
xn xn+1 Frequency
xn+2
feedback
x
Period Doubling Single Frequency
Steady State
M(x)
Logistic Map
Power
xn+1=rxn(1-xn)
M(xn+1)
M(xn)
M(x)
Filter profile
x=y
Frequency
shift due to
xn xn+1 Frequency
xn+2
feedback
x
Period Doubling Single Frequency
Steady State
M(x)
Logistic Map
Power
xn+1=rxn(1-xn)
M(xn+1)
M(xn)
M(x)
Filter profile
x=y
Frequency
shift due to
xn xn+1
xn+2
Frequency
feedback
x
Period Doubling Single Frequency
Steady State
M(x)
Logistic Map
Power
xn+1=rxn(1-xn)
M(xn+1)
M(xn)
M(x)
Filter profile
x=y
Frequency
shift due to
xn xn+1 Frequency
xn+2
feedback
x
M(x)
frequency
Period Doubling Single Frequency
Steady State
Logistic Map
time
Power
xn+1=rxn(1-xn)
M(xn+1)
M(xn)
M(x)
Filter profile
x=y
Frequency
shift due to
xn xn+1
xn+2
Frequency
feedback
x
Period 2 Orbit
Logistic Map
M(x)
Power
frequency
xn+1=rxn(1-xn)
time
M(x)
Filter profile
x=y
Frequency
shift due to
feedback
Frequency
x
Period 4 Orbit
frequency
M(x)
Logistic Map
Power
time
xn+1=rxn(1-xn)
M(x)
Filter profile
x=y
Frequency
shift due to
feedback
Frequency
x
Period 8 Orbit
Frequency
M(x)
Logistic Map
xn+1=rxn(1-xn)
Power
Time
x
M(x)
Filter profile
x=y
Frequency
shift due to
Frequency
feedback
Period 16 Orbit
Frequency
M(x)
Logistic Map
xn+1=rxn(1-xn)
Power
Time
x
M(x)
Filter profile
x=y
Frequency
shift due to
Frequency
feedback
Chaotic Orbit
Frequency
M(x)
Logistic Map
Power
Time
xn+1=rxn(1-xn)
M(x)
Filter profile
x=y
Frequency
shift due to
Frequency
feedback
x
Iterated Map
•
•
•
•
Poincare sections: ODEs → Map
Maps by themselves.
1-D map: xn+1 = f(xn)
Map → ODEs ???
Poincare Sections
Uniqueness of solutions of ODEs → existence of Poincare map
un  Pu  un 1 , vn 1 
vn  Pv  un 1 , vn 1 
Example of Reduction to 1-D map:
vn  Pv  un 
un  Pu  un1, vn1   Pu  un 1 , Pv  un 1    f A  un 1 
Another example:
Dissipative system:
IC cluster → 0 volume
Poincare section
of 3-D system
Directions with M<<1 ( λ<<0 ) quickly contract.
If system is sufficiently dissipative:
IC cluster → curve → 1-D map
Essentially 1-D system:
un1  f A  un 
Diode circuit
Low Q: 1-D
High Q: 2-D ?
Effectively 1-D System: Pendulum
d 2
d

M L 2   M L
 M g sin   cos  t
dt
dt
L
d 2
d g



 sin   K cos  t
2
dt
dt L
d 2
d
 b
 sin   F cos Ds
2
ds
ds
0 

D
0
g
L
b
s  0 t

0
D = 2/3, b = 1, F = 2.048
F

M gL
1-D Iterated Map
xn  f p  xn1 
Maps have greater range of dynamical
behavior than their ODE counterparts
xn1  Axn 1  xn 
Logistic map:
Fixed point:
x*  f  x *
Linear stability analysis:
xn  x*  f  xn1   f  x *
df

dx
df
dx
1
 xn1  x * 
x*
stable  attracting 
1
Bifurcation point
x*
 1 unstable  repelling 
x  0,1
Logistic map:
x*  0, 1 
1
A
Bifurcations: Period Doubling Route to Chaos
Logistic map
A<1
1<A< 3
A>3
A=3
x* = 0
f = A
Stable
Unstable
Unstable
Unstable
Stable
2-cycle
x1* = f(x2*)
x2* = f(x1*)
Perioddoubling
bifurcation
x* = 1 - 1/A
f = 2 - A
Unstable
x*j = f(2)(x*j)
1
0.8
0.6
0.4
0.2
0
0
0.2
0.4
0.6
0.8
1
f = -1
d f g d f d g

dx
dg dx
d f  2  x  d f  f  x  

dx
dx
 f  f  x
2-cycle:
f  x 
d f 2  x 
dx
x1*
df
dx
df

dx
df
dx
f  x
df
dx
x *
2
 f   g  g  x 
x
d f 2  x 

dx
x1*
x2 *
→ Same stability at x1* and x2*
At bifurcation point ( A1 = 3 ) : x* = x1* = x2*
d f  x
 1
dx
d f 2  x 
1
dx
S,U,S
1
0.8
0.6
0.4
In general
x*  f  x *

x*  f
n
 x *
0.2
0
0
But not vice versa
0.2
0.4
0.6
0.8
1
df
n
 x0 
dx
d f  xn 1   d xn 1 d f  xn 1 

dx
d xn 1
dx
n 1
d f  f    x0  

dx

df
n 1
 x0  d f
dx
dx
d f  n 1  x0 
 f   xn 1 
dx
xn 1
d f  n 2  x0 
f   xn 2 
dx
 f   xn 1 
d f  n   x *  d f  x * 


dx
d
x


n
 f   xn1  f   xn2 
f   x0 
(Un)stable f(x*)  (Un)stable f(n)(x*)
Let xi(n)* be the ith fixed point of an n-cycle, then (Ex.5.4-4)
d f
n
 x   
n *
i
dx
 
n
j 1
f  x j
n *

for i = 1, …, n
Prime period of a fixed point = smallest n  x* = f(n)(x*)
Ex 5.4-6
f(n):
f(n) > -1
S
f(2n):
f(n) = -1
f(n) < -1
S
S, U, S
Lyapunov Exponents
Chaos:
• Divergence of nearby trajectories.
• x ~ exp(λt) n = Mn-1 1
with λ>0 & |M|>1
• Dissipative system: ergodic
Consider 2 neighboring points on a chaotic attractor:
d n  f  n   x0     f  n   x0 
  en 
n
n
n


d
f
x0 
f
x



f
x

1




0
0
1 
  ln
  ln
dx
n 

 n


1 n 1
1 n 1
 ln M i
  ln f   xi 
 ln  f   xi 
n i 0
n i 0
Best choice of n:
dn ~ X/2
An 1-D map is chaotic if λ > 0
n large, ε→ 0
xi on same
trajectory
Universality: The U Sequence
Unimodal map:
• Piecewise C(1) function of [0,1] into itself with a single maximum at
the critical point xc.
• Monotonic otherwise.
• By convention, f(0) = f(1) = 0 and xc = 0.5.
Shift + scale to unimodal
Nonunimodal
Metropolis, Stein & Stein’s U-Sequence
Reprinted in P.Cvitanovic, “Universality in Chaos”,
2nd ed., Adam Hilger (84,89)
Supercycle of period n:
• x1 = f(xc) x2 = f(x1) … xn-1 = f(xn-2)
xc = f(xn-1)
• Symbol (kneading) sequence: xi > xc → R, xi < xc → L
1
df

d x 1
df
dx
0
xC
Birth
of cycles
Death
→ Supercycles are most stable
C : f
W
W2
W 3 3W
3x 1 x
1
0.8
0.6
0.4
0.2
0.2
0.4
0.6
0.8
λ = .9895107
1
• U-sequences beyond periodic doubling accumulation
point ( A ~ 3.5699… for logistic map ) are in windows
within chaotic regime.
• Universality.
• Non-uniqueness: there are other sequences not
involving xc. (cf. Singer’s theorem )
• Comparison with experiments: favorable.
• Exceptions:
– oscillating chemical reactions
– varactor diode circuit
– Gaussian map
Ex. 5.5-2
Some Generalizations
• Single minimum: f(x) = 1 – Ax(1-x)
–
Ex. 5.5-3
• Scaling: f(x) = Bx(b-x)
–
u = x/b
Schwarzian derivative
2

2



1


f
3 f 
 f   1  f  
Sf 
          2 f  


f
f 2 f 




 f  2 f 
Introduced originally for
complex analysis
• Sf = 0 if f = (az+b)/(cz+d) = linear fractional transform.
• Sf < 0, Sg < 0 → S(f。g) < 0
• Sf < 0 → Sf(n) < 0.
• Sf < 0 restricts existence of inflection points:
Schwarzian min-max principle: Sf < 0 →
f has no positive local minimum or negative local maximum.
Pf: f(x*) is min → f(x*) = 0 & f(x*) > 0
 Sf < 0 → f(x*) < 0
A unimodal map can have an infinite series of pitchfork
bifurcations only if Sf < 0
f  3  f  
Sf 
  
f 2 f 
2
f > 0,
f < 0,
f < 0, f > 0
f > 0 , f < 0
f > 0
f < 0
Allowed: Pichfork bifurcation
Singer’s Theorem
Let Dom(f)  Ran(f) and Sf < 0, then
n critical points → at most n+2 attracting cycles
Proof: D.Gulick, “Encounters with Chaos”, McGraw Hill (92)
or, R.L.Devaney, “ An Introduction to Chaotic Dynamical Systems”,
Benjamin (86)…Theorem 11.4.
Corollary: unimodal map has at most 3 stable cycles
( usually only 1 with basin almost everywhere )
Sarkovskii’s Theorem
Let f(x,A)  C0. If f has a prime period m at A0, then f(x,A0) has period
n to the right of m in the following sequence:
3→5→7→ … → 2×3 → 2×5 → … → 22×3 → 22×5 → …
… → 23 → 22 → 2 → 1
{ 20(2n+1) } → { 21(2n+1) } → { 22(2n+1) } → … → { 2n ↓ }
Note: Multiple appearances not counted.
Pf: R.L.Devaney, “ An Introduction to Chaotic
Dynamical Systems”, Benjamin (86)
Period 3 → all periods
Only stable cycles
computable.
Logistic map: A = 3.8319….
Li & Yorke, “ Period 3 implies Chaos? ”
Logistic map: 1→2→4→ … Chaos → ( windows …→7→5→3 )
Organization of Chaos
Logistic map: bifurcation
First 8 images of xc.
B.D.: only 10 points plotted.
Heavy lines: images of xc since f’(xc) = 0.
If xc is within basin of attractor:
• xmax = f(xc)
xmin = f(2)(xc)
• f(n)(xc): boundaries of interior bands
• windows: merging of images of xc.
• At Ac, images of xc = supercycle.
• Sarkovskii’s sequence
Misiureweiz point:
Ex 5.5-7
Feigenbaum Universality
Details in Appendices F & H.
See operator approach in H.G.Schuster, “Deterministic Chaos”
Distance from xc to its nearest
neighbor (at half-way) in the 2n
supercycle:
 2n 1 
d n  xc  f AS
n
Feigenbaum α:
dn
   lim
n  d
n 1
 xc 
 2n 1 
x c  f AS  x c 
n
 lim
n 
 2n 
x c  f AS  x c 
n
Existence of α implies that of a universal function g 
  y 
g  y    g  g    
   
Proof:
N  2n 1
2 

 xc  f A  xc 
n1
Define

yN  d n
d n 1 
n  1  log2 N  1  ld N
S
n
 2n 
xc  f AS
n
 xc 
 y2n
 y2 N
2n  2 N
y
dn
  lim N
N  y
n  d
2N
n 1
   lim
Ansatz:
   lim
N 
yN  g  yN 1 
g  yN 1 

g g y2 N 1

→
  lim
N 
y2 N  y2 N 12
g  yN 
  yN
g g
  





 g g y2 N 1

g  y

  y 
g  g   
   
Calculating α & g
Universality classes of maps are determined by the form of g(y→0).
Different class, different α
g  y   1  b y2 
Quadratic class:
g  y   2b y 
Maximum at y = 0 with
  y 
g  y    g  g    
   
2

y





1  b y 2    1  b  g     
   


1   1  b
Constant term:
b

2
 2  2  2  0


g  0  1
 y





2



 y
  1  b 1  b    
 




y2 term:
  1 3
2

 

b2
b  2






2.731...
1
  2.502907875...
g  y  1  1  3 y2 
2
Better values obtained by considering higher order terms.

Tent ( Triangle ) Map
1 

xn 1  r  1  2 xn  
2 

Piecewise linear
2r


f   undefined
 2r

Fixed points x* < ½ :
Fixed points x* > ½ :
 
  1
for x   
  2
 
1 


x*  r 1  2  x *   
2 


1 


x*  r 1  2  x *   
2 


x*  0
x* 
2r
1  2r
r
r
1
2
condition f(x*)
x*
Stability
0
all r
2r
stable for r < ½
unstable for r > ½
2r / (1+2r)
r > ½
-2r
unstable
1  r > ½ : chaotic
d f  n   x0  n 1 d f  xk 

dx
dx
k 0
Ex 5.7-3: <λ> > 0
d f  x0 

dx
n
  2r 
n
1
1
r
2
All fixed points of all the f(n)s are unstable.

No period-doubling route
Period-doubling requires f 
C1
1 unstable f.p.
→ 2 stable f.p.’s.
f(4)
Shift Maps & Symbolic Dynamics
xn1  10 xn mod 1
Decimal shift map:
xn  0,1
x mod[1] = x (mod 1) = mod(x,1)
= fractional part of x
xn is left-shifted by 1 digit to give xn+1.
x0
x1
x2
x3
0.8976342
0.9763428
0.7634280
0.6342800
x0  Q  fixed point / periodic cycle.
x0 irrational  trajectory ergodic
x0 = 3/8 → x* = 0
x0 = 22/70 → 6-cycle
There’re infinitely many A numbers between any two B numbers
( A,B = rat/irrat )
 Sensitive to I.C.
R is uncountably infinite
Chaotic: <λ> > 0
Q is countably infinite
→ measure 0
Computer: no irrat numbers
Bernoulli Shift
0.111
Fractional binary numbers:
(7/8)10 = (0.875000)10
= (0.111000)2
.5 + .25 + .125 = .875
xn1  2 xn mod 1
Bernoulli Shift
xn  0,1
x0
x1
x2
x3
0.1101011
0.1010110
0.0101100
0.1011000
Ex. 5.8-1: <λ> = ln 2
Irrational number : digits = randomn sequence
Symbolic dynamics
Ref: Devaney
C.f. U-sequence
111
1000
1100
1000
1000
1000
1000
0
Logistic Map (A = 4) ~ Bernoulli Shift
x
1
1  cos  
2
  0,1
1 x 
xn1  f  xn   4 xn 1  xn   1  cos n 
2
cos2  
1
 cos 2  1
2
n1  2n mod 1
1
1  cos  
2
1
1  cos n1 
2
cos n1  cos2n
<λ> = ln2
Use as random number generator
1
The Gaussian Map
xn 1  f  xn   e
f  C 1.
 bxn2
b0
c
3  4b2 x 4
Sf  
0
2
2x
0.5
-1
-0.5
 period-doubling sequence
Inflection points at
x
0.5
-0.5
1
2b
-1
→ |f|<< 1 for large |x|
→ stable fixed point at –x << -1
→ period-halving sequence
( bubbling )
U-seq violated: diode, osc
chem reaction…
b = 7.5, x0 = 0
b 7.5 ,c
0.9
b 7.5 ,c
0.3
1
b = 7.5, x0 = 0
b = 4, x0 = 0
b = 7.5, x0 = 0.7
3 fixed points
Another violation of U-seq:
Antimonotonicity ~ dimple
near xc -- e.g., Diode.
2-D Maps
Henon Map:
xn1  1  yn  C xn2
C > 0; x,y  R
yn1  Bxn
xn 1  1  B xn 1  C xn2
3-term recurrence:
1
xn 
Invertible:
1
yn 1
B
0.75
0.5
yn  xn 1  1 
C 2
y
2 n 1
B
0.25
-1
-0.5
-0.25
0.5
1
1.5
-0.5
For 0 <|B|< 1, y-spread → 0
-0.75
-1
4
2
-25
-20
-15
-10
-5
-2
-4
5
B = 0.3, C = 1
f(sq) = dots
2
Bifurcation diagrams (B = 0.3) :
{x0,y0} = {0,0.5}
{x0,y0} = {0.5,0.5}
combined
2 attractors
→ hysteresis
crisis
Smale Horseshoe Map
Ref: D.Gulick, “Encounters with Chaos”, McGraw Hill (92)
T = [0,1]  [0,1] B, E
= semi-circles S =
T∪B∪E
1. Shrinks vertically by a < 1/3.
2. Expands horizontally by b = 3.
3. Reshape M(B) & M(E) into semicircles.
4. Fold to fit back in S ( boundaries of M(D) =
semicircles )

• M(n)(S) = 2n-1 connected horseshoes each of width ~ an.
• M has a unique fixed point p in B to which iterates of
all points in B & E converge.
• All points in S migrate either to p or C+, where

C  v  C0
C1 M n   v   C0
C1  n  0

= intersect of nested sequence of strips Cijk…
i,j,k,… = 0,1
vCijk… 
vCi
M(v)Cj M(2)(v)Ck …
v ~ z = ˙ijk…
Forward sequence
Cantor set
Inverse mapping:
M
  n
V   C
i1 in
i1 in
Vi = M(Ci)
M(-1)(Vi) = Ci

C  v  S M   n   v   C0
v Vi j = M2(Ci j)

M(-1)(v) M(Ci j)  Cj
M(-2)(v)Ci j  Ci
C1  n  1

v ~ z = ij˙
backward sequence
h
←
→
h-1
→
h-1
z-2˙z-1
z-2z-1˙
z-1˙
h
←
z0˙z1
˙z0
˙z0z1
Vij → ij˙
Cij → ˙ij
00.00 00.01
10.00 10.01
11.00 11.01
01.00 01.01
00.11 00.10
10.11 10.10
11.11 11.10
01.11 01.10
2-sided sequence: … z-3z-2z-1˙z1 z2 z3 …
Invariant set:
C* = C+ ∩ C-
M is strongly chaotic on C*:
• Stretch & fold mechanisms.
• Sensitive on I.C.
• (Unstable) Periodic points: z  Q.
• Ergodic ( dense orbits ).
Percolation
Structure on All Scales
• Connectivity Transition
• Punch Holes at Random,
Probability 1-P
Pc =1/2 Falls Apart
(2D, Square Lattice, Bond)
• Static (Quenched) Disorder
Largest Connected Cluster
P=Pc
P=0.49
P=0.51
Self-Similarity
Self-Universality on Different Scales
Self-similarity → Power
Laws
Expand rulers by
B=(1+);
Up-spin cluster size S,
probability distribution
D(S)
D[S] = A D[S’/C]
=(1+a) D[(1+c S’)]
a D = -cS’ dD/dS
D[S] = D0 S-a/c
Random Walks
Ising Model at Tc
Universal critical exponents c=df=1/sn, a/c=t : D0 system dependent
Ising Correlation C(x) ~ x-(d-2h at Tc, random walk x~t1/2
Fractal Dimension Df
Mass ~ SizeDf
Cantor Set
Middle third
Base 3 without 1’s
Df = log(2)/log(3)
Percolation
critical point
Random Walk:
generic scale
invariance
Logistic
map:
Fractal at
critical point
Universality: Shared Critical Behavior
Ising Model and Liquid-Gas Critical Point
Same critical
exponent
b0.332!
Liquid-Gas Critical Point
Ising Critical Point
rrc ~ (Tc-T)b
M(T) ~ (Tc-T)b
rAr(T) = A rCO(BT)
rAr(T) = A(M(BT),T)
Universality: Same Behavior up to Change in Coordinates
A(M,T) = a1 M+ a2 + a3T
Nonanalytic behavior at critical point (not parabolic top)
All power-law singularities (c,cv,xare shared by magnets, liquid/gas
The Renormalization Group
Why Universal? Fixed Point under Coarse Graining
Renormalization Group
• Not a group
• Renormalized parameters
(electron charge from QED)
• Effect of coarse-graining
(shrink system, remove
short length DOF)
• Fixed point S* self-similar
(coarse-grains to self)
• Critical points flow to S*
Universality
• Many methods (technical)
real-space, -expansion, Monte Carlo, …
• Critical exponents from
linearization near fixed point
System Space Flows
Under Coarse-Graining
Renormalization Group
Coarse-Graining in Time
Dynamics = Map
f(x) = 4mx(1-x)
m
Universality
fsin(x) = B sin(x)
~B
Renormalization Group
xn = f(xn-1)
x0, x1, x2, x3, x4, x5,…
New map: xn = f(f(xn-2))
x0, x2, x4, x6, x8, x10,…
Decimation by two!
Download