Uploaded by Kubskyy

Peitgen H. - Granice chaosu. Fraktale. Część 1

advertisement
H.-O.Peitgen, H.Jurgens, D.Saupe
GRANICE
W Y D A W N I C T W O
CHAOSU
N A U K O W E
P W N
Spis treści
O autorach
8
W stęp autorów
9
Przedm ow a. Fraktale i od rod zen ie m atem atyk i eksperym en talnej
Benoit B. Mandelbrot
15
1. Podstaw a geom etrii fraktalnej: sprzężenie zw rotn e i iterow anie 37
1.1. Zasada sprzężenia zwrotnego ................................................................... 41
1.2. Kopiarka wielokrotnie red u k u ją ca .............................................................49
1.3. Podstawowa klasyfikacja układów sprzężenia zw rotnego........................ 54
1.4. Przypowieść o paraboli albo: nie ufaj k o m p u te ro m .............................67
1.5. Chaos zwycięża każdy komputer .............................................................83
1.6. Program na zakończenie rozdziału: iteracja g ra fic z n a ........................... 97
2. K lasyczne fraktale i sam op od ob ieóstw o
102
2.1. Zbiór C a n to ra .............................................................................................. 106
2.2. Trójkąt i dywan Sierpińskiego................................................................. 120
2.3. Trójkąt P a s c a la ...........................................................................................125
2.4. Krzywa K o c h a ........................................................................
132
2.5. Krzywe wypełniające przestrzeń.............................................................. 138
2.6. Fraktale a w y m i a r .....................................................................................152
2.7. Uniwersalność dywanu S ierp iń sk ieg o .....................................................160
2.8. Zbiory J u l i i ................................................................................................. 171
2.9. Drzewa p itag o rejsk ie................................................................................. 175
2.10. Program na zakończenie rozdziału: trójkąt Sierpińskiego a adreso­
wanie dwójkowe............................................................................
181
6
Spis treści
3. G ranice i sam op od ob ień stw o
185
3.1. Podobieństwo i skalow anie........................................................................188
3.2. Ciągi geometryczne i krzywa Kocha .....................................................200
3.3. Osaczenie nowego problemu z kilku stron: pi i pierwiastek kwa­
dratowy z d w ó c h ........................................................................................ 208
3.4. Fraktale jako rozwiązania ró w n a ń ........................................................... 226
3.5. Samopodobieństwo siatkowe: uchwycenie g r a n ic y .............................. 239
3.6. Program na zakończenie rozdziału: krzywa K o ch a.............................. 246
4. D łu gość, p ole pow ierzchni i w ym iar: pom iar złożoności
i skalow anie
250
4.1. Spirale o skończonej i nieskończonej długości........................................252
4.2. Pomiar krzywych fraktalnych i prawa p o tę g o w e ................................. 260
4.3. W ymiar frak taln y ........................................................................................273
4.4. W ymiar pudełkow y.................................................................................... 285
4.5. Fraktale brzegowe: diabelskie schody i krzywa P e a n a ........................295
4.6. Program na zakończenie rozdziału: zbiór Cantora i diabelskie
s c h o d y ........................................................................................................... 302
5. K odow anie obrazów
306
5.1. Schemat kopiarki wielokrotnie red u k u ją cej...........................................308
5.2. Składanie prostych p rz e k sz ta łc e ń ...........................................................312
5.3. IFS i klasyczne fraktale ...........................................................................324
5.4. Kodowanie obrazów przy użyciu systemów ite r a c y jn y c h ................. 332
5.5. Podstawa IFS: zasada przekształcenia z w ę ż a ją c e g o ...........................338
5.6. W ybór odpowiedniej m e t r y k i ................................................................. 350
5.7. Składanie obrazów sam opodobnych........................................................355
5.8. Złamanie zasady samopodobieństwa (i samoafiniczności), czyli KWR
połączone w s i e ć ........................................................................................ 361
5.9. Program na zakończenie rozdziału: iterowanie K W R ........................373
6. G ra
6.1.
6.2.
6.3.
6.4.
6.5.
6.6.
w chaos: jak losow ość tw orzy d eterm in istyczn e k ształty
378
Kopiarka sprzężona z r u l e t k ą ................................................................. 382
Adresy: analiza gry w c h a o s .................................................................... 390
Dostrajanie r u l e t k i .................................................................................... 407
Kłopoty z generatorami liczb losow ych ................................................. 420
Metody o zmiennej liczbie ite ra c ji...........................................................430
Program na zakończenie rozdziału: gra w chaos dla paprotki . . . . 442
Spis treści
7
7. K ształty nieregularne: losow ość w konstrukcjach fraktalnych
445
7.1. Wprowadzenie losowości do fraktali deterministycznych .................. 447
7.2. Perkolacja: fraktale i pożary w losowych la s a c h .................................. 451
7.3. Losowe fraktale w eksperymencie lab o rato ry jn y m ...............................466
7.4. Symulacja ruchu B row na........................................................................... 473
7.5. Własności skali i ułamkowy ruch B ro w n a...............................................486
7.6. Fraktalne k ra jo b ra z y ..................................................................................493
7.7. Program na zakończenie rozdziału: losowe przemieszczanie środka
o d c i n k a ........................................................................................................499
D odatek. O m ów ienie fraktalnej kom presji obrazów
Yuval Fischer
D .l.
D.2.
D.3.
D.4.
D.5.
503
Samopodobieństwo o b ra z ó w ..................................................................... 507
Pewna specjalna K W R ...............................................................................510
Kodowanie o b r a z ó w ..................................................................................515
Sposoby rozbijania o b r a z u ........................................................................ 519
Uwagi im p lem en tacy jn e........................................................................... 522
Literatura
526
Skorowidz
538
O autorach
H einz-O tto Peitgen. Urodzony w roku 1945 w Bruch (Nie­
mcy). D oktorat w 1973 roku i habilitację w 1976 roku uzy­
skał na uniwersytecie w Bonn. Od roku 1977 profesor ma­
tem atyki na uniwersytecie w Bremie. W latach 1985-1991
przebywał na University of California w Santa Cruz, a od
roku 1991 na Florida Atlantic University w Boca R at on.
Odwiedzał również uniwersytety w Belgii, Włoszech, Me­
ksyku i USA. Edytor kilku pism z dziedziny chaosu
i fraktali. W spółautor nagrodzonych książek The Beauty
of Fractals (z P. H. Richterem) oraz The Science of Fractal
Images (z D. Saupem).
H artm ut Jiirgens. Urodzony w roku 1955 w Bremie (Nie­
mcy). Doktorat uzyskał w roku 1983 na uniwersytecie w Bre­
mie. Zatrudniony w przemyśle informatycznym w latach
1984-1985, a od roku 1985 dyrektor Graficznego Laborato­
rium Układów Dynamicznych na uniwersytecie w Bremie.
W spółautor i współproducent (razem z H.-O. Peitgenem,
D. Saupem i C. Zahlten) nagrodzonego filmu wideo Fractals: an Animated Discussion.
Dietmar Saupe. Urodzony w roku 1954 w Bremie (Niemcy).
Doktorat uzyskał w roku 1982 na uniwersytecie w Bremie.
W latach 1985-1987 przebywał na University of California
w Santa Cruz. Od 1987 roku adiunkt na uniwersytecie
w Bremie, a od 1993 roku profesor informatyki na uniwer­
sytecie we Fryburgu. W spółautor nagrodzonej książki The
Science of Fractal Images (z H.-O. Peitgenem).
W stęp autorów
Badania naukowe na temat chaosu — najciekawszej dziedziny bieżących badań,
jaka istnieje. Jestem przekonany, ze badania nad chaosem doprowadzą do rewo­
lucji w naukach przyrodniczych} podobnej do tej, która została spowodowana przez
mechanikę kwantową.
Gerd Binnig
Laureat Nagrody Nobla z fizyki
Dwutomowa książka, którą właśnie Państwu przedstawiamy, jest adresowana
do każdego, kto chciałby zapoznać się ze szczegółami geometrii fraktalnej, na­
wet jeżeli nie wie wiele o matematyce. Nie jest to zwykły podręcznik, ale nie jest
to również książka popularnonaukowa. Naszym pragnieniem było, by przedstawić
Czytelnikowi możliwie szeroki przegląd pojęć związanych z fraktalami, chaosem
i układami dynamicznymi. Dodatkowo chcieliśmy pokazać, w jaki sposób fraktale
i chaos są związane zarówno ze sobą, jak i z wieloma innymi aspektami m atem a­
tyki oraz zjawisk występujących w naturze. Trzecim motywem, przewijającym
się przez tę książkę, jest wewnętrzne piękno fraktalnych i chaotycznych struktur,
dostępne ludzkiemu wzrokowi, ale też wyobraźni.
Już przez prawie 10 lat (w 1991 r. — przyp. tłum.) matematyka i na­
uki przyrodnicze są niesione na fali, która, jeżeli brać pod uwagę jej możliwości
twórcze i możliwości ekspansji, stała się pierwszorzędną interdyscyplinarną przy­
godą. Od jakiegoś już czasu fala ta dociera do dalekich brzegów sięgających
daleko poza nauki ścisłe. Nigdy przedtem myśl matematyczna — zwykle ro­
zumiana jako sucha i jałowa — nie została tak prędko zaakceptowana ani nie
wzbudziła takiego zainteresowania ze strony opinii publicznej. Fraktale i chaos
dosłownie przyciągnęły uwagę, entuzjazm i zainteresowanie ogólnoświatowej pu­
bliczności. Ich kolory, piękno i forma geometryczna, jak niewiele innych rzeczy,
które zostały kiedykolwiek w matematyce dokonane, porywają zmysły przypad­
kowego obserwatora. Dla informatyka fraktale i chaos są bogatym nowym teryto­
10
Wstęp autorów
rium do badań, tworzenia i budowania nowego wizualnego świata. Dla studenta
czy ucznia wydobywają one matematykę z mroków antyku prosto w dwudziesty
pierwszy wiek. Nauczycielowi wreszcie dają one jedyną w swoim rodzaju, nowa­
torską możliwość zilustrowania zarówno praw ruchu jak i matematyki, a także
różnorodnych związków zachodzących między nimi.
Jakie są powody tej fascynacji? Po pierwsze, młoda jeszcze dziedzina stwo­
rzyła obrazy o takiej mocy i tak wyjątkowe, że wystawa z nich złożona, zor­
ganizowana przez Instytut Goethego1, odniosła światowy sukces. Co więcej,
i co ważniejsze, chaos i geometria fraktalna skorygowały nasze przestarzałe pojęcie
świata.
W spaniałe sukcesy w naukach przyrodniczych i w technologii przyczyniały
się do złudzenia, że cały świat funkcjonuje jak jeden wielki dokładny mechanizm,
taki jak w zegarku, a prawa nim rządzące czekają tylko na to, by je krok po kroku
odkryć. Wierzono, że po odkryciu tych praw ewolucja czy rozwój obiektów po­
winny — w każdym razie zasadniczo powinny — dawać się jeszcze dokładniej
przewidywać. Wielu ludzi porwał zapierający dech w piersiach rozwój techniki
komputerowej i zarysowująca się możliwość lepszego okiełznania natłoku infor­
macji. Zaczęto pokładać wzrastające zaufanie w tych urządzeniach.
Dzisiaj właśnie osoby znajdujące się w aktywnym centrum nowoczesnej na­
uki zaczynają twierdzić, że nadzieja ta była niczym nieuzasadniona. Możliwość
dokładnego przewidywania przyszłego biegu wypadków jest nieosiągalna. Z no­
wych teorii, ciągle jeszcze bardzo młodych, da się wywnioskować, że ścisły determinizm i pozornie przypadkowy rozwój wypadków nie wykluczają się wzajemnie,
lecz ich koegzystencja jest w naturze regułą. Teoria chaosu i geometria fraktalna
dotyczą tych właśnie zagadnień. Kiedy analizujemy rozwój w czasie pewnego
procesu, zazwyczaj wyrażamy się używając pojęć teorii chaosu. Natomiast kiedy
interesują nas struktury, które chaotyczny proces pozostawia po swym przebiegu,
wtedy używamy pojęć geometrii fraktalnej, będącej w istocie geometrią chaosu.
Z tego punktu widzenia geometria fraktalna jest przede wszystkim nowym
„językiem” , który może zostać użyty do opisu złożonych form obecnych w naturze.
Przypomnijmy, że elementami „tradycyjnego języka” — geometrii euklidesowej
— są podstawowe, dobrze znane kształty, takie jak proste, okręgi i sfery. Na­
tom iast elementów naszego nowego języka nie można bezpośrednio obserwować.
Są nimi algorytmy, które mogą być przekształcane na kształty i struktury jedy­
nie przy użyciu komputerów. Co więcej, zasób tych algorytmicznych elementów
jest niewyczerpywalnie wielki. Mogą wyposażyć nas one w opisowe narzędzie
1 W samym tylko słynnym londyńskim Muzeum Nauk Przyrodniczych (SPR) wystawa Fron­
tiers o f Chaos : Im ages o f Complex D ynam ical System s ( Granice chaosu: obrazy zespolonych
układów dynam icznych), zorganizowana przez H. Jurgensa, H.-O. Peitgena, M. Prufera, P. H.
Richtera i D. Saupego przyciągnęła ponad 140 000 widzów. Począwszy od roku 1985 wystawa
ta odwiedziła ponad 100 miast w ponad 30 krajach na wszystkich kontynentach.
Wstęp autorów
11
o ogromnych możliwościach. Kiedy opanujemy już ten nowy język, będziemy mo­
gli opisać kształt chmury z taką łatwością i tak dokładnie, jak architekt potrafi
opisać budynek w języku tradycyjnej geometrii.
O związkach pomiędzy chaosem a geometrią można powiedzieć wiele, na pewno
nie jest on przypadkowy. Jest wynikiem ich głębokiego pokrewieństwa. Pokre­
wieństwo to najlepiej można dostrzec przy analizie zbioru M andelbrota, obiektu
matematycznego odkrytego przez Benoita M andelbrota w roku 1980. Niektórzy
naukowcy opisywali go jako najbardziej złożony — i być może najpiękniejszy —
obiekt kiedykolwiek widziany w matematyce. Jego najbardziej fascynująca cecha
charakterystyczna została odkryta dopiero niedawno: można go interpretować
jako ilustrowaną encyklopedię nieskończonej liczby algorytmów. Jest wspaniale
zorganizowaną skarbnicą obrazów, traktowaną par excellence jako przykład upo­
rządkowania wewnątrz chaosu.
Fraktale i nowoczesna teoria chaosu są również powiązane faktem, że wiele
obecnych odkryć, nadających tempo w swoich dziedzinach, było możliwe jedy­
nie przy użyciu komputerów. Patrząc z perspektywy naszego odziedziczonego
rozumienia matematyki jest to wyzwanie, które niektórzy odczuwają jako odno­
wienie i wyzwolenie dające wiele możliwości, a inni jako degenerację. Niemniej
jednak dyskusja nad „właściwą” matematyką jest w zasadzie zakończona. Stało
się już jasne, że historia nauki została wzbogacona o nowy rozdział, bez którego
nie może się obejść. Określenie tego tem atu mianem „pięknych obrazków” czy
też „upadku determinizmu” jest jedynie powierzchowne. Mówiąc krótko, teoria
chaosu i geometria fraktalna kwestionują nasze rozumienie stanów równowagi —
a tym samym harmonii i porządku — zarówno w naturze, jak i poza nią. Dają
one nowy całościowy i jednorodny model, który umożliwia po raz pierwszy do­
tarcie do granic prawdziwej złożoności przyrody. Jest wysoce prawdopodobne,
że nowe metody i terminologia pozwolą nam, na przykład, na lepsze zrozumienie
ekologii i zagadnień rozwoju klimatu, a zatem mogą się one przyczynić do efek­
tywniejszego stawiania czoła naszym gigantycznym problemom globalnym.
Zamierzamy przybliżyć teorię chaosu i geometrię fraktalną osobom aktywnie
bądź biernie zaangażowanym w lekcje i wykłady. W kwietniu 1988 r., w ra­
mach obchodów stulecia American M athematical Society, Heitz-Otto Peitgen
miał zaszczyt wygłosić odczyt o zagadnieniach, które są tem atem tej książki,
na corocznym zjeździe Narodowego Związku Nauczycieli M atematyki (Natio­
nal Council of Teachers of Mathematics, NCTM) w Chicago.2 Odczyt ten był
następnie kontynuowany na kolejnych rocznych, i wielu regionalnych, zjazdach
NCTM. Dwa z nich pozostaną na zawsze w naszej pamięci: wykład z okazji
wręczenia nagród prezydenta USA w Waszyngtonie w październiku 1988 r., oraz
2 Pomysł tematu i miejsca wygłoszenia tego odczytu pochodziły od prezesa Joint Po­
licy Boards of Mathematics, profesora Kennetha M. Hoffmanna z Massachusetts Institute of
Technology.
12
Wstęp autorów
główny wykład na rocznym zjeździe NCTM w Orlando na Florydzie w kwietniu
1989 r., kiedy to ponad 3500 nauczycieli wypełniło salę wykładową po brzegi. Te
związki ze światem nauczania m atem atyki przeistoczyły się wkrótce w głębokie
powiązania. Wspólnie zdaliśmy sobie sprawę, że teoria chaosu i geometria fraktąlna m ają, uprzednio niedostrzegany, potencjał dawania świadectwa, czym współ­
czesna żywa m atem atyka naprawdę jest i jakie przyszłościowe pytania zadaje.
Członkowie NCTM wkrótce wyrazili pragnienie, by została napisana mała
broszura podsumowująca te wykłady. Springer-Verlag i NCTM omówiły wspólne
jej wydanie i miały nadzieję, że ukaże się ona na jesieni 1990 r. Odbyliśmy wiele
rozmów z nauczycielami. Evan M. Maletsky, Terrence H. Perciante i Lee E. Yunker stali się naszymi doradcami i przyjaciółmi. Kontakty z nimi pozwoliły nam
zrozumieć, że wprowadzająca książka, adresowana jedynie do szkół, nie będzie
wystarczająca. Należało napisać zeszyty ćwiczeń, w których zadania byłyby wpi­
sane w istniejący plan i arkusze zadań gotowych do użycia w klasie. Doprowadziło
to do wielokrotnych zmian w naszych planach i tak mała broszura stała się dwoma
pełnowymiarowymi tomami. Zostały one podzielone na trzynaście rozdziałów —
siedem w części pierwszej, koncentrującej uwagę na fraktalach, i sześć w części
drugiej, poświęconej zagadnieniom chaosu. Część druga zawiera następujące roz­
działy:
8.
9.
10.
11.
12.
13.
14.
Struktury rekursywne: wzrastanie fraktali i roślin
Trójkąt Pascala, autom aty komórkowe i atraktory
Chaos deterministyczny: wrażliwość, mieszanie i punkty
Porządek i chaos: podwajanie okresu i jego chaotyczne zwierciadło
Dziwne atraktory: scena, na której rozgrywa się chaos
Zbiory Julii: fraktalne brzegi basenów przyciągania
Zbiory Mandelbrota: porządek wśród zbiorów Julii
Bardzo się staraliśmy, by przedstawiać elementy fraktali, chaosu i układów dy­
namicznych w sposób przystępny. Każdy rozdział stanowi zamkniętą całość i może
być czytany niezależnie od innych. Podstawą każdego z rozdziałów jest tekst
złożony zwykłą czcionką, natom iast akapity omawiające techniczne aspekty zaga­
dnień złożono czcionką bezszeryfową i oddzielono poziomą kreską. Zamieściliśmy
je, by wzbogacić treść i dać głębszą analizę, adresowaną do tych Czytelników,
którzy wiedzą, jak dawać sobie radę z m atem atyczną stroną zagadnień. Zakoń­
czyliśmy każdy rozdział krótkim programem w języku BASIC, programem na
zakończenie rozdziału, który ma za zadanie uwydatnić jeden z wiodących ekspe­
rymentów danego rozdziału.
Oczywiście pozostało wiele luk, które chcielibyśmy wypełnić, ale na szczęście
zostało już wydane wiele doskonałych książek, które mogą za nas to zrobić.
Poniżej wymienimy jedynie ich przykłady. Portrety osób zajmujących się tą dzie­
dziną oraz genezę zagadnienia, jak również zaplecze i powiązania teoretyczne
Wstęp autorów
13
można znaleźć w: Chaos, Making a New Science3 Jam esa Gleicka oraz Does
God Play Dice4 (tytuł przekładu polskiego: Czy Bóg gra w kości?5) lana Ste­
warta. Czytelnik zainteresowany systematycznym wykładem matematycznym
może przeczytać pozycje: An Introduction to Chaotic Dynamical Systems6 i Chaos,
Fractals and Dynamics7, obie autorstwa Roberta L. Devaneya, Fractals Every­
where Michaela F. Barnsleya, oraz Fractal Geometriß Kennetha Falconera. No
i przede wszystkim mamy książkę nad książkami o geometrii fraktalnej, napisaną
przez samego Benoita B. Mandelbrota, The Fractal Geometry of Nature10.
Książce towarzyszy kilka zeszytów ćwiczeń, napisanych przez autorów tej
książki wspólnie z Evanem M. Maletskym, Terrencem H. Percinate’em oraz Lee
E. Yunkerem. Zeszyty te wymagają aktywnego udziału ucznia w konstruowa­
niu, obliczaniu, wizualizacji i pomiarach oraz korzystania ze starannie przygo­
towanych zestawów zadań. Te dodatkowe pozycje uwypuklają liczne powiązania
między praktykami a programem matematyki obowiązującym obecnie w szkołach
i na uniwersytetach.
So eine Arbeit wird eigentlich nie fertig; (man muß sie fü r fertig erklären,
wenn man nach Zeit und Umständen das möglische getan hat).11
Johann Wolfgang Goethe, 1787
Podziękow ania
Geometrię fraktalną i chaos często wiąże się z matematyką eksperymentalną i jej
wkładem do matematyki.
Jesteśmy wdzięczni Benoit B. Mandelbrotowi za to, że zgodził się napisać
wstęp do naszej książki, w którym omawia historyczną perspektywę, jak również
zasługi i niebezpieczeństwa matematyki eksperymentalnej, na podstawie swoich
szerokich doświadczeń. Na przełomie lat 1982/83 zapoznaliśmy się lepiej z fraktalami przez lekturę jego wspaniałej książki. Decyzja o zajęciu się tym tem atem
zapadła na skutek rozmowy Heinza-Ottona Peitgena z Leo Kadanoffem, odbytej
w Salt Lake City, Utah, 6 grudnia 1982 r. Wkrótce potem mieliśmy zaszczyt
osobiście poznać Benoit z okazji wernisażu naszej wystawy Frontiers of Chaos:
Images of Complex Dynamical Systems w Instytucie Goethego w Bremie i od
3 Viking, 1987.
4 Penguin Books, 1989.
5 PW N, 1996.
6 wyd. 2, Addison Wesley, 1989.
7 Addison Wesley, 1990.
8 Academic Press, 1989.
9 John Wiley and Sons, 1990.
10 W. H. Freeman, 1982.
11 „Praca taka jak ta nigdy nie będzie naprawdę skończona; autor musi po prostu stwier­
dzić, że ją zakończył, kiedy zostanie zrobione to, co było możliwe, w ramach dostępnego czasu
i okoliczności.” (Goethe miał na myśli swą Iphigenie.)
14
Wstęp autorów
tamtego czasu towarzyszy nam lojalne poparcie i krytyczna rada dobrego przyja­
ciela. Mamy nadzieję, że za pośrednictwem tej książki jego wielkie dzieło stanie
się bardziej przystępne dla ogółu.
Jesteśmy winni wyrazy wdzięczności wielu osobom, które asystowały nam przy
pisaniu tej książki. Nasz student Torsten Cordes bardzo sprawnie i z niewyczer­
paną cierpliwością opracował większość rysunków. Dwaj inni nasi studenci, Ehler
Lange i Lutz Voigt, zaczęli nam pomagać blisko końca, kiedy liczba rysunków
stała się nie do ogarnięcia przez jedną osobę. Douglas Sperry czytał bardzo sta­
rannie nasz tekst w różnych jego stadiach, pomógł usunąć naleciałości niemieckie
w naszej angielszczyźnie i z wielką starannością dokonał redakcji tekstu. Frie­
drich von Haeseler i Guentcho Skordev przeczytali wiele rozdziałów i wysunęli
cenne sugestie. Chcielibyśmy także podziękować Eugenowi Allgowerowi i Richar­
dowi Vossowi za przeczytanie części oryginalnego maszynopisu. Gisela Gründl
pomogła nam w zorganizowaniu tych etapów pracy, dotyczących oprawy arty­
stycznej i stworzenia skorowidza, które musieliśmy zlecić komu innemu. Claus
Hósselbarth zaprojektował wspaniałą okładkę.
Evan M. Maletsky, Terrence H. Perciante i Lee E. Yunker przeczytali części
pierwotnej wersji maszynopisu i udzielili nam bardzo ważnych wskazówek doty­
czących układu tej książki.
W trakcie naszych wysiłków podtrzymywały nas na duchu i dodawały zachęty
rzesze nauczycieli m atem atyki i nauk przyrodniczych, z którymi spotykaliśmy
się podczas ogólnokrajowych i regionalnych zjazdów NCTM. James D. Gates i
Harry Tunis z NCTM bardzo wcześnie zawierzyli naszej pracy i nie stracili nadziei
nawet wtedy, gdy ich zaufanie było wystawiane przez nas na próbę, kiedy nie
dotrzymywaliśmy wielu ustalonych terminów. Kiedy złożyliśmy naszą książkę
w wydawnictwie Springer-Verlag w sierpniu 1991 r M byliśmy szczęśliwi, że ją
skończyliśmy. Cały czas mieliśmy jednak wrażenie, że można by ją rozwijać dalej.
Tym bardziej doceniliśmy złotą myśl Goethego.
Książka została złożona przy użyciu programów zecerskich TeX i LaTeX,
a wszystkie ilustracje (z wyjątkiem cieniowanych i kolorowych) zostały wcielone
do plików komputerowych. Mimo że zabrało to niezliczoną liczbę godzin trud­
nego czasami eksperymentowania z pisaniem potrzebnych macros, przyznajemy
w tym miejscu, że podejście to w znacznym stopniu uprościło pracę pisarską,
redakcyjną i drukarską.
Na zakończenie chcemy stwierdzić, że byliśmy bardzo zadowoleni ze wspaniałej
współpracy z wydawnictwem Springer-Verlag w Nowym Jorku.
Heinz-Otto Peitgen, H artm ut Jürgens, Dietmar Saupe
Brema, w sierpniu 1991 r.
Przedm owa
Fraktale i odrodzenie
m atem atyki eksperym entalnej
Benoit B. M andelbrot1
Napisanie wstępu do książki powstałej w Laboratorium Sy­
stemów Dynamicznych uniwersytetu w Bremie jest wielką
przyjemnością, której nie mogłem się oprzeć. Przyjemność
ta jest jednocześnie związana z wyzwaniem: wszyscy wie­
dzą, jak bardzo poważam autorów, ich wysiłki i osiągnięcia.
Tak więc powtórzenie tego publicznie po raz kolejny mogłoby
zostać uznane jedynie za przejaw przyjacielskiego poklepy­
wania po ramieniu.
Zostałem poproszony, by dopisać się do tej książki, tak
jak do dwóch wcześniejszych z tego samego Laboratorium
w Bremie. Dokładniej, zostałem poproszony, by zawrzeć
w tym wstępie trochę więcej historii, filozofii, ale także (jeżeli
uznam za stosowne) autobiografii i prezentacji bieżących wy­
padków. Szerokie zagadnienie, do którego się tu taj usto­
sunkuję, dotyczy obecnego stanu rzeczy oraz natury geo­
metrii. Ogólniej, dotyczy ono „matematyki eksperymental­
nej” , powstającej jako odpowiedź pewnych matematyków
1 Wydział Fizyki, IBM T. J. Watson Research Center, Yorktown
Heights, NY 10958 oraz Wydział Matematyki, Yale University, New
Haven, CT 06520.
16
Przedmowa
na używanie komputera, co doprowadziło już (cytując Davida Mumforda) „do punktu zwrotnego w swojej historii” .
Obecnie mamy Journal of Experimental Mathematics, po­
kazujący, że dziedzina ta ostatnio zbudziła się z całą siłą,
a może nawet uległa odrodzeniu. Pewne wydarzenia, które
towarzyszyły temu odrodzeniu, przyciągały szeroką uwagę,
na co też w pełni zasługiwały (i zasługują).
W naszym szybko zmieniającym się świecie przywilejem
wieku jest to, że daje on perspektywę historyczną. Poprze­
dnia duża zmiana w matematyce rozpoczęła się zanim przy­
szedłem na świat, ale byłem już obecny, kiedy stwarzała ona
swoje własne instytucje i kiedy wczorajszy porządek zako­
rzenił się na dobre. Dlatego właśnie sądzę, że mogę pozwolić
sobie na zamieszczenie fragmentów autobiograficznych.
Szare i zielon e
Na początek zauważmy, że matematyka eksperymen­
talna nie oznacza inwazji matematyki stosowanej na mate­
matykę „czystą” . Matematyka stosowana zawsze była prze­
siąknięta naukami przyrodniczymi, czyli również doświad­
czeniami. Cecha ta przyczyniła się w znacznym stopniu do
tego, że m atematyka stosowana straciła popularność u tych,
którzy wierzą, że m atematyka stosowana to zła matematyka.
Jednak matematyka eksperymentalna oznacza coś trochę in­
nego: mianowicie wprowadzenie eksperymentu z powrotem
do sedna matematyki, które nie musi — w każdym razie
w dniu dzisiejszym — mieć żadnego kontaktu z naukami
przyrodniczymi.
Najbardziej uderzającym wpływem eksperymentu jest
to, że stale podkreśla podstawową różnicę — z którą będzie­
my sie jeszcze spotykać — między faktem matematycznym
a jego matematycznym dowodem. Jestem świadom tego,
że wielu dobrych matematyków chciałoby zawęzić definicję
ich dziedziny badań i uporać się szybko z faktami. Być
może dlatego, że wyrośli przyzwyczajeni do sytuacji, w któ­
rej nowe prawdy matematyczne pochodziły prawie wyłącznie
z dowodów starych faktów matematycznych. Historyk wie
jednak, że w przeszłości rozwój matematyki opierał się na
wielu innych źródłach, zarówno na obserwacji jak i na eks­
perymencie.
Dzisiejsza m atematyka eksperymentalna nawet nie pró­
buje odtrącać tego typu obserwacji, która charakteryzowała
tę najmniej „wyszukaną” spośród nauk empirycznych: hi­
storię naturalną. Ale opiera się ona przede wszystkim na
Przedmowa
aktywnym doświadczeniu. Dowód matematyczny, jeżeli ma­
tematycy tak zdecydują, może zachować wiele ze swoich cech
charakterystycznych w takiej formie, do jakiej przywykli
w ostatnich dekadach (o czym będziemy od czasu do czasu
wspominać). A zatem nie chcę ani nie oczekuję — i nigdy
nie chciałem ani nie oczekiwałem — by dowód został za­
stąpiony po prostu obrazkami. Niedawno powstałe metody
poszukiwania nowych faktów dają matematykom silną po­
zycję wyjściową o nieoczekiwanym charakterze, która używa
więcej niż tylko przysłowiowego ołówka i kartki papieru. Ry­
sunki już dowiodły swej zadziwiającej mocy w pomaganiu
we wczesnych stadiach dowodu matematycznego i budowa­
nia teorii fizycznych. W miarę jak pomoc ta rozszerza się,
może to doprowadzić do nowej równowagi i do zmian w do­
minujących stylach kompletnego dowodu matematycznego
czy kompletnej teorii fizycznej.
Innymi słowy, być może właśnie jesteśmy świadkami po­
nownego pojawiania się „dubletu” badań eksperymentalno-teoretycznych. Fizycy eksperymentalni i teoretyczni rzadko
żyją w perfekcyjnej zgodzie, jednakże wiedzą, że nie tylko
muszą koegzystować, ale przede wszystkim muszą słuchać
siebie nawzajem i współdziałać. Tylko nieliczni spośród
zwolenników każdej ze stron chcieliby unicestwić drugą z nich.
W matematyce sytuacja jest odmienna: istnieje długa histo­
ria konfliktu, co zostało pięknie przedstawione przez poetę
w następującym dwuwierszu:
Wszelka, mój bracie, teoria jest szara,
Zielone zaś jest życia drzewo złote.
Słowa te pojawiają się w sztuce Goethego (1749-1832)
Faust (tłum. F. Konopka, PIW , 1962) w słynnej scenie,
kiedy Mefistofeles przebiera się za starego Profesora Faustusa i opisuje różnorodne programy akademickie zauroczo­
nemu przechodzącemu nieopodal studentowi. Diabeł zatrzy­
muje się myślą przy medycynie (dzięki której liczne białogło­
wy zostały przezeń usidlone), po czym na zakończenie (wersy
2038-9) podaje wspaniały opis dwóch kultur. W oryginale:
Grauy teurer Freund, ist alle Theorie,
Und griin des Lebens goldner Baum .
Od dwóch wieków praktykanci twardych nauk teoretycznych
mają powody, by z rezygnacją przyznać rację mądrości Sza­
tana. Ciągle jeszcze, mimo że większość instytucji nauko-
17
18
Przedmowa
wych przestała zmuszać swoich uczonych do celibatu i no­
szenia togi, wielu profesorów jest dumnych z faktu, że laicy
postrzegają ich dziedziny badań jako beznadziejnie szare.
O statnio jednak zostało stworzone nowe narzędzie; kom­
puter. Traktowany odrębnie jest tak „szary” , jak tylko szary
być może. Ale przyniósł on nauce dwa dary. Jego pierw­
szym darem są znacznie ułatwione obliczenia. Nie będziemy
się tym zajmowali, wspomnimy tylko, że wiele ze wczesnych
uzasadnień użycia komputera w latach czterdziestych nie po­
chodziło od ludzi businessu, ale od tych, którzy chcieli spoj­
rzeć z nowej perspektywy na równania różniczkowe. Jednym
z nich był John von Neumann, który w młodości był „prawie
normalnym” matematykiem, ale jako czterdziestolatek nie
był już za takiego uważany i zaangażował się silnie w zaga­
dnienia przewidywania pogody. Innym pionierem używania
komputerów był Enrico Fermi, fizyk nad fizykami, który
pragnął użyć komputera do zrozumienia pewnych innych
działów m atem atyki nieliniowej.2 Do tamtego czasu obli­
czenia komputerowe zdążyły już spowodować wiele zmian
w matematyce, ale zmiany te można by nazwać ilościowymi,
polegającymi raczej na różnicy w stopniu, a nie różnicy w ro­
dzaju. Weźmy na przykład teorię liczb. Była ona dziedziną
de facto eksperymentalną aż do czasów Gaussa, a została
uznana za eksperymentalną przez Edwarda Lucasa. Nikt
zatem nie może się sprzeciwiać eksperymentowaniu w tej
dyscyplinie.
Drugim podarkiem od komputera jest grafika, która ma
zupełnie inną historię, a która niesie ze sobą głęboką zmianę
jakościową, a nawet pewne znamiona rewolucji. Ponieważ
nie zajmowałem się głównym nurtem matematyki, o czym
dalej, powitałem z radością grafikę komputerową, jak tylko
się pojawiła. Miałem to szczęście, że mogłem wykazać, jak
ludowa mądrość, że powyższy dwuwiersz Goethego wyraża
bezsporną diabelską prawdę, ma w istocie niewielką wartość.
Jej pozorna uniwersalność wzięła się po prostu z okresu,
kiedy technologia pozostawała z tyłu za myślą abstrakcyjną,
po którym nastąpił okres, kiedy matematycy nie kwapili
się z zaakceptowaniem nowych technologii. Grafika kompu­
terowa wielokrotnie pozwalała mi delektować się podejmo­
2 E. Fermi, J. Pasta, S. Ułam, Los Alam os docum ent L A -1940, 1955.
Przedrukowane w Dziełach Zebranych Enrico Fermiego , t. 2, s. 978-88.
Także w S. Ułam, Sets} Numbers and Universes , MIT Press, 1974, s.
490-501.
Przedmowa
waniem badań teorii matematycznych i fizycznych, których
szarość wydawała się nienaganna (co w pewnych przypad­
kach bywało potwierdzone wiek trw ającą apologią), oraz do­
wodzeniem, że po odpowiednim ich przekształceniu te same
teorie można wzbogacić w ich własnych (matematycznych
lub fizycznych) językach. Ponadto potrafią one generować
wzory, które w swej niezgłębionej złożoności bez trudu mogą
być brane za falsyfikaty dzieł Życia, N atury czy nawet Sztuki.
Tym samym jedna z części starej teorii nie tylko przestaje
być szara, ale nabiera tylu kolorów, by radować nawet arty­
stę.
Widziana z bliskiej perspektywy rola grafiki kompute­
rowej obejmuje szerokie pole. Często, niestety zbyt często,
ogranicza się do prostej wizualizacji. Tak właśnie może się
stać, gdy badacz wręcza swoje dane specjaliście potrafiącemu
z nich zrobić ładne obrazki — na przykład w celu zrobienia
wrażenia na wizytatorach. Trochę w taki właśnie sposób ja
sam zaczynałem w latach sześćdziesiątych, zanim jeszcze po­
jawiły się narzędzia, które ktokolwiek ośmieliłby się nazwać
grafiką komputerową. Moim celem było zrobienie wrażenia
na niechętnych kolegach, pokazanie, że pewne moje dwulinijkowe wzory mogą nie być głęboką matematyką, ale jedno­
cześnie mogą produkować „falsyfikaty” rynku akcji, map ga­
laktyk, czy pogody. W trakcie robienia tego wyłonił się bar­
dziej interesujący fakt, jako przeciwny biegun prostej wizu­
alizacji. Właśnie używanie grafiki komputerowej jest na eta­
pie kompletnego przetwarzania roli oka ludzkiego. Twarde
nauki teoretyczne już dawno temu odrzuciły użycie wizu­
alnego postrzegania jako argumentu; wielu obserwatorów
kiedyś wierzyło, a nawet miało nadzieję, że tak będzie za­
wsze. Ale grafika komputerowa wprowadza je z powrotem
jako nieodzowną część procesu myślenia, poszukiwania i od­
krycia. Omówimy dokładniej obie te role.
Muszę wyznać, że nie znoszę terminu wizualizacja. Je­
stem rzecz jasna zadowolony, że zamiast samotności, która
była moim udziałem w latach sześćdziesiątych i siedemdzie­
siątych, pojawił się szalejący tłum. Jestem zadowolony, kiedy
wizualizacja robi wrażenie na wizytatorach, i oczekuję z nie­
cierpliwością na bogactwa możliwe do wydarcia z tenden­
cji industrialnych, które zrodziły to pojęcie. Termin ten
przypomina mi jedynie o złych dawnych czasach, z których
w końcu wyszliśmy. Dla mnie wizualizacja jest terminem
19
20
Przedmowa
wymyślonym przez algebraików. Pewni algebraicy myślą
na przykład, że pojęcie „okrąg” oznacza jedynie równanie
x 2 + y 2 = r 2. Dla nich ta piękna krzywa, kształtu takiego jak
brzeg Księżyca w pełni, nie istnieje jako taka, ale tylko jako
wizualizacja jednorodnego równania kwadratowego. Poincaremu przypisuje się słowa o jego nauczycielu: „Pan Hermite nigdy nie m a na myśli konkretnego obrazu i szybko do­
strzeżesz, że najbardziej abstrakcyjne wielkości są dla niego
jak istoty żyjące” . Zaskakuje mnie to tak samo, jak zaska­
kiwało Poincarego, ale nie neguję, że może to być prawdą.
Kiedy ludzie tacy jak Hermite otrzymują za dużo politycz­
nej władzy nad życiem matematycznym, nic z czasów, kiedy
Kartezjusz wprowadził analizę do geometrii nie może ostać
się przy życiu. Ponad wiek temu uważano za oczywiste
(co zostało nawet elokwentnie wyrażone przez Felixa Kleina
i Henriego Poincarego), że geometrzy i algebraicy są dwoma
różnymi typam i naukowców. Niestety w ciągu naszego wieku
egzaminy akademickie rekrutujące nowych naukowców da­
wały coraz mniej uznania zdolnościom geometrycznym, a co­
raz więcej — nawet cały jego ciężar — zdolnościom alge­
braicznym. Pod tym względem Stany Zjednoczone stano­
wią przypadek krańcowy, ponieważ nigdy nie zaczęto tam
poważnych badań nad geometrią tak charakterystycznych
dla wszystkich krajów Europy. Być może tłumaczy to czę­
ściowo fakt, dlaczego uchodźcy z Rosji i Niemiec sądzili, że
m atem atyka w Stanach Zjednoczonych jest tak dobrze roz­
winięta, ale przede wszystkim czysta i algebraiczna aż do
przesady. Dużo wcześniej niż analogiczne zjawiska stały się
regułą również w Europie.
Oczywiście ci, którzy doprowadzili do popadnięcia geo­
metrii w niełaskę, opisywali to jako nieuniknione, jako je­
szcze jeden dowód na to, że historia bezlitośnie toczy się
naprzód i nigdy nie patrzy wstecz. Jednak w tej dziedzi­
nie, jak i w wielu innych, przekonanie, że nieuniknione prze­
znaczenie rządzi biegiem historii, zostało ostro zanegowane
przez ostatni rozwój wypadków. W ydaje się teraz, że bezli­
tosna algebraizacja nie była wcale nieunikniona. W znacz­
nej mierze, ze strony wszystkich teoretycznych naukowców,
przejawiło się to w spontanicznym, praktycznym i odpowie­
dnim przystosowaniu się do zaległości w technologii, o czym
już mówiliśmy. Było trudno nie zgadzać się z wyczerpa­
niem się klasycznych narzędzi geometrii i brakiem nowych,
21
Przedmowa
i nie zachowywać się w sposób, który brałby to pod uwagę.
Ale obecnie użycie komputera przesuwa te przystosowania
i wynikające z nich środki w stan historycznego zawieszenia.
Przerwijmy nasze rozważania na moment w celu auto­
biograficznej dygresji. Ja sam, poczynając od lat czterdzie­
stych, przekształciłem się w adepta tego antygeometrycznego trendu. Będąc geometrą z krwi i kości oraz osobą
w znacznym stopniu opierającą się na naocznej obserwa­
cji, myślę, że było dla mnie błogosławieństwem, iż musiałem
zdawać osławione francuskie egzaminy w czasie, kiedy geo­
metria była jeszcze w powijakach. Patrząc z perspektywy
geometrii fraktalnej, której, co muszę Czytelnikowi wyznać,
poświęciłem większość mego matematycznego życia, widzia­
łem, jak rozwijają się nowe tendencje. Cały czas szukałem
w przeszłości faktów, które doprowadziły do wykluczenia na­
ocznej obserwacji z twardych nauk teoretycznych. Zatem
proszę pozwolić mi na przytoczenie kilku starych, ale wciąż
aktualnych historyjek, które kiedyś czytałem, oraz na wspo­
mnienie kilku opowieści współczesnych, jednej z fizyki, a po­
zostałych z matematyki, których byłem jednym z głównych
uczestników.
Wspólnym motywem tych opowieści jest to, że do tyczą one konfliktu, który zaistniał podczas greckiego Złotego
Wieku, w czasie kiedy matematyka i nauki ścisłe uzyskiwały
sformułowania bliskie swej obecnej formy, i kiedy rozwijało
się pojęcie dowodu. Dwie strony tego konfliktu można na­
zwać pluralistyczną i utopijną.
Pluralistyczny punkt widzenia jest doskonale wyrażony
w następujących słowach: „Pewne rzeczy stały się po raz
pierwszy dla mnie oczywiste przy użyciu metody mechanicz­
nej, pomimo że musiały być jeszcze udowodnione metodami
geometrycznymi, ponieważ ich badanie metodami mechaniki
nie dawało ścisłego dowodu. Ale oczywiście jest dużo ła­
twiej udowodnić stwierdzenie, jeżeli wcześniej zaznajomimy
się z zagadnieniem, niż bez żadnego uprzedniego obezna­
nia. Z tego właśnie powodu twierdzenia o tym, że objętości
stożka i ostrosłupa są jedną trzecią objętości walca i graniastosłupa o tej samej podstawie i wysokości, których dowód
po raz pierwszy odkrył Eudoksos, nie przypisujemy Demokrytowi. Demokryt po raz pierwszy je sformułował, choć
bez dowodu.” Autorem tych słów mógłby być ktoś prawie
Plur aliści
i U to p iści
w greckim
Z łotym W ieku
22
Przedmowa
nam współczesny, ale w istocie są to słowa Archimedesa3.
Proszę Czytelnika, by nie prześlizgiwał się wzrokiem po tych
imionach starożytnych herosów. Proszę czytać dalej!
Powody, dla których poglądy Archimedesa powinny być
nazywane pluralistycznymi, leżą w fakcie, że uznają one ko­
nieczność zachowania właściwej równowagi pomiędzy rolą
dowodu i rolą eksperymentu, wliczając w to rolę zmysłów.
Archimedes nie uważał, że uznanie eksperymentu i zmysłów
jako narzędzi do poszukiwania nowych faktów matematycz­
nych mogłoby przynieść jakąkolwiek szkodę. Istnienie faktów
matematycznych przez długi czas wydawało mi się niepod­
ważalne, ale z doświadczenia wiadomo, że pewni autorzy
odmawiają uznania jakiegokolwiek znaczenia tych pojęć i uważają je za wewnętrznie sprzeczne. Dlatego też dało się
słyszeć gwar w kołach matematycznych, kiedy to kongres
matematyczny w Kyoto w 1990 r. przyznał medal Fieldsa
fizykowi E. Wittenowi. Pojawiło się wiele opinii opisujących
matematykę bez twierdzeń jako coś, co nie powinno być ak­
ceptowane jako część „prawdziwej m atem atyki” .
Grzmienie przeciw doświadczeniu i zmysłom jest saty­
sfakcjonującą ideą w naszej kulturze, ale na pewno nie jest
to idea nowa. Czy nie byłoby przyjemnie dowiedzieć się, kto
pierwszy wyraził tę ideę? Wnosząc z tonu powyższego cy­
tatu , wydaje się, że Archimedes odpowiadał na czyjąś ja­
sno wyrażoną opinię. Musiał być to utopistyczny punkt
widzenia, podtrzymywany przez Platona (427-347 p.n.e.),
człowieka o wielkiej sile, zarówno w dziedzinie intelektu jak
i wpływów. Tak, okazuje się, że inwektywy, których często
mogę słuchać dzisiaj, skierowane przeciwko powrotowi naoczności do nauk ścisłych, nie są nowe, a są jedynie echem
opinii Platona. Natom iast pluraliści, którzy mile widzą i do­
ceniają powrót naoczności, myśląc o sobie jako o bardziej
trzym ających się ziemi i bardziej nowoczesnych, niewiele
wiedzą o Platonie, a jednak aktywnie walczą z jego cieniem.
Najszerzej cytowanym źródłem dotyczącym poglądów
Platona są Żywoty Plutarcha, opisujące losy rzymskiego ge­
nerała i polityka Marcellusa, który dowodził oblężeniem Syrakuz, gdzie przez rzymskiego żołnierza został zabity Archi­
medes. Cytując z przekładu Drydena: „Eudoksos i Archytas byli pierwszymi twórcami tej przesławnej i powszechnie
3 Archimedes (287-212 p.n.e.), Demokryt (460-370 p.n.e.), Eudo­
ksos (408-355 p.n.e.).
Przedmowa
uznawanej sztuki mechaniki, której używali jako eleganc­
kiej ilustracji prawd geometrii i jako środka doświadczalnego
uwiarygodnienia, naocznie i dotykalnie, rezultatów zbyt zło­
żonych na to, by dowodzić ich za pomocą słów i rysunków...
Ale ... Platon oburzył się na to i zwymyślał jako zwyczajny
upadek i unicestwienie tej specjalnej wyższości tkwiącej w ge­
ometrii, która teraz miałaby odwrócić się od niematerialnych
obiektów świata czystego rozumu, by ponownie zniżyć się do
poznawania zmysłami i szukania pomocy w świecie materii,
a nawet i to jedynie wtedy, gdy zgodzić się na cenę zmniej­
szenia autonomii i zubożenia treści.”
Ponieważ anegdota Plutarcha o ważniackich manierach
Platona została napisana w 400 lat po zdarzeniu, powinniś­
my odnosić się do niej z ostrożnością. Ale jest prawdą, zgo­
dnie ze słowami samego Platona, że geometrzy „rozmawiają
w najdziwniejszy i dziadowski sposób ..., tak jakby wszy­
stkie ich dowody miały jakiś cel praktyczny ... Ale z całą
pewnością badania te są prowadzone z uwagi na poznanie.”
Kiedy podwójna obelga Platona, skierowana przeciwko
fizyce i przeciwko poznaniu wizualnemu, po raz pierwszy
przyciągnęła moją uwagę, już od dziesiątków lat mozolnie
starałem się odbudować te uprzednio zniszczone wizerunki.
Okazało się, że trzymałem z Eudoksosem. Było zachwy­
cające, że mogłem się dowiedzieć, iż Eudoksos był pionie­
rem nie tylko mechaniki i astronomii (jak wynika ze słów
Plutarcha), ale również geometrii (co powiedział Archimedes). W istocie, często uważa się go za najbardziej twórczego
spośród wszystkich matematyków antycznej Grecji, Eukli­
des zaś — którego świetność przypada na około 300 r. p.n.e.
— był encyklopedystą. Platon natomiast wcale nie był twór­
czym geometrą. Zacytujmy Augustusa de Morgana: „Pisma
Platona nie są w stanie przekonać żadnego matematyka, że
autor ten nałogowo poświęcił się geometrii” . W imię czy­
stości chciał ograniczyć geometrię do operacji za pomocą cyr­
kla i linijki. Platon był autorem nie tylko jednej szkodliwej
Utopii. W rzeczywistości niechętne słowa Platona, skiero­
wane przeciwko fizyce i zmysłom, przystawały do jego po­
litycznego ideału, państwa autorytarnego, opisanego w jego
Republice.
Pod wpływem Platona matematycy greccy przeszli wy­
bitną transformację — antyempiryczną i antywizualną —
która wywołuje najskrajniejsze reakcje. Niektórzy ją wy­
chwalają jako jedno z najwybitniejszych i najtrwalszych osią-
23
24
Przedmowa
gnięć starożytnej Grecji, inni natom iast ostro krytykują. Tak
więc de Santillana4 wini ją za to, że Grekom nie udało się jed­
nocześnie z m atematyką rozwinąć fizyki, co doprowadziło do
takich katastrofalnych efektów w dziedzinie grecko-rzymskiej
technologii, że możemy przypisać jej część winy za upadek
Rzymu,
Platon (a wiele stuleci później Hermite) wierzył w pełną
realność Idei, czego konsekwencją jest to, że prawdy i obiekty
matematyczne są odkrywane, a nie wymyślane, (To przeko­
nanie ma tylko kilka konkretnych konsekwencji, ale zgadzam
się z nim całym sercem.) Ale Platon wierzył również, że
świat fizyczny ma jedynie „względną realność” . To właśnie
doprowadziło go do sformułowania Utopii, w której prawdy
matematyczne muszą być odkrywane i badane w oderwa­
niu od jakiegokolwiek konkretu i bez stosowania „zmysłów” ,
co z całą pewnością zawiera używanie wzroku, a może na­
wet „intuicji” . Utopiści, którzy wyrzucili rysunki z mate­
matyki, sami wprowadzili się w namiętność tak bliską religii, że należałoby ich nazwać ikonoklastami. Eicon oznacza
obraz (co dziś wiedzą osoby znające się na komputerach)
i ma związki znaczeniowe z idolem. Klasta to ten, który
burzy i niszczy.
D w ie
Powracając z czasów Platona do czasów nam współczesn ierozłączn e nych, widzimy, że sytuacja jest zupełnie inna, nowa i płynna,
stron y a opinie ostro podzielone. Możemy usłyszeć słowa uznania
m a tem a ty k i od wielu, w tym od ludzi młodych i ich nauczycieli, ale na
pewno nie od wszystkich. Przytoczę w tym miejscu ciekawą
opowieść. Kiedy byłem młodszy, a matematyka eksperymen­
talna jeszcze się nie odrodziła, cała aktywność dotyczyła jed­
nego tylko rodzaju matematyki. Tak było już wtedy, kiedy
studiowałem w Paryżu w połowie lat czterdziestych, naj­
pierw krótko w Ecole Normale Supérieure, a później przez
zwyczajowe dwa lata w Ecole Polytechnique. Kiedy byłem
w szkole średniej, uległem głębokiej fascynacji bardzo trud­
nym przedmiotem nazywanym geometrią, który stanowił
znaczną część programu nauczania. Dla mnie w każdym ra­
zie polegała ona na badaniu obiektów mających dwie własno­
ści, które mogą przeczyć sobie wzajemnie, a jednak posu­
wają się wspólnie: tak jak rękawiczka na dłoni, tak jak dwie
strony monety, czy też (lepsze porównanie) tak jak ciało
4 G. de Santillana, The Origins o f Scientific Thought, University of
Chicago Press, 1961.
Przedmowa
i dusza, jedno niezbędne drugiemu. Możemy wnioskować na
ich temat w stylu abstrakcyjnym — może suchym, ale tak
dostojnym jak nic innego: pionierem takiego stylu był Eukli­
des. Ale to nie wszystko. Dla mnie matematyka dotyczyła
zupełnie realnych obiektów, możemy je zobaczyć i je obracać
jako rysunki albo jako gipsowe odlewy stojące na półkach
w pracowni matematycznej. Kiedy miałem kilkanaście lat,
uwielbiałem słuchać, że pewne liczby, początkowo wprowa­
dzone jako formalne pierwiastki kwadratowe z liczb rzeczy­
wistych ujemnych (to pochodzenie doprowadziło do nazwa­
nia ich liczbami „urojonymi”), szybko okazały się identyczne
z punktami płaszczyzny. Wydawało się, że dowodzi to faktu,
iż oryginalny sposób ich wprowadzenia był niezupełny, i —
0 ile wiem — nikt go nie popierał. Wprowadzanie alge­
bry bez tej interpretacji naprawdę zasługiwałoby na imię
„złożonej” procedury. Podobały mi się także euklidesowe
interpretacje geometrii nieeuklidesowych, które ujawniły, że
jeszcze inna moneta, która w latach trzydziestych XIX w.
wydawała się mieć tylko jedną stronę, w istocie miała dwie.
Stało się moją dziką, lecz głęboką nadzieją, że sytuacje,
w których obiekt pozostawał „abstrakcyjny” , były po pro­
stu dowodem czasowego braku wyobraźni przestrzennej ze
strony geometrów.
Przeskakując w czasie, łatwo można sobie wyobrazić mo­
ją radość, gdy geometria fraktalna pokazała, że wiele tak
zwanych „matematycznych potworków” okazało się tak re­
alnymi, jak to tylko możliwe.
Nie muszę chyba dodawać, że ten pogląd wpływał na
sposób, w jaki odrabiałem trudne zadania domowe z m ate­
matyki, które dawano nam do rozwiązania. Kiedy się już
zapoznałem z podstawowym zarysem nowego zadania, nie
spieszyłem się wcale z zajmowaniem się pytaniami, które
nam zadano; w zamian za to próbowałem naszkicować jakiś
rysunek. Jeżeli zadanie to było sformułowane geometrycz­
nie, ten krok był bezpośredni. Natomiast jeżeli zadanie było
sformułowane algebraicznie lub analitycznie, było to n ajtru­
dniejszą częścią rozwiązania. Jak tylko mój rysunek był go­
towy, poświęcałem mu całą moją uwagę; przekształcałem go
1 wprowadzałem wszelkie możliwe zmiany. W szczególności
modyfikowałem go, próbując (choć trochę) wzbogacić, uczy­
nić atrakcyjniejszym i bardziej symetrycznym. W pewnym
momencie „intuicja geometryczna” , o której będziemy mó­
wić za chwilę, niezmiennie zalewała mnie nagłym strumie­
25
26
Przedmowa
niem obserwacji. Dopiero wtedy sprawdzałem, jakie pyta­
nia nam zadano, i prawie zawsze okazywało się, że wszyst­
kie odpowiedzi były „intuicyjnie” oczywiste. Również nie­
zmiennie formalne dowody tych przypuszczeń były najłat­
wiejszymi krokami całego procesu. Jak sobie przypominam
nigdy nie zdarzyło się, bym został bez odpowiedzi. Fakt ten
oczywiście pomaga opisać rodzaj matematyki nauczanej we
Francji w tam tych latach. Ta sama sytuacja kształtowała
się w całej Europie, ale — jak się wydaje — nigdy nie zado­
mowiła się w Stanach Zjednoczonych.
Intuicja geometryczna jest zdolnością, która wymaga
pewnej uwagi. Słyszałem, jak zbyt wielu zaprzeczało jej ist­
nieniu, nawet nie zdając sobie sprawy, że opisują oni w ten
właśnie sposób swoje ułomności. Inni ludzie lubowali się w
ostrzeganiu o pułapkach intuicji i o je j nieadekwatności. Nie
zdawali sobie sprawy, że intuicja nie jest czymś stałym, ale
raczej jest owocem przeszłego doświadczenia. Może zostać
łatwo zniszczona, ale daje się wyćwiczyć.
Powróćmy do moich lat studenckich. Do pełnego roz­
koszowania się m atem atyką potrzebowałem połączenia we­
wnętrznego zainteresowania i formalizmu. Ale już w szkole
średniej zasłyszałem pogłoski, że mój raj nie był bez skazy.
A potem, po zakończeniu II wojny światowej, do Paryża
powrócił mój stryj, który był profesorem matematyki w słyn­
nym College de France. Za sprawą stryja stałem się tym
spośród wszystkich 20-letnich studentów matematyki w Pa­
ryżu, który uzyskiwał najlepsze porady. Stryj rozpoczął od
poinformowania mnie (grzecznie, lecz stanowczo), że z punk­
tu widzenia działalności badawczej geometria, którą kocha­
łem, jest martwa. Nie chodziło tylko o zredukowanie do
małego ale wciąż ożywionego strumyczka, gorzej, była ona
m artwa od blisko wieku, poza m atem atyką dla dzieci. Stryj
też był bardzo dobry z geometrii w szkole średniej. Ale czuł,
że aby naprawdę zasłużyć się w matematyce, trzeba odejść
od geometrii. Słyszałem to wszystko w latach czterdziestych,
ale Brooks (1989) odbija echem opinię mojego stryja, kiedy
opisuje m oją „wrażliwość m atem atyczną” (wtedy i dzisiaj)
jako ✓„raczej dziecinną i trochę nudną” .
Ściślej rzecz ujmując, powiedziano mi, że geometria, jako
słowo, jest nadal żywa, ale straciła ostatni ślad dawnych
bezpośrednich zastosowań. Tak na przykład geometria alge­
braiczna została uratowana z rąk zgrai ludzi (głównie Wło­
chów), którzy nie potrafili niczego w sposób właściwy zde­
Przedmowa
finiować ani udowodnić, i była jednym z najbłyskotliwszych
dzieci na podwórku, odrodzona jako przedsięwzięcie całko­
wicie algebraiczne, predestynowane do przyszłości lepszej niż
jej teraźniejszość.
Jako pierwszą możliwość stryj mój zaproponował, bym
przeniósł się do jego dziedziny badań, analizy zespolonej,
którą opisywał jako będącą jak najdalej od wzrastającej mo­
dy w kierunku abstrakcji. Na przykład powiedział mi o teorii
iteracji Fatou-Julii i zasugerował, że błyskotliwy nowy po­
mysł matematyczny mógłby umożliwić mi zrobienie czegoś
naprawdę wartościowego i wartego nagrody. Był on jednym
z niewielu, którzy znali teorię Fatou-Julii. Uważał, że jest
ona bardzo ładna, i drażniło go, że nie posunęła się wiele
między rokiem 1917 a 1945. Dał mi oryginalne odbitki,
które od nich otrzymał. Niestety, w trakcie czytania wy­
bitnych prac tych autorów szybko okazało się, że nie była
to ta geometria, którą kochałem. Ponadto Gaston Julia był
cały czas aktywny (miał około pięćdziesiątki, a po tym, jak
przeniosłem się na politechnikę, był moim nauczycielem geo­
metrii różniczkowej). Mimo wszystko prawie nikt poza moim
wujem nie słyszał o zbiorach J (nie był jeszcze znany term in
„zbiory Julii” , za który odpowiedzialność częściowo ciąży na
mnie). W istocie rzeczy mało kto poza moim wujem kiedy­
kolwiek rozmawiał z Julią.
Drugą i bardziej oczywistą możliwością studiowania geo­
metrii było dostosowanie się do grupy matematyków, którzy
nazwali się „Bourbakistami” . „Dostosować się” jest tu właś­
ciwym terminem, co potwierdza ciekawy esej autobiogra­
ficzny E. Hewitta5. „Od Stone’a i moich kolegów m atem a­
tyków z Harvardu wziąłem witalną lekcję o naszej wspaniałej
dziedzinie:
Zasada # 1 . Poważaj profesję.
Zasada # 2 . Jeżeli masz wątpliwości, zob. zasadę # 1 .”
Kim był Stone? Poza tym, że był wspaniałym, twórczym
matematykiem, Marshall Stone jako syn przyszłego Sędziego
Głównego Stanów Zjednoczonych miał właściwy sobie au­
torytarny sposób bycia i rozumienia świata. Opisywał on
„profesję” w następującym podniosłym tonie6:
„Wiele istotnych zmian w naszym pojmowaniu m atem a­
tyki i w naszym jej postrzeganiu zaszło od roku 1900. Jedną
5 E. Hewitt, Math. In te ll 12, 4, 32-39 (1990).
6 M. Stone, Am . M ath. Mon. 68, 715-734 (1961).
27
28
Przedmowa
z nich, naprawdę rewolucyjną w świecie pojęć, jest odkrycie,
że matematyka jest całkowicie niezależna od świata fizycz­
nego...
Kiedy przestaniemy porównywać matematykę dzisiejszą
z m atematyką końca dziewiętnastego wieku, możemy być
zdumieni, jak szybko powiększyła się wiedza matematyczna,
zarówno ilościowo jak i pod względem złożoności. Nie po­
winniśmy jednak nie zauważać, jak blisko rozwój ten związa­
ny był z naciskiem na abstrakcję i wzrastającą troską o po­
strzeganie i analizę szeroko pojmowanych wzorów matema­
tycznych. Jeżeli zbadamy sprawę dogłębnie, to w istocie
zobaczymy, że ta nowa orientacja, która stała się możliwa
dopiero po rozwodzie matematyki z jej zastosowaniami, stała
się źródłem ogromnej witalności i wzrostu w ciągu bieżącego
stulecia.”
Bourbakiści używali słów „struktura” i „podstawa” przy
każdej możliwej okazji. Terminy te były dla nich „pozy­
tywne” , tak jakby były związane z dostojnymi zadaniami
budowania i odbudowywania. Ale Bourbakiści byli niekonse­
kwentni w trzymaniu się tego poszukiwania podstaw, zanim
zaczęło ono dotyczyć logiki. Co więcej, uważałem (i nigdy
nie znalazłem powodu, by zmienić mój pogląd), że pracowali
w znacznym oddaleniu od tych pracujących ciężej, którzy
naprawdę kładli fundamenty po wykonaniu wykopu w nie­
uporządkowanym i niepewnym gruncie. Przestawiali tylko
meble jak dekoratorzy wnętrz, a nie jak budowniczy. Co gor­
sza, często wydawało się, że po prostu wkładali całe swoje
serce w impulsywne sprzątanie, prowadzenie domu i awantu­
rowanie się. Moje uczucia na ich tem at były silne i proste (co
czyni ze mnie osobę o skłonności do silnych uczuć, właściwą
matematykom). Ich formalisme à la française z całą pewnoś­
cią nie był zajęciem bezużytecznym, ale było po prostu
śmieszne pozwolić tej zasadzie rządzić matematyką, rządzić
wybieraniem tych, którzy mieli zostać matematykami, i roz­
ciągać jej wpływ, gdzie tylko się dało. Tak więc byłem nie­
chętny Bourbakistom i bałem się ich.
Śmierć geometrii i pojawienie się Bourbakistów spowo­
dowały, że zrezygnowałem z pozycji, której wielu mi za­
zdrościło, pierwszego studenta pierwszego roku ekskluzyw­
nej Ecole Normale. (Łączna liczba studentów pierwszego
roku matematyki i fizyki w całej Francji zmniejszyła się tym
samym do 14.) A potem wyjechałem z Francji. Jak już
Przedmowa
opisywałem7, obie te decyzje okazały się słuszne, ponieważ
Bourbakiści rośli w siłę i wkrótce zawładnęli nie tylko Ecole
Normale, ale również francuską akademią.
W końcu Bourbakiści odeszli, ale wcześniej wykształcili
wielu młodych matematyków, którzy w całym swoim życiu
nie poznali niczego więcej. Trudno jest im dzisiaj pojąć in­
tensywność emocji, które Bourbakiści wzbudzali wśród swo­
ich zwolenników i swoich wrogów. Z tego właśnie powodu
zapisałem8 kilka faktów i myśli dotyczących Bourbakistów.
W żadnym przypadku nie mógłbym stać się szczęśliwym
członkiem społeczności Ecole Normale, a później nie mógł­
bym być szczęśliwy we Francji jako profesor matematyki,
gdzie koledzy należący do klubu rządzącego spoglądaliby na
mnie niechętnie i na pewno nie uważaliby mnie za gentelmana. Wyprowadzenie się z uniwersyteckich wydziałów ma­
tematycznych do IBM-u umożliwiło mi trwałe zachowanie
tej „dziecinnej wrażliwości”, którą miałem jako młodzieniec.
Jak tylko komputery stały się łatwiejsze w użyciu i w miarę,
jak prymitywna grafika zaczęła stawać się dostępna dla tych,
którzy byli gotowi zapłacić bardzo wysoką cenę za bilet wstę­
pu, wyrażoną w wysiłku i obciążeniu, uczyniłem z nich nie
tylko narzędzie, do którego można odwołać się w miarę po­
trzeby, ale stałą i integralną część mojego procesu myślenia.
Doprowadza nas to do pytania, które jest bardzo stare,
ale szczególnie ostro brzmi w następującym kontekście: ja ­
kie są w odkryciu naukowym odpowiednie wkłady narzędzia
i jego użytkownika? Kłopot polega na tym, że różne na­
rzędzia są tu taj traktowane w różny sposób. Galileusz na­
pisał książkę, by poskarżyć się gorzko na tych, którzy po­
mniejszali jego odkrycie plam na Słońcu, twierdząc, że od­
krycie to należy w całości przypisać życiu w czasie „tele­
skopowej rewolucji” . Fatou (kaleka) i Julia (ranny bohater
wojenny) są — i słusznie — cenieni za ich teorię iteracji
i nikt nie będzie umniejszał ich pracy dlatego tylko, że żyli
w czasie I wojny światowej czy też w epoce Montela9. Dzi­
siaj niektórzy pomniejszają wartość prac wykonanych za po­
7 B. B. Mandelbrot, Math. People, D. J. Albers i G. L. Alexanderson
(red.), Birkhauser, 1985, s. 205-225.
8 B. B. Mandelbrot, Math. In te ll 1 1 , 3, 10-12 (1989).
9 W 1912 r. Paul Montel wprowadził podstawowe narzędzie Fatou
i Julii, normalne rodziny funkcji, a wkrótce potem — jak prawie wszy­
scy młodzi ludzie z francuskiej akademii — został powołany do wojska.
29
30
Przedmowa
mocą komputera, uważając, że są wynikiem jedynie tego, że
ich wykonawca przypadkiem żył w epoce komputerów.
Jeżeli byłaby to prawda, stalibyśmy w obliczu tajemnicy.
Dlaczego m atem atyka eksperymentalna przyciągała tak nie­
wielu naukowców przez tak długi czas po tym, jak von Neu­
mann i Fermi (wspominani wcześniej w tej przedmowie) po­
kazali, w jaki sposób m atem atyka może skorzystać z kom­
putera? Ich przykład został zignorowany. Kiedy rozpo­
czynałem swą pracę w IBM, gdzie przeniosłem się w 1958 r.,
możliwości używania komputerów były celowo i systema­
tycznie odtrącane z pogardą przez każdego liczącego się
matematyka. Nawet przykład S. Ulama może być ciekawy.
Był on współautorem (wspominanego wyżej) słynnego wcze­
snego artykułu o m atematyce eksperymentalnej (zob. przy­
pis s. 18) i mogłoby się wydawać, że powinien stać się orę­
downikiem tego nowego trendu. Niemniej jednak w przed­
mowie, którą napisał do reprintu tego artykułu w 1963 r.,
stwierdza, co następuje: „M atematyka nie jest tak naprawdę
nauką obserwacyjną, ani nawet nie jest nauką eksperymen­
talną. Niemniej jednak obliczenia, które przeprowadziliśmy
[Paul Stein i ja] były użyteczne w ustaleniu pewnych ra­
czej zadziwiających faktów o prostych obiektach matema­
tycznych.”
Opinia, że liczy się tylko narzędzie, jest z pewnością
fałszywa w moim przypadku, ponieważ grafika stała się pod­
stawowa w mojej pracy na długo przed początkiem ery kom­
puterów. Żywo pamiętam, ile czasu spędziłem nad wykresem
wyników rzutów m onetą w słynnym podręczniku rachunku
prawdopodobieństwa. Jest on odtworzony jako rycina 241
w mojej książce The Fractal Geometry of Nature. Dopro­
wadziło mnie to do różnych rodzajów użytecznych modeli.
William Feiler, autor podręcznika, odpowiedział kiedyś na
moje pytanie, czy te liczby losowe zostały wzięte z tabeli, czy
też były wynikiem rzucania prawdziwej monety, ale nie pa­
miętam już jego odpowiedzi. Z całą pewnością nie były wy­
generowane przez komputer ani przezeń narysowane, a żaden
inny autor podręcznika prawdopodobieństwa nie odczuwał
potrzeby zamieszczenia takiego wykresu.
Grafika z wykorzystaniem komputera stała się zasadnicza
w mojej pracy w późnych latach sześćdziesiątych, kiedy w se­
rii prac, napisanych wspólnie z J. R. Wallisern, używaliśmy
plottera do narysowania, jeden obok drugiego, ciągu praw­
dziwych zapisów pogody i zapisów generowanych przez „nie-
Przedmowa
prawdziwe” modele zmienności pogody. Okazało się to bar­
dzo ważne, ale było bardzo odległe od matematyki. Pierwsze
poważne zastosowanie w matematyce pojawiło się gdzie in­
dziej, w polu zainteresowań specjalistów z dziedziny analizy
harmonicznej, I. P. K ahane’a i J. Peyriere’a. Heurystyczne
obliczenia odgrywały co prawda ważną rolę, ale to rysunki
doprowadziły mnie do serii matematycznych hipotez na te­
mat pewnych losowych, osobliwych miar (później zwanych
m,ultifraktalami). Potrafiłem udowodnić jedynie specjalne
przypadki, ale Kahane i Peyriere udowodnili pełne hipotezy
i przeszli do ich bardzo ciekawych zastosowań, które uzasa­
dniały ich wysunięcie.
Drugie poważne zastosowanie, opublikowane bardzo póź­
no, w 1983 r., dostarczało pierwszego szybkiego algorytmu
konstrukcji zbiorów granicznych dla pewnych grup Kleina.
Doprowadza nas to do znaczącego epizodu. W tam tych la­
tach nie znałem żadnego eksperta z tej dziedziny, ale od
dawna znałem Wilhelma Magnusa z NYU. Napisał on książkę
o grupach Kleina, zatem złożyłem mu wizytę w 1978 czy 1979
r., aby się zapytać, czy mój algorytm był znany jemu albo
innym. W tedy Magnus dał mi teczkę z wygenerowanymi
komputerowo zbiorami granicznymi, przysłanymi mu przez
różne osoby. Nikt spośród autorów tych ilustracji nie użył
ich do poszukiwania nowych faktów matematycznych! Było
to dla mnie głębokim zaskoczeniem, a jednocześnie silnym
źródłem zachęty.
Niemniej jednak powyższe badania były jedynie apetycz­
nymi przystawkami. Z mojego własnego punktu widzenia
(jak również z szerszego punktu widzenia, podzielanego
przez wiele osób) matematyka wzięła ostry zakręt w latach
1979-1980, kiedy teoria Fatou-Julii, którą z taką pogardą
odtrąciłem w latach czterdziestych, znów stała się znaczącą
częścią głównego nurtu matematyki. Zdarzyło się to, po­
nieważ tem at ten został dogłębnie odmieniony przez użycie
nowego narzędzia. Jak już wspominałem, poprzednie zmiany
w tej dziedzinie nastąpiły na początku wieku, kiedy to ro­
dziny normalne Paula Montela zagoniły do pracy Julię i Fatou. Ale — ku głębokiemu i gorzkiemu rozczarowaniu mo­
jego wuja — to nowe narzędzie nie było „czysto m atem a­
tyczne” . Nie wyrosło z niej, ale spoza matematyki. Metody
geometrii fraktalnej pozwoliły mi już wcześniej użyć kom­
putera do wielu problemów fizyki i stało się tak, że mogłem
również użyć go do głównego nurtu matematyki. Powie-
31
32
Przedmowa
dzieliśmy już, że teoria Fatou-Julii wypadła z głównego nur­
tu. Ale wróciła do niego, robiąc wiele hałasu po tym, jak
w latach 1979-1980 przeprowadziłem pewne badania nad
zbiorem, który jest pedantycznie nazywany miejscem geo­
metrycznym bifurkacji przekształcenia z —> z2 + c. W mo­
ich wczesnych artykułach zbiór ten był nazywany „mapą
/¿” , ponieważ fizycy zwykli byli oznaczać stałą c przez —
a zatem zwykli byli zapisywać badane przekształcenie jako
z
z 2 ~ p. W tych samych artykułach miejsce geometryczne
dla przekształcenia z —>Xz (1 —z) było nazywane „mapą À” .
Moje obserwacje na tem at tego miejsca geometrycznego
zostały przedstawione w m aju 1980 r. na specjalnym semi­
narium w Harvardzie, a potem w listopadzie 1980 r. na
seminarium prowadzonym przez Davida Ruelle’a w Bures
pod Paryżem, w Institut des Hautes Etudes Scientifiques.
Seminarium w Bures miało wielu słuchaczy i jak się okazało
wywarło głęboki wpływ na Adriena Douady’ego, który był
tam obecny. On, a później także jego były student John
Hubbard, porzucili swe poprzednie prace (był on w tym
czasie ciągle jednym z liderów Bourbakistów) i od 1980 r.
całkowicie poświęcili się miejscu geometrycznemu, które im
opisałem na tym seminarium, a później w czasie wielu spo­
tkań prywatnych. Niedługo potem Douady i Hubbard zapro­
ponowali, by nazwać ten zbiór terminem zbioru Mandelbrota
albo literą M.
Z b ió r M
Zbiór M ciągle przyciąga uwagę. Wiele osób (moim zda­
niem słusznie) uważa prace, którym dał początek, za bardzo
specjalne w procesach narodzin nowej matematyki ekspe­
rymentalnej. To może dlatego jego dokładne pochodzenie
przyciągnęło tak wyjątkowo wielką uwagę. Mniej godne po­
chwały są nieudokumentowane anegdoty, które przy okazji
opowiadano, czy to w celu udowodnienia, że matematyka
eksperymentalna jest okropnym pomysłem, czy wykazania,
że jest to wspaniały pomysł, czy też, że została zrobiona
zupełnie innymi rękami. Ponieważ nauczono mnie, że stwier­
dzenia, na które nie znaleziono kontrprzykładu, należy trak­
tować jako poprawne, z pewną dozą niechęci zdecydowałem
się naszkicować te jeszcze kontrowersyjne próby. A z tego,
że próby te spaliły na panewce wywnioskowałem, że nie było
współzawodnika co do pierwszeństwa w odkryciu pierwszych
i najbardziej uderzających własności zbioru M.
Powinienem był na początek wspomnieć, że kilku bada-
Przedmowa
czy powiedziało mi w zaufaniu, iż pomysł badania M prze­
mknął im przez myśl, ale nigdy nie zajęli się nim i nie wy­
suwali żadnych żądań. Około 1988 r. (co najciekawsze nie
wtedy, kiedy badania nad zbiorem M były nowe) pewien na­
ukowiec (który — wspaniałomyślnie — nie zostanie wymie­
niony z nazwiska) zachował się inaczej: być może wierzył,
że powinien był wykonać tę pracę; zrobił niefortunny krok
i wyraził swoje zdanie na piśmie, ale bez przytoczenia żad­
nego dowodu, który ktoś mógłby zobaczyć czy osądzić. Inne
opublikowane roszczenie jest, wprost przeciwnie, udokumen­
towane: artykuł Brooksa i Metelskiego10 zawiera szkic M.
Szeroko rozpowszechniany list Brooksa do B. Branner przy­
ciągnął szeroką uwagę do tego szkicu w 1988 r. Zostało pod­
kreślone, że list ten pochodzi z 1979 r.
Tak więc, zbiór M został dostrzeżony jednocześnie
w dwóch miejscach, w obu przypadkach bardzo mgliście.
Niemniej jednak, co próbowałem wytłumaczyć w innym
miejscu11, data tego pierwszego spostrzeżenia nie jest ważna.
Przyjaciele i wrogowie matematyki eksperymentalnej są
zgodni co do jednego: że rysunek sam w sobie nie jest wcale
interesujący. (Jest tak zwłaszcza w tym przypadku, po­
nieważ rysunki w pracy Brooksa i Metelskiego są z gruntu źle
oznaczone.) Dla matematyka eksperymentalnego ważne jest
nie tyle pierwsze wrażenie, co idee matematyczne nasuwane
przez te rysunki, jeżeli takie miałyby się nasunąć.
Brooks i Metelski nie wnoszą żadnej matematycznej idei.
Dokładnie na odwrót, mój pierwszy rzut oka na M w mętnej
jeszcze postaci wywołał nieodparte wyzwanie, żeby zasto­
sować do iteracji te same tricki, których z tak dobrym rezul­
tatem używałem przez ostatnie piętnaście lat. (To właśnie
dlatego — co zostało już powiedziane — Brooks później
opisał mą „wrażliwość matematyczną” jako „raczej dzie­
cinną i trochę nudną.”) Nie muszę powtarzać, co nastąpiło
w 1980 r., ponieważ wystarczająco dokładnie opisałem to
w moim wstępie do wspaniałej książki Peitgena i Richtera12.
(Zostało to napisane w 1985 r. do katalogu ich wystawy
Granice Chaosu ( The Frontiers of Chaos).)
10 R. Brooks, J. P. Metelski, The dynamics of 2-generator subgroups
of PSL(2,C), w: R iem ann Surfaces and Related Topics, I. Kra i B. Maskit (red.), Princeton University Press, 1981.
11 B. B. Mandelbrot, Math. In te il 11, 4, 17-19 (1989).
12 H. O. Peitgen, P. H. Richter, The Beauty of Fractals, SpringerVerlag, 1986.
33
34
Przedmowa
Gdyby Brooks tylko chciał, jego wola mogłaby być wy­
pełniona z nawiązką w 1989 r. Jego przypadek przypomniał
S. K rantz13, słynący jako przekaziciel matematycznych aneg­
dot o wydarzeniach, których nie był uczestnikiem ani nawet
świadkiem. Zasłynął także mniej chwalebnie z dokładności
(czy też raczej jej brak) swoich opowieści14. W 1989 r.
anegdociarz ten wziął artykuł Brooksa i Metelskiego, po to
jedynie, by poczynić stwierdzenia przeciwne stwierdzeniom
Brooksa.15 Po pierwsze twierdził, że omawiane rysunki po­
chodziły z roku 1978, a po drugie, że były szeroko znane
w społeczności matematyków. Gdyby to drugie było praw­
dziwe, zaoszczędziłoby to Brooksowi robienia czegokolwiek
w 1988 r., Douady i Hubbard zaś nie mieliby żadnego po­
wodu, by nazywać zbiór M moim nazwiskiem.
W roku 1991 tego samego anegdociarza ponownie cy­
towano: argumentuje on, że spójność zbioru M dowodzi, iż
m atem atyka eksperymentalna może zawieść „nawet
w [swoim] centralnym punkcie” . Pojawiają się różne inne
argumenty oparte na tym, że m atematyka eksperymentalna
jest jednocześnie bezpośrednia i nieefektywna. Jednak prak­
tycy znają się na tym lepiej: w zdolnych i ostrożnych rękach
jeden eksperyment wiedzie do innego eksperymentu, potem
wiąże się go ze znanymi faktami matematycznymi, w końcu
doprowadza on do nowych hipotez matematycznych.
W szczególnym przypadku zbioru M metoda eksperymen­
talna zaprowadziła mnie dalej, niż przyznają różnorodne
sprawozdania, które możemy usłyszeć. Historia ta powinna
zostać szerzej poznana, ona to bowiem uprawomocnia strony
155-157 z już wspominanego mojego fragmentu w The Beauty of Fractals (Piękno fraktałi). Być może tam właśnie
zobaczył to nasz anegdociarz, ponieważ cytował moje słowa
w swojej recenzji książki Peitgena i Richtera (jeżeli „recen­
zja” jest tu właściwym słowem). Ostatnie postępy mate­
matyki eksperymentalnej i jej rosnąca akceptacja powodują,
że moje dawne słowa są warte tego, by je jeszcze raz prze­
czytać jako realistyczny opis udanego zastosowania metody
eksperymentalnej w matematyce. Używałem jej od dawna,
a dzisiaj zdobywa ona wielu nowych zwolenników.
Spójność M była jedną z wielu obserwacji empirycznych,
13 S.
14 S.
15 S.
Krantz, M ath. Intell. 12, 3, 58-63 (1990).
Krantz, M ath. Intell. 13 , 4, 5 (1990).
Krantz, M ath. Intell. 11, 4, 12-16 (1989).
Przedmowa
które poczyniłem na tem at M, a które potem doprowadziły
do wspaniałych, w pełni dowiedzionych twierdzeń. Co więcej,
to co nazwałem hieroglificznym charakterem zbioru M zo­
stało rozwinięte i udowodnione przez Tan Lei, a zupełnie
ostatnio M. Shishikura udowodnił, że brzeg M ma wymiar
Hausdorffa 2. Nie potrafiłbym napisać żadnego z tych do­
wodów. Ale chciałbym podkreślić raz jeszcze, że cenię na
równi heurystykę (graficzną czy inną) i dowód. Nie oczer­
niam prac, których nie rozumiem albo których nie potrafił­
bym sam wykonać.
Słyszymy, że tradycjonaliści (zgodnie ze swoją rolą) boją
się, iż przez ponowne przyjęcie eksperymentu matematyka
mogłaby stracić to „coś specjalnego” . Jest istotnie praw­
dopodobne, że mogłaby coś stracić, jak również, że mogłaby
coś innego zyskać. Dobrze, że utraciła swoją monolityczną
strukturę, charakteryzującą ją w latach pięćdziesiątych
i sześćdziesiątych.
Nadeszła już pora na doprowadzenie opowieści z powro­
tem do źródeł, bez zwracania nadmiernej uwagi na te ostat­
nie spory. Ich nadmiernie osobisty charakter kiedyś bardzo
mnie drażnił, ale z perspektywy widzę je jako dość trywialne,
odświeżające epizody w długiej walce o dusze, która roz­
grywała się pomiędzy Platonem a Archimedesem.
35
R ozdział 1
Podstaw a geom etrii fraktalnej:
sprzężenie zw rotne i iterow anie
Uważam za niezwykle ważne, aby równanie logistyczne było
wprowadzane we wczesnej fazie edukacji matematycznej.
Równanie to można badać fenomenologicznie przez przepro­
wadzanie jego iteracji na kalkulatorze lub nawet ręcznie. Ba­
danie jego nie wymaga używania tak skomplikowanych pojęć,
jakich używamy przy rachunku różniczkowym. Może jednak
znacznie wzbogacić intuicję ucznia dotyczącą układów nie­
liniowych. Powodziłoby nam się wszystkim lepiej nie tylko
w pracy naukowej1 ale również w życiu politycznym i ekonomicznym, jeżeli szersza byłaby wiedza o tym , że proste układy
nieliniowe niekoniecznie mają prostą ewolucję.
Robert M. May1
Niestety przesłanie Maya nie wywarło większego wpływu,
przynajmniej jeśli chodzi o nauczanie matematyki. Jakie
zjawiska ma on na myśli i dlaczego uważa je za tak niezwykle
ważne? Aby znaleźć odpowiedź na te pytania, spróbujemy
najpierw umieścić postulaty Maya w szerszym kontekście.
Jeśli myślimy o fraktalach jako o kształtach, obrazach i struk1 R. M. May, Simple mathematical models with very complicated
dynamics, Nature 261, 459-467 (1976).
38
1. Podstawa geometrii fraktalnej
Zim ow y w schód
słońca
Rysunek 1.1: Zimowy wschód słońca, Sierra Nevada, widziane
z Lone Pine, California, 1944. Fotografia Ansela Adamsa. Copy­
right (c) 1991 by Trustees of the Ansel Adams Publishing Rights
Trust. Wszystkie prawa zastrzeżone
turach, na ogół wydają się nam one obiektami statycznymi.
W wielu przypadkach taki punkt widzenia jest uzasadniony,
jak na przykład w przypadku naturalnych tworów przedsta­
wionych na rysunkach 1.1, 1.2, 1.3.
Takie podejście jednak nie daje nam wglądu w powsta­
wanie i rozwój danej struktury. Często, na przykład w bo­
tanice, zależy nam nie tylko na opisie struktury dojrzałej
rośliny, lecz również na opisie tego, jak powstawała. W is­
tocie żaden model geometryczny rośliny, który jednocześnie
nie zawiera opisu dynamiki jej wzrostu, nie doprowadzi nas
daleko.
To samo jest prawdą dla łańcuchów gór. Ich kształt
jest wynikiem zarówno ruchów tektonicznych, które je stwo­
rzyły, jak też procesów erozji, które teraz i w przyszłości
będą kształtowały to, co widzimy. Podobny proces zachodzi
w przypadku formowania się osadu cynku przy osadzaniu
elektrolitycznym.
Fraktale
Widzimy więc, że nie powinniśmy zajmować się samymi
a p rocesy tylko fraktalami z pominięciem procesów, które je stworzyły,
zm ienne Jeśli jednak zgodzimy się z takim postawieniem problemu,
w czasie wchodzimy na bardzo niebezpieczny teren. Powstaje pyta-
39
D ąb kalifornijski
Rysunek 1.2: Dąb kalifornijski, rezerwat Arastradero, Pało Alto.
Fotografia wykonana przez Michaela McGuire
Paproć
Rysunek 1.3: Zdjęcie pochodzi z: K. Rasbach,
D ie F a rn p fla n zen
Zentraleuropas, Verlag Gustav Fisher, Stuttgart 1968. Przedruk
za zgodą wydawcy
nie, co to są za procesy i jaki jest ich wspólny matematyczny
opis. Czy przypadkiem nie sugerujemy, że bardzo skompli­
kowane kształty, które spotykamy w naturze, są wynikiem
równie złożonych procesów? Okazuje się,że mimo iż jest tak
40
1. Podstawa geometrii fraktalnej
W zrost rośliny
Rysunek 1.4: Wzrost rośliny symulowany za pomocą zmodyfi­
kowanego L-systemu (rysunek udostępnił P. Prusinkiewicz)
P ro ces agregacji
lim itow anej
dyfuzją
Rysunek 1.5: Model DLA
( d iffu sio n lim ite d aggregation) osadza­
nia cynku w procesie galwanizacji. Cząsteczki osadzają się na dol­
nej linii, tworząc drzewopodobne skupiska (rysunek udostępnił R.
F. Voss)
w wielu przypadkach, jednocześnie paradygmat, który długo
funkcjonował w nauce:
złożona struktura jest wynikiem działania złożonych
i powiązanych ze sobą procesów
jest na ogół daleki od prawdy. Przeciwnie, wydaje się —
i jest to jedną z bardziej zaskakujących konsekwencji geome­
trii fraktalnej i teorii chaosu — że jeżeli mamy do czynienia
ze złożoną prawidłowością, to w gruncie rzeczy jest całkiem
prawdopodobne, że powstała ona jako rezultat bardzo pro­
stego procesu. Oznacza to również, że rozważając prosty
proces nie powinniśmy łudzić się, iż łatwo zrozumiemy jego
działanie.
1.1. Zasada sprzężenia zwrotnego
1.1. Z asad a sp r z ę ż e n ia z w r o tn e g o
Najważniejszym przykładem prostego procesu o bardzo zło­
żonym zachowaniu jest proces wyznaczony przez równanie
kwadratowe postaci x 2 + c, gdzie c jest wybraną stałą, albo
równoważnie p + rp( 1 — p), gdzie ustalone jest r. Zanim
będziemy mogli przystąpić do szerszego omówienia tego zja­
wiska — co nastąpi w rozdziale2 10 — zawrzemy bliższą
znajomość z jedną z głównych postaci dram atu.
Procesy ze sprzężeniem zwrotnym m ają fundamentalne
znaczenie we wszystkich naukach przyrodniczych. Zostały
one wprowadzone już przez Sir Isaaca Newtona i Gottfrieda
W, Leibniza około 300 lat temu w postaci zasad dynamiki.
Dziś koncept ten jest powszechnie stosowany przy wszelkim
bodaj modelowaniu zjawisk przyrodniczych. Prawa tego ro­
dzaju wyznaczają na przykład położenie i prędkość cząstki
w danej chwili na podstawie ich wartości w chwili poprze­
dniej. Trajektoria poszczególnej cząsteczki może być rozu­
miana jako realizacja takiego ogólniejszego prawa. Nie ma
również znaczenia, czy rozważany proces jest procesem dys­
kretnym — to znaczy odbywającym się krokami — czy też
ciągłym. Fizycy lubią posługiwać się pojęciem infinitezymalnych odcinków czasowych: natura non facit saltus^. Biolo­
gowie zaś często wolą rozpatrywać zmiany zachodzące z roku
na rok, czy też z pokolenia na pokolenie.
Rysunek 1.6: Urządzenie ze sprzężeniem zwrotnym, gdzie We
— jednostka wejścia, Wy —- jednostka wyjścia, K — jednostka
kontroli
2 Odwołania do rozdziałów o numerach wyższych niż 7 dotyczą dru­
giego tomu książki — przyp.tłum .
3 Przyroda nie robi gwałtownych skoków.
41
42
1. Podstawa geometrii fraktalnej
Iterow anie,
Będziemy używali wymiennie terminów: iterowanie,
sprzężenie sprzężenie zwrotne i proces dynamiczny.4 Na rysunku 1,6
zw rotn e i p roces wyjaśniamy zasadę sprzężenia zwrotnego. To samo działanie
d yn am iczn y jest powtarzane wielokrotnie, przy czym wynik jednej ope­
racji jest zarazem wartością początkową następnej.
Iterowanie —
zasada sprzężenia
zwrotnego
U rząd ze n ie sprzężenia zw ro tn e g o składa się z trzech jedn ostek pamięci
oraz jed n eg o układu p rzetw arzająceg o (W e = wejście, W y = wyjście,
K = jed n o stka ko n tro ln a, P — jed n o stka przetw arzająca czyli pro­
cesor). Połączone są one czterem a kanałam i ko m unikacyjn ym i, zob.
rysunek 1.6. Całością rząd zi zegar, który nadzoruje to, co się dzieje
w e w szystkich jed n o stkach i zlicza cykle. Jednostka kontroli działa
pod obnie do skrzyni biegów w silniku. Polega to na ty m , że m ożem y
ustaw ić iterow anie w dan ym stanie p o c zą tk o w y m , a następnie puścić
je w ruch. C ykle m o żem y pod zielić na cykle przygotow aw cze i cykle
przebiegu, z których każdy m oże być rozbity na kroki podstawowe:
Cykl przygotow aw czy:
krok 1: załad u j in fo rm ację do W e
krok 2: załad u j in fo rm ację do K
krok 3: przekaż zaw artość K do P
Cykl przebiegu:
krok
krok
krok
krok
1:
2:
3:
4:
przekaż zaw artość W e do P
przetw ó rz to , co je s t na wejściu W e
przekaż re zu lta t do W y
przekaż zaw artość W y do W e
D zia ła n ie urządzenia sprzężenia zw ro tn eg o rozpo czynam y jed n ym
cyklem przygotow aw czym . N astępnie w ykon ujem y pew ną liczbę cy­
kli przebiegu. Ich liczba m oże zależeć od w y n ikó w obserw acji, ja ­
kich do ko n u jem y k o n tro lu jąc bieżący re zu lta t uzyskiw any na wyjściu.
W y k o n a n ie jed n eg o cyklu przebiegu nazyw am y czasam i pojedynczą
ite ra c ją .
Jeśli odwołujemy się do iteracji, to powinniśmy wyo­
U rząd zen ie
sprzężenia brazić sobie odpowiednie urządzenie sprzężenia zwrotnego.
zw rotn ego — Działanie tego urządzenia może być modyfikowane przez us­
co to jest? tawianie odpowiednich parametrów zewnętrznych, podob­
nych przekładniom w silniku. Omówimy podstawowe za4 Mając nadzieję, że taka swoboda językowa nie będzie wprowadzać
Czytelnika w błąd — przyp.thim .
43
1.1. Zasada sprzężenia zwrotnego
sady, posługując się prostym przykładem wizyjnego sprzęże­
nia zwrotnego, który pozwala również na wykonanie przy­
kładowych eksperymentów.
To przykładowe urządzenie
sprzężenia zwrotnego można skonstruować przy użyciu od­
powiednio dobranego sprzętu. Jest to urządzenie „rzeczywi­
ste” w pierwotnym znaczeniu tego słowa, co stanowi wyjątek
w tej książce. Najczęściej przez „urządzenie sprzężenia
zwrotnego” rozumiemy tu taj abstrakcyjne urządzenie, ro­
dzaj eksperymentu myślowego. Takie abstrakcyjne urządze­
nie może zadziałać w formie odpowiedniego programu kom­
puterowego, obliczeń na kieszonkowym kalkulatorze, czy też
po prostu na kartce papieru.
P od staw ow a
zasada
w izyjn ego
sprzężenia
zw rotn ego
Rysunek 1.7: Podstawowa zasada wizyjnego sprzężenia zwrot­
nego
Wizyjne sprzężenie zwrotne jest eksperymentem rozu­ W izyjn e
mianym tradycyjnie. Idea jego jest prawdopodobnie tak sprzężenie
stara, jak sama telewizja. Mimo to prezentowany przez nas zw rotn e
eksperyment jest tak zaskakujący, że możliwości, jakie niesie,
mogą być interesujące nawet dla ludzi zajmujących się tele­
wizją profesjonalnie.5 Na rysunku 1,7 pokazano, na czym
polega wizyjne sprzężenie zwrotne. Kamera video skiero5 Został on zaproponowany przez Ralpha Abrahama z University of
California w Santa Cruz w latach siedemdziesiątych. Zob. R. Abraham,
Simulation of cascades by video feedback, w: Structural Stability, the
44
I. Podstawa geometrii fraktalnej
wana jest na ekran monitora i jednocześnie przekazuje na ten
ekran wszystko, co znajduje się w jej polu widzenia. Oczy­
wiście istnieje wiele czynników, które m ają wpływ na to,
co można zaobserwować na monitorze. Są nimi różnego
typu pokrętła do kontroli jasności, kontrastu itd., jak też
param etry kamery (ogniskowa, przesłona itd.). Podstawowe
znaczenie ma również położenie kamery względem monitora.
Poniżej przedstawiamy kilka wskazówek, które mogą się przy­
dać przy planowaniu własnego eksperymentu sprzężenia
zwrotnego z kamerą.
Wskazówki do
przeprowadzenia
eksperymentu
wizyjnego
9
9
sprzężenia
zwrotnego
E ksp erym en t pow inien być przeprow adzany w ciem nym pom ieszczeniu. O dległość p o m ięd zy kam erą a m o nitorem pow inna być taka,
¿e by obraz był p rzekształcany w stosunku 1:1. K o n tra s t m onitora
pow inien być m o żliw ie ja k najw iększy, jasność zaś pow inna być usta(
(
w iona na dosyć niskim poziom ie. O trz y m a m y lepszy efekt, jeśli
m o n ito r u staw im y do góry nogam i. P o n ad to statyw kam ery po­
w inien u m o żliw ia ć skręt kam ery w zględem osi poziom ej, podczas
gdy pozostaje ona zw rócona przodem do m o n ito ra. K am era po­
w inna być obrócona o około 4 5 ° w zględem je j poziom ego położenia.
Po połączeniu kam ery i m o nitora o trz y m u je m y podstaw ow ą konfi­
gurację u m o żliw ia ją c ą eksp erym en t. K am era pow inna m ieć ręcznie
ustaw ianą przesłonę, ta k by u m o żliw ić je j stopniow e otw ieranie, pod­
czas gdy ostrość nastaw iona je s t na ekran m o nitora. W zależności
od ustaw ienia ko n trastu i jasności w ystarczy zap alić zapałkę przed
ekran em m o n ito ra , by eksp erym en t ruszył.
Jest jasne, w jaki sposób możemy przedstawić nasz eks­
peryment w postaci schematu podobnego do tego na ry­
sunku 1.6 (wejście = kamera, procesor — kamera i elektro­
niczne części monitora, wyjście = ekran monitora, jednostka
kontroli = ostrość, jasność itp.). Zegar sprzężenia zwrotnego
pracuje w tym wypadku dość szybko, tzn. w tempie około 30
cykli na sekundę albo raczej takim, ile obrazów na sekundę
wytwarza dany system TV .6
Theory o f Catastrophes, and Applications in the Sciences, P. Hilton
(red.), Lecture Notes in Mathematics t. 525, Springer-Verlag, Berlin
1976, s. 10-14.
6 System NTSC to typowo 30 cykli na sekundę i 480 linii w obrazie,
systemy europejskie — 25 cykli i 575 linii.
45
1.1. Zasada sprzężenia zwrotnego
Każdy z parametrów kontrolnych wywiera wpływ na eks­
peryment, a niektóre mogą istotnie zmienić wynik. Mo­
żemy zatem myśleć o naszym eksperymencie jako o kom­
puterze analogowym z pokrętłami kontrolnymi. Dla pew­
nych parametrów kontrolnych i zmiennych stosunkowo pro­
sto można zrozumieć ich wpływ na nasz eksperyment. Dla
innych jest to trudne, a dla niektórych diablo trudne. W
rzeczywistości wiele obserwowanych efektów ciągle nie jest
dobrze zrozumianych. Największy wkład w głębsze zrozu­
mienie procesu wizyjnego sprzężenia zwrotnego uczynił fizyk
P. Crutchfield.7
Z asadnicze
zn aczenie
param etrów
kontrolnych
M onitor
w ew nątrz
m on itora
w ew nątrz
m on itora ...
Rysunek 1.8:
Efekt pojawiający się, jeżeli odległość między
kamerą a monitorem jest duża. Zasada działania i podstawowe
odwzorowanie (po lewej), rzeczywiste sprzężenie zwrotne (po pra­
wej)
Zmienną, której zasadniczy wpływ na generowanie obra­
zu najłatwiej jest analizować, jest ustawienie kamery w sto­
sunku do ekranu monitora. Jeżeli odległość kamery od moni­
tora jest duża, ekran monitora stanowi tylko niewielką część
pola widzenia kamery. W rezultacie kopia monitora będzie
widoczna na niewielkiej części ekranu i tak znowu, i znowu,
w nieskończoność. Na ekranie zatem zobaczymy monitor
wewnątrz monitora, wewnątrz monitora itd. (zob. rysu­
nek 1.8). Rezultat takiego procesu możemy określić jako
7 P. Crutchfield, Space-time dynamics in video feedback, Physica
10D , 229-245 (1984).
46
1. Podstawa geometrii fraktalnej
kompresję albo, używając pojęć dynamicznych, jako ruch
w kierunku centrum ekranu. Początkowy obraz, jaki pojawi
się na ekranie monitora, zostanie zmniejszony i pojawi się
znowu na ekranie, a następnie znowu zostanie zmniejszony,
i znowu, i znowu. Powiemy, że przekształcenie to działa
w stosunku 1 : m, gdzie m < 1, tzn. to, co na ekranie
ma długość 1, zostanie zredukowane do długości m w czasie
jednego cyklu sprzężenia zwrotnego.
Efekt polegający na pojawieniu się monitora wewnątrz
monitora jest znany pod nazwą wizyjnego sprzężenia zwrot­
nego (z kamerą). Jest on łatwy do powtórzenia przy użyciu
prawie dowolnego rodzaju sprzętu. Okazuje się jednak, że
ten prosty system może doprowadzić do powstania całej
gamy efektów, które jednak nie są powszechnie znane, gdyż
czasami jest trudniej je otrzymać.
N a jed ź na ..
najedź na •.
R ysunek 1.9: Efekt pojawiający się, jeżeli odległość między
kamerą a monitorem jest mała. Zasada działania i podstawowe
odwzorowanie (po lewej), rzeczywiste sprzężenie zwrotne — po­
wtarzające się powiększanie obrazu ołówka (po prawej)
Zajmijmy się teraz tym, co się będzie działo na drugim
końcu skali położenia monitora względem kamery. Jeśli od­
ległość pomiędzy kamerą a monitorem jest niewielka, to tylko
część ekranu znajduje się w polu widzenia kamery. Część
ta ukaże się na całym ekranie i znowu, i znowu, w nie­
skończoność (zob. rysunek 1.9). Obraz jest więc powiększany
1.1. Zasada sprzężenia zwrotnego
w stosunku 1 : m, gdzie m > 1, tzn. część o długości
1 na ekranie będzie przekształcana na obraz o długości m
w pojedynczej pętli sprzężenia zwrotnego.
W tym wypadku zachodzący proces najlepiej jest określić
jako powiększanie, albo też, używając języka ruchu, jako
przemieszczanie w kierunku skraju ekranu. Z tego, co ukaże
się początkowo na ekranie, zostanie wybrana tylko część
i będzie powiększona do rozmiaru całego ekranu. Z tej po­
większonej części zostanie wybrana część, znowu zostanie
powiększona i tak znów, i znów. Ponieważ TV odnawia
obraz 25 razy na sekundę zauważenie poszczególnych kroków
tego procesu nie jest możliwe. Rezultatem zbyt bliskiego
położenia kamery względem ekranu może być pojawienie się
na ekranie jakiegoś dziwnego, nieuporządkowanego ruchu.
Najciekawsze efekty otrzymujemy, gdy kamera ustawiona Isto ta
jest tak, że stosunek wielkości obrazu przekształcanego do sprzężenia
oryginalnego wynosi w przybliżeniu 1:1. Jeśli dodatkowo ob- zw rotn ego
rócimy kamerę o pewien kąt wzdłuż osi poziomej, to obraz
na ekranie jest rejestrowany przez kamerę jakby obrócony
o pewien kąt. W tedy obraz pojawiający się on na ekra­
nie (przekształcony w stosunku 1:1) jest w zasadzie tej sa­
mej wielkości — ale obrócony. Od tego momentu zawodzi
jakiekolwiek proste wytłumaczenie otrzymanych skompliko­
wanych, ale zarazem pięknych efektów wizualnych. Z tego,
co do tej pory zostało powiedziane, moglibyśmy wywnio­
skować, że na ekranie pojawi się ciąg obrazów otrzymanych
przez kolejne obroty. Okazuje się, że wniosek ten jest zbyt
dużym uproszczeniem. Otóż mogą wystąpić najdziwniej­
sze efekty, immanentnie związane z tworzeniem obrazu te­
lewizyjnego. Jak wiemy, obraz na ekranie tworzony jest za
pomocą szeregu kolejnych linii. W podobny sposób więc ka­
mera rejestruje obraz pojawiający się na ekranie. Ma to
wpływ na końcowy efekt. Występuje też zjawisko pamięci
ekranu związane z fłuorescencją ekranu. Dodatkowo wy­
stępują zjawiska związane z wiązkami elektronów zarówno
w monitorze jak i w kamerze. I nie jest to jeszcze kompletna
lista czynników, które m ają wpływ na końcowy obraz poja­
wiający się na ekranie.
Jak widzimy, ten niezwykle prosty układ sprzężenia zwrot­
nego ilustruje rozmaitość efektów, jakie można otrzymać
w wyniku jego działania. W pewnym sensie jest to tematem
47
1. Podstawa geometrii fraktalnej
48
Rysunek 1.10:
Kilka przykładów rzeczywistego wizyjnego
sprzężenia zwrotnego. Można dostrzec silniej bądź słabiej zazna­
czoną okresowość, która zależy od kąta nachylenia kamery video.
Od lewego górnego rogu do prawego dolnego możemy dostrzec
okresy 3, 5, 5, 5, 8, 8, 11, 11, > 11
naszej książki. Zajmiemy się teraz grupą prostych ekspery­
mentów, które wniosą trochę światła do tego świata fascy­
nujących zjawisk. Podstawa ich będzie właściwie taka sama
jak w układzie sprzężenia zwrotnego z kamerą: początkowy
obraz jest wielokrotnie przetwarzany przez to samo urządze­
nie.
49
1.2. Kopiarka wielokrotnie redukująca
1.2. K op iark a w ie lo k r o tn ie r e d u k u ją c a
Zajmijmy się
nam rozwinąć
trii fraktalnej.
eksperymentu
teraz grupą eksperymentów, które pozwolą
intuicje związane z pojęciami języka geome­
W pewnym sensie stanowią one kontynuację
sprzężenia zwrotnego z kamerą.
K opiarka
redukująca
Rysunek 1.11: Iteracje kopiarki redukującej zastosowanej do
portretu Carla Friedricha Gaussa (1777-1855)
Rozważmy najpierw urządzenie kopiujące, które ma moż­
liwość pomniejszania. Jeżeli weźmiemy jakiś rysunek, wło­
żymy go do urządzenia i naciśniemy guzik, to otrzymamy
jego kopię. Będzie ona przedstawiała wyjściowy rysunek po­
mniejszony jednorodnie o, powiedzmy, 50%, czyli dwukrot­
nie. Kopię tę możemy określić, używając matematycznego
języka, jako figurę podobną do oryginału. Proces prowadzący
do powstania tego typu kopii nazywamy przekształceniem
podobieństwa lub podobieństwem. Użyty w schemacie przed­
stawionym na rysunku 1.6 wytworzy on układ sprzężenia
zwrotnego8, którego działanie w długim czasie jest łatwe do
przewidzenia: po około dziesięciu cyklach obraz nasz, ule­
gając stopniowemu zmniejszaniu, zamieni się w punkt. In­
nymi słowy, użycie tego urządzenia to strata papieru (zob.
rysunek 1.11).
Zmodyfikujemy teraz to podstawowe ustawienie. Przy­
pomnimy, że podstawowym zadaniem naszego urządzenia
jest pomniejszanie obrazu. Pomniejszenie takie otrzymu­
jemy za pomocą układu soczewek. Jako prostą modyfikację
standardowego urządzenia wyobraźmy sobie, że nasza ko8 Czytelnik powinien spróbować odnaleźć jednostki wejścia i wyjścia
oraz procesor.
50
1. Podstawa geometrii fraktalnej
piarka m a nie jedną, a wiele soczewek redukujących. Może
ich być 2, 3, 7 lub 14 532 231, czy też inna dowolna liczba.
Każda z soczewek jest skierowana na obiekt do kopiowania,
pomniejsza go, a następnie umieszcza w pewnym miejscu na
papierze. Schemat takiego urządzenia ma określoną liczbę
soczewek, czynników redukcji oraz określone miejsce umie­
szczenia kopii. Definiuje to konkretny system sprzężenia
zwrotnego, który możemy uruchomić i zobaczyć, co otrzy­
mamy. Takie urządzenie będziemy nazywali kopiarką wielo­
krotnie redukującą, w skrócie KWR.
K opiarka
w ielok rotn ie
redukująca
R y su n e k 1 .12 : Kopiarka wielokrotnie redukująca (KWR): pro­
cesor jest wyposażony w trzy systemy soczewek
Na rysunku 1.12 pokazujemy pierwszy przykład takiej
KWR, mającej tylko trzy soczewki, z których każda po­
mniejsza o 50%, czyli dwukrotnie.
Jaki będzie wynik iteracji przy użyciu takiej kopiarki w
pętli sprzężenia zwrotnego? Czy to, co ujrzymy, będzie po
prostu układem coraz mniejszych obrazów, które będą dążyć
do punktu? Rysunek 1.13 dostarcza zaskakującej odpo­
wiedzi, której konsekwencje mogą potencjalnie zrewolucjo­
nizować nasze rozumienie techniki kopiowania. Zacznijmy
może od prostokąta jako obrazu próbnego. Przetworzymy go
przez nasze urządzenie do kopiowania. Otrzymamy trzy po­
mniejszone kopie, które pokolorujemy w zależności od tego,
który układ soczewek przetworzył obraz wyjściowy.
51
1.2. Kopiarka wielokrotnie redukująca
P ro sto k ą t p od
działaniem
KW R
Rysunek 1.13: Iteracje wychodzące od prostokąta doprowadzają
do trójkąta Sierpińskiego. Rysunek przedstawia pierwszych pięć
kroków oraz (w prawym dolnym rogu) rezultat pewnej większej
liczby iteracji
Następnie zobaczymy 3 x 3 = 9 pomniejszonych kopii P ierw szy znak:
prostokąta, potem 3 x 9 = 27 jeszcze mniejszych kopii, po- trójkąt
tern 81,243, 729 itd. Wielkość tych kopii gwałtownie maleje, Sierpiń sk iego9
ale składają się one na obraz, który wcale nie zanika, dążąc
do punktu. Zamiast tego obraz ten kształtuje się w przy­
bliżenie trójkąta Sierpińskiego. Trójkąt Sierpińskiego jest
fraktalem, którego będziemy często używać. Ma on wiele
istotnych z punktu widzenia geometrii fraktalnej cech. Jeżeli
użyjemy jako przenośni zasad języka, możemy powiedzieć,
że wprowadziliśmy właśnie pierwszy znak naszego nowego
dialektu fraktalnego. Z tego, co do tej pory napisaliśmy,
wynika jasno, że ta podstawowa zasada pozwoli stworzyć
nieskończenie wiele różnych obrazów. Trzeba tylko prze­
stroić naszą kopiarkę tak, by miała 4, 5, czy jakąś inną liczbę
układów soczewek oraz różne czynniki redukcji. Zajmiemy
się bardziej systematycznie tym problemem w rozdziałach 5
i 6. Istnieją jednak dwa zaskakujące fakty, które zasługują
na wstępne omówienie w tym miejscu.
Jeśli przyjrzymy się raz jeszcze rysunkowi 1.13, to skłonni
jesteśmy uwierzyć, że przyczyną tendencji, która powoduje
tworzenie się trójkąta Sierpińskiego, jest wybór prostokąta
o odpowiednich rozmiarach jako obrazu początkowego dla
naszego układu sprzężenia zwrotnego. Zależność ta nie jest
jednak prawdziwa, co udowodnimy biorąc za obraz wyjściowy
9 Trójkąt Sierpińskiego nazywany jest czasem uszczelką Sierpińskie­
go — przyp. th im .
52
1. Podstawa geometrii fraktalnej
D ziałan ie K W R
na skrót
„ N C T M ” oraz
na inne k ształty
R y su n e k 1.14:
Możemy zacząć od dowolnego kształtu —
urządzenie to zawsze doprowadzi do trójkąta Sierpińskiego
trójkąt czy dowolny inny obraz, jak na przykład napis NCTM
(jest to skrót nazwy amerykańskiego stowarzyszenia nau­
czycieli matematyki, National Council of Teachers of Mathematics — przyp. tłum.). Można zapytać, co będzie re­
zultatem naszego procesu? Rysunek 1.14 daje nam odpo­
wiedź na to pytanie. W trakcie działania procesu sprzężenia
zwrotnego zawsze otrzymujemy przybliżenia tej samej fi­
gury. W każdym kroku otrzymujemy zbiór obrazów, których
wielkość gwałtownie maleje. Nie liczy się, czy obrazy były
prostokątami, trójkątam i czy literami NCTM, w każdym z
tych przypadków osiągana jest ta sama figura końcowa —
trójkąt Sierpińskiego. Oznacza to, że nasza kopiarka wy­
twarza jeden i tylko jeden obraz końcowy i to niezależnie
od obrazu, z którego wystartowała. Zachowanie to wydaje
się niezwykłe, jednak w języku matematyki można je opisać
po prostu jako stabilność. Oznacza to, że rozważany pro­
ces ma taką własność, że jego rezultaty dążą do jednego
końcowego obiektu, który jest niezależny od tego, jak zapo­
czątkowaliśmy proces.
Następnym ciekawym faktem jest to, że posługując się
pojęciem kopiarki, możemy odtwarzać nie tylko takie ma­
tematyczne dziwolągi, jak trójkąt Sierpińskiego i jemu po­
dobne (niedługo wprowadzimy ich więcej). Jakie obiekty
możemy otrzymać w ten sposób? Dla wielu naturalnych
form istnieje urządzenie kopiujące, które prowadzi do po­
wstania tego właśnie kształtu. Jak skonstruować takie urzą­
dzenie? Nie jest to proste zadanie.
Niemniej jednak
w rozdziale 5 wprowadzimy niekóre zasady tworzenia takich
1.2. Kopiarka wielokrotnie redukująca
urządzeń. Próbując znaleźć rozwiązanie tego problemu, do­
trzemy do granic poznania współczesnej matematyki.
Istota rzeczy polega na dostrzeżeniu różnorodności obiek­
tów możliwych do uzyskania przy użyciu bardzo prostego
układu sprzężenia zwrotnego, którego param etram i możemy
łatwo manipulować i które są całkowicie pod naszą kontrolą,
a więc zupełnie inaczej niż w przypadku sprzężenia zwrot­
nego z kamerą.
W naszym pierwszym przykładzie każdy układ soczewek P rzejście od
działał jak przekształcenie podobieństwa, tzn. prostokąt był p od ob ień stw a
przekształcany na prostokąt, trójkąt o danych kątach na do afiniczności
trójkąt o takich samych kątach i tak dalej. Jedyną rzeczą,
która ulegała zmianie była wielkość obrazu. Dla każdych
dwóch punktów wyjściowego obrazu ich odległość w kopii
jest zmniejszona o stały czynnik w porównaniu z ich odlegością w oryginale. Jednym z możliwych uogólnień jest
dopuszczenie, by współczynnik zmniejszania mógł być różny
w różnych kierunkach. Na przykład system soczewek może
pomniejszać dwukrotnie w kierunku poziomym, a trzykrot­
nie w kierunku pionowym. W rezultacie załamie się podo­
bieństwo: kwadrat zostanie przekształcony na prostokąt,
trójkąt o danych kątach — na trójkąt o innych kątach.
W matematyce przekształcenie takie nazywa się afinicznym.
Podobieństwa i przekształcenia afiniczne znajdują się jednak
w tej samej klasie obiektów matematycznych: przekształceń
liniowych, tzn. takich przekształceń, które przekształcają
linię prostą w linię prostą. Dopiero po takim rozszerzeniu
możemy w pełni docenić potęgę używania urządzenia ko­
piującego (zob. rozdz. 5).
Występujące w świecie rzeczywistym układy soczewek P rzejście od
nie dają perfekcyjnego podobieństwa. W ykrzywiają obraz liniow ości do
w mniejszym lub większym stopniu. Krańcowym przykładem nieliniow ości
takiego zniekształcenia jest linia prosta, która przekształcona
przez soczewkę typu „rybie oko” staje się linią zakrzywioną.
W matematyce określamy to jako zjawisko nieliniowe. Prześ­
ledźmy to zjawisko na uproszczonym przykładzie.
Rozważamy liczby większe od 1. Jeśli pomnożymy je, na
przykład, przez czynnik 1/3, to otrzymamy podobieństwo.
Jeśli jednak będziemy rozważali branie pierwiastka kwadra­
towego, otrzymamy typowe zjawisko nieliniowe. Odcinek
pomiędzy 1 a 10 przechodzi na odcinek pomiędzy 1 a
~
3,16, podczas gdy odcinek pomiędzy 1 a 100, który jest 11
53
54
1. Podstawa geometrii fraktalnej
razy dłuższy niż odcinek pomiędzy 1 i 10, przechodzi na odci­
nek pomiędzy 1 a \/l0 0 = 10, który z kolei jest tylko około 4
razy dłuższy niż odcinek pomiędzy 1 a y/lÓ, Współczynnik
zmniejszania zmienia się i zależy od miejsca, gdzie działa
przekształcenie. Urządzenia kopiujące o układach soczewek
przekształcających nieliniowo rozważane są w rozdziale 12.
Prowadzą one do zbiorów Julii, jak również do zbioru Mandelbrota. Układy soczewek, które będziemy tam rozważać,
m ają jednak dodatkową cechę, w pewnym sensie związaną
z podobieństwami — zachowują kąty. Na rysunku 1.15
przedstawiono takie przykładowe przekształcenie.
P rzek szta łcen ie
nieliniow e
N [TM —
Kri
R y su n e k 1.15: Zespolony pierwiastek kwadratowy na płasz­
czyźnie w działaniu na litery NCTM. Zauważmy, że zachowywane
są kąty
1 .3 . P o d s ta w o w a k la sy fik a cja u k ła d ó w sp r z ę ż e n ia
z w r o tn e g o
Zajmiemy się obecnie układami sprzężenia zwrotnego, które
operują na liczbach. Zanim jednak zaczniemy omawiać po­
szczególne przykłady, przyjrzyjmy się ich ogólnym zasadom
działania.
Jeśli w układzie sprzężenia zwrotnego występuje zależ­
Z ależność p rosta
ność prosta, tzn. iteracja jest dana wzorem x n-i-i = f ( x n),
gdzie f ( x ) może być dowolną funkcją, to potrzebna jest zna­
jomość tylko jednej liczby na wejściu. W wyniku działania
funkcji otrzymujemy nową wartość — na wyjściu (np.
f ( x n) ~ x \ + 1). Wzór, jakim się posługujemy, może być
kontrolowany przez stały param etr (np. f ( x n) ~ :r^ + c), ale
wynik zależy tylko od wartości na wejściu. Wartości mają
wskaźniki, by móc określić czas (cykl), w jakim je otrzy­
mano.
Sprzężenie zwrotne o zależności prostej jest bardzo poży­
tecznym narzędziem w matematyce. W szczególności zostało
55
1.3. Klasyńkacja układów sprzężenia zwrotnego
U rząd zen ie
z zależnością
p rostą
Rysunek 1.16: Zasada działania urządzenia sprzężenia zwrot­
nego z zależnością prostą
ono rozwinięte do numerycznego poszukiwania rozwiązań
złożonych problemów. Podejście to ma co najmniej kilka
tysięcy lat.
N astępujący przykład sprzężenia zw ro tn eg o o zależności prostej opi­
suje algorytm znany m a te m a ty k o m sum eryjskim jakieś 4 0 0 0 la t te m u .
Jest on pięknym przykładem siły m etod i ciągłości idei w m atem a ty ce .
O d ta m te g o czasu cyw ilizacja przeżyw ała swoje w zlo ty i upadki, a je d ­
nak siła i piękno myśli m atem a ty czn ej przetrw ały.
Niech a > 0. C hcem y w yznaczyć ciąg
x 2, x % ,... w ten sposób,
by jego granicą był y/a, tzn . by x n zb liżał się do y/a w m iarę w zrostu
n. Poniżej pod ajem y sposób, w ja k i m ożna w yznaczyć ciąg x n . Z a ­
cznijm y od dow olnego x 0 > 0, a następne w y ra zy ciągu o b liczajm y
tak:
^n+l ~
2
(^n
^ J
71 = 0, 1, 2, ...
(l-l)
P rzyjrzyjm y sie przykładow i y/2. W y b ie rz m y na p o c zą te k xq = 2.
O trzy m a m y w ted y
i
12
=
K11
+ £ ) =
K1,5
+r s ) = i
= i ' 41666 -
i ta k dalej.
P rzyjrzym y się bliżej te j m eto d zie po to , by zrozum ieć, dlaczego
i ja k dobrze przybliża ona oczekiw an y w ynik. W p ro w a d źm y za te m
błąd względny en wartości x n, określony w zorem
X ji — (l
H- e-fi^y/a.
( 1 .2 )
S tarożytny
sposób obliczania
pierw iastka
kwadratowego
56
1. Podstawa geometrii fraktalnej
Po podstaw ien iu w rów naniu (1 .1 ) w yrażen ia (1 + e n ) \ / a w miejsce
x n o trz y m a m y
N astępnie, posługując się jeszcze raz definicją ( 1 .2 ), m ożem y w yrazić
błąd w zględny en+i następująco:
Z własności xq > 0 w yn ika, że eo > — 1 i d lateg o en > 0 dla n =
1, 2, 3 , . . . O trz y m u je m y więc, że x n > ^J~a dla w szystkich n > 0. Na
koniec m o żem y na po d staw ie zależności (1 .3 ) oszacować błąd. Jeżeli
opuścim y w m ian o w n iku liczbę 2, to o trz y m a m y
en+1 <
j
a jeżeli opuścim y 2en , o trz y m a m y
,
en+1
<
2
*
Pierw sza nierów ność i definicja en za p o m o cą rów nania (1 .2 ) dają
nam ciąg nierów ności
%1 > x 2 > #3 >
O zn ac za to , że granicą teg o ciągu je s t yfa. Z drugiej nierówności
o trzy m u je m y , że je ż e li en < 1 0 - n , to e n+ i < 1 0 - 2 n / 2 , tzn . każdy
następny w y ra z ciągu m a praw ie pod w ojoną liczbę popraw nych cyfr.
Pow yższy sposób na obliczan ie pierw iastka kw adratow ego je s t przy­
kładem ogólniejszej m e to d y zn ajd o w an ia ro zw iązań dla równań nieli­
niowych; m eto d a ta zo stała o d k ry ta w 4 0 0 0 la t później i nosi nazwę
metody Newtona.
M e to d y
sprzężenia
zw rotn ego z
zależn ością
d w u stop n iow ą
Układy sprzężenia zwrotnego z zależnością prostą repre­
zentują tylko szczególny rodzaj w rozbudowanej rodzinie me­
tod wykorzystujących sprzężenie zwrotne. Następną klasą są
metody o zależności dwustopniowej. Najczęściej stosowany
jest wzór
£n-(-l
— 9 { x n i %n—l ) *
57
1.3. Klasyfikacja układów sprzężenia zwrotnego
Jako przykład rozpatrzmy wzór generujący liczby Fibonacciego
'Sn—l) ~
"1“ ^n —1*
Leonardo Pisano, zn any ta k ż e ja k o F ib o n acci10, był w y b itn ą po­
stacią zachodniej m a te m a ty k i średniow iecznej. W ie le p od różow ał po
krajach basenu M o rza Ś ródziem nego, aby w końcu osiąść w swojej
rodzinnej Pizie. W roku 1202 opublikow ał dzieło Liber abaci, które
zm ieniło Europę. D zięki niem u E uropejczycy poznali cyfry arabskie,
takie ja k 0 , 1 , 2 , . . . W dziele ty m zo stał postaw iony rów nież problem ,
który od ta m te g o czasu w ciąż dostarcza natchnienia rzeszom m a te ­
m atyków . A o to ten problem . W czasie 0 urodziła się para królików .
Po miesiącu para ta osiąga dojrzałość i po następnym miesiącu w y­
daje na św iat następną parę i ta k dalej, tz n . co m iesiąc nowa para
królików je s t w ydaw ana na św iat przez pierwszą parę. Co więcej,
każda nowa para po miesiącu dojrzew a i zaczyna m iesięczną produk­
cję potom ków , i ta k bez końca. Zakład am y, że króliki żyją bez końca.
Jaka je s t liczba par po n m iesiącach?
B ądźm y ostrożni i prześledźm y ew olucję królików krok po kroku.
W naszej króliczej rodzinie w prow adźm y rozróżnienie pom iędzy dorosłymi i m łodym i param i królików . Św ieżo urodzona para je s t oczy­
wiście m łoda i dojrzew a po je d n y m m iesiącu. Para dojrzała w ydaje
na św iat co miesiąc parę m łodą. Niech M n i Dn będą o d p o w ie­
dnio liczbą m łodych i dojrzałych par królików po n m iesiącach. Po­
czątkow o, w czasie n — 0, m am y tylko je d n ą parę m łodych królików
(M o = 1, A ) “ 0 ), któ re po m iesiącu przechodzą w dojrzałe ( M i =
0 ?JDi = 1). Po dw óch m iesiącach dorosła para w y d aje na św iat
parę m łodą ( M 2 = 1,£>2 = 1)- I znow u po następnym m iesiącu.
Co więcej, para m łoda dorasta (M3 = 1 ,Z > 3 = 2). Reguła je s t na­
stępująca: liczba par m łodych Mn+1 je s t rów na liczbie par dojrzałych
w poprzednim m iesiącu, D n . Liczba par dojrzałych w zrasta o pary
m łode z poprzedniego m iesiąca, Mn. D lateg o następujące dw a w zory
opisują całkowicie dynam ikę rozw oju króliczej rodziny
■^n+l —Fni
F n+i —L)n +
(1 .4 )
Jako w arunki początkow e ustalim y M o — 1 , A ) — 0. Z pierw ­
szego z powyższych rów nań o trzym u je m y , że M n = Dn- \ . P o d ­
staw iając tę zależność do drugiego rów nania, o trz y m u je m y £>n+ i =
L>n +
przy założeniu, że D0 = 0,D i = 1. T o pojedyncze
rów nanie opisuje całkow itą wielkość populacji królików . W y k o rz y ­
10 Filius (=syn) Bonacciego.
Ciąg
Fibonacciego
i rozmnażanie się
królików
58
1. Podstawa geometrii fraktainej
stu jąc ten w zó r, o trz y m u je m y natych m iast liczbę par w kolejnych
generacjach królików :
0,1,1,2,3,5,8,13,21,34,55,89,144,233,...
K ażda liczba w ty m ciągu je s t sum ą je j dw óch poprzedników . Ciąg
ten nosi nazw ę ciągu Fibonacciego.
Pow yższy problem je s t przykładem układu sprzężenia zw rotnego.
R óżni się on je d n a k zn acznie od poprzedniego przykładu. W e w szyst­
kich pętlach sprzężenia zw ro tn e g o , ja k ie rozpatryw aliśm y do te j pory,
stan system u w ch w ili n był w yzn aczo n y tylko przez stan bezpośrednio
go poprzedzający, w chw ili 7^ — 1. T a k ie układy nazyw am y układami
z zależnością prostą. W przypadku ciągu Fibonacciego stan w chwili
n + 1 zależy za ró w n o od stanu w chw ili n , ja k i w chwili n —1. Takie
układy n azyw ają się układami o zależności dwustopniowej. Prosto
i niew innie w y g lą d a ją c y ciąg Fibonacciego m a w iele interesujących
w łasności. N ap isan o o nim tysiące arty ku łó w , istnieje naw et stow a­
rzyszenie Fibonacci Association w ydające w łasne pism o Fibonacci
Quartely, w k tó ry m publikow ane są ciągle nowe fa k ty zw iązane z tym
problem em .
Jedna z własności, któ rą przedstaw iam y poniżej, była znana ju ż
od daw na, a o s ta tn io doprow adziła do zad ziw iających odkryć w bio­
logii. P rzez w iele w ie k ó w w yw ierała ona rów nież w ielki w pływ na
a rc h ite k tu rę i sztukę.
Jest jasne, że ciąg Fibonacciego m oże rosnąć bez ograniczenia.
W pop ulacji kró likó w następuje eksplozja. M o ż e m y je d n a k zapytać,
w ja k i sposób ten niesłychany w zrost następuje, pokolenie po pokole­
niu. W celu zn alezien ia odp ow ied zi na to pytanie p rzyjrzyjm y się raz
jeszcze liczbom Fibonacciego i zn a jd źm y ilo razy przyrostu kolejnych
generacji (w y n ik za o k rą g lim y do sześciu m iejsc po przecinku).
n
1
2
3
4
5
6
7
8
9
10
11
12
13
Dn
1
1
2
3
5
8
13
21
34
55
89
144
233
Dn+ i/D n
1/1
2/1
3/2
5/3
8/5
13/8
21/13
34/21
55/34
89/55
144/89
233/144
377/233
w zapisie dziesiętnym
1,0
2,0
1,5
1,666666
1,6
1,625
1,615385
1,619048
1,617647
1,618182
1,617978
1,618056
1,618026
59
1.3. Klasyfikacja układów sprzężenia zwrotnego
N ajw yraźniej zbliżam y się w ten sposób do pew nej liczby. M o ż e w i­
dzieliście tę tajem n iczą liczbę
1.618033988749894848820...
ju ż wcześniej? A jeśli przedstaw im y ją tak:
1.61803398... = 1 + ^
¿á
?
Jest to słynna złota średnia, proportio divina11, nazw ana ta k w śred­
niowieczu. Liczba ta inspirowała m a te m a ty k ó w , astro n o m ó w i filo­
zofów ja k żadna inna w historii m a te m a ty k i.
Może się wydawać, że nie można stosować metod dla
układów sprzężonych do układów o zależności dwustopnio­
wej, o których dyskutowaliśmy do tej pory. Przecież wartość
na wyjściu, £n+i, zależy nie tylko od wartości w poprzednim
kroku,
ale również od poprzedzającej ją, czyli x n- \ . W
tym przypadku naturalne wydaje się zmodyfikowanie bu­
dowy naszego urządzenia sprzężenia zwrotnego tak, by wpro­
wadzić pewien rodzaj pamięci przechowującej informację po­
chodzącą z poprzednich cykli.
Urządzenia z pamięcią są charakterystyczne dla ery komputerów. Podczas gdy maszyna nie m ająca pamięci reaguje na dane warunki początkowe zawsze tak samo, reakcja
urządzenia z pamięcią może zależeć albo od stanu, w jakim
się znajduje, albo od zawartości pamięci w danej chwili. Jako
ilustrację tej własności rozważmy autom at do sprzedaży na­
pojów. Nie będziemy mogli zaspokoić pragnienia tylko przez
naciśnięcie guzika. Najpierw trzeba wrzucić odpowiednią
ilość pieniędzy, by maszyna znalazła się w odpowiednim sta­
nie do przyjęcia polecenia.
Rozszerzmy nasze pojęcie urządzenia sprzężenia zwrot­
nego przez wyposażenie procesora w jednostkę pamięci we­
wnętrznej. Wtedy iterację z dwustopniową zależnością,
x n+\ = g(%n,Xn- 1 )? można przedstawić następująco. N aj­
pierw zauważmy, że do rozpoczęcia działania układu wyma­
gane są dwie wartości początkowe: xo i x\.
Przygotowanie: Wartość początkowa jednostki pamięci
jednostki wejścia x\.
11 złoty stosunek (łac,).
xq,
U kład y
sprzężenia
zw rotn ego
z pam ięcią
60
1. Podstawa geometrii fraktalnej
Iteracja:
Wyliczenie xn+i = g(xn, xn_i), gdzie x n po­
chodzi z jednostki wejścia, a x n_i z pamięci.
Następnie wprowadzenie x n do jednostki pa­
mięci.
Wydawać by się mogło, że układy sprzężenia zwrotnego
z pamięcią powinny nadawać się lepiej do modelowania pew­
nych zjawisk. Jednak wcale tak nie jest. Urządzenie z pa­
mięcią można przedstawić przecież w sposób równoważny
jako urządzenie z zależnością prostą, które działa na we­
ktorach. Wejście i wyjście można podawać w postaci par,
trójek, czwórek itd. liczb. Oznacza to, że para zmiennych
na wejściu (xn, x n_i) generuje parę zmiennych na wyjściu
( X n + 1 1X T1) .
Wprowadźmy nową zmienną yn = xn_i i zastąpmy wzór
U rząd zen ia
z zależn ością xn+i = g( xn, x n- 1 ) równoważną mu parą równań
p rostą
Xn+1 =
d ziałające na
UnĄ-l — Xndw óch
zm ienn ych
Ten sposób podstawiania można łatwo uogólnić. Na przykład
załóżmy, że wzór, który wyznacza sprzężenie zwrotne, zależy
od k poprzednich iteracji. Możemy wtedy zapisać ten wzór
jako proces o zależności prostej dany przez zbiór k wzorów.
W ystarczy wprowadzić k zmiennych niezależnych. Zwykle
zmienne niezależne są łączone w wektor zmiennych. Na
przykład parę (xn, yn) można zapisać jako nową, pojedynczą
zmienną Z n. Co więcej, możemy też w nowy sposób przed­
stawić wzory xn+i = g( xn, y n), yn+\ — x n jako jeden wzór
1 — G( Zn). Oznacza to, że nie musimy rozwijać nowych
metod do badania układów o zależnościach złożonych. Mo­
żemy użyć metod już istniejących dla zależności prostych.
P ę tla o dw óch
krokach
Rysunek 1.17:
Pętle o dwóch krokach są specjalnym przy­
padkiem urządzeń sprzężenia zwrotnego o zależności prostej dla
dwóch zmiennych
1.3. Klasyfikacja układów sprzężenia zwrotnego
R ozw ażm y przykład liczb Fibonacciego. M o że m y je zdefiniow ać sto­
sując zależność złożoną
D n -\-\
~
9 { & n i D n —l )
”
“ I”
61
P r o b le m ew o lu cji
k ró lik ó w jak o
z a le ż n o ść p r o sta
1?
gdzie Do = 0 i D\ = 1. R ów now ażne rów nania dla zależności prostej
dla układów par (xn,y n) są następujące:
•^n+l Xn ym
2/n+l = Xn,
z w artościam i p o czątkow ym i xo = 0 i yo = 1. Jest to dokładn ie to
samo, co o trzym aliśm y w cześniej, p o d staw iają c x n — D n i yn = M n .
Używaliśmy skróconego oznaczenia G( xn) dla całego zbio­
ru wzorów, wykorzystywanych w procesorze. Pozwalało to
na stosunkowo prosty zapis złożonych zależności w układach
sprzężenia zwrotnego. Wzór G( xn) może jednak być nie­
jednorodny jak w następującym przykładzie, istotnym dla
rozważań w rozdziale 2 i 10:
U kład y
0 zależności
prostej
1 w zorach
niejednorodnych
_ J axn,
jeśli x n < 0, 5
Xn~hl
| a (l —xn), jeśli x n > 0,5.
a oznacza tu taj param etr, np. a = 2 czy a = 3. W ta ­
kim przypadku nie będziemy wprowadzać dwóch urządzeń
sprzężenia zwrotnego i dodatkowego połączenia, zapiszemy
powyższy wzór jako jeden: x n+i = / ( x n), gdzie / jest prze­
kształceniem, którego wykres przedstawiono na rysunku 1.18.
P rzek ształcen ie
o w ykresie
w k ształcie
n am iotu
R y su n ek 1.18: Przekształcenie o wykresie w kształcie namiotu
dane jest przez f( x ) = ux, jeśli x < 0,5, oraz —ax -f a, jeśli
x > 0 , 5 . W tym przypadku wybraliśmy 3 jako wartość parametru
62
P r o b l e m ( 3 A 4- 1)
1. Podstawa geometrii fraktalnej
U ży w a ją c bardzo prostej zasady, przedstaw im y te ra z algo rytm , który
w y tw a rza ciąg liczb całkow itych, ale którego przebieg nie zo stał je ­
szcze do końca zrozum iany. A o to je g o definicja w prow adzona przez
L o thara C o llatza .
K ro k 1: W y b ie rz dow olną liczbę n a tu raln ą A .
K ro k 2: Jeśli A — 1, S T O P .
K ro k 3: Jeśli A je s t parzysta, za s tą p A przez A /2 i przejdź do kroku
2.
K ro k 4: Jeśli A je s t nieparzysta, to zastąp A przez 3^4 + 1 i przejdź
do kroku 2.
P rzy jrzy jm y się kilku przebiegom tego algo rytm u dla różnych
A:
• 3, 10, 5, 16, 8, 4, 2, 1, S T O P
• 34, 17, 52, 26, 13, 40, 20, 10, 5, 16, 8, 4, 2, 1, S T O P
• 75 , 2 2 6 , 113, 3 4 0 , 170, 85 , 2 5 6 , 128, 64, 32, 16, 8, 4, 2, 1, S T O P
W y d a je się oczyw iste, że niezależnie od doboru wartości A al­
g o rytm za trzy m a się. M o żn a zaobserw ow ać, że im większe A , tym
w ięcej m usim y w ykon ać kroków , by się za trzy m a ć . P rzy jrzy jm y
się
je d n a k przebiegow i alg o ry tm u dla A = 27.
• 27, 8 2 , 41 , 124, 62, 31, 94 , 4 7 , 142, 71, 214, 107, 322, 161, 48 4,
2 4 2 , 121, 3 6 4 , 182, 91 , 2 7 4 , 137, 412, 2 0 6, 103, 3 1 0 , 155, 46 6,
23 3 , 7 0 0 , 3 5 0, 175, 5 2 6 , 263, 7 9 0 , 395, 1186, 593, 1780, 890,
4 4 5 , 13 36 , 668, 3 3 4, 167, 5 0 2 , 2 5 1, 754, 377, 11 32 , 5 6 6 , 283, 850,
4 2 5 , 12 76 , 6 3 8, 3 1 9 , 9 5 8 , 4 7 9 , 14 38 , 719, 2 1 5 8 , 1079, 32 38 , 1619,
4 8 5 8 , 2 4 2 9 , 7 2 8 8 , 3 6 4 4 , 18 22 , 9 1 1 , 2 7 3 4 , 1367, 4 1 0 2 , 20 51 , 6154,
3 0 7 7 , 9 2 3 2 , 4 6 1 6 , 2 3 0 8 , 11 54 , 5 7 7 , 1732, 8 6 6 , 4 3 3 , 1300, 65 0,
3 2 5 , 9 7 6 , 4 8 8 , 2 4 4 , 122, 61 , 184, 92, 46, 23, 70, 35, 106, 53, 160,
80 , 40, 20 , 10, 5, 16, 8, 4, 2, 1, S T O P
O czyw iście m yliliśm y się. Z pow yższego przykładu w ynika d o d a t­
kowo, że o d p o w ied ź na pierwsze pytanie nie je s t w cale ta k oczyw ista.
C zy rzeczyw iście ciąg ten musi się zawsze zakończyć? O ile nam
w iad o m o , problem ten pozostaje ciągle nie rozw iązany. Zostało to
co praw da spraw dzone przy użyciu ko m putera dla liczb m niejszych
od A = 1 0 9 . P rzepro w ad zen ie teg o testu nie było rów nież zad a­
niem ła tw y m , pon iew aż w czasie obliczeń w yrazy ciągu m ogą prze­
kroczyć naw et najw iększe dopuszczalne liczby, ja k ie ko m puter m oże
sensownie przedstaw ić. D la te g o te ż pew ne zm ienne procedury, po­
w iększające zakres liczb reprezentow anych przez kom puter, m uszą
zostać sp ecjalnie w łąc zo n e do rozw iązan ia te g o problem u.
i .ó .
r\ia sy n K a cja UKtaaow sp rzę że n ia zw ro tn eg o
uo
Powyższy algorytm m ożem y z łatw ością rozszerzyć na ujem ne
liczby całkow ite. A o to kilka przykładów :
•
•
•
•
•
- l t - 2 , - 1 , - 2 , ...C Y K L o długości 2
- 3 , - 8 , - 4 , - 2 , - 1 , ...w p ad a w C Y K L o długości 2
- 5 , - 1 4 , - 7 , - 2 0 , - 1 0 , - 5 , - 1 4 , ... C Y K L o długości 5
- 6 , - 3 , - 8 , - 4 , - 2 , - 1 , ... w pada w C Y K L o długości 2
- 9 , - 2 6 , - 1 3 , - 3 8 , - 1 9 , - 5 6 , - 2 8 , - 1 4 , - 7 , - 2 0 , ... w p ad a w C Y K L
o długości 5
• - 1 1 , - 3 2 , - 1 6 , - 8 , - 4 , - 2 , - 1 , ... w pada w C Y K L o długości 2
Pow staje pytanie, czy istnieją inne cykle? O tó ż tak:
• -1 7 , -5 0 , -2 5 , -7 4 , -3 7 , -1 1 0 , -5 5 , -1 6 4 , -8 2 , -4 1 , -1 2 2 , -6 1 ,
-1 8 2 , - 9 1 , 272, - 1 3 6 , - 6 8 , - 3 4 , - 1 7 , ... C Y K L o długości 18.
Jeżeli zm ien im y nasz algo rytm ta k , że zlik w id u je m y S T O P w kro­
ku 1, to o trzy m a m y dla A = 1:
• 1, 4, 2, 1, C Y K L o długości 3,
a jeśli dopuścim y A — 0:
• 0, 0 ,...C Y K L o długości 1.
Po ta k w prow adzonych popraw kach m ożem y zapisać nasz algo­
rytm ja k o system sprzężenia zw ro tn eg o ja k następuje:
_
n+1
( x n/2,
3xn + 1,
jeśli x n je s t liczbą parzystą,
jeśli x n je s t liczbą nieparzystą.
M ożna więc ogólnie zapytać: ja k ie cykle są m ożliw e w ty m u kła­
dzie sprzężenia zw ro tn eg o i czy w ybór x$ zaw sze doprow adzi do ciągu,
który po pew nym czasie w padnie do któregoś z takich cykli? W y d a je
się, że pytanie to nie je s t bardzo tru d n e i że o d p o w ied ź w ta k rozw i­
niętej gałęzi nauki, ja k ą je s t m a te m a ty k a , pow inna być zn ana, albo
co najm niej m ożliwa do uzyskania przy użyciu istniejącego ap aratu .
O tó ż nie! Jest to przykład na to , że w m a te m a ty c e je s t jeszcze w iele
do zrobienia oraz ta k że na to , że prosto w yg ląd a ją ce problem y nie
zawsze są równie proste do rozw iązan ia.
Innym przykładem, o wiele bardziej zaskakującym i wymagającym ostrożności, jest kopiarka redukująca z poprzedniego paragrafu. Można ją też traktować jako urządzenie
sprzężenia zwrotnego o prostej zależności, opisane pojedynczym wzorem £n+i = F ( x n). W tym przypadku F jest nazywane operatorem Hutchinsona. Przypadkowi temu przyj­
rzymy się dokładniej w rozdziale 5.
K opiarka
redukująca jako
urządzenie
z zależn ością
p rostą
64
L Podstawa geometrii fraktalnej
R u letk a
Wszystkie rozważane do tej pory urządzenia były ściśle
deterministyczne. Teraz zajmiemy się urządzeniem, które
łączy determinizm z losowością. Podobnie jak w poprze­
dnich przykładach, jednostka przetwarzająca (procesor) za­
wiera pewne wzory. Dodatkowo jednak mamy do czynie­
nia z ruletką, wykorzystywaną do losowego wyboru wzoru,
który zostanie użyty w danym kroku. Liczba (lub para
liczb) na wejściu po przekształceniu za pomocą losowo wy­
branego wzoru da nam nową liczbę na wyjściu. Wzór, jaki
zastosujemy, jest wybierany losowo dla każdego kroku pro­
cesu sprzężenia zwrotnego. Czyli na to, co otrzymamy na
wyjściu, ma wpływ nie tylko to, co znalazło się na wejściu.
Podobnie działo się w urządzeniach z pamięcią. Niestety,
nie możemy w żaden sposób przekształcić naszego procesu
tak, by otrzymać (deterministyczne) urządzenie o prostej
zależności. Jeśli liczba wzorów wynosi 7V, to ruletka ma
N pól do wyboru, po jednym dla każdego wzoru. Ponu­
merowane pola m ają zróżnicowaną wielkość, odpowiadającą
prawdopodobieństwom wyboru danego wzoru. Urządzenia
tego typu pom agają w znalezieniu skutecznych metod de­
kodowania obrazu, zakodowanego przy wykorzystaniu urzą­
dzenia do kopiowania. Będziemy się tym zajmowali w roz­
dziale 6.
R uletk a
Gra w chaos
Z a jm ie m y się obecnie fascyn ującym i konsekw encjam i w prow adzenia
kopiarki w ie lo k ro tn ie red u k u jąc ej. Będzie to jednocześnie następny
przykład w spółgrania chaosu i fra k ta li.
O to gra nazw ana przez M . F. Barnsleya grą w chaos. Na pierw ­
szy rzu t oka nie m a ona zw ią zk u z chaosem i fra k ta la m i. O piszm y
i .ó .
j\ia sy n K a c ja U Kiaaow sp rzę że n ia zw ro tn eg o
najpierw reguły te j gry. W rzeczywistości nie je s t to jed n a gra, ale
nieskończenie w iele gier. P odlegają one je d n a k ty m sam ym zasadom .
R zucam y kostką do gry i w y b ieram y ja k ą ś spośród prostych reguł.
A oto przykładowa gra:
Przygotow anie: W e ź m y kartkę papieru i ołów ek. Z a zn a c z m y na
papierze trz y punkty, któ re po n u m eru jem y 1, 2, 3 i nazyw ać będziem y
bazami W e ź m y kostkę do gry, by m óc w ybrać losowo liczby 1 ,2 i 3.
Łatw o m ożna w yprodukow ać ta k ą kostkę. Jeśli w e źm iem y zw ykłą
kostkę do gry, w ystarczy podstaw ić za szóstkę jedynkę, za p iątkę
dwójkę, a za czw órkę tró jkę.
Zasady: N a p o c zą tk u gry w yb ierzm y dow olny p u n kt na kartce
i zazn aczm y go przez postaw ienie kropki. N a z w ijm y go punktem
wiodącym. N astępnie rzućm y kostką. Jeśli, na przykład, o trz y ­
m aliśm y liczbę 2, w y zn a czam y odcinek pom iędzy p u n ktem w io d ącym
i bazą o num erze 2 oraz zazn aczam y p u n kt dokładn ie w środku teg o
odcinka, tzn . dokładn ie w połow ie pom iędzy p u n ktem w io d ącym
i bazą 2. Będzie to now y p u n kt wiodący. W ten sposób zakończyliśm y
pierwszą kolejkę gry. T e ra z zn ów rzucam y kostką, by w sposób losowy
o trzym ać liczbę 1 ,2 lub 3, i w zależności od rezu ltatu w yznaczyć nowy
pun kt w iodący w połow ie pom iędzy poprzednim pu n ktem w io d ącym
a losowo w ybraną bazą.
Rysunek 1.20:
Trzy punkty bazowe (wierzchołki trójkąta) oraz
kilka pierwszych iteracji punktu w iodącego
Na rysunku 1.2 0 pokazano kilka pierwszych w yn ikó w gry. Z a z n a ­
czono kolejne punkty w iodące w kolejności ich pow staw ania, xq,x\,
X2 , ... To, co opisaliśm y pow yżej, je s t tylko bardzo prostym sposobem
generowania losowych p u n któ w na płaszczyźnie i nie w yd aje się spe­
cjalnie fascynujące. N asze podejście się je d n a k g w ałtow n ie zm ieni,
gdy dostrzeżem y, co pojaw ia się w w yniku działania teg o prostego
układu sprzężenia zw rotnego.
66
1. Podstawa geometrii fraktalnej
C zy m o żem y przew idzieć, co o trz y m a m y ja k o re z u lta t dużej liczby
pow tórzeń te j gry, tzn . ja k i obraz w yłoni się z p u n k tó w x o , x i , . . . ,
£ 1000? Z au w ażm y, że jeśli p u n kt w io d ą cy raz dostanie się do w nętrza
tró jk ą ta w yzn aczo n eg o przez trz y p u n kty bazowe, proces nasz pozo­
stan ie ta m na zaw sze. Co więcej, s ta rtu ją c z dow olnego punktu kartki
p u n kt w io d ą cy zaprow adzi nas do w n ętrza tego tró jk ą ta . Poniew aż
losowo g en eru jem y p u n kty w io d ące, więc w ydaw ałoby się, że w rezul­
ta c ie o trz y m a m y losowy rozkład p u n któ w , w pew ien sposób rozrzuco­
nych pom iędzy b azam i 1, 2 i 3. R ozkład p u n któ w będzie rzeczywiście
losowy, ale obraz, k tó ry utw orzą pun kty — nie (zo b . rysunek 1 .2 1 ).
N ie je s t on w cale losowy. D o s trze g am y w y ra źn ie zarysow ujący się
tró jk ą t Sierpińskiego. Jest to o b ie kt niesłychanie uporządkow any —
całko w ite przeciw ieństw o obiektu losowego.
W yniki gry w
chaos
Rysunek 1.21: 500, 1000, i 1500 punktów wygenerowanych za
pomocą gry w chaos
W ty m m om encie m oże nam się w ydaw ać, że działa tu siła wyższa
lub je s t to po prostu d ziw n y zbieg okoliczności — ale ta k nie jest.
K a żd y obraz, k tó ry m o żem y o trzy m a ć przy użyciu kopiarki redu­
ku jącej, m ożna te ż o trz y m a ć ja k o w yn ik specjalnie dostosowanej we­
rsji gry w chaos. C o w ięcej, je s t to sposób na przyspieszenie genero­
w ania o b razu . Gra w chaos je s t te ż kluczem do rozszerzenia pojęcia
kodow ania o b razu , nad któ rym dyskutow aliśm y przy om aw ianiu ko­
piarki w ie lo k ro tn ie redukującej. M o ż e m y za je j pom ocą skalować
odcienie szarości, a naw et tw orzyć obrazy barw ne. B ędziem y to o m a­
w iać w rozdziale 6, któ ry będzie rów nież zaw ierać podstaw y teorii
praw d opod obieństw a — ale ta k ie j z pięknym i niespodziankam i.
1.4. przypowieść o paraoou
1.4. P r z y p o w ie ść o p a r a b o li alb o: n ie u faj
k o m p u te r o m
Przyjrzyjmy się teraz iteracjom przekształceń kwadratowych.
Najpierw wprowadźmy do naszego schematu iteracyjnego
wyrażenie x 2 + c. x i c są tu taj liczbami, m ają jednak różne
znaczenie. Iterowanie tego wyrażenia dla ustalonego (konIterow anie
funkcji
kw adratow ej
R y s u n e k 1 .2 2 : Iterow anie funkcji kwadratowej jako urządzenie
sprzężenia zw rotnego. Procesor został zaprogram ow any tak, aby
przy danych x i c obliczał x 2 + c
trolującego) param etru c oznacza co następuje. Zacznijmy
od jakiejś liczby x, obliczmy wartość naszego wyrażenia,
a następnie zanotujmy wynik, tak by stał się on nową war­
tością x. Następnie znów obliczmy wartość wyrażenia, i tak
dalej. Przyjrzyjmy się przykładowi:
Przygotowanie: Ustalmy param etr c, powiedzmy c — —2.
Następnie wybierzmy liczbę x, na przykład
x = 0, 5.
Iteracja:
Policzmy wartość wyrażenia dla x, otrzy­
mamy 0,25 —2 — —1,75.
Teraz to powtórzmy, tzn. wyznaczmy wartość wyrażenia,
używając pierwszego wyniku jako nowej wartości x, czyli
wyznaczmy wartość dla x = —1,75. Otrzymamy 1,0625 itd.
Poniższa tabela przedstawia wyniki dla pierwszych czterech
iteracji:
X
x2 + c
0,5
-1,75
1,0625
-0,87109375
-1,75
1,0625
-0,87109375
-1,2411956787109375
68
1. Podstawa geometrii fraktalnej
Już po czterech powtórzeniach natykamy się na poważny
problem. Ponieważ podnosimy do kwadratu, liczba miejsc
znaczących po przecinku, potrzebnych do przedstawienia
kolejnych wyników, podwaja się w każdym kroku. Unie­
możliwia to otrzymanie dokładnych wyników dla więcej niż
kilku iteracji, gdyż komputery i kalkulatory reprezentują
liczby tylko z pewną określoną, a na pewno skończoną, liczbą
miejsc po przecinku.12
C zy liczą się
Jest to oczywiście powszechny problem w obliczeniach
n iew ielk ie przeprowadzanych na komputerze czy na kalkulatorze. Naj­
różn ice ? częściej jednak nie musimy brać tego pod uwagę. W yda­
wałoby się, że potęga komputerów jest tak wielka, że takie
niewielkie różnice naprawdę się nie liczą. Na przykład, jeżeli
obliczamy 2 * (1/3), najczęściej nie przejmujemy się tym,
że kalkulator reprezentuje liczbę 1/3 tylko w pewnym przy­
bliżeniu. Zaakceptujemy odpowiedź 0,6666666667, która
jest oczywiście różna od prawdziwej reprezentacji 2/3. Na­
wet przy wykonywaniu skomplikowanych obliczeń najczęściej
obieramy taką postawę i pokładamy zaufanie w kompute­
rze czy kalkulatorze, wierząc, że takie niewielkie różnice nie
złożą się na istotny błąd. Wiadomo skądinąd, że tego ro­
dzaju założenie może być bardzo niebezpieczne. Istnieją me­
tody oparte na ideach K. Gaussa (1777-1855, zob. rysunek
1.11), wyznaczające akumulację błędu podczas wykonywa­
nia obliczeń. Przy rozwoju współczesnych m etod obliczenio­
wych wiele się zmieniło. W ydaje się, że istnieją co najmniej
dwie przyczyny, które spowodowały te zmiany.
P ro b lem
Współczesne metody obliczeniowe pozwalają na wyko­
akum ulacji nywanie niesłychanie złożonych obliczeń o zasięgu tak wiel­
błędu kim, jaki wydawał się niemożliwy jeszcze pół wieku temu.
Często przy tego typu obliczeniach dokładna i uczciwa ana­
liza propagacji błędu jest na obecnym etapie rozwoju nauki
po prostu niemożliwa. Może to jednak prowadzić do rozwoju
bardzo niebezpiecznego zjawiska. Wielu naukowców często
zbytnio ufa wynikom obliczeń komputerowych.
Jeśli postępowalibyśmy tak dalej, znaczyłoby to, że nie
zdajemy sobie sprawy z roli, jaką dbałość o dokładność
w pomiarach i obliczeniach miała dla dokonania wielu wiel­
kich odkryć. Dla przykładu przytoczmy tu ta j zadziwiającą
12 Na przykład dokładność CASIO fx 7000G wynosi 10 cyfr, HP 28 S
zaś — 12 cyfr.
1.4. Przypowieść o paraboli
69
B rahe i K epler
Rysunek 1.23: Tycho Brahe, 1546-1601 (po lewej) i Johannes
Kepler, 1571-1630 (po prawej)
historię modelu Układu Słonecznego Johanna Keplera. Ke­
pler (1571-1630) stworzył wypracowaną mistyczną teorię,
według której sześć znanych wtedy planet: Merkury, Wenus,
Ziemia, Mars, Jowisz i Saturn13 miało związek z pięcioma
bryłami platońskimi (zob. rysunek 1.24).
Po to, by uzasadnić swoją mistyczną teorię harmonii M ałe od ch ylen ia
niebieskiej, Kepler mógł użyć jedynie danych astronomicz­ i ich
nych dostępnych w owych czasach. Zdawał sobie sprawę, konsekw encje
że konstrukcja jakiejkolwiek teorii wymaga dokładniejszych
danych. Takie właśnie dane były w posiadaniu duńskiego
astronoma Tychona Brahego (1546-1601), który przez 20
lat zbierał niesłychanie dokładne współrzędne położenia pla­
net. W lutym 1600 r. Kepler został asystentem Brahego do
obliczeń matematycznych. Przydzielono mu do rozwiązania
problem wyznaczenia orbity, która opisywałaby położenie
Marsa. Zadanie to wydawało się trudne, gdyż ruch Marsa
był najtrudniejszy do przewidzenia. Kepler przechwalał się,
że rozwiąże to zadanie w osiem dni. Zarówno teoria Ko­
pernika jak i Ptolemeusza zakładały, że orbita ta powinna
być kołowa, być może z niewielkimi modyfikacjami. Dla­
tego też Kepler rozpoczął od poszukiwania odpowiednich
orbit kołowych dla Ziemi i dla Marsa. W rzeczywistości
orbita Ziemi, z której przecież wykonano obserwacje, po13 Planety te były znane w starożytności jeszcze przed wynalezieniem
teleskopu. Siódmą planetę — Urana odkrył dopiero w 1781 amator Frie­
drich Wilhelm Herschel, Neptuna zaś dopiero w 1846 Johann Gottfried
Galie z Obserwatorium w Berlinie. Dziewiątą i najbardziej odległą pla­
netę — Plutona — odkrył w 1930 William Tombaugh z Obserwatorium
Lowell we Flagstaff w Arizonie.
70
1. Podstawa geometrii fraktalnej
winna zostać wyznaczona przed jakimkolwiek użyciem da­
nych o położeniach planet. Kepler dopiero po latach znalazł
rozwiązanie — jak się wydawało — pasujące do wszystkich
obserwacji Brahego, który nie dożył końca tej pracy Jed­
nakże Kepler, sprawdzając swoje rozwiązanie — przez wy­
liczanie elementów orbity Marsa i porównywanie ich z da­
nymi Brahego — zauważył rozbieżności sięgające 8 minut
kątowych (co stanowi około jednej czwartej kątowej średnicy
Księżyca). N aturalne byłoby przypisanie tego odchylenia
błędowi w obserwacjach Brahego — Kepler spędził przecież
całe lata, przeprowadzając bardzo dokładne obliczenia. Po­
nieważ jednak praca z Tychonem Brahem pozostawiła nieza­
chwianą wiarę, że tablice Brahego nie zawierają nieścisłości,
Kepler kontynuował swoje obliczenia. Doprowadziło to do
dalszych sześciu lat żmudnych wyliczeń, które wypełniły poM od el K ep lera
U kład u
S łon eczn ego
R y s u n e k 1 .2 4 : K ażda z planet w yzn acza sferę wokół Słońca,
zaw ierającą jej orbitę.
M iędzy kolejne sfery Kepler wpisał
w ielościany forem ne, których w ierzchołki leżały na zewnętrznej
sferze, a których ściany dotykały wewnętrznej sfery. W idzim y
ośm iościan pom iędzy M erkurym a W enus, dw unastościan po­
m iędzy Ziem ią a M arsem , d w ud ziestościan pom iędzy Ziemią
a M arsem , czw orościan pom iędzy M arsem a Jow iszem oraz
sześcian pom iędzy Jow iszem a Saturnem
71
1.4. Przypowieść o paraboli
p
P ierw sze
i drugie prawo
K ep lera
R y s u n e k 1 .2 5 : Pierw sze i drugie prawo Keplera: (1) Prawo
o orbitach eliptycznych. O rbity w szystkich planet są elipsam i ze
Słońcem w jednym z ognisk. (2) Prawo pow ierzchni. W ciągu
każdego odcinka czasu odcinek prostoliniow y łączący Słońce i daną
planetę zakreśla takie sam o pole
R ozw iązanie
S trom gren a dla
zredukow anego
zagadnienia
trzech ciał
R y s u n e k 1 .2 6 :
ciał
O rbity dla zredukowanego zagadnienia trzech
nad 900 stron, pozwalających na sformułowanie nowego re­
wolucyjnego modelu, zgodnie z którym orbity planet są eli­
psami, a nie okręgami. W roku 1609 Kepler opublikował
swoje słynne dzieło Astronómica Nova, w którym ogłosił dwa
z trzech swoich słynnych praw. Trzecie prawo14 opubliko14 Prawo czasów: kwadrat okresu obiegu planety wokół Słońca jest
wprost proporcjonalny do sześcianu średniej odległości od Słońca.
72
1. Podstawa geometrii fraktałnej
wano później i stanowiło dla Sir Isaaca Newtona wskazówkę
do sformułowania jego prawa powszechnego ciążenia.
Obliczenia Elisa
Stromgrena dla
zredukowanego
zagadnienia
trzech ciał
A b y zad em o n stro w ać, ja k i niesłychany postęp d o konał się dzięki kom ­
p u tero m , p rzed staw im y następujący pou czający przykład. Rysunek
1 .2 6 przedstaw ia re z u lta t obliczeń w ykonanych przez 56 naukow ców
pod kierow nictw em Elisa S tro m g re n a w O bserw atoriu m K openhaskim
(D a n ia ) w ciągu 15 ( ! ) lat. O b liczen ia doprow adziły do rozw iązań
szczególnych dla ta k zw anego zredukow anego zagadnienia trzech ciał
(o rb ity księżyca, po zo stająceg o pod w pływ em dw óch p lan et) i opu­
blikow ano je w roku 19 25 .
O b liczen ia teg o rzędu wielkości i złożoności m ożna obecnie prze­
prow adzić na zw yk ły m ko m p u terze P C w ciągu najw yżej kilku dni. To
porów n anie je s t doskonałym przykładem na to , co nazyw ane bywa na­
ukową i tech n o lo g iczn ą rew olucją. R ew olucją, któ ra je s t napędzana
przez potęgę współczesnych m eto d obliczeniow ych.
P rob lem
Coraz więcej potężnych obliczeń wykonywanych jest przy
oprogram ow ania użyciu oprogramowania działającego na zasadzie czarnej
ty p u czarna skrzynki, stwarzanego często przez znane i uznane firmy.
skrzynka Tego typu oprogramowanie wydaje się i najczęściej jest godne
zaufania. Niestety, nie wyklucza to faktu, że nawet najlep­
sze pakiety oprogramowania wytwarzają czasem całkowicie
nieprawdziwe wyniki i jest sztuką samą w sobie zrozumieć
i przewidzieć, dlaczego tak się dzieje. Co więcej, użytkownicy
często nie mogą sami przeprowadzić analizy błędów po pro­
stu dlatego, że nie m ają dostępu do algorytmów takiego
oprogramowania, dostępnego na zasadzie czarnej skrzynki.
Coraz więcej decyzji w nauce i technice, ale również w eko­
nomii i polityce, opiera się na obliczeniach i symulacjach
przeprowadzanych na wielką skalę. Niestety nie zawsze mo­
żemy zakładać, że przeprowadzono uczciwą analizę akumu­
lacji błędu przy przeprowadzanych obliczeniach. Producenci
komputerów prześcigają się w budowie coraz szybszych ma­
szyn i wydaje się, że nie przykładają dostatecznej wagi do
ważnego problemu kontroli jakości obliczeń naukowych.
Dla poparcia naszych rozważań chcielibyśmy przytoczyć
P arad ygm at
p o g o d y cytat z książki Jam esa Gleicka Chaos, Making a New Science
w g J. G leicka (Chaos, tworzenie nowej nauki) 15.
15 James Gleick, Chaos, M aking a New Science, Viking, New York
1987.
73
1.4. Przypowieść o paraboli
Iterow anie
rów nania
logistyczn ego
Rysunek 1.27:
U rządzenie sprzężenia zw rotego dla rów nania
logistycznego. Procesor został zaprogram owany tak, by przy za­
danych p i r obliczać w artość w yrażenia p + rp ( 1 — p)
„Współczesne modele pogody wykorzystują siatkę po­
miarów o odległości pomiędzy poszczególnymi punktami po­
miaru rzędu 100 km, a mimo to niektóre dane muszą być
odgadywane, ponieważ stacje naziemne oraz satelity nie są
w stanie dokonać pomiarów dla wszystkich potrzebnych
punktów. Przypuśćmy jednak, że całą Ziemię można po­
kryć czujnikami znajdującymi się co, powiedzmy, pół metra.
Niech wypełniają one w podobny sposób całą przestrzeń aż
do granic atmosfery. Załóżmy dodatkowo, że każdy czuj­
nik podaje dokładny pomiar temperatury, ciśnienia, wil­
gotności i innych parametrów, jakie mogą być potrzebne
meteorologom. Dokładnie w samo południe nieskończenie
potężny komputer przyjmuje te wszystkie dane oraz oblicza,
co będzie się działo w każdym z punktów o 12:01, potem
o 12:02, potem o 12:03... Mimo takich dokładnych danych
komputer nie będzie mógł przewidzieć na miesiąc naprzód,
czy w Princeton, New Jersey będzie padał deszcz czy świeciło
słońce. W południe w przestrzeni pomiędzy czujnikami będą
się kryły fluktuacje, o których komputer nie będzie wiedział,
takie maleńkie odchylenia od średniej. O 12:01 te fluktuacje
spowodują błędy w obliczeniach dla punktów odległych o 50
cm. Wkrótce błędy te rozprzestrzenią się na odległość kilku
metrów i tak dalej, aż obejmą całą kulę ziemską.”
Tego rodzaju efekt znany jest pod nazwą efektu motyla.
Nazwa ta wzięła się z tytułu artykułu Edwarda N. Lorenza
„Can the flap of a butterfly wing stir up a tornado in Texas”
(Czy ruch skrzydła motyla może wywołać tornado w Te­
ksasie?). Zaawansowana kontrola jakości obliczeń w prze­
widywaniu pogody polega na określeniu, czy mechanizmy,
które określają formowanie się pogody, są aktualnie w sta-
74
1. Podstawa geometrii fraktaînej
nie stabilnym czy nie. Wcześniej czy później w TV ukaże
się spiker i powie: „Dobry wieczór państwu, mówi Wiche­
rek. Z powodu efektu motyla nie mamy prognozy pogody
na jutro. Atmosfera znajduje się w stanie niestabilnym,
co uniemożliwia dokonanie wystarczająco dokładnych po­
miarów dla naszych modeli komputerowych. Spodziewamy
się jednakże stabilizacji w najbliższych dniach. W tedy to
podamy państwu prognozę na weekend” .
Powróćmy do iterowania wyrażeń kwadratowych i przyj­
P ow rót do
i terow ania rzyjmy się wyrażeniu
funkcji
p + rp( 1 - p).
kw adratow ej
Po pierwsze, iteracje tego wyrażenia można przeprowadzić
równie łatwo jak dla x 2 + c.
Wyrażenie kwadratowe p + rp( 1 — p) ma bardzo cie­
kawą interpretację w biologii. Służy ono jako podstawa dla
pewnego modelu rozwoju populacji, którego idea pojawiła
się w pracach belgijskiego matematyka Pierre’a Franęoisa
V erhulsta16, wykonanych około roku 1845. Prace te zainspi­
rowały Maya do napisania słynnego artykułu w Naturę (zob.
początek rozdziału).
S zereg czasow y
rozw oju
p opulacji
Rysunek 1.28:
Szereg czasow y rozwoju populacji — typow y
przebieg. W ynik i kolejnych pom iarów połączone są odcinkam i
Co to jest model rozwoju populacji? Jest to prawo, które
M o d el rozw oju
p op u lacji dla danego gatunku pozwala nam przewidzieć rozwój w cza­
sie wielkości populacji tego gatunku. Czas mierzony jest
16 Dwie staranne napisane prace ukazały się w M émoires de
VAcadém ie Royale de Belgique, w roku 1844 i 1847.
1,4, Przypowieść o paraboli
w sposób dyskretny, tzn. n = 0 ,1 ,2 ,... (mogą to być mi­
nuty, godziny, dni, miesiące, lata — to, co jest odpowiednie
dla danego gatunku). Wielkość populacji mierzona w czasie
n jest dana przez aktualną liczbę egzemplarzy tego gatunku,
Pn. Na rysunku 1.28 przedstawiono typowy przebieg takiego
rozwoju.
Oczywiście liczebność populacji może zależeć od wielu
parametrów, takich jak warunki środowiskowe (np. ilość
pożywienia, przestrzeń, klimat), interakcja z innymi gatun­
kami (np. relacja drapieżnik — ofiara), lecz również struk­
tura wiekowa, płodność itd. Złożoność warunków wywie­
rających wpływ na rozwój danej populacji zilustrujemy na­
stępującą średniowieczną przypowiastką.
Tego roku jest dużo myszy na polach. Chłop jest tym 0 m yszach
bardzo przejęty, gdyż oznacza to marne zbiory. W rezulta­ 1 starych
cie posagi panien na wydaniu będą bardzo niewielkie, a co pannach
za tym idzie pojawi się wiele starych panien. Jak wiadomo,
stare panny kochają koty, więc liczba kotów znacznie się po­
większy. To z kolei przyczyni się do gwałtownego spadku
liczby myszy. Uszczęśliwi to chłopów, posagi będą bogate,
a co za tym idzie liczba starych panien zmniejszy się. Zmniej­
szy się zatem liczba kotów i jesteśmy znowu przy myszach.
Te się znów rozmnożą itd.
Chociaż powyższą opowieść powinniśmy traktować
z przymrużeniem oka jako model rozwoju populacji myszy
i starych panien, ilustruje ona jednak potencjalną złożoność
dynamiki populacji. Pokazuje też, że zmiany te mogą być
cykliczne: wzrost, spadek, wzrost, spadek...
Naturalne podejście do modelowania polega na zamroże­ Scenariusz dla
niu jak największej liczby parametrów populacji. Załóżmy, p łytk i P etrieg o
że jesteśmy w posiadaniu szczepu komórek, które żyją w sta­
łym środowisku, np. w płytce Petriego, ze stałym dopływem
pożywienia i w stałej temperaturze. Przy tego typu warun­
kach spodziewać się możemy, że istnieje pewna maksymalna
wielkość populacji N> która może przeżyć w tym środowisku.
Jeżeli bieżąca wielkość populacji P w czasie n, tzn. P n, jest
mniejsza niż 7V, spodziewać się możemy wzrostu liczebności
populacji. Jeżeli zaś Pn jest większa niż iV, wielkość popu­
lacji musi zmaleć.
Wprowadźmy teraz odpowiedni model. Podobnie jak
prędkość jest jedną z wielkości charakteryzujących ruch ciała,
tak czynnik wzrostu jest odpowiednią wielkością do charak­
75
76
1. Podstawa geometrii fraktalnej
teryzowania rozwoju populacji. Czynnik wzrostu możemy
mipr7vr za
7:n pomocą
nnrnnra wielkości
wiolhnśri
mierzyć
P n+ 1 — P n
(1.5)
Pn
Oznacza to, że czynnik wzrostu r w czasie n jest wyznaczony
przez wzrost liczebności populacji w jednym kroku czasu
w stosunku do wielkości populacji w czasie n.
Wzrost
liczebności
populacji
a naliczanie
odsetek
Jeśli m odel rozw oju populacji za kła d a, że czynnik w zrostu
stały, to
Pn+l —Pn
n
= r
r
jest
(1 .6 )
dla pew nej liczby r niezależnej od n . R o zw iązu ją c to rów nanie dla
Pn+1, o trz y m u je m y prawo w zrostu liczebności p o p u la c ji17
Pn+1 = Pn + rPn - (1 + r)Pn .
W ty m m odelu liczebność pop ulacji w zrasta o czyn nik 1 + r w każdym
kroku czasow ym . R zeczyw iście, pow yższy w zó r rów now ażny je s t na­
stęp ującem u w zorow i:
Pn = (l + r)nP0,
(1.7)
gdzie Po j est liczebnością p o c zą tk o w ą pop ulacji, od której rozpo­
częliśm y obserw acje w m om encie n = 0. M o ż e m y za te m , zn ając
r i liczebność p o c zą tk o w ą pop ulacji Po, w yliczyć liczebność popula­
cji Pn dla dow olnego m o m en tu i to naw et bez znajom ości przebiegu
układu sprzężenia zw ro tn e g o . Co więcej, rów nanie (1 ,7 ) je s t zn ane z
naliczeń ra t i składanych odsetek, gdy stopa procentow a wynosi r.
M o d el populacji
Najprostszy model rozwoju populacji zakłada, że czyn­
V erhulsta nik wzrostu jest stały. To założenie prowadzi do nieogra­
niczonego wzrostu, a to jest nierealistyczne. W obecnym
modelu założymy więc, że rozwój populacji jest ograniczony
przez stałe czynniki środowiskowe, co jednak wymaga mo­
dyfikacji prawa wzrostu. Obecnie czynnik wzrostu będzie
zależeć od relacji pomiędzy bieżącą liczebnością populacji
a maksymalną wielkością, jaką ona może osiągnąć. Verhulst
17 Zauważmy, że tempo wzrostu nie zależy od IV, tzn. jeżeli używamy
znormalizowanych wielkości pn = P/N, to N skróci się w równości
r = (pn+i —pn)/pn, dając równość równoważną z (1.6).
77
1.4. Przypowieść o paraboli
zaproponował, by czynnik wzrostu w czasie n był proporcjo­
nalny do różnicy pomiędzy liczebnością populacji a maksy­
malną jej wielkością, co jest również dobrą miarą opisującą
wielkość części środowiska, nie zużytej przez populację do
czasu n. Założenie to doprowadzi nas do modelu rozwoju
populacji Verhulsta
P n+ l — Pn
Tpn { \ ~~ p n \
(1*^)
gdzie pn jest względną liczebnością populacji pn = Pn/ N ,
a N jest maksymalną wielkością populacji dla danego stanu
środowiska. Jest to zwarta forma opisu naszego układu
sprzężenia zwrotnego. Posługujemy się tu całkowitymi wskaź­
nikami do oznaczenia iteracji dla danego kroku (pn dla wej­
ścia, p n + 1 dla wyjścia).
Ten m odel rozwoju populacji zakłada, że czynnik w zrostu zależy od
wielkości populacji w dan ym czasie. N a jp ie rw należy unorm ow ać li­
czebność populacji przez w prow dzenie p = P /N . W te d y p przebiega
wartości od 0 do 1, tzn . m ożem y interp retow ać na przykład p = 0 ,0 6
ja k o wielkość populacji stanow iącą 6 % je j m aksym alnej liczebności
N. I znowu indeksujem y p w skaźnikiem n, tz n . użycie pn oznacza,
że chodzi o liczebność w czasie n = 0 , 1 , 2 , 3 , . . . C zynnik w zrostu
w yznaczony je s t przez w yrażen ie o d p o w iad ające w yrażeniu (1 .5 ),
Pn+ 1
Pn
Pn
V erhulst założył, że czyn nik w zrostu w czasie n pow inien być pro­
porcjonalny do 1 — pn (części środowiska nie w ykorzystanej jeszcze
przez populację w czasie n ). P rzy założeniu, że w zrost populacji
ograniczony je s t stałym i w arunkam i środow iskow ym i, w zrost pow i­
nien zm ieniać się zgodnie z następującym i regułam i, zestaw ionym i
w tabelce:
wielkość populacji
m ała
około 1
mniej niż 1
więcej niż 1
tem p o w zrostu
duże, dod atnie
m ałe
dod atnie
ujem ne
M o żem y to rów nież przedstaw ić następu jąco18:
18 Znak oc oznacza „proporcjonalny do” . Wielkość po lewej stronie
jest wielokrotnością wyrażenia po prawej stronie.
Wyprowadzenie
modelu Yerhulsta
78
1. Podstawa geometrii fraktalnej
Pn+ l
Pn
pn
------------------ OC 1
Pn
lub po w prow adzeniu o d p o w ied n iej stałej
Pn+ l
Pn
r
= r { l - p n).
Pi
Jeżeli w y zn a czym y z teg o rów nania pn+i , to o trzy m a m y rów nanie
( 1.8)
Pn+ l
=Pn + rpn( l ~ p n).
M o d el
Powyższy model nosi nazwę modelu logistycznego19. Mologistyczn y żerny zaobserwować kilka jego interesujących własności. Po
pierwsze, zauważmy, że model działa zgodnie z tabelą po­
stulowanych ograniczeń na czynnik wzrostu, zamieszczoną
powyżej. Po drugie, wygląda na to, że mamy prawo po­
zwalające nam obliczyć (tzn. przewidzieć) wielkość popula­
cji w każdym momencie, podobnie jak w przypadku stałego
czynnika wzrostu. Istnieje jednak podstawowa różnica po­
między nimi. Otóż dla większości wartości r nie istnieje
jawne rozwiązanie równania na
jak to ma miejsce dla
równania (1.6), dla którego rozwiązaniem jest równanie (1.7).
Oznacza to, że nie możemy obliczyć pn, korzystając bezpoś­
rednio z wartości r i po, co było poprzednio możliwe. Musimy
zatem wykonać n razy iteracje, takie jak na rysunku 1.27.
Zacznijmy nasz eksperyment podstawiając r = 3.20 Poniższa
tabela podaje trzy pierwsze kroki iteracji dla po = 0,01, tzn.
dla początkowej populacji o wielkości 1% populacji maksy­
malnej N .
p
p + rp{ 1 - p )
0,0 1
0 ,0 3 9 7
0 ,1 5 4 0 7 1 7 3
0 ,0 3 9 7
0 ,1 5 4 0 7 1 7 3
0 ,5 4 5 0 7 2 6 2 6 0 4 4 ...
Z tego samego powodu co podczas iterowania x 2 + c ob19 od logis (fr.) — dom, kwatera.
20 Okazuje się, że r = 3 jest jednym z tych niewielu parametrów,
dla których istnieje jawne wyrażenie na pn jako funkcji r i po,
zob. rozdz. 10.
1.4. Przypowieść o paraboli
serwujemy potrzebę coraz większej dokładności przy wyko­
nywaniu kolejnych obliczeń, jeżeli chodzi nam o otrzym a­
nie dokładnego wyniku. W ydaje się jednak, że w naszym
modelu rozwoju populacji nie jest to konieczne. Czy nie
wystarczy, że będziemy znali rozwój populacji w pewnym
przybliżeniu? Czyż nie powinniśmy się zadowolić wynikiem,
który jest poprawny do trzech, czterech miejsc po przecinku?
Przecież trzecie miejsce po przecinku oznacza w naszym mo­
delu dziesiątą część procenta. Wydawać by się mogło, że nie
ma najmniejszego powodu, aby nie zakładać, że komputer
czy kalkulator są w stanie wykonać potrzebne obliczenia.
Taka ogólna zasada jest jednak zdecydowanie nieprawdziwa
— przewidywane zachowania naszego modelu oparte na ta ­
kich obliczeniach mogą być całkowicie błędne.
Znaleźliśmy się w centrum tego, co naukowcy nazywają N iem ożn ość
obecnością chaosu w deterministycznych układach sprzężeń p rzew id yw an ia
zwrotnych. Jednym z pierwszych naukowców, który uświa­
domił sobie wagę tego typu efektów, był meteorolog z MIT
Lorenz21, w późnych latach piędziesiątych. Odkrył on to
zjawisko — niemożność przewidywania w układach deter­
ministycznych — w matematycznych modelach, które były
stworzone i często używane do długoterminowych prognoz
pogody.
Jak to się często zdarza przy dokonywaniu odkryć, Lo­ E k sp erym en t
renz natrafił na to zjawisko przez przypadek. Lorenz przed­ L orenza
stawia najważniejszą część tego wydarzenia w następujący
sposób.22
„Zaczęło się to wszystko gdzieś około roku 1956, kiedy
pewne metody przewidywania [pogody] zostały zapropono­
wane [...] jako najlepsze z dostępnych, z czym się jednak nie
zgadzałem. Zadecydowałem sam wysmażyć niewielki układ
równań symulujących zachowanie atmosfery, rozwiązać go za
pomocą komputerów, które wtedy właśnie zaczęły być do­
stępne, a następnie potraktować wyniki tak, jakby to były
rzeczywiste dane z obserwacji atmosferycznych, i sprawdzić,
21 Lorenz, E.N., Deterministic non-periodic flow, J. A tm os. Sei. 20,
130-141 (1963).
22 W: H.-O.Peitgen, H. Jürgens, D. Saupe, C. Zahlten, Fractals: A n
Anim ated Discussion, Video film, Preeman, 1990. Ukazał się on także
w języku polskim jako Fraktale. A nim acje, eksperym enty i wywiady
z E. Lorenzem i B. B. M andelbrotem, PW N, Warszawa 1995.
79
80
1. Podstawa geometrii fraktainej
czy proponowane metody stosują się do nich. Prawdziwym
problemem było uzyskanie takiego układu równań, który do­
prowadziłby do wyników nadających się do przetestowania,
ponieważ szybko stało się jasne, że jeśli rozwiązanie tych
równań będzie cykliczne, to proponowane metody będą try­
wialne, a tym samym będą stosowały się idealnie.
O ryginalny
ek sp erym en t
Lorenza
Rysunek 1.29:
N um eryczne całkowanie rów nania Lorenza (na
górze). P oliczono to ponow nie, zaczynając od t — 2 , 5, z w artością
początk ow ą w ziętą z pierw szego całkowania, ale z wprowadzonym
m ałym błędem (pośrodku). R óżnica pom iędzy tym i dw om a w yni­
kam i (sygn ałam i) staje się tak w ielka jak sam sygnał (na dole)
1.4. Przypowieść o paraboli
81
Musieliśmy więc otrzymać układ równań, mający rozwią­
zania niecykliczne, takie które nie powtarzają się, ale prze­
biegają nieregularnie i w sposób niezdefiniowany. Znalazłem
w końcu układ dwunastu równań, które to spełniały i spraw­
dziłem, że proponowane metody nie były odpowiednie. Gdy
to robiłem chciałem sprawdzić niektóre z wyników w sposób
bardziej szczegółowy. W swoim biurze miałem wtedy mały
komputer, wpisałem więc kilka pośrednich wartości, które
komputer wydrukował, jako nowe warunki początkowe dla
następnych obliczeń, i na chwilę wyszedłem. Kiedy wróciłem,
zobaczyłem, że rozwiązania były inne niż przedtem; kom­
puter zachowywał się inaczej. W pierwszej chwili podej­
rzewałem, że mam jakieś kłopoty z komputerem, jednak
wkrótce odkryłem, że prawdziwą przyczyną jest to, iż liczby
wpisane przeze mnie różniły się od liczb wyjściowych, które
zaokrągliłem, i ta niewielka różnica pomiędzy czymś rozwi­
niętym do szóstego miejsca po przecinku i jego zaokrągle­
niem do trzeciego miejsca w czasie symulacji dwóch mie­
sięcy pogody stała się tak wielka jak sam sygnał. Wynikało
z tego, że jeżeli prawdziwa atmosfera zachowuje się w podob­
ny sposób, to nie jesteśmy po prostu w stanie przewidzieć
pogody na dwa miesiące naprzód. Te małe błędy będą się
powiększać, aż staną się wielkie.”
Oznacza to, że jeśli nawet posługiwalibyśmy się zupełnie C zuła zależność
poprawnym modelem pogody — jako modelem przebiegu od w arunków
zmian fizycznych właściwości pogody — nie możemy za ich p oczątk ow ych
pomocą robić prognoz na dłuższy czas. To zjawisko nosi
obecnie nazwę czułej zależności od warunków początkowych
i jest jednym z podstawowych własności, składających się
na pojęcie chaosu23 deterministycznego. Nasz następny eks­
peryment naśladuje w najprostszy sposób autentyczny eks­
peryment Lorenza. Używał on o wiele bardziej wrażliwego
układu sprzężenia zwrotnego, złożonego z dwunastu zwy­
czajnych równań różniczkowych; my użyjemy po prostu rów­
nania logistycznego24.
Wykonamy iteracje wyrażenia kwadratowego p + r p ( l—p)
dla stałej r = 3 i wartości początkowej po = 0? 01 (zob. ta23 Określenie „chaos” pojawiło się po raz pierwszy w pracy T. Y. Li
i J. A. Yorke’a, Period 3 Implies Chaos, Am . Math. M on. 82, 985-992
(1975).
24 W istocie, sam Lorenz później odkrył, że jego układ jest ściśle
związany z równaniem logistycznym.
82
1. Podstawa geometrii fraktalnej
bela 1.1). W lewej kolumnie przedstawiony jest przebieg
iteracji bez przerw, podczas gdy w prawej kolumnie prze­
prowadzamy iteracje 10 razy, zatrzymujemy i zaokrąglamy
wynik 0, 7229143012 odrzucając cyfry po trzecim miejscu
po przecinku, co daje nam liczbę 0,722, a następnie kon­
tynuujemy iterację tak, jak gdyby był to ostatni wynik na
wyjściu. Eksperyment ten przeprowadziliśmy na kalkulato­
rze kieszonkowym CASIO fx-7000G.
E k sp erym en t
L orenza raz
jeszcze
p ow tórzen ia
bez zatrzym an ia
1
2
3
4
5
10
0,0397
0,15407173
0,5450726260
1,288978001
0,1715191421
0.7229143012
10
15
20
25
30
100
0,7229143012
1,270261775
0,5965292447
1,315587846
0,3742092321
0,7355620299
zatrzym ane
i zaczęte na nowo
0,0397
0,15407173
0,5450726260
1,288978001
0,1715191421
0,7229143012
zaczęte na nowo od
0,722
1,257214733
1,309731023
1,089173907
1,333105032
1,327362739
Tabela 1.1:
E ksperym ent Lorenza dla m odelu rozwoju popu­
lacji. Przeprow adzone są dw ie grupy iteracji startujące się z tego
sam ego punktu. W czasie obliczeń jed ną z w artości zaokrąglono
przez odrzucenie cyfr po trzecim m iejscu po przecinku i w takiej
p o sta ci w zięto do kolejnego kroku obliczeń. N iedługo potem te
dw a szeregi tracą w szelką korelację. P odkreślono cyfry, które są
zgodne po obu stronach
P ew n e jak
Nie wywołuje zdziwienia, że jeżeli wynik w dziesiątej
w yn ik rzu tu iteracji jest zgodny tylko do trzeciego miejsca po przecinku,
kostką to w piętnastej też istnieje różnica pomiędzy wynikami. Jest
jednak niespodzianką — i wskazuje to na istnienie chaosu
w systemie, czy też, używając sformułowania Lorenza, nie­
możności przewidywania — że wyniki wyższych iteracji wy­
dają się zupełnie nieskorelowane. Plan eksperymentu su­
geruje, że lewa strona tabeli jest bardziej wiarygodna jako
przebieg iteracji. Jest to jednak tylko złudzenie, jak zoba­
czymy w nadchodzących eksperymentach. Wartości itera­
cji naszego układu sprzężenia zwrotnego stają się w końcu
83
1.5. Chaos zwycięża każdy komputer
tak samo pewne jak wynik otrzymany przy użyciu genera­
tora liczb losowych lub rzucie kostką do gry czy monetą.
W rzeczywistości tę zadziwiającą własność odkrył wielki pol­
ski matematyk Stanisław Ułam, gdy próbował skonstruować
generator liczb losowych dla pierwszego komputera elektro­
nicznego ENIAC pod koniec lat czterdziestych, co łączyło się
z obliczeniami na wielką skalę dla Projektu M anhattan.
1.5. C h a o s z w y c ię ż a k a żd y k o m p u te r
Jeśli okażemy sceptycyzm, to możemy dojść do wniosku, że
być może błąd, który wprowadziliśmy — odrzucenie cyfr
po trzech cyfrach dziesiętnych w eksperymencie Lorenza —
był zbyt duży. Ktoś może przypuszczać, że być może za­
obserwowane przez nas dziwne zachowanie iteracji zniknie,
jeśli tylko zmniejszymy błąd dla warunków początkowych.
Jednak nie tracilibyśmy naszego czasu na jałowe obliczenia,
jeśliby to miało być prawdą. Otóż niezależnie od tego, jak
małe odchylenie od wartości początkowych wybierzemy, błąd
będzie gwałtownie rósł, tak że po stosunkowo niewielu ite­
racjach przewidywanie za pomocą komputera stanie się bez­
wartościowe. Aby zrozumieć w całości wagę tego zjawiska,
proponujemy wykonanie następnego eksperymentu. Tym
razem nie zaczniemy iteracji od różniących się warunków po­
czątkowych, lecz do obliczeń użyjemy dwóch kalkulatorów
wyprodukowanych przez różnych producentów. Spodzie­
wamy się, że wcześniej czy później ich wyliczenia będą się
ogromnie różnić między sobą.
Co się będzie działo, jeżeli przeprowadzać będziemy ite­
racje na dwóch różnych urządzeniach o stałej dokładności?
Co otrzymamy po 10 iteracjach czy 20, lub nawet 50? Wy­
daje się to głupim pytaniem. Czy nie wystarczy po prostu
wykonać obliczenia dla 10,20, 50 kroków iteracji? Tak, wy­
starczy, ale problem polega na tym, że wynik zależy w dużym
stopniu od sposobu przeprowadzania obliczeń.
Aby zilustrow ać, co m am y na myśli, gdy m ó w im y o zależności od
przeprow adzania obliczeń, po ró w n ajm y rezu ltaty o trzy m a n e za po­
m ocą dwóch różnych kalkulatorów , pow iedzm y, C A S IO i H P. Z a ­
cznijm y od kroku 1 i p rzy jrzy jm y się 2 , 3 , 4 , 5 , 1 0 , 1 5 , 2 0 , . . . , 50 p o w tó ­
rzeniom iteracji (zob. ta b e la 1.2 i rysunek 1 .3 0 ).
Podczas gdy pierwsza i druga generacja naszej populacji zo staną
Wyścig
komputerów
w kierunku
chaosu
84
1. Podstawa geometrii fraktalnej
CASIO fx-7000G
a H P 28S przy
obliczaniu
p + rp( 1 —p)
powtórzenia
1
2
3
4
5
10
15
20
25
30
35
40
45
50
CASIO
0,0397
0,15407173
0,5450726260
1,288978001
0,1715191421
0,7229143012
1,270261775
0,5965292447
1,315587846
0,3742092321
0,9233215064
0,0021143643
1,219763115
0,0036616295
HP
0,0397
0,15407173
0,545072626044
1,28897800119
0,171519142100
0,722914301711
1,27026178116
0,596528770927
1,31558435183
0,374647695060
0,908845072341
0,143971503996
1,23060086551
0,225758993390
Tabela 1.2: Dwa różne kalkulatory wykonujące to samo obli­
czenie nie dają takich samych wyników
Różnice w
wyścigu
CASIO-HP
R ysunek 1.30: Wykres różnicy wyników między obliczanymi
wartościami iteracji dla HP i CASIO
przew idzian e w ten sam sposób przez oba kalkulatory, całkow icie
różnią się one dla 50 . generacji. O bliczenia dokonane na C A S IO
p rzew idują w ielkość populacji na około 0 ,3 % m aksym alnej, podczas
gdy H P w skazuje na około 2 2 % pop ulacji m aksym alnej! Jak do tego
doszło?
Po uw ażn ym spraw dzeniu naszych pro g ram ó w d o jd ziem y do w nio­
sku, że oba są popraw ne i używ ają te g o sam ego w zoru p + rp(l — p).
Jedyną różnicą je s t to , że C A S IO używ a 10 m iejsc po przecinku, pod­
czas gdy H P używa ich 12. Ż a d en z nich nie je s t w stanie przedstawić
do kład n ie ite ra cji trzeciej ani dalszych. R zeczyw iście, druga iteracja
p o trzeb u je 8 m iejsc po przecinku i d la te g o do przedstaw ienia w yniku
trze cie j p o trzeb a 16 m iejsc dziesiętnych itd . D la te g o te ż nie da się
85
1.5. Chaos zwycięża każdy komputer
„P ” ?-> p
„R” ?-> R
„N” ?-+ N
L b ll
P -j-R * P * (l-P )—> P
Dsz N
G oto 1
PA
wprowadź P
wprowadź R
wprowadź N (żądaną liczbę iteracji)
p oczątek pętli sprzężenia zw rotnego
proces sprzężenia zw rotnego
zliczanie iteracji za pom ocą
zm niejszenia N o 1
koniec pętli sprzężenia zw rotnego
w yśw ietla P, kiedy N redukuje się do zera
Program dla
iteracji
przekształcenia
p + rp{ 1 - p)
napisany dla
kalkulatora
CASIO fx-7000G
Tabela 1.3:
Program dla jednego z kalkulatorów , u żyty do
wygenerow ania danych dla ta b el
pow tórzenia
5
6
7
8
9
10
CASIO
0 ,1 7 1 5 1 9 1 4 2 1
0 ,5 9 7 8 2 0 1 2 0 1
1 ,3 1 9 1 1 3 7 9 2
0 ,0 5 6 2 7 1 5 7 7 6 5
0 ,2 1 5 5 8 6 8 3 9 3
0 ,7 2 2 9 1 4 3 0 1 2
HP
0 ,1 7 1 5 1 9 1 4 2 1 0 0
0 ,5 9 7 8 2 0 1 2 0 0 8 0
1 ,3 1 9 1 1 3 7 9 2 4 0
0 ,0 5 6 2 7 1 5 7 7 7 0 0
0 ,2 1 5 5 8 6 8 3 9 4 2 9
0 ,7 2 2 9 1 4 3 0 1 7 1 1
Tabela 1.4:
Iteracje krytyczne — kiedy kalkulatory zaczynają
dawać różne wyniki
uniknąć błędów pow stałych z zaokrągleń, które w ydaw ałoby się nie
m ają w ielkiego znaczenia. P rzy n ajm n iej na to w skazyw ałyby w yniki
iteracji 4 i 5. O bliczenia w ykonane na C A S IO i H P zg ad zają się do
dziesiątego m iejsca po przecinku. Jednakże po dziesięciu iteracjach
różnica istnieje ju ż na miejscu dziesiątym : C A S IO daje ta m 2, a H P
pokazuje 7 (zo b . ta b e la 1 .2 ). P rzy jrzy jm y się więc bliżej iteracjo m
pom iędzy 5 i 10 (zob. ta b e la 1.4).
Rzeczywiście, podczas gdy dla p iątej iteracji oba kalku lato ry d ają
zgodne w yniki do dziesiątego m iejsca, ju ż dla szóstej iteracji różnią
się trochę na dziesiątym miejscu po przecinku. Różnica ta wynosi
2 x 1 0 -1 1 i je s t ta k niew ielka, że n ikt nie zw racałby na nią uwagi.
Jeśli je d n a k przyjrzym y się bliżej, co się z nią dzieje, to okazuje się, że
ju ż w dziesiątej iteracji w zrośnie ona do 5 x 1 0 ~ 10, ale ciągle je d n a k
je s t ta k m ała, że n atu raln e je s t zaniedbanie je j. Z a u w a żm y je d n a k ,
że różnica ta wzrosła o rząd wielkości (o czynnik 1 0 ).
Jeśli w rócim y do ta b e li 1.2 i przyjrzym y się jeszcze raz 15, 2 0 , 25 ,
... iteracjom , to w yd aje się, że w idzim y, ja k niew ielkie zaburzenie,
dostrzeżone na dziesiątym miejscu po przecinku w szóstej iteracji,
rozprzestrzeniło się ta k , że po 40 iteracjach ta p o czątkow o niew ielka
różnica wzrosła o czynnik 1 0 10!
Iteracje krytyczne
86
1, Podstawa geometrii fraktalnej
D laczego je d n a k użyliśm y sform ułow ania „w yd a je się, ż e ...” ?
O tó ż przy porów n yw aniu kalku lato ró w C A S IO i H P jesteśm y skłonni
p okładać większe za u fan ie w H P, poniew aż używ a w swych oblicze­
niach większej dokładności (d w a d o d atko w e m iejsca po przecinku).
Jesteśm y więc skłonni uw ażać obliczenia H P dla 4 0 iteracji za po­
praw ne i odrzu cić obliczenia w ykon ane za pom o cą C A S IO . Jest to
je d n a k tro c h ę przedw czesne.
Jeśli C A S IO p o d aje błędny w yn ik — a rzecz jasna przynajm niej
jed e n z nich musi pod aw ać w y n ik całkow icie niepopraw ny — nie
m o że m y zakład ać, że błąd ten w ynika z pow ażnych usterek w jeg o
konstrukcji. D o błędu doszło raczej z pow odów właściwości m a­
tem a ty c zn y c h tych ite ra cji. I d lateg o te ż H P je s t w ystaw iony na
d ziałan ie teg o sam ego m echanizm u pow staw ania błędu, z pew nym
je d n a k o p ó źnieniem , które w ynika z większej dokładności przy oblicze­
niach. M o ż e m y z a te m z całą pew nością tw ie rd zić tylko to , że jeden
z ka lku la to ró w m yli się całkow icie w swoich przew idyw aniach, p om im o
że d e te rm in istyc zn y proces, któ ry próbuje opisać, je s t niesłychanie
prosty. Jest je d n a k bardzo praw d opod obne, ż e o b a kalkulatory podają
błędne w y n iki. Z jaw is ko to je s t nieuniknioną konsekwencją tz w . a ry t­
m etyki zm iennop rzecinkow ej i ten sam e fe k t w ystąpi zarów no na kie­
szonkow ym k a lku la to rze ja k i na su p erko m p u terach w artych w iele
m ilio n ó w dolarów .
Niewielka różnica występująca pomiędzy dwoma kalkula­
toram i, tzn. ich różna dokładność, powiększa się tak szybko,
że moc przewidywania kalkulatorów (komputerów) znika.
Ale proszę nam wierzyć, nie jest to koniec problemów. Spra­
wy przedstawiają się jeszcze bardziej skomplikowanie niż to,
co widzieliśmy do tej pory. Przeprowadźmy obliczenia dla
naszego przykładu prawa wzrostu zadanego funkcją kwadra­
tową p + rp( 1 —p), dla r = 3 i dla warunku początkowego
Po = 0,01, tak samo jak wcześniej, na jednym tylko kalkula­
torze CASIO, ale w dwóch przebiegach. Jaka jest różnica po­
między przebiegami? Jeżeli dane są identyczne i używaliśmy
tego samego kalkulatora, to może ulec zmianie jedynie kod
programu, jaki przedstawiliśmy w tabeli 1.3. I właściwie
jedyną rzeczą do zmiany jest sposób obliczania wyrażenia
kwadratowego. I nawet taka najmniejsza, wydawałoby się
absurdalnie mała, zmiana ma znaczenie, co jest przedsta­
wione w tabeli 1.5.
87
1.5. Chaos zwycięża każdy komputer
pow tórzenia
1
2
3
4
5
10
11
12
13
14
15
20
25
30
35
40
45
p + r p ( l — p)
0,0397
0,15407173
0,5450726260
1,288978001
0,1715191421
0,7229143012
1,323841944
0,03769529734
0,146518383
0,5216706225
1,270261775
0,5965292447
1,315587846
0,3742092321
0,9233215064
0,0021143643
1,219763115
(1 + r ) p — r p 2
0,0397
0,15407173
0,5450726260
1,288978001
0,1715191421
0,7229143012
1,323841944
0,03769529724
0.1465183826
0,5216706212
1,270261774
0,5965293261
1,315588447
0,3741338572
0,9257966719
0,0144387553
0,0497855318
p + rp( 1 - p)
a (1 + r)p — r p2
Tabela 1.5:
D w a różne sposoby obliczania w artości tej sa­
mej funkcji kwadratowej na tym sam ym kalkulatorze nie są
równoważne
Jak dotąd obliczaliśm y w artość w yrażen ia p + r p( 1 — p), któ re je s t
m atem atyczn ie tym sam ym co (1 + r ) p — r p 2. Po w prow adzeniu
zm ian do kodu (n ależy zastąp ić „P + R * P * ( 1 - P ) ” przez „ (1 - f
R )* P - R * P * P " w algo rytm ie w tab e li 1 .3 ) jesteśm y ciekaw i, czy
taka m aleńka zm iana w pływ a na w ynik. P o ró w n ajm y re zu lta ty —
występuje całkow ita zgodność aż do 11. iteracji. N astępnie w 12.
m am y niewielką różnicę — na ostatnich trzech m iejscach — 734
i 724.
Dwie różne
implementacje
tego samego
prawa wzrostu,
zadanego funkcją
kwadratową
W pierwszej chwili trudno jest uwierzyć własnym oczom.
Przyjrzyjmy się raz jeszcze 12. iteracji. Tak, to prawda. Oto
znów pojawił się wirus nieprzewidywalności. I odtąd nie
zdziwi nas już załamanie się możliwości przewidywania.
Jeżeli pierwsze eksperymenty nie przekonały Was, że cha­
os jest nie do pokonania, ostatnie rozważania pokazują osta­
tecznie naszą niemoc. Przy używaniu obliczeń o stałej dok­
ładności nie istnieje sposób na niszczycielskie działanie cha­
osu. Możliwość przewidywania wcześniej czy później załamie
się.
W cześn iej czy
później
m ożliw ość
p rzew idyw ania
załam uje się
88
1. Podstawa geometrii fraktainej
Można się spierać, że tego typu zjawiska są rzadkie, ła­
twe do wykrycia lub przewidzenia. Nieprawda! Otóż odkąd
chaos (= załamanie się możliwości przewidywania) zaczął
być modny, w nauce nastąpił prawdziwy zalew artykułów,
które wskazywały na to, że chaos jest właściwie regułą w świę­
cie, podczas gdy porządek (— przewidywalność) jest właś­
ciwie wyjątkiem. Czy jednak nie stoi to w sprzeczności
z, na przykład, udanymi misjami kosmicznymi, takimi jak
misja Voyagera II, który po dwunastu latach podróży po na­
szym układzie planetarnym, gdy opuszczał go, mijając Nep­
tuna, znajdował się tylko kilka kilometrów od przewidzianej
drogi? Okazuje się, że nie. Istnieje uzasadnione przeko­
nanie, że nawet ruch obiektów kosmicznych rządzi się tymi
prawami — wcześniej czy później... Oprócz tego, od czasu,
kiedy pojęcie chaosu deterministycznego pojawiło się na sce­
nie nauki — pomimo jego zaskakujących korzeni w pracach
Henriego Poincarégo na przełomie wieków jest to w zasadzie
osiągnięcie, które stało się możliwe dopiero po wprowadze­
niu komputerów — nastąpił znaczący postęp w głębszym ro­
zumieniu zjawisk takich jak turbulencja, defibrylacja serca,
niestabilność laserów, rozwój populacji, nieprzewidywalność
klimatu, anomalie w działaniu mózgu itd.
C haos m ożna
Co więcej, jest fascynujące i dające nadzieję, że zjawizrozum ieć sko chaosu będzie kiedyś lepiej zrozumiane. Ostatnio stało
się jasne, że chaos m a tendencję do podporządkowywania
się pewnym stałym regułom. Odkrycie i zrozumienie ich za­
wdzięczamy tymże samym komputerom, które są tak wraż­
liwe na błędy wynikające z istnienia chaosu.
Będzie to głównym tem atem rozważanym w rozdziale
11, gdzie będziemy omawiać niesłychanie ciekawe odkrycia
Mitchela Feigenbauma, Siegfrieda Grossmana, Stefana Thomae, i Edwarda Lorenza, jak również Roberta Maya, którzy
znaleźli porządek w chaosie, jak również odkryli drogi wio­
dące od uporządkowania do chaosu.
Prawo rozwoju populacji opisane funkcją kwadratową
p + r p (l —p), które badaliśmy do tej pory, jest tylko jednym z
całej rodziny systemów sprzężenia zwrotnego, wykazujących
bardzo skomplikowane zachowanie. Wyrażenie x 2+c jest in­
nym przykładem — jednak przykładem trywialnym w tym
sensie, że jeżeli wykonamy eksperyment podobny do opi­
sanego w tabeli 1.2 dla c = —2, zaobserwujemy podobne
zachowanie. Przyczyna tego jest po prostu taka, że te dwa
89
1.5, Chaos zwycięż a każdy komputer
procesy można utożamić po zmianie układu współrzędnych,
tzn. są one naprawdę takie same.
Będziem y używali w skaźników w celu oznaczenia kroków iteracji (in ­
deks n dla wejścia, n - f 1 dla w yjścia). M o ż e m y więc zapisać oba
prawa następująco:
+ rp„(l
Pn+1 = P n
~Pn),
0,1,2,3,...
71 =
(1 .9 )
i
x n+i = x l + c,
77
= 0,1,2,3,...
(1 .1 0 )
M o żem y sprawdzić, że po podstaw ieniu
1 - t-2
c = —-—
oraz
1+ r
xn = —
rpn
(1 1 1 )
w zory (1 .9 ) i ( 1 1 0 ) są identyczne.
Rysunek 1.31: Dwa urządzenia iterujące, ściśle powiązane dzięki
zaznaczonym na rysunku przekształceniom
Przeprow adźm y podstaw ienia w celu spraw dzenia równow ażności
w zorów po zm ianie w spółrzędnych. Jeżeli skorzystam y z równości
(1 .1 1 ) dla P n + ir o trzy m a m y
Zn+1 =
1 4- r
^
^Pn+lł
a w ykorzystując rów nanie (1 .9 ) na p n+1(
1+r
M - pn).
x
Zn+1 = —z-----rpn - r 2pn(l
Równoważność
x2 + c
i p + rp( 1 + p )
90
1. Podstawa geometrii fraktalnej
Z drugiej strony rów nanie (1 .1 0 ) z x n i c przekształconym i zgodnie
z (1 .1 1 ) prow adzi do
aW i =
/1 + r
\ 2
1 —r2
— -------- rpn ) + — -—
Po rozw inięciu praw ych stron obu rów nań w idzim y, że są one w rze­
czyw istości ta k ie sam e, m ianow icie rów ne
Z au w ażm y, że r = 3 o dp ow iad a c — —2. W yjaśn ia to pow ód,
dla któ reg o m ogliśm y obserw ow ać to sam o zachow anie obu procesów.
S p raw d źm y d o d atko w o tę rów now ażność obu procesów, podstaw iając
kilka przykładow ych w artości. Jeżeli r = 3 i po = 0 ,0 1 , to c = — 2
i zo = 1 )9 7 , zg o d n ie z ró w n an iam i (1 .1 1 ). O b lic za ją c x n dla n —
10 na k a lku la to rze C A S IO , o trz y m u je m y xiq = —0 ,1 6 8 7 4 2 9 0 3 6 .
Jeżeli p rzekształcim y n o zg odnie z (1 .1 1 ), to o trzy m a m y p i0 =
0 ,7 2 2 9 1 4 3 0 1 2 , co je s t dokładn ie w artością, ja k ą m ożem y odczytać
z ta b e li 1.2 dla 10. iteracji.
Jeżeli, je d n a k że , p o w tó rzy m y pow yższe w yliczen ia dla 50, a nie
10 ite ra c ji, o trz y m a m y x ^q = 0 ,2 3 1 0 1 2 2 9 0 6 i pso = 0 ,2 5 5 0 6 5 5 1 4 2
(zg o d n ie z ró w n an iem ( 1 .1 1 )) , co się całkow icie różni od 50. ite ra­
cji w ta b e li 1.2 . N ie podw aża to je d n a k rów now ażności procesów,
je s t tylko jeszcze je d n y m przykładem na to , że, ja k wcześniej za­
uważyliśm y, dwa różne sposoby obliczeń teg o sam ego m ogą dopro­
w ad zić do niezgodności. O zn ac za to , że i tu chaos w pływ a na po­
praw ność obliczeń.
D laczego
zajm u jem y się
i terow an iem
różnych funkcji
kw adratow ych?
Możemy zadać sobie pytanie, czy warto zajmować się
badaniem x 2 + c, jeśli przebieg iteracji dla tej funkcji jest
taki sam (z dokładnością do zmiany układu współrzędnych)
jak dla funkcji p + rp(l —p)l Istnieje wiele różnych pro­
blemów, rozwiązywanych za pomocą iterowania funkcji kwa­
dratowych, i w zasadzie nie jest ważne, które przedstawienie
funkcji jest badane, gdyż są one sobie równoważne. Jed­
nakże nasze rozumienie matematycznego przedstawienia da­
nego problemu, stopień jego złożoności i interpretacja roz­
wiązania zależą w dużej mierze od wyboru równania kwa­
dratowego. Dlatego też za każdym razem będziemy wybie­
rali takie przekształcenie kwadratowe, które będzie najlepiej
pasowało do danego problemu.
1.5. Chaos zwycięża każdy komputer
91
Zajmijmy się przez chwilę rozważaniami na tem at, czy
możemy w prosty sposób odpowiedzieć na pytanie, czym
jest spowodowane zachowanie chaotyczne? W ydaje się oczy­
wiste, że jeżeli tylko pojawi się niedokładność w procesie
sprzężenia zwrotnego, błąd ten następnie zwiększa się wie­
lokrotnie. Oznacza to, że błąd akumuluje się raptownie, co
jest spowodowane kwadratową postacią funkcji opisującej
ten proces. Innymi słowy możemy przypuszczać, że zacho­
wanie to jest spowodowane podnoszeniem do kwadratu. Jest
tak w istocie, ale zależność jest o wiele bardziej złożona, niż
można by się było spodziewać. Dokładna analiza tego pro­
blemu zawarta jest w rozdziale 10. Przekonajmy się jednak
już teraz, że samo podnoszenie do kwadratu nie wyjaśnia je­
szcze niczego! W tym celu przeanalizujmy następujące dwa
proste eksperymenty.
W naszym ostatnim eksperymencie iterowania funkcji
kwadratowej x n+\ —
+ c przyjęliśmy c — —2 i wystar­
towaliśmy z punktu xq = 1,97. Cóż jednak otrzymamy,
jeśli zaczniemy nasz proces w punkcie, na przykład, xo = 1?
Iteracja doprowadzi do ciągu 1, —1, —1, —1,... Jeśli wybie­
rzemy £o — 2, otrzymamy w wyniku iteracji ciąg 2,2,2 ,...
Znaleźliśmy zatem takie wartości dla xo, dla których nasza
iteracja zachowuje się niesłychanie wprost stabilnie. Mo­
żemy jednak wykazać, że jest to wyjątkiem i że dla pra­
wie wszystkich wartości xq z przedziału [—2,2] zaobserwu­
jemy zachowanie chaotyczne. Jeżeli rozpoczniemy nasz pro­
ces w punkcie xq = 1,999999999, to znaczy z niewielkim
odchyleniem od xo — 2, otrzymamy znowu zachowanie nieu­
porządkowane, o ile tylko przekroczymy odpowiednią liczbę
iteracji. To pokazuje, że analiza błędu nie jest łatwa do prze­
prowadzenia, co staje się jeszcze bardziej widoczne w na­
stępnym eksperymencie.
Zmieńmy naszą iterację radykalnie przez zastąpienie pa­
rametru kontrolnego na c — —1 zamiast poprzedniego c =
—2. Jeżeli niemożność przewidywania wynikałaby tylko z pro­
cesu podnoszenia do kwadratu, to powinniśmy zaobserwować
podobne zachowanie. Przeprowadźmy obserwację startując
tym razem z punktu x q = 0,5, zob. tabela 1 . 6 .
Przebieg iteracji jest następujący: po pewnej liczbie ite­
racji proces ustala się i powtarzają się tylko dwie wartości:
0 i —1. Co więcej, powtórzenie iteracji dla innych wartości
N iep rzew id y­
w alna iteracja
zm ien ia swój
charakter
92
1. Podstawa geometrii fraktalnej
S ied em n aście
iteracji dla x 2 - 1
powtórzenia
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
Tabela 1.6:
z xq = 0,5
X
0,5
-0,75
-0,4375
-0,80859375
-0,3461761475
-0,8801620749
-0,2253147219
-0,9492332761
-0,0989561875
-0,9902076730
-0,0194887644
-0,9996201881
-0,0007594796
-0,9999994232
-0,0000011536
-1,0000000000
-0,0000000000
x2- l
-0,75
-0,4375
-0,80859375
-0,3461761475
-0,8801620749
-0,2253147219
-0,9492332761
-0,0989561875
-0,9902076730
-0,0194887644
-0,9996201881
-0,0007594796
-0,9999994232
-0,0000011536
-1,0000000000
-0,0000000000
-1,0000000000
Pierwszych siedemnaście iteracji startujących
początkowych, na przykład xo = 1 lub xo = 0,75, czy
xo = 0, 25 doprowadza do tego samego rezultatu. Układ
sprzężenia zwrotnego jest obecnie w stanie idealnie stabil­
nym.
Cykle stabilne P od obny ro d zaj stabilności pow inien w y stąp ić podczas iteracji funkcji
w funkcji logistycznej, je że li tylko w y b ierzem y o d p o w ied n ią w artość param etru
logistycznej r i w ielkość pop ulacji p o c zą tk o w e j po* R o zw iązu jąc rów nanie (1 .1 1 )
dla r i p przy ustalonej w artości c = —1, o trz y m u je m y
r = \ / l —4c ~ y/E,
1+ r
x
1 —2x + y/l —Ac 1 —2x + y/E
P ~ 2r ~ r ~
~
2\/5
'
D la ta k ic h p a ra m e tró w istnieje cykl stab iln y o dw óch punktach,
o d p o w iad ając yc h w artościom x = 0 i x = —1, a m ianow icie
= 1+
2V5
= 0,723606797.
1.5. Chaos zwycięża każdy komputer
oraz
3 + ^5 = 1
2\/5
1 7 0 8 2 o 3 9 ...
Widzieliśmy już tego rodzaju zachowanie procesu pod­
czas omawiania kopiarek redukujących, kiedy to otrzymy­
waliśmy zawsze ten sam obraz końcowy, niezależnie od wy­
boru obrazu początkowego. Własność ta nazywa się sta­
bilnością i jest pożądana w wielu przypadkach. Proces wtedy
jest przewidywalny i niewielkie błędy podczas przebiegu za­
nikają lub ulegają redukcji, mogą więc zostać pominięte.
W takim przypadku możemy posługiwać się komputerem
używającym arytmetyki o skończonej precyzji, który teraz
jest narzędziem doskonale się nadającym do analizy tych
przypadków i nie może zawieść.
Jak dotąd potrafiliśmy wykrywać, czy iteracja doprowa­
dza do stanu stabilnego czy nie za pomocą dokładnej analizy
wartości pojawiających się podczas przebiegu iteracji. Ist­
nieje pewna klasa procesów wyznaczonych za pomocą funk­
cji kwadratowych, dla których można przeprowadzić innego
rodzaju test zachowań, test graficzny i bezpośredni.
Ograniczmy nasze rozważania do ¡terowania funkcji po­ Iteracja
staci
graficzna
p rocesów
%n+ 1 ~ Q>Zn { \ — Z n ) .
sprzężenia
Zauważmy, że wykresem funkcji y — ax( l — x), związanej zw rotn ego
z naszą iteracją, jest parabola przebiegająca przez punkty
(0,0) i (1,0), niezależnie od wyboru param etru a. Wierz­
chołek paraboli, którego pierwsza współrzędna jest zawsze
równa 0,5, znajduje się na wysokości a / 4. Iterowanie tej
funkcji kwadratowej jest ponownie równoważne ¡terowaniu
równania logistycznego x n+i = x \ + c. Wybraliśmy taki ro­
dzaj iteracji, gdyż (dla odpowiednich wartości param etru a,
0 < a < 4 — przyp. tłum.) startując z punktu xq znaj­
dującego się pomiędzy 0 a 1, proces, jaki opisuje nasza ite­
racja, już zawsze tam pozostanie. Istnieje efektywny sposób
konstrukcji ciągu xo, x i, X2 , ... za pomocą linijki i przy użyciu
wykresu paraboli, ilustrujący poglądowo przebieg iteracji
nazywanej iteracją graficzną.
93
1. Podstawa geometrii fraktalnej
94
Zasada iteracji
graficznej
R y s u n e k 1 .3 2 : P ierw sze kroki iteracji graficznej
Do przeprowadzenia iteracji trzeba najpierw wyznaczyć
wykres funkcji y — ax( 1 — x) oraz dwusieczną (przekątną
kwadratu, zob. rysunek 1.32). Następnie należy zaznaczyć
punkt xq na osi x i przeprowadzić linię pionową wychodzącą
z punktu #o, a kończącą się w momencie przecięcia wykresu
funkcji. Od tego punktu zaczynamy rysować linię poziomą
do punktu przecięcia z przekątną, a stąd znowu linię pionową
do punktu przecięcia z wykresem itd.
Zachow anie
sta b iln e
a=2,75
R y s u n e k 1 .3 3 : Iteracje graficzne dla takich trzech w artości pa­
ram etru, które prow adzą do zachow ania stab iln ego
Dlaczego procedura ta prowadzi do zamierzonego rezul­
tatu ? Dzieje się tak, ponieważ każdy punkt na przekątnej
jest w tej samej odległości od każdej osi. Tą metodą możemy
dosłownie zobaczyć, czy iteracja prowadzi do stanu stabil­
nego czy niestabilnego. Na rysunku 1.33 pokazano metodę
graficznej iteracji dla trzech różnych wartości param etru a
L 5 . Chaos zwycięża każdy komputer
95
w stabilnym zakresie procesu. Dla a = 1,45 możemy zaob­
serwować powstanie w czasie iteracji schodków, które zbie­
gają w kierunku punktu przecięcia wykresu z przekątną. Dla
a = 2,75 iteracja generuje spiralę zbiegającą do punktu prze­
cięcia wykresu i przekątnej. Dla a = 3,24 możemy zaobser­
wować, jak iteracja prowadzi do powstania cyklu.
Zachowanie
n iestab iln e
Rysunek 1.34:
Zachowanie niestabilne dla a = 4. B ierzem y tę
sam ą wartość początkow ą dla różniących się liczb iteracji
Na rysunku 1.34 przedstawiona jest iteracja dla a = M ieszanie
4 i jednej wartości początkowej xo; poszczególne rysunki
różnią się jednak liczbą przeprowadzonych kroków iteracji.
Od lewej do prawej pokazane są iteracje po 10, 50 i 100 kro­
kach. Proces wyraźnie nie zatrzymuje się. Zamiast upo­
rządkowanego zachowania w granicy stopniowo zapełnia całą
dostępną przestrzeń. Zjawisko to, nazywane mieszaniem,
jest wskaźnikiem niestabilnego stanu systemu. Co prawda
do stwierdzenia istnienia prawdziwej niestabilności powin­
niśmy użyć o wiele bardziej subtelnych metod analizy, by
wykluczyć przypadek cyklu o bardzo długim okresie. Mo­
żemy na przykład spytać, jaka jest różnica pomiędzy pajęczynkami na rysunku 1.33 (a = 3,2) i na rysunku 1.34
(a = 4).
Pokazaliśm y ju ż w cześniej, ze ¡terow anie funkcji logistycznej je s t rów ­
now ażne ¡terowaniu funkcji x 2 -b c. T e ra z w ykażem y rów now ażność
iteracji opierającej się na funkcji az( 1 — z)> ja k ie j używ aliśm y w m e­
to d zie graficznej. P rzyp o m n ijm y, że rów nanie
Pn+ l = Pn
+ rpn(l - pn)
i 1 -1 2 )
przy użyciu podstaw ienia
zn = — — pn
r+ 1
oraz
a = r+ 1
(1.13)
Równoważność
iteracji graficznej
i modelu rozwoju
populacji
1. Podstawa geometrii fraktalnej
96
przybiera postać
Zn +
1 — a Zn ( \
Z n ).
(1'14)
O b lic z a m y zn+i , u żyw a ją c rów nania (1 .1 3 ) oraz funkcji logistycznej,
a następnie, posługując się w zorem (1 .1 4 ), spraw dzam y, czy zgadza
się to z w y n ikiem ite ra c ji. O trz y m u je m y
Zn+l —
r
| rPn+1
r+ 1
T
{Pn + rPn( l - P n ) )
r+ 1
r' 2
2
- 7 T i Pn
=
i z drugiej stro ny
Zn+i — azn {\
=
rP n ~
zn)
rr z+ r1P n '
W y k a z a liś m y z a te m , że ¡terow anie p n+ i = Pn+rpn( l —pn) jes t w rze­
czyw istości ty m sam ym co ¡terow anie z n+1 = azn(l —zn). W istocie
¡terow anie ja k ie jk o lw ie k funkcji kw adratow ej je s t rów now ażne ¡tero­
w aniu fu n kcji logistycznej (z od p o w ied n io dobranym p a ra m e tre m ).
D ow ó d teg o je s t p o d o b n y do w yliczeń przedstaw ionych pow yżej.
P rzep row ad zęAnaliza procesu opisanego przez układ sprzężenia zwrot­
nie an alizy nego dlatego jest tak trudna, że stany stabilne i niestachaosu je st bilne przeplatają się ze sobą w niesłychanie skomplikowany
tru d n e sposób. Układ sprzężenia zwrotnego może zachowywać się
w sposób łatwy do przewidzenia lub nie, w zależności jedynie
od ustawienia param etrów kontrolnych.
Odbywa się to podobnie jak w systemie używanym do
przewidywania pogody. Istnieją stany, w których przewidy­
wanie jest możliwe (jak systemy wysokiego ciśnienia nad ob­
szarami pustynnymi stanu Utah, USA); lecz również, podob­
nie jak przedtem, istnieją sytuacje, w których możliwość
przewidywania załamuje się. W tedy to wymyślne, warte
1.6. Program na zakończenie rozdziału
wiele milionów dolarów, urządzenia oraz najtęższe umysły
mogą przewidywać z równym skutkiem jak każdy z nas, gdy
powiemy, że pogoda jutro będzie taka sama jak dziś. Ozna­
cza to, że oba systemy mogą potencjalnie zachowywać się
na dwa różne sposoby i istnieje możliwość przejścia od jed­
nego sposobu do drugiego. Stanowi to podstawę działu ma­
tematyki, czy raczej nauki, o chaosie. Temat ten jest ściśle
związany z fraktalami, co opiszemy w rozdziałach 10 i 11.
Najlepszym sposobem do opisu tej relacji jest powiedzenie,
że geometria fraktalna jest geometrią chaosu.
1.6. P ro g r a m n a z a k o ń c z e n ie rozd zia łu :
itera cja g ra ficzn a
Do każdego rozdziału tej książki napisaliśmy program kom­
puterowy, program na zakończenie rozdziału, który odpo­
wiada którejś z ważnych konstrukcji zawartych w danym
rozdziale. Programy te są krótkie, co ułatwia wprowadzenie
ich do komputera, jak również — co jest nawet ważniejsze
— zrozumienie, co one wykonują. Programy napisaliśmy
w języku BASIC. Tak, to prawda! Wyobrażamy sobie za­
rzuty, jakie ludzie mogą wnosić, ponieważ uważają ten język
za przestarzały, niewydajny, bez struktury i który, jak wia­
domo, uniemożliwia pisanie dobrych programów. Dlaczego
więc go wybraliśmy?
Po pierwsze, jest to język łatwo dostępny dla wszyst­
kich programistów. Często jest to język wbudowany lub
darmowo dołączany do wielu komputerów; w każdym ra­
zie nie jest problemem uzyskanie go po niskiej cenie. Co
więcej, uważamy, że BASIC, a właściwie to co z niego bie­
rzemy, jest tak łatwy do zrozumienia, że nawet ktoś, kto nie
miał do czynienia z programowaniem, powinien móc zro­
zumieć, co dany program wykonuje. Dlatego z niewielkim
wysiłkiem można zacząć eksperymentować i próbować mo­
dyfikować programy. Na zakończenie wreszcie, dla wielbi­
cieli piękniejszych języków komputerowych nie powinno sta­
nowić problemu przetłumaczenie tych programów na Wasz
ulubiony dialekt i błyskawiczne wpisanie do komputera.
Wszystkie programy, jakie podajemy w tej książce, zo­
stały napisane przy użyciu Microsoft BASIC na kompute­
rze Apple Macintosh. Wypróbowaliśmy również nasze pro-
97
98
1. Podstawa geometrii fraktalnej
gramy na komputerach kompatybilnych z komputerem oso­
bistym IBM (zob. uwagi dla użytkowników PC). Powinny
one zatem działać i na tego typu komputerach bez spe­
cjalnych kłopotów. Większość programów dostarcza wy­
ników głównie w postaci graficznej, pojawiającej się w części
ekranu o kształcie kwadratu. Obszar ten zaczyna się w le­
wym górnym rogu ekranu w punkcie (lew y,lew y) i jest na
w pikseli szeroki. Param etry te są ustawione jako lewy =
30 i w = 300, można jednak je łatwo zmienić, by lepiej pa­
sowały do rozmiarów ekranu danego komputera. Do wy­
konywania rysunków używamy dwóch bardzo popularnych
rozkazów BASIC-u: LINE i PSET. Rozkaz
LINE ( x l ,y l ) - (x2,y2)
powoduje narysowanie prostej od punktu (x l ,y l) do punktu
(x 2 ,y 2 ).25
Następny rozkaz
PSET ( x l , y l)
powoduje narysowanie punktu (x l , y l ) . Przeanalizujmy te­
raz nasz pierwszy program.
Iteracja
graficzna
Rysunek 1,35:
Obraz z ekranu dla programu „Iteracja graficzna”
Iteracja graficzna jest pouczającym sposobem wizualiza­
cji dynamiki przebiegu procesu. Jako przykład26 rozważmy
25 Jeżeli pierwszy z tych punktów nie jest określony, to rysowanie
prostej zaczyna się w punkcie bieżącym, którym jest punkt końcowy
prostej z ostatniej komendy LINE albo PSET.
26 Łatwo można zastąpić tę funkcję inną — wymaga to zmiany
jedynie dwóch linii programu.
99
1.6. Program na zakończenie rozdziału
Program w B A SIC -u
T ytuł
Iteracja graficzna
E ksperym enty z funkcją kw adratow ą
INPUT „Parametr a, start xO” ,a,xO
lewy = 30
w = 300
m= 1
imax = 10
REM RYSOWANIE DWUSIECZNEJ I FUNKCJI
LINE (lewy+w,lewy) - (lewy,lewy+w)
FOR i—1 TO w
xn = i/w
FOR k = 1 TO m
xn = a*xn*(l-xn)
NEXT k
LINE - *(i+lewy,lewy+w* (l-xn) )
NEXT i
REM
xn =
PSET
FOR
POCZĄTEK W x0
x0
(lewy+w*xn, lewy+w)
i = 1 TO imax
REM OBLICZANIE WARTOŚCI FUNKCJI
FOR k = 1 TO m
xn = a*xn*(l-xn)
NEXT k
REM RYSOWANIE LINII PIONOWEJ I POZIOMEJ
LINE - (lewy+w*xO,lewy+w*(l-xn))
LINE - (lewy+w*xn,lewy+w*(l-xn))
xO=xn
NEXT i
END
iterację funkcji kwadratowej
x n+i = f a ( x n ),
f a ( x ) = ax( l - x ) ,
O < a < 4.
Powyższy program pozwala na śledzenie iteracji graficznej
dla funkcji f a przy różnych wartościach param etru a i punktu
początkowego x q . Przed uruchomieniem programu użytkow­
nik powinien wprowadzić (na polecenie IN P U T ) wartości a
i x 0.
Program rysuje najpierw wykres funkcji f a (a właściwie
m -tą iterację /™, gdzie m > 1) i przekątną układu współ­
rzędnych. Możemy zmienić wartość m wprost w programie.
100
1. Podstawa geometrii fraktalnej
Zauważmy, że w programie — który tu umieszczamy — jest
m = 1.
Iteracja graficzna zaczyna się od wartości początkowej
x0. Potem wykonywane są następujące czynności:
• jest obliczana wartość xn funkcji f a (lub m-tej iteracji /™),
• jest rysowana linia pionowa do wykresu funkcji (w górę lub
w dół do wartości xn),
• od tego punktu rysowana jest linia pozioma do przekątnej.
Po wykonaniu imax powtórzeń (początkowo liczbą tą
jest 10) tych kroków, program zatrzyma się. Jeżeli chcemy
zmienić liczbę wykonywanych kroków, wystarczy zmienić
wartość imax. Podczas przeprowadzania eksperymentów z
programem możemy podstawiać różne wartości występujące
pomiędzy 0 a 1 jako wartości początkowe dla różnych wartoś­
ci param etru a. Dla danej funkcji kwadratowej wartość pa­
ram etru a powinna znajdować się pomiędzy 0 a 4. Proponu­
jemy spróbować podstawić jako param etr liczby: 1,75, 2,0,
2,75, 3,1, 3,5, 3,6, 3,83 i 4,0.
Uwagi dla
użytkowników
komputerów PC
Jeżeli m a m y do dyspozycji ko m p u ter ko m p atyb iln y z IBM PC, pow inniśm y ju ż przyzw yczaić się do niew ygody polegającej na ty m , że
za n im m o żem y w ykon ać ja k ik o lw ie k program graficzn y potrzebna jest
karta g raficzn a, a następnie trze b a ustaw ić odpow iedni try b graficzny.
Sposób w ykon ania teg o zależy od budow y danego ko m putera. W y ­
ko rzystujem y w te j książce je d y n ie try b czarno-biały. Pow inno to
u łatw ić w ykon anie program ów .
W język u B A S IC instrukcja SCREEN (n ie chodzi tu o funkcję o tej
sam ej n a zw ie) po zw ala na ustaw ienie różnych try b ó w graficznych.
N a przykład SCREEN 1 um ożliw i działanie grafiki z rozdzielczością
3 2 0 na 2 0 0 pikseli. N a to m ia s t SCREEN 2 daje nam w kierunku osi
x naw et w iększą rozdzielczość (6 4 0 pikseli). P row adzi to je d n a k do
pow stania o b razó w z n iep o żąd an ym dla nas e fe k te m skali. SCREEN
9 pow inna dać rozdzielczość 6 4 0 na 3 5 0 pikseli. D o k ła d n y opis pow i­
nien zn ajd o w ać się w opisie ko m p u tera. P rogram y, ja k ie zn ajd u ją się
w te j książce, w y ko n u ją rysunki w fo rm ie kw ad ratu szerokie na około
3 0 0 pikseli. M o żn a to zm ienić p o d staw iają c inne w artości dla zm ien­
nej w , któ ra zn a jd u je się w większości p rogram ów . Jeżeli kom puter
dyspo nuje kartą g rafic zn ą, któ rą m oże jed y n ie w yśw ietlać 2 0 0 linii,
m ożna ustaw ić w = 2 0 0 . W iększa rozdzielczość je s t je d n a k bardziej
o d p o w ied n ia.
N ie używ aliśm y num erow ania (n ad aw an ia e ty k ie t) w szystkich ko-
1.6. Program na zakończenie rozdziału
lejnych poleceń. Jeżeli ję zy k tego w ym ag a, po prostu należy nadać
etykiety kolejnym poleceniom . Jednak trze b a to w ykonać ta k , by
nie pow stała sprzeczność z e tyk ietam i ju ż istniejącym i. N a przykład
jeżeli pierwszą e tyk ietą, ja k ie j użyliśmy, je s t 100, w szystkie poprze­
dnie polecenia m ożem y num erow ać tylko liczbam i od 1 do 9 9 . Jeżeli
naszym następnym oznaczeniem je s t 2 0 0 , w szystkie linie pom iędzy
nimi m ogą mieć oznaczenia od 101 do 199 itd.
101
R ozdział 2
K lasyczne fraktale
i sam opodobieństw o
W matematyce sztuka stawiania problemów jest ważniejsza
od sztuki ich rozwiązywania.
Georg Cantor
M andelbrota uważa się często za ojca geometrii fraktalnej.
Niektórzy m atematycy przypominają jednak, że wiele fraktali i ich opisów wywodzi się z klasycznej matematyki.
Wśród matematyków związanych z fraktalami możemy wy­
mienić na przykład Georga Cantora (1872), Giuseppe Peana
(1890), Davida Hilberta (1891), Helge’a von Kocha (1904),
Wacława Sierpińskiego (1916), Gastona Julię (1918) czy Felixa Hausdorffa (1919). To prawda, że konstrukcje tych
matematyków odegrały kluczową rolę w stworzonej przez
M andelbrota idei nowej geometrii. Jednocześnie jednak jest
prawdą, że nie powstawały one w celu stworzenia podstaw
nowego spojrzenia, czy nowej geometrii natury. Obiekty, ta ­
kie jak zbiór Cantora, krzywa Kocha, krzywa Peana, krzywa
Hilberta i trójkąt Sierpińskiego uważane były raczej za obiek­
ty wyjątkowe, kontrprzykłady, matematyczne monstra. Ale
być może nasze stwierdzenie jest pewnym przejaskrawie­
niem. W rzeczywistości wiele wczesnych fraktali powstało
1UO
przy próbach dogłębnego zrozumienia pojęć podstawowych
(takich jak np. „ciągłość” czy „krzywa”). Zbiór Cantora,
dywan Sierpińskiego i gąbka Mengera są szczególnie ważnymi
przykładami dzięki ich głębokim korzeniom i podstawowej
roli, jaką odegrały w rozwoju wczesnej topologii.
Nawet w kręgach matematyków ich głębokie znaczenie W yn atu rzen ie
się nieco zatraciło — nie były one postrzegane jako kształty czy typow ość?
typowe, a raczej jako kształty przejawiające odchylenia od
normalnych struktur. Mandelbrot udowodnił później, że te
„wczesne” matematyczne fraktale m ają wiele cech wspólnych
z kształtami, które można znaleźć w naturze. Stąd wziął się
tytuł jego książki, opublikowanej w 1982 r., The Fractal Ge­
ometry of Naturę (Fraktalna geometria natury).1 Możemy
zatem powiedzieć, że Mandelbrot odwrócił oficjalną inter­
pretację i ocenę tych fantastycznych obiektów do góry no­
gami. W rzeczywistości zrobił on o wiele więcej. Takie
struktury jak zbiór Cantora istniały już wcześniej. Ale to
Mandelbrot stworzył język, który umożliwił integrację wszy­
stkich wcześniejszych obiektów fraktalnych. Zauważył, że to,
co wydaje się wyjątkiem, stanowi raczej regułę, z własnym
słownictwem i własną gramatyką. Zgodnie z tym co Mandel­
brot sam twierdzi, nie podążał on za jakimś jednym wielkim
planem podczas realizacji tego programu. Było to raczej
podsumowanie jego złożonego — chciałoby się rzec samotni­
czego — doświadczenia naukowego w matematyce, lingwi­
styce, ekonomii, fizyce, naukach medycznych, czy sieciach
komunikacyjnych, by wspomnieć choć o kilku dziedzinach,
w których był aktywny.
Zanim otworzymy naszą galerię klasycznych fraktali Sam opodobieńi omówimy szczegóły niektórych z tych wczesnych arcydzieł, stw o
wprowadźmy pojęcie samopodobieństwa. Pojęcie to będzie
się powtarzało dla wszystkich fraktali, wyraźniej dla jed­
nych, a tylko w pewnej odmianie dla innych. W pewnym
sensie słowo „samopodobny” nie wymaga wyjaśnień. Obe­
cnie podamy jedynie przykład wzięty z natury i mający
tę własność, a mianowicie kalafior. Nie jest to przykład
klasycznego matematycznego fraktala, jednak dzięki niemu
pojęcie samopodobieństwa jest intuicyjnie jasne bez żadnej
matematyki. Główka kalafiora składa się z różyczek, które
po oddzieleniu od reszty przypominają całą główkę, tyle że
1 Freeman, 1982.
104
2. Klasyczne fraktale i samopodobieństwo
Sam op o d o b ień stw o
kalafiora
Rysunek 2.1:
Sam op odob ień stw o zw yczajnego kalafiora, zade­
m onstrow ane przez rozłożenie go na cząstki i dw ukrotne kolejne
pow iększenie (u dołu ). M ałe cząstk i w ygląd ają podobnie jak cały
kalafior
w pomniejszeniu. Części te mogą być znowu podzielone na
jeszcze mniejsze cząstki, które znowu są podobne do całego
kalafiora, jak również do części, z której zostały oddzie­
lone. Ta własność samopodobieństwa przenosi się na trzecią
i może czwartą generację. Potem różyczki stają się za małe,
by je dzielić. W matematycznym modelu fraktali własność
samopodobieństwa przenosi się na następną generację nie­
skończenie wiele razy. Prowadzi to do powstania nowych
pojęć, takich jak wymiar fraktalny, który można stosować
również do obiektów, nie mających dowolnie małych części.
S am op od ob ień ­
Zasada samopodobieństwa występuje w matematyce wie­
stw o w sy stem ie lokrotnie. Jednym z najstarszych i najważniejszych przyk­
d ziesiętn ym ładów jest nasz system dziesiętny.2 Trudno sobie wyobrazić,
2 Leonardo z Pizy, znany także jako Fibonacci, przyczynił się do
wprowadzenia do matematyki cyfr arabskich 0 , 1 , 2 , 3 , 4 , 5 , 6 , 7 , 8 i 9.
1UO
czym bez niego byłaby współczesna matematyka i nauki przy­
rodnicze. Jesteśmy do niego tak przyzwyczajeni, że wydaje
nam się, jakby istniał zawsze. Nie jest to prawda. Jego
obecna forma powstała w wyniku długiego procesu kultu­
rowego i jest bardzo podobna do zasady tworzenia fraktali. System dziesiętny stworzył również podstawy systemu
metrycznego (pomiaru długości, powierzchni, pojemności,
ciężaru itd.). Przyjrzyjmy się miarce z zaznaczonymi de­
cymetrami (dzięsięc tworzy metr), centymetrami (dziesięć
tworzy decymetr, sto — metr) i milimetrami (dziesięć two­
rzy centymetr, tysiąc zaś m etr).3 Jeden decymetr miarki
wygląda jak cała miarka pomniejszona dziesięć razy. Nie
jest to przypadkowe. Odpowiada to dokładnie systemowi
dziesiętnemu. Na przykład 357 mm to 3 decymetry, 5 cen­
tymetrów i 7 milimetrów. Oznacza to, że pozycje poszcze­
gólnych cyfr wyznaczają ich położenie, podobnie jak to się
dzieje w systemie dziesiętnym. M etr składa się z tysiąca mili­
metrów, lecz kiedy mamy wyznaczyć 357 pozycję nie będzie­
my przecież liczyli 357 części od lewej do prawej. Zamiast
tego najpierw wyszukamy trzecią kreskę oznaczającą decy­
metry, od tego miejsca piątą odpowiadającą podziałowi na
centymetry, a wreszcie od tego miejsca siódmą milimetrową.
Dla większości z nas takie postępowanie jest oczywiste. Do­
piero ktoś, kto musi posługiwać się systemem mil, jardów
i cali, może docenić piękno systemu dziesiętnego. Odczy­
tywanie położenia punktu na miarce odpowiada wędrówce
po rozgałęzieniach drzewa, drzewa liczb dziesiętnych (zob.
rysunek 2.2). Budowa tego drzewa uwydatnia samopodoPierwsze siedem rozdziałów jego najlepiej znanej pracy, Liber abaci
(1202, „Księga o liczbach”), zajmuje się tłumaczeniem pozycji cyfry —
określa ona, czy dana cyfra obrazuje jednostkę, dziesiątkę, setkę itd.—
oraz demonstruje użycie tego systemu do operacji arytmetycznych.
3 System metryczny jest obecnie używany przez naukowców
większości narodów. Został on stworzony przez francuskie Zgromadze­
nie Narodowe w latach 1791-1795. Jego użycie rozszerzało się powoli,
ale w sposób ciągły. Do wczesnych lat siedemdziesiątych już tylko nie­
wiele krajów (w tym Stany Zjednoczone) używało innych systemów
miary. Od roku 1960 określeniem metra był: 1 metr = 1 650763,73
długości fali pomarańczowo-czerwonej linii widmowej atomu kryptonu
86 w ściśle określonych warunkach. (Obecna definicja: 1 metr jest to
długość drogi przebytej w próżni przez światło w czasie 1/299792458 s
— przyp. red. wyd. polskiego.) Około roku 1790 został on zdefinio­
wany jako 1/10 000 000 długości ćwierci obwodu koła wielkiego Ziemi,
biegnącego od Bieguna Północnego przez Paryż do równika.
106
2. Klasyczne fr akt ale i samopodobieństwo
bieństwo systemu dziesiętnego. Podobne drzewa podziału
odzwierciedlają samopodobieństwo konstrukcji fraktali, roz­
ważanych w tym rozdziale.
m etr
decym etr
centym etr
milimetr
R ysunek 2.2; Linią pogrubioną oznaczone są gałęzie drzewa
dziesiętnego, odpowiadające liczbie 357
2 .1 . Z b iór C a n to r a
Cantor (1845-1918) był niemieckim matematykiem z uni­
wersytetu w Halle. Prace jego są jednymi z najważniejszych
w tworzeniu współczesnych podstaw matematyki, a w szcze­
gólności teorii mnogości.
Zbiór Cantora pierwszy raz pojawił się4 w pracy opubli­
kowanej w roku 1883 jako przykład zbioru o wyjątkowych
własnościach.5 Powinniśmy powiedzieć, że w zwierzyńcu
dziwolągów matematycznych, klasycznych fraktali, pełni naj­
ważniejszą rolę, mimo że nie jest specjalnie pociągający dla
oka. Nie jest też odpowiedni do ilustracji właściwości frak­
tali. Wiemy obecnie, jak ważna jest rola zbioru Cantora
w wielu dziedzinach matematyki. Jest nieodzowny, w bar­
dzo głębokim sensie, do zrozumienia chaosu w układach dy­
namicznych (spróbujemy naświetlić ten problem choć tro­
chę), jak również stanowi podstawę dla innych fraktali (np.
zbiorów Julii, w rozdziale 12).
4 G. Cantor, Über unendliche, lineare Punktmannigfaltigkeiten V,
Math. A nn. 2 1 , 545-591 (1883).
5 Zbiór Cantora jest przykładem doskonałego i nigdzie gęstego
podzbioru odcinka.
z .i. ¿Dior oantora
i u/
G eorg C antor
Rysunek
2 .3 : G eorg Cantor, 1845-1918
Podstawowy zbiór Cantora jest to nieskończony zbiór
punktów odcinka jednostkowego [0,1]. Oznacza to, że może­
my interpretować go jako zbiór pewnych liczb, na przykład
0, 1, 1/3, 2/3, 1/9, 2/9, 7/9, 8/9, 1/27, 2/27,... Jeśli za­
znaczylibyśmy te, jak również pozostałe punkty tego zbioru
(jeśli oczywiście znalibyśmy je), niewiele byśmy zobaczyli.
Dlatego posłużymy się pewnym prostym sposobem. Otóż
zamiast rysować punkty, narysujemy pionowe odcinki o jed­
nakowej długości, które zaczynać się będą we wszystkich
punktach zbioru Cantora. Pozwoli nam to ujrzeć trochę le­
piej rozkład tych punktów na odcinku. Rysunek 2.4 może
dać nam pewne wyobrażenie o zbiorze Cantora. Jeśli jed­
nak chcemy go poznać, to najważniejszy jest sposób, w jaki
powstaje.
Zacznijmy od przedziału [0,1]. Następnie wyrzućmy ot­ K onstrukcja
warty przedział (1/2,2/3), tzn. usuńmy środkową trzecią zbioru C antora
część przedziału [0,1] bez liczb 1/3 i 2/3. Pozostaną dwa
przedziały: [0,1/3] i [2/3,1], o długości 1/3 każdy i kończy to
podstawowy krok konstrukcji. Następnie powtarzamy krok
konstrukcji w ten sposób, że z przedziałów [0,1/3] i [2/3,1]
usuwamy środkowe części trzecie, otrzymamy więc cztery
przedziały o długości 1/9 każdy. Postępujemy tak dalej. In­
nymi słowy jest to układ sprzężenia zwrotnego, generujący
ciąg domkniętych przedziałów — jeden w kroku zerowym,
108______________
2. Klasyczne frakt ale i samopodobieństwo
Zbiór C antora
R ysunek 2.4: Zbiór Cantora jest tutaj przedstawiony w po­
staci linii pionowych nad wszystkimi punktami należącymi do tego
zbioru
dwa w pierwszym, cztery w drugim, osiem w trzecim itd.
(tzn. 2n przedziałów o długości l / 3 n każdy w n-tym kroku).
Na rysunku 2.5 przedstawiamy graficznie tę konstrukcję.
R ysunek 2.5: Kilka początkowych kroków konstrukcji zbioru
Cantora
K oń ce od cin k ów
Co znajduje się w zbiorze Cantora? Są to punkty, które
zn ajd u ją się pozostaną po nieskończenie wielu etapach usuwania środko­
w zbiorze wych części. Co znaczy nieskończenie wielu? Weźmy dla
C antora... przykładu punkt x. Znajduje się on w zbiorze Cantora, jeśli
możemy mieć pewność, że niezależnie od tego, jak wiele razy
usuwaliśmy odcinki, punkt x nie był usunięty. Takimi punk­
tam i są 0, 1, 1/3, 2/3, 1/9, 2/9, 7/9, 8/9, 1/27, 2 /2 7 ,...,
ponieważ są to końce odcinków powstałych podczas kon­
strukcji — muszą więc pozostać. Wszystkie te punkty mają
jedną rzecz wspólną. Są one mianowicie związane z potęgami
trójki, a właściwie z potęgami 1/3. Jest to ważne spostrze­
żenie, które wykorzystamy jeszcze później do zrozumienia
zbioru Cantora. Mogłoby się wydawać, że wszystkie punkty
zbioru Cantora są tej postaci, tzn. że są to końce przedziałów
powstałych w trakcie konstrukcji. Nic bardziej błędnego!
Poniżej przedstawimy rozumowanie, które do pewnego stop­
nia wyjaśni tę sprawę.
109
2.1. Zbiór Cantora
Jeżeli zbiór Cantora składałby się tylko z końców od­ ...ale to nie
cinków powstałych podczas konstrukcji, moglibyśmy je ła­ w szystk o
two ponumerować tak, jak pokazano na rysunku 2.6.
K oń ce odcin k ów
poziom 0
0
poziom 1
poziom 2
Rysunek 2.6: Zliczanie końców odcinków powstałych w kon­
strukcji zbioru Cantora. W kroku Ar, k > 0, powstaje 2k nowych
końców odcinków. Numerujemy je jak na rysunku
Oznaczałoby to, że zbiór Cantora jest przeliczalny, a wia­
domo, że nie jest.6 Będzie to pokazane później. Nie możemy
zatem w żaden sposób ponumerować zbioru Cantora, a co
za tym idzie składa się on także z punktów nie będących
końcami odcinków z jego konstrukcji. Czy możemy podać
jakieś przykłady? Aby to zrobić, użyjemy prostego, lecz
dającego duże możliwości opisu zbioru Cantora używającego
rozwinięcia trójkowego.
Przyjrzyjmy się najpierw, co możemy uzyskać przy użyciu
systemu dziesiętnego. Przypomnijmy sobie rozważania zwią­
zane z miarką. Usuwajmy teraz części takiej miarki w ko­
lejnych krokach (zob. rysunek 2.7). Zacznijmy od m etra
i usuńmy z niego piąty decymetr od lewej w kroku 1. Po­
zostało nam więc dziewięć decymetrów, z których usuwamy
z kolei w drugim kroku każdy piąty centymetr. W trze­
cim kroku z pozostałych 81 odcinków centymetrowych usu­
wamy piąte odcinki milimetrowe. Następnie kontynuujemy
ten proces i w czwartym kroku dochodzimy do rozważania
dziesiątych części milimetra itd. Konstrukcja ta jest bardzo
podobna do klasycznej konstrukcji zbioru Cantora. Zbiór
punktów, które nie zostaną usunięte w żadnym kroku jest
fraktalem; nosi on również nazwę zbioru Cantora.
Pouczające jest odniesienie konstrukcji zmodyfikowanego
zbioru Cantora do drzewa rozwinięcia dziesiętnego z rysunku
2.2. Usuwanie fragmentu z metrowej miarki odpowiada wy­
cinaniu gałęzi w tym drzewie. W pierwszym kroku odcinamy
6 Zobacz niżej, s. 116.
M odyfikacja
używ ająca
system u
d ziesiętn ego
110
2. Klasyczne fraktale i samopodobieństwo
i i i u u i i |11 i i i i i i i i | i i i i 11 i m | i i i u i 11 i [ i i i u i i 11 | i i ii i i u i | 111 i i u i i j 1111 j i i 11 | m 'i 11111 | i i u i i i i i
0
i i i i
1
2
3
4
5
6
i 111111111 1ii j111111
111^
111 11
11nr-i in 11 r 11111 n r r i j 1111
n 1
1111
“
0
i i i
]
i i i i “
1
im
2
3
4
u r^77771777^77777777^
n
n*m ‘i*r i
0
2
'
3
m
5
I
4
8
9
i u j i i i i n i i i | i i i i ln im
i iijiii i1111111
i i n i i i |1
i1i1i11
iniii
6
5
7
7
8
9
1 n 11 \ j 11
^7771777^77777777^77777777^
8
9
Rysunek 2.7: W tej metrowej miarce usunięto odcinki: piąty
decymetr (krok 1), piąte centymetry (krok 2) oraz piąte milime­
try (krok 3). Są to trzy pierwsze kroki konstrukcji dziesiętnej
modyfikacji zbioru Cantora
Rysunek 2.8: Przedstawienie rozwinięcia dwójkowego za pomocą
drzewa o podwajających się gałęziach. W odróżnieniu do praw­
dziwych drzew rysujemy drzewo adresowe, tak więc korzeń jest na
górze. Do każdej liczby z odcinka [0,1] na dole możemy dotrzeć
startując od korzenia na szczycie i poruszając się po odpowiednich
gałęziach. Jeśli zapiszemy kolejne cyfry oznaczające te gałęzie (0
dla lewego, 1 dla prawego odgałęzienia), to otrzymamy rozwinięcie
dwójkowe wybranej liczby rzeczywistej. Drzewo dwójkowe jest samopodobne: każde dwa rozgałęzienia w każdym z wierzchołków są
pomniejszonymi kopiami całego drzewa
główną gałąź oznaczoną numerem 5. W następnych krokach
wycinamy kolejne gałęzie oznaczone cyfrą 5. Oznacza to, że
zatrzymujemy jedynie te liczby, które w swym rozwinięciu
dziesiętnym nie zawierają cyfry 5. Oczywiście to, że usu­
wamy właśnie piąte decymetry, centymetry, milimetry itd.
111
2.1. Zbiór Cantora
nie jest istotne. Moglibyśmy równie dobrze odrzucić wszyst­
kie liczby zawierające w rozwinięciu dziesiętnym cyfrę 6 lub
na przykład cyfry 3,4,5 i 6. Zależnie od wyboru otrzymamy
jakąś modyfikację zbioru Cantora. Nigdy jednak nie otrzy­
mamy w ten sposób klasycznego zbioru Cantora, do tego
potrzebujemy liczb trójkowych ,
Liczby trójkowe są to liczby o podstawie 3. Oznacza to, C harakterystyka
że do zapisu liczby możemy użyć jedynie cyfr 0,1 i 2. W po­ zbioru C antora
niższej tabeli podajemy kilka przykładów.
dziesiętne
jako potęgi trójki
trójkowe
4
17
0 ,3 3 3 ...
0,5
1 • 3 1 + 1 • 3°
1 • 3 2 + 2 • 3 1 + 2 • 3°
1 -3 " 1
1 • 3 _1 + 1 • 3 -2 + 1 • 3 -3 + • •
11
122
0,1
0 , 111 ...
Tabela 2.1: Zamiana czterech liczb dziesiętnych na liczby trój­
kowe
P rzyp o m n ijm y zasadę naszego system u dziesiętnego. Szczególnie
będzie nas interesowało przedstaw ianie w nim liczb. Jeżeli na przykład
napiszem y 0 ,3 2 5 7 3 , oznacza to
3 • 1 0 “ 1 + 2 • 1 ( T 2 + 5 ■1( T 3 + 7 • 1 ( T 4 + 3 • 1 ( T 5 .
Każdą liczbę z odcinka [0 ,1 ] m ożem y przedstaw ić w postaci
x = o i • lC T 1 + a2 • 1C T 2 + o 3 • 1 0 “ 3 + . .. ,
(2 .1 )
gdzie o i, a,2 , a 3 , ... są cyfram i ze zbioru { 0 , 1 , 2 , . . . , 9 } , cyfram i dziesiętnym i. P rzedstaw ienie to nosi nazwę rozwinięcia dziesiętnego
liczby x. Rozw inięcie to m oże być nieskończone (np. x — 1 / 3 ) lub
skończone (np. x = 1 / 4 ) . Jeśli m ów im y, że postać czy rozw inięcie
jest skończone, oznacza to , że zakończone je s t ono nieskończoną
liczbą kolejnych (zb yteczn ych ) zer.
Jak wiem y, kom putery reprezentują liczby przy w ykorzystaniu ich
rozwinięcia dwójkowego. Podstaw a rozw inięcia 10 zam ieniona jes t
na 2. W e ź m y na przykład liczbę (d w ó jk o w ą ) 0 ,1 1 0 0 1 . M o ż e m y ją
zapisać następująco:
1 • 2“ 1 + 1 • 2“2 + 0 • 2-3 + 0 • 2~4 + 1 ■2“5.
Przedstaw ienie to prowadzi je d n a k do pow stania niejednoznaczności.
O tó ż, w eźm y dla przykładu liczbę dziesiętną 2/ 10. M o ż e m y ją zapisać
Rozwinięcie
trójkowe
112
2. Klasyczne frak tale i samopodobieństwo
na dw a sposoby: 0 ,1 9 9 9 9 ... lub 0 ,2 0 0 0 0 ... W układzie dw ójkow ym
podobna niejednoznaczność w ystępu je przy zapisie 1 /4 ; m ożna ją
zapisać ja k o 0 , 00111 , lub 0 , 01000, gdzie kreska nad o statn ią cyfrą
oznacza, że zn ajd u ją ca się pod nią cyfra (lu b c y fry) będzie pow tarzana
w nieskończoność.
Drzewo trójkowe
Rysunek 2.9: Drzewo o potrajających się gałęziach przedsta­
wia rozwinięcie trójkowe liczb z przedziału jednostkowego. Pierw­
sza główna gałąź prowadzi do liczb leżących pomiędzy 0 i 1/3.
Poruszanie się w dół po gałęziach i zapisywanie cyfr odpowia­
dających kolejnym rozgałęzieniom: 0,1 i 2 dla odpowiednio le­
wego, środkowego i prawego odgałęzienia da rozwinięcie trójkowe
tej liczby, do której się zbliżamy
T e ra z m o żem y d o kład n ie opisać zb ió r C an to ra, używ ając rozw i­
nięcia tró jko w eg o dla liczb z przedziału jednostkow ego [0,1]. Liczby
te w rozw inięciu tró jk o w y m będą m iały następującą postać: dla do­
w olnego x, pod obnie ja k w rów naniu (2.1),
X—
*3 ^ + &2 *3 ^ ~h
*3 ^ T" CLą *3 ^
...
(2-2)
cl\ , <225 03 , . . . są cyfram i ze zbioru { 0, 1 , 2} .
Zapiszmy kilka punktów ze zbioru Cantora jako liczby
trójkowe: 1/3 to w systemie trójkowym 0,1, 2/3 to 0,2,
1/9 to 0,01, 2/9 to 0,02. Możemy zatem scharakteryzować
wszystkie punkty ze zbioru Cantora następująco.
S tw ierd zenie. Zbiór Cantora C jest to zbiór punktów z od­
cinka jednostkowego, których pewne rozwinięcie trójkowe nie
zawiera cyfry }1 \
2.1. Zbiór Cantora
113
To teorioliczbowe przedstawienie zapewnia istnienie granicy
dla geometrycznej konstrukcji zbioru Cantora.
W rozpatrywanym przykładzie 2/3 i 2/9 są punktami
zbioru Cantora zgodnie z powyższym stwierdzeniem, po­
nieważ ich rozwinięcia trójkowe — 0,2 i 0,02 — nie zawierają
cyfry 1. Jednakże wydaje się, że pozostałe dwa przykłady za­
przeczają tej regule. Ich rozwinięcia trójkowe — 0,1 i 0, 01
— zawierają przecież cyfrę „1.” To prawda, przypomnijmy
jednak sobie niejednoznaczność naszego przedstawienia.
Przecież 1/3 może być równie dobrze zapisana jako 0,02222.
Oznacza to, że 1/3 należy do zbioru Cantora. A co z liczbą
1/3 + 1/9? Jest to liczba usunięta ze zbioru już przy pierw­
szym kroku konstrukcji. Jej rozwinięcie trójkowe to 0,11,
ale czy nie moglibyśmy zapisać jej też w formie, która za­
przeczyłaby naszym założeniom? Tak, w istocie, możemy
zapisać 1/3 + 1/9 jako 0,10222. Jak widzimy pojawia się tu
cyfra „1” i własność ta nie zależy od tego, jaką reprezentację
trójkową dla tej liczby wybierzemy. Dlatego liczba ta jest
poza zbiorem Cantora. Te rozważania doprowadziły nas do
wniosku, że nie ma sprzeczności w naszym opisie.
Możemy obecnie podać charakterystykę punktów zbioru C harakterystyka
Cantora, które na pewnym etapie konstrukcji tego zbioru końców
wyznaczały koniec odcinka pozostającego w zbiorze. Punkty odcink ów
te mają specyficzną charakterystykę, odróżniającą je od re­
szty punktów zbioru Cantora. Otóż punkty te odpowia­
dają liczbom, których rozwinięcie trójkowe od pewnego miej­
sca składa sią z samych zer lub z samych dwójek. Liczby,
których rozwinięcie trójkowe jest innej postaci, jak na przyk­
ład
0 , 02002200022200002222000002222...
lub liczba, w której wybralibyśmy cyfry 0 i 2 losowo, będą
należały bezsprzecznie do zbioru Cantora, lecz nie będą na
żadnym etapie konstrukcji wyznaczały końców odcinków.
Okazuje się, że takich punktów jest znacznie więcej. Ozna­
cza to, że jeśli będziemy wybierać losowo punkt zbioru C ,
to z prawdopodobieństwem 1 nie będzie on końcem odcinka.
Dzięki tej charakterystyce zbioru Cantora jest jasne, że co
prawda w dowolnie małym otoczeniu każdego punktu zbioru
C znajdują się punkty z tego zbioru, jednocześnie jednak
C jest tylko pyłem punktów. Oznacza to, że C nie za­
wiera żadnego odcinka (wynika to również z geometrycznej
114
2 . Klasyczne frakt ale i samopodobieństwo
konstrukcji, a mianowicie ze sposobu, w jaki odcinki usu­
waliśmy).
A d resy i zbiór
Powróćmy na chwilę do geometrycznej konstrukcji zbioru
C antora Cantora przez usuwanie środkowych części trzecich z od­
cinków, począwszy od odcinka jednostkowego [0,1]. Po pier­
wszym kroku otrzymujemy dwie części, lewą i prawą. Po
kroku drugim każda z tych części rozpada się znowu na dwie,
a mianowicie lewą i prawą. I tak dalej. Teraz opiszemy sku­
teczny sposób oznaczania części powstałych w danym kroku.
Dwie części powstałe w pierwszym kroku oznaczmy jako L
i P, lewa i prawa. Cztery części powstałe po kroku dru­
gim oznaczamy odpowiednio LL, LP, P L ,P P , tzn. część L
powstała po pierwszym kroku rozpada się na części L i P,
co daje w rezultacie L L i LP. Podobnie dla części P. Na
rysunku 2.10 przedstawiono trzy pierwsze kroki konstrukcji.
A d resy dla
zbioru C antora
Rysunek 2.10: Adresy dla zbioru Cantora
W rezultacie, jeśli zapiszemy 8 liter kolejno, np. L L P L P
P P L , to możemy dokładnie odczytać, który z 28 przedziałów
o długości 1/38 chcemy wybrać. Ważne jest, by pamiętać, że
dany adres odczytywany jest od lewej do prawej, co oznacza,
że miejsce litery w słowie ma podobne znaczenie jak miejsce
cyfry w zapisie dziesiętnym.
A d resy
Adres o skończonej długości, jak na przykład L L P L P P
od cin k ów P L , wyznacza niewielki odcinek powstały podczas konstruka ad resy cji zbioru Cantora. Im dłuższy jest adres, tym wyższy krok
p u n k tów konstrukcji i tym krótszy odpowiedni odcinek. Skończone
adresy nie wystarczają więc do oznaczania punktów ze zbioru
Cantora, gdyż w każdym z takich odcinków, niezależnie od
tego jak małym, jest ich wciąż nieskończenie wiele. Dlatego
właśnie do identyfikacji punktów zbioru Cantora potrzebu­
jemy adresów o nieskończonej długości. Przytoczymy tu ­
taj dwa przykłady. Pierwszy to 1/3. Punkt ten znajduje
115
2.1. Zbiór Cantora
się w lewym odcinku po pierwszym kroku, mającym adres
L. Po drugim kroku konstrukcji znajduje się on w prawej
części tego pierwszego, to znaczy w odcinku [2/9,1/3] o ad­
resie L P . Po rozpadnięciu się tego odcinka nasz punkt znowu
znajduje się w prawym odcinku, o adresie L P P , itd. By wy­
znaczyć dokładne położenie punktu, zapiszmy ciąg adresów
kolejnych przedziałów, do których punkt należy, a miano­
wicie: L, LP, L P P , L P P P , L P P P P itd. Oznacza to, że
adres tego punktu możemy zapisać jako nieskończenie długi
ciąg LPPP P..., albo, używając kreski do oznaczenia nie­
skończenie wielu powtórzeń, jako LP . Jako drugi przykład
weźmy punkt 2/3, który po pierwszym kroku znajduje się
w prawym odcinku. Przy podziale tego odcinka i przy wszy­
stkich podziałach znajdować się on będzie w lewej części.
Dlatego właśnie adresem 2/3 jest P L L L ... lub po prostu
PL.
D rzew o
adresow e
Rysunek 2.11: Adresy punktów zbioru Cantora tworzą drzewo
dwójkowe
Spróbujmy przyjrzeć się sytuacji, do której doszliśmy D rzew o
dzięki systematycznemu oznaczaniu odcinków. Na rysunku dw ójkow e dla
2,11 przedstawione jest nieskończone drzewo dwójkowe o ga­ zbioru C antora
łęziach rozdwajających się w ewolucji z góry na dół. Jaki
jest związek tego dwójkowego drzewa ze zbiorem Cantora?
Drzewo to składa się z wierzchołków i gałęzi. Poziomy drze­
wa, związane z powstawaniem nowych gałęzi, odpowiadają
kolejnym krokom konstrukcji zbioru Cantora. Relacja ta po­
woduje, że drzewo binarne jest w pewnym sensie drzewem
genealogicznym. Oznacza to, że możemy porównać naszą sy­
116
2. Klasyczne fraktale i samopodobieństwo
tuację do podziału komórkowego, a drzewo mówi nam, skąd
pochodzi komórka odległego pokolenia. Jest to pożyteczna
własność, lecz to jeszcze nie wszystko. Co się stanie, jeśli za­
miast alfabetu {L, P } rozważymy jakiś inny i dokonamy konsekwentego podstawienia? Weźmy na przykład, 0 i 2, tzn.
zastąpmy każdą literę L przez 0, a P przez 2. Otrzymamy
więc ciągi typu 022020002 zamiast L P P L P L L L P . Łatwo
zgadnąć, do czego dążymy. Otóż ten ciąg cyfr możemy inter­
pretować, po wstawieniu przecinka i zera na początku, jako
liczbę trójkową, a mianowicie 0,022020002. Przedstawiliśmy
zatem związek pomiędzy trójkową reprezentacją zbioru Cantora a systemem adresów. Jest to dodatkowy argument
przemawiający za takim właśnie opisem zbioru Cantora za
pomocą systemu trójkowego. Jeśli chcemy wiedzieć, gdzie
znajduje się dana liczba ze zbioru Cantora — oczywiście
z pewną, zadaną dokładnością — wystarczy, jeśli w jej roz­
winięciu trójkowym w miejsce 0 podstawimy L i P w miejsce
2. Otrzymany adres pozwoli nam odnaleźć miejsce w drzewie
binarnym, w którym nasza liczba się znajduje.
L i P to nie 0 i 1
Związek adresów L i P z liczbami trójkowymi może suge­
rować zrobienie jeszcze innego podstawienia. Co by się stało,
gdybyśmy utożsamili L i P z 0 i 1, tzn. nasze ciągi z licz­
bami dwójkowymi? Takie postępowanie niesie ze sobą pewne
niebezpieczeństwa. Przeanalizujmy te niebezpieczeństwa na
przykładzie liczby 1/3. Adres odpowiadający jej to L P , co
odpowiadałoby 0, l i w systemie dwójkowym. Ta liczba ma
jeszcze inne przedstawienie, mianowicie 0,1. Jeśli jednak
przetłumaczymy to na adresy, odpowiada ona ciągowi PL,
tzn. adresowi punktu zbioru Cantora 2/3. W ten sposób do­
prowadziliśmy do sprzeczności. Oznacza to, że właśnie liczby
trójkowe są w naturalny sposób odpowiednie do opisu zbioru
Cantora i mimo że wykorzystujemy jedynie dwie cyfry, nie
możemy sprowadzić tej postaci do naturalnej reprezentacji
w systemie dwójkowym.
Liczebność zbioru
Cantora
Z naszych rozw ażań w ynika, że liczebność zbioru C an tora jes t taka
sam a, ja k liczebność odcinka jedn ostko w ego [0 ,1 ]. Pokażem y, że
każdem u p un ktow i odcinka o d p o w iad a pew ien p u n kt zbioru C an­
to ra .
• K a ż d y p u n kt odcinka ma rozw inięcie
dwójkowe.
2 .1 . Z /b io r
Cantora
llY
• K ażde rozwinięcie dw ójkow e odpow iada ścieżce po drzew ie binar­
nym dla liczb dw ójkow ych.
• K ażda taka ścieżka odpow iada ścieżce po drzew ie trójkowym dla
zbioru C antora.
• Każda ścieżka w drzew ie tró jko w ym zbioru C antora odp ow iad a
w sposób jed n o zn aczn y punktow i zbioru C antora poprzez adresy
w rozwinięciu tró jko w ym .
W yn ika z tego, że istnieje odpow iedniość pom iędzy liczbam i z o d ­
cinka jednostkow ego a pu n ktam i zbioru C an to ra. R óżnym liczbom
odpow iadają różne punkty. D lateg o liczebność zbioru C antora jes t
co najm niej taka ja k zbioru liczb na odcinku. Z fa k tu , że zbiór
C antora zaw iera się w odcinku, w ynika, iż je g o liczebność nie m oże
przewyższać liczebności odcinka. O znacza to, że ich liczebności są
takie same.
Zbiór Cantora jest naprawdę bardzo złożony, lecz jest on S am opodobieńrównież samopodobny. Weźmy na przykład tę część C, która stw o
zawiera się w odcinku [0,1/3]. Możemy traktować tę część
jako pomniejszoną wersję całego zbioru. Jak to możemy
opisać? Weźmiemy pod uwagę definicję zbioru Cantora jako
zbioru punktów odcinka [0,1], nie mających w swoim roz­
winięciu trójkowym cyfry 1. Dla każdego punktu ze zbioru
Cantora postaci
£ — Oii X 3
-f- Ot-2 X 3
+ G!3 X 3 ^ ~b OLĄ X 3 ^ “h -*• j
(gdzie cti £ {0, 2}) możemy znaleźć odpowiadający mu punkt
ze zbioru [0,1/3] wykonując dzielenie przez 3, tzn.
~ —0 x 3
o
“b Oc\
X
3
-|- OL2
X
3
~b
x 3 ^ ~b ...
I rzeczywiście, jeśli na przykład weźmiemy x — 0,200220...
i pomnożymy przez 1/3 = 0,1, to tylko przesuwamy przeci­
nek o jedno miejsce w lewo (tzn.
otrzymamy liczbę
0,0200220..., która jest znowu w C ). Wynika z tego, że część
zbioru Cantora zawarta w odcinku [0,1/3] jest dokładną ko­
pią całego zbioru pomniejszoną o czynnik 1/3 (zob. rysu­
nek 2.12). Dla części zbioru C, zawartej w odcinku [2/3,1],
możemy powtórzyć podobne rozumowanie (musimy jedy­
nie dołączyć dodatkowo 2/3 = 0,2). W podobny sposób
każdy odcinek, który powstał podczas geometrycznej kon­
strukcji zbioru Cantora, zawiera cały zbiór Cantora pomniej-
118
2. Klasyczne fr akt ale i samopodobieństwo
S am op od ob ień stw o zbioru
C antora
Rysunek 2.12: Zbiór Cantora jest złożony z dwóch dokładnych
kopii całości, pomniejszonych o czynnik 1/3
szony w skali l / 3 fc, dla odpowiedniego k. Możemy zatem
rozważać zbiór Cantora jako rodzinę dowolnie małych części,
z których każda jest pomniejszonym całym zbiorem. Tę
właśnie własność zbioru Cantora określamy jako samopodo­
bieństwo. Intuicyjne rozumienie samopodobieństwa pozwala
nam zauważyć, że w tym przypadku samopodobieństwo jest
doskonałe i zachodzi dla nieskończenie wielu poziomów.
Zwracamy uwagę, że w naszych rozważaniach dotyczących
samopodobieństwa konsekwentnie unikaliśmy geometryczne­
go modelu zbioru Cantora. Używaliśmy zamiast tego jego
reprezentacji liczbowej.
Zauważmy, że własności zbioru Cantora związane ze ska­
lowaniem odpowiadają jego następującej własności niezmienniczości. Weźmy dowolny punkt ze zbioru Cantora i pom­
nóżmy go przez 1/3. Otrzymamy punkt, który znowu znaj­
duje się w zbiorze Cantora. Tak samo, jeśli najpierw po­
mnożymy przez 1/3, a następnie dodamy 2/3. Wynika to
prosto z trójkowej charakterystyki i obserwacja ta będzie
wykorzystywana wielokrotnie w rozdziale 5.
Zanim powrócimy do naszego wstępu do klasycznych fraktali i zajmiemy się następnymi przykładami, rzućmy okiem
na jeszcze jedną własność zbioru Cantora, która pozwala na
jego ważną interpretację dynamiczną i zaskakujący związek
z chaosem.
Przyjrzyjmy się matematycznemu układowi sprzężenia
Zbiór C antora
jako zbiór zwrotnego zdefiniowanemu jak następuje. Jeśli x jest liczbą
p u n k tów — wejściową, to liczba na wyjściu jest wyznaczona przez na­
w ięźn iów stępujące równanie warunkowe:
J 3x,
\ -3® + 3,
jeśli x < 0,5,
jeśli x > 0,5.
Oznacza to, że na wyjściu dostaniemy 3 x ,
—3x + 3, jeżeli x > 0,5.
..
(J
jeżeli x < 0,5,a
liy
2 . 1 . Z jO io t k a n t o r a
Dla punktu początkowego
generuje ciąg
xq
układ sprzężenia zwrotnego
Powstaje ciekawe pytanie: jakie jest graniczne zachowanie
takich ciągów? Dla wielu punktów początkowych xo bardzo
łatwo jest znaleźć odpowiedź. Weźmy na przykład xq < 0.
Dla tego punktu początkowego otrzymamy x \ = 3xo oraz
x\ < 0. Wnioskujemy indukcyjnie, że wszystkie liczby x
z tego ciągu są ujemne oraz że
~ 3
xq.
Ciąg ten maleje bez ograniczeń, dąży w granicy do minus
nieskończoności, —oo. Ciąg o tąkim zachowaniu granicznym
nazwiemy ciągiem uciekającym, a punkt xo — żartobliwie
— punktem-uciekinierem.
Rozważmy teraz punkt xo > 1. Otrzymamy x \ = —3xo~
—3 < 0 i widzimy, że znowu ciąg ucieka do —oo. Nie wszyst­
kie punkty są jednak punktami-uciekinierami. Na przykład
dla xq = 0 wszystkie punkty ciągu są zerami. Oznacza to, że
dowolny punkt #o, jeśli raz trafi do zera, to tam już zostanie
na zawsze, a zatem nie będzie punktem-uciekinierem. Ta­
kie punkty będziemy nazywali punktami-więzniami. Na ra­
zie wiemy, że wszystkie punkty-uciekinierzy muszą zawierać
się w odcinku [0,1]. Nasuwa się interesujące pytanie: które
punkty odcinka jednostkowego uciekną, a które pozostaną?
Przyjrzyjmy się kilku przykładom.
Xo
XX
X2
0
1/3
1/9
1/2
1/5
0
1
1/3
3/2
3/5
0
0
1
-3 /2
6/5
Xą
0
0
0
-9 /2
-3 /5
0
0
0
-27/2
-9 /5
W/U
więzień
więzień
więzień
uciekinier
uciekinier
Jasne jest, że cały (otwarty) odcinek (1/3,2/3) ucieknie,
ponieważ jeśli 1/3 < xq < 2/3, to mamy x \ > 1 oraz x<i < 0.
Jednocześnie każdy punkt, który w pewnym momencie znaj­
dzie się w tym przedziale, również ucieknie. Rysunek 2.13
pokazuje takie punkty i ilustruje kantorowską konstrukcję
zbioru punktów, które pozostaną.
120
2. Klasyczne fraktale i samopodobieństwo
O dcinki—
uciekin ierzy
Rysunek 2.13: Mechanizm uciekania dla punktów
S tw ierd zen ie. Zbiór więźniów W dla układu sprzężenia
zwrotnego wyznaczonego równaniem ( 2.3) tworzy zbiór Can­
to m , a punkty przedziału [0,1], leżące poza zbiorem Cantora,
to zbiór punktów-uciekinierów U.
Jest to godny odnotowania rezultat, który pokazuje, że ana­
liza dynamiki układów sprzężenia zwrotnego może dostar­
czyć ciekawej interpretacji zbioru Cantora. Tego rodzaju
bliskie związki pomiędzy chaosem a fraktalami będą miały
swoją kontynuację w rozdziale 12.
2.2. Trójkąt i d yw an Sierpińskiego
Następny klasyczny fraktal, którym będziemy się zajmowali,
jest o czterdzieści lat młodszy od zbioru Cantora. Wprowa­
dził go wielki polski m atem atyk Wacław Sierpiński7 (18821969) w roku 1916.
Sierpiński był profesorem we Lwowie i w Warszawie. Był
jednym z najwybitniejszych i najbardziej wpływowych ma­
tematyków polskich swoich czasów i zyskał uznanie na całym
świecie. Nawet jeden z kraterów Księżyca nosi jego imię.
Podstawa geometrycznej konstrukcji trójkąta Sierpińskie­
go jest następująca. Zaczynamy od trójkąta na płaszczyźnie,
a następnie wykonujemy wielokrotnie operację usuwania częś­
ci trójkąta (przez trójkąt rozumiemy tu taj „wypełniony”
trójkąt, zaznaczyliśmy jego punkty na czarno). Wybierzmy
środki jego trzech boków. Punkty te razem z wierzchołkami
7 W . Sierpiński, C. R . Acad. P aris 160, 302 (1915), oraz W. Sier­
piński, Sur une courbe cantorienne qui contient une image biunivoquet
de toute courbe donnée, C .R . Acad. Paris 162, 629-632 (1916).
121
2.2. Trójkąt i dywan Sierpińskiego
W acław
Sierpiński
Rysunek 2.14: Wacław Sierpiński, 1882-1969
początkowego trójkąta wyznaczają cztery mniejsze trójkąty,
z których usuwamy środkowy. To zamyka podstawowy krok
konstrukcji. Innymi słowy po pierwszym kroku mamy trzy
przystające trójkąty, których boki są równe połowie boku
początkowego trójkąta. Stykają się one w trzech punktach,
z których każdy jest wspólnym wierzchołkiem dwóch przy­
ległych trójkątów. Następnie powtórzmy naszą procedurę
dla trzech pozostałych trójkątów i tak dalej i dalej, tak
długo, jak potrzeba. Oznacza to, że zaczynamy od jednego
trójkąta, a następnie powstaje 3,9,27,81, 243,... trójkątów,
z których każdy jest dokładnie pomniejszoną wersją trójką­
tów z poprzedniego kroku. Na rysunku 2.15 pokazano kilka
kroków konstrukcji.
Trójkąt Sierpińskiego8 jest zbiorem punktów płaszczyzny,
które pozostaną po wykonaniu nieskończenie wielu kroków
konstrukcji. Możemy od razu zauważyć punkty, które na
pewno należą do trójkąta Sierpińskiego — boki wszystkich
trójkątów, powstałych w jego konstrukcji.
Samopodobieństwo występuje tu taj w sposób oczywisty,
choć nie jesteśmy jeszcze przygotowani, by szczegółowo je
omawiać. Jest ono wbudowane w proces konstrukcji. Otóż
każda z trzech części w fc-tym kroku jest dwukrotnie po8 Trójkąt Sierpińskiego bywa również nazywany „uszczelką Sierpiń­
skiego” (Sierpiński gasket).
2. Klasyczne fraktale i samopodobieństwo
122
Trójkąt
Sierpińskiego
R ysunek 2.15: Podstawowe kroki konstrukcji trójkąta Sier­
pińskiego
W zór
S ierpińskiego
R ysunek 2.16: Studium Eschera przeprowadzone dla wzorów,
opartych na trójkącie Sierpińskiego, wplecionych w dwunastowieczny pulpit katedry w Ravello, projektu Nicole’a di Bartolomea
z Foggii, akwarela i tusz, 278 na 201 mm. ©1923 M. C. Escher/
Cordon Art-Baarn-Holland
mniejszoną wersją całej figury z poprzedniego kroku. Sa­
mopodobieństwo jednak jest własnością zbioru otrzymanego
jako granica geometrycznej konstrukcji, i dopiero w rozdziale
2.2. Trójkąt i dywan Sierpińskiego
5 będziemy dysponowali odpowiednim aparatem matem a­
tycznym do analizy tego zjawiska. W rozdziale 8 zajmiemy
się reprezentacją liczbową trójkąta Sierpińskiego, z której
będzie można wyprowadzić samopodobieństwo tak prosto,
jak w przypadku zbioru Cantora.
Podobnie jak w przypadku zbioru Cantora, możemy Adresy dla
wprowadzić adresy dla trójkątów (lub punktów) występu­ trójk ąta
jących w konstrukcji trójkąta Sierpińskiego. W tym przy­ Sierpińskiego
padku musimy użyć trzech symboli do konstrukcji systemu
adresów. Jeżeli użyjemy na przykład symboli L (lewy), P
(prawy), G (górny), otrzymamy ciągi znaków w rodzaju
LPGG czy G P L L L G L P . Żeby zidentyfikować trójkąty w od­
powiednim kroku konstrukcji trójkąta Sierpińskiego, napisy
te należy czytać od lewej do prawej. Na przykład L P G G od­
powiada trójkątowi czwartej generacji, otrzymanemu w na­
stępujący sposób. Wybieramy lewy trójkąt pierwszej ge­
neracji, następnie prawy, jaki powstał w nim w następnym
kroku, w nim z kolei górny, a w nim znów górny, zob. ry­
sunek 2.17. Adresy dla trójkąta Sierpińskiego będą analizo­
wane w rozdziale 6. Stanowią one klucz do rozwikłania gry
w chaos wprowadzonej w rozdziale 1.
L PG G
Rysunek 2.17: LPGG oznacza mały trójkącik w trójkącie Sier­
pińskiego, który możemy odszukać idąc drogą: lewy, prawy, górny,
górny trójkąt
Nie powinniśmy jednak mylić naszego sposobu adreso­
wania o trzech symbolach z liczbami trójkowymi.
Istnieje kilka różnych sposobów na przedstawienie sym­
bolicznego adresowania przy użyciu drzewa. Przedstawiona
konstrukcja oparta jest na trójkątach, które są usuwane pod­
czas tworzenia trójkąta Sierpińskiego. Węzły drzewa odpo-
124
2, Klasyczne fraktale i samopodobieństwo
P a jęcza ste
drzew o
Rysunek 2.18: Drzewo reprezentuje nie tylko strukturę trójkąta
Sierpińskiego, ale również jego geometrię
D yw an
Sierpińsk iego
Rysunek 2.19: Kilka kroków konstrukcji dywanu Sierpińskiego
125
2.3. Trójkąt Pascala
wiadają środkom tych trójkątów. Gałęzie dorastają w każ­
dej kolejnej generacji, jak na rysunku 2.18. Zauważmy, że
niektóre z gałęzi zetkną się, gdy przejdziemy z naszym proce­
sem do granicy. Takim przykładem są gałęzie odpowiadające
ciągom LGGG... i GLLL..., które stykają się w punkcie A .
Sierpiński dodał jeszcze jeden obiekt do galerii klasycz­ D yw an
nych fraktali, mianowicie dywan Sierpińskiego. Na pierwszy Sierpińskiego
rzut oka wygląda on jak wariacja znanego tem atu. Przyj­
rzyjmy się rysunkowi 2.19. Zaczynamy od kwadratu na
płaszczyźnie. Dzielimy go na dziewięć przystających kwa­
dratów, z których usuwamy środkowy i tak dalej. Figurę
jaką otrzymamy w wyniku nieskończonego procesu można
uważać jako uogólnienie zbioru Cantora. Przyjrzyjmy się
przecięciu prostej równoległej do podstawy początkowego
kwadratu i przechodzącej przez jego środek z dywanem.
Otrzymamy dokładnie konstrukcję zbioru Cantora.
W paragrafie 2.7 zobaczymy, że choć złożoność dywanu
i trójkąta Sierpińskiego na pierwszy rzut oka może wydawać
się taka sama, to okazuje się, że w rzeczywistości istnieje
pomiędzy nimi ogromna różnica.
2.3. T rójkąt P a sc a la
Blaise Pascal (1623-1662) był wielkim matematykiem i uczo­
nym francuskim. W wieku zaledwie dwudziestu lat skon­
struował około dziesięciu urządzeń mechanicznych służących
do dodawania liczb całkowitych, prekursorów dzisiejszych
komputerów. To, co dziś nosi nazwę trójkąta Pascala, nie
jest jednak jego autorstwa. Pierwsza wzmianka o nim uka­
zała się w druku w Europie w roku 1527. Chińską wersję trój­
kąta Pascala opublikowano już w roku 1303 (zob. rysunek
2.23). Pascal używał tego trójkąta do obliczeń związanych
z grami hazardowymi, które omawiał z Pierrem de Fermatem w roku 1654. Badania te stały się później podstawą
teorii prawdopodobieństwa.
T ró jk ą t Pascala je s t to tró jk ą tn a m acierz liczbowa złożona ze współ­
czynników rozwinięcia w ielom ian u (x + l ) n , gdzie n oznacza num er
wiersza, poczynając od n = 0. W ie rs z n ma n 4- 1 elem entów . Na
przykład dla n = 3 w ielom ian ma postać
(x + l ) 3 — x 3 + 3 x 2 + 3 x + 1.
Trójkąt Pascala
126
2. Klasyczne fraktale i samopodobieństwo
B laise P ascal
R ysunek 2.20: Blaise Pascal, 1623-1662
Czyli trze ci w iersz to 1 , 3 , 3 , 1 (zo b . rysunek 2 .2 1 ).
Istnieje kilka sposobów na obliczan ie w spółczynników . P ierw ­
szy korzysta z zasady indukcji; o b liczając w artości w danym w ier­
szu, ko rzystam y z e le m e n tó w poprzedniego w iersza. Załóżm y, że
w spółczynniki a o , ... ,a n w n -ty m wierszu są znane:
(x -f- l ) n = anx n H
+ ciix + ao,
i że p o szu ku jem y w sp ółczynn ików &o, ••• ,& n + i następnego wiersza
(x + l) 71-*"1 = bn.j_ixn+1 + **• H- b\x + 6q-
R ysunek 2.21: Osiem pierwszych wierszy trójkąta Pascala za­
nurzonego w sieci sześciokątnej
127
2.3. Trójkąt Pascala
Są one bezpośrednio zw ią za n e ze zn anym i w spółczynnikam i ao, ■**, dn :
( x + l ) n+1
=
(ar +
l ) n ( x -b 1)
=
( d n X 71 ~b * * ■
=
a n £ n+1 +
d n - i x n -b * ■* + d \ x 2 +
P a nx n H
—
QnX
d \ x -b d ę j ) { x -b 1 )
clqx
b a\x + a0
-b
[d?i
~b
^ n _ i)a r
~b
- b * * ■ -b ( o i + d o ) x + a o *
Po porów naniu w spółczynników o trzy m u je m y ostatecznie
¿>0 =
û 0i
^A
^A ~b dfc —\
dla
k
1 5 . . . ? Tl)
^n+1 —
Przepis na obliczanie elem en tó w w wierszu je s t w ięc bardzo prosty.
Pierwsza i ostatnia liczba są ta k ie sam e ja k w wierszu poprzedzającym
i zawsze są one równe 1. Pozostałe elem enty są sum am i dw óch ele­
m entów znajdujących się dokładnie nad nim i. P rzy ta k im ro zu m o ­
waniu najlepszym graficznym przedstaw ieniem tró jk ą ta Pascala je s t
tró jk ą t ta k i, ja k na rysunku 2 .2 1 , z w ierzchołkiem położonym cen­
tralnie.
Do przeprow adzania obliczeń niewielu w ierszy tró jk ą ta Pascala
całkiem w ystarczająca je s t m etoda indukcyjna. Jednakże jeśli szu­
kam y elem entu wiersza oznaczonego dużą liczbą, przydałaby się m e­
to d a bezpośrednia. M e to d a taka istnieje i je s t o p arta na tw ierd zen iu
o współczynnikach d w u m ian u , które m ożem y zapisać w postaci
(*+»>” = Ê « ï é * r " - v ,
A—0
v
}
Osiem wierszy
trójkąta Pascala
Rysunek 2.22:
Kolorowe kodowanie w yrazów dla trójkąta P a­
scala o ośm iu wierszach: białe — parzyste i czarne — nieparzyste
128
2. Klasyczne fraktale i samopodobieństwo
gdzie n! oznacza „n silnia” i je s t dane w zorem
n! = 1 • 2 *• ■(n —1) • n
dla liczb n atu raln ych n , oraz 0! = 1. Jeśli p od staw im y y = 1, to
d o stan iem y n a ty ch m ias t k- ty w spółczynnik bk ( k zm ienia się od 0 do
Tl) dla n -te g o wiersza tró j ka ta Pascala ze w zoru
bk =
ni
k\(n — k)\
n(n — 1) • ■• (n — k + 1)
1 • 2 *• *k
Na przykład w spółczynnik k = 3 w rzędzie n — 7 wynosi
*1.3 = ^7 * -6 =' 5 3 5«
(zob. czw arty ele m en t w o s ta tn im wierszu na rysunku 2 .2 1 .).
N astęp n y zw ią ze k liczbow y je s t ła tw y do w yprow adzenia: suma
w szystkich w p ó łczyn n ikó w w wierszu n w tró jk ą c ie Pascala wynosi
Chiński trójkąt
arytmetyczny
Rysunek 2.23:
Już w 1303 r. trójkąt pojaw ił się w Chinach na
pierwszej stronie książki Chu Shih-C hiehna Ssu Yuan Yii Chien.
W yzn aczał on w spółczynniki dw um ianow e do ósmej potęgi
2.3. Trójkąt Pascala
129
2 n , co m ożem y uzyskać p o d staw iając x = y — 1 we w zorze na roz­
winięcie dw u m ianu.
Po to, by znaleźć prawo tworzące trójkąt Pascala, za­
nurzmy jego osiem początkowych rzędów w sieć sześciokątów
(zob. rysunek 2.21). Pokolorujmy komórki sieci zgodnie
z następującą przykładową regułą. Jeśli w komórce znajduje
się liczba nieparzysta, to kolorujemy komórkę na czarno, jeśli
zaś parzysta, to pozostawiamy ją białą. Na rysunku 2.22 po­
kazano wynik takiego kolorowania.
Warto powtórzyć ten eksperyment dla większej liczby
rzędów (zob. rysunek 2.25). O statnia figura z tej serii
przypomina nam trójkąt Sierpińskiego. Czy jest to zgodne
z prawdą? Musimy być ostrożni z odpowiedzią na to pytanie
i zajmiemy się tym po raz pierwszy w rozdziale 3. Wzory,
jakie powstają przy braniu pod uwagę własności liczbowych,
mogą być różnorodne. Jest ich nieskończenie wiele. Prze­
cież parzyste/nieparzyste oznacza podzielne przez 2 lub nie.
Jak będą wyglądały wzory, jeśli przy kolorowaniu będziemy
Trójkąt P ascala
w Jap on ii
Rysunek 2.24: Pojawił się w 1781 r, w Sampo Doshimon Murai
Chuzena
130
2. Klasyczne fraktale i samopodobieństwo
A
,4.4
AA
A A
AAAA
A .' : A .
A * ' . A. A
Ą ty A Ą / t ty t Ą
M
A 6 m °c P A
B
A—
A—
¿ iiM
AAAAAAAA
w
Ł
A
sr n
A
AA
AAAA
AA
jO p ę w y S k
m ^ijinO unÓ oSm
w5mdmJmomQmOm%
#tXXXXXXX^XXX^
JiOfiOOOOOOOOOOPOOiOŁ
J tS ^ W
t S i^ S S tS i ^ ^ K
k
AAAAAAAAAAAAAAAA
•wfcOudoOocóuOuOuoOT
S W
I M
S iiM
i
JwM^I#iQQPOQQQQQQQQQQQQOQęMXXX2!MMMMPBML
A$6A55A5$AS5$55$$$S$55S9% S5A$ dA $6A 5S &
muĘÓi^mówuĘOmjiiuOOOduOOooOOw
JiPQQQQQQQQQwQQQfi0QQQQQQQQQQQęQQfi0QęwQQOQQQQwQŁ
JWSQQPQOQQQQQQQQiMi0QQQOQ0QQQQQQQiBiQQQQQQQQO0QQQQ!ML
i08QQQQQpi2QQQQQQfiQfiQQQQQpQ^
Jy9Q4&QQQQQQQQQQQiw&lQQQQQQQWQQQS0M^QQQQQQQQQQ&Q$L
^fcDQC^^5QQQÓQQQOQC^^DO£^k5QQQOQOOQQC^^j0^yfeQQQQQQQQQQ^^^30^y^
JMiQQiMi0QQQMQQQQQiMiQQiMiSQQQQQQQQQiMS0QiMi0QQOQQQQQQiMi0QiŁ
łS
S
S
^ tS
S
S
^ S
S
S
^ B
S
S
^ B
S
S
^ tS
S
S
^ IS
S
S
^ tS
S
k
AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA
R ysunek 2.25: Kolorowanie odpowiednio parzystych i nieparzy­
stych elementów trójkąta Pascala o 16, 32, 64 wierszach
131
2.3. Trójkąt Pascala
Bo
q jS
6b
o0oV#Vo0oV#Vo°o
§ I$ $ !$ 9 9 q
^ o # o n # j^ n o # aa
rW tifflftSSSSftSiSiiS^^
x W x y ii9 9 ^
pm afoooofoooo
A^QQQiift®jSi6j6iSS6S6SSSiiiSiftSiSUSft®SU^9$Q^
T S I^y
A
otófeŚfc
^ S ra m m
.ouuwSSSsgiM
x
x x o s B B .0. ^. jg
0^
. .
¿&uQQWWKSmXjMBHuuKOMBKXxlaCŁ
^O
TM
O ^O
T raara
iw a s M^^O
oaK
O
pD
OO
^^^^^^O
O ^OOOTóCpiO
D DT ni
xxxxxli«lSQQQQyiligB&i ^ ^
x3dSj^^8!^j^Sj!^j^Sj^5^SSSS88^S8^Sj^5j^Sj!^j!S!Sj!&u
^OOPOO^OOPOOOOOWOOOOOiiSiiifiiOOOOOSOOOOOPOOSOiŁ^-OOO^
^OOOOOOOO^Oc^OOOOSę^OOOOOOOO^OOOOOOwOi^OOOOę^OOÓ^OOOOOÓO^'^^
MAMAM M M M M M M M M M M M M OAMAM M M M M
Rysunek 2.26:
K olorowanie trójkąta P ascala. Czarne komórki
oznaczają podzielność przez 3 (rysunek lew y górny), przez 5 (ry­
sunek prawy górny) i przez 9 (u dołu)
132
2. Klasyczne fr akt ale i samopodobieństwo
czarnym kolorem oznaczali podzielność przez 3, 5, 7, 9 itd.,
a pola „niepodzielne” przez odpowiednie liczby pozostawimy
białe? Rysunek 2.26 daje nam pewne wyobrażenie o tym,
co może w ten sposób powstać.
Każdy z tych wzorów ma pewne piękne regularności i ce­
chy samopodobieństwa, które ilustrują podstawowe własnoś­
ci teorioliczbowe trójkąta Pascala. Wiele z tych własności
jest znanych — były badane od wieków. W książce B. Bondarenki9 możemy znaleźć bibliografię prac z ostatnich trzystu
lat, gdzie 406 pozycji obejmuje prace zarówno zawodowych
matematyków jak też am atorów .10
2.4. K rzyw a K och a
Helge von Koch był szwedzkim matematykiem, który w roku
1904 wprowadził krzywą nazywaną obecnie krzywą Kocha.11
Po połączeniu trzech odpowiednio obróconych egzemplarzy
krzywej Kocha otrzymamy figurę zwaną z oczywistych po­
wodów płatkiem śniegu (zob. rysunki 2.28 i 2.29).
Niewiele wiemy o Kochu. Jego wkład do matematyki nie
był tej miary co Cantora, Peana, Hilberta, Sierpińskiego czy
Hausdorffa. Jednak w rozdziale o klasycznych fraktalach
jego konstrukcja powinna się znaleźć chociażby dlatego, że
wiedzie do wielu interesujących uogólnień i na pewno była
szalenie inspirująca dla Mandelbrota. Krzywa Kocha jest
pojęciem równie trudnym do zrozumienia, jak zbiór Can­
tora czy trójkąt Sierpińskiego. Problemy, jakie stawia przed
naszą wyobraźnią, są jednak innej natury. Po pierwsze —
na co wskazuje jej nazwa — jest to krzywa, chociaż nie jest
to oczywiste z konstrukcji. Po drugie, krzywa ta nie zawiera
żadnych prostych linii czy odcinków. Krzywa ta ma wiele
ze złożoności, jaką możemy dostrzec w przebiegu autentycz­
nych linii brzegowych — zagięcie w zagięciu zagięcia, i tak
dalej.
9 B. Bondarenko, Generalized Triangles and Pyramids of Pascal,
Their Fractals, Graphs and Applications, Fan, Tashkent 1990.
10 W rozdziale 9 pokażemy, jak wzory fraktalne i cechy samopodo­
bieństwa można opisać metodami, które będą tematem rozdziału 5.
11 H. von Koch, Sur une courbe continue sans tangente, obte­
nue par une construction géométrique élémentaire, A rkiv fö r Matem atik 1, 681-704 (1904). Inny jego artykuł to: H. von Koch, Une
méthode géométrique élémentaire pour l’étude de certaines questions
de la théorie des courbes planes, A cta M ath. 30, 145-174 (1906),
155
2.4. Krzywa Kocha
sidérer comme positif le côté laissé à gauche quand on parcourt le segment
dans le sens positif. Pour abréger, nous désignons par il cette opération
au moyen de laquelle on passe d’un segment rectiligne AB à la ligne po­
lygonale ACDEB déviant de AB vers le côté positif.
O ryginalna
konstrukcja
K ocha
D
Fig. r.
o
A
4
U
F
H
C
E
P
R
B
Fig. 2.
2.
Partons maintenant d’une ligne droite déterminée A B , le sens de
A vers B étant considéré comme positif (fig. 2). Par l ’opération i l , A B
est remplacée par la ligne brisée AC D EB, les segments AC, CD, I)E, E B
étant égaux entre eux et leur Bens positif étant respectivement celui de A
vers C, de C vers D, de D vers E , de E vers B.
Effectuons l ’opération il sur chacun de ces segments; la ligne ACDEB
sera remplacée par la ligne brisée AFGHCIKLDMNOEPQR B composée
de 16 segments égaux A V ,F G etc.
Rysunek
2 .2 7 : Fragm ent oryginalnego artykułu K ocha z 1906 r.
Podamy teraz prostą konstrukcję krzywej Kocha. Za- K onstrukcja
cznijmy od linii prostej. Początkowy obiekt nosi nazwę ini- geom etryczn a
cjatora. Podzielmy go na trzy równe części. Następnie
w miejsce środkowej części wstawmy trójkąt równoboczny
i usuńmy jego podstawę. To kończy podstawowy krok kon­
strukcji. Po pomniejszeniu figura ta, w czterech egzempla­
rzach, będzie służyła nam w następnych krokach. Nazywamy
ją generatorem. Powtarzamy więc konstrukcję w ten sposób,
że dzielimy każdy odcinek w figurze na trzy równe odcinki,
zamiast środkowego wstawiamy generator itd. Na rysunku
2.30 przedstawiono kilka pierwszych kroków konstrukcji. Samopodobieństwo jest wbudowane w proces powstawania tej
krzywej, tzn. każda z czterech części w k-tym kroku kon­
strukcji jest trzykrotnie pomniejszoną kopią całej krzywej
z poprzedniego, (k — l)-szego kroku.
W istocie zamierzeniem Kocha było skonstruowanie no-
134
2. Klasyczne fr akt ale i samopodobieństwo
Rysunek 2.28:
Zarys płatka śn iegu K ocha zawiera trzy przy­
sta ją ce części, z których każda jest krzyw ą K ocha, taką jak na
rys. 2.30 i 2.33
P rzyk ład y
naturalnych
p łatk ów śn iegu
Rysunek 2.29:
P łatek śniegu K och a m a niew ątpliw ie pew ne ce­
chy w spólne z płatkam i śniegu w ystęp ującym i w naturze, których
p rzykłady przedstaw iono na tym rysunku
wego przykładu dla zilustrowania odkrycia dokonanego przez
niemieckiego m atematyka Karla Weierstrassa. Odkrycie to,
dokonane w roku 1872, wywołało pewien kryzys w matema­
tyce. Otóż opisał on krzywą nieróżniczkowalną, tzn. taką,
która nie ma stycznej w żadnym punkcie. Możliwość róż­
niczkowania (czyli znajdowania nachylenia krzywej w danym
punkcie) jest głównym narzędziem rachunku różniczkowego,
który został stworzony niezależnie przez Newtona i Leibniza
na 200 lat przed Weierstrassem. Pojęcie nachylenia krzywej
jest zgodne z intuicją i ma związki z pojęciem stycznej (zob.
rysunek 2.31).
Jeśli jednak krzywa ma załamanie, to pojawia się pro­
blem. Nie możemy w żaden sposób dopasować jednoznacz­
nej stycznej. Otóż krzywa Kocha jest przykładem krzy­
wej, która w każdym punkcie ma załamanie, co prowadzi do
2.4. Krzywa Kocha
K onstrukcja
krzyw ej K ocha
Rysunek 2.30:
K olejne etap y konstrukcji krzywej K ocha. Liczba
odcinków za każdym razem pow iększa się czterokrotnie
S tyczn e do
krzyw ych
Rysunek 2.31:
N a ostrej krawędzi styczn a do krzywej nie jest
jednoznacznie w yznaczona
tego, że nie możemy w jakikolwiek sposób znaleźć stycznej
w żadnym jej punkcie.
W prosty sposób możemy znaleźć takie uogólnienie dla U ogóln ion a
konstrukcji Kocha, które pozwoli nam otrzymać wiele no­ konstrukcja
wych stuktur samopodobnych. Podstawą tych konstrukcji K ocha
jest inicjator, który może być rodziną odcinków, oraz gene­
rator, który jest łamaną złożoną z połączonych odcinków.
Zaczynając od inicjatora, zastępujemy każdy odcinek gene­
ratora odpowiednio pomniejszoną kopią krzywej występu­
jącej w poprzednim kroku. Musimy starannie dopasować
końce odcinków, by dokładnie pasowały do generatora. Po-
136
2 . Klasyczne fraktaie i samopodobieństwo
wtarzamy to ad infinitum . W praktyce jednak zatrzymu­
jemy się, gdy tylko długość odcinka jest mniejsza od roz­
dzielczości urządzenia graficznego. To, czy konstrukcja Ko­
cha prowadzi do powstania zbieżnego ciągu figur lub nawet
krzywych, czy nie, zależy od wyboru inicjatora i generatora.
Na rysunku 2.32 pokazany jest przykład takiej konstrukcji.
In n a
konstrukcja
K och a
R ysunek 2.32: Inny wybór inicjatora i generatora doprowadza
do innego samopodobnego fraktala
D łu gość krzyw ej
Powróćmy do oryginalnej krzywej Kocha i przyjrzyjmy
K och a się jej długości. W każdym kroku konstrukcji otrzymamy
figurę będącą krzywą. Po pierwszym kroku jest to krzywa
złożona z czterech odcinków tej samej długości, po drugim
jest ich 4 x 4 , następnie 4 x 4 x 4 odcinków po trzecim kroku
itd. Jeżeli początkowy odcinek miał długość L, to po pierw­
szym kroku każdy odcinek jest długości L x 1/3, po drugim
kroku otrzymamy L x 1/32 itd. Ponieważ w każdym kroku
2.4. Krzywa Kocha
137
konstruowana jest krzywa złożona z odcinków, łatwo jest
zmierzyć jej całkowitą długość. Po pierwszym kroku jest
równa 4 x L x 1/3, następnie 42 x L x 1/32 itd. Po A;-tym
kroku wynosi ona L x 4fc/3 fc. Widzimy więc, że w każdym
kroku długość krzywej wzrasta o czynnik 4/3.
Pojawiają się następujące problemy. Po pierwsze, krzywa
Kocha to obiekt otrzymany po wykonaniu nieskończenie wie­
lu kroków. Co przez to rozumiemy? Następnie, jeśli nawet
moglibyśmy odpowiedzieć na zadane właśnie pytanie, to czy
otrzymany obiekt będzie krzywą? Dlaczego krzywe powsta­
jące w kolejnych krokach nie m ają samoprzecięć?
P orów nyw anie
kolejnych
kroków
konstrukcji
krzywej K ocha
R y s u n e k 2 .3 3 : K onstrukcja krzywej K ocha, krok 5 (krzywa
górna) i krok 20 (krzyw a dolna)
Na rysunku 2.33 widzimy dwie krzywe, które są dla nas
prawie nie do odróżnienia. Są to jednak zupełnie różne
krzywe. Górna krzywa powstała w konstrukcji po wykona­
niu 5 kroków, podczas gdy druga po wykonaniu 20 kroków.
Oznacza to, że zgodnie z naszymi wyliczeniami długość od­
cinków wynosi l / 3 fc, gdzie k oznacza liczbę kroków konstruk­
cji. Jakiekolwiek zmiany powstały w wyniku konstrukcji,
szybko znajdują się poniżej granicy rozdzielczości wzroku,
nie są więc dostrzegalne, chyba że pod mikroskopem. Dla­
tego w celach praktycznych jesteśmy zmuszeni zadowolić
się krzywą powstałą w np. 10 kroku, która stwarza wystarczjąco dobre złudzenie. Oczywiście nie otrzymamy w ten
sposób krzywej Kocha. Krzywa, jaką otrzymamy, będzie
miała skończoną długość i jeśli odpowiednio ją powiększymy,
2. Klasyczne frakt ale i samopodobieństwo
138
to będzie zawierała fragmenty linii prostych występujących
w konstrukcji. Zwracamy uwagę na fakt, że istnieje ogromna
różnica między tym, co otrzymamy w jakimkolwiek poje­
dynczym kroku konstrukcji, a ostatecznym obiektem. Zaj­
miemy się bliżej tym problemem, który oczywiście poja­
wia się również przy konstrukcji innych klasycznych fraktali
omawianych w następnych rozdziałach.
2.5. K rzyw e w y p ełn ia ją ce p rzestrzeń
Jeżeli bierzemy pod uwagę intuicje stojące za pojęciem wy­
miaru, to linie są przykładami obiektów jednowymiarowych,
a płaszczyzna — dwuwymiarowego. W roku 1890 Giuseppe
Peano12 (1858-1932) i zaraz po nim w roku 1891 David
H ilbert13 (1862-1943) rozważali krzywe, które znajdują się
wprawdzie na płaszczyźnie, lecz które podważają nasze in­
tuicyjne rozumienie krzywej.14 Otóż rozważali oni krzywe,
które wypełniają płaszczyznę, tzn. dla dowolnego obszaru
płaszczyzny istnieje krzywa przebiegająca wszystkie punkty
tego obszaru. Na rysunku 2.36 przedstawiono kilka pierw­
szych kroków konstrukcji krzywej Peana.
S tru k tu ry
w y p ełn ia ją ce
p rzestrzeń
w ystęp u ją
w naturze
W naturze struktury wypełniające przestrzeń stanowią
podstawę budowy żywych organizmów. Organizm musi być
zaopatrywany w życiodajne substancje, takie jak woda i tlen.
W wielu przypadkach substancje przekazywane są przez uk­
ład krwionośny, który musi być tak zbudowany, by dostar­
czyć je do każdego miejsca w organizmie. Na przykład nerka
zawiera trzy przeplecione ze sobą rozgałęzione systemy na­
czyń: układu tętniczego, układu żylnego i układu moczowego
(zob, kolorowa wkładka). Każdy z nich ma dostęp do każdej
części nerki. Geometria fraktalna dostarcza metod pozwa­
lających na uporządkowanie takich skomplikowanych struk­
tu r w sposób efektywny. Oczywiście 100 lat temu ani Peano,
12 G. Peano, Sur une courbe, qui remplit toute une aire plane, Math.
A nn. 36, 157-160 (1890).
13 D. Hilbert, Uber die stetige Abbildung einer Linie auf ein
Flächenstück, M ath. A nn. 38, 459-460 (1891).
14 Hilbert przedstawił swój przykład w Bremie, w trakcie dorocz­
nego spotkania Deutsche Gesellschaft fü r N aturforscher und Arzte.
Na tym spotkaniu on oraz Cantor przyczynili się wydatnie do utwo­
rzenia D eutsche M athem atiker Vereinigung, niemieckiego towarzystwa
matematycznego.
2.5. Krzywe wypełniające przestrzeń
139
Ueber die stetige Abbildung einer Linie auf ein Fl&chenstück*)
P raca H ilb erta
— stron a 1
Von
D avid H dubbrt in K önigsberg i. Fr.
Peano flat kürzlich in den Mathematischen Annalen**) durch eine
arithmetische Betrachtung gezeigt, wie die Punkte einer Linie stetig
auf die Punkte eines Flächenstückes abgebildet werden können. Die
für eine solche Abbildung erforderlichen Functionen lassen sich in
übersichtlicherer Weiae hemteUen, wenn man sich der folgenden geo­
metrischen Anschauung bedient. Die abtti bildende Linie — etwa eine
Gerade von der Länge 1 — theilen wir zunächst in 4 gleiche Theile
1,5?, 3, 4 und das Flächenstück, welches wir in der Gestalt eines
Quadrates von der Seitenlange 1 «¡nehmen, theilen wir durch zwei
zu einander senkrechte Gerade in 4 gleiche Quadrate 1, 2, 3, 4 (Fig. 1).
Zweitens theilen wir jede der Theilstrecken 1 ,2 , 3 , 4 wiederum in 4
gleiche Theile, so dass wir auf der Geraden die 16 Theilstrecken
1,2, 3 , . . 1 6 erhalten; gleichzeitig werde jedes der 4 Quadrate 1,2,
3, 4 in 4 gleiche Quadrate getbeilt und den so entstehenden 16 Quadraten
/ 1 « 1 j * * * «/-*•*
»*» »*M> «.
■* » * '
1
n * i.
Hg.
n». s.
werden dann die Zahlen 1, 2 . . . 16 eingeschrieben, wobei jedoch die
Reihenfolge der Quadrate so zu wählen ist, dass jedes folgende Quadrat
sieb mit einer Seite an das vorhergehende anlehnt (Fig. 2). Denken
wir uns dieses Verfahren fortgesetzt — Fig. 3 veranschaulicht den
m) Vergl. ein« ttitttieünng über denselben Gegenstand in den V erhandlung«
der Gesellschaft deuteober Naturforscher and A ente. Bremen 1S90.
*•) Bd. U , S. 167.
SO*
R y s u n e k 2 .3 4 :
P ierw sza strona oryginalnej dw ustronicow ej
pracy H ilberta z pierw szym graficznym przedstaw ieniem jego
krzywej fraktalnej w ypełniającej płaszczyznę
ani Hilbert nie zajmowali się tym problemem. Dopiero teraz,
po ukazaniu się prac Mandelbrota, wszechobecność fraktali
w naturze zdaje się oczywista.
Krzywą Peana otrzymujemy stosując pewną wersję kon­ K onstrukcja
strukcji Kocha. Zaczynamy od pojedynczego odcinka, ini­ z in icjatorem
cjatora, a następnie zastępujemy ten odcinek generatorem, i gen eratorem
tak jak to pokazano na rysunku 2.36. Generator ma dwa
punkty, w których sam siebie przecina, a właściwie tylko do-
140
P raca H ilb erta
— stro n a 2
2. Klasyczne fr akt ale i samopodobieństwo
460
D a t id H tlbkkt .
S t e t i g e A b b i l d u n g e i n e r L in i e a u f e i a F l ä c b e n s t ü c k .
nächsten Schritt — , so ist leicht ersichtlich, wie man einem jeden
gegebenen Punkte der Geraden einen einzigen bestimmten Punkt des
Quadrates zuordnen kann, Man hat nur nöthig, diejenigen Theilstrecken der Geraden zu bestimmen, auf welche der gegebene Punkt
fallt. Die mit den nämlichen Zahlen bezeichneten Quadrate liegen
nothwendig in einander und schliessen in der Grenze einen bestimmten
Punkt des Flächenstückes ein. Dies sei der dem gegebenen Punkte
zugeordnete Punkt. Die so gefundene Abbildung ist eindeutig und stetig
und umgekehrt einem jeden Punkte des Quadrates entsprechen ein, zwei
oder vier Punkte der Linie. £s erscheint Überdies bemerkenswert!),
dass durch geeignete Abänderung der Theillinien in dem Quadrate sich
leicht eine eindeutige und stetige Abbildung finden lässt, deren Um­
kehrung eine nirgends mehr als dreideutige ist
Die oben gefundenen abbildenden Functionen sind zugleich ein*
fache Beispiele für überall stetige und nirgends differentiirbare Func­
tionen.
Die mechanische Bedeutung der erörterten Abbildung ist folgende:
Es kann sich ein Punkt stetig derart bewegen, dass er während einer
endlichen Zeit sämmtliche Punkte eines Flächenstückes trifft. Auch kann
man — ebenfalls durch geeignete Abänderung der Theillinien im
Quadrate — zugleich bewirken, dass in unendlich vielen überall dichtveriheiUen Punkten des Quadrates eine bestimmte BetvegungsricMung
sowohl nach vorwärts wie nach rückwärts exisUrt.
Was die analytische Darstellung der abbildenden Functionen anbetrifft, so folgt aus ihrer Stetigkeit nach einem allgemeinen von
K. W e ie r s tr a s s bewiesenen Satze*) sofort, dass diese Functionen sich
in unendliche nach ganzen rationalen Functionen fortschreitende Bei hen
entwickeln lassen, welche im ganzen Intervall absolut und gleichmässig
convergiren,
Königsberg i. Pr., 4. März 1891.
*) Vergl. Sitzungsberichte der Akademie der Wiese nachaften au Berlin,
S. Juli 1886.
R ysunek 2.35: Druga strona pracy Hilberta
tyka siebie samego w dwóch miejscach. Krzywa stanowiąca
generator mieści się dokładnie w kwadracie, który jest zazna­
czony linią przerywaną. Krzywa Peana przebiegnie wszyst­
kie punkty tego właśnie kwadratu.
Każdy odcinek, znajdujący się na krzywej z kroku pierw­
szego, jest zastępowany odpowiednio pomniejszonym gene­
ratorem. Czynnikiem pomniejszenia jest oczywiście 3. W ten
sposób otrzymujemy drugi krok konstrukcji. Krzywa po­
wstała w tym kroku ma dokładnie 32 punkty, w których
sama się ze sobą przecina. Następnie powtarzamy nasz pro-
141
2.5. Krzywe wypełniające przestrzeń
K onstrukcja
krzywej P ean a
j
J
c
r
krok 1
Rysunek 2.36: Konstrukcja krzywej wypełniającej przestrzeń
z inicjatorem i generatorem. W każdym kroku jeden odcinek za­
stępowany jest 9 trzykrotnie krótszymi odcinkami. Na prawym
dolnym rysunku punkty przecięcia odcinków są lekko zaokrąglone,
byśmy mogli lepiej zrozumieć, jak przeprowadzana jest konstruk­
cja
ces, tzn. w każdym kroku konstrukcji pomniejszamy odcinki
trzykrotnie. W k-tym kroku otrzymujemy w ten sposób
odcinki o długości l / 3 fe, co stanowi ciąg gwałtownie ma­
lejący. Ponieważ każdy odcinek zastępowany jest 9 odcin­
kami o długości 1/3 poprzedniego, możemy łatwo policzyć
długość krzywej w każdym kroku. Jeżeli założymy, że długość
odcinka stanowiącego inicjator była równa 1, to otrzymamy
w kroku 1: 9 x 1/3 = 3, a w kroku 2: 9 x 9 x 1/32 = 9.
Ogólnie możemy zauważyć, że na każdym etapie konstrukcji
otrzymana krzywa zwiększa długość o czynnik 3. W kroku
k długość ta wynosi więc 3fc.
Konstrukcja krzywej Peana, równie prosta lub —jeśli wo­ Sam opodobieńlimy — równie trudna jak konstrukcja krzywej Kocha, niesie stw o
ze sobą pewne trudności, których nie widzimy w konstrukcji
Kocha. Weźmy na przykład intuicyjne pojęcie samopodobieństwa. W przypadku konstrukcji krzywej Kocha wydaje
się, że możemy stwierdzić podobieństwo pomiędzy obrazem
otrzymanym po nieskończenie wielu krokach (w praktyce
chodzi o krzywą, jaką możemy zaobserwować na monito­
rze po wielu krokach) a figurami powstającymi w kolejnych
krokach. Jeżeli przyjrzymy się krzywej Peana w taki sam in-
142
2. Klasyczne fraktale i samopodobieństwo
tuicyjny sposób, to w każdym kolejnym kroku otrzymujemy
figurę podobną do figur powstałych w innych krokach, lecz fi­
gura końcowa (tzn. figura, jaką otrzymamy po wielu krokach
konstrukcji na monitorze) jest w zasadzie wypełnionym kwa­
dratem i w związku z tym w żaden sposób nie przypomina
kolejnych kroków konstrukcji. Oznacza to, że albo krzywa
Peana nie jest samopodobna lub też, że nasza intuicja samopodobieństwa nie jest dostatecznie dobra. W rozdziale
4 przekonamy się, że krzywa Peana jest doskonale samopo­
dobna. Głównym problemem jest ujrzenie ostatecznej figury
jako krzywej, a nie, jak sugerują graficzne jej reprezentacje,
jako części płaszczyzny.
Parametryzacja
kwadratu za
pomocą krzywej
Peana
P rz y jrz y jm y się własności w y p ełn ian ia przestrzeni tro c h ę dokładniej.
K iedy śledzim y kolejne kroki pow staw ania te j krzyw ej, w idzim y, że
około 1 / 9 te j krzyw ej zn ajd o w ać się będzie w lew ym kw adraciku (zob.
rysunek 2 .3 7 ) i w zasadzie w y d aje się, że będzie w ypełniała właśnie
ten obszar. P odobne obserw acje m o żem y poczynić o pozostałach
kw ad ratac h p o d ziału . K ażd y z k w a d ra tó w pierw szego podziału m oże
być p od zielon y na następne dziew ięć kw a d ra tó w , każdy z nich je s t 9kro tn ym p o m n iejszeniem p o czątkow ego. O tó ż krzyw a, zanim przej­
dzie do następnego kw ad ratu z pierw szego po d ziału , najp ierw prze­
biega każdy k w a d ra t z p o d p o d ziału . D zie je się ta k na wszystkich
p o zio m ach . Z własności te j w ynika, co następuje. Jeśli przebie­
g a m y krzy w ą, pow stałą na pew nym eta p ie konstrukcji krzyw ej Peana,
do pew nej części je j całko w itej długości, pow iedzm y do 1 0 /2 7 , tzn .
około 3 7 % , to d o jd zie m y do pew nego pu n ktu kw ad ratu . Zobaczm y,
co będzie się d zia ło , gdy przejd ziem y do następnego poziom u kon­
strukcji i znow u będziem y śledzić 3 7 % te j now ej, dłuższej krzyw ej.
Z n o w u d o trze m y do jak ie g o ś określonego pun ktu kw ad ratu (zob. ry­
sunek 2 .3 7 ). O k a z u je się, że p u n kt ten zn a jd u je się w pobliżu poprze­
dniego. Jeśli będziem y p o w ta rzali tę procedurę w ielo k ro tn ie dla na­
stępnych kroków ko nstru kcji, to o trz y m a m y ciąg p un któw . P u n kty te
będą zb ieg ały do je d n o zn a c zn ie określonego pu n ktu kw ad ratu . P u n kt
ten m o żem y nazw ać p u n ktem o adresie 1 0 /2 7 . W podobny sposób
m o żem y zn aleźć p u n kty o d p o w iad ając e każdem u procentow i, to zna­
czy każdej liczbie p o m ięd zy 0 , 0 a 1 ,0 . P u n k ty te tw orzą krzyw ą,
przebiegającą przez w szystkie p u n kty kw ad ratu ! M a to swoje m ate­
m atyc zn e określenie ja k o „p a ra m e try za c ja kw ad ratu za pom ocą od­
cinka je d n o s tk o w e g o ". I o tó ż krzyw a, która przecież ma naturę je d ­
n ow ym iarow ą, m oże w ypełnić coś co je s t dw u w ym iarow e. W y d a je się
więc, że używ anie in tu ic yjn e g o pojęcia w y m ia ru je s t w tym przypadku
niebezpieczne.
143
2.5. Krzywe wypełniające przestrzeń
Rysunek 2.37: Krzywe Peana na czterech różnych poziomach są
przebiegane do 1/3 + 1/27 = 10/27 całkowitej długości. Na dol­
nych rysunkach nie pokazano pozostałej części krzywej. Parametr
10/27 definiuje pewne punkty zaznaczone na każdym z wykresów.
Punkty te zbiegają do jednoznacznie wyznaczonego punktu kwa­
dratu w miarę zwiększania liczby kroków
A by nasze rozum ow anie uczynić bardziej precyzyjnym , pow inno
się w prow adzić system adresów , któ ry w przypadku krzyw ej Peana
będzie opierał się na ciągach o w yrazach z dziew ięcioelem entow ego
zbioru sym boli lub cyfr. Dla każdego pun ktu kw ad ratu istnieje adres
będący nieskończonym ciągiem . C iąg ten w yznacza te ż pun kty na
każdym poziom ie konstrukcji krzyw ej Peana. C iąg pu n któ w , po je d ­
nym dla każdego kroku, będzie zb iegał do danego pun ktu kw ad ratu .
Wypełniająca kwadrat krzywa Peana, a raczej każda krzy­
wa powstała na skończonym etapie konstrukcji krzywej Pe­
ana, jest bardzo niewygodna do narysowania odręcznego,
czy nawet przy użyciu plotera sterowanego przez kompu­
ter. Liczba małych odcinków, jakie trzeba narysować, aby
wypełnić kwadrat, jest ogromna. Co więcej, po narysowaniu
każdego odcinka trzeba wykonać obrót o 90 stopni. Uzasa­
dnione jest więc pytanie o to, czy nie istnieją inne, prostsze
C zy istn ieje
lep szy sposób
w y p ełn ien ia
kw adratu za
p om ocą
krzyw ej?
144
2. Klasyczne fr akt ale i sam opodobi eńs t wo
sposoby prowadzące do zapełnienia kwadratu przez krzywą.
Zastanówmy się, jak zabralibyśmy się do rozwiązania tego
problemu z ołówkiem w ręku. W ydaje się, że najprościej
byłoby zamazać kwadrat, wodząc ołówkiem tam i z powro­
tem, od jednego brzegu kwadratu do drugiego, dbając o to,
by nawroty były wykonane tak ściśle, żeby nie zostawić wol­
nego miejsca na kartce.
Spróbujmy opisać powyższą procedurę w sposób formal­
N a iw n a
konstrukcja.,. ny, podobnie jak konstrukcję krzywej Peana. Krok pierw­
szy to łamana złożona z dwóch odcinków, z których pierw­
szy ma początek w lewym dolnym rogu kwadratu, a kończy
się w punkcie środkowym górnego brzegu, gdzie zaczyna się
drugi odcinek biegnący do prawego, dolnego rogu kwadratu.
W następnym kroku podwajamy rozdzielczość w tym sensie,
że pozioma linia biegnąca gdzieś w środku kwadratu przetnie
krzywą w dwukrotnie większej liczbie punktów. Możemy to
uzyskać pow tarzając zygzaki w połowie długości kwadratu
(zob. rysunek 2.38).
Oczywiste jest, jak konstrukcja jest kontynuowana. Na
P rób a
w y p ełn ien ia
k w adratu
w n ajp ro stszy
sp osób
v = 0,6
0,2125
poziom 3
R ysunek 2.38: Cztery pierwsze etapy konstrukcji mającej do­
prowadzić do wypełnienia kwadratu przy użyciu krzywej zygzako­
watej
2.5, Krzywe wypełniające przestrzeń
145
każdym etapie po prostu podwajamy liczbę zygzaków. Dla
każdej danej rozdzielczości e > 0 możemy z pewnością zna­
leźć etap, na którym wygenerowana krzywa mija dowolny
punkt kwadratu o odległość mniejszą niż e. Zatem wydawa­
łoby się, że zadanie, jakie sobie postawiliśmy, jest wykonane.
Co więcej, moglibyśmy twierdzić, że krzywa wypełniająca
przestrzeń, którą skonstruowaliśmy, jest w pewnym sensie
samopodobna, ponieważ w każdym kroku powstaje krzywa
będąca złożeniem dwóch kopii krzywej powstałej w poprze­
dnim kroku konstrukcji, po odpowiednim przeskalowaniu
w kierunku poziomym15. Prostota tej konstrukcji stawia
pod znakiem zapytania wysiłki tak znakomitych matema­
tyków, jak Peano czy Hilbert. Dlaczego nie skorzystali z tak
prostej konstrukcji, która musiała im się sama nasuwać?
Dlaczego stworzyli takie skomplikowane konstrukcje, które
nawet zakceptowano do publikacji w najbardziej prestiżo­
wych matematycznych czasopismach?
Odpowiedź wydaje się sprzeczna z intuicją, jednak sen- ...prow adzi do
sowna po przeprowadzeniu analizy problemu. Otóż kon- nikąd
strukcja krzywej Peana prowadzi do powstania w granicy
krzywej, co wykazaliśmy w technicznej części następującej
po opisie konstrukcji na stronie 142. Krzywa ta ma nie­
skończoną długość, cechy samopodobieństwa i osiąga każdy
punkt kwadratu. Powyższa konstrukcja, w przeciwieństwie
do konstrukcji Peana, nie prowadzi do powstania krzywej,
chociaż na każdym etapie konstrukcji mamy do czynienia
z krzywą! Zajmijmy się bliżej tym zadziwiającym faktem.
Będziemy traktować poziomy i pionowy bok kwadratu jako
osie współrzędnych x i ?/, przyjmujące wartości od 0 do 1.
Krzywa, pojawiająca się w n-tym kroku konstrukcji, dana
jest przez zygzakowaty wykres funkcji, którą nazwiemy yn.
Ustalmy teraz współrzędną x pomiędzy 0 a 1 i przyjrzyjmy
się wartościom yn(x) dla rosnącego wskaźnika n. Jeżeli po­
wyższa konstrukcja naprawdę prowadziłaby do dobrze okreś­
lonej krzywej granicznej, to oczekiwalibyśmy, że ciąg punk­
tów yi(x), y 2 ( x) j ... ma granicę, którą powinna być wartość
y dla krzywej granicznej w punkcie x. Jest to oczywiście
prawdą dla wszystkich punktów, których rozwinięcie dwój­
kowe jest skończone, jak np. 1/4 czy 139/256, ponieważ,
15 Dla tego typu przypadków, gdzie czynnik skali jest różny dla
różnych kierunków, bardziej stosowne byłoby określenie samoafiniczne.
Przekształcenia afiniczne będą omawiane w rozdziałach 5 i 6.
146
2. Klasyczne frakt ale i samopodobieństwo
jak to wynika z konstrukcji, dla takich punktów od pewnego
poziomu wszystkie kolejne krzywe przyjmują wartość zero.
Istnieją jednakże punkty, które łamią tę ważną własność
zbieżności. Takim punktem jest na przykład x = 1/7, dla
którego y przyjmuje wartości 2/7, 4/7, 6/7, 2/7, 4/7,
6 /7 ,... i tak dalej cyklicznie. Dlatego właśnie nie istnieje
obiekt będący granicą, nie ma krzywej wypełniającej prze­
strzeń, nie ma głębszego zrozumienia. Ten naiwny sposób
zapełniania kw adratu jest w istocie podobny do zapełnienia
skończonej przecież sieci pikseli obrazu przez przyporządko­
wanie każdemu punktowi koloru czarnego. Po pewnej liczbie
kroków sprawa jest zakończona i nie ma powodu przechodze­
nia do większej rozdzielczości. Nie ma tu mowy o samopodobieństwie, a na pewno nie powstaje żaden fraktal. Wi­
dzimy więc teraz, że rzeczywiście geniusz Peana i Hilberta
doprowadziły do powstania dziwoląga o nieprzewidzianych
własnościach, którego istnienie nie wydawało się wcześniej
możliwe.
Analiza naiwnego
podejścia do
do zapełniania
przestrzeni
M o ż e m y przeprow adzić an alizę ciągu krzyw ych pow stających w naiw ­
nej konstrukcji krzyw ej w y p ełn iają ce j przestrzeń. W p ro w ad źm y więc
cyklicznie p o w ta rzając e się przekształcenie o w ykresie w kształcie na­
m io tu (tent transformation):
2 .fr a c (x ),
2 (1 — f r a c (x )) ,
jeśli fra c (x ) < 0 , 5
jeśli fra c (x ) > 0, 5
gdzie fr a c (x ) oznacza funkcję przyporządkow ującą danej liczbie jej
część u łam kow ą, tzn .
fr a c (x ) = x — m a x { & : k < x , k c a łk o w ite }.
U ży w a ją c teg o ozn aczen ia, m o żem y zapisać krzyw e, w ystępujące w kon­
stru kcji, po prostu tak:
y 0(x)
j/i ( z )
y2(x)
yn {x)
= h(x),
= h(2x),
- h(Ax),
=
h(2nx)
przy x p rzy jm u ją cy m w artości pom iędzy 0 a 1. M o że m y zauw ażyć,
że część ułam kow a liczb x , 2 x , 4 x , . . . , 2nx , ... w yznacza ju ż wartość
147
2.5. Krzywe wypełniające przestrzeń
y dla danej wartości x.
Prześledźm y, co dzieje się w przypadku
wcześniej używanego przykładu x ~ 1 / 7
fra c (l/7 ) -
1 /7 ,
fr a c (2 /7 ) - 2 /7 ,
fr a c (4 /7 ) = 4 /7 ,
f r a c (8 /7 ) -
1 /7 ,
Ułam kowa część 1 6 /7 to znow u 2 / 7 i dalej pow tarza się to cyklicznie.
U łam ki 1 /7 , 2 /7 , 4 / 7 , 1 / 7 , . . . przejdą przy naszym przekształceniu
„n am iotow ym " na 2 / 7 , 4 / 7 , 6 / 7 , 2 / 7 , 4 / 7 , 6 / 7 , . . . , ta k ja k to
przewidzieliśm y. D la te g o te ż granica
lim yn ( 1 /7 )
nie istnieje, a co za tym idzie ciąg krzyw ych 2 / o > 2 / i i - - nie d ąży do
żadnej granicy. Na zakończenie m o żem y zapytać, czy w y b ierając
x = 1 / 7 do przetestow ania zbieżności natrafiliśm y na ja k iś szczególny
punkt. O tó ż nie. O k azu je się, że dla prawie w szystkich p u n k tó w x
ciąg 2/o(z)» 2 /i(a ),
nie ma granicy. Z a s ta n ó w m y się nad ty m przez
chwilę. Część ułam kow ą liczby 2nx łatw o je s t znaleźć, jeśli zapiszem y
x w rozwinięciu dw ó jkow ym . W e ź m y przykładow o liczbę wcześniej
przez nas używ aną, x = 1 /7 , która ma rozw inięcie dw ójkow e
0,001001...,
64
512
1/8
1
1 -1 /8
7'
M nożenie liczby w układzie dw ó jkow ym przez 2 polega na przesu­
waniu w szystkich cyfr o je d n ą pozycję w lewo. N a to m ia s t branie
części ułam kowej polega na odrzuceniu w szystkich cyfr stojących
przed przecinkiem . I ta k na przykład, jeśli w yko n am y kolejne prze­
sunięcia dla 1 /7 , to o trz y m a m y 0 ,0 1 0 0 1 0 ..., 0 ,1 0 0 1 0 0 ... oraz, po
przesunięciu i odrzuceniu jed y n k i, która pojaw ia sie przed przecin­
kiem , 0 ,0 0 1 0 0 1 ..., co nam daje znowu 1 /7 . C ałą tę operację m ożem y
również nazwać przesunięciem binarnym (dwójkowym), które sta­
nowi podstawowe narzędzie do an alizy chaosu, ja k ą przeprow adzim y
w rozdziale 10. Stosowanie po w ielokroć do danej liczby binarnego
przesunięcia m ożna sobie w yobrazić ja k o um iejscow ienie danej liczby
na nieskończenie dokładnym narzędziu pom iarow ym i przyglądaniu się
jej przez m ikroskop o stale p o d w ajającym się czynniku pow iększenia.
Jeśli w ybierzem y losowo liczbę pom iędzy 0 a 1, a więc liczbę o lo­
sowym rozkładzie zer i jedynek, to przesunięcie dw ójkow e da nam
ciąg liczb losowych, któ ry z pewnością nie będzie dążył do żadnej
wartości granicznej. Poniew aż „większość" liczb ma w swoim roz-
148
2 . Klasyczne frakt ale i samopodobieństwo
w inięciu d w ó jko w ym losowo p o jaw iające się zera i jed y n k i, m ożem y
w nioskow ać stąd, że brak zbieżności w naszej naiw nej konstrukcji nie
je s t w y ją tk ie m , lecz regułą.
Mogłoby się wydawać, że krzywe, które wypełniają płasz­
Z astosow anie
krzyw ych czyznę, są jedynie ciekawostką w świecie czystej matematyki
w y p ełn ia ją cy ch — uważane za „dziwolągi” . Okazuje się jednak, że stano­
p łaszczyzn ę wią one ważną pozycję w odkryciu przez Mandelbrota fraktali jako modelu natury. Co więcej, i to może być zaska­
kujące, te dawno odkryte „dziwolągi” są wykorzystywane
w bardzo praktycznych, technicznych zastosowaniach, po­
nad 100 lat po ich odkryciu. Opiszemy tu pokrótce ich
zastowanie do analizy obrazu, jakie zostało ogłoszone na
prestiżowym zjeździe SIGGRAPH16 w 1991 r. Omawiana
technika analizy obrazu wprowadza nowy sposób binarnego
cieniowania, użyteczny do wprowadzania odcieni szarości
do dwukolorowego urządzenia graficznego, takiego jak na
przykład drukarka laserowa.17 Problem polega na tym, że
drukarka tworzy tzw. bitmapę, macierz składającą sie z czar­
nych i białych pikseli, podczas gdy odcienie szarości nie
mogą być zakodowane na poziomie pikseli. Aby dać so­
bie radę z tym problemem, wprowadzono techniki cienio­
wania (dithering), które opierają się na przebieganiu obrazu
o zmiennym odcieniu szarości linia po linii lub w małych
kwadratowych klatkach. Otrzymuje się przybliżenie czarno-białe, które ma za cel minimalizację całkowitego błędu. Na
ogół otrzymuje się wiele artefaktów, które pozwalają zgadnąć,
że była używana ta nowa technika. Jak może pomóc wprowa­
dzenie krzywych wypełniających płaszczyznę? Wyobraźmy
sobie krzywą Hilberta przechodzącą przez wszystkie piksele
obrazu o zmiennym odcieniu szarości. Poruszanie się po tej
krzywej daje nam możliwość innego niż linia po linii sposobu
przebiegania obrazu. Czarno-białe przybliżenie otrzymy­
wane jest dla pikseli następujących po sobie wzdłuż tej po­
splatanej linii. Przewagą przebiegania obrazu wzdłuż krzy­
wej Hilberta jest to, że jest ono niezależne od jakichkolwiek
16 SIGGRAPH = Special Interest Group Graphics of the Associa­
tion for Computing Machinery (ACM). Ich doroczne zjazdy przyciągają
około 30 000 osób, zawodowo zajmujących się grafiką komputerową.
17 Luiz Velho, Jonas de Miranda Gomes, Digital Halftoning with
Space-Filling Curves, Comput. Graph. 25, 4, 81-90 (1991).
149
2.5. Krzywe wypełniające przestrzeń
D w ie m eto d y
cieniow ania
Rysunek 2.39: Cieniowanie za pomocą krzywej Hilberta (po
prawej) porównane z cieniowaniem tradycyjnym (po lewej). W
górnym rzędzie — obie metody zastosowane do kwadratu, którego
odcień zmienia się w sposób ciągły od białego (dolny lewy róg) do
czarnego (prawy górny róg). W dolnym rzędzie — obie metody
zastosowane do obrazu Lenny
cech związanych z kierunkiem, które są obecne w metodach
tradycyjnych. Wytwarzane są aperiodyczne plamki stwo­
rzone z nieregularnych grup punktów przyjemnych dla oka,
a podobne do ziarna występującego na zdjęciach fotogra­
ficznych. Na rysunku 2.39 przedstawiono dla porównania:
tradycyjną technikę nazywaną clustered dot ordered dither
i nową metodę. Istnieją też inne, wcześniejsze metody prze­
twarzania obrazu wykorzystujące krzywe wypełniające prze­
strzeń18.
18 R. J. Stevens, A. F. Lehar, F. H. Preston, Manipulation and Pre­
sentation of Multidimensional Image Data Using the Peano Scan, IE E E
Trans. P a ttem Anal. Mach. In te ll 5, 520-526 (1983).
150
2. Klasyczne frakt ale i samopodobieństwo
Algorytm
cieniowania
wykorzystujący
krzywą Hilberta
Z a jm ie m y się te ra z opisem uproszczonej w ersji cieniow ania używ ają c e g o krzyw ej H ifb e rta . W e ź m y dla przykładu kw ad rat z płynnie
zm ie n ia ją c y m się odcieniem szarości i p o s ta ra jm y się go ja k najw ierniej o d tw o rzyć przy użyciu je d y n ie czarnych i białych pikseli. Roz­
dzielczość obrazu musi być potęgą d w ó jk i. Na przykład na rysunku
2 .4 0 ro zw a ża m y rozdzielczość 4 , 8 , 1 6 i 3 2 piksele w pionie i pozio­
m ie. D la tych kilku p rzy p ad kó w m o żem y dopasow ać odpow iednio
krzyw ą H ilb e rta ta k , ja k to pokazan o na rysunku. O trz y m u je m y
w ten sposób p ew n e uporządkow anie pikseli. W przypadku rozdziel­
czości 4 na 4 piksele, jeśli kolum ny o zn aczym y literam i A , B , C , D ,
w iersze zaś 1 , 2 , 3 , 4 , piksele obrazu są uporządkow ane następująco:
A l , B I , £ 2 , A 2 , . . . , D2, C2, C l, D L
O zn a c zm y te ra z przez J i, 72, . . . , / n w artości natężenia dla kolej­
nych pikseli w p rzetw arzan ym obrazie z w ystęp u jącym i odcieniam i
C ien iow an ie
p rzy u życiu
krzyw ej
H ilb erta
Rysunek 2.40: Zasada algorytmu, używającego cieniowania
opartego na czterech kolejnych etapach przebiegania obrazu przy
użyciu krzywej Hilberta. Używano tego samego zacieniowanego
kwadratu jak na rys. 2.39
2.5. Krzywe wypełniające przestrzeń
szarości (w artości te m ieszczą się pom iędzy 0 dla koloru czarnego
a 1 dla białego). W ys tę p u jąc e tu ta j n je s t potęgą d w ó jki i oznacza
całkow itą liczbę pikseli. O braz, ja k i o trzym a m y, zależy od odp ow ie­
dnio wyliczonych wartości natężenia
0 1, 0 2, . . . , 0 n G { 0 , 1 } -
N ajpierw ustalm y
n _ ( 0,
1
\ 1,
jeśli i i < 0 , 5 ,
jeśli h > 0 , 5 .
Przybliżenie to zaw iera błąd
E i = h -
Oj.
Zam iast zignorować tę różnicę, m ożem y przenieść ją do kolejnego
piksela w ciągu. D okładna reguła je s t następująca:
q
__ i 0?
jeśli Ik +
i,
jeśli I k +
U k ~ \
< 0,5,
> 0,5,
E k ~ h ~ OkO znacza to, że błąd przem ieszcza się w zd łu ż ciągu pikseli. C elem teg o
przenoszenia błędu je s t zm in im alizo w an ie całkow itego błędu natężeń,
uśrednianego dla części obrazu o różnej wielkości. O trz y m u je m y
w tym przypadku sumę błędów dla całości obrazu:
n
=
E n,
k= i
co daje stosunkowo m ałą wartość. Isto tn ą zaletą teg o algo rytm u je s t
to, że błąd przenoszony je s t w zd łu ż krzyw ej H ilb e rta , która przebiega
obraz w sposób postrzegany przez nas ja k o bardzo nieregularny. Jeżeli
zastąpilibyśm y krzyw ą H ilb e rta , na przykład, krzyw ą przebiegającą
obraz linia po linii, to przenoszenie błędu w sposób regularny dopro­
wadziłoby do pow stania zakłam u jących obraz a rte fa k tó w . A lg o rytm ,
zaproponow any przez Stevensa, Lehara i Prestona na S IG G R A P H ,
je s t uogólnieniem przedstaw ionej przez nas m etody. Z a m ia s t poje­
dynczych pikseli rozw ażane są bloki kolejnych pikseli, w ystępujące
przy przebieganiu h ilb e rto w s k im .19
19 Przedstawiona tutaj uproszczona wersja została po raz pierwszy
opublikowana w: I. H. W itten i M. Neal, Using Peano curves for bilevel
display of continuous tone images, IE E E Comput. Graph. A ppl., Maj
1982, 47-52.
151
152
P od su m ow an ie
2. Klasyczne frakt ale i samopodobieństwo
Podsumowując dotychczasowe rozważania, możemy po­
wiedzieć, że pokazaliśmy, jak pojęcie samopodobieństwa ro­
zumiane w ścisły sposób wymaga brania pod uwagę obiektów
będących końcowym rezultatem konstrukcji, której najważ­
niejszym elementem jest sprzężenie zwrotne. Musimy być
bardzo ostrożni, jeśli chcemy używać tego pojęcia. Powinno
istnieć jasne rozróżnienie pomiędzy skończonym krokiem kon­
strukcji a samym fraktalem. Jednak nasuwa sie pytanie: jak
w takim razie możemy analizować za pomocą tych metod
formy i wzory spotykane w naturze, jak na przykład kala­
fior?
Otóż kalafior zawiera te same kształty w kilku, pięciu
czy sześciu, poziomach powiększenia. Większe części kala­
fiora składają się z mniejszych o podobnym kształcie. Jest
to wskazaniem do tego, by kalafior analizować metodami
geometrii fraktalnej, podobnie jak w wielu zastosowaniach
możemy traktować planety jako kule i używać metod geome­
trii Euklidesowej. Tak samo jak planeta nie jest idealną kulą,
tak i kalafior nie jest doskonale samopodobny. Po pierwsze
występują zaburzenia w samopodobieństwie: mała część nie
jest dokładnie pomniejszoną częścią większą. Ważniejszym
jednak problemem jest to, że zakres skali powiększenia w ja­
kiej widzimy podobieństwo form jest skończony. Dlatego
fraktale mogą być używane tylko jako modele kształtów występujących w naturze i musimy zawsze zdawać sobie sprawę
z istniejących ograniczeń.
2 .6 . F r a k ta le a w y m ia r
Odkrycie krzywych wypełniających przestrzeń było kamie­
niem milowym w rozwoju pojęcia wymiaru. Krzywe ta­
kie poddawały w wątpliwość naturalne założenie, że krzywe
są obiektami jednowymiarowymi, ponieważ mogą wypełnić
płaszczyznę (tzn. obiekt intuicyjnie postrzegany jako dwu­
wymiarowy). Sprzeczność ta stanowiła argument w dysku­
sji, która toczyła się przez kilka dziesięcioleci na początku
tego wieku. Kiedy mówimy o fraktalach, na ogół bierzemy
po uwagę wymiar fraktalny, wymiar Hausdorffa czy wymiar
pudełkowy (zajmiemy się bliżej tymi pojęciami w rozdziale
4), jednak początki tych pojęć sięgają wczesnych odkryć to­
pologii.
153
2.6. Fraktale a wymiar
*
Topologia jest gałęzią matematyki, której zasadniczy roz­ Św iat z gum y
wój rozpoczął się na początku naszego wieku. Zajmuje się
ona, z jakościowego punktu widzenia, problemami dotyczą­
cymi formy i kształtu. Dwa podstawowe pojęcia topologii to
„wymiar” i „homeomorfizm” . Topologia zajmuje się sposo­
bami rozciągania i wykręcania kształtów w przestrzeni, która
zachowuje się jak zrobiona z gumy.
Okrąg, kw adrat
i p łatek śniegu
K ocha
Rysunek 2.41: Okrąg można zdeformować w sposób ciągły tak,
by powstał trójkąt. Trójkąt można przekształcić na płatek śniegu
Kocha. Topologicznie wszystkie one są równoważne
W topologii linie proste m ają prawo zamieniać się w krzy­
we, okręgi mają prawo być ściskane w trójkąty albo roz­
ciągane w kwadraty. Na przykład z topologicznego punktu
widzenia linia prosta i krzywa Kocha nie są rozróżnialne.
Również obrzeże płatka śniegu Kocha jest tym samym co
okrąg. Albo płaska kartka papieru — jest równoważna kartce
nieskończenie pomiętej. Jednak nie wszystkie zmiany są
w topologii dozwolone. Przecięcia linii, na przykład, mu­
szą pozostać przecięciami. W języku matematyków oznacza
to, że przecięcie jest niezmiennikiem. Nie może zostać zni­
szczone ani nowe nie może powstać, niezależnie od tego, jak
bardzo linie są rozciągane i wykręcane. Liczba dziur w obiek­
cie jest również niezmiennikiem topologicznym, co oznacza,
że sfera może być wygięta w kształt podkowy, ale już nie
w kształt ciastka z dziurką. Dozwolone przekształcenia nazy-
154
2. Klasyczne fr akt ale i samopodobieństwo
wają się homeomorfizmami20 i działając na obiekt nie zmie­
niają niezmienniczych własności tego obiektu. Dlatego sfera
i powierzchnia sześcianu są homeomorficzne, a sfera i ciastko
z dziurką nie.
R ów n ow ażność
Wspomnieliśmy już, że linia prosta i krzywa Kocha są
to p o lo g iczn a topologicznie równoważne. Co więcej, linia prosta jest pro­
totypem obiektu o wymiarze 1. Dlatego, jeśli wymiar jest
pojęciem topologicznym, to oczekiwalibyśmy, że krzywa Ko­
cha również ma wymiar 1. Jest to jednak delikatny problem,
który niepokoił matematyków na przełomie wieku.
Historia różnych definicji wymiaru jest związana z naj­
większymi ówczesnymi matematykami, takimi jak: H. Po­
incare, H. Lebesgue, L.E.J. Brouwer, G. Cantor, K. Menger, W. Hurewicz, P. Aleksandrów, L. Pontriagin, G. Peano, P. Urysohn, E. Cech i D. Hilbert. Historia ta jest
ściśle związana z powstaniem pierwszych fraktali. Hausdorff
zwrócił uwagę na to, że problem stworzenia prawidłowego
pojęcia wymiaru jest bardzo złożony. Istniała naturalna in­
tuicja związana z tym, co to jest wymiar: wymiar obiektu
X jest to liczba niezależnych param etrów (współrzędnych),
które są potrzebne do jednoznacznego opisu jego punktów.
Idea Poincarego miała naturę indukcyjną i zaczynała się
od punktu. Otóż punkt ma wymiar 0. Następnie linia prosta
ma wymiar 1, ponieważ może być podzielona na dwie części
za pomocą punktu (który ma wymiar 0). Z kolei kwadrat ma
wymiar 2, bo może być podzielony na dwie części przez linię
prostą (która ma wymiar 1). Sześcian ma wymiar 3, gdyż
może być podzielony na dwie części przez kwadrat (który
ma wymiar 2).
W ym iar
W czasie rozwoju topologii matematycy szukali jakośćioto p o lo g iczn y wych cech, które nie zmieniałyby się podczas odpowiednich
przekształceń obiektów (technicznie nazwanych homeomor­
fizmami). W ymiar (topologiczny) obiektu powinien przy
tych przekształceniach być zachowany. Okazało się jednak,
że istnieją poważne kłopoty ze sformułowaniem poprawnego
i dokładnego pojęcia wymiaru, jednocześnie o odpowiednich
własnościach. Na przykład w roku 1878 Cantor znalazł prze­
kształcenie / z odcinka jednostkowego [0,1] w kwadrat jed­
nostkowy [0,1] x [0,1], które było różnowartościowe
20 Dwa obiekty X i Y (przestrzenie topologiczne) są homeomorficzne,
jeżeli istnieje homeomorfizm h : X — ►Y (tzn. ciągłe wzajemnie jedno­
znaczne przekształcenie mające ciągłe przekształcenie odwrotne h ~ 1).
2.6. Fraktale a wymiar
155
i na21. Wydawało się więc, że potrzeba tylko jednego para­
metru, by opisać punkty kwadratu. Przekształcenie Cantora
nie jest jednak homeomorfizmem. Nie jest ciągłe, tzn. nie
prowadzi do krzywej wypełniającej przestrzeń!
Konstrukcje krzywych wypełniających przestrzeń, poda­
ne przez Peana i następnie przez Hilberta, dały przykład
przekszałceń #, przekształcających odcinek jednostkowy
[0,1] na kwadrat [0,1] x [0,1], które były nawet ciągłe. Prze­
kształcenia te jednak nie były różnowartościowe (tzn. ist­
nieją punkty odcinka x \ i 2 2 >
/ x 2, które są przekształ­
cane w ten sam punkt kwadratu y = g{x\) — g(x 2 )).
Powstało związane z tym pytanie — na które odpowiedź
wydawała się oczywista — czy istnieje przekształcenie, od­
wzoruj ące różnowartościowo odcinek I = [0,1] na cały kwa­
drat 12 = [0,1] x [0,1], ciągłe w obie strony? Czy też ogólniej,
czy n-wymiarowa jednostkowa kostka I n = [0, l]n jest homeomorficzna z kostką ra-wymiarową I m = [0, l]m,n ^
m l Jeśli istniałoby takie przekształcenie, to matematycy
w swoim odczuciu znaleźliby się w kłopocie: otóż obiekt
jednowymiarowy byłby homeomorficzny z dwuwymiarowym.
Pozostawałoby to w niezgodności z ideą niezmienniczości
w topologii.
Pomiędzy rokiem 1890 a 1910 pojawiło się kilka „do­ Linia p rosta
wodów” pokazujących, że I n i I m nie są homeomorficzne i kw adrat nie są
dla n / m, lecz nie były one kompletne. Dopiero holenderski rów now ażne
matematyk Brouwer w roku 1911 zażegnał ten kryzys. Podał
mianowicie elegancki dowód tej nierównoważności, który do­
datkowo stanowił ważny bodziec do rozwoju topologii. Jed­
nak próby znalezienia odpowiedniego pojęcia wymiaru i do­
wód, że proste obiekty, takie jak / n, m ają oczywisty wymiar,
ciągnęły się przez następne dwadzieścia lat. Na ten okres
przypada również praca niemieckiego matematyka
Hausdorffa (która doprowadziła do powstania pojęcia wy­
miaru fraktalnego).
W ciągu naszego wieku matematycy tworzyli wiele pojęć
wymiaru (mały wymiar indukcyjny, duży wymiar induk­
cyjny, wymiar pokryciowy, wymiar homologiczny).22 Wiele
21 Pojęcie „na” oznacza tutaj, że dla każdego punktu z z kwadratu
jednostkowego istnieje dokładnie jeden punkt x z odcinka jednostko­
wego, który jest przekształcany na z — }{x).
22 K. Kuratowski, Topology II, PWN, Warszawa 1968, R. Engelking,
Teoria W ym iaru, PWN, Warszawa 1977.
156
2. Klasyczne fraktale i samopodobieństwo
K onstru kcja
gąbki M en gera
R ysunek 2.42: Obiektem, który jest ściśle związany z dywa­
nem Sierpińskiego, jest gąbka Mengera, nazwana tak na cześć
Karla Mengera (1926). Weźmy sześcian, podzielmy jego ściany
na 9 przystających kwadratów i wywierćmy dziury tak, jak po­
kazano — zaczynając od środkowego kwadracika, na wylot, do
środkowego kwadracika na przeciwnej ścianie. Przekrój dziury
musi być kwadratem. Następnie podzielmy pozostałe osiem
małych kwadracików na każdej ze ścian na dziewięć jeszcze mniej­
szych kwadracików i znów wywierćmy dziurki, zaczynające się
od wszystkich środkowych kwadracików do odpowiednich kwa­
dracików na przeciwnej ścianie i tak dalej
z nich ma naturę topologiczną; przyjmują wartości ze zbioru
liczb naturalnych (0 dla punktów) i są takie same dla obiek­
tów topologicznie równoważnych. Jako przykład pojęcia wy­
miaru omówimy wymiar pokryciowy. Inne przykłady mogą
opierać sie na własnościach, które nie są topologicznymi nie­
zmiennikami. Najważniejszym takim przykładem jest wy­
miar Hausdorffa. Otóż wymiar Hausdorffa dla prostej wy­
nosi 1, podczas gdy dla krzywej Kocha wynosi log4/log3.
Oznacza to, że wymiar Hausdorffa zmienił się, mimo iż z to­
pologicznego punktu widzenia krzywa Kocha jest tym sa-
157
2.6. Fraktaie a wymiar
mym co linia prosta. Co więcej, log4/log3 = 1,2619... nie
jest liczbą całkowitą. Jest to raczej ułamek, co stanowi ty­
pową własność fraktali. Innymi przykładami o wymiarze
(pokryciowym) 1 są: wybrzeże wyspy Kocha, trójkąt Sier­
pińskiego, jak również dywan Sierpińskiego. Nawet gąbka
Mengera, której podstawowe kroki konstrukcji przedstawio­
no na rysunku 2.42 ma (pokryciowy) wymiar równy 1.
Z grubsza rzecz biorąc, trójkąt i dywan Sierpińskiego oraz
gąbka Mengera m ają (pokryciowy) wymiar 1, ponieważ za­
wierają fragmenty prostych, a nie zawierają elementów po­
wierzchni czy brył. Zbiór Cantora ma wymiar 0, ponieważ
składa się ze zbioru rozproszonych punktów i nie zawiera
żadnego odcinka.
Zajmiemy się teraz topologicznie niezmienniczym wy­ W ym iar
miarem pokryciowym. Pojęcie to opiera się na — przypi­ pokryciow y
sywanej Lebesgue’owi — następującej obserwacji. Weźmy
krzywą na płaszczyźnie (zob. rysunek 2.43) i spróbujmy
pokryć ją kołami o małej średnicy. Sposób, w jaki doko­
naliśmy pokrycia fragmentu lewej części krzywej, różni się
zasadniczo od tego, jak zrobiliśmy to w części środkowej,
który z kolei różni się od pokrycia prawej części. Na czym
polega ta różnica? Otóż w prawej części możemy znaleźć je­
dynie pary kół, które m ają niepuste przecięcie, podczas gdy
w części środkowej możemy znaleźć trójki, a w lewej części
nawet czwórki kół, mających niepuste przecięcie.
P okrycie
krzywej
Ta oto ważna obserwacja prowadzi do następującej defi­
nicji. Mówimy, że krzywa ma wymiar pokryciowy równy 1,
ponieważ możemy ją pokryć kołami o małej średnicy w taki
sposób, że nie istnieją trójki czy czwórki kół o niepustym
przecięciu, ale jedynie pary. Co więcej, nie istnieje takie
pokrycie wystarczająco małymi kołami, dla którego nie ist­
niałyby pary kół o niepustym przecięciu.
158
2. Klasyczne frakt ale i samopodobieństwo
P ok rycie
p łaszczyzn y
R ysunek 2.44: Pokrycie płaszczyzny kulami
Obserwacja ta daje się rozszerzyć na obiekty położone
w przestrzeni (a nawet na obiekty położone w wyższych
wymiarach). Na przykład powierzchnia położona w prze­
strzeni (zob. rysunek 2.44) ma wymiar pokryciowy 2, po­
nieważ możemy pokryć tę powierzchnię kulami o odpowie­
dnio małym promieniu w taki sposób, że nie istnieje czwórka
kul o niepustym przecięciu, ale jedynie trójki. Dodatkowo
nie istnieje takie pokrycie powierzchni kulami o odpowie­
dnio małej średnicy, w którym istniałyby jedynie pary kul
o niepustym przecięciu.
Pokrycie wpisane
i w ym iar
pokryciowy
N a tu ra ln e je s t łąc ze n ie w y m ia ru 1 z krzyw ą, w ym iaru 2 z kw adra­
te m , a w y m ia ru 3 z sześcianem . Pojęcie w ym iaru pokryciow ego daje
nam je d n ą z m ożliw ości precyzyjnego zapisu naszej in tu ic ji. Jest
to jed e n z w ielu sposobów w prow adzenia definicji w ym iaru to p o lo ­
gicznego. Z a jm ijm y się te ra z dw o m a przykład am i, które pozw olą na
lepsze zro zu m ien ie pojęcia w ym iaru pokryciow ego. Będą to: krzywa
na płaszczyźnie (rysunek 2 .4 3 ) i fra g m e n t pow ierzchni w przestrzeni
(rysunek 2 .4 4 ).
P rz y jrz y jm y się krzyw ej p o krytej m ałym i kołam i i spróbujm y
określić najw iększą liczbę kół pokrycia, m ających niepuste przecięcie.
T a liczba nazyw a się rzędem pokrycia. O trz y m u je m y więc w lewej
części krzyw ej z rysunku 2 .4 3 rząd pokrycia 4, w środkowej 3, a w pra­
wej 2. N a rysunku 2 .4 4 przedstaw iono pow ierzchnię p o krytą m ałym i
ku lam i, a rząd teg o pokrycia wynosi 3.
Jesteśm y ju ż bardzo bliscy stw orzenia definicji w ym iaru pokry­
ciow ego. W p ro w a d źm y pojęcie pokrycia w pisanego w dane (d ro b ­
niejszego od d a n eg o ).
Pokrycia zbioru X na płaszczyźnie (alb o
w p rzestrzeni) są zb io ram i skończenie w ielu otw artych kół o pew ­
2.6. Fraktale a wymiar
nym prom ieniu23, pow iedzm y A = { D \ , . . . , £> /}, takich że ich suma
pokrywa X. M ó w ią c ściślej zakładam y, że m am y do czynienia z prze­
strzenią m etryczną zw a rtą X. Skończone pokrycie je s t w te d y skoń­
czoną rodziną otw artych zbiorów , takich że X je s t zaw arty w ich
sumie. O tw a rte pokrycie B — { E \ , ... , E r} nazywa się rozdrobnie­
niem pokrycia A — { D i , . . . , . Di } (lu b pokryciem w nie w p is an y m ),
jeżeli dla każdego Ei istnieje D j , ta k ie że Ei c Dj. Rzędem o tw ar­
tego pokrycia A nazyw am y m aksym alną liczbę n atu raln ą k, dla której
istnieją różne w skaźniki ¿1, . . . , z*., ta k ie że Dil f i Di2 n ... Pi Dih ^ 0.
M ożem y tera z pow iedzieć, że o b iekt X m a wymiar pokryciowy
n J e że li dla jeg o dow olnego o tw artego pokrycia istnieje pokrycie drob­
niejsze rzędu n + 1, ale nie ma takie g o pokrycia rzędu n. n m oże być
tu ta j dow olną liczbą n atu raln ą.
Rysunek 2.45: Pokrycie okolicy punktu rozgałęzienia oraz po­
krycie drobniejsze
Na rysunku 2 .4 5 pokazano, że pojęcie pokrycia drobniejszego
jest bardzo w ażne dla definicji w ym iaru pokryciow ego. W po kry­
ciu obiektu o kształcie litery Y w ystępują trz y koła, których prze­
cięcie jest niepuste (d u że, przeryw ane koła). Istnieje je d n a k pokrycie
m niejszym i kołami (koła narysowane linią ciągłą, każde m niejsze koło
zawiera się w którym ś z większych kó ł), ta k ie że co najw yżej pary kół
m ają niepuste przecięcie.
Jest teraz intu icyjnie jasne, że dla każdej skończonej liczby punk­
tó w istnieje takie pokrycie, że jeg o koła nie przecinają się. K rzyw e zaś
m ogą mieć pokrycia rzędu 2, ale nie rzędu 1. P ow ierzchnie m ogą m ieć
pokrycia rzędu 3 i nie istnieją pokrycia złożone z kul o w ystarczająco
m ałym prom ieniu, które by m iały rząd 2. D lateg o te ż w y m ia r p u n któ w
wynosi 0, krzyw ych 1, a pow ierzchni 2.
23 „Otwarty” oznacza, że rozważamy koła (lub kule) bez ograni­
czających je okręgów (lub sfer), bądź sumy takich zbiorów.
159
160
2. Klasyczne fraktale i samopodobieństwo
O bserw acje nasze przenoszą się na w yższe w ym iary. Co więcej
nie je s t istotne, czy ro zw a ża m y krzyw e położone na płaszczyźnie, czy
w przestrzeni i czy e le m e n ta m i pokrycia są koła, czy kule. O trz y ­
m a m y ten sam w y m ia r.24
2 .7 . U n iw e r s a ln o ś ć d y w a n u S ie r p iń sk ie g o
Do tej pory próbowaliśmy rozbudzić intuicję dotyczącą to­
pologicznego pojęcia wymiaru. Okazało się, że z tego punktu
widzenia nie tylko linia prosta, ale również inne krzywe,
np. krzywa Kocha, są obiektami jednowymiarowymi. Otóż
z punktu widzenia topologii rodzina obiektów jednowymia­
rowych jest niesłychanie bogata i rozległa, zawiera o wiele
więcej niż tylko wymyślne obiekty, takie jak na rysunku 2.46.
Rysunek 2.46: Ta bardzo skomplikowana na pierwszy rzut oka
krzywa nie jest wcale złożonym obiektem jednowymiarowym
R o d z in a
Jesteśmy już przygotowani, by zrozumieć, o co chodziło
o b ie k tó w je d n o - Sierpińskiemu przy tworzeniu swojego dywanu. Chcielibyśw y m ia ro w y c h my stworzyć dom lub hotel dla wszystkich obiektów jedno­
wymiarowych. Dom ten powinien być obiektem doskonałym,
zawierającym, w sensie topologicznym, wszystkie możliwe
obiekty jednowymiarowe. Oznaczałoby to, że dany obiekt
może być zawarty w obiekcie doskonałym niekoniecznie w ta­
kiej dokładnie postaci, w jakiej występuje niezależnie, ale
w postaci jednego ze swoich topologicznych mutantów. To
tak jakby dany obiekt zrobiony był z gumy i mógł wpaso24 W celu dokładniejszego omówienia pojęcia wymiaru odsyłamy Czy­
telnika do książki Geralda E. Edgara, Measure, Topology and Fractal
G eom etry, Springer-Verlag, New York 1990.
2.7. Uniwersalność dywanu Sierpińskiego
161
wywać się w obiekt doskonały. Na przykład pająk o pięciu
odnóżach z rysunku 2.47 może pojawić sie w obiekcie do­
skonałym w dowolnej równoważnej formie.
P a ją k i
to p o lo g ic z n ie
ró w n o w ażn e
Rysunek 2.47: Wszystkie te pająki o pięciu odnóżach są topo­
logicznie równoważne
Z punktu widzenia topologii nie jest ważne, w której
dokładnie formie nasz pająk będzie występował w obiek­
cie doskonałym. Jeśli na przykład jedna z jego nóg byłaby
tak powyginana jak krzywa Kocha, byłby to wciąż ten sam
pająk.
Wspaniały wynik, jaki otrzymał Sierpiński25 w roku 1916,
pokazuje, że dywan Sierpińskiego jest właśnie takim do­
skonałym obiektem. Możemy w nim umieścić dowolny obiekt
jednowymiarowy. Oznacza to również, że w dywanie Sier­
pińskiego znajduje się całe bogactwo własności topologicz­
nych, jakimi mogą być obdarzone obiekty jednowymiarowe.
Odkrycie Sierpińskiego możemy ująć w sposób następujący:
S tw ierd zen ie. Dywan Sierpińskiego jest przestrzenią uni­
wersalną dla wszystkich z w a r ty c h jednowymiarowych obiek­
tów na płaszczyźnie.
Spróbujmy się zastanowić, co powyższe stwierdzenie ozna­
cza. Weźmy kawałek papieru i narysujmy krzywą (tzn. ty25 W. Sierpiński, Sur une courbe cantorienne qui contient une image
biunivoquet et continue de toute courbe donnée, C. R. Acad. Paris
162, 629-632 (1916).
26 Zwartość jest wymaganiem technicznym. Możemy przyjąć, że za­
chodzi ono dla dowolnego rysunku na kartce papieru. Na przykład
płaskie koło bez swojego brzegu nie byłoby zwarte, tak samo jak li­
nia prosta biegnąca aż do nieskończoności. Dla podzbioru płaszczyzny
(albo przestrzeni) X oznacza to, że jest on ograniczony, tzn. zawiera się
całkowicie w pewnym dostatecznie dużym kole na płaszczyźnie (albo do­
statecznie dużej kuli w przestrzeni), i że każdy zbieżny ciąg elementów
tego zbioru zbiega do pewnego punktu tego zbioru (czyli że zbiór X
jest domknięty - przyp. tłum.)-
162
2. Klasyczne fr akt ale i samopodobieństwo
powy obiekt jednowymiarowy), który mieści się na kartce
(to sprawi, że jest on zwarty). Niech nasz rysunek będzie
naprawdę skomplikowany, tak jak tylko można to sobie wyo­
brazić, z wieloma samoprzecięciami. Narysujmy nawet kilka
krzywych, jedna na drugiej. Jakkolwiek skomplikowany był­
by nasz rysunek, dywan Sierpińskiego jest górą, ponieważ ja­
kakolwiek komplikacja pojawi się na naszym rysunku, znaj­
duje się ona również w jakimś podzbiorze (części) dywanu
Sierpińskiego. Ujmując to bardziej precyzyjnie, możemy
znaleźć taki podzbiór dywanu Sierpińskiego, który będzie to­
pologicznie równoważny obiektowi narysowanemu przez nas
na kartce. Dywan Sierpińskiego jest naprawdę obiektem do­
skonałym. W ygląda na porządny i regularny, ale jego praw­
dziwa natura wykracza daleko poza to, co możemy zobaczyć.
To, co jest dostępne naszym zmysłom, i wytwory naszej wy­
obraźni są w tym wypadku tak różne, jak tylko różne być
mogą. Możemy też ująć własności dywanu Sierpińskiego,
porównując go do hotelu, który ma odpowiednie pomieszcze­
nia dla wszystkich (jednowymiarowych, zwartych) gatunków
zamieszkujących płaszczyznę. Nie wszystko jednak może żyć
na płaszczyźnie.
Krzywe płaskie
i inne
K rzyw e m ożna rysować na płaszczyźnie albo w przestrzeni. Pow s ta je pytanie, czy w szystkie krzyw e, ja k ie narysujem y w przestrzeni,
m o żem y narysować ta k ż e na płaszczyźnie? W yd a w a ło b y się, że ta k ,
je d n a k pojaw ia się pew ien problem . P rzy jrzy jm y się na przykład figu­
rze p rzedstaw iającej ósem kę na płaszczyźnie na rysunku 2 .4 8 a.
C zy je s t to praw dziw a ósem ka (z je d n y m p u n ktem sam oprze-
Okrąg a ósemka
Rysunek 2.48: (a) Ósemka nie jest równoważna okręgowi, (b)
Skręcony okrąg nie jest równoważny ósemce
2.7. Uniwersalność dywanu Sierpińskiego
163
d ę c ia ), czy tylko w ygląda ja k ósem ka, a je s t rzu tem na płaszczyznę
skręconego okręgu położonego w przestrzeni, ja k na rysunku 2 .4 8 b?
Jeżeli nie zrobim y dodatkow ych założeń, to m ogą zach odzić oba przy­
padki. Jednakże obie figu ry różnią się jakościow o, ósem ka ma p un kt
samoprzecięcia i dzieli płaszczyznę na trz y części, podczas gdy koło
dzieli płaszczyznę tylko na dw ie. D la te g o te dw ie figu ry nie po­
w inny być to p ologicznie rów now ażne. K rzyw a na rysunku (b ) je s t
z topologicznego pun ktu w idzenia okręgiem i m o żem y ją zanurzyć
w płaszczyznę po uprzednim nadaniu je j bardziej regularnego kształtu
tak, że o trzym an a figura nie będzie m iała żadnego pu n ktu sam oprze­
cięcia.
Woda, gaz i prąd
Rysunek 2.49:
Trudny problem: czy da się doprow adzić wodę,
gaz i prąd do tych trzech dom ów tak, żeby instalacje się nie prze­
cinały na płaszczyźnie? P ełny graf (m ający sam oprzecięcia!) po­
kazano w lew ym górnym rogu
Powyższa obserwacja prowadzi nas do pytania, czy każda krzyw a
położona w przestrzeni m oże być zanurzona w płaszczyźnie w ta k i
sposób, by nie zm ieniły się je j własności to pologiczne. O d p o w ied ź
jest negatyw na. O to prosty przykład na poparcie naszej o d p o w ie­
dzi, przedstaw iony na rysunku 2 .4 9 . W y o b ra źm y sobie, że m am y
trz y domy, A , B i C, do których trze b a dostarczyć wodę, gaz i elek­
tryczność z miejsc oznaczonych literam i W , G i E, w ta k i sposób, żeby
odpow iednie instalacje (narysow ane na płaszczyźnie) nie krzyżow ały
się. O kazuje się, że je d y n y sposób na spełnienie teg o w arunku to
wyjście w przestrzeń (tz n . przeciągnięcie odpow iednich instalacji na
różnych p oziom ach).
D latego też, jeżeli chcem y zachow ać topologiczne własności je d ­
nowym iarowych o b iektó w , będziem y zm uszeni do wyjścia w prze­
strzeń (do dodania trzeciego w y m ia ru ). O k azu je się, że każdy je d -
164
2. Klasyczne fraktale i samopodobieństwo
now ym ¡arowy o b ie k t m ożna za n u rzy ć w przestrzeni tró jw ym iaro w ej.
U ogóln ienie te g o re zu lta tu leży w sam ym cen tru m to p o lo g ii. D zie­
d zin a, która się ty m za jm u je idzie o w iele dalej niż in tu icyjn e rozum ie­
nie, dlaczego szkieletu z rysunku 2 .4 9 nie m ożna zan u rzyć w płasz­
czyźnie. D ostarcza ona n ietryw ialn ych m eto d , któ re uog ólniają się na
w yższe w ym iary. O k a zu je się na przykład, że każdy o b iekt d w u w y m ia ­
rowy m oże być za n u rzo n y w przestrzeń pięciow ym iarow ą.27 T e pięć
w y m ia ró w je s t p o trzeb n e d lateg o , by uniknąć problem ów podobnych
do pow staw ania p u n k tó w sam oprzecięcia, które zm ieniłyby to p o lo ­
giczne własności o b ie ktu .
Zauważmy, że grafu z rysunku 2.49 nie można narysować
na płaszczyźnie tak, by nie istniały punkty samoprzecięcia.
Dlatego też graf ten nie może mieć swojego odpowiednika
w dywanie Sierpińskiego. Obserwacja ta prowadzi do pyta­
nia, co jest obiektem uniwersalnym dla wszystkich obiektów
jednowymiarowych (tzn. dla tych, co leżą na płaszczyźnie
lub w przestrzeni).
U n iw e rsa ln o ść
Około dziesięciu lat po tym, jak Sierpiński dokonał swog ą b k i M e n g e ra jego odkrycia, m atematyk austriacki Karl Menger rozwiązał
powstały problem i znalazł pomieszczenie dla wszystkich
obiektów jednowymiarowych. Około roku 1926 dowiódł on
następującego faktu:28
S tw ie rd z e n ie . Gąbka Mengera jest uniwersalna dla wszy­
stkich zwartych obiektów jednowymiarowych.
Oznacza to mniej więcej tyle, że dla każdego dopuszczalnego
obiektu (zwartego, jednowymiarowego) istnieje część gąbki
Mengera topologicznie równoważna danemu obiektowi.29
Oznacza to znowu, że jeżeli nasz obiekt byłby zrobiony z gu­
my, to jakaś jego zdeformowana wersja pasowałaby dokładnie
do gąbki Mengera.
27 Jest to przypadek szczególny twierdzenia Whitneya o zanurzaniu,
które mówi, że każdą rozmaitość gładką wymiaru n można zanurzyć
jako podrozmaitość w przestrzeń euklidesową (2n + l)-wymiarową —
przyp. tłum.
28 K. Menger, Allgemeine Raume und charakteristische Raume,
Zweite Mitteilung: „Uber umfassenste n-dimensionale Mengen”,Proc.
Acad. A m sterdam 29, 1125-1128 (1926). Zob. też K. Menger, D im ensionstheorie, Lipsk 1928.
29 Formalnie, dla każdego jednowymiarowego zwartego zbioru A ist­
nieje zwarty podzbiór gąbki Mengera B , który jest homeomorficzny
z A.
165
2.7. Uniwersalność dywanu Sierpińskiego
Nie możemy przedstawić dowodów zadziwiających rezul­
tatów Mengera czy Sierpińskiego, gdyż sięgają one daleko
poza ramy tej książki. Chcielibyśmy jednakże przedstawić
pewną ideę tego, jak różnorodne mogą być obiekty jednowy­
miarowe. Zajmijmy się tylko jedną z wielu metod pomiaru
złożoności obiektu jednowymiarowego. W szczególności po­
zwoli nam to na rozróżnienie pomiędzy trójkątem a dywa­
nem Sierpińskiego. Podstawowe kroki ich konstrukcji są tak
podobne (zob. paragraf 2.2), że może nasunąć się pytanie:
czy trójkąt Sierpińskiego jest również uniwersalny? Możemy
więc pytać: jak bardzo złożony jest trójkąt Sierpińskiego?
Czy jest tak samo złożony jak dywan, czy też może mniej?
Jeżeli mniej, to o ile mniej? Czy można polegać na intuicji
albo odpowiedzi opartej na rysunku?
Odpowiedź jest naprawdę zaskakująca: trójkąt Sierpiń­
skiego jest prościutki w porównaniu z dywanem, choć ich wy­
gląd — jak się wydaje — nie różni się znacznie. Trójkąt Sier­
pińskiego pomieści jedynie kilka (jednowymiarowych, zwar­
tych) gatunków żyjących na płaszczyźnie. Dlatego w rzeczy­
wistości te dwa fraktale niesłychanie się różnią. Przyjrzyjmy
się teraz obiektom, takim jak na rysunku 2.50.
R ząd
ro z g a łę z ie n ia d la
p a ją k ó w
Rysunek 2.50: Pająki o wzrastającej liczbie ramion
Widzimy połączozne odcinki. Można to też opisać jako
położone centralnie punkty o różnej liczbie odchodzących
ramion. Liczbę tę, nazwiemy rzędem rozgałęzienia w danym
punkcie. Jest ona niezmiennikiem topologicznym. Oznacza
to, że liczba ta nie zmieni się przy przejściu od obiektu do
obiektu topologicznie jemu równoważnego. Możemy więc
łatwo stworzyć obiekty o dowolnym z góry zadanym rzędzie
rozgałęzienia.
Istnieje bardzo pouczający sposób na w yróżnienie jed n ej z w ielu
cech złożoności (to p o lo g ic zn e j) o b ie któ w jed n o w ym iaro w ych . Jest to
zw iązane z ich rozgałęzianiem i je s t m ierzone rzędem rozgałęzienia,30
30 Zob. A. S. Parchomenko, Was ist eine K urve, VEB Verlag, 1957.
Rząd
rozgałęzienia
166
2. Klasyczne fraktale i samopodobieństwo
Rysunek 2.51: Kilka przykładów skończonego i (przeliczalnie)
nieskończonego rzędu rozgałęzienia. Liczby na rysunku oznaczają
rzędy rozgałęzienia odpowiednich punktów
które to pojęcie w p ro w ad ziliśm y pow yżej. Na rysunku 2 .5 1 pokazano
kilka różnych ro d za jó w rozgałęzień.
Rząd rozgałęzienia je s t pojęciem lokalnym . M ie rzy on liczbę ra­
m ion schodzących się w punkcie. I ta k dla pu n ktu na prostej liczba
ram ion wynosi 2, a dla pu n ktu końcowego 1. W przykładzie (d ) na
rysunku 2 .5 1 m a m y jed en p u n kt — oznaczon y oo — z którego w y­
chodzi nieskończenie (p rzeliczaln ie) w iele odcinkó w . D la te g o rząd
rozgałęzienia teg o p u n ktu w ynosić będzie oo, podczas gdy dla p u n któw
z o d cin kó w (ró żn yc h od końców ) w ynosić on będzie po prostu 2.
N a z w ijm y o b ie kty z rysunku 2 .5 1 p ająkam i. W te d y (a ) to pająk
z d w o m a, (b ) z trz e m a , (c ) z pięciom a, (d ) z nieskończenie w ielom a
o d n ó ża m i.
Niech X będzie zb io re m 31 i niech p e X będzie p u n ktem . Rzędem
rozgałęzienia zbioru X w punkcie p n a zy w a m y 32
o r d x ( p ) = liczba gałęzi X w punkcie
p.
Jednym z m ożliw ych sposobów na policzenie odgałęzień je s t wzięcie
31 Formalnie wymagamy, by X był przestrzenią metryczną zwartą.
32 Formalna definicja wygląda następująco. Niech a będzie liczbą kar­
dynalną. W tedy ordx(p) <
gdy dla każdego e > 0 istnieje otoczenie
U punktu p o średnicy diam(Z7) < e i takie, że moc brzegu U, dU , jest
nie większa niż a , card(d/7) < a . Ponadto definiujemy ord*(p) = a,
jeżeli ordx(p) < ot oraz dodatkowo istnieje takie eo > 0, że dla do­
wolnego otoczenia U punktu p o średnicy mniejszej niż e, moc brzegu
zbioru U jest nie mniejsza niż a, card(d/7) > a.
2.7. Uniwersalność dywanu Sierpińskiego
167
w ystarczająco m ałych kół zaw ierających dany p u n kt i znalezienie
liczby przecięć brzegów tych kół ze zbiorem X .
Skonstruujm y te ra z p a ją k a -m o n s tru m , którego rząd rozgałęzienia
jest równoliczny z co n tin u u m , tzn . liczba je g o rozgałęzień będzie taka
sama, ja k liczba p u n któ w w odcinku jed n o stko w ym [0 ,1 ].
M iotełka C antora
Rysunek 2.52:
Przykład nieprzeliczalnego rzędu rozgałęzienia
— m iotełka Cantora
Z aczn ijm y naszą konstrukcję, biorąc na płaszczyźnie pojedynczy
punkt P o w spółrzędnych ( 1 / 2 , 1 ) (zo b . rysunek 2 .5 2 ), oraz zb ió r
C antora C na [0 ,1 ]. N astępnie z każdego pun ktu zbioru C narysujm y
odcinek biegnący do pu n ktu P. P rzyp o m n ijm y, że liczebność zbioru
C antora je s t taka sam a ja k liczebność odcinka [0 ,1 ]. D la te g o te ż
liczba pun któw przecięcia naszego zbioru i brzegu niew ielkiego koła
o środku w P będzie m iała ta k ą sam ą liczebność. Z b ió r, któ ry w ten
sposób pow stał, nosi nazw ę miotełki Cantora (w lite ra tu rze polskiej
obiekt ten nazyw am y miotełką Knastera-Kuratowskiego — przyp.
tłum.).
K ażda próba graficznego przedstaw ienia m io tełki C an to ra m oże
być trochę m yląca. M o że ona sugerować, że istnieje przeliczalnie
wiele ram ion, podczas gdy w rzeczywistości je s t ich nieprzeliczalnie
wiele. M ożna w ykazać je d n a k , że m iotełka ta ma w y m ia r (p o k ry ­
ciow y) 1, ta k sam o ja k każdy p ająk o k odnóżach.
P rzyjrzyjm y się te ra z tró jk ą to w i Sierpińskiego pod ką te m rzędu
rozgałęzienia, zob. rysunek 2 .5 3 . Jakiego rodzaju pająki m ożna
znaleźć w tym trójkącie? M o żn a w ykazać, że jeżeli p je s t dow olnym
punktem tró jk ą ta Sierpińskiego 5 , to
2,
4,
jeśli p je s t narożem początkow ego tró jk ą ta ,
jeśli p je s t pu n ktem styku,
3,
jeśli p je s t dow olnym innym p u n ktem .
(
Jeżeli p je s t w ierzchołkiem , to dokładnie dw a ram iona prow adzą
do tego punktu. Z w ró ć m y uwagę, ja k okręgi o tac za ją ce w ierzchołek
168
2. Klasyczne fraktale i samopodobieństwo
(n ie m uszą m ieć środka w punkcie p) przecinają tró jk ą t Sierpińskiego
w dw óch p u n ktach . Jeśli p je s t p u n ktem styku, to m ożem y zauw ażyć
4 ram iona w chodzące do teg o p u n ktu . W ty m przypadku m ożem y
zaobserw ow ać okręgi, o ta c za ją c e p, przecinające tró jk ą t Sierpińskie­
go w d o kład n ie czterech pu n ktach . Jeżeli zaś p je s t dow olnym innym
p u n k te m , to musi za w ierać się w e w n ętrzu nieskończenie wielu m niej­
szych tró jk ą tó w . K ażd y z tych tró jk ą tó w styka się z resztą tró jk ą ta
Sierpińskiego w d o kład n ie trzech pu n ktach . D la te g o m ożem y znaleźć
coraz m niejsze okręgi, z a w ie r a ją c e j, przecinające tró jk ą t Sierpińskie­
go do kład n ie w trzech p u n ktac h . M o ż e m y skonstruow ać 3 ram iona,
k tó re przecho dzą przez te pu n kty i docierają do p.
Rysunek 2.53:
Rząd rozgałęzienia dla dowolnego punktu
trójkąta Sierpińskiego wynosi 2,3 lub 4
U n iw e rsa ln o ść
Możemy zauważyć, że trójkąt Sierpińskiego ma punkty
d y w a n u o rzędzie rozgałęzienia 2,3 i 4 (zob. rysunek 2.53). Są to
S ie rp iń sk ie g o jedyne możliwości. Oznacza to, że nie możemy odszukać
pająka z pięcioma (lub więcej) odnóżami!33
Za to dywan Sierpińskiego jest uniwersalny. Dlatego
musi zawierać pająki o dowolnym rzędzie rozgałęzienia, musi
33 Jest to ważna cecha. Pouczającym ćwiczeniem może być próba
skonstruowania w trójkącie Sierpińskiego pająka o pięciu odnóżach
i zrozumienie, gdzie tkwi przeszkoda.
2.7. Uniwersalność dywanu Sierpińskiego
Rysunek 2.54: Konstrukcja pająka o sześciu odnóżach, uży­
wająca symetrii i rekursji
nawet zawierać (topologiczną) wersję trójkąta Sierpińskie­
go. Spróbujmy więc jako pouczający przykład skonstruować
w dywanie Sierpińskiego pająka z pięcioma lub sześcioma no­
gami. Konstrukcję taką pokazano na rysunkach 2.54 i 2.55.
Rysunek 2.56 przedstawia pająka dokładnie takiego, jakiego
znaleźliśmy w dywanie (po prawej), i jego topologiczny od­
powiednik (po lewej).
Podsumujmy nasze rozważania. Omówienie uniwersal­
ności dywanu Sierpińskiego pokazuje, że fraktale m ają moc­
ne i głębokie korzenie w pięknej dziedzinie, jaką jest mate-
169
170
2. Klasyczne fraktale i samopodobieństwo
Rysunek 2.55: Dywan Sierpińskiego jest pomieszczeniem dla do­
wolnego obiektu jednowymiarowego: prostej, kwadratu, ósemki,
pająka pięcioramiennego, a nawet zdeformowanej wersji trójkąta
Sierpińskiego (nie jest ona pokazana — czy potraficie ją odnaleźć?)
Rysunek 2.56: Te dwa pająki są topologicznie równoważne
171
2.8. Zbiory Julii
matyka, oraz że możemy sparafrazować stare chińskie przy­
słowie34 i powiedzieć, że fraktale to nie tylko piękne obrazki.
2.8. Z b iory J u lii
Gaston Julia (1893-1978) miał jedynie 25 lat, gdy w roku
1918 opublikował swoje 199-stronicowe dzieło35. Dzieło to
zapewniło mu sławę w ośrodkach matematyki jego czasów.
Walcząc jako żołnierz francuski, Julia został ciężko ranny,
co spowodowało utratę nosa. Na rysunku 2.57 widzimy jego
zdjęcie z około 1920 r. W tym czasie przeszedł kilka bole­
snych operacji, nie zaprzestając jednak pracy naukowej —
nawet w szpitalu. Julia został też profesorem Szkoły Poli­
technicznej w Paryżu.
G a s to n J u lia
Rysunek 2.57:
G aston Julia, 1893-1978, jeden z prekursorów
nowoczesnej teorii układów dynam icznych
Pomimo, że Julia cieszył się światową sławą w latach
dwudziestych naszego wieku, jego prace zostały w zasadzie
zapomniane do czasu, gdy Mandelbrot pod koniec lat siedemdziesiątych zwrócił na nie uwagę przez swoje niezwy34 Obraz jest wart tysiąca słów.
35 G.Julia, Mémoire sur l’itération des fonctions rationelles, J. Math.
Pure Appl. 8, 47-245 (1918).
W la ta c h
d w u d z ie sty c h
p ra c e J u lii b y ły
sław ne
172
2. Klasyczne frak tale i samopodobieństwo
kle ważne eksperymenty. Mandelbrot został wprowadzony
w prace Julii przez swojego wuja Szolema Mandelbrojta,
który był profesorem matematyki w Paryżu i następcą Jacąuesa Salomona Hadam arda w słynnym College de France.
M andelbrot urodził się w Polsce w roku 1924 i po tym,
jak jego rodzina wyemigrowała do Francji w roku 1936, jego
wuj poczuł się odpowiedzialny za jego wykształcenie. Około
1945 r. polecił on Mandelbrotowi prace Julii jako arcy­
dzieła i źródła ciekawych problemów. Mandelbrotowi jed­
nak nie przypadły one do gustu. Nie odpowiadały mu język
i rodzaj m atematyki, jakie znalazł w pracach Julii. W za­
mian wybrał własną, zupełnie odmienną drogę, która jed­
nak przywiodła go z powrotem do odkryć Julii. Stało to
się około roku 1977 po odysei wiodącej przez wiele dzie­
dzin nauki. Z pomocą grafiki komputerowej Mandelbrot
pokazał, że prace Julii są źródłem, najpiękniejszych znanych
dziś fraktali. Możemy więc chyba powiedzieć, że arcydzieło
to pełne było klasycznych fraktali, które czekały na przebu­
dzenie przez pocałunek techniki komputerowej. W pierwszej
połowie naszego wieku Julia był naprawdę postacią o świato­
wej sławie. Po to, aby poznać jego osiągnięcia, Hubert Cremer zorganizował seminarium na Uniwersytecie Berlińskim
w 1925 r., pod auspicjami Erharda Schmidta i Ludwiga
Bieberbacha. Lista uczestników wyglądała niemal jak wy­
ciąg z „Who is who” matematyki tam tych czasów. Byli to
m.in. Richard D. Brauer, Heinrich Hopf i K urt Reidemeister. Cremer36 napisał też esej na ten tem at, w którym
umieścił pierwszą wizualizację zbioru Julii (zob. rysunek
2.58)
S p rz ę ż e n ie
Zbiory Julii znajdują się na płaszczyźnie zespolonej i staz w ro tn e d la nowią podstawę do zrozumienia iteracji wielomianów, taró w n a n ia kich jak x 2 + c, albo z 3 + c itp. Dokładne wprowadzenie do
k w a d ra to w e g o tego tem atu podamy w rozdziale 12, a na razie założymy, że
Czytelnik zna trochę liczby zespolone. Jeśli tak jednak nie
jest, to można ograniczyć się do liczb rzeczywistych. Jako
przykład rozpatrzmy wielomian x 2 + c. Iterowanie oznacza,
że ustalamy liczbę c i wybieramy jakąś wartość dla z, otrzy­
mując X 1 + c. Następnie podstawiamy otrzymaną wartość
w miejsce x i znowu wyznaczamy wartość wielomianu z 2 + c,
36 H. Cremer, Über die Iteration rationaler Funktionen, Jahresbe­
richte der D eutschen M athem atischen Vereinigung 33, 185-210 (1925).
173
2.8. Zbiory Julii
908
B u n n Cremes:
Wir gehen ron xwei gleichseitigen Dreiecken A Ai At A^ und
A A^ A4 A^ mit der Seite a »as, die an der Ecke A^ aneinanderstoften (Fig. 9). Sie bil­
den zusammen den ge­
schlossenen polygonalen
P i
*
"^4
der die Ebene in 3
reiche teilt:
1. Das Innere
A A tA i At z ©r
2. Das Innere
m*.
a a x a a a ^ : ©;.
3. Den Bereich ©^ der den unendlichfernen Punkt enthält
vom ganzen polygonalenZugj», begrenzt wird.
Be­
von
ron
and
Rysunek 2.58:
P ierw szy rysunek Cremera z roku 1925, przed­
staw iający pew ien zbiór Julii
i tak dalej. Oznacza to, że dla dowolnie ustalonej wartości c
tworzymy ciąg liczb zespolonych
x —>x 2~hc —>(x 2 + c)2+c —» ((x2+ c )2+ c )2+ c —> ...
Okazuje się, że ciąg ten musi mieć jedną z dwóch następują­
cych własności:
• ciąg jest nieograniczony: elementy ciągu opuszczą każdy D ych otom ia
okrąg ze środkiem w centrum układu współrzędnych,
zbiorów Julii
• ciąg jest ograniczony: istnieje okrąg o środku w centrum
układu współrzędnych, którego elementy ciągu nigdy nie
opuszczą.
Zbiór punktów, z których startując otrzymamy pierwszy
rodzaj zachowania, nazywamy zbiorem uciekinierów dla da­
nego c, a zbiór punktów, które prowadzą do drugiego rodzaju
zachowania, nazywamy zbiorem więźniów dla param etru c.
Terminologia ta używana była już w części poświęconej zbio­
rowi Cantora. Oba te zbiory są niepuste. Dla danego c
weźmy na przykład x wystarczająco duże, tak żeby x 2 + c
było jeszcze większe, większe niż x. Obserwujemy wtedy
pierwszy rodzaj zachowania. Dlatego zbiór uciekinierów za­
wiera wszystkie punkty
które są bardzo duże. Z dru­
giej strony, jeżeli wybierzemy punkt x, dla którego zachodzi
x = x 2 + c, to iteracje będą stacjonarne. Zaczynając od ta­
kiego punktu, otrzymamy ciąg stały
Oznacza to,
że zbiór więźniów nie może być pusty.
174
2. Klasyczne fraktale i samopodobieństwo
K ilka p róbek
zbiorów Ju lii
R y s u n e k 2 .5 9 : K ilka piew szych zbiorów Julii
175
2.9. Drzewa pitagorejskie
Oba zbiory pokrywają pewną część płaszczyzny zespolo- Zbiór Ju lii
nej i dodatkowo dopełniają się. Dlatego też granica zbioru
więźniów jest jednocześnie granicą zbioru uciekinierów, i ją
właśnie nazywamy zbiorem Julii dla danego c (lub raczej
x 2+c). Na rysunku 2.59 pokazano kilka przykładów zbiorów
Julii, otrzymanych w wyniku eksperymentów komputero­
wych.
Czy w zbiorach Julii istnieje samopodobieństwo? Jeżeli
dokonamy nawet powierzchownej analizy sytuacji, to może­
my zauważyć, że istnieją pewne powtórzenia w różnej skali.
Otóż zbiór Julii może być pokryty kopiami siebie samego,
lecz kopie te otrzymywane są za pomocą przekształceń nie­
liniowych. Dlatego też samopodobieństwo zbiorów Julii jest
innej natury niż samopodobieństwo trójkąta Sierpińskiego,
który składał się z pomniejszonych, lecz poza tym przy­
stających, kopii siebie samego.
2.9. D r z e w a p ita g o r e jsk ie
Pitagoras zmarł na początku V wieku p.n.e. Współcześni
mu, a później nawet Arystoteles, znali go jako twórcę brac­
twa religijnego w południowych Włoszech, gdzie pitagorejczycy odgrywali w VI wieku p.n.e. rolę polityczną. Łączenie
jego imienia z twierdzeniem Pitagorasa jest sprawą stosun­
kowo nową i wątpliwą. W rzeczywistości twierdzenie to było
znane na długo przed czasami Pitagorasa. Ważne odkrycie,
jakie możemy jemu, a w każdym razie jego szkole, przypisać,
dotyczy niewspółmiemości boku i przekątnej w kwadracie.
Oznacza to, że stosunek przekątnej do boku w kwadracie nie
jest równy stosunkowi żadnych dwóch liczb całkowitych.
a 2 + b2 = c2
R y s u n e k 2 .6 0 : T w ierdzenie Pitagorasa: a 2+ 6 2 = c2
176
Niewspółmierność
boku i przekątnej
w kwadracie
2. Klasyczne fr akt ale i samopodobieństwo
O d k ry cie, że stosunek długości p rzekątn ej do długości boku w kwa­
dracie nie rów na się stosunkow i żadnych dw óch liczb całkow itych
stw orzyło p o trzeb ę rozszerzenia system u liczbow ego o liczby niewy­
mierne. y/2, długość p rze ką tn e j kw ad ratu jednostkow ego, jes t liczbą
n iew ym iern ą.
R ozum ow anie, któ re doprow adza nas do te g o w nio­
sku je s t następujące. Z a łó ż m y najp ierw , że y/2 = p/q. M o żem y
rów nież założyć, że p i q nie m a ją wspólnego dzielnika. Zachodzi
w ięc równość p 2 — 2 ę 2 , co oznacza, że p2 je s t parzyste. Z tego
w y n ika, że p te ż musi być parzyste. Niech więc p = 2 r . O trz y m u ­
je m y w te d y p 2 = 2 q2f co oznacza, że 4 r 2 — 2 q2 czyli 2 r 2 = q2, co
z kolei prow adzi do w niosku, że q je s t rów nież parzyste. Doszliśm y
w ięc do sprzeczności, gdyż założyliśm y, że p i q nie m ają wspólnego
d zieln ika. O zn ac za to , że V2 je s t niew ym ierne. D ow ó d, któ ry tu
przytoczyliśm y, zn alezio no w d ziesiątej księdze Euklidesa około 300
r.p .n .e .
Szukanie pierwiastków kwadratowych stanowiło inspira­
cję dla matematyków do stworzenia pięknych konstrukcji
geometrycznych. Jedna z nich pozwala na skonstruowanie
sjn dla dowolnej liczby całkowitej n. Możemy nazwać tę
konstrukcję spiralą pierwiastków kwadratowych. Jest ona
geometryczną pętlą sprzężenia zwrotnego. Rysunek 2.61
tłumaczy ideę tworzenia kolejnych pierwiastków.
K on struk cja
Konstrukcja, która prowadzi do rodziny drzew pitagodrzew rejskich i związanych z nimi pojęć, ma ścisły związek z kon­
p it agorej skich strukcją spirali pierwiastków kwadratowych. Konstrukcja ta
składa się następujących kroków (zob. rysunek 2.62):
Krok 1: Narysuj kwadrat.
Krok 2: Dołącz trójkąt prostokątny do jednego z boków tak,
by bok kwadratu był jednocześnie przeciwprostokątną tego trójkąta (w tym przykładzie trójkąt jest
równoramienny).
Krok 3: Dołącz dwa kwadraty do wolnych boków trójkąta.
Krok 4: Dołącz dwa trójkąty prostokątne.
Krok 5: Dołącz cztery kwadraty.
Krok 6: Dołącz cztery trójkąty prostokątne.
Krok 7: Dołącz osiem kwadratów.
2.9. Drzewa pitagorejskie
177
Spirala
pierw iastków
kw adratow ych
Rysunek 2.61: Konstrukcja spirali pierwiastków kwadrato­
wych. Zaczynamy od trójkąta prostokątnego, którego boki, two­
rzące kąt prosty, mają długość 1. Zatem jego przeciwprostokątna
ma długość \/2. Kontynuujemy konstruując następny trójkąt pro­
stokątny tak, że przyprostokątne mają długość 1 i \/2. Przeciw­
prostokątna tego trójkąta ma długość \Z3, i tak dalej
K onstrukcja
drzew a
pitagorejsk iego
Rysunek 2,62: Podstawowa idea konstrukcji drzewa pitagorej­
skiego
Jeśli już zrozumiemy podstawową zasadę tworzenia drze­
wa, możemy ją w dowolny sposób modyfikować. Na przykład
trójkąty prostokątne, które dołączaliśmy w czasie tworzenia
drzewa, nie muszą być trójkątam i równoramiennymi. Mogą
to być dowolne trójkąty prostokątne. Po dopuszczeniu takiej
modyfikacji dysponujemy dodatkowym stopniem swobody.
178
2. Klasyczne fr akt ale i samopodobieństwo
Trójkąty prostokątne mogą być dołączane w danej orientacji
lub możemy je odwrócić po każdym kroku. Na rysunku 2.63
pokazano dwie takie możliwości.
R y s u n e k 2 .6 3 : D w ie konstrukcje, w których użyto trójkątów
nierów noram iennych
Rysunek 2.64 przedstawia figury powstałe w wyniku ta­
kich konstrukcji, po wykonaniu około 50 kroków. Zadzi­
wiające jest, że zmieniliśmy jedynie orientację trójkątów,
a nie ich rozmiar. Otrzymaliśmy dwie bardzo różne figury.
W pierwszym przypadku widzimy rodzaj spiralnego liścia,
podczas gdy drugi przypomina liść paproci lub choinkę. Za­
uważmy, że w dolnej figurze na rysunku 2.64 możemy wyo­
drębnić główną gałąź, z której w yrastają odgałęzienia w spo­
sób naprzemienny: prawe, lewe, prawe, lewe... Różni się
to od tego, co widzimy w drugiej figurze, w której główna
gałąź jest wygięta w pałąk i od której gałęzie odrastają tylko
w jednym kierunku. Czy można odgadnąć, że obie figury
powstały na skutek tej samej zasady sprzężenia zwrotnego?
Czy nie wyglądają na pierwszy rzut oka, jakby należały do
całkiem różnych rodzin figur? Są one jednak bardzo blisko
spokrewnione, co jest oczywiste po przeprowadzeniu ana­
lizy ich procesów konstrukcji. Jest to jeden ze sposobów,
w jaki fraktale mogą pomóc we wprowadzeniu nowych na­
rzędzi badawczych do botaniki. Biolog Aristid Lindenmayer
(1925-1989) wprowadził pojęcie L-systemów, opierając się
na podobnych obserwacjach. Omówimy ten tem at bardziej
szczegółowo w rozdziale 8.
Zajmijmy sie jeszcze kilkoma przykładami, opartymi na
modyfikacjach tych prostych, ale zadziwiających konstruk­
cji. Czy musimy ograniczać się do jednego rodzaju trójką-
2.9. Drzewa pitagorejskie
Rysunek 2.64:
D w ie konstrukcje przeprowadzone 50 razy każda.
Zwróćmy uwagę, że w ielkość trójkątów jest taka sam a w obu z nich
179
2 . Klasyczne frakt ale i samopodobieństwo
180
K afelkow anie
okresow e
R y s u n e k 2 .6 5 : K afelkow anie okresowe
D rzew o
p itagorejsk ie
p o d o b n e do
brokułów
R y s u n e k 2 .6 6 : K onstrukcja, w której u ży to trójkątów równo­
ram iennych o kącie rozw artym
tów? Zmodyfikujmy trójkąty, jednak zachowajmy pewną
regularność. W ten sposób stworzyliśmy możliwość uzyski­
wania nowych form, poczynając od roślinopodobnych, przez
mozaiki do ... kto wie czego jeszcze. Na rysunku 2.65
dołączaliśmy trójkąty równoboczne i konstrukcja stała się
cykliczna.
Jeśli zamiast trójkątów równobocznych weźmiemy trój­
kąty równoramienne o kącie rozwartym, to dostaniemy ko-
2.10. Program na zakończenie rozdziału
lejną niespodziankę — figurę przypominającą kształtem bro­
kuły (zob. rysunek 2.66). Konstrukcje takie dostarczają
wielu ciekawych problemów. Kiedy konstrukcja doprowa­
dzi do samoprzecięcia figury? W jaki sposób zmniejszają
się długości boków trójkątów lub kwadratów podczas wyko­
nywania konstrukcji? Co więcej, nasze konstrukcje dostar­
czyły nam szeregu przykładów pięknych figur samopodobnych, tzn. takich, że każda z nich w czasie konstrukcji dzieli
się na dwie główne gałęzie, które znów się dzielą na dwie itd.,
a każda z tych gałęzi jest pomniejszoną wersją całości.
Kończymy już zwiedzanie naszej galerii klasycznych fraktali, chociaż nie wspomnieliśmy jeszcze o wkładzie, jaki do
tej dziedziny wnieśli Henri Poincare, Karl Weierstrass, Felix
Klein, L. F. Richardson czy A. S. Besicovitch. Oni wszyscy
zasługują na to, by poświęcić im więcej miejsca, niż mo­
glibyśmy na to przeznaczyć w naszej książce, odsyłamy więc
zainteresowanych do książki M andelbrota.37
2.10. P r o g r a m n a z a k o ń c z e n ie ro zd zia łu : tr ó jk ą t
S ie r p iń sk ie g o a a d r e so w a n ie d w ó jk o w e
Trójkąt Sierpińskiego jest jednym z głównych bohaterów na­
szej książki. Odgrywa on ważną rolę w wielu rozdziałach.
Możemy go skonstruować na wiele różnych sposobów. Naj­
bardziej zaskakującą metodą wydaje się gra w chaos przed­
stawiona w rozdziale 1. Będziemy nią się jeszcze zajmowali
w rozdziale 6. Teraz zajmiemy się metodą otrzymania trój­
kąta Sierpińskiego, która jest niezwykle krótka. Właściwie
wszystkie potrzebne informacje znajdują się w jednej linii
kodu programu, a mianowicie:
IF (x AND (y-x)) = 0 THEN
PSET (x + 158 - 0.5*y, y + 30)
Jest to rzeczywiście bardzo specjalny wiersz. Nie jest łatwo
zrozumieć, jak on działa i wyjaśnimy to tylko z grubsza.
Później, w rozdziale 9, sekret odkryjemy do końca. Będzie
to miało związek z pięknym faktem, związanym z trójkątem
Pascala. Przedstawimy tam też pewne uogólnienia, które
pozwolą na generowanie nawet bardziej złożonych figur.
37 B. Mandelbrot, The Fractal Geometry o f Nature, Freeman, New
York 1982.
181
182
2. Klasyczne fraktale i samopodobieństwo
R ysunek 2.67:
W ynik program u „Trójkąt Sierpińskiego a adre­
sow anie dw ójkow e”
✓
Spraw dzanie
Ściśle rzecz biorąc, program ten nie wykonuje obliczeń
adresów dla trójkąta Sierpińskiego, lecz pewien sposób kolorowania
dla trójkąta Pascala. Pamiętamy, że odkryliśmy wzór trój­
kąta Sierpińskiego podczas zaznaczania kolorami odpowie­
dnich pól w trójkącie Pascala w zależności od parzystości:
biały dla pól z liczbami parzystymi, czarny z nieparzystymi.
Załóżmy, że chcielibyśmy obliczyć, jakim kolorem powin­
niśmy pokolorować dane pole. Powstaje pytanie, czy potra­
fimy odgadnąć to bez wykonywania obliczeń dla wszystkich
wierszy trójkąta Pascala, leżących ponad polem nas intere­
sującym. Algorytm naszego programu dostarcza odpowiedzi
pozytywnej na to pytanie: możemy znaleźć kolor dla danego
pola, znając tylko jego współrzędne. Algorytm ten jednak
wymaga wykorzystania pewnej liczby narzędzi matematycz­
nych. Opiera się on na dwójkowym kodowaniu współrzęd­
nych. Każde pole jest wyznaczone przez parę (x,y) współ­
rzędnych całkowitych, odpowiadających pewnemu układowi
współrzędnych.
Zacznijmy od początku układu współrzędnych (0,0), bę­
dącego wierzchołkiem macierzy trójkątnej. Niech współrzęd­
na x biegnie ukośnie w lewo, a y — ukośnie w prawo (zob.
rysunek 2.68). W tedy każda para liczb całkowitych (x,j/)
odpowiada określonemu położeniu w macierzy. Po to, by wy­
znaczyć kolor (a więc i parzystość) odpowiadający danemu
polu, umieśćmy rozwinięcie dwójkowe obu współrzędnych
jednej nad drugą i postąpm y według następującej reguły:
jeżeli dwie jedynki, jedna nad drugą, występują w której­
kolwiek kolumnie, pole kolorujemy na biało. W przeciw-
2.10. Program na zakończenie rozdziału
183
D w ójkow y układ
w spółrzędnych
dla trójk ąta
P ascala
Rysunek 2.68: Dwójkowy system adresowy dla trójkąta Pascala.
Zaznaczone są komórki o adresach: A(2,1), B(4, 2) oraz (7(3,4)
nym przypadku kolorujemy na czarno. Weźmy na przykład
pole oznaczone (7 na rysunku 2.68. Ma ono współrzędne
(3,4), które mają reprezentację dwójkową (011,100), a po­
nieważ w żadnej kolumnie nie występują jednocześnie dwie
jedynki, pole to powinno być pokolorowane na czarno. Uza­
sadnienie takiego algorytmu wynika z prac Ernesta Eduarda
Kummera38 (1810-1893). Zauważmy, że kryterium, jakie tu
stosujemy, jest takie samo, jak w paragrafie 5.3. Daje nam
to pewną wskazówkę, dlaczego otrzymujemy trójkąt Sierpiń­
skiego, kolorując trójkąt Pascala modulo 2.
Zajmijmy się teraz tym, jak w naszym programie wyko­
rzystujemy te informacje. Porównywanie rozwinięć dwójko­
wych odbywa się po prostu za pomocą operacji AND. Jeśli
wykonamy tę operację wprost, tak jak w programie „Skośny
trójkąt Sierpińskiego”, to otrzymamy pochyloną odmianę
znanego motywu. Zauważmy również, że w programie mamy
przesunięcie o 30, dotyczące x i y. Jak zatem możemy wy­
generować żądany kształt — taki jak na rysunku 2.67? Po
pierwsze musimy porównywać x i y —x. Jest to równoważne
zmianie układu współrzędnych na taki jak na rysunku 2.68.
Co więcej, musimy przekształcić punkt w następujący sposób:
(x+158-0. 5*y, y+30). Oznacza to przesunięcie wierzchołka
38 E.E. Kummer, Über Ergänzungssätze zu den allgemeinen Rezipro­
zitätsgesetzen, Journal fü r die reine und angewandte M athem atik 44,
93-146 (1852), S, Wilson był prawdopodobnie pierwszą osobą, która
podała ścisłe wytłumaczenie, dlaczego trójkąt Sierpińskiego pojawia się
w trójkącie Pascala, Nie używał on jednak wyniku Kummera. Zob. S.
Wilson, Cellular automat a can generate fractals, Discrete Appl. Math.
8, 91-99 (1984).
184
Program w BASIC-u
Tytuł
2. Klasyczne fraktale i samopodobieństwo
Skośny trójkąt Sierpińskiego
Najprostszy możliwy program, który tego dokona
DEFINT x, y
FOR y = 0 TO 255
FOR x = 0 TO 255
IF (x AND y) = 0 THEN PSET (x+30,y+30)
NEXT x
NEXT y
END
Program w BASIC-u
Tytuł
Trójkąt Sierpińskiego a adresowanie dwójkowe
Najprostszy możliwy program, który tego dokona
DEFINT x, y
FOR y = 0 TO 255
FOR x = 0 TO y
IF (x AND (y-x)) = 0 THEN PSET (x+158-.5*y,y + 30)
NEXT x
NEXT y
END
trójkąta trochę na prawo i ustawienie go centralnie dla x =
158 (zauważmy, że 158 = 128 + 30).
Czy potrafilibyśmy narysować trójkąt pokolorowany od­
wrotnie (wystarczy zmienić tylko jeden znak)? Czy można
zmodyfikować program w taki sposób, żeby komenda IF
porównywała x i y, ale żeby rezultat był taki sam?
Zauważmy, że program rysuje figurę szeroką tylko na 256
pikseli. Jeżeli chcemy to zmienić, to nie powinniśmy zapo­
mnieć o zmienieniu liczby 158, która była szerokością podzie­
loną przez dwa plus 30.
Wskazówki dla
użytkowników PC
Jeżeli u żyw a m y ko m p u tera ko m patyb ilnego z IBM PC i rozdzielczość
je g o ekranu wynosi tylko 320 x 200 pikseli, to zo b aczym y tylko pierw ­
sze 200 linii tró jk ą ta Sierpińskiego, generow anego przez nasz program
(p o w in n o się zm ie n ić rów nież y+30 na y). A b y zobaczyć .kom pletny"
obraz, trze b a za m ien ić liczbę 255 w drugiej linii kodu na 127. Stw o­
rzym y w ten sposób m niejszą wersję, która za to będzie dobrze pa­
sowała do ta k ie g o ek ra n u .
R ozdział 3
Granice i sam opodobieństw o
Zdaniem Mandelbrota natura splatała matematykom figla.
Być może XIX-wiecznym matematykom zbywało na wyobraź­
ni, ale naturze nie. Te same patologiczne struktury stwo­
rzone po to, by móc się wyrwać z ciasnego XIX-wiecznego
naturalizmu — jak się okazało — tkwią głęboko w dobrze
nam znanych obiektach występujących w swiecie natury.
Freeman Dyson1
Dysonowi chodzi tu taj o matematyków, takich jak
G. Cantor, D. Hilbert i W. Sierpiński, zaliczanych do grona
tych, którzy pomogli wydostać się matematyce z kryzysu
powstałego na przełomie wieków. Oni to właśnie stworzyli
wspaniałe abstrakcyjne fundamenty, na których mogła roz­
kwitnąć współczesna matematyka. W XX w. matematyka
bezsprzecznie uległa znaczącym przemianom. Możemy za­
obserwować ciągły wzrost dominacji podejścia algebraicz­
nego nad geometrycznym. W wiecznym poszukiwaniu praw­
dy absolutnej matematycy ustalili nowe kryteria oceny pop­
rawności wywodu matematycznego. W związku z tym odrzu­
cono wiele akceptowanych niegdyś metod. Coraz bardziej
1 Freeman Dyson, Characterizing Irregularity, Science 200, 677-678
(1978).
186
3. Granice i samopodobieństwo
odchodzono od rozumowania opartego na argumentach geo­
metrycznych i wizualnych. Podczas gdy newtonowskie Prin­
cipia Mathematica, kładące podwaliny pod współczesną ma­
tematykę, posługiwały się jeszcze argumentami wizualnymi,
obecne metody — jak się wydaje — odrzucają tego typu
podejście. Paradoksalne więc może się wydawać, że niektóre
konstrukcje stworzone przez Cantora, Hilberta, Sierpińskiego
1 innych po to, by doprowadzić do perfekcji ich niezwykle
abstrakcyjne koncepcje, zawierają jednocześnie wskazówki
do zrozumienia geometrycznych cech natury. Zarówno zbiór
Cantora, jak i krzywa Hilberta oraz trójkąt Sierpińskiego do­
wodzą stopnia komplikacji współczesnej teorii zbiorów, lecz
zarazem, jak wskazał M andelbrot, są doskonałym modelem
złożoności natury.
Znalezienie odpowiedniego abstrakcyjnego, dawno zna­
nego pojęcia granicy było częścią walki o stworzenie solid­
nych podstaw współczesnej matematyki. Pojęcie granicy
jest jednym z napotężniejszych i najbardziej podstawowych
pojęć występujących w matematyce i w nauce. Jednocześnie
pojęcie to jest bardzo trudne dla wielu niematematyków.
To niedobrze, szczególnie dlatego, że współcześni matema­
tycy twierdzą — jak się wydaje — że pojęcie to jest try­
wialne. W rzeczywistości stworzenie odpowiedniego mate­
matycznego aparatu do zrozumienia granicy zajęło matema­
tykom tysiące lat. Nie powinniśmy zatem ignorować pro­
blemów niematematyków, ponieważ mogą one być czasem
tej samej jakości i tak samo głębokie jak te, które zastana­
wiały wielkich matematyków w przeszłości.
Samopodobieństwo natom iast wydaje się pojęciem pro­
stym i zrozumiałym. Nazwa — samopodobieństwo — pra­
wie nie wymaga wyjaśnienia. Wydawałoby się, że pojęcie
to używane <j£st od wieków, a tymczasem ma ono jedy­
nie około 25 lat. Świetną zaczerpniętą z natury ilustracją
pojęcia samopodobieństwa jest nowa odmiana warzywa po­
wstała ze skrzyżowania kalafiora i brokuł, i nazwana romane­
sco (zob. rysunek 3.1 i kolorową wkładkę). Gdy oglądamy
tę roślinę w skali makroskopowej, widzimy pewien kształt.
Roślina ta dzieli się na mniejsze części, z których każda wy­
gląda jak pomniejszona całość. Te z kolei dzielą się na małe
różyczki, również podobne do całości. Możemy z łatwością
dojrzeć trzy takie generacje. Drugie pokolenie części, jak też
i następne, jest pomniejszoną kopią poprzedniego pokolenia.
Właśnie coś takiego nazywamy samopodobienstwem.
187
R o m a n e sc o
Rysunek 3.1:
Nowa odmiana warzywa, romanesco — skrzy­
żowanie kalafiora z brokułami ma uderzające cechy samopodobieństwa
Przekonamy się, że ścisła dyskusja nad pojęciem samopodobieństwa ma bliski związek z pojęciem granicy i dla­
tego wymaga ostrożności. Obserwacja, jaką możemy uczynić
w naturze, jest jednak prosta i bezpośrednia. Jeśli ktoś raz
poznał tę podstawową własność, trudno mu będzie space­
rować przez lasy i pola, i nie obserwować roślin i innych
tworów natury pod tym kątem.
Fraktale stwarzają nowe problemy związane z granicą,
ale jednocześnie, i o to nam tu chodzi, dają nową odświe-
188
3. Granice i samopodobieństwo
żającą perspektywę rozumienia samego jej pojęcia. Z jednej
strony, fraktale mogą stworzyć wizerunek obiektu będącego
granicą w procesie sprzężenia zwrotnego, z drugiej nato­
miast, niektóre fraktale są przykładami samopodobieństwa
w najczystszej formie. Okazuje sie, że wiele fraktali można
całkowicie określić i zdefiniować przez ich własności samo­
podobieństwa.
3-1. P o d o b ie ń s tw o i sk a lo w a n ie
C o to je s t Samopodobieństwo jest rozszerzeniem jednego z najbardziej
p o d o b ie ń s tw o ? owocnych pojęć geometrii elementarnej: podobieństwa. Dwa
obiekty, bez względu na ich wielkość, są podobne, jeżeli
m ają taki sam kształt. Odpowiadające sobie kąty muszą być
takie same, a odpowiadające sobie odcinki powinny mieć,
wszystkie ten sam, współczynnik proporcjonalności. Jeśli na
przykład robimy powiększenie fotografii, czynnik powiększe­
nia jest taki sam w obu kierunkach, pionowym i poziomym.
Odcinki położone skośnie będą powiększone w tej samej skali.
Czynnik powiększania nazywamy współczynnikiem skali,
a przekształcenie obiektów — podobieństwem lub skalo­
waniem.
Podobieństwa
Podobieństw a to przekształcenia dopuszczające jednokładność, obroty
i przesunięcia. M o żn a dopuścić te ż odbicie (sym etrię osiow ą), ale
w ty m m iejscu p o m in ie m y ta k ą m ożliw ość. O g ran ic zy m y się do podo­
bieństw na płaszczyźnie. P u n k t P o zn ac za m y przez je g o współrzędne,
P = (x,y). Z a sto su jm y jed n okładność, ob ró t i przesunięcie do punktu
P = (x,y) pew nej fig u ry g eo m etryczn ej. Z a c zn ijm y od operacji
skalow ania (je d n o k ład n o śc i) oznaczon ej S. O trz y m a m y nowy punkt
P* = ( x \ y f). M o ż e m y to zapisać w zo ram i:
X* — s x ,
y' = sy>
gdzie s > 0 je s t w spółczynn ikiem skali. Jeżeli s < 1, nastąpi redukcja,
a jeśli s > 1 — pow iększenie obrazu. N astępnie w yko n ajm y obrót R
p u n ktu P f = ( x ', yf), w w yniku którego o trz y m a m y pun kt P n ~
x n = cos 6 • x ł — sin 0 • y *,
yft = sin 0 * x* + cos 6 * y ł .
189
3.1. Podobieństwo i skalowanie
Powyższy w zór opisuje o b ró t pun ktu P f o ką t 9 w kierunku przeciw ­
nym do ruchu w skazów ek zegara (m a te m a ty c zn ie oznacza to kieru­
nek d o d a tn i), dookoła środka układu w spółrzędnych. N a zakończenie
zastosujm y przesunięcie T pun ktu P ” o ( Tx,Ty ), dane w zorem
xf" = x " + T x,
yf" = y" + Ty,
w w yniku którego o trz y m a m y p u n kt
tem napisać
pm =
P nf
=
(xf,f,ynt).
M o ż e m y za­
= T (R (p ’)) = T(R(S(P)))
albo inaczej
W(P) = T(R(S(P))),
gdzie m am y P tn =
je jed n ym w zorem
W(P). W
je s t podobieństw em . M o że m y zapisać
x,n = s cos 9 *x —s sin 9 *y + Tx,
i/" = s sin 9 *a; + s cos 9 *y + Ty.
Jeżeli zastosujem y przekształcenie W do w szystkich p u n któ w o b iektu
położonego na płaszczyźnie, to o trz y m a m y o b ie kt podobny do w y j­
ściowego.
Podobieństwo
w dwóch
wymiarach
Rysunek 3.2: Przekształcenie podobieństwa zostało zastosowane
do trójkąta ABC. Czynnik skali wynosi s = 2 , kąt obrotu 9 =
270°, przesunięcie zaś dane jest przez Tx = 0 oraz Ty — 1
Podobieństw o m ożna te ż ściśle zdefiniow ać dla o b ie któ w poło­
żonych w innych w ym iarach, np. dla figu r w trzech czy te ż tylko
w jedn ym w ym iarze. W drugim przypadku dysponujem y p u n ktam i
x osi liczb rzeczyw istych i podobieństw a m ożem y zapisać po prostu
jak o W(x) = sx +
s / 0.
190
3. Granice i samopodobieństwo
Jeżeli powiększymy fotografię trzykrotnie, to zauważmy,
że pole powstałego w ten sposób zdjęcia będzie 3 • 3 = 32 = 9
razy większe niż pole oryginału. Ogólnie: jeżeli rozważamy
figurę o polu A i współczynnik skali s, otrzymamy po prze­
kształceniu figurę o polu s • s = s2 razy większym niż pole A
oryginału. Oznacza to, że pole powiększonego obiektu jest
powiększane o kwadrat współczynnika skali.
Skalow anie
Co ciekawego możemy zaobserwować przy skalowaniu
ob iek tów trój­ obiektów trójwymiarowych? Jeżeli weźmiemy sześcian i po­
w ym iarow ych większymy go w skali 3, będzie on wtedy 3 razy dłuższy, 3
razy szerszy i 3 razy wyższy od oryginału. Każda ze ścian
sześcianu zwiększy swoje pole 32 = 9 razy w porównaniu
ze ścianą oryginalnego sześcianu. Ponieważ zachodzi to dla
każdej ze ścian, więc i całkowite pole sześcianu zwiększy się
dziewięciokrotnie. Ogólnie zatem: całkowita powierzchnia
powiększonego obiektu zwiększa się względem powierzchni
obiektu o danym kształcie o kwadrat współczynnika skali.
Jak zmienia się objętość? Powiększony sześcian ma trzy
warstwy, każdą złożoną z 3 • 3 = 9 sześcianików. Dlatego też
całkowita objętość wynosi 3 • 3 *3 — 33 = 27, czyli jest 27
razy większa od objętości wyjściowego sześcianu. Możemy
uogólnić naszą obserwację i powiedzieć, że objętość w po­
większonym obiekcie zwiększa się o czynnik skali podniesiony
do trzeciej potęgi.
Te proste obserwacje m ają zadziwiające konsekwencje,
które stanowiły przedmiot dyskusji przeprowadzonej przez
Galileusza (1564-1642) w opublikowanych w roku 1638 Dia­
logach dotyczących dwóch nowych nauk. Otóż Galileusz 2
2 Zacytujmy relację D ’Arcy Thompsona z On Growth and Form
( O wzroście i postaci) (New Edition, Cambridge University Press, 1942,
s. 27): „[Galileusz] stwierdził, że gdybyśmy próbowali budować okręty,
pałace, czy świątynie ogromnej wielkości, wtedy reje, belki i sworznie
przestałyby trzymać. Tak samo Natura nie może pozwolić na wzrost
roślin czy zwierząt powyżej pewnej wielkości, przy jednoczesnym za­
chowaniu proporcji i typu materiału, które wystarczały dla [konstruk­
cji] mniejszej struktury. Obiekt rozpadłby się na kawałki pod swoim
własnym ciężarem, chyba że zmienilibyśmy jego względne proporcje —
bez tego stałby się on niezdarny i monstrualny — albo znaleźlibyśmy
nowy budulec, twardszy i mocniejszy niż przedtem. Oba te sposoby
są znane zarówno Naturze jak i sztuce, a zastosowania praktyczne —
o których się Galileuszowi nie śniło — spotykają nas na każdym kroku
w naszych nowoczesnych czasach cementu i stali.
191
3.1. Podobieństwo i skalowanie
D I SC OR S1
DIMOSTRAZIONI
MA T E M A T I C H E ,
interno ù due nuoue fcitnZjC
Attenenti alia
M
ecánica
& i M
ovim enti
L
ocali;
d e l S ig n ar
GALILEO GALILEI LINCEO,
Filoibfo e Matemático primario del Scrcniífimo
Grand Duca di T ofcana.
Ce» vna Appendice delcentre digranità cPalcnniSelidi
IN
gli
LEID A ,
m. d. c . xxxvixi.
Appreflo Elíevirii.
Rysunek 3.3: Dialogi dotyczące dwóch nowych nauk Galileusza
z roku 1638
oceniał maksymalną wysokość, którą może osiągnąć drzewo,
na 90 metrów. Gigantyczne sekwoje, które rosną tylko w zachodnej części Stanów Zjednoczonych, a które Galileuszowi
nie były znane, osiągają nawet 110 metrów wysokości. A jed­
nak rozumowanie Galileusza było poprawne: najwyższe gi­
gantyczne sekwoje przystosowują się na swój sposób, i tym
samym obchodzą ograniczenia modelu.
Jakie było jego rozumowanie? Waga drzewa jest propor-
192
3. Granice i samopodobieństwo
cjonalna do jego wysokości. Powiększanie drzewa w skali s
oznacza, że jego waga zwiększy się o czynnik s3. W tym
samym czasie przekrój jego pnia wzrośnie jedynie o czyn­
nik s2. Dlatego ciśnienie wewnątrz pnia wzrośnie o s 3 / s 2~
s. Oznacza to, że jeżeli s przekroczy pewną granicę, to
wytrzymałość drewna nie wystarczy do zrównoważenia po­
wstałego ciśnienia .3 Napięcia powstające przy wzroście, a za­
leżne od związku pomiędzy objętością a powierzchnią, wyjaś­
niają, dlaczego nie istnieją góry wyższe niż 10 000 metrów,
tłumaczą również różne skutki upadku z tej samej wysokoś­
ci dla różnych istot żywych .4 Na przykład myszy może się
nic nie stać po upadku z 10 piętra, podczas gdy człowiek
może złamać rękę podczas upadku z wysokości równej jego
wzrostowi. Energia, która musi zostać zaabsorbowana, jest
proporcjonalna do masy, a więc i do objętości spadającego
obiektu. Energia ta może być pochłonięta jedynie poprzez
powierzchnię obiektu. Jeśli będziemy zwiększać objętość,
a więc i masę, to energia upadku będzie rosła nieproporcjo­
nalnie szybciej niż powierzchnia. W miarę wzrostu objętości
rośnie również ryzyko przy upadku z tej samej wysokości.
P ow iększanie
spirali
logarytm iczn ej
Rysunek 3.4: Powiększanie spirali logarytmicznej o czynnik
daje tę samą spiralę, ale obróconą o kąt 9
3 A oto problem z tym związany.
utrzymuje maksymalne obciążenie w\
utrzyma gwóźdź dwa razy większy?
4 Zobacz J. B. S. Haldane, On
właściwych rozmiarów), 1928. Jest to
gadnieniom skalowania.
b
Załóżmy, że gwóźdź w ścianie
jakie maksymalne obciążenie
Being the Right Size (Zalety
klasyczny esej poświęcony za­
193
3.1. Podobieństwo i skalowanie
W rozdziale 4 będziemy kontynuować omawianie włas­ P od ob ień stw o
ności skalowania. W szczególności zajmiemy się bliżej spira­ i w zrost
lami, między innymi spiralą logarytmiczną. Wszyscy chyba am on itów
widzieliśmy, jak spirala narysowana na krążku — jak się wy­
daje — rozwija się w nieskończoność, gdy nim kręcimy. Oka­
zuje się, że spirala logarytmiczna zachowuje się wyjątkowo
w tym sensie, że powiększenie tej spirali wygląda na jej
obrócenie. Rysunek 3.4 ilustruje to ciekawe zjawisko; spirala
logarytmiczna to kolejny przykład obiektu samopodobnego.
Na rysunku 3.5 z kolei pokazano amonit, który jest dobrym
przykładem spirali logarytmicznej występującej w naturze.
Możemy powiedzieć, że wzrost amonitów rządzi się prawami
podobieństwa. Amonit rośnie w taki sposób, że jego kształt
zostaje zachowany.
A m on it
Rysunek 3.5: Wzrost amonitu następuje zgodnie ze spiralą lo­
garytmiczną
Wzrostem większości istot żywych rządzą jednak inne D zieci nie są
prawa. Dorosły człowiek nie jest po prostu powiększeniem p od ob n e do
dziecka w pewnej skali. Kiedy zastanawiamy się nad podo­ sw oich rodziców
bieństwem rodziców i dzieci, nie mówimy wtedy o podo­
bieństwie geometrycznym (w znaczeniu matematycznym)!
194
3. Granice i samopodobieństwo
Rysunek 3.6: Czaszka niemowlęcia i czaszka dorosłego nie są
podobne, tzn. nie mogą być przeprowadzone na siebie za pomocą
jednokladności. Rysunek zaadaptowany z: For AU Practical Purposes, W. H. Freeman, New York 1988
W czasie rozwoju dziecka i przemiany w człowieka dorosłego
poszczególne części ciała ulegają powiększeniu, ale każde
w innej skali. Oto dwa przykłady:
• W stosunku do całego ciała głowa jest u dziecka o wiele
większa niż u dorosłego. Nawet proporcje fragmentów twa­
rzy różnią się: u dziecka czubek nosa jest mniej więcej
w połowie twarzy, podczas gdy u dorosłego nos kończy się
w około 2/3 od dołu. Na rysunku 3.6 pokazano konieczną
deformację siatki kwadratowej, odzwierciedlającą zmiany
w kształcie głowy ludzkiej podczas przejścia od dziecka do
dorosłego.
• Z kolei, jeżeli zmierzymy długość ramienia lub wielkość
głowy u ludzi w różnym wieku i porównamy z wysokością
ciała, to zauważymy, że geometryczne podobieństwo nie
zostaje zachowane w czasie rozwoju organizmu. Ramię
u noworodka jest długości jednej trzeciej ciała, u dorosłego
— około jednej piątej. Na rysunku 3.7 pokazano zmiany
w kształcie przy unormowanym wzroście.
W z ro s t
Jak widzimy, prawa wzrostu są dalekie od praw rządząiz o m e try c z n y cych podobieństwem. Możemy uzyskać wyobrażenie o prai a lo m e try c z n y wach rządzących wzrostem, na przykład wielkości głowy
w stosunku do wagi ciała, jeśli wykonamy wykres stosunku
tych dwóch wielkości dla różnych okresów życia. W tabeli
195
3.1. Podobieństwo i skalowanie
Rysunek 3.7: Zmiany w kształcie ciała pomiędzy 0,5 a 25 latami
życia. Wzrost został unormowany do 1 . Rysunek zaadaptowany
z: For All Practical Purposes, W. H. Freeman, New York 1988
Wiek
w latach
0
1
2
3
5
10
20
25
30
40
Wzrost
cm
50
70
79
86
99
127
151
167
169
169
Wielkość głowy
cm
Iloraz
11
0,22
0 ,21
0,22
0 ,21
15
17
18
19
21
22
23
23
23
0,19
0,17
0,15
0,14
0,14
0,14
Tabela 3.1: Wzrost ciała i wielkość głowy człowieka. W ostat­
niej kolumnie wypisany jest stosunek wielkości głowy do wzro­
stu ciała. Przez pierwsze kilka lat wielkość ta jest prawie stała,
a później się zmniejsza, wskazując na przejście od wzrostu izometrycznego do wzrostu alometrycznego
D an e w iążące
w ielkość głow y
ze w zrostem
196
3. Granice i samopodobieństwo
3.1 podaliśmy dane 5 dotyczące konkretnego osobnika. Po za­
znaczeniu wartości ilorazów i wieku na rysunku i połączeniu
punktów otrzymaliśmy pewną krzywą, zob. rysunek 3.8.
Rysunek 3.8: Wzrost wielkości głowy względem wzrostu ciała na
podstawie danych z tabeli 3.1. Na osi poziomej zaznaczono wiek,
na osi pionowej — stosunek wielkości głowy do wzrostu ciała
Jeżeli wzrost byłby proporcjonalny, tzn. gdyby rządził się
prawami podobieństwa, to stosunek tych dwóch wielkości
byłby stały w czasie trw ania życia danej osoby. Otrzyma­
libyśmy więc linię poziomą. Wykonanie wykresu może po­
móc nam przetestować założenie o proporcjonalności wzro­
stu. W naszych przykładowych danych taka proporcjonal­
ność nie zachodzi. Możemy wyodrębnić dwie podstawowe
fazy: jedną, która odpowiada wczesnemu rozwojowi do wieku
około trzech lat i drugą, późniejszą. W pierwszej fazie mo­
żemy zaobserwować wzrost proporcjonalny, zwany też wzro­
stem izometrycznym. Po trzech latach życia człowieka ilo­
raz znacząco spada, co oznacza, że przyrost wagi ciała jest
o wiele szybszy, niż wzrost wielkości głowy. Taki wzrost
nazywa się wzrostem alometrycznym. W wieku około 30
lat proces rozwoju organizmu kończy się i iloraz jest znowu
stały. W następnym rozdziale przeprowadzimy dokładniejszą
analizę danych, prowadzącą do sformułowania matematycz­
nych praw rządzących wzrostem. Wzrost alometryczny to
jedno z centralnych zagadnień geometrii fraktalnej, o czym
przekonamy się już wkrótce. Po zapoznaniu się z podo­
bieństwami i sposobami skalowania powróćmy do głównego
tem atu tego rozdziału: co to jest samopodobieństwo?
5 Dane w tej tabeli pochodzą z pracy D ’Arcy Thompsona, On
Growth and Form, New Edition, Cambridge University Press, 1942,
s. 190.
3.1. Podobieństwo i skalowanie
197
Pojęcie samopodobieństwa wydaje się intuicyjnie zrozu­ S am op odob ień ­
miałe i nie wymaga wielu wyjaśnień. Jednakże matema­ stwo: co to
tyczny formalizm dotyczący samopodobieństwa jest trudniej­ jest?
szym zadaniem. Na przykład w romanesco, a na dobrą
sprawę w każdym obiekcie fizycznym, samopodobieństwo mo­
żemy zaobserwować jedynie na kilku poziomach. Poniżej
pewnej skali materia rozpada się na zbiór cząsteczek, ato­
mów, wreszcie — cząstek elementarnych. Gdy osiągniemy
taki poziom, nie możemy oczywiście mówić o pomniejszo­
nych kopiach całości. Dodatkowo w obiektach, takich jak np.
kalafior, część nigdy nie może być dokładną kopią całości.
Musimy więc dopuścić pewne odchylenia od ideału. Dlatego
jest już teraz oczywiste, że istnieje kilka matematycznych
wersji definicji samopodobieństwa. W każdym razie myślimy
o matematycznych fraktalach jako o obiektach mających
możliwe do rozpoznania detale na każdym poziomie mikro­
skopowej wielkości - w odróżnieniu od prawdziwych obiek­
tów fizycznych. We fraktalach, których pomniejszone kopie
są podobne do całości, ale mających pewne odchylenia od
oryginału, mamy do czynienia z samopodobieństwem staty­
stycznym. Zajmiemy się nim w rozdziale 7. Innym przy­
padkiem są różne zniekształcenia pomniejszonych kopii, na
przykład lekkie ich pochylenie. W takim przypadku mówimy
o samopodobieństwie afinicznym.
Aby zilustrować to pojęcie, weźmy krzywą Kocha, którą S am op odob ień ­
poznaliśmy w rozdziale 2 . Czy potrafilibyśmy znaleźć podo­ stw o krzyw ej
bieństwa (czyli przekształcenia podobieństwa) dla tej krzy­ K ocha
wej? Wydaje się, że Krzywa Kocha składa się z czterech
identycznych części. Przyjrzyjmy się jednej z nich, na przyk­
ład tej z lewej strony. Wyobraźmy sobie, że dysponujemy
szkłem powiększającym z regulowaną skalą powiększenia i us­
tawmy ją na powiększanie 3-krotne. Przy takim powięk­
szeniu ten mały kawałek wygląda dokładnie tak jak cała
krzywa. Co więcej i nasz mały kawałek dzieli się na cztery
identyczne części, a każda z nich jest podobna do całej krzy­
wej Kocha. Jeżeli zastosowalibyśmy powiększenie 9-krotne,
to znowu każda z czterech mniejszych części przypominałaby
całość i tak dalej, nieskończenie wiele razy. Jest to właśnie
samopodobieństwo w swojej najczystszej matematycznej po­
staci.
198
3. Granice i samopodobieństwo
/
R ysunek 3.9: Ćwiartka krzywej Kocha (na górze) została trzy­
krotnie powiększona. Z powodu samopodobieństwa krzywej Ko­
cha w wyniku dostajemy kopię całej krzywej
R óżn e rod zaje
Jednak nawet w przypadku, gdy kopie całości pojawiają
sam op od o- się we wszystkich stadiach i są kopiami dokładnymi, nie
b ien stw a zmienionymi w żaden sposób, mogą istnieć różne rodzaje
samopodobieństwa. Wyobraźmy sobie na przykład okładkę
książki, która przedstawia rękę trzym ającą tę właśnie książkę.
Choć może to się wydać zaskakujące, ten niewinnie wy­
glądający opis mówi o dosyć skomplikowanym efekcie. Jeżeli
przyjrzymy się lepiej naszej okładce, to zauważymy coraz
więcej prostokątnych okładek. Porównajmy to z przykładem
wyidealizowanego drzewa o podwójnych rozgałęzieniach, po­
kazanego na rysunku 3.10. Pokazany tam jest również trój­
kąt Sierpińskiego. Wszystkie trzy przykłady są obiektami
samopodobnymi: zawierają małe repliki całości. Istnieje
jednak znacząca różnica pomiędzy nimi. Spróbujmy znaleźć
punkty, w których sąsiedztwie możemy odszukać pomniej­
szone kopie całości na każdym etapie pomniejszenia.
199
3.1. Podobieństwo i skalowanie
Trzy różne
stru k tu ry
sam op od ob n e
Rysunek 3.10: Szkic rysunku, który zawiera obraz samego sie­
bie, pokazano po prawej. Drzewo o dwóch gałęziach jest samopodobne na poziomie listków, natomiast trójkąt Sierpińskiego jest
samopodobny wszędzie
W przypadku projektu okładki książki, kopie koncen­ Sam op odob ień trują się dookoła jednego punktu i jedynie ten punkt ma stw o
własność samopodobieństwa. Punkt ten jest granicą, w któ­ w punkcie
rej wielkości kopii maleją do zera. Okładka książki jest samopodobna w tym punkcie .6
W przypadku drzewa o podwójnych rozgałęzieniach sy­ Sam oafiniczność
tuacja jest całkiem inna. Całe drzewo składa się z pnia
i dwóch pomniejszonych kopii całości. Dlatego coraz mniej­
sze kopie koncentrują się przy liściach. Całe drzewo nie jest
więc samopodobne, ale samoafiniczne. Pień nie jest podobny
do całości, ale może być traktowany jako afiniczny obraz,
który został sprasowany do linii.
W trójkącie Sierpińskiego, podobnie jak w krzywej Ko­ Ścisłe sam op ocha, możemy znaleźć kopie całości w otoczeniu każdego jego d ob ień stw o
punktu, co już wcześniej omówiliśmy. Trójkąt składa się
z pomniejszonych, ale dokładnych kopii samego siebie. Jeżeli
weźmiemy pod uwagę te różnice, to, mimo iż możemy na­
zwać wszystkie trzy obiekty samopodobny mi, jedynie trójkąt
Sierpińskiego i krzywa Kocha są dodatkowo ściśle samopo­
dobne. Również zbiór liści bez pnia i gałęzi jest ściśle sa­
mopodobny. A jaką kategorię przypiszemy kalafiorowi? Ma
on naturalną formę obiektu samopodobnego, ale nie ściśle
samopodobnego, jest więc krewnym drzewa o podwójnych
rozgałęzieniach.
6 Pojęcie samopodobieństwa w punkcie jest podstawowym pojęciem
w rozważaniach samopodobieństwa zbioru Mandelbrota (zob. rozdz.
14).
200
3. Granice i samopodobieństwo
3 .2 . C ią g i g e o m e tr y c z n e i k rzy w a K o c h a
Takie fraktale, jak krzywa Kocha, trójkąt Sierpińskiego i wie­
le innych, pow stają w wyniku konstrukcji geometrycznej.
Ściśle rzecz biorąc, proces konstrukcji nigdy nie powinien się
zakończyć. Obiekt otrzymany po skończonej liczbie kroków
jest w rzeczywistości wciąż daleki od prawdziwego fraktala.
Może on mieć złożoną budową, o stopniu skomplikowania
zależącym od tego, jak daleko posunęliśmy się w konstruk­
cji. Fraktale zatem istnieją jedynie jako idealizacja. Właśnie
je byśmy otrzymali po „nieskończenie” wielu krokach, Frak­
tale są tak naprawdę obiektami granicznymi i ich istnienie
nie jest takie naturalne, jak to by się mogło wydawać. Jest
to ważny fakt i dlatego matematyczne podstawy tego typu
przejść granicznych są jednym z tematów tego i kilku innych
rozdziałów.
Granice prowadzą do powstania nowych wielkości, no­
wych obiektów i jakości. Jest to w szczególności prawdą
dla fraktali (powrócimy do tego później). Możemy jednak
natrafić na pewien problem. Jeżeli chcemy badać granicę
ciągu, musimy napierw wiedzieć, że ona istnieje. Weźmy na
przykład dwie sumy:
oo
V—> 1
£
r
fc=i
V *
1
1
1
i
-
ł
1
1
+ 3 + -"
2
1
1
ż ^ fc 2 - l + 4 + 9 + " ' ;
pierwsza jest rozbieżna 7 (tzn. suma jest nieskończona),
podczas gdy druga suma zbiega do 7 r 2 / 6 , c o pokazał Euler.
Zajmijmy się przez chwilę analizą szeregów geometrycz­
nych. Czy dla danej liczby —1 < q < 1 szereg
oo
k =0
7 Suma 1 + 1/2 + 1/3 + 1/4 + *** jest nieskończona. Dowód tego faktu
przebiega w sposób następujący. Załóżmy, że suma ta ma skończoną
wartość, powiedzmy 5. W tedy oczywiście 1 /2 + 1/4 + 1/6 + —* = 5 /2 . A
zatem 1 + 1 /3 + 1 /5 + - ■■= 5 —(1 /2 + 1 /4 + 1 /6 + - ■■) = 5 /2 . Ale ponieważ
1 > 1/2, 1/3 > 1/4, 1/5 > 1 /6 ,..., musi być 1 + 1/3 + 1/5H---- > 1/2 +
1/4 + 1 /6 + • • •. Otrzymaliśmy sprzeczność, obie sumy bowiem powinny
być równe 5 /2 . Czyli nasze założenie, że 1 + 1 /2 + 1/3 + 1/4 + ■■* = 5
musiało być nieprawdziwe. Zatem skończona granica nie może istnieć.
201
3.2. Ciągi geometryczne i krzywa Kocha
ma granicę i jaka ona jest? Aby to sprawdzić, wprowadźmy
sumy częściowe
Sn = l + q + q2 + q 3 + ... + qn.
Otrzymujemy więc S n —qSn = 1 —(/"' 1. oraz jednocześnie
Sn —qSn = Sn(l — q). Z równości tych wynika, że
- Qn+1
-----■
(3.1)
1 -9
Oznacza to, że im większe jest n, a co za tym idzie im mniej­
sze jest </n+1, Sn staje się coraz bliższe wartości 1 / ( 1 —q).
Uzasadniliśmy więc następujący wzór:
Sn =
oo
1
^
k =0
(
^
3
- 2
)
Powyższe rozważania o granicy mogą być bardzo przydatne8,
nawet jeśli wartość granicy 1 / ( 1 — q) nic nam nie mówi.
Dzięki nim będziemy mogli zrozumieć pewien problem zwią­
zany z konstrukcją fraktali.
Teoretycznie S n będzie
się różniło od 1 / ( 1 — q) niezależnie od tego, jak duże n
wybierzemy. W praktyce jednak, na przykład w kompu­
terach o skończonej dokładności, obie te wartości będą nierozróżnialne, o ile tylko n jest wystarczająco duże.
Szereg geometryczny odpowiada w pewnym stopniu kon­
strukcji podstawowych fraktali. Otóż mamy wyjściowy
obiekt, w tym przypadku liczbę 1 , i współczynnik skali, tu ­
taj </. Ważną własnością współczynnika skali jest to, że jest
on mniejszy od 1. Następnie rozpoczynamy proces konstruk­
cji.
Krok
Krok
Krok
Krok
1: Zacznij od
2 : Pomniejsz
3: Pomniejsz
4: ...
1
1
1
.
w skali q i dodaj.
w skali q • q i dodaj.
8 Przypomnijmy, na przykład, problem zrozumienia nieskończonych
rozwinięć dziesiętnych w rodzaju 0,154399999... Wiemy, że jest ono
równe 0,1544, ale dlaczego? No więc, po pierwsze 0,1543999... =
0,1543000...+ 9 -10~5(l-h 10“ 1+ 10_2 + 10” 3+ ...). Teraz możemy zasto­
sować równanie (3.2) dla q = 10-1 i otrzymać 1 + 10-1 + 10-2 + 10“ 3 +
■■■- f . Zatem 9-10“ 5( l + 10"1+ 10“ 2+ 1 0 “ 3+ - *■) = 9*105*10/9, co jest
równe 10“ 4. Ostatecznie 0,1543999... = 0,1543000 + 10~4 = 0,1544.
P roces
konstrukcji
szeregu
geom etryczn ego
202
3. Granice i samopodobieństwo
Ta nieskończona konstrukcja prowadzi do nowej liczby
reprezentującej ten proces, a mianowicie do granicy szeregu
geometrycznego.
K on stru k cja
płatka śn iegu
K och a
1/3
T
T U 3X(l/37)
▲
ru3X(l/3D
1/9 T
T U
3X(l/3T)
U 12X(l/9
T u
3X(1/3D
U 12X ( 1 / 9 7 ’ )
1/277
T)
r u
3X ( 1 / 3 7 )
U
12 X (1 / 9 7 )
U 48 X (1 / 27 7 )
R ysunek 3.11: Płatek śniegu Kocha jest obiektem granicznym
procesu konstrukcji. Pole jej wynosi |\/3 a 2
K on stru k cja
Płatek śniegu Kocha, którego podstawa konstrukcji po­
płatka śn iegu kazana jest na rysunku 3.11, otrzymano w podobny sposób,
K och a lecz zamiast dodawania liczb „dodano” obiekty geometrycz­
ne. „Dodawanie” jest tu taj interpretowane oczywiście jako
suma (teoriomnogościowa) zbiorów. Ważne jest, że w każ-
3.2. Ciągi geometryczne i krzywa Kocha
dym kroku dodajemy pewną liczbę pomniejszonych kopii
zbioru wyjściowego.
Krok 1: Wybieramy trójkąt równoboczny T o bokach dłu­
gości a.
Krok 2 : Pomniejszamy T w skali 1/3 i doklejamy 3 kopie po­
wstałego trójkąta w sposób pokazany na rysunku.
Powstała w ten sposób figura jest otoczona 3 *4 od­
cinkami o długości a/3 każdy.
Krok 3: Pomniejszamy T w skali 1/3 * 1/3 i doklejamy 3 •
4 kopie powstałego trójkąta, tak jak na rysunku.
Powstała figura jest ograniczona 3 * 4 * 4 odcinkami
prostoliniowymi o długości 1/3 *1/3 *a każdy.
Krok 4: ...
Taka konstrukcja po nieskończenie wielu krokach da nam
nowy obiekt geometryczny, płatek śniegu Kocha. W rze­
czywistości analogie pomiędzy tą konstrukcją geometryczną
a szeregiem geometrycznym idą znacznie dalej. Postarajm y
się znaleźć te związki. Jaka jest powierzchnia płatka śniegu
Kocha, obiektu geometrycznego będącego granicą opisanego
powyżej procesu?
Najpierw spróbujmy obliczyć, jaką powierzchnię doda- P ow ierzchnia
jemy w każdym kroku. Powierzchnia trójkąta wyjściowego płatka śniegu
T wynosi A \ = A/3/4*a2. W każdym kroku k musimy dodać K ocha
powierzchnię n k małych równobocznych trójkątów o boku
sk każdy. Czytelnik może bez trudu przekonać się, że n i =
3, n 2 = 3 *4, 713 = 3 *4 • 4,... Otrzymamy w ten sposób wzór
n k = 3*4fe_1. Boki małych trójkątów otrzymujemy przez ko­
lejne pomniejszanie boku trójkąta wyjściowego w skali 1/3.
Oznacza to, że sk = (1/3)ka. Podsumowując powyższe re­
zultaty, otrzymujemy
Ak-\-\ — Aję + n k
V 3
2
*sk
Innymi słowy, jeżeli rozwiniemy powyższy wzór, otrzymamy
203
204
3. Granice i samopodobieństwo
następujący szereg:
4
A *+i - A! + ^
42
Ąk - i
^ + ¡j + ^ + . . . + ^
j o2.
W powyższym wzorze, w nawiasie, znajduje się suma częścio­
wa szeregu geometrycznego 1 + § + | j + | j + ..., który ma
granicę
= * Oznacza to, że płatek śniegu Kocha, fi­
gura geometryczna będąca granicą tego procesu, ma pole
równe
f
,
„
9 2
A ~ A l + T 2" 5 “ ’
a ponieważ A \ = ^ a 2, otrzymujemy ostatecznie
A — - \ / 3 a 2.
5
Nasze rozumowanie prowadzi do stwierdzenia, że w wyniku
tego nieskończonego procesu powstaje rzeczywiście nowy
obiekt geometryczny. Ścisły dowód tego faktu wymaga jed­
nak znacznie precyzyjniejszego aparatu pojęciowego.
Do tego dowodu potrzebny jest język, który pozwoliłby
nam mówić o procesie dołączania nowych kształtów w kon­
strukcjach takich, jak wyżej opisana, tak samo, jak możemy
mówić o dodawaniu coraz mniejszych liczb w szeregu. Otóż
taki język istnieje. Jednym z ważniejszych osiągnięć w to­
pologii było rozszerzenie pojęcia granicy, takiej jaką znamy
z operowania na liczbach, na pojęcia abstrakcyjne. Właśnie
to, w połączeniu z odległością Hausdorffa, będącą uogól­
nieniem zwyczajnej odległości pomiędzy punktami na od­
ległość pomiędzy dwoma zbiorami punktów, dostarcza ta ­
kiego języka. Dzięki niemu możemy wyrazić dokładną analo­
gię pomiędzy
nieskończonym
procesem dodawania
liczb w szeregu geometrycznym i jego zachowaniem w gra­
nicy, z jednej strony, a nieskończonym dodawaniem coraz
mniejszych trójkątów w konstrukcji płatka śniegu Kocha
i jego zachowaniem granicznym, z drugiej strony. W pew­
nym sensie nic nowego i ekscytującego się nie dzieje i nie ma
nic nowego do zrozumienia. Wszystko to jest po prostu prze­
niesieniem sposobu, w jaki traktujem y szereg geometryczny.
W tym sensie płatek śniegu Kocha jest więc geometrycznym
przedstawieniem granicy.
3.2. Ciągi geometryczne i krzywa Kocha
205
Przyjrzyjmy się obecnie pewnym specyficznym własnoś­
ciom granic, takim których nie m ają żadne ich skończone
przybliżenia. Najważniejszą taką własnością jest samopodobieństwo. Na przykład samopodobieństwo krzywej Kocha
przejawia się między innymi w tym, że jest ona zbudowana
z czterech identycznych części. Czy nasze figury na papie­
rze są samopodobne? Oczywiście, nie. Z dwóch powodów:
jednego natury technicznej, drugiego — matematycznej.
G ranice
prow adzą
do ob iek tów
now ych
jakościow o
Przyczyna techniczna jest oczywista. Czarny atram ent
na białym papierze to wiele plamek, które przy dostatecznie
dużym powiększeniu wyglądają jak zbiór losowych kropek,
a nie jak krzywa Kocha. Zjawisko to możemy nazwać gra­
niczną rozdzielczością i jest ono podobne do problemu repre­
zentacji liczb w komputerze. Jak wiemy, na przykład liczba
y/2 nie jest reprezentowana w komputerze jak rzeczywisty
\/2, ale jest pewnym przybliżeniem, na przykład 1,414215.
Powiększanie obrazu można porównywać do mnożenia przez
liczbę większą od 1. Na przykład, jeżeli pomnożymy liczbę
y/2 przez \ / 2 i będziemy to powtarzać, to otrzymamy 2 , 2 \ / 2 ,
4, 4a/2, 8 , 8 ^ 2 , ... Otrzymamy zatem potęgi dwójki lub
potęgi dwójki pomnożone przez \/2. Jeżeli jednak będziemy
mnożyć przybliżenie y/2 przez siebie odpowiednio dużą liczbę
razy, to choć na początku otrzymamy dobre przybliżenie,
wcześniej czy później nasze wyniki numeryczne zaczną się
coraz bardziej różnić od wartości teoretycznych.
P rob lem n atury
technicznej
w przedstaw ia­
niu sam op o­
d ob ieństw a
Wykonanie doświadczeń z rysowaniem krzywej Kocha na
papierze napotyka również problem natury matematycznej.
Jedynie obiekt graniczny, a nie żadne z jego pośrednich przy­
bliżeń, ma własność doskonałego samopodobieństwa. Gra­
nicy nie można osiągnąć nawet na żadnym komputerze, po­
dobnie, jak na żadnym komputerze nigdy nie uzyskamy dok­
ładnej i prawdziwej reprezentacji wartości y/2, Do tego trzeba
by dysponować nieskończenie wieloma cyframi rozwinięcia.
Jedyne możliwe przedstawienia krzywej Kocha są tylko jej
przybliżeniami. Rysunki piątego i dziesiątego kroku kon­
strukcji są prawie identyczne. W rzeczywistości różnica jest
olbrzymia, ale występuje na poziomie niższym niż rozdziel­
czość urządzenia, jakim się posługujemy (drukarki lub ekra­
nu). Poczynając od pewnego, dostatecznie wysokiego kroku
konstrukcji, wszystkie rysunki będą takie same i nie będą
się różniły od rysunku krzywej Kocha. Teoretycznie jednak
P rob lem natury
m atem atyczn ej
w przedstaw ia­
niu sam op o­
d ob ieństw a
206
3. Granice i samopodobieństwo
te dwa obiekty (tzn. pewien poziom konstrukcji i krzywa
Kocha) różnią sie dramatycznie. Na przykład, niezależnie
od tego, który poziom wybierzemy, obrzeże powstającego
obiektu będzie się składało z małych odcinków prostolinio­
wych. Jeśli więc weźmiemy wystarczający stopień powięk­
szenia, to będziemy mogli dostrzec te odcinki w skali makro­
skopowej. Jeżeli przyjrzymy się przez mikroskop jednemu
z kawałków w, powiedzmy, dziesiątym kroku konstrukcji,
to przy odpowiednio dobranym współczynniku powiększenia
rozpoznamy część, jaka mogła powstać w, powiedzmy, dru­
gim kroku konstrukcji. Inaczej rzecz się ma z obiektem gra­
nicznym, przy każdym powiększeniu dostajemy dokładne ko­
pie krzywej Kocha. Przybliżenie krzywej Kocha, niezależnie
od dokładności, nie może również być samopodobne (zob.
rysunek 3.12). Otóż krzywa Kocha nie zawiera w sobie żad­
nego odcinka prostoliniowego .9
S am op od ob ień stw o n ie
w ystęp u je na
skończon ym
p oziom ie
R ysunek 3.12: Każdy pojedynczy krok konstrukcji krzywej Ko­
cha nie daje jeszcze figury samopodobnej. Tak na przykład, przeskalowanie fragmentu przybliżenia trzeciego poziomu w skali 3 nie
da krzywej równej krzywej z poziomu 3
9 Z matematycznego punktu widzenia jest to krzywa ciągła, która
nie jest nigdzie różniczkowalna. Została stworzona przez Helge’a von
Kocha, aby po prostu dać przykład krzywej o tej własności, zob. H.
v. Koch, Une méthode géométrique élémentaire par l’étude de certains
questions de la théorie des courbes planes, A c t a M a th . 30, 145-174
(1906).
207
3.2. Ciągi geometryczne i krzywa Kocha
Własność krzywej Kocha, jakiej nie m ają żadne jej przy­
bliżenia, polega na tym, że jej długość jest nieskończona
(por. paragraf 2.4). Ponieważ krzywa Kocha stanowi jedną
trzecią obrzeża płatka śniegu Kocha, obrzeże to ma również
nieskończoną długość. Pole płatka śniegu Kocha jest przy
tym skończone i jest dobrze określoną liczbą, jak to wi­
dzieliśmy wcześniej. Jest to zgodne z metaforycznym przes­
łaniem Mandelbrota, jakie zawarł w swoim artykule z Science
z roku 1967, zatytułowanym How long is the Coast of Britain? (Jaka jest długość wybrzeża Wielkiej Brytanii?). Omó­
wimy powyższe zagadnienie szczegółowo w rozdziale 4.
N ow a jakość
ob iek tów
p ow stałych
w granicy
P rzyjrzyjm y się znow u szeregom geo m etryczn ym . M o że m y dostrzec
interesujący zw iązek z sam opodobieństw em krzyw ej K ocha. Jeżeli
zastosujem y zabieg fo rm aln y i p om n ożym y szereg
Sam opodobień­
stwo szeregów
geom etrycznych
oo
y ^ q k = l + q + q2 + q 3 + ...
fc=0
przez czynnik
q,
to o trz y m a m y
oo
? y y = 9 + < 7 2 + g 3 +<z4k= 0
A stąd następnie
oo
£ ? fc =
k —0
oo
1
+ <7E<A
(3.3)
k~0
Jest to „sam opodobieństw o" szeregów
nosi 1 plus przeskalowany cały szereg.
krzywej Kocha, sam opodobieństw o je s t
chodzi dla żadnego etap u pośredniego.
q + q2, to 1 + qS2 = 1 H- q + q2 + qs /
geom etrycznych. S um a w y­
Podobnie ja k w przypadku
własnością granicy i nie za ­
N a przykład jeśli ¿>2 “ 1 +
S2.
Powiązaliśmy więc krzywą i płatek śniegu Kocha z szere­
gami geometrycznymi, co uświadomiło nam ciekawą analo­
gię przemawiającą za istnieniem tych fraktali. W następnych
dwóch paragrafach przyjrzymy się tym obiektom z innej per­
spektywy, potraktujemy je jako rozwiązania odpowiednich
równań.
3. Granice i samopodobieństwo
208
3.3, O saczenie now ego problem u z kilku stron:
pi i p ierw iastek kw adratow y z dw óch
W pojęciu granicy zawsze było coś tajemniczego i szkoda by
było ten fakt przemilczeć. Pozwólmy więc sobie na odejście
od tem atu i zobaczmy, jak granice mogą sięgać w nieznane.
Granice tworzą i określają nowe liczby i obiekty. Studio­
wanie tych niewiadomych stymulowało rozwój dawnej ma­
tem atyki i doprowadziło do powstania pięknych konstruk­
cji matematycznych. Archimedes obliczał 7r przez kolejne
przybliżenia okręgu ciągiem wielokątów. Sumerowie przy­
bliżali >/2 przy użyciu niewiarygodnej procedury matema­
tycznej, którą wiele wieków później odkrył na nowo New­
ton. Byli oni świadomi, że zarówno 7r jak i y/2 nie są
zwykłymi liczbami. Piękny związek, zachodzący pomiędzy
ciągiem Fibonacciego 1,1, 2,3, 5,8,13,21, 34,55,... i złotym
podziałem ^ ( 1 + \/5), przez wiele wieków inspirował do cie­
kawych rozważań zarówno ludzi nauki, jak i artystów. Za­
krawa prawie na ironię, że ostatnio fizyka i matematyka
w swoich najbardziej zaawansowanych badaniach pokazują,
że niektóre z tych rozważań, które pobudziły na przykład Ke­
plera do szukania harmonii we Wszechświecie, m ają zadzi­
wiające odpowiedniki we współczesnej nauce. Zrozumiano,
że w opisie scenariuszy łamania porządku i przejścia do cha­
osu złoty środek charakteryzuje czasami coś w rodzaju jed­
nej z ostatnich barier porządku, zanim zapanuje chaos. Co
więcej, liczby Fibonacciego pojawiają się w naturalny sposób
we wzorach geometrycznych, które mogą przy tej okazji po­
wstać.
W tym paragrafie zajmiemy sie dwiema liczbami, n —
3,14... i y/2 = 1,41..., oraz różnymi ich przybliżeniami. Pod­
czas gdy historia n odbiega w pewnym sensie od fraktali, to
drugi przykład będzie miał wiele wspólnego z definiowaniem
i przybliżaniem fraktali, czyli z tym, nad czym będziemy
pracować w następnych rozdziałach.
M etoda
A rchim edesa
obliczania 7r
M e to d a A rchim edesa na znalezienie wartości ir opiera się na w ielokątach forem nych w pisanych w o k rą g i opisanych na nim . Zaprezentu je m y tę m eto d ę przy użyciu współczesnych m etod m atem atycznych,
takic h ja k użycie sinusa i tangensa, których oczywiście Archim edes
3.3. Osaczenie nowego problemu z kilku stron
nie znał. Zaczniem y od sześciokąta forem nego w pisanego w okrąg.
M a on n — 6 boków . K ą t, na którym o p arte je s t pół je g o boku,
wynosi 9 = 7 t/6 (zob. rysunek 3 .1 3 ).
R y s u n e k 3 .1 3 : W ielokąty forem ne opisane na okręgu i w niego
wpisane
Długość boku wpisanej figury wynosi 2 r s in # . Długość boku
sześciokąta opisanego wynosi 2 rtg 0 . P oniew aż długość okręgu wynosi
U = 27rr, m am y
2 r n s in 0 < U < 2rntg6 .
Jeżeli podzielim y te nierówności przez 2 r , o trz y m a m y górne i dolne
ograniczenia dla ir,
n s in # < 7r < ntgd.
Dla sześciokąta n = 6, więc o trzy m u je m y 3 < 7r < 3 ,4 6 4 , co nie
jest zbyt dokładnym przybliżeniem . M o że m y je d n a k łatw o popraw ić
ten w ynik przez podw ojenie liczby n oznaczającej liczbę boków i za­
stąpienie 9 przez 6 / 2, a w rezultacie uzyskam y
«2rc sin
- -0 < 7r < 2 n tg -e.
Li
O trzy m u je m y tera z 3 ,1 0 6 < 7r < 3 ,2 1 5 . K olejne p o d w ajanie, tzn .
przejście od w ielokąta o 12 bokach do w ielo kąta o 24 bokach, a na­
stępnie 4 8 ,9 6 itd ., m oże dać nam przybliżenia ta k dokładne, ja k tylko
chcemy. Po k takich pod w ajających krokach o trzy m u je m y zależność
Nie w iadom o dokładnie, w ja k i sposób A rchim edes obliczał sinusy
i tangensy. M ożliw e, że w ykorzystyw ał m eto d y iteracyjne o p a rte na
wzorach podobnych do
209
210
3. Granice i samopodobieństwo
TT
0
sin 6
2
1 + cos 6
i długość
Obliczenie długości okręgu, tzn. wyznaczenie wartości 7r,
okręgu jest problemem, który stanowił wielkie wyzwanie dla mate­
matyków starożytności. Historia tego problemu ma ponad
4000 lat. W Starym Testamencie występuje n = 3 (zob.
Pierwsza Księga Królewska, 7,23). Babilończycy używali
7T — 3,125, a Egipcjanie 10 (około 1700 r.p.n.e.) propono­
wali 7T = 3,1604... Również w Chinach filozofowie i astrono­
mowie byli bardzo zainteresowani znalezieniem przybliżonej
wartości 7r. Jedno z najlepszych przybliżeń podał Zu ChongZhi (430-501), który używał wartości 355/113, mającej sie­
dem cyfr poprawnych. W tym czasie Chińczycy handlo­
wali jedwabiem i ich kontakty sięgały aż Rzymu, jednak
nie wiemy, czy znane były im wyniki Archimedesa. Ar­
chimedes jako pierwszy (około 260 r.p.n.e.) podał osta­
teczne rozwiązanie problemu. Jego metoda opierała się na
wzięciu okręgu o promieniu 1 i przybliżaniu połowy jego ob­
wodu za pomocą ciągu wielokątów foremnych. Właściwie
brał on pod uwagę dwa ciągi wielokątów: ciąg foremnych
wielokątów wpisanych w okrąg i ciąg wielokątów na nim
opisanych. Jego przybliżenie powstało po przeprowadze­
niu kilku kroków konstrukcji, w efekcie otrzymał wartość
3,141031951, która miała już poprawne cztery pierwsze cy­
fry. Mógł on otrzymać nawet większą dokładność, ponieważ
jego m etoda była całkowicie słuszna.
Inną, bardziej może elegancką metodę, odkrył średnio­
wieczny uczony i filozof Nicolaus Cusanus około roku 1450.
Jest ona następnym przykładem układu sprzężenia zwrot­
nego i zapowiedzią subtelnych metod, używanych obecnie
do obliczeń wartości 7r za pomocą potężnych komputerów,
dających dokładność rzędu milionów cyfr.
10 W rzeczywistości zaproponowali algorytm na obliczanie pola po­
wierzchni koła: należy usunąć 1/9 średnicy, a pozostałe 8/9 podnieść
do kwadratu.
211
3.3. Osaczenie nowego problemu z kilku stron
A rchim edes rozw ażał ustalony o k rą g i przybliżał jeg o obwód przez
ciąg w ielokątów forem nych. W pew nym sensie Cusanus o d w ró c ił to
rozum owanie i użył ciągu w ie lo k ą tó w forem nych o ustalonym obw o­
dzie. A dokładnie je g o w ielo k ąty m iały 2n , n = 2 , 3 , 4 , . . . , boków
i zawsze m iały obwód rów ny 2. N astępnie obliczył obw ody okręgów ,
z których jeden był opisany, a drugi w pisany w dany w ie lo k ą t (zob.
rysunek 3 .1 4 ).
Rysunek 3.14:
P oczątkow y okrąg i kwadrat w m etod zie Cusanusa. D la danego w ielokąta forem nego o 2n bokach, których
długości sum ują się do obw odu 2, rozważam y okręgi: w pisany
i opisany
Niech R n (o d p o w ied n io rn ) oznacza prom ień okręgu opisanego
(w pisanego) na n -ty m w ielokącie. O trz y m u je m y następujące o g ran i­
czenia:
2 7 rrn < 2 < 2 ttR n
lub rów now ażnie
1
1
i1Lnr < 7 r <1rn
(3 .4 )
Dla n = 2 m am y kw ad rat o obw odzie 2 (zo b . rysunek 3 .1 4 ) i dlateg o,
korzystając z tw ierd zen ia P itagorasa, m ożem y obliczyć R 2 = \ / 2 / 4
oraz 7*2 = 1 /4 . N astępnie Cusanus, posługując się fa k ta m i o partym i
na argum entacji geom etrycznej znanej ju ż A rchim edesow i, P ita g o ra ­
sowi i innym , o trzy m a ł następujące zw iązki:
1—
Rn vn
7)
5
R j i -\- 1 — V R n C n-fl
dla n = 2 , 3 , . . . O k azu je się, że rn < R n dla w szystkich n i że rn
w zrasta, podczas gdy R n m aleje w raz ze w zrostem n. D lateg o oba
M etoda Cusanusa
obliczania 7r
212
3. Granice i samopodobieństwo
ciągi mają granice i te granice muszą być równe11. Z równania (3,4)
wynika, źe granica ta musi wynosić l/ir. Okazuje się, że metoda
Cusanusa daje nam 7r z dokładnością do 10 miejsc po przecinku,
jeżeli tylko wykona się n — 18 przebiegów tego układu sprzężenia
zwrotnego. W tabeli 3.2 zanotowano pierwszych jedenaście kroków,
odpowiadające im przybliżenia 7r i ich błędy.
P ierw sze kroki
m eto d y
C usanusa
n
2
3
4
5
6
7
8
9
10
11
^Tl
0,250000
0,301777
0,314209
0,317287
0,318054
0,318246
0,318294
0,318306
0,318309
0,318310
Rn
0,353553
0,326641
0,320364
0,318822
0,318438
0,318342
0,318318
0,318312
0,318310
0,318310
Pn
3,313708
3,182598
3,151725
3,144118
3,142224
3,141750
3,141632
3,141603
3,141595
3,141593
Błąd
0,172116
0,041005
0,010132
0,002526
0,000631
0,000158
0,000039
0,000010
0,000002
0,000001
Tabela 3.2: Kilka pierwszych kroków metody Cusanusa iteracyjnego obliczania liczby 7r. Przybliżenie pn w czwartej kolumnie
jest obliczane ze wzoru pn = 2/(rn + Rn). Błąd pn —7r zmniejsza
się w każdym kroku około czterech razy
Inne podejścia F. Vieta (1540-1603):
do 7r
2 _ V2 \/2 + V2Y 2 + v 2 + \/2
tt ~ ~2
2
2
J. Wallis (1616-1703):
7r
2
“
2-2 4-4 6-6
F 3 ' 3^5 ’ 5^7
'
8-8
7^9"
J. Gregory (1638-1675) i G. Leibniz (1646-1716):
tt
4 ~
_ 2 _ J__
- 3 + 5 _ 7 + 9 - n + 1 3 _ '"
1
1
1
1
(3.5)
L. Euler (1707-1783):
11 Gdyby nie były one równe, powiedzmy, R n —> R i r n
R ^ z r, wtedy mielibyśmy (r Ą- R ) j 2 / R , co jest niemożliwe.
r, ale
3.3. Osaczenie nowego problemu z kilku stron
7T2
1
~6~ == 12
7r4
22
1
90 == ?
i
1
+
+
1
+
32
42
1
+
¥
1
+
34
+
1
+
44
¿16
1
52
+
1
+
54
+
C. F. Gauss (1 7 7 7 -1 8 5 5 ):
7r = 48 arctg ^ + 32 arctg ^
- 2 0 a rc tg ^ .
(3 .6 )
S. R am anujan (1 8 8 7 -1 9 2 0 ):
I _ ^
7r
V
9801 ^71= U
(4 n !) ( 110 3 + 26390n)
( n ! /) 43 9 6 4n
\
J. M . Borwein i P. M . Borwein (1 9 8 4 ):
1
" n+1
-
V 1 -
Xn
1
■ rT T r^ f ’
Vn + 1 =
(1
“F %n+1 )
Vn
10' f
2
X n+ i ,
'
V0 = ^ •
Przy tych założeniach y n d ąży do 1 / 7r w te m p ie kw ad rato w ym .
P rzyto czym y jeszcze je d n ą ciekawą własność dotyczącą 7r .12 Licz­
ba całkow ita nazywa się bezkwadmtową, jeżeli nie je s t pod zielna przez
kw adrat żadnej liczby pierwszej. Na przykład 15 je s t b ezkw ad rato w a
(15 — 3 * 5 ), a 50 nie (5 0 = 2 * 5 2). O zn a c zm y liczbę liczb bezkw adratow ych, zn ajdujących się pom iędzy 1 a n , przez h(n). Niech
q(n) = h(n)/n. Z ach o d zi w te d y następująca równość:
lim q(n) = Ąz.
n—►oo
7T
*
Liczba 7r, jak żadna inna z liczb niewymiernych, fascy­ Ś w iatow e
nowała zarówno wielkich naukowców, jak i amatorów z całego rekordy
świata. Przez setki, a nawet tysiące lat odkrywano coraz w obliczan iu 7r
więcej cyfr rozwinięcia 7r, używając często bardzo praco­
chłonnych metod. Ten ogromny wysiłek jest nieproporcjo­
nalny do użyteczności wyniku. Trudno byłoby znaleźć za­
stosowania w obliczeniach naukowych, w których potrzebne
byłoby więcej niż 20 cyfr rozwinięcia 7r. Mimo to ludzie
przesuwają granicę znanych cyfr rozwinięcia 7r dalej i dalej,
12 C. R. Wall, Selected Topics in E lem entary Number Theory, Uni­
versity of South Carolina Press, Columbia 1974, s. 153.
214
3. Granice i samopodobieństwo
tak jakby to był sport, np. skok wzwyż, w którym zawo­
dnicy chcą dorównać wynikom wcześniejszym, albo nawet
pobić światowy rekord. Jeśli spytamy alpinistów, dlaczego
podejmują uciążliwą wspinaczkę na trudno dostępny szczyt,
możemy usłyszeć następującą odpowiedź: „ponieważ on tam
jest” . Jeśli chodzi o tego typu motywację, to liczba 7r jest
jeszcze lepszym celem niż Mount Everest, ponieważ liczba
cyfr w rozwinięciu 7r jest nieskończona. Gdy raz osiągnie
się światowy rekord, istnieje wciąż powód, by zdobyć jeszcze
następne dziesięć, sto czy milion cyfr.
L u d o lfin a
Przytoczymy kilka przykładów szaleństwa, które trwało
przez poprzednie wieki, a i dzisiaj jest kontynuowane przy
użyciu komputerów. Holenderski m atematyk Ludolph von
Ceulen (1539-1610) poświęcił dużą część swoich prac na obli­
czenie 7r. W roku 1596 ogłosił 10 cyfr 7r i na krótko przed
śmiercią udało mu się znaleźć 32, a nawet 35 cyfr, przez
ekstremalne wykorzystanie metody Archimedesa. Otóż wpi­
sywał i opisywał w okrąg wielokąty mające 2 62 £3 1 0 18 wierz­
chołków. O statnie trzy cyfry wyryto na jego grobie i dlatego
liczbę 7r nazywa się czasem ludolfiną.
W zór M achina na W roku 1 7 0 6 John M ac h in o d k ry ł
obliczanie 7r przedstaw ienie 7r ja k o granicy. Już
elegancki sposób u m o żliw iający
przedtem , w roku 1671, Gregory
o d krył, że pole pod krzyw ą 1 / ( 1 -f- x 2) od 0 do x wynosi arctgor.
R ozw inięcie arcusa tangensa w szereg
r3
a rc tg z = x
3
~,5
5
J1
7
=-
+ ■•■
/ r\ -ł \
(3 -7 )
było bezpośrednim w nioskiem w y n ikają cy m z tego fa k tu . P odsta­
w ia ją c x = 1, o trz y m u je m y ła tw y w zó r na 7 t/4 (zo b . rów nanie (3 .5 ) ).
N ies te ty szereg ten zbiega bardzo powoli i d lateg o nie je s t obecnie
stosowany. M a c h in o d k ry ł ład n y c h w y t i zm ie n ił szereg Gregora ta k ,
że po p raw ił zn acznie te m p o je g o zbieżności. W yp ro w ad zen ie tej po­
praw ki je s t łatw e, jeżeli u żyjem y tryg o n o m e tryc zn y ch równoważności
. ,■ _! m
tg (a ± p)
a ± tg /3
= tg
------------
1 T tg a l g (3
Niech (3 będzie je d n o zn a c zn ie w yzn aczo n ym kątem m niejszym niż
7 t/4 , ta k im że
ó.ó. osaczenie nowego prooiemu z
szron
kuku
Jeśli skorzystam y z powyższych równoważności tryg o n o m etryczn ych ,
dostaniem y
t c M 8 P
2 tg < i
-
1 - t g 2/3
»
1- i
-
5
12
oraz
tg 4/? =
2 tg 2/3
_
|
1 — t g 22/3 " 1 - ^
_ 120
“
119
O statn i w ynik pokazuje, że tg 4/3 « 1, i d lateg o 4/3 « 7 t/4 . T e ra z
m ożem y obliczyć tangens różnicy pom iędzy tym i dw om a ką ta m i
tg (4 /3
7 r\ _ t g 4/3
1 _
AJ
1 + tg 4/3
120 _
239
Innym i słowy,
7T
1
4/? — - = arctg
4
0 239
W y lic za ją c 7t/ 4, o trzy m u je m y końcowy w ynik
7T
1
1
— 4 arctg - - arctg
4
05
0 239
W odróżnieniu od wzoru G regory’ego, m usim y tu ta j obliczać wartości
dla dwóch szeregów, je d n a k to utru dnienie je s t nieistotne w porów ­
naniu z korzyściam i, ja k ie niesie fa k t, że szeregi te zb ieg ają znacznie
szybciej. Na podstaw ie idei M ach in a pow stało w iele w zoró w na 7r
w postaci sumy arcusów tangensów , a jed n ym z nich je s t w yrażenie
odkryte przez Gaussa (zo b . rów nanie (3 .6 ) ).
Po powstaniu rachunku różniczkowego w XVII w. od­ P rob lem y
kryto nowe i lepsze metody obliczania ir. Metody te używały z liczb am i...
rozwinięcia w szereg arcusa sinusa i arcusa tangensa. Najwy­
godniejszą do obliczeń za pomocą kartki i ołówka okazała się
metoda Johna Machina (1680-1752). W tabeli 3.3 przed­
stawiono kolejne wyniki. 13 Obliczenia zwykle trwały kilka
miesięcy. Oczywiście, nieuniknione były pomyłki. I tak, gdy
Vega policzył swoje 140 cyfr w 1794 r., odkrył błąd na 113
miejscu w wyniku Delaneya. 200 cyfr otrzymanych przez
Stassnitzky’ego i Dase’a nie zgadzało się natomiast z wyni13 Nasz opis oparty jest częściowo na książce A History of Pi, na­
pisanej przez Petra Beckmanna, wyd. 2, The Golem Press, Boulder
1971.
¿10
216
Przybliżenia
liczby 7r,
wykonane
odręcznie przy
użyciu szeregów
3 . Granice i samopodobieństwo
Rok
1700
1706
1717
1794
1824
1844
1847
1853
1855
1873
1945
Nazwisko
Sharp
Machin
Delaney
Vega
Rutherford
Strassnitzky i Dase
Clausen
Rutherford
Richter
Shanks
Ferguson
Liczba cyfr
72
100
127
140
208
200
248
440
500
707
620
Tabela 3.3: Częściowy wykaz światowych rekordów w oblicza­
niu liczby 7T od roku 1700 do momentu, kiedy zaczęto używać
komputerów
kami Rutherforda. Clausen pokazał, ze błąd krył się w obli­
czeniach Rutheforda. Również rezultat Shanksa był błędny
od 527 miejsca. Z tego grona Stassnitzky zasługuje na spe­
cjalną uwagę. Otóż obliczenia przeprowadzał Johann Mar­
tin Zacharias Dase (1824-1861), który miał cudowny dar
liczenia. Jego niezwykłe umiejętności obliczeniowe zostały
potwierdzone przez renomowanych matematyków. Wyko­
nywał on mnożenie dwóch 8 -cyfrowych liczb w 54 sekundy,
20-cyfrowych w 6 minut, a dwu 100-cyfrowych poniżej 9
godzin — przeprowadzając wszystkie te obliczenia w pa­
mięci! Ludzie w taki sposób utalentowani muszą mieć co
najmniej dwie niezwykłe umiejętności: muszą umieć szybko
wykonywać operacje arytmetyczne i jednocześnie mieć foto­
graficzną pamięć, zdolną utrwalić ogromną liczbę informacji.
W ydaje się jednak, że nie jest im potrzebna niezwykła inte­
ligencja, wręcz przeciwnie — mogłaby ona jedynie przeszka­
dzać. Dase nie stanowił w tym względzie wyjątku. Wszyscy,
którzy go znali, zgadzali się z opinią, że poza światem obli­
czeń i liczb był on raczej tępy. Gdy Dase miał 20 lat, Stas­
snitzky wyuczył go arcus tangensowego wzoru na ix podob­
nego do wzoru Machina i w dwa miesiące Dase znalazł 200
poprawnych cyfr. Na tym się nie skończyło. W trzy lata wy­
konał obliczenia logarytmów naturalnych dla pierwszego mi­
liona liczb całkowitych, z dokładnością do siódmego miejsca
po przecinku każda, i kontynuował pracę nad tablicą funkcji
hiperbolicznych. Zainteresował się nim Gauss i dzięki jego
rekomendacji Dase zaczął pracę nad znalezieniem dzielników
3.3. Osaczenie nowego problemu z kilku stron
217
pierwszych liczb pomiędzy 7 000 000 a 10 000 000. Pracę
tę sponsorowała Hamburska Akademia Nauk. Dase jednak
zmarł ukończywszy ją jedynie w połowie.
W roku 1885 F. Lindemannowi udało się udowodnić pod­ ... i kuracja
stawowe twierdzenie w dziedzinie liczb przestępnych i jed­ kw adraturą koła
nocześnie rozwiązać odwieczny problem: ir jest liczbą prze­
stępną14, a tym samym kwadratura koła jest niemożliwa.
Mimo to ludzie wciąż ponawiali próby znalezienia „rozwiąza­
nia” problemu kwadratury koła. Oto jeden z przykładów.
W roku 1897 Izba Reprezentantów stanu Indiana, USA, za­
twierdziła projekt ustawy „o wprowadzeniu nowej prawdy
matematycznej” , który podawał dwie wartości dla liczby 7r,
a więc 3, 2 i 4. Na szczęście senat Indiany odkładał rozpatry­
wanie tego prawa w nieskończoność.
W XX w. coraz trudniej było pobić rekord w oblicza­ T echnologiczne
niu 7r — do czasu, gdy pojawiły się komputery. Okazało p od ejście do tt
się, że stosunkowo łatwo jest tak zaprogramować kompu­
ter, by policzył, na przykład, wzór Machina do tysiąca cyfr.
I oczywiście zrobiono to. W tabeli 3.4 zapisano rekordy
ustanowione w tej fazie.
Do lat siedemdziesiątych obliczenia opierały się na arcus
tangensowych szeregach, których używali już przedkomputerowi pionierzy. Kompletną listę pierwszych 100 000 cyfr 7r
opublikowali Shanks i Wrench w roku 1962 roku . 15 W ostat­
niej części artykułu autorzy spekulują na tem at otrzyma­
nia miliona cyfr i piszą w podsumowaniu „Trzeba by mieć
komputer 10 0 razy szybszy, 10 0 razy bardziej niezawodny
i z 10 razy większą pamięcią. Nie istnieje jeszcze taka ma­
szyna. [...] W ciągu najbliższych 5-7 lat takie komputery [...]
niewątpliwie się pojawią. W tedy obliczenia 7r z dokładnością
do 1000 000 cyfr nie będą stanowiły trudności.” Autorzy
okazali się zbyt wielkimi optymistami; upłynęło jeszcze po­
nad 12 lat do czasu, gdy Jean Guilloud i Martine Bouyer
sprawdzili te milion cyfr.
Prosty zapis metody używającej, na przykład, wzoru
Gaussa (3.6) w połączeniu z rozwinięciem w szereg arcusa
14 Liczba x nazywa się algebraiczną, jeżeli jest pierwiastkiem pew­
nego wielomianu o współczynnikach wymiernych. Liczba przestępna to
liczba, która nie jest algebraiczna.
15 D. Shanks i J. W. Wrench, Jr., Calculation of 7r to 100,000 Deci­
mals, Math. Comput. 16, 77, 76-99 (1962) .
3 . Granice i samopodobieństwo
218
P rzyb liżen ia
liczby 7T za
p om ocą
k om puterów
Rok
1949
1945
1958
1958
1959
1961
1973
1983
1985
1986
1987
1989
Nazwisko
Reitwiesner
Nicholson et al.
Felton
Genuys
nieopublikowane
Shanks, Wrench
Guilloud, Bouyer
Kanada et al.
Gosper
Bailey
Kanada
Kanada
Komputer
ENIAC
NORC
Pegasus
IBM704
IBM704
IBM7090
CDC7600
Hitachi S-810
Symbolics
Cray2
SX 2
HITAC S-820/80
Liczba cyfr
2 037
3 089
10000
10 000
16167
100 000
10 0 0 000
16000 000
17000000
29300000
134 000 000
1073 740000
V
Tabela 3.4:
Światowe rekordy w obliczaniu 7r na kompute­
rze. Czasy potrzebne do obliczeń leżą w zakresie 5-30 godzin,
najkrótszy z nich to 13 minut (1945), najdłuższy zaś (100 godzin)
doprowadził do rekordu z 1989 r.
tangensa (3.7) stanowi wyzwanie dla każdego ambitnego pro­
gramisty. Jest to świetne ćwiczenie na kursie programistycz­
nym. Próbowaliśmy i my, i doszliśmy do 200 000 cyfr. 16
Niestety zadanie to okazało się trudniejsze, niż się w pierw­
szej chwili wydawało. W czasie pierwszego przebiegu jedynie
60 000 cyfr było poprawnych. Spowodowane to było za mało
dokładną kontrolą błędu obliczeń.
Jak daleko
Powstaje pytanie, jak wiele cyfr można w ogóle otrzymać?
m ożem y dojść? Algorytmy opierające się na rozwinięciach arcusa tangensa
m ają tę własność, że podwojenie liczby cyfr wymaga obli­
czeń czterokrotnie dłuższych. Obliczenia miliona cyfr, wy­
konane w roku 1973, zabrały około 23 godzin. Jeśli chcie­
libyśmy poprawić dokładność z miliona do, powiedzmy, 128
milionów cyfr, trzeba by siedmiokrotnie podwajać liczbę cyfr
(128 = 2 7). I następnie, jeśli chcielibyśmy przeprowadzić te
obliczenia na tym samym komputerze, na którym obliczenia
dla miliona cyfr trwały 23 godziny, to musielibyśmy siedem
razy zwiększać czterokrotnie ten czas, a więc obliczenia mu­
siałyby trwać około 43 lat... Choć komputery stają się coraz
szybsze, wyglądało na to, że postęp w tym zakresie zatrzyma
się wcześniej czy później. I tak zresztą, o ile możliwe wydaje
16 Program liczył się około 15 godzin na komputerze Macintosh FX,
ó/ó. Usaczenie nowego problemu z kilku stron
ziy
się osiągnięcie paru milionów cyfr, o tyle niemożliwe — setek
milionów. Dlatego rekord miliona cyfr zachował się przez 10
lat. Jednak okazało się, że został przygotowany grunt do
kolejnego śrubowania wyniku.
W roku 1976 nastąpił istotny przełom: odkryto algo­ J eszcze jed en
rytmy oparte na zbieżnych kwadratowo procedurach itera- przełom : nowe
cyjnych. Takie algorytmy odkryli niezależnie Brent i Sala- algorytm y
min .17 Oznacza to, że w każdym przebiegu iteracji liczba
prawidłowych cyfr podwajała się. Ostatnio bracia Borwein
wypracowali rodzinę metod jeszcze bardziej efektywnych . 18
Wszystkie te nowe algorytmy są bardziej efektywne od wy­
próbowanych metod posługujących się arcusem tangensem,
ale tylko dlatego, że wykorzystują nowe osiągnięcia w zu­
pełnie innej dziedzinie — w arytmetyce. Dodanie do siebie
dwóch n-cyfrowych liczb wymaga n operacji (trzeba dodać
n odpowiednich par cyfr). Jeżeli natomiast wykonujemy
mnożenie dwóch n-cyfrowych liczb wprost, to musimy właś­
ciwie wykonać n 2 operacji (trzeba pomnożyć każdą cyfrę
przez wszystkie inne i dodać). Tym samym, gdy liczba cyfr
n jest rzędu miliona lub więcej, różnica pomiędzy mnożeniem
i dodawaniem jest wielka. Dlatego też odkrycie, że złożoność
mnożenia jest efektywnie niewiele większa od złożoności do­
dawania jest wprost niewiarygodne: mnożenie może być wy­
konywane prawie tak szybko jak dodawanie ! 19 Kompute­
rowe implementacje tej metody wykorzystują pewne formy
szybkiej transformacji Fouriera. Połączenie nowych metod
opartych na sprzężeniu zwrotnym z szybkimi algorytmami
na mnożenie dużych liczb umożliwiło obliczenia n z dokład­
nością do milionów cyfr. W czasie pisania tej książki rekord
17 R. P. Brent, Fast multiple-precision evaluation of elementary func­
tions, J. Assoc. Comput. M ach. 23, 242-251 (1976). E. Salamin,
Computation of tv Using Arithmetic-Geometric Mean, Math. Comput.
30, 135, 565-570 (1976).
18 Zob. książkę J.M. Borweina i P. B. Borweina, Pi and the A G M —
A Study in Analytic Number Theory; Wiley, New York 1987.
19 Dokładniej, sposób, w jaki wymagania komputerów rosną wraz ze
wzrostem liczby cyfr czynników w mnożeniu, jest nie gorszy niż od­
powiedni (liniowy) wzrost czasu obliczeniowego dla dodawania długich
liczb. Zainteresowanego Czytelnika odsyłamy do przeglądowej książki
D.Knutha, The A rt o f Com puter Programming, t.2 , Sem inum erical A l­
gorithms, Addison Wesley, 1981, s. 278-299.
220
3. Granice i samopodobieństwo
wynosił miliard cyfr ,20 a istnieją duże szanse na otrzyma­
nie dwóch miliardów w najbliższej przyszłości.21 Oczywiście
pierwszy milion cyfr jest w takim samym stopniu nieprzy­
datny, jak i następne miliony.
Istnieją jednak dwie przyczyny tego wielkiego polowania
D w ie p rzyczyn y
szukania na cyfry. Pierwsza to przekonanie trwające od dawna, że
w artości i r poszczególne cyfry ir, jak i ich pary, trójki itd. m ają jedno­
stajny rozkład. W języku matem atyki oznacza to, że uważa
się 7r za liczbę normalną. Dzięki badaniom komputerowym
można znaleźć wskazówki potwierdzające to twierdzenie lub
mu zaprzeczające. Wiadomo już, że do 29,3 milionów cyfr,
które znalazł Bailey, wszystkie testy statystyczne wskazują
na to, że 7r jest normalne. To jednak jeszcze nie dowód.
Następną przyczyną wykonywania obliczeń 7r jest chęć efek­
tywnego testowania działania komputera. Niektóre fabryki
komputerów twierdzą, że wykonują tego typu testy .22 Na­
wet najmniejszy błąd w jakiejkolwiek operacji podczas obli­
czeń niechybnie spowoduje pojawienie się błędnych cyfr po­
cząwszy od jakiegoś miejsca, a tego typu błąd jest łatwy do
wychwycenia.
C zy 7r zaw iera
Ostatnie wysiłki przy obliczaniu 7 r z zastosowaniem za­
jak ieś wansowanych technik stanowiły chyba inspirację dla Carla
przesłanie? Sagana do napisania części powieści Contact ,23 w której prze­
prowadza on spekulacje na tem at ukrytego wzoru czy przes­
łania, jakie Bóg mógł umieścić w kolejnych cyfrach 7r.
W powieści superkomputer, po wielogodzinnych zmaganiach
z liczbami, dokonuje odkrycia: istnieje taki ciąg cyfr w 7r,
umieszczony gdzieś daleko w rozwinięciu, że jeśli przetwo-
20 W obliczaniu miliarda cyfr sukces odnieśli Yasumasa Kanada z uni­
wersytetu w Tokio i Gregory Chudnovsky z uniwersytetu Columbia
w Nowym Jorku. Ich wyniki są zgodne.
21 Aktualne techniki i algorytmy są przedstawione w: J.M. Borwein,
P. B. Borwein i D. H. Bailey, Ramanujan, modular equations, and
approximations to pi, or how to compute one billion digits of pi, Am.
M ath. Mon. 96, 201-219 (1989).
22 W artykule Shanks a i Wrencha z 1961 r. opisany jest przypadek
awarii komputera. W celu poprawienia błędu trzeba było uruchomić
program po raz drugi. Tak więc, przynajmniej do 30 lat temu, nie­
zawodność arytmetyki była problemem, który zaprzątał głowę nawet
szeregowego użytkownika.
23 Carl Sagan, K o n ta kt, Express Book, Bydgoszcz 1991.
3.3. Osaczenie nowego problemu z kilku stron
221
rżymy go na bity i przedstawimy jako prostokątny obraz, to
otrzymamy dobrze znaną figurę — okrąg. W zakończeniu
książki czytamy:
„W jakiejkolwiek galaktyce mieszkasz, jeśli tylko weź­
miesz obwód okręgu, podzielisz przez średnicę i będziesz mie­
rzył wystarczająco dokładnie, odkryjesz cud — następny
okrąg, narysowany w odległości wielu kilometrów od prze­
cinka dziesiętnego. Istnieją następne przesłania. Nieważne
jest, jak wyglądasz, z czego jesteś zrobiony, skąd pochodzisz.
Jeżeli tylko jesteś mieszkańcem tego świata i masz pewien
talent do matematyki, wcześniej czy później odkryjesz to.
To tam jest. Kryje się we wszystkim. Nie musisz opuszczać
swojej planety, by to znaleźć. W materiale, z jakiego jest
zrobiona materia, w naturze tej materii, tak jak w wielkich
dziełach sztuki jest tam, niewielkich rozmiarów, podpis arty­
sty. Ponad ludźmi, bogami i demonami [...] istnieje rozum,
który antydatuje wszechświat.”
Powróćmy do bardziej przyziemnego świata liczb. P a­
miętając, że pojęcie granicy jest bardzo przydatne do szu­
kania liczb niewymiernych, takich jak ir, e czy pierwiastki
kwadratowe, przy podejściu teoretycznym bardziej satysfak­
cjonująca byłaby bezpośrednia definicja tych liczb. Może
to być definicja uwikłana, podana w formie odpowiedniego
równania, które jednocześnie opisuje przybliżenie przez pro­
ces sprzężenia zwrotnego za pomocą iterowania pewnego
przekształcenia. Zajmijmy się tym tem atem w pozostałej
części niniejszego paragrafu.
Przypomnijmy sobie problem niewspółmierności boku y / 2 i niew spółi przekątnej kwadratu: stosunek długości przekątnej do boku m ie rn o ść
kwadratu nie jest stosunkiem żadnych dwóch liczb całkowi­
tych .24 Oznacza to, że y / 2 nie jest równe p/q dla żadnych
liczb całkowitych p i q. Nie mamy wątpliwości, że przekątna
kwadratu istnieje naprawdę, ale czy znaczy to, że y / 2 istnieje
jako liczba w jakimś sensie? Stanowiło to kiedyś ważne py­
tanie i chociaż brzmi dzisiaj naiwnie, nie było i nie jest try ­
wialnym problemem. Zastanówmy się, jak można przekonać
kogoś (o istnieniu takiej liczby). Nie możemy się spodziewać
pomocy od rozwinięcia dziesiętnego, które ciągnie się bez
końca w wydawałoby się całkowicie nieuporządkowany spo­
sób. Oto 10 0 pierwszych cyfr w rozwinięciu dziesiętnym y / 2 :
24 Patrz rozdz. 2, s. 176.
222
3. Granice i samopodobieństwo
V2 = 1,41421 35623 73095 04880 16887
24209 69807 85696 71875 37694
80731 76679 73799 07324 78462
10703 88503 87534 32764 15727...
Istnieje jednak inny sposób na rozwinięcie 'J7!.- Przedsta­
wimy je jako specjalny rodzaj granicy, co sprawi, że y/2
będzie wyglądał prawie tak naturalnie jak liczba całkowita.
Ta i kilka innych najpiękniejszych i tajemniczych granic od­
nosi się do łańcuchowego rozwinięcia ułamkowego.
U łam ki
Zacznijmy od zapisania, w wydawałoby się dziwny sposób,
łańcuchow e liczb wymiernych. Oto przykład:
57
1
= 3+
Przyjrzyjmy się krok po kroku, jak możemy otrzymać takie
przedstawienie:
57
17
„
6
1
—3 + ■
— — 3 + -TTf — 3 +
¥6
17
= 3 + ^ 4 - = 3+ —
2 + -f
2 +
6
5
1
+
16
1 2
4 — .
l + ±
1 ^
5
W ten właśnie sposób każdą liczbę wymierną można za­
pisać jako łańcuchowe rozwinięcie ułamkowe. Liczby wy­
mierne m ają skończone rozwinięcie (tzn. proces tworzenia
takiego rozwinięcia skończy się po pewnej skończonej liczbie
kroków). Nasz przykład możemy zapisać w skrócie
| | = [3,2,1,5],
Ten sam algorytm możemy zastosować do liczb niewymier­
nych. Jednak w tym przypadku algorytm nigdy się nie za­
trzyma. Liczby niewymierne m ają więc nieskończoną repre­
zentację ułamkową.
Zajmijmy się trochę ogólniejszą sytuacją, co pozwoli nam
Ł ańcuchow e
rozw inięcie jednak powrócić do y/2. Zacznijmy od równania
ułam kow e dla
x 2 + 2x — 1 = 0 .
V2
3.3. Osaczenie nowego problemu z kilku stron
Dodatni pierwiastek tego równania wynosi x — ^/2 — 1 < 1 .
Zauważmy, że x 2 + 2x — 1 = 0 można też zapisać jako x 2+
+ 2 x = 1 lub x (2 + x) = 1 , czy też
£
1
2
+ x
Jeśli zastąpimy x po prawej stronie przez ------- , to
2 + x
x =
2
+ x
i jeszcze raz dokonując tego samego podstawienia,
1
x
2
+ — i
i tak dalej. Istnieje zatem nieskończenie wiele powtórzeń
cyfry 2 w łańcuchowym rozwinięciu ułamkowym liczby \f2~~
—1 . Oznacza to, że \/2 ma następujące rozwinięcie:
x —1
^ ----------- = l + [2 , 2 , 2 , 2 ,...] .
2+ ó2 +
i =---2+
2+
Ta ciekawa równość wiąże \ / 2 z ciągiem liczbowym [1 , 2 , 2 , 2 ,
2 ...], złożonym z cyfr łańcuchowego rozwinięcia ułamkowego
\p l. Możemy zapisać \/2 = [1,2, 2,2, 2...] w tym znaczeniu,
że cyfry 1 , 2 , 2 , 2 ,... są umiejscowione w ułamku tak, jak wi­
dzieliśmy to powyżej. Możemy też powiedzieć, że
jest
granicą ciągu [1 ] = 1 , [1 , 2 ] = 1 ,5, [1 , 2 , 2 ] = 1 ,4, [1 , 2 , 2 , 2 ] =
1.416.... A zatem
ma bardzo regularne i cykliczne przed­
stawienie w łańcuchowym rozwinięciu ułamkowym, podczas
gdy jego rozwinięcie w układzie dziesiętnym wyglada na nie­
uporządkowane. W dodatku nigdy nie będzie ono cykliczne,
gdyż w przeciwnym przypadku \[2 byłoby liczbą wymierną.
223
224
3. Granice i samopodobieństwo
Łańcuchowe R ozum ow anie, któ re d o kład n iej przedstaw iliśm y dla
rozwinięcie -\-2x — 1, m o żem y te ra z p o w tó rzyć dla tro c h ę innego
ułamkowe dla
x 2 = ax + 1,
złotej średniej
rów nania x 2+
przypadku:
gdzie a je s t liczbą ca łko w itą. Po podzieleniu przez x i d w u kro tn ym
podstaw ien iu o trz y m u je m y
x —
cl
1
+ — — a -j-
x
1
a H—
1
X
i ta k dalej.
ułam kow e:
1
\ —a
a
^-----1
H----------- r.
r
a + x
D la te g o uzyskam y następujące łańcuchow e rozwinięcie
x = [a, a, a , ...].
Jeżeli d o ko n am y p od staw ien ia a — 1, to d o d a tn im pierw iastkiem
x 2 — x — 1 = 0 będzie złota średnia x = (1 + y/b)/2\ o trzy m a m y
z= ł^
= i + [ M , i > - ] = i + ------ V - •
1 +
1+
D la te g o te ż zło ta średnia ma najprostsze m ożliw e łańcuchow e roz­
w inięcie ułam kow e. P ierw ias tk i rów nań kw adratow ych o całkow itych
w spółczynnikach m ają łańcuchow e rozwinięcia ułam kow e, które od
pew nego miejsca są cykliczne, np. [2 ,2 , 2 , 3 , 2 , 3 , 2 , 3 , . . . ] czy [ 2 ,1 ,1 ,
4 , 1 , 1 , 4 , 1 , 1 , 4 , . . . ] . C h arakterystyczn ą cechą liczb w ym iernych je s t
to , że m ają skończone łańcuchow e rozw inięcia ułam kow e.
Podsumujmy najważniejsze kwestie w naszych rozważa­
C h arakterystyk a
przez rów nania niach dotyczących liczb niewymiernych. Jeżeli dysponowa­
libyśmy jedynie reprezentacją w postaci granicy, tak jak
w przypadku dziesiętnego rozwinięcia \ / 2 , nie czulibyśmy
się zadowoleni. Mamy na szczęście inne sposoby charaktery­
styki:
1.y/2 ma elementarne łańcuchowe rozwinięcie ułamkowe,
[1 , 2 , 2 , 2 ,...].
2 . V2 jest rozwiązaniem równania x 2 — 2 = 0 .
Możemy jeszcze wzbogacić nasze obserwacje.
funkcję
Rozważmy
225
3.3. Osaczenie nowego problemu z kilku stron
której punkty stałe x — N (x). Obliczmy:
Dlatego, że punkty stałe funkcji N (x ) to po prostu pier­
wiastki kwadratowe z 2 , możemy podstawić na naszej liście
w miejsce x 2 —2 = 0 następujące równanie:
Istnieje ważny powód, dla którego wolimy ten wzór określa­
jący punkt stały od x 2 — 2 = 0 : możemy użyć N (x ) do
zdefiniowania procesu sprzężenia zwrotnego,
x n+\ = N ( x n),
n = 0 ,1 ,2 ,...
(3.8)
Iteracje te zbiegają do pierwiastka z 2, jeżeli tylko wystar­
tujemy od dodatniej wartości początkowej xo > 0 . W pa­
ragrafie 1.3 przeprowadziliśmy dyskusję na ten tem at, a do­
datkową ilustrację przedstawia tabela 3.5 dla xq = 100.
n
0
1
2
3
4
5
6
7
8
9
10
11
Poprawne cyfry
100,0000000000000000
50,0100000000000000
25,0249960007998400
12,5524580467459030
6,3558946949311400
3,3352816092804338
1,9674655622311490
1,4920008896897231
1,4162413320389438
1,4142150140500532
1,4142135623738401
1,4142135623730950
0
0
0
0
0
0
1
2
3
6
13
wszystkie
Tabela 3.5: Przybliżanie pierwiastka kwadratowego z 2 przy
użyciu iterowania xn+i = (xn + 2/xn)/2. Początkowo zgadu­
jemy x0 = 100. Jak tylko wynik jest tego samego rzędu co
prawdziwa wartość 1,4142135623730950... iteracje stają się bardzo
szybko zbieżne, a liczba poprawnych cyfr dziesiętnych podwaja się
w każdym kroku
P rzyb liżan ie
pierw iastka
kw adratow ego
z dw óch
3. Granice i samopodobieństwo
226
Możemy zauważyć, że iteracje zbiegają bardzo szybko
do y/2, po kilku wstępnych krokach, które sprowadziły x n
do obszaru sąsiadującego z pierwiastkiem. Liczba popraw­
nych cyfr rozwinięcia z grubsza podwaja się w każdym kroku.
Oczywiście nie jest to przypadek. Metoda, którą się posłuży­
liśmy, jest najczęściej używana do poszukiwań wartości pier­
wiastków kwadratowych i nosi nazwę metody Newtona. Pod­
sumujmy nasze rozważania:
1.
Istnieje dobrze zdefiniowana procedura przybliżania war­
tości y/2 — proces sprzężenia zwrotnego
zbiegający szybko.
2 . Odpowiadające równanie ma punkt stały
które charakteryzuje granicę, \ / 2 .
Równanie na punkt stały możemy również powiązać z sy­
metriami. Spróbujmy na przykład obrócić sześciokąt fo­
remny o 60°, czy też znaleźć dla niego odbicie zwierciadlane.
Mówimy, że obiekt się nie zmieni pod wpływem jakiejś ope­
racji (przekształcenia), jeżeli po jej zastosowaniu otrzymamy
ten sam obiekt. Naszym celem będzie potraktowanie fraktali
w podobny sposób, w jaki poradziliśmy sobie z liczbami nie­
wymiernymi, tzn. zastosowanie prostych zasad dotyczących
granic, a związanych z równaniem punktu stałego, które cha­
rakteryzuje dany fraktal za pomocą pewnej własności niezmienniczości.
3 .4 . F r a k ta łe ja k o r o z w ią z a n ia ró w n a ń
Powróćmy do fraktali i sprawdźmy, czy możemy do nich za­
stosować metodę, której nauczyliśmy się przy zmaganiach
z pierwiastkiem kwadratowym z 2. Podstawową obserwacją
na tem at krzywej Kocha jest to, że krzywa ta jest granicą
pewnego procesu, która ma specjalne własności - i którą
3.4. Frakt ale jako rozwiązania równań
227
możemy scharakteryzować w podobny sposób, jak scharak­
teryzowaliśmy y/2 za pomocą pięknych łańcuchów rozwi­
nięcia ułamkowego. Ale czy istnieje ona naprawdę? Przypo­
mina to pytanie o istnienie liczb niewymiernych. W przy­
padku liczb niewymiernych spokój nasz opierał się na prze­
konaniu o słuszności pewnych związanych z nimi pojęć. Na
przykład naszym argumentem było to, że y/2 jest rozwiąza­
niem równania x 2 — 2 = 0 lub x = (x + 2/x)/2 . Podob­
nie, liczba 27r wyraża długość okręgu jednostkowego. Za­
uważmy, że żadna z tych liczb nie jest podana tu jako gra­
nica ciągu — i to zapewne pozwala nam łatwiej zaakcep­
tować ich istnienie! Założenie, że 7r mogłoby ciągle nie być
znane w matematyce, jeśli by nie było związane tak pięknie
z okręgiem, jest tylko spekulacją. Czy jednak Euler od­
kryłby, że 1 + 1/2 2 + 1/3 2 + 1/4 2 + ... daje nam bardzo
specyficzną liczbę (7t2 )/6, którą warto się zająć, jeśli 7r nie
wyrażałaby konkretnej wielkości?
Potrzebujemy więc dodatkowych danych do zaakcepto­
wania istnienia krzywej Kocha, jak również jej charaktery­
styki, opartej na innych pojęciach i zasadach. Jest to jedna
z podstawowych zasad w matematyce. Jeżeli jakiś obiekt
czy rezultat daje się zinterpretować z nowego punktu widze­
nia, matematycy uważają, że dokonali jakiegoś postępu —
i są zadowoleni.
Możemy więc zapytać, czy krzywa Kocha ma własności
niezmiennicze? Czy możemy znaleźć opis podobny do opisu
V2? Jeden rodzaj niezmienniczości jest oczywisty. Krzywa
Kocha ma oś symetrii. Nie jest to jednak własność charakte­
rystyczna jedynie dla krzywej Kocha. Ideałem byłoby zna­
lezienie przekształcenia, czy też przekształceń, które pozo­
stawiałyby krzywą Kocha nie zmienioną. Taki rodzaj prze­
kształcenia można uważać za pewien rodzaj symetrii. Przy­
pomnijmy dyskusję o samopodobieństwie krzywej Kocha,
jaką przeprowadziliśmy w paragrafie 3.2, ale teraz spróbujmy
to zrobić dokładniej i bardziej precyzyjnie. Na rysunku
3.15 przedstawiono przekształcenie podobieństwa dla krzy­
wej Kocha: najpierw zmniejszamy krzywą Kocha trzykrot­
nie, a następnie powielamy i wytwarzamy cztery kopie, które
sklejamy tak, jak pokazano na dole rysunku 3.15. Otrzymu­
jemy w ten sposób krzywą, która, choć wygląda jak oryginał,
składa się z czterech kopii.
C zy krzyw a
K ocha m a
w łasności
n iezm iennicze?
3 . Granice i samopodobieństwo
228
C ollage K ocha
R ysunek 3.15: Krzywa Kocha pozostaje niezmiennicza pod
działaniem przekształceń
... , wą
Przekształcenie
podobieństw a dla
krzywej K ocha
T a b e la 3 .6 zaw iera szczegóły przekształceń podobieństw a wi do wą
dla krzyw ej K o ch a, ta k ja k to pokazano na rysunku 3 .1 5 .
Liczba
k
1
2
3
4
Czynnik skali
s
1/3
1/3
1/3
1/3
Kąt obrotu
0
0°
60°
-60°
0°
Translacja
Tx
Ty
0
0
1/3
0
1 /2
V3/6
2/3
0
Tabela 3.6:
Przekształcenia podobieństwa dla collage’u Ko­
cha. Przekształcenia działają kolejno jako: jednokładność, obrót,
translacja (zob. paragraf 3.1)
3.4. Fraktale jako rozwiązania równań
229
Jeżeli w ykonam y podstaw ienie:
cos 60° = c o s(—60°) =
sin 60° = —sin (—60°) =
to o trzym am y jaw n e w zory przekształceń, ta k ie ja k podano w t a ­
beli 3.7.
Przekształcenie
wi(x,y)
w 2(x,y)
W3 ( x , y )
w 4 (x,y)
W spółrz. x
5
&
*
ix - & v
6 y
I r + ^3 y
6
6 y
b
W spółrz. y
+ i
+
'
_L
^
k
3
ir x + \y
I
2
+ \y +
b
Tabela 3.7:
Jawne w yrażenia na przekształcenia p od obieństw a
dla collage5!! krzywej K ocha
Operację tę, polegającą na dopasowywaniu przekształceń,
można opisać jako pojedyncze przekształcenie. Niech
k = 1,..., 4, będą czterema przekształceniami podobieństwa,
będącymi złożeniem zmniejszania w skali 1/3, z odpowiednią
zmianą położenia (obrót i przesunięcie), tak jak to przed­
stawiono na rysunku 3.15. Niech A będzie więc dowolną
figurą, a W (A) niech oznacza zbiór (sumę) wszystkich czte­
rech przekształconych kopii
W (A) = w\(A) U W2 (A) O ws(A) U wą (A).
(3.9)
Tak więc W jest przekształceniem figur lub dokładniej —
podzbiorów płaszczyzny na figury. Na rysunku 3.16 po­
kazano rezultat działania tego przekształcenia na dowolnej
figurze, na przykład na znaku NCTM. Jeżeli porównamy
obrazy przekształcenia otrzymane na rysunkach 3.15 i 3.16,
to zauważymy, że istnieje podstawowa różnica pomiędzy nimi.
W przypadku zastosowania W, danego równaniem (3.9), do
krzywej Kocha otrzymujemy z powrotem krzywą Kocha.
Jeżeli więc wprowadzimy formalne oznaczenie K na krzywą
Kocha, to otrzymujemy ważną równość
W( K) = K ,
wyznaczającą własność niezmienniczą (lub własność punktu
stałego), której właśnie szukaliśmy. Oznacza to, że jeżeli po-
C harakterystyka
za p om ocą
rów nania na
sam opod ob ień stw o
230
3. Granice i samopodobieństwo
R ysunek 3.16: Skrót NCTM nie jest niezmienniczy pod dzia­
łaniem W
stawimy problem znalezienia rozwiązania X równania
W ( X ) = X , to krzywa Kocha K jest tym rozwiązaniem. Co
więcej, równanie to opisuje samopodobieństwo K , ponieważ
K = w \(K ) U W2(K) U ws ( K) U wą (K)
oznacza, że K jest zbudowana z czterech egzemplarzy podob­
nych do siebie. Scharakteryzowaliśmy więc K przez jej włas­
ność samopodobieństwa. Jeżeli z kolei zastąpimy K po pra­
wej stronie równania zbiorem czterech kopii, to w oczywisty
sposób dojdziemy do wniosku, że K składa się z 16 kopii
siebie samej itd. Wrócimy jeszcze w tym paragrafie do tej
interpretacji samopodobieństwa.
Jeżeli zastosujemy to samo przekształcenie W do liter
NCTM (tzn. jeżeli X będzie oznaczało „NCTM”), to nie
uzyskamy ich z powrotem. Otrzymamy za to jakąś dziwną
figurę.
Doszliśmy do miejsca, w którym możemy postawić tezę,
J ed y n ie krzyw a
K och a jest że krzywa Kocha jest być może jedynym niezmiennikiem
n iezm ien n ik iem przekształcenia W. Stanowi to tezę ważnego twierdzenia,
W które będziemy omawiali w rozdziale 5. Przekształcenie w
rodzaju W nosi nazwę operatora Hutchinsona, od nazwi­
ska J. Hutchinsona25, który pierwszy badał własności takich
właśnie przekształceń.
25 J. Hutchinson, Fractals and self-similarity, Indiana Univ. J. Math.
3 0 , 7 1 3 -7 4 7 (198 1).
rraKtaie jaKo rozwiązania rownan
ZOJL
Dzięki scharakteryzowaniu krzywej Kocha jako punktu K rzyw a K ocha
stałego operatora Hutchinsona możemy przeprowadzić da­ jako granica
lej analogię między opisem tej krzywej a obliczaniem \ / 2
(zob. równanie (3.8)). Pozostało wykazanie, że iterowanie
operatora W, działającego na początkową konfigurację Aq,
prowadzi do powstania ciągu
A k+1 = W ( A k),
k = 0 , 1 , 2 ,...
zbiegającego do granicy, którą jest krzywa Kocha. Tak też
się dzieje, a geometryczna argumentacja na rysunku 3.17
sugeruje, że taki samopodobny obiekt istnieje.
O biekt
graniczny —
krzyw a K ocha
Rysunek 3.17: Zaczynając od dowolnego kształtu, prostokąta,
iteracje operatora Hutchinsona wytwarzają ciąg obrazów, które
zbiegają do krzywej Kocha
Podsumujmy.
1.
Istnieje dobrze zdefiniowana procedura przybliżenia krzy­
wej Kocha przez następujący proces sprzężenia zwrotnego:
A M = W ( A k),
fc = 0,1,2, ...
gdzie A q może być dowolną figurą początkową, a W ozna­
cza operator Hutchinsona
W{A) — w \(A ) U W2(A) U ^3(^4) U w±(A)
dla krzywej Kocha.
232
3. Granice i samopodobieństwo
2.
Odpowiadające jemu równanie na punkt stały,
A - W( A) ,
jednoznacznie charakteryzuje granicę, krzywą Kocha.
Jak możemy się przekonać, że to, co widzimy — że W
przekształca krzywą Kocha na krzywą Kocha — jest prawdą?
Czy możemy zaufać obrazkowi, czy nawet eksperymentowi
graficznemu? Otóż powinniśmy traktować to jedynie jako
przesłankę. Przecież mogłoby się zdarzyć, że niezauważalnie
mały szczegół mógłby różnić W ( K ) i K. Musimy zatem
kontynuować nasze rozważania i przekonać się, że ta ważna
własność samopodobieństwa istnieje naprawdę, a nie jest je­
dynie eksperymentalnie stworzonym artefaktem. To będzie
nasz następny cel. Zajmiemy się najpierw tą własnością na
dwóch prostszych przykładach: zbiorze Cantora i trójkącie
Sierpińskiego .26
K onstrukcja
zbioru C antora
R ysunek 3.18: Konstrukcja zbioru Cantora, używająca geome­
trycznego procesu sprzężenia zwrotnego
W rozdziale 2 wprowadziliśmy zbiór Cantora jako granicę
R ów n an ie dla
zbioru C antora geometrycznego procesu sprzężenia zwrotnego (zacznijmy od
odcinka jednostkowego, usuńmy zeń otwarty odcinek o dłu­
gości 1/3 o środku w 1/2, następnie usuńmy środkowe części
po podziale na trzy równe części pozostałych odcinków itd.).
Co więcej, był on opisany jako zbiór takich liczb pomiędzy 0
a 1 , w których rozwinięciu trójkowym nie występuje cyfra 1 .
Ta właśnie własność pozwoli nam na sprawdzenie, że zbiór
Cantora jest punktem stałym odpowiedniego operatora Hutchinsona W , danego przez dwa przekształcenia
26 Dyskusję matematyczną musimy odłożyć do rozdziału 5, gdzie
przyjrzymy się zbieżności obrazów i szczegółom charakteryzacji fraktali przez operatory Hutchinsona.
233
3A. Fraktale jako rozwiązania równań
^ i(^ )
W2 (®)
Zatem dla danego zbioru A otrzymujemy W (A) = u>i(A) U
^2(^4)’ Na rysunku 3.19 pokazano, jak przekształcenie to
działa na przedział jednostkowy.
P rzek ształcen ia
zbioru C antora
0
0
1/3
2/3
1
Rysunek 3.19: Przekształcenia podobieństwa dla zbioru Cantora
— w\ oraz u>2
Twierdzimy, że zbiór Cantora jest rozwiązaniem równania
W { X ) = X,
tzn. że zbiór Cantora jest niezmienniczy dla W i że
W( C) = c .
Już C antor opisał zbiór, nazw any później je g o im ieniem , u żyw ając
rozwinięcia trójkow ego liczb. P rzyp o m n ijm y, że każdą liczbę
0 <
x < 1 m ożem y rozw inąć w szereg
X — Cli * 3
"f- U 2 ' 3
^ ~h O 3 * 3
^ ~h CI4 * 3
^ -h ... ,
gdzie cyfry a*, należą do zbioru { 0 , 1 , 2 } . M o ż e m y zapisać w te d y x =
0 , a i a 2a 3..., tzn . w spółczynniki 01 , 112^ 3 , .. . są cyfram i rozw inięcia
trójkow ego. Z b ió r C antora dany je s t przez
C = {x: x = 0 , a i a 2a 3 ..., ak £ { 0 , 2 } } ,
tzn . są to w szystkie liczby, w których rozw inięciu tró jko w ym nie w y­
stępuje cyfra 1 . U żyw ając te j charakterystyki, m ożem y zyskać przeko­
nanie, że własność niezm ienniczości, która je s t charakterystyczna dla
sam opodobieństw a, w ystępuje i tu ta j. Po pierwsze, m usim y zro zu ­
Niezmienniczość
C ze względu na
W
3 . Granice i samopodobieństwo
234
m ieć, w ja k i sposób w\ i w 2 d z ia ła ją na liczbach trójkow ych; to
je d n a k ła tw o w yjaśnić: jeżeli x = 0 , a i a 2a 3 ..., to wi(x) = 0 , 0 a i a 2 ...
oraz W2 (x) = 0 , 2 a ! a 2 ...
D la te g o , jeżeli ajt G { 0 , 2 } , to cyfry
tró jk o w e liczb wi(x) i W2 (x) będą m iały tę sam ą własność, tzn .
Wk{C), k = 1 ,2 , je s t rów nież za w a rte w C . C zy je d n a k m ożem y
o trz y m a ć w ten sposób w szystkie p u n k ty Cl Jeżeli y G C , tzn.
y = 0 , a i a 2a 3 ... oraz
G { 0 , 2 } , istnieje ta k ie x G (7, że dokładnie
je d n o z przekształceń w * , k = 1 ,2 , będzie m iało własność w * ( a r ) = yW e ź m y po prostu x = 0, a 2a 3 ... Jeśli a i = 0, to w yb ieram y w\,
w p rzeciw nym przypadku w y b ie ra m y w 2 . O s ta te czn ie daje to nam
równość W(C) = C \
Niezmienniczość wyjaśnia samopodobieństwo. Zacznijmy
N iezm ien n iczość
i sam o­ od równości
p od ob ień stw o
C = w 1( C ) U w 2(C),
która mówi, że C składa się z dwóch takich samych kopii
siebie samego — pomniejszonych trzykrotnie. Otrzymujemy
zatem
C = wi ( wi ( C) U W2 (C)) U W2 {W\(C) U W2 {C))y
co prowadzi do
c
=
Wi ( wi ( C) ) UWi ( w2( C) ) UW2( w\ ( C) ) UW2( w2( C) ) ,
tzn. C składa się z czterech kopii siebie samego, pomniej­
szonych w skali 1/9, i tak dalej. Oznacza to, że możemy
odszukać coraz mniejsze części w (7, będące pomniejszonymi
kopiami C.
Przeanalizujmy teraz w podobny sposób trójkąt Sierpiń­
skiego. Zaczniemy znowu od jego opisu przy użyciu granicy,
tak jak zrobił to Sierpiński w 1916 r.
Zacznijmy od trójkąta. Może to być dowolny trójkąt,
Trójkąt
S ierpiń sk iego lecz z przyczyn, które za chwilę staną się jasne, weźmiemy
jako granica trójkąt prostokątny T, o dwóch bokach o długości 1. Na­
stępnie weźmy środki jego boków. W yznaczają one trójkąt
środkowy, który usuwamy. Pozostają nam więc trzy trójkąty
podobne i dla każdego z nich wyznaczamy środki jego boków,
usuwamy środkowe trójkąty; pozostaje nam dziewięć mniej­
szych trójkątów , i tak dalej (zob. rysunek 3.20).
Trójkąt Sierpińskiego również jest samopodobny. Aby
opisać tę cechę, wyobraźmy sobie, że leży on na płaszczyźnie
235
3.4. Fraktale jako rozwiązania równań
Trójkąt
Sierpińskiego
raz jeszcze
(0 . 1)
(0.0)
(1 .0)
Rysunek 3.20: Konstrukcja trójkąta Sierpińskiego jako granicy.
Pokazane są etapy od 0 do 3
w taki sposób, że jego wierzchołki znajdują się w punk­
tach (0,0), (1,0) i (0,1). Następnie wprowadźmy trzy prze­
kształcenia podobieństwa 10 1 , 102 , 103 . Każde z tych prze­
kształceń można przedstawić jako jednokładność o skali
1 / 2 , złożone z przesunięciem w taki sposób, że
w i( 0 , 0 ) = (0 , 0 ),
w2 ( 1 . 0 ) = ( 1 , 0 ),
U>3 (0 , 1 ) = (0 , 1 ).
Jeśli S oznacza trójkąt Sierpińskiego, to twierdzimy, że
S ~ w\(S) U W2 (5) U 103 (5 ).
(3.10)
Jeżeli więc wprowadzimy operator Hutchinsona
W (A) = w\ (A) U 102 (A) U ^ 3 (A),
gdzie A jest dowolną figurą na płaszczyźnie, to
W( S ) = 5,
tzn. trójkąt Sierpińskiego jest niezmienniczy pod działaniem
W, lub, że jest on rozwiązaniem równania W ( X ) = X.
N iezm ien n iczość
trójk ąta
Sierpińskiego
236
3. Granice i samopodobieństwo
Oznacza to również, że trójkąt Sierpińskiego można roz­
bić na 3, 9 lub 27 (ogólnie 3k) trójkątów, które są poO
Q
mniejszonymi kopiami całości w skali 1 / 2 , ( 1 / 2 ) lub ( 1 / 2 )
(ogólnie: ( l / 2 ) fe). Jeśli więc tylko udowodnimy poprawność
równania (3.10), to w pełni zrozumiemy samopodobieństwo
trójkąta Sierpińskiego.
Binarny opis K o n stru kcja g eo m etryczn a sugeruje, że 5 spełnia rów nanie S =
trójkąta Wi(S)Uw2(S)Uws{S)', m im o to w o lim y podać porządny dowód. P ro­
Sierpińskiego ces usuwania tró jk ą tó w pokazan y na rysunku 3 .2 0 je s t rów now ażny
i niezmienniczość system atyczn em u usuwaniu pew nych obszarów płaszczyzny. Jeżeli
S pod działaniem {x,y) je s t p u n ktem o nieujem nych w spółrzędnych oraz x + y < 1,
W to ( x , y ) je s t p u n ktem leżącym w e w n ą trz tró jk ą ta o w ierzchołkach
( 0 , 0 ) , ( 1 , 0 ) i ( 0 , 1 ) . Jeżeli w e źm iem y dow olny p u n kt (x , y), należący
do teg o tró jk ą ta , to m o żem y w następujący sposób sprawdzić, czy
należy on do tró jk ą ta Sierpińskiego.
Z a p is zm y dw ó jkow e rozw inięcie obu współrzędnych
x = 0, a ia 2a 3...,
V = 0, 616263- ,
gdzie ak e { 0 , 1 } ,
gdzie bk G { 0 , 1 } .
P u n k t (x,y) należy do tró jk ą ta Sierpińskiego w ted y i tylko wtedy,
gdy żadne dw ie o d p o w iad ając e sobie cyfry w rozw inięciu, ak i bk,
nie są rów nocześnie rów ne 1. O zn ac za to , że jeżeli ak = 1, to bk =
0 oraz o d w ro tn ie , jeśli bk = 1, to koniecznie ak = 0 i zachodzi
to dla w szystkich k = 1 , 2 , 3 , . . . O pis ten dokładnie w ypro w adzim y
w rozdziale 5, p a ra g ra f 5.3 .
P u n k t z nie należy do tró jk ą ta Sierpińskiego, jeżeli jeg o w spółrzęd­
ne x i y m a ją w rozw inięciu dw ó jko w ym ta k ą parę cyfr, że ak = 1
1 bk = 1. W y d a w a ło b y się, że pow stanie problem z pew nym i punk­
ta m i, ta k im i ja k na przykład x = ( 1 / 2 , 1 / 2 ) . Jest to punkt, który
n ie w ą tp liw ie należy do tró jk ą ta Sierpińskiego, chociaż w ydaw ałoby
się, że p o n iew aż je g o w spółrzędne są rów ne, więc w rozwinięciu x
i y istnieje para o d p o w iad ając yc h sobie cyfr ak i bk, które są obie
rów ne 1. Z a u w a żm y je d n a k , że 0 ,5 m a dwa rów nopraw ne rozwinięcia
dw ójkow e, je d n o 0 , 5 = 0 ,1 0 0 0 ..., a drugie 0, 5 = 0 ,0 1 1 1 ... Jeśli dla
w spółrzędnej x w y b ierzem y pierwsze, a dla y — drugie rozw inięcie,
to okazuje się, że p u n k t ten należy do 5 , zgodnie z charakterystyką
tró jk ą ta Sierpińskiego.
Posługując się binarną ch arakterystyką tró jk ą ta Sierpińskiego, m o­
żem y obecn ie w ykazać, że w zó r H utchinsona S = Wi(S) U W2 {S) U
ws(S) je s t popraw ny. W y s ta rc zy zrozum ieć, ja k w k działa na p un kt
(x , y) należący do S. D op racow anie szczegółów je s t tu żm udne, choć
237
3.4. Frakt ale jako rozwiązania równań
Przekształcenie
wi(x,y)
w2{x,y)
w3(x,y)
Współrz. x
0 , 0aia 2 a3...
0 , la ia 2 a3...
0 , 0aia 2 a3...
Współrz. y
0 , 0 &i&2&3...
0 , 0 fci&2&3...
0 , l&i&2&3...
Tabela 3.8: Jawne postacie przekształceń podobieństwa dla trój­
kąta Sierpińskiego. W tabeli tej punkt z = (x, y) jest podany jako
rozwinięcia x = 0 , a i a 2a 3 ... oraz y = 0 ,& i& 2&3 ***
jednocześnie podobne do trójko w eg o opisu zbioru C an tora z rozdziału
2. W tabeli 3 .8 obliczono trz y punkty, na które p u n kt (x,y) prze­
chodzi przy przekształceniach wi,W 2 i w 3 . Zauw ażm y, że p un kty
tró jk ą ta Sierpińskiego m ożna zgrupow ać w trz y zbiory, zależnie od
pierwszych cyfr rozw inięcia dw ójkow ego x i y. Pierw szy je s t złożony
z punktów , dla których ai = bi = 0, dla pun ktu drugiego a\ = 1
i bi — 0, a dla trzeciego a± = 0 i &i = 1. Istnieją trz y punkty, któ re są
zaw arte w dwóch takich kategoriach, a m ianow icie ( 1 / 2 , 0 ) , ( 0 , 1 / 2 )
i ( 1 / 2 , 1 / 2 ) . N ie stanow i to je d n a k przeszkody w w yciągnięciu na­
stępującego wniosku. G dy posłużym y się pow yższą ta b e lą , staje się
oczyw iste, że wi(S) je s t równy pierw szem u z tych zbiorów , w 2 ( 5 )
— drugiem u, a u>3 (S ) — trzeciem u . D la te g o te ż o trz y m u je m y
W(S)
= t u i( S ) U
w2(S)
U w 3 ( S ).
Zajmując się krzywą Kocha, zbiorem Cantora, czy trój­
kątem Sierpińskiego, stwierdziliśmy, że każdy z tych podsta­
wowych fraktali można otrzymać jako granicę pewnego pro­
cesu. Jednocześnie jednak dysponujemy ich charakterystyką
za pomocą punktu stałego operatora Hutchinsona, który jest
złożeniem odpowiednich przekształceń samopodobieństwa.
Daje nam to wiele. W pierwszym rzędzie wyjaśnia znaczenie
samopodobieństwa. Ale nie tylko — operator Hutchinsona
dostarcza nam alternatywnego sposobu opisu, przydatnego
przy omawianiu istnienia krzywej Kocha, zbioru Cantora,
czy trójkąta Sierpińskiego.
Możemy wykazać, że każdy z wprowadzonych wcześniej Jed n ozn aczn a
przez nas operatorów Hutchinsona wyznacza w sposób jed­ identyfikacja
noznaczny obiekt na płaszczyźnie (w przypadku krzywej Ko­ ob iek tów
cha czy trójkąta Sierpińskiego) i na prostej (zbiór Cantora),
który pozostawia nie zmieniony. Oznacza to, że jeżeli W
jest odpowiednim operatorem Hutchinsona, to rozwiązanie
równania W ( X ) = X będzie automatycznie krzywą Kocha,
238
3. Granice i samopodobieństwo
K afelkow anie
kw adratu
i trójk ąta
Rysunek 3.21: Rozbicie kwadratu na cztery mniejsze kwadraty
a trójkąta na dwa mniejsze trójkąty podobne
zbiorem Cantora lub trójkątem Sierpińskiego. Mamy za­
tem równanie charakterystyczne dla każdego z tych fraktali. Oczywiście równania te nie są jednoznaczne. Przy­
pomnijmy, że także y/2 można scharakteryzować na kilka
sposobów. To samo mamy tu taj. Jest to tem at dający in­
teresujące możliwości. Zajmiemy się nim w rozdziale 8 . Ist­
nieje również opis tradycyjnych obiektów geometrycznych
w terminach samopodobieństwa. Weźmy na przykład kwa­
drat lub trójkąt. Na rysunku 3.21 przedstawiono, w jaki
sposób obiekty te można podzielić na figury samopodobne.
Możemy zatem rozumieć fraktale, takie jak trójkąt Sierpiń­
skiego, jako należące do tej samej rodziny obiektów co tra­
dycyjne figury geometryczne. Są one rozwiązaniami równań
tego samego typu. Po przyjęciu takiego punktu widzenia
możemy traktować fraktale jako rozszerzenie tradycyjnej ge­
ometrii, tak samo, jak liczby niewymierne można postrzegać
jako rozszerzenie liczb wymiernych otrzymane za pomocą
rozwiązania odpowiednich równań.
Samopodobień­
stwo w szeregu
operatorów
Hutchinsona
Posługując się o p e ra to re m H utchinsona, m o żem y przeprow adzić ana­
logię z szeregam i g e o m etry czn ym i. Z a c z n ijm y od tró jk ą ta T obrysu
części p łatka śniegu K ocha (zo b . rysunek 3 .2 2 ).
Z a s to s u jm y te ra z o p e ra to r H utchinsona do T i d o d ajm y w yn ik do
T . W szeregu g e o m e try c zn y m o dp ow ied nio zaczęlibyśm y od liczby 1
i pierw szy krok polegałby na przeskalow aniu te j liczby o czynnik q
i następnie na do d an iu w yn iku . T u ta j po pierw szym kroku o trzy m u ­
je m y
T U
W( T) = T
U
Wi(T)
U
w2(T)
U
w3(T)
U
w4(T).
D o d aliś m y z a te m czte ry tró jk ą ty . W następnym kroku znow u d ziałam y
o p e ra to re m H u tch in so n a W na naszą konfigurację T U W(T) i o trzy ­
m u je m y w yn ik
T
U
W(T)
U
W 2(T).
239
3.5. Samopodobieństwo siatkowe
Rysunek 3.22: Konfiguracja początkowa (po lewej) i pierwsze
dwa kroki konstrukcji części płatka śniegu Kocha jako analogia do
szeregu geometrycznego
W 2(T) oznacza tu ta j p ow tórzo ne działanie W , tzn . W(W(T)); daje
to zbiór 16 tró jk ą tó w określonych przez
W i ( w i ( T ) ) , w 1(w 2(T)), w 1(w 3(T)),
w4(w3{T)), w 4(w 4(T)).
Po następnym kroku o trzy m u je m y
T
U
W(T)
U
W 2{T)
U
W 3(T).
Posługując się analogią do szeregu geom etrycznego, m ożem y naw et
zapisać obiekt będący granicą te j konstrukcji ja k o
oo
U w k (T i
fc= 0
gdzie przyjęliśm y um ow ę W°(T) = T .
3.5. S a m o p o d o b ie ń stw o siatk ow e:
u c h w y c e n ie g ra n ic y
Rozważaliśmy fraktale jako obiekty otrzymane w wyniku
przechodzenia do granicy i zauważyliśmy, że dopiero obiekt
graniczny (a nie żaden ze stanów pośrednich) ma cechę samopodobieństwa. Doszliśmy nawet do wniosku, że to właśnie
obiekt graniczny jest wyznaczony przez własności samopo-
240
3. Granice i samopodobieństwo
dobieństwa. Mimo że samopodobieństwo jest pojęciem intu­
icyjnie zrozumiałym, to jednak jego formalny opis jest bar­
dzo abstrakcyjny. Spróbujemy zatem obecnie znaleźć bar­
dziej poręczny sposób jego opisu. Zrobimy to przy użyciu
metody zwanej samopodobieństwem siatkowym.
Samopodobieństwo siatkowe nie wprowadza nowej wer­
sji czy modyfikacji pojęcia samopodobieństwa, a, jest tylko
metodą, która pozwala nam uchwycić własności samopo­
dobieństwa w obiekcie granicznym. Wyjaśnimy tę metodę,
posługując się przykładem trójkąta Sierpińskiego.
Pojedyncze kroki konstrukcji trójkąta Sierpińskiego (zob.
na przykład rysunek 3.20) wcale nie dają obiektów samopodobnych. W ystarczy porównać liczbę fragmentów w całości
i wycinku trójkąta. Z drugiej strony, jeśli przyjrzymy się
trójkątowi Sierpińskiego, jesteśmy skłonni uwierzyć, że wi­
dzimy obiekt samopodobny. W rzeczywistości tak nie jest.
Każda wizualizacja trójkąta Sierpińskiego, wydrukowana na
papierze, czy wyświetlona na ekranie komputera, jest tylko
skończonym przybliżeniem i dlatego nie jest samopodobna
w ścisłym znaczeniu tego pojęcia. Możemy też powiedzieć,
że to, co widzimy, jest samopodobne tylko z pewną dokład­
nością. Siatkowe samopodobieństwo opiera się na tej obser­
wacji. Przyglądamy się systematycznie obiektowi na różnych
stopniach rozdzielczości i staram y się zdefiniować samopodo­
bieństwo jedynie dla tej rozdzielczości.
P rzy b liżen ie na
p oziom ie pikseli
R ysunek 3.23:
Trójkąt Sierpińskiego
rozdzielczości. W yobraźm y sobie siatkę
ekranie kom putera. P ik sele jarzą się,
Sierpińskiego. Po prawej rysunek, który
bliżeniu
w przypadku skończonej
reprezentującą piksele na
jeżeli dotyka ich trójkąt
pow stałby przy tym przy­
Na rysunku 3.23 pokazany jest trójkąt Sierpińskiego na­
rysowany na niezbyt precyzyjnej siatce. Wyobraźmy sobie,
że siatka ta przedstawia piksele pewnego ekranu kompu-
Rycina 1 : Dendrytyczne kryształy stilbenu (używanego w niektórych detergentach)
w świetle spolaryzowanym (© Manfred Kage, Institut für wissenschaftliche Fotografie)
Rycina 2 : Układ krwio­
nośny nerki dziecka: żylny
i tętniczy, (© Manfred
Kage, Institut für wissen­
schaftliche Fotografie)
Rycina 3: Brokuły
romanesco
Rycina 4:
Wadi
Hadramaut, zdjęcie
z Gemini IV (© Dr.
Yerenberg KG)
Rycina 5: Brokuły
romanesco — po­
większenie
A
R ycina 6 : Fraktalna imitacja gór­
skiego krajobrazu i niebo Mandelbrota (© R.F. Voss)
R ycina 7: Fraktalna imitacja gór­
skiego krajobrazu (po lewej u góry),
negatyw krajobrazu, doliny zamie­
niono w góry, a góry w doliny (po
lewej na dole), negatyw krajobrazu
przedstawionego na rycinie 6 zamie­
niony w chmury (na dole po prawej)
(© R.F.Yoss)
Rycina 8 : Fraktalne wybrzeże pojawiające się na nowo po
(© R.F. Voss)
Rycina 9:
Fraktalne
kratery
na Księżycu
(©R.F. Voss)
6
powiększeniach
Rycina 10: „Punkt Zabriskiego” — fraktalna imitacja mirażu (© K. Musgrave,
C. Kolb, B.B. Mandelbrot)
R ycina
11
: „Karolina” — fraktalna imitacja (© K. Musgrave)
Rycina 13: „Ein kleines Nachtlicht” — fraktalna imitacja, obraz stereoskopowy. Należy
patrzeć na lewy obraz okiem prawym, a na prawy — lewym (© K. Musgrave, C. Kolb,
B.B. Mandelbrot)
Rycina 14: Swit nad Himalajami, zdjęcie z Gemini IV (© Dr. Yehrenberg KG)
3.5. Samopodobieństwo siatkowe
tera o (bardzo) małej rozdzielczości. Przedstawienie trójkąta
Sierpińskiego na tym ekranie polegałoby na rozświetleniu
tych pikseli, które miałyby jakieś punkty wspólne z „praw­
dziwym” trójkątem Sierpińskiego. Na rysunku po prawej
stronie przedstawiono to, co ujrzelibyśmy przy oglądaniu
trójkąta na ekranie o tak małej rozdzielczości. Nazywamy to
pikselowym (lub siatkowym) przybliżeniem odpowiadającym
danej siatce. Doprawdy trudno jest rozpoznać tu „praw­
dziwy” obiekt. W ten sposób jednak przedstawiliśmy zasadę
przybliżania i jest ona oczywiście taka sama dla dowolnego
przybliżenia o skończonej dokładności.
Przyjrzyjmy się teraz przybliżeniu pikselami skończonych
kroków konstrukcji trójkąta Sierpińskiego. Na rysunku 3.24
pokazano kolejne kroki konstrukcji narysowane na siatkach
różnych rozmiarów. Przybliżenie tych obiektów pikselami
zaznaczone jest kratkami zacieniowanymi na szaro. Spójrzmy
najpierw na siatkę o największych oczkach. Jeśli porównamy
przybliżenia różnych poziomów konstrukcji, to zauważymy,
że siatka ta jest za rzadka, by wykryć różnice pomiędzy nimi.
Wszystkie przybliżenia pikselami są takie same.
Przyjrzyjmy się teraz siatce średniej wielkości. Możemy
zauważyć, że siatka ta wykrywa różnicę pomiędzy krokiem
1 a 2 (jest jeden piksel, który je różni). Wszystkie następne
przybliżenia wykonane przy użyciu tej siatki wyglądają już
jednak tak samo. Przyjrzymy się na zakończenie siatce o naj­
mniejszych oczkach, a więc o największej rozdzielczości, za­
uważymy, że przestaje ona wykrywać różnice począwszy od
trzeciego kroku. Możemy więc sformułować ogólną regułę:
każda siatka przestaje dostrzegać różnice, ale na coraz to
wyższych etapach konstrukcji. Oznacza to właśnie, że pro­
ces ma granicę — proces ma granicę, jeśli siatka o dowolnej
rozdzielczości przestaje wyłapywać różnice.
Spróbujmy zatem przeprowadzić test na samopodobień- T estow anie
stwo w tym właśnie rozumieniu. Ścisłe samopodobieństwo sam opodotrókąta Sierpińskiego oznacza, że jeśli weźmiemy jeden z jego b ień stw a
podtrójkątów jako wycinek, np. lewy dolny główny trójkąt,
i jeśli powiększymy go dwukrotnie, to otrzymamy z powro­
tem trójkąt Sierpińskiego. Spójrzmy znowu na pośrednie
stadia konstrukcji i porównajmy cały trójkąt z jego dolną
lewą częścią powiększoną w skali 2 . Na rysunku 3.25 przed­
stawiono takie porównanie dla dość grubej siatki. Tak jak
przedtem, przybliżenie pikselami dla danej siatki zaznaczono
241
242
3. Granice i samopodobieństwo
krok 1
i
k
▼
krok 2
■
fi
f
I I
krok 3
m
i i f i n
nrrwWww'
r %mr
y mw
v m'f w
▼ ar
t ir
if m f m1
’
w
krok 4
t
t u
AA
AJ
ajl
ĄAA
.
K
iJ
A 'A
ar
▼m m ▼m w vmmv w\m
mr 'mr mw w w ir ir w '■
r ▼T T V V T f T l T V V T T T 1
R ysunek 3.24: Kroki konstrukcji trójkąta Sierpińskiego i ich
przybliżenie pikselowe. Zaobserwujmy, w jaki sposób poszczególne
siatki przestają wychwytywać różnice pomiędzy krokami kon­
strukcji
k w ad ratam i zacieniowanym i n a szaro. Jeżeli porów nam y
przybliżenie pikselam i w kroku 1 całej figury i jej części, nie
w idzim y różnicy. Tak sam o dla w szystkich kroków konstruk-
3.5. Samopodobieństwo siatkowe
243
P orów nanie
kroków
konstrukcji —
siatka o grubych
oczkach
Rysunek 3.25: Porównanie przybliżenia pikselowego kolejnych
kroków konstrukcji trójkąta Sierpińskiego (po lewej) i jego części
(po prawej). Dla tej rozdzielczości siatki są one identyczne
cji. Oznacza to, że dla tej siatki całość i powiększona część
całości są identyczne. Powtórzmy ten eksperyment z siatką
o większej rozdzielczości (zob. rysunek 3.26). Siatka ta wy­
chwytuje różnicę pomiędzy całą figurą a wycinkiem tylko
w kroku 1. Dla następnych kroków przybliżenie pikselami
części i całej figury jest znów takie samo. Przejdźmy do je­
szcze większej rozdzielczości (por. rysunek 3.27). Tak jak
244
P orów n an ie
kroków
konstrukcji —
siatka o średnich
oczkach
3. Granice i samopodobieństwo
cała figura
IV
fragment
J
Ü
I
M
M
II
R ysunek 3.26: Porównanie przybliżenia pikselowego kolejnych
kroków konstrukcji trójkąta Sierpińskiego (po lewej) i jego części
(po prawej). Siatka wychwytuje różnicę w kroku 1
dla poprzedniej siatki, możemy od razu wychwycić różnice
w przybliżeniu pikselami całej figury i jej części w kroku 1 .
Następnie siatka wychwytuje różnice w kroku 2. Również
i tu dla wszystkich następnych kroków konstrukcji przy­
bliżenie całej figury i powiększonej części są dokładnie takie
same.
Jaka jest tu taj ogólna zasada? Dla każdego skończonego
'¿Ąb
3.5. Samopodobieństwo siatkowe
P orów n an ie
kroków
konstrukcji
siatka
o drobnych
oczkach
Rysunek 3.27: Porównanie przybliżenia pikselowego kolejnych
kroków konstrukcji trójkąta Sierpińskiego (po lewej) i jego części
(po prawej). Siatka wychwytuje różnicę w krokach 1 i 2
kroku konstrukcji trójkąta Sierpińskiego cała figura i jej część
różnią się i ta różnica jest dostrzegalna dla przybliżenia pi­
kselami, jeśli tylko rozdzielczość jest dostatecznie duża.
Z drugiej jednak strony, niezależnie od tego, jak duża byłaby
rozdzielczość danej siatki, przestanie ona wychwytywać róż­
nice pomiędzy całą figurą i powiększonym wycinkiem w pew-
246
3. Granice i samopodobieństwo
nym kroku konstrukcji: wszystkie następne kroki konstrukcji
wydają się takie same.
Praktyczna
Dotarliśmy zatem do praktycznej charakterystyki ścisłego
charakterystyka samopodobieństwa. Możemy badać tę własność względem
samopodo- siatek, spośród których możemy wybierać tak drobne, jak
bieństwa tylko chcemy. Jeżeli obiekt jest samopodobny, to dla każdej
siatki i wystarczająco wysokiego kroku konstrukcji obiektu
granicznego przybliżenie pikselami całej figury i powiększo­
nego fragmentu będą się wydawały takie same.
Zakończmy ten paragraf uwagą na tem at wyboru siatek
w naszym przykładzie. Można zauważyć, że siatki i trójkąty
są bardzo dokładnie dopasowane. W szczególności powięk­
szenie fragmentu jest umieszczone na siatce dokładnie tak
samo jak cała figura. Wyobraźmy sobie, że byłoby inaczej
(tzn. że figura byłaby lekko przesunięta). Okazałoby się
wtedy, że zacieniowane byłyby inne kwadraty i przybliżenie
pikselami byłoby trochę inne. Wówczas nie moglibyśmy
porównać wprost przybliżenia pikselami całej figury i po­
większonego fragmentu. Oznacza to, że samopodobieństwo
siatkowe jest niesłychanie wrażliwe na odpowiedni (dopa­
sowany) wybór siatek. Jeżeli wszystkie wybory są odpo­
wiednie, to pojęcie siatkowego samopodobieństwa pozwoli
nam dobrze uchwycić to, co jest istotne w dochodzeniu do
granicy. Na ogół jednak (tzn. by w rzeczywistości zadecy­
dować, czy dana konstrukcja prowadzi do samopodobnych
obiektów, czy nie) nie jest ono przydatne w praktyce. W roz­
dziale 4 zajmiemy się sposobami wyznaczania wymiaru fraktalnego obiektu. Poznamy wtedy pokrewne pojęcie, wymiar
pudełkowy. Pojęcie to okaże się bardzo przydatne w praktyce
i nie powinno być mylone z samopodobieństwem siatkowym.
3 .6 . P r o g r a m n a z a k o ń c z e n ie ro zd zia łu :
krzyw a K o ch a
Krzywa Kocha była głównym przykładem używanym w tym
rozdziale. Program do tego rozdziału korzysta z rekursywnej definicji jej konstrukcji. Zaczynamy od linii prostej.
W pierwszym kroku konstrukcji zastępujemy tę linię czte­
rema odpowiednio położonymi odcinkami. W kroku dru­
gim każdy z odcinków znowu zastępujemy czterema nowymi
odcinkami itd. Dlatego w pierwszym kroku mamy 4 od­
cinki, w drugim 16 (potem 64, 256,1024, 4096,...). Po to, by
3.6. Program na zakończenie rozdziału
247
uniknąć przechowywania tych wszystkich odcinków (czy też
ich końców) w pamięci komputera, ustawiliśmy odpowiednio
rekursję tej procedury.
O b ra z n a
e k ra n ie —
k rz y w a K o c h a
Załóżmy, że chcemy otrzymać krok 2 konstrukcji. Czy
oznacza to, że najpierw należy znaleźć wszystkie 4 odcinki
z kroku 1, a potem wszystkie 16 odcinków z kroku 2? Na
szczęście tak nie jest. Przyjrzyjmy się pierwszemu krokowi
konstrukcji. Otóż 4 odcinki, które otrzymujemy z odcinka
początkowego, obliczone są kolejno: lewy, środkowy lewy,
środkowy prawy, prawy. Gdy tylko wyliczymy lewy odcinek,
stosujemy do niego znowu procedurę zastępowania i otrzy­
mujemy odcinki z kroku 2. Ponownie kolejno znajdujemy
końce odcinków i wtedy od razu rysujemy znalezione od­
cinki. Zaraz po wykonaniu 4 rysunków kroku 2, wracamy
i zajmujemy się następnym odcinkiem kroku 1 (środkowym
lewym). Procedura zastępowania stosowana jest teraz do
niego, i tak dalej. Zauważmy, że w ten sposób musimy
trzymać w pamięci najwyżej jeden odcinek z każdego kroku
rekursji.
Jak można to wykonać w BASIC-u? Przechowujemy
w pamięci odcinki dla każdego kroku, a właściwie współ­
rzędne ich końców: x lew y (), ylewyO dla współrzędnych
lewego końca i xprawy ( ) , yprawyO dla prawego. Wskaźnik
tych wektorów odpowiada krokowi rekursji. Zauważmy, że
dla wygody liczymy tu kroki rekursji w odwrotnej kolejnoś­
ci.27
Przyjrzyjmy się szczegółom programu. Zanim zacznie on
27 Oznacza to, że nie liczymy 1 ,2 ,3 ,..., a potem pokazujemy liczbę
kroków n, lecz zaczynamy od poziom = N w początkowej linii pro­
gramu, a potem odliczamy w odwrotnej kolejności, aż do poziom =
1 i pojawiają się znalezione odcinki.
248
Program w BASIC-u
Tytuł
3. Granice i samopodobieństwo
K rzyw a K ocha
Rekursywny program, który ją narysuje
DIM xlewy(10), xprawy(10), ylewy(lO), yprawy(lO)
INPUT ,,Poprawka dla wierzchołka (0.29):J,,r
poziom = 5
xlewy(poziom) = 30
xprawy(poziom) = 30+300
ylewy(poziom) = 190
yprawy(poziom) = 190
GOSUB 100
END
REM RYSOWANIE PROSTEJ NA NAJNIŻSZYM POZIOMIE REKURSJI
100 IF poziom > 1 GOTO 200
LINE (xlewy(1),ylewy(1)) - (xprawy(1),yprawy(1))
GOTO 300
REM ROZGAŁĘZIENIE NA NIZSZE POZIOMY
200 poziom = poziom - 1
REM LEWA GALAZ
xlewy(poziom) = xlewy(poziom+l)
ylewy(poziom) = ylewy(poziom+1)
xprawy(poziom) = .333*xprawy(poziom+1) + .667*xlewy(poziom+1)
yprawy(poziom) = .333*yprawy(poziom+1) + .667*ylewy(poziom+1)
GOSUB 100
REM ŚRODKOWA LEWA GALAZ
xlewy(poziom) = xprawy(poziom)
ylewy(poziom) = yprawy(poziom)
xprawy(poziom) = .5*xprawy(poziom+1) + .5*xlewy(poziom+1)
-r*(ylewy(poziom+1)-yprawy(poziom+1))
yprawy(poziom) = .5*yprawy(poziom+1) + .5*ylewy(poziom+1)
+r*(xlewy(poziom+1)-xprawy(poziom+1))
GOSUB 100
REM ŚRODKOWA PRAWA GALAZ
xlewy(poziom) = xprawy(poziom)
ylewy(poziom) - yprawy(poziom)
xprawy(poziom) = .667*xprawy(poziom+1) + .333*xlewy(poziom+1)
yprawy(poziom) = .667*yprawy(poziom+1) + .333*ylewy(poziom+1)
GOSUB 100
REM PRAWA GALAZ
xlewy(poziom) = xprawy(poziom)
ylewy(poziom) = yprawy(poziom)
xprawy(poziom) = xprawy(poziom+1)
yprawy(poziom) = yprawy(poziom+1)
GOSUB 100
poziom = poziom +1
300 RETURN
3.6. Program na zakończenie rozdziału
liczyć, pyta o param etr r. Na razie wprowadźmy 0, 29. Po­
czątkowy odcinek jest szeroki na 300 pikseli. Zauważmy,
że wybrany został poziom = 5. Zobaczymy zatem czwarty
krok konstrukcji (dla poziom = 1 dostalibyśmy linię po­
czątkową, tzn. krok 0). Można zmienić tę liczbę tak, by
otrzymać różne poziomy konstrukcji krzywej Kocha. Na­
stępnie zaczynamy rekursję (robimy skok do linii o etykiecie
100 ).
W części rekursji sprawdzamy najpierw, czy zachodzi
poziom = 1 . Jeżeli tak jest, to rysujemy odcinek. Jeżeli nie
— przygotowujemy następny poziom rekursji (w linii 2 0 0 )
i dzielimy obecny odcinek. Najpierw obliczamy lewą część
i przechodzimy na następny poziom rekursji (robi to polece­
nie G0SUB 100), następnie środkowy lewy, środkowy prawy
i w końcu prawy odcinek. Na końcu rekursji wracamy do
poprzedniego poziomu. Program zostanie zakończony, jeżeli
powrócimy do poziomu wyjściowego (END znajdujące się po
pierwszej komendzie G0SUB 100 kończy program).
Możemy również modyfikować kształt krzywej. Najpro­
stszy sposób, w jaki możemy to zrobić, to zmienić wprowa­
dzaną wartość param etru r (pomiędzy 0 a 1). Przesunie to
wierzchołek krzywej. Można także zmienić obliczenia wy­
konywane w programie. Czemuż by nie spróbować policzyć
krzywej 3/2? Wymaga to dołączenia obliczeń czterech do­
datkowych odcinków w części rekursyjnej programu.
249
R ozdział 4
D ługość, pole pow ierzchni
i wym iar: pom iar
złożoności i skalowanie
Natura wykazuje nie tyle wyższy stopień, co całkowicie inny
poziom złożoności. Różnorodność zakresów skal, występują­
cych w kształtach spotykanych w naturze, jest praktycznie
nieograniczona.
Benoit B. M andelbrot1
Geometria w naturalny sposób miała zawsze dwa uzupeł­
niające się aspekty odgrywające bardzo ważne role. Z jednej
strony zajmowano się analizą wzorów i kształtów, a z drugiej
strony ich mierzeniem. Niewspółmierność boku i przekątnej
kw adratu była początkowo problemem związanym z pomia­
rem długości, a później okazało się, że zagadnienie to prowa­
dzi wprost do abstrakcyjnego problemu dotyczącego wpro­
wadzania liczb niewymiernych. Próby znalezienia długości
obwodu okręgu doprowadziły do odkrycia tajemniczej liczby
7r. Pomiar obszaru pomiędzy krzywymi w dużym stopniu
pobudził rozwój rachunku różniczkowego.
1 Benoit B. Mandelbrot, The Fractal Geometry of Naturę, Freeman,
1982.
251
Dzisiaj pomiar długości, powierzchni i objętości — jak
się wydaje — nie stanowi trudności, co najwyżej natury
technicznej. W zasadzie uważa się, że problemy związane
z pomiarem zostały dawno rozwiązane. Przyzwyczailiśmy
się myśleć, że wszystko co widzimy można zmierzyć, jeżeli
tylko będziemy tego naprawdę chcieli. Może co najwyżej
trzeba będzie posłużyć się odpowiednimi tablicami. Mandelbrot przytacza ciekawy problem związany z pomiarem.
Dotyczy on długości granicy pomiędzy Portugalią a Hiszpa­
nią. Encyklopedia hiszpańska podaje 991 km, podczas gdy
portugalska — 1220 km. K tóra z tych wartości jest pra­
widłowa? Jeżeli będziemy szukali długości wybrzeża Wielkiej
Brytanii w różnych źródłach, to znowu natrafimy na różne
wartości. Będą one się wahały pomiędzy 7200 km a 8000
km .2 Dlaczego tak się dzieje? W ydaje się, że wpadliśmy
na trop jakiegoś ciekawego problemu. Właśnie to jest tema­
tem artykułu Mandelbrota z 1967 r .3 How long is the coast
of Britain? (Jak długie jest wybrzeże Wielkiej Brytanii?).
Jesteśmy skłonni przypisać występujące różnice w podawa­
nych wartościach brakoróbstwu lub niedokładnym pomia­
rom. Chyba każdy z nas widział, jak geodeci używają bar­
dzo precyzyjnych urządzeń optycznych do pomiarów gruntu.
Czy to możliwe, żeby się mylili? Kto popełnił tu błąd, a kto
ma rację? Jak możemy się o tym przekonać ? 4 i czy dzi­
siaj, kiedy pomiary dokonywane są przez satelity z wielką
dokładnością, możliwą dzięki używaniu laserów, mamy bar­
dziej wiarygodne wyniki? Okazuje się, że nie i nigdy takimi
nie będą.
2 Encyclopedia A m ericana, New York 1958, podaje: „Wielka Bry­
tania ma linię brzegową o długości 4650 mil = 7440 km.” Collier’s
Encyclopedia, London 1986, natomiast podaje: „Całkowita długość li­
nii brzegowej Wielkiej Brytanii wynosi trochę mniej niż 5000 mil —
8000 km.”
3 B. B. Mandelbrot, How long is the coast of Britain? Statistical
self-similarity and fractional dimension, Science 155, 636-638 (1967).
4 Podajemy kilka sposobów uzyskania odpowiedzi: (1) Zapytać
wszystkich ludzi w Wielkiej Brytanii i wziąć średnią z ich odpowiedzi.
(2) Sprawdzić w encyklopediach. (3) Wziąć bardzo dokładną mapę
Wielkiej Brytanii i zmierzyć długość wybrzeża przy użyciu cyrkla. (4)
Wziąć bardzo dokładną mapę Wielkiej Brytanii i cienką nitkę, dopa­
sować ją do wybrzeża a następnie zmierzyć długość nitki. (5) Samemu
przejść wzdłuż wybrzeża Wielkiej Brytanii i policzyć kroki.
252
4. Długość, pole powierzchni i wymiar
Spróbujemy pokazać, że w praktyce typowe wybrzeże nie
m a sensownej długości! Stwierdzenie to wydaje się niepraw­
dopodobne, a co najmniej sprzeczne z intuicją. Obiekt taki
jak wyspa, o dobrze określonej powierzchni, powinien mieć
określoną długość brzegu.
Jeżeli mierzymy obwód kolistego przedmiotu, to nie ot­
rzymamy 7TgJ, gdzie d jest jego średnicą, lecz tylko pewne
przybliżenie tej wartości. Niedokładność wyniku nie mar­
twi nas. Gdy potrzebujemy dokładniejszego wyniku, wtedy
po prostu zwiększamy dokładność pomiaru. Pomiar wy­
maga jednostek, takich jak kilometry, metry, centymetry
itd., będących wyidealizowanymi fragmentami linii prostej.
Obrys okręgu nie jest prostoliniowy, a mimo to nie ma w ąt­
pliwości co do tego, że obiekt ten ma określoną długość i że
możemy ją zmierzyć z dowolną precyzją. Wydawałoby się,
że obiekty, które mieszczą się na kartce papieru, powinny
mieć skończoną długość. Jest to jednak błędne przekona­
nie. Zwykle mierzymy długość jedynie wtedy, gdy wyniki
pomiaru m ają jakiś sens lub znaczenie praktyczne. Linie
wybrzeży (i fr akt ale) są w pewnym sensie wyjątkami od tej
reguły; istnieją też inne.
4 .1 . S p ir a le o sk o ń c z o n e j i n ie sk o ń c z o n e j
d łu g o ś c i
Jedną z klas obiektów, których długość wymyka się pomia­
rowi, są spirale. Spirale mieszczą się na kartce papieru i są
nieskończone. Czy jednak m ają one nieskończoną długość?
Jest to bardzo subtelny problem. W niektórych przypadkach
odpowiedź jest twierdząca, a w innych nie.
Spirale od wieków fascynowały matematyków. Archimedes (287-212 p.n.e.) napisał trak tat o spiralach, a jedna
z nich została nawet nazwana jego imieniem. Spirala Archimedesa jest dobrym modelem rowka na płycie gramofo­
nowej lub krawędzi zwiniętego dywanu. Cechą charaktery­
styczną spirali Archimedesa jest to, że odległość pomiędzy
zwojami jest wszędzie taka sama. Matematyczny model ta ­
kiej spirali jest łatwy do opisania, jeżeli tylko przejdziemy do
współrzędnych biegunowych: punkt na płaszczyźnie będzie
wtedy wyznaczony przez dwie liczby (r, </>), gdzie r jest od-
4.1. Spirale o skończonej i nieskończonej długości
253
W sp ółrzęd n e
biegunow e
Rysunek 4.1: Współrzędne biegunowe punktu, którego współ­
rzędnymi kartezjańskimi są (x,y), to (r, <fi), gdzie r = \ / x 2 + y2
jest odległością od początku układu współrzędnych (promieniem
wodzącym), a <fijest kątem między r i dodatnią półosią x. A zatem
x = r cos (fi i y —r sin (fi
Spirala
A rch im ed esa
Rysunek 4.2: Spirala Archimedesa. Posuwając się wzdłuż spi­
rali krokami o stałym kącie środkowym a, dostajemy ciąg aryt­
metyczny promieni wodzących: r i , r 2 ,...
ległością od środka układu współrzędnych (promieniem wo­
dzącym), a (fi jest kątem pomiędzy promieniem a dodatnią
półosią x, mierzonym w radianach, tzn. 0 < (fi < 2rr.
Przy tym opisie spirala Archimedesa (widziana ze swo­
jego środka) może być wyznaczona przez równanie
r = q4>,
gdzie (fi jest dowolną liczbą nieujemną. W szczególności (fi =
2n oznacza jeden obrót, (fi = 47T dwa obroty itd. Rysowanie
254
4. Długość, pole powierzchni i wymiar
Rysunek 4.3: Spirala logarytmiczna. Posuwając się wzdłuż spi­
rali krokami o stałym kącie środkowym a, dostajemy ciąg geome­
tryczny promieni wodzących: r i , r 2 , ...
spirali zaczynamy od jej środka. W czasie gdy <p wykona
jeden pełny obrót (tzn. wzrośnie o 27r), promień wzrośnie
o 2irq — stałą odległość pomiędzy kolejnymi zwojami.
Jeżeli podstawimy za r logarytm naturalny lnr, to otrzy­
mamy wyrażenie na spiralę logarytmiczną: ln r = q<f>, lub
równoważnie
r == eQi^.
Jeżeli q > 0 i (j> rośnie bez ograniczeń, to spirala dąży
do nieskończoności. Jeżeli q = 0, to otrzymamy okrąg.
Jeżeli zaś q < 0, to otrzymamy spiralę, która zwija się do
środka układu współrzędnych, w miarę jak <ft dąży do nie­
skończoności. Istnieją związki pomiędzy tą spiralą a sze­
regiem geometrycznym oraz fraktalami. Jest ona w pew­
nym sensie samopodobna, co stanowiło inspirację zarówno
dla matematyków, ludzi nauki, jak i artystów.
Wielki matematyk szwajcarski Jacob Bernoulli (16541705) poświęcił spirali logarytmicznej trak tat zatytułowany
Spira Mirabilis ( Cudowna spirala). Był pod tak wielkim
wrażeniem jej samopodobieństwa, że chciał, żeby napis Ba­
dem Mutata Resurgo (niezależnie od zmian — przekrój ten
sam) został wyryty na jego grobie, który znajduje się w ka­
tedrze w Bazylei.
4.1. Spirale o skończonej i nieskończonej długości
255
Spirala czy nie
spirala?
Rysunek 4.4: „Spirala” Nicholasa Wade’a. Reprodukcja za
zgodą artysty. Przedrukowane z: Nicholas Wade, The Art and
Science of Visual Illusions, Routledge & Kegan Paul, London 1982
A oto sposób, w ja k i spirala Archim edesa zw iązan a je s t z szeregiem
arytm etycznym : w y b ieram y dow olny k ą t, pow iedzm y a, oraz punkty
na spirali, których prom ienie w od zące m ają długości
... a ko­
lejne kąty m iędzy nim i są równe a . O k azu je się, że ciąg r\ je s t w te d y
ciągiem arytm etyczn ym , tzn . różnica pom iędzy kolejnym i w y ra zam i
jest stała. O znacza to, że
—r 2 = r2 — r\ i ta k dalej. Rzeczywiście,
jeżeli ri = a 0 i ? gdzie a je s t pew ną stałą, to r<i = a(<f>i + a) oraz
7*3 = a(<f)i + 2 a ). A za te m r2 = (r*i + t*3 )/2 , czyli każdy prom ień
je s t średnią arytm etyczn ą prom ieni z nim sąsiadujących.
Jeżeli zastąp im y średnią arytm etyczn ą r 2 — (ri + r^)/2 średnią
geom etryczną r 2 = y/riri, to o trz y m a m y inną klasyczną spiralę,
słynną spiralę logarytm iczną. P rzy jrzy jm y się tem u bliżej. Podnosząc
do kw adratu rów nanie na średnią geom etryczną, o trz y m u je m y r\ —
r i r 3, lub rów now ażnie
r\
r2
r2
r3
Spirale, średnia
arytmetyczna
i średnia
geometryczna
256
4. Długość, pole powierzchni i wymiar
Jeżeli z lo g a ry tm u je m y obie strony, to o trz y m a m y
ln 7*3 — ln 7*2 — ln r2 — ln 7*1,
O zn ac za to , że lo g a ry tm y kolejnych prom ieni tw o rzą ciąg a rytm e­
ty c z n y S tą d d o s ta jem y ln r — q<p, w z ó r na spiralę logarytm iczną.
P ro m ien ie r* spirali lo g arytm iczn ej tw o rzą ciąg geom etryczny.
K olejne ilo razy
n _T2 _ r 3 _T4 _
r2
r3
7*4 7*5
d a ją nam stałą , p o w ied zm y a. M o ż e m y za te m zapisać, dla dow olnego
w skaźnika n ,
rn
rn+ 1
= a
oraz
_
n+1
ija
_ r w_ i _
a
a 2
_
an
S am op od ob ień Jaką to niezwykłą własność podziwiał Bernoulli? Za­
stw o spirali uważył on, że jednokładne przekształcanie spirali względem
logarytm iczn ej jej środka daje ten sam efekt co obracanie spirali o pewien
kąt. Rzeczywiście, jeżeli obracamy spiralę logarytmiczną
r = eq<^ o pewien kąt xp zgodnie z ruchem wskazówek ze­
gara, to otrzymujemy nową spiralę
r — r((j>) = eq^ ^ \
Ponieważ
e q(4>+i>) _
e q<t>e Qip^
obrót o ip jest tym samym, co jednokładność ze współczyn­
nikiem s — eq^ .
Jaka jest więc długość spirali? Przyjrzyjmy się spirali,
której konstrukcja powoduje, że obliczenia są łatwe. Co cie­
kawsze, będziemy mieli w tym przypadku do czynienia z no­
wym przykładem geometrycznego sprzężenia zwrotnego.
Zajmijmy się budową nieskończonego wielokąta. Naj­
K on stru k cja
spiral pierw wybierzmy malejący ciąg a\, a 2 , a 3 , ... liczb dodatnich.
w ielokąt nych Niech ai będzie długością odcinka początkowego. Konstruk­
cja przebiega w następujący sposób: narysujmy a\ pionowo
257
4.1. Spirale o skończonej i nieskończonej długości
Spirala
w ielok ątn a
fl2
11
a -2
ac5
al
*5
*3
4
1\
*3
Rysunek
4 .5 : Pierw sze kroki konstrukcji spirali w ielokątnej
z dołu do góry. Na końcu skręćmy w prawo i znów narysujmy
a\ (od lewej do prawej). Przedłużmy ten odcinek o <2 2 , a na­
stępnie znów wykonajmy skręt w prawo i znów powtórzmy
odcinek długości a 2 (od góry do dołu). Na końcu dodajmy
odcinek długości <23 . Postępujmy tak dalej, posługując się
tą samą zasadą. Na rysunku 4.5 pokazane są pierwsze kroki
takiej konstrukcji.
Jaka jest długość otrzymanej spirali wielokątnej? Każdy
z odcinków a p o ja w ia się podczas jej konstrukcji dwukrot­
nie, dlatego też długość spirali jest dwa razy większa od
sumy wszystkich a^, tzn. jest równa 2 (ai + <22 + (Z3 + ...).
Wybierzmy teraz pewne szczególne wartości dla a*. Niech q
będzie dowolną liczbą dodatnią. Jeżeli weźmiemy
= qk~1,
to całkowita długość będzie równa 2
^ — sumie sze­
regu geometrycznego. Jeżeli q < 1, to graniczna długość 5
wynosi 2 / ( 1 — q). Dlatego też taka spirala wielokątna ma
skończoną długość.
Jeżelibyśmy jednak wzięli a*. — l / k , to otrzymamy sze­
reg, o którym wiadomo, że nie ma granicy .6 Oznacza to,
że odpowiadająca mu spirala wielokątna jest nieskończenie
długa, mimo że mieści się na ograniczonym obszarze! Na ry5 Przypomnijmy, że granicą szeregu geometrycznego 1 4- q + q 2 +
q3 + g4 + ■*■jest 1/(1 - q), o ile tylko \q\ < l.
6 Suma 1 + 1/2 + 1/3 + 1/4 H
jest nieskończona (zob. przypis na
stronie 200).
Spirala
o nieskończonej
d łu gości na
ograniczonym
obszarze
258
4. Długość, pole powierzchni i wymiar
Skończona
i nieskończona
spirala
w ielok ątn a
R ysunek 4.6: Skończona i nieskończona spirala wielokątna.
Dla spirali po lewej stronie
= l / k (czyli jej długość jest nie­
skończona). Dla spirali po stronie prawej mamy
—i?*1' 1, gdzie
q = 0,95, czyli jest wartością trochę mniejszą od jedynki (tzn.
spirala ma skończoną długość)
Gładka spirala
w ielok ątn a
R ysunek 4.7: Konstrukcja gładkiej spirali wielokątnej
sunku 4.6 pokazano oba przypadki. Czy możemy zobaczyć,
która z tych spiral jest nieskończona, a która skończona?
Powyższa konstrukcja spirali wielokątnej może być po­
mocna przy konstrukcji spirali gładkiej. Zauważmy, że wie­
lokąty były budowane z kątów prostych, o ramionach jedna­
kowej długości równej a Każdy z nich obejmuje dokładnie
ćwiartkę okręgu o promieniu a&. Odpowiednie połączenie
tych fragmentów daje gładką spiralę.
Jaka jest długość tej gładkiej spirali? Ponieważ długości
promieni kolejnych okręgów wynoszą a&, długości odpowie­
dnich łuków okręgów wynoszą Sk = 27ra*;/4 = (7r / 2 )afc.
259
4.1. Spirale o skończonej i nieskończonej długości
Otrzymujemy zatem
oo
oc
długość = '¿T sk = g
afc>
k=l
k= 1
która jest skończona dla a^
(jeśli q < 1 ) i nie­
skończona w przypadku a = 1/fc. Na rysunku 4.8 pokazano
obie spirale.
Spirala gładka
nieskończona
i spirala gładka
skończona
Rysunek 4.8: Konstrukcję gładkiej spirali z rysunku 4.7 zasto­
sowano do spiral wielokątnych z rysunku 4.6: a* = 1/fc (po lewej)
oraz dk = i*“ 1, przy q = 0,95 (po prawej). I znów spirala po lewej
stronie ma długość nieskończoną, podczas gdy spirala po prawej
stronie ma długość skończoną
I znowu jest zadziwiające, jak niewiele nasza intuicja
może nam pomóc w „zobaczeniu” , która z tych spiral ma
skończoną, a która nieskończoną długość. Innymi słowy fakt,
że krzywa mieści się na kartce nic nam nie mówi o tym, czy
jej długość jest skończona czy też nie. Fraktale dodają nowy
wymiar temu problemowi.
Jeżeli zastosujem y konstrukcję spirali w ielo k ątn ej z
= l/gk \
gdzie g = (1 + \ / 5 ) / 2 je s t zło tą średnią, to o trz y m a m y słynną zło tą
spiralę. M o żem y obliczyć je j długość:
- i T = _ 2 ^ = 22 = 3 +
1- -
9
V 5i
g- 1
*
W ykorzystaliśm y tu ta j fa k t, że g spełnia rów nanie g2 — g — 1 = 0
(czyli g - 1 = l/g).
Z ło tą spiralę m ożna rów nież o trzym a ć w w yniku innej ciekawej
konstrukcji. Z a c zn ijm y od prostokąta o bokach a i i a\ +
gdzie
a\ = 1 i d 2 — l / g (tz n . a\/o,<i = g). P ro sto k ąt m ożem y rozbić na:
kw adrat o boku 0,2 i m niejszy p rostokąt o bokach
i « 3 , i ta k dalej.
Złota spirala
260
4. Długośćj pole powierzchni i wymiar
(zo b . rysunek 4 .9 ). Zau w ażm y, że zachodzi
52 =
Jds_ =
a3
Ol
- a2
=y 9 _ I =
1
- l/g
= 9 .
l/g
W przypadku ogólnym m a m y a ^ /a fc + i = <7, lub rów now ażnie a& =
l / g k _ 1 . D ługość w pisanej gładkiej spirali jes t równa ~g2 — f ( 3 +
\/5).
4 .2 . P o m ia r k r z y w y c h fra k ta ln y c h i p raw a
p o tę g o w e
Obliczenia długości różnego rodzaju spiral — skończonych
albo nieskończonych — opierają się na odpowiednich wzo­
rach matematycznych. Wykazanie, że krzywa Kocha i ob­
rzeże płatka śniegu Kocha m ają nieskończoną długość (zro­
biliśmy to w rozdziale 2 ) opierało się na precyzyjnym opi­
sie konstrukcji tych fraktali. Obie te metody na obliczanie
długości zawodzą, gdy zajmiemy się fraktalami występują­
cymi w naturze, jak np. liniami brzegowymi. Nie istnieje
wzór, który by opisywał wybrzeże Wielkiej Brytanii, jak
również nie istnieje określony proces konstrukcji wybrzeża.
Kształt wyspy jest z jednej strony rezultatem niezliczonych
lat aktywności tektonicznej Ziemi, a z drugiej — wciąż pos­
tępującej erozji i powstawania osadów. Jedynym sposobem
poznania długości wybrzeża jest jej pomiar. W praktyce
4. z.
romiar Krzywycn iraKtamycn i prawa potęgowe
zoi
mierzymy wybrzeże na mapie Wielkiej Brytanii, a nie w na­
turze. Bierzemy cyrkiel i rozstawiamy go na daną szerokość.
Na przykład dla mapy w skali 1:1000 000 i rozstawienia cyr­
kla równego 5 cm odpowiednia odległość w naturze wynosi
5 000000 cm, czyli 50 km. Następnie uważnie odmierzamy
cyrklem długość wybrzeża, licząc kroki cyrkla. Na rysunku
4.10 przedstawione jest wielokątne przybliżenie wybrzeża
Wielkiej Brytanii. Wierzchołki wielokąta z założenia znaj­
dują się na wybrzeżu, a jego boki m ają stałą długość i od­
powiadają danemu rozstawieniu cyrkla. Przeprowadziliśmy
takie pomiary dla czterech różnych rozstawień cyrkla . 7
R ozstaw ienie cyrkla
km
500
100
54
17
D ługość
km
2600
3800
5770
8640
P om iar długości
linii brzegow ej
W ielkiej
B rytan ii
Tabela 4,1:
D ługość w ybrzeża W ielkiej B rytanii, zm ierzona na
podstaw ie map o różnych podziałkach i dla różnego rozstaw ienia
cyrkla
Ten pracochłonny eksperyment dostarcza nam niespo­
dzianek. Przy mniejszym rozstawieniu cyrkla wielokąt jest
lepiej dopasowany do linii wybrzeża i — niespodziewanie
— otrzymujemy większy wynik. W szczególności wzdłuż
wybrzeża Szkocji znajduje się duża liczba zatoczek różnej
wielkości. Podczas gdy dla jednego rozstawienia cyrkla mniej­
sze z nich nie są jeszcze brane pod uwagę, to już dla na­
stępnego, mniejszego, liczą się, a zatoczki jeszcze mniejsze
nie są wychwytywane przez to rozstawienie itd.
M niejsze
rozstaw ien ie
cyrkla daje
w iększe w artości
Porównajmy to zjawisko z doświadczalnym pomiarem M ierzen ie
długości okręgu. Weźmy okrąg o średnicy 1000 km, tak że okręgu
jego długość będzie tego samego rzędu wielkości co wybrzeże
Wielkiej Brytanii. Nie musimy przechodzić przez proces
zliczania cyrklem kroków dookoła okręgu. Skorzystamy za
to z klasycznej metody Archimedesa, dzięki której możemy
7 W: H.-O. Peitgen, H. Jürgens, D. Saupe, C. Zahlten, F r a c ta ls
— A n A n i m a t e d D i s c u s s i o n , Video film, Freeman, New York 1990.
Ukazał się on także w języku niemieckim jako F r a k ta le in F i l m e n u n d
G e s p r ä c h e n , Spektrum der Wissenschaften Videothek, Heidelberg 1990.
4, Długość, pole powierzchni i wymiar
262
R ysunek 4.10: Przybliżanie wybrzeża Wielkiej Brytanii za po­
mocą wielokątów
P om iar okręgu
Liczba boków
6
12
24
48
96
192
Rozstawienie cyrkla
km
500,00
258,82
130,53
65,40
32,72
16,36
Długość
km
3000
3106
3133
3139
3141
3141
Tabela 4.2: Przybliżanie obwodu okręgu o promieniu 500 km,
przy użyciu wpisanych wielokątów foremnych. Dane w tabelce
otrzymano przy użyciu wzoru Archimedesa, s. 208
przewidzieć, jaki będzie wynik tego pomiaru (zob. s. 208
i tabela 4.2). Dla porównania wyników zaznaczymy pomiary
na wykresie. Ponieważ jednak rozstawienia cyrkla różnią
się znacznie i przyjmują wartości znajdujące się w zakresie
od kilku do kilkuset kilometrów, więc wykonanie wykresu
długości jako funkcji rozstawienia cyrkla jest trudne. W ta­
kich sytuacjach posługujemy się zazwyczaj wykresem loga-
4.z. r o m ia r K rzy w y cn ira K ia m y c n i p ra w a pozęgow e
zoo
rytmów tych wartości. Na osi poziomej odkładamy logarytm
odwrotności rozstawienia cyrkla (1/rozstawienie). Bierzemy
tutaj logarytmy o podstawie 1 0 , nie jest to jednak istotne.
Musimy też wprowadzić jednostki długości u i rozstawienia
cyrkla s. Przyjmijmy tu taj jednostki:
u = 0,951 ~ 1000 km,
s = 1~
km.
10 0 0
Oznacza to, że s — 0,1 odpowiada s ~ 100 km itd. Co
więcej, chcielibyśmy interpretować l / s jako miarą dokład­
ności pomiaru. Jeżeli sje st małe, to l / s jest duże. Nasz wy­
kres logarytmiczny będzie wskazywał, jak całkowita długość
(log(u)) zmienia się wraz ze wzrostem dokładności pomiaru
(log(l/s)). Na rysunku 4.11 pokazano wynik pomiarów dla
wybrzeża Wielkiej Brytanii.
log(w)
4,0
-3,8
W yk res
logarytm iczn y
dla w ybrzeża
W ielkiej
B rytan ii
i dla okręgu
3,6
-3,4
i
log(l/j) -2,7
r
-2,3
i
-1,9
-1,5
r
T-----1---7*7*-1,1
Rysunek 4.11: Wykres logarytmiczny wyników pomiarów dłu­
gości linii brzegowej Wielkiej Brytanii i okręgu o promieniu 1000
km. u — długość w jednostkach 100 km, s — ustawienie cyrkla
w jednostkach 1000 km. Jako wskaźnika dokładności pomiaru
używamy log(l/s) zamiast log(s)
Możemy zaobserwować ciekawe zjawisko. Punkty na na­ D opasow yw anie
szym wykresie znajdują się z grubsza na liniach prostych. linii prostej do
Jednym z zagadnienień statystyki matematycznej jest pro­ zbioru punktów
blem zdefiniowania linii prostej tak, by najlepiej pasowała
do punktów na wykresie'. Oczywiście nie możemy się spo­
dziewać, że przy tego typu pomiarach punkty wypadną dok-
264
4. Długość, pole powierzchni i wymiar
ładnie na prostej. Możemy jednak zminimalizować odchyle­
nie tej prostej od naszego zbioru punktów. Prowadzi to do
szeroko stosowanej metody najmniejszych kwadratów. W na­
szym przypadku dla okręgu otrzymamy prostą poziomą,
a dla wybrzeża Wielkiej Brytanii — prostą o nachyleniu
(współczynniku kierunkowym) d « 0, 3.
Przypuśćmy, że chcemy na podstawie tych danych prze­
widzieć rezultat przy przejściu do większej precyzji pomiaru,
tzn. gdy użyjemy mniejszego rozstawienia cyrkla s. W tym
celu przedłużamy proste w prawo. Dla okręgu przy takim
postępowaniu rezultat prawie się nie zmieni, ponieważ prosta
mu odpowiadająca jest pozioma. Oznacza to, że okrąg ma
skończoną długość. Jednak dla wybrzeża w miarę zmniej­
szania rozstawienia cyrkla długość ta będzie wzrastała.
Oznaczmy przez b rzędną punktu przecięcia prostej, przy­
bliżającej nasz zbiór punktów z osią pionową. A zatem i) jest
równe logarytmowi długości, zmierzonej cyrklem o rozsta­
wieniu 5 = 1 , odpowiadającym 1000 km. Związek pomiędzy
u a rozstawieniem s może być wyrażony przez 8
logii = dlog - + 6 .
s
(4.1)
Równanie (4.1) określa, w jaki sposób zmienia się długość
w zależności od rozstawienia cyrkla, jeżeli założymy, że wy­
kres logarytmów pomiarów tworzy linię prostą. W tym przy­
padku dwie stałe, d i £>, charakteryzują prawo wzrostu. Na­
chylenie prostej, d, jest bardzo ważne przy określaniu wy­
miaru fraktalnego mierzonego obiektu. Zajmiemy się tym
w następnym paragrafie.
P raw a potęgowe
N ie chcielibyśm y za k ła d a ć , że C zy te ln ik sp o tk ał się ju ż z w ykresam i
lo g a ry tm iczn ym i. W y ja ś n ijm y więc, na czym one polegają. W e źm y
ja k ie ś dane eksp erym en ta ln e z fizyki. A by badać sw obodny spadek
ciał, m o żem y upuszczać ja k iś przed m io t z różnych poziom ów w y­
sokiej w ieży czy budynku (oczyw iście przy zachow aniu koniecznej
o strożn ości). P rzy użyciu stopera m ożem y m ierzyć czas potrzebny
8 Przypomnijmy, że linię prostą we współrzędnych x i y można
zapisać jako y = dx + b, gdzie d jest jej współczynnikiem kierunko­
wym (nachyleniem), a b — rzędną punktu przecięcia tej prostej z osią
y . W szczególności dla dowolnej pary punktów (x \ , y \ ) oraz (£ 2 , 2/2 ),
leżących na tej prostej, d = ( 2/2 — y i ) / ( x 2 — £ 1 ).
4,2. Pomiar krzywych fraktalnych i prawa potęgowe
przedm iotow i na dotarcie do Z iem i. Jeżeli przyjm iem y, że różnice
pom iędzy kolejnym i poziom am i wynoszą 4 m etry, to d o staniem y na­
stępującą tab elę w yników .
W ysokość
m
4
8
12
16
20
24
28
32
h
Czas spadania
s
0,9
1,3
1,6
1,8
2,0
2,2
2,4
2,6
t
lo g /i
lo g i
0,60
0,90
1,08
1,20
1,30
1,38
1,45
1,51
- 0 ,0 5
0,11
0,20
0,26
0,30
0,34
0,38
0,41
Tabela 4.3:
Czas spadania a w ysokość spadku sw obodnego.
O statnie dwie kolum ny zawierają logarytm y danych (o p o d sta ­
wie 10). Dane wyjściowe i dane logarytm iczne przedstaw iono na
rysunku 4.12
Na rysunku 4 .1 2 dane te przedstaw iono graficznie. O czyw iście
zaznaczone punkty nie leżą na linii prostej (krzyw a u g ó ry). D lateg o
zw iązek pom iędzy wysokością a czasem spadania nie je s t liniowy. W y ­
kres logarytm ów tych sam ych danych eksperym entalnych w skazuje na
istnienie prawa, rządzącego zw iązkiem pom iędzy wysokością a cza­
sem spadania. Relacja ta w yraża się prawem potęgowym następującej
postaci:
t
— chd,
(4-2)
Prawo tego typu nazyw a się prawem potęgow ym , gdyż t zm ienia się
tak, ja k gdyby było potęgą h. Pow staje problem spraw dzenia te j hi­
potezy oraz w yznaczenia wartości stałych c i d, Na p o c zą te k załóżm y,
że równanie (4 .2 ) jest praw dziw e. Z lo g a ry tm u jm y obie je g o strony
przy podstaw ie9 10. O trz y m a m y
log t = dlog
h+
log c.
Innym i słowy, jeżeli będziem y zaznaczać na w ykresie wartości lo g i
oraz lo g h zam iast t i h, to pow inniśm y o trzy m a ć linię prostą o na­
chyleniu d, przecinającą oś pionową w punkcie o rzędnej b = lo g c ,
czyli c = 10b, T a k pow stał w ykres na rysunku 4 .1 2 u dołu.
A zatem jeżeli pom iary na w ykresie lo g arytm iczn ym leżą w za­
sadzie na linii prostej, to ma sens poszukiw anie prawa potęgow ego,
rządzącego zw iązkiem pom iędzy zm ien n ym i. Co więcej, z w ykresu lo9 Możemy oczywiście użyć logarytmów o dowolnej podstawie.
266
4. Długość, pole powierzchni i wymiar
log (t)
R ysunek 4.12: Dane z tabeli 4.3 zaznaczone na wykresie po­
kazują zależność między czasem spadania a wysokością. U góry
dane przedstawiono w jednostkach liniowych, czego wynikiem jest
krzywa przypominająca parabolę. U dołu mamy wykres logaryt­
miczny, narysowany na podstawie tych samych danych. Wydaje
się, że punkty leżą na linii prostej
g a ry tm iczn eg o m o żem y o d c zy ta ć potęg ę d — nachylenie otrzym an ej
prostej. W naszym p rzykład zie rysujem y linię prostą na w ykresie log a ry tm ó w i o d c z y tu je m y je j nachylenie d oraz w artość rzędnej punktu
je j przecięcia z osią pionową:
d = 0,48,
logc = —0,33.
A z a te m
będzie
c=
i o - 0 ’33 i praw em potęgow ym w yzn aczo n ym z pom iarów
t = 0,47/i0,48.
(4 .3 )
267
4.2. Pomiar krzywych fraktalnych i prawa potęgowe
M o żem y przy okazji zauw ażyć, że zgadza się ono z praw am i ruchu
N ew ton a, które m ów i, że odległość przebyta przez spadające ciało
je s t wprost proporcjonalna do kw ad ratu czasu spadania. D okładniej
*
- 1*
gdzie g w 9 ,8 1 m /s 2 je s t stałą g raw itac ji. R o zw iązu ją c to rów nanie
ze względu na
o trz y m u je m y
i = ^ U o , 4 5 2 / i 0’5,
co jest bliskie naszego re zu lta tu em pirycznego z rów nania (4 .3 ).
Wiek
Wzrost ciała
w latach
0
1
2
3
5
10
20
25
30
40
cm
Wielkość
głowy
cm
Logarytm
wzrostu
ciała
Logarytm
wielkości
głowy
50
70
79
86
99
127
151
167
169
169
11
15
17
18
19
21
22
23
23
23
1,70
1,85
1,90
1 ,9 3
2 ,0 0
2 ,1 0
2 ,1 8
2 ,2 2
2 ,2 3
2 ,2 3
1 ,0 4
1,1 8
1,23
1,2 6
1,28
1,32
1 ,3 4
1,3 6
1,3 6
1 ,3 6
D ane w iążące
w ielkość głow y
ze w zrostem
ciała
Tabela 4.4: Wzrost i wielkość ciała danej osoby. Po prawej
logarytmy tych samych danych
Kiedy zajm ow aliśm y się w zrostem alo m etryczn ym w rozdziale 3, na­
potkaliśm y ciekawy przykład prawa potęgow ego. P rzyp o m n ijm y, że
porów nyw aliśm y wielkość głow y w okresie rozw oju człow ieka od nie­
m owlęcia do dziecka, a potem dalej do dorosłego. Zauw ażyliśm y, że
istnieją dw ie fazy. Jedna do w ieku trzech lat, a druga do zakończenia
procesu w zrostu. U ży w a ją c podejścia stosującego prawa potęgow e
i wykresy logarytm iczne, spróbujem y znaleźć prawo potęgow e dla
w zrostu w fazie alo m etryczn ej. W ty m celu jeszcze raz za jm ijm y
się analizą danych z tab e li 3 .1 i rozszerzm y je o o d p o w iad ając e im
logarytm y (zob. tab ela 4 .4 ).
Prawo potęgowe
dla wzrostu
alometrycznego
4. Długość, połe powierzchni i wymiar
268
Wykres
zależności
wielkości głowy
od wzrostu ciała
log(rozmiar głowy)
Rysunek 4.13: Wykres logarytmiczny zależności wielkości głowy
od wzrostu ciała
W y k re s na rysunku 4 .1 3 p o tw ierd za istnienie dw óch stadiów w zra­
stania m ierzon ej osoby. M o ż e m y znaleźć dw ie różne proste pasujące
do naszych danych. P ierw sza o dp ow iad a okresowi do trzech lat,
a druga pozostałym d a n ym . N achylenie pierwszej prostej je s t w przy­
bliżeniu rów ne jed e n . O d p o w iad a to jed n ako w em u tem pu w zro ­
stu w ielkości głow y i wysokości. T e dw ie wielkości są więc propor­
cjonalne; w zro s t ta k i n a zy w am y izo m e tryc zn y m . D ruga prosta ma
o w iele m niejsze nachylenie, około 1 /3 . O trz y m u je m y prawo potęgowe
m ów iące, że w ielkość głow y pow inna być proporcjonalna do pierw ia­
stka trzecieg o stopnia z wysokości ciała. Lub — przedstaw iając to
o d w ro tn ie — o trzy m u je m y , że wysokość zm ienia się ja k trzecia potęga
w ielkości głow y
w ysokość ciała
oc
(w ielkość g łow y) .
C iało rośnie o w iele szybciej niż głowa; m ó w im y w ięc o wzroście alom e try c zn y m . O czyw iście nasze rozw ażania nie są pow ażnym i w yni­
kam i nauko w ym i. P o m ia ry d o tyczyły jed n ej tylko osoby, i to w dużych
odstępach czasu. Co w ięcej, osoba ta urodziła się w X IX w . D la ­
te g o te ż przedstaw ione tu prawo w zrostu praw dopodobnie nie jest
ani dokładn e, ani typow e.
P o d su m u jm y nasze ro zw ażan ia. Jeżeli x i y , dane eksperym en­
ta ln e , p rzy jm u ją w artości o różnych rzędach wielkości, to m ożna
się spodziew ać, że są one zw ią za n e pew nym prawem potęgow ym
w y ra ża ją c y m y ja k o fu n kc ję zm iennej x. Spraw dzenie ta k ie j hipotezy
polega na naniesieniu na w ykres lo g a ry tm ó w po m iaró w i sprawdze­
niu, czy pu n kty te u k ła d a ją się w zd łu ż linii prostej. Jeżeli ta k jes t,
to m o żem y o d c zy ta ć potęg ę w ystępującą w praw ie potęgow ym ja k o
nachylenie te j prostej.
269
4.2. Pomiar krzywych fraktalnych i prawa potęgowe
Rysunek 4.11 potwierdza przypuszczenie, że istnieje pra­
wo potęgowe (tzn. że równanie (4.1) jest prawdziwe). Mo­
żemy więc wyciągnąć wniosek, że (u
długość, s — rozsta­
wienie cyrkla)
u=
•
(4.4)
Dla wybrzeża Wielkiej Brytanii dostalibyśmy w takim razie
d & 0,3. Wynik tej analizy graficznej sugeruje, że zmie­
rzona długość wybrzeża u rośnie wprost proporcjonalnie do
wzrostu dokładności l / s podniesionej do potęgi 0,3
1
Omówimy teraz różne aspekty związku (4.4), Natych­ M apy o coraz
miastową jego konsekwencją jest to, że długość rośnie do w iększej liczbie
nieskończoności jak l / s d, jeśli tylko s —> 0. Czy jednak rze­ szczegółów
czywiście możemy dążyć z rozstawieniem cyrkla s do zera?
Możemy to zrobić, musimy jednak zachować pewną ostroż­
ność. Jeżeli pozwolimy rozstawieniu cyrkla zmniejszać się do
zera, nie zmieniając przy tym używanej mapy Wielkiej Bry­
tanii, to prawo (4.4) przestanie obowiązywać, ze względu na
skończoną rozdzielczość mapy. W tym przypadku mierzona
długość będzie dążyła do pewnej granicy. Prawo potęgowe
i konsekwencje z niego płynące są prawdziwe jedynie w przy­
padku, gdy posługujemy się zmniejszającymi się rozstawie­
niami cyrkla, jednocześnie używając map o coraz większej
liczbie szczegółów. Oznacza to, że prawo potęgowe charakte­
ryzuje złożoność wybrzeża Wielkiej Brytanii w pewnym za­
kresie skal, opisując, jak szybko wzrasta długość, jeżeli mie­
rzymy ją z coraz większą precyzją. W pewnym momencie ta ­
kie pomiary przestaną mieć sens, ponieważ skończą nam się
mapy i będziemy musieli zacząć mierzyć wybrzeże w naturze
i borykać się z problemami dotyczącymi rozpoznania, gdzie
się kończy, a gdzie zaczyna linia wybrzeża, kiedy przeprowa­
dzać pomiary (w czasie przypływu czy odpływu), co począć
z deltami rzek itd. Zadanie stanie się absurdalne. Mimo
to możemy powiedzieć, że praktycznie wybrzeżu Wielkiej
Brytanii nie możemy przypisać skończonej długości. Jedyną
informacją, jaką dysponujemy, jest to, że jego długość zacho­
wuje się zgodnie z powyższym prawem potęgowym w pew­
nym zakresie skal pomiaru i że to zachowanie jest dla niego
charakterystyczne.
270
4. Długość, pole powierzchni i wymiar
C h arakterys­
Co rozumiemy przez określenie „charakterystyczne”? Ro­
ty czn e prawa zumiemy przez to, że liczby związane z prawem potęgowym
p otęgow e najprawdopodobniej będą się różniły, jeśli będziemy porówny­
wać wybrzeże Wielkiej Brytanii z wybrzeżem Norwegii czy
Kalifornii. Będzie to również prawdą, jeżeli przeprowadzimy
podobny eksperyment z granicami państw, na przykład z gra­
nicą pomiędzy Portugalią a Hiszpanią. Możemy teraz także
zrozumieć, dlaczego encyklopedia portugalska podała więk­
szą długość niż hiszpańska. Ponieważ Portugalia jest o wiele
mniejsza od Hiszpanii, wydaje się prawdopodobne, że mapa,
jakiej używano w Portugalii do pomiaru długości wspólnej
granicy miała o wiele więcej szczegółów — była w o wiele
mniejszej skali — niż ta użyta w Hiszpanii.
Podobne rozumowanie tłumaczy różnice w wynikach po­
miarów 10 wybrzeża Wielkiej Brytanii.
P om iary granicy
stanu U ta h
Rozstawienie
km
500
100
50
20
Długość
km
1450
1780
1860
1890
Tabela 4.5: Długość granicy stanu Utah wyznaczona na pod­
stawie map o różnych skalach i przy różnych rozstawieniach cyrkla
P om iar stanu
Przyjrzyjmy się granicy stanu Utah, jednego z 50 stanów
U ta h w USA. Na rysunku 4.14 pokazano mało dokładną mapę
Utah. Granica U tah 11 jest zbliżona do odcinków linii pro­
stej. W tabeli 4.5 zebraliśmy kilka wyników pomiarów doko­
nanych przy użyciu map o różnych skalach. Jeżeli przedsta­
wimy te pomiary na wykresie logarytmicznym, to poznamy
rządzące nimi prawo potęgowe. W oczywisty sposób pro­
stą najlepiej pasującą do tych punktów jest prosta pozioma.
10 Pierwsze pomiary tego rodzaju pochodzą od brytyjskiego nau­
kowca R. L. Richardsona z jego pracy The problem of contiguity: an
appendix of statistics of deadly quarrels, Gen. System s Yearbook 6,
139-187 (1961).
11 Lubimy Utah z wielu przyczyn. Jedną z nich jest to, że zostaliśmy
zapoznani z teorią fraktali w trakcie pobytu w Salt Lake City w roku
akademickim 1982/83. To właśnie tutaj, na Wydziałach Matematyki
i Informatyki Uniwersytetu Utah, przeprowadziliśmy nasze pierwsze
graficzne eksperymenty komputerowe, dotyczące fraktali.
271
4.2. Pomiar krzywych fraktalnych i prawa potęgowe
Rysunek 4.14: Zachodnie stany Stanów Zjednoczonych
log(w)
3,4
3,0
log(l/j)
---------- 1
-2,8
i
i------1
-2,4
i ■■
-2,0
-
1,6
-
1,2
Rysunek 4.15: Reprezentacja logarytmiczna pomiaru granicy
stanu Utah. u — długość, mierzona w kilometrach, s — rozsta­
wienie cyrkla, mierzone kilometrach
272
4. Długość, pole powierzchni i wymiar
Oznacza to, że granica U tah podlega prawu potęgowemu
z wykładnikiem d = 0 , tak samo jak okrąg, czyli że granica
ta ma skończoną długość.
M ie rz e n ie
Postarajm y się zrozumieć wagę i znaczenie podlegania
k rzy w ej K o c h a prawu potęgowemu w sytuacji czysto matematycznej. Przy­
pomnijmy sobie płatek śniegu Kocha z rozdziału 3. Płatek
śniegu Kocha ma brzeg złożony z trzech krzywych Kocha.
Jak pamiętamy, każdą krzywą Kocha można podzielić na
cztery samopodobne fragmenty, trzykrotnie pomniejszone
kopie całości.
Jest zatem naturalne, że będziemy rozważać rozstawie­
nia cyrkla, będące postaci 1/3, 1/32, 1/33, ..., 1/3*. Na­
suwają się oczywiście dwa sposoby wykorzystania tych roz­
stawień cyrkla: jeden niemożliwy do praktycznego wykona­
nia, a drugi prowadzący do oczywistego rozwiązania pro­
blemu. Jest technicznie niemożliwe ustawienie cyrkla na
1/3 4 = 0,012345679012... Zamiast tego można by zachować
stałe rozstawienie cyrkla, jednocześnie wykonując kolejne
powiększenia, 1 , 3 ,32, 33, ... -krotne. Byłoby to jednak zwykłą
stratą czasu. Z konstrukcji krzywej Kocha wiemy dokładnie,
ile będą wynosiły kolejne pomiary, a więc: 4/3 dla rozsta­
wienia cyrkla s — 1/3, 16/9 dla s — 1/9,..., (4/3)fc dla
s = 1/3*.
R ysunek 4.16: Pomiar długości krzywej Kocha za pomocą róż­
nych skal
Przedstawmy teraz te pomiary na wykresie logarytmicz­
nym (rysunek 4.17). Ponieważ możemy dowolnie wybrać
podstawę logarytmów, którymi się posługujemy, więc uży-
273
4.3. Wymiar fraktalny
W yk res
logarytm iczn y
dla krzyw ej
K ocha
Rysunek 4.17: Wykres logarytmiczny dla krzywej Kocha. Na
osiach zaznaczono log3 (u) i log3 (l/s)
jemy logarytmów o podstawie 3. Dla ustawienia cyrkla
s = 1/3* otrzymamy długość u = (4/3)*, czyli
lo g 3 ~ =
k
oraz
lo S3 u =
k lo §3
Wykorzystując oba równania naraz, dostajemy poszuki­
wane prawo potęgowe
lo g 3
u = d lo g 3
—,
s
gdzie
4
d = log3 - w 0,2619.
o
Liczba ta jest mniejsza od wartości d w 0,36, jaką otrzy­
maliśmy dla wybrzeża Wielkiej Brytanii. Oznacza to, że wy­
brzeże Wielkiej Brytanii jest nawet bardziej pozałamywane
niż obrzeże płatka śniegu Kocha.
4 .3 . W y m ia r fra k ta ln y
Usiłując zmierzyć długość wybrzeża Wielkiej Brytanii, prze­
konaliśmy się, że pytanie o długość — podobnie jak pyta­
nie o powierzchnię czy objętość — może być czasami źle
postawione. Krzywe, powierzchnie czy bryły mogą mieć
tak złożoną budowę, że wykonanie pomiaru w tradycyjny
sposób może nie mieć sensu. Istnieje jednakże sposób po­
miaru stopnia złożoności przez ocenę tego, jak szybko wzra­
stają długość, powierzchnia, czy objętość, jeśli pomiar doko­
nywany jest z coraz większą dokładnością. Podstawową za­
274
4. Długość, pole powierzchni i wymiar
sadą jest założenie, że dwie wielkości — długość, powierzch­
nia czy objętość z jednej strony, a stopień dokładności z dru­
giej — nie zmieniają się w sposób dowolny. Są one związane
prawem, które pozwala nam wyznaczyć jedną wartość na
podstawie drugiej. Prawo, które wydaje się tu odpowiednie,
jak to wcześniej wyjaśniliśmy, jest to prawo potęgowe o po­
staci y oc x d.
Prawo to okazuje się również przydatne przy omawia­
P o jęcie w ym iaru
niu pojęcia wymiaru. Wymiar nie jest pojęciem łatwym
do zrozumienia. Na przełomie wieków jednym z głównych
problemów matematyki było stwierdzenie, co to jest wy­
miar i jakie są jego własności (zob. rozdział 2). Od tam ­
tej pory sytuacja pogorszyła się jeszcze, gdyż matematycy
podali z dziesięć różnych definicji wymiaru: wymiar topolo­
giczny, wymiar Hausdorffa, wymiar fraktalny, wymiar samopodobieństwa, wymiar pudełkowy, wymiar pojemnościowy,
wymiar informacyjny, wymiar euklidesowy i wiele innych.
Wszystkie one są ze sobą powiązane. Niektóre z nich mają
sens w pewnych warunkach, podczas gdy w innych bar­
dziej przydatne są definicje alternatywne. Czasami wszyst­
kie m ają sens i się pokrywają. W innych przypadkach, mimo
że kilka z nich ma sens, mogą prowadzić do różnych wartości.
Szczegóły dotyczące wymiaru mogą stanowić problem na­
wet dla zawodowego m atem atyka.12 Pokrótce omówimy trzy
z nich:
• wymiar samopodobieństwa,
• wymiar cyrklowy,
• wymiar pudełkowy.
Wszystkie one stanowią szczególne przypadki wymiaru
fraktalnego13 M andelbrota, wywodzącego się z podstawowej
pracy Hausdorffa14 z roku 1919. Z tych trzech wymiarów
12 Czytelnikowi, który chciałby zapoznać się lepiej z tym tematem,
polecamy dwa dobre źródła: K. Falconer, Fractal Geometry, M athematical Foundations and Applications, Wiley, New York 1990 oraz J.
D. Farmer, E. Ott, J. A. Yorke, The dimension of chaotic attractors,
Physica 7 D , 153-180 (1983).
13 Słowo „fraktal” pochodzi od łacińskiego frangere, co oznacza
„łamać”.
14 Hausdorff (1868-1942) był matematykiem na uniwersytecie
w Bonn. Był Żydem i wspólnie z żoną popełnili samobójstwo, kiedy
dowiedzieli się, że tydzień później mają być wywiezieni do obozu
koncentracyjnego.
275
4.3. Wymiar fraktalny
Felix H a u s d o rff
Rysunek 4.18: Felix Hausdorff, 1868-1942
najwięcej zastosowań ma wymiar pudełkowy. Zajmiemy się
nim w następnym paragrafie.
W poprzednim rozdziale omawialiśmy pojęcie samopodo- O b ie k ty
bieństwa. Przypomnijmy jego najważniejsze punkty. Obiekt s a m o p o d o b n e
nazywa się (ściśle) samopodobny, jeżeli może być podzie­
lony na dowolnie małe części, z których każda jest wier­
nym pomniejszeniem całości. Ważną cechą jest to, że te
małe fragmenty można otrzymać z całego obiektu przez prze­
kształcenie podobieństwa. Najlepszym sposobem wyobraża­
nia sobie działania tego typu przekształceń jest analogia do
fotokopiarki, która ma możliwość pomniejszania. Jeżeli weź­
miemy na przykład krzywą Kocha, włożymy ją do kopiarki,
nastawiając współczynnik pomniejszania na 1/3 i odbijemy
cztery kopie, to będziemy mogli tak skleić te kopie, by znów
otrzymać krzywą Kocha. Następnie, jeżeli skopiujemy każdą
z czterech kopii, ze współczynnikiem redukcji 1/3, cztery
razy (tzn. stworzymy 16 kopii pomniejszonych dziewięciokrotnie w stosunku do oryginału), to te 16 kopii znowu
możemy złożyć tak, by odtworzyć oryginał. Jeżeli dyspono­
walibyśmy idealną kopiarką, to proces ten mógłby być po­
wtarzany w nieskończoność. I znowu ważne jest, że redukcje
są podobieństwami.
Błędem byłoby sądzić, że jeżeli obiekt jest samopodobny,
276
4. Długość, pole powierzchni i wymiar
to jest on fraktalem. Weźmy na przykład odcinek, kwa­
drat lub sześcian. Każdy z nich może być rozbity na mniejsze
fragmenty otrzymane w wyniku przekształceń podobieństwa
(zob. rysunek 4.19). Obiekty te jednak nie są fraktalami.
R ysunek 4.19:
sześcianu
Samopodobieństwo linii prostej, kwadratu,
W s p ó łc z y n n ik i
Widzimy, że współczynnik redukcji dla krzywej wynosi
skali m o g ą b y ć 1/3, co oczywiście zostało wybrane dowolnie. Moglibyśmy
ściśle z w ią z a n e równie dobrze wybrać 1/2, 1/7, czy 1/356. Właśnie na tym
z fig u rą polega różnica między tymi figurami a strukturam i fraktalnymi. Współczynniki redukcji dla fraktali — o ile ist­
nieją — są ściśle określone i zależne od danej figury. Na
przykład dla krzywej Kocha współczynnikami pomniejsza­
nia mogą być jedynie 1/3, 1/9, 1/27 itd. Cechą wspólną
wszystkich ściśle samopodobnych obiektów — fraktalnych
lub nie — jest istnienie relacji pomiędzy współczynnikiem
redukcji (współczynnikiem skali) a liczbą pomniejszonych
fragmentów, na które rozpada się obiekt (zob. tabela 4.6).
Jasne jest, że dla prostej, kwadratu i sześcianu istnieje
proste prawo wiążące liczbę części a i współczynnik redukcji
s. Jest to prawo dane wzorem
°=
(4-5)
gdzie D — 1 dla prostej, D — 2 dla kwadratu i D = 3 dla
sześcianu. Oznacza to, że wykładnik w prawie potęgowym
odpowiada dokładnie liczbom, które znamy jako (topolo-
4.3. W y m ia r łra k ta ln y
Obiekt
Liczba części
Współczynnik redukcji
prosta
prosta
prosta
kwadrat
kwadrat
kwadrat
3
6
173
9 = 32
36 = 62
29929 = 1732
1/173
1/3
1/6
1/173
sześcian
sześcian
sześcian
27 = 33
216 = 63
5177717 = 1733
1/3
1/6
1/173
krzywa Kocha
krzywa Kocha
krzywa Kocha
1 /3
1 /6
4
16
4 /C
1/3
1/9
1/3*
Tabela 4.6: Liczba części a czynnik skali dla czterech obiektów
giczne) wymiary prostej, kwadratu i sześcianu. Jednak jeżeli
przyjrzymy się krzywej Kocha, to związek a = 4 z 5 = 1/3
i a = 16 z s = 1/9 nie będzie już taki oczywisty.
Biorąc za wskazówkę związki zachodzące dla prostej, kwa­
dratu i sześcianu możemy spróbować jeszcze raz. Przypuść­
my, że równanie (4.5) jest mimo wszystko prawdziwe. Ozna­
cza to, że 4 — 3^, i jeżeli zlogarytmujemy obie strony, to
otrzymamy
log 4 = D log 3
lub równoważnie
D= ^
w 1,2619.
log 3
Czy otrzymamy jednak tę samą wartość, jeżeli weźmiemy
mniejsze fragmenty, na przykład dla współczynnika redukcji
1/9? Aby to sprawdzić, załóżmy, że 16 = 9^, czyli log 16 =
L>log9, skąd otrzymujemy
log4^
log32
21og4
2 log 3
W ogólnym przypadku
_ log 4fc
log 3k ’
log4
log 3 ^
’
278
4. Długość, pole powierzchni i wymiar
co prowadzi do równości D = log 4 / log 3. Otrzymujemy
stąd, że prawo potęgowe, opisujące zależność liczby frag­
mentów od współczynnika redukcji, daje nam tę samą liczbę
D , niezależnie od stopnia pomniejszania. Właśnie tę liczbę
D, znajdującą się pomiędzy 1 a 2, nazywamy wymiarem samopodobieństwa krzywej Kocha.
Ogólniej, dla dowolnego obiektu samopodobnego istnieje
W ym iar sam op od ob ień stw a związek pomiędzy współczynnikiem redukcji s a liczbą części
a, na które obiekt może być podzielony; jest nim
1
lub równoważnie
log l / s '
D nazywamy wymiarem samopodobieństwa. W sytuacjach
gdy jest potrzebne rozróżnienie, będziemy używali symbolu
D s dla wymiaru samopodobieństwa w celu uniknięcia pomył­
ki z innymi wersjami wymiaru fraktalnego. Dla prostej, kwa­
dratu i sześcianu otrzymujemy wymiary samopodobieństwa
równe odpowiednio 1, 2 i 3 — czego oczekiwaliśmy. Dla
krzywej Kocha D « 1,2619. Jest to liczba, z której częścią
ułamkową spotkaliśmy się już przy mierzeniu długości krzy­
wej Kocha w ostatnim paragrafie. Część ułamkowa 0,2619
jest dokładnie równa wykładnikowi występującemu w prawie
potęgowym, które opisywało mierzoną długość w zależności
od rozstawienia cyrkla! Zanim omówimy ten wynik ze szcze­
gółami, zajmijmy się jeszcze kilkoma znanymi obiektami samopodobnymi i obliczmy dla nich wymiar samopodobień­
stwa. Na rysunku 4.20 pokazano trójkąt i dywan Sierpiń­
skiego oraz zbiór Cantora. W tabeli 4.7 porównano liczby
samopodobnych fragmentów z odpowiadającymi im współ­
czynnikami redukcji.
Jaki jest związek pomiędzy prawem potęgowym, rządzą­
W ym iar sam op od ob ień stw a cym wartością mierzonej długości w zależności od ustawienia
i pom iar cyrkla, a wymiarem samopodobieństwa krzywej fraktalnej?
d łu gości Okazuje się, że odpowiedź jest bardzo prosta, a mianowicie
D g = 1 + d,
gdzie d, jak przedtem, odpowiada nachyleniu wykresu logarytmów długości u w zależności od logarytmu dokładności
279
4.3. Wymiar fraktalny
Obiekt
zbiór Cantora
trójkąt Sierpińskiego
dywan Sierpińskiego
Tabela 4.7:
fraktałnych
Skala
s
1/3fc
\/2 k
l/3 fc
Części
a
2k
3k
Sk
Wymiar
Ds
log 2 / log 3 « 0,6309
log 3 / log 2 ps 1,5850
log 8 / log 3 w 1,8928
Inne w ym iary
Wymiar samopodobieństwa dla innych obiektów
Jeszcze trzy
fr akt ale
2 fragmenty
pomniejszone dwukrotnie
Rysunek 4.20: Trójkąt Sierpińskiego, dywan Sierpińskiego i
zbiór Cantora pokazane są wraz ze swoimi częściami składowymi
— pomniejszonymi kopiami całości
I / 5 , tzn. u = c /s d. Zobaczmy, dlaczego tak jest. Naj­
pierw uprośćmy nasze obliczenia przez dobranie odpowie­
dnich jednostek pomiarów długości tak, że stała c w prawie
280
4. Długość, pole powierzchni i wymiar
potęgowym będzie jednością:
u = ^.
(4.6)
Logarytmując obie strony, otrzymujemy
logu — d lo g - ,
(4.7)
s
gdzie u jest długością odpowiadającą rozstawieniu cyrkla
s. Z drugiej strony dysponujemy prawem potęgowym a =
1/ s D, gdzie a oznacza liczbę fragmentów składających się na
samopodobny fraktal o współczynniku skali s. Po zlogarytmowaniu otrzymujemy
log a = -D s lo g - .
(4.8)
s
Przyjrzyjmy się związkowi pomiędzy długością u a liczbą
fragmentów a. Jeżeli współczynnik skali s = 1, to wy­
nikiem pomiaru będzie u = 1. Wynika to z konstrukcji:
w równaniu (4.6) ustaliliśmy jednostki w taki sposób, że
u ~ 1, gdy s = 1. Dlatego, gdy dokonujemy pomiaru dla in­
nego współczynnika skali s, takiego, dla którego cały obiekt
składa się z a kopii o wielkości s każda, wtedy całkowita
długość równa jest iloczynowi a i s ,
u = as.
Pozwala nam to na następujący wniosek. Biorąc logarytmy
obu stron, dostajemy
log u = log a + log s.
W równaniu tym możemy podstawić za logarytmy logu
i log a wartości występujące w równaniach (4.7) i (4.8), co
doprowadza do
dlog - = D s log - + log s.
s
s
Ponieważ log l / s = —logs, otrzymujemy
—dlog s = —D s logs + logs.
Po podzieleniu obu stron przez log s i uporządkowaniu wy­
razów dochodzimy do
Do ~ 1 + d.
4.3. Wymiar fraktalny
Powyższe rozważania prowadzą do wniosku, że wymiar
samopodobieństwa może być obliczany na dwa równoważne
sposoby:
• Opierając się na samopodobieństwie geometrycznym, zna­
leźć prawo potęgowe opisujące zależność pomiędzy liczbą
fragmentów a a odwrotnością współczynnika redukcji l / s .
Wykładnik D s występujący w tym prawie jest wymiarem
samopodobieństwa.
• Wykonać pomiary długości przy użyciu cyrkla i znaleźć
prawo potęgowe wiążące długość z l / s , gdzie s jest roz­
stawieniem cyrkla. Wykładnik d występujący w tym pra­
wie powiększony o 1 jest wymiarem samopodobieństwa,
D s — 1 + d.
Związki te dostarczają motywacji dla uogólnienia wy­
miaru, opisanego w drugim punkcie, na kształty, które nie
są krzywymi samopodobnymi, takimi jak na przykład linie
brzegowe. Zdefiniujmy więc wymiar cyrklowy (zwany też
wymiarem podziałkowym czy linijkowym) jako
Dc — 1
d,
gdzie d oznacza nachylenie wykresu logarytmów mierzonej
długości u w zależności od dokładności pomiaru l / s . Po­
nieważ d & 0,36 dla wybrzeża Wielkiej Brytanii, możemy
powiedzieć, że fraktalny (cyrklowy) wymiar tego wybrzeża
wynosi około 1,36. W ymiar fraktalny granicy stanu U tah
jest oczywiście równy 1,0, tyle samo co wymiar fraktalny
prostej.
Podamy teraz inny przykład krzywej samopodobnej, krzy- M ie rz e n ie
w ą3/2. Konstrukcja jej rozpoczyna się od odcinka o długości k rzy w ej 3 /2
1. W pierwszym kroku zastępujemy ten odcinek generato­
rem, krzywą złożoną z 8 odcinków o długości 1/4 każdy (zob.
rysunek 4.21). Oznacza to, że krzywa ta ma długość 8/4,
a więc jej długość została podwojona. W następnym kroku
pomniejszamy tę krzywą czterokrotnie i zastępujemy każdy
odcinek długości 1/4, występujący w pierwszym kroku kon­
strukcji, tą pomniejszoną krzywą.
Po drugim kroku mamy 82 odcinków, każdy o długości
1/42, tak więc całkowita długość wynosi teraz 82/4 2 = 22.
W następnym kroku pomniejszamy generator w skali 1/42
i zastępujemy każdy z odcinków o długości 1/42, występujący
w kroku 2, tym pomniejszonym generatorem itd. Długość
281
282
4. Długość, pole powierzchni i wymiar
K rzyw a 3 /2 :
dw a kroki
R ysunek 4.21: Pierwsze dwa kroki zastępowania w konstrukcji
krzywej 3/2
krzywej podwaja się w każdym kroku konstrukcji (czyli w kro­
ku k długość ta wynosi 2fe). Liczba odcinków wzrasta ośmio­
krotnie w każdym kroku (czyli w fc-tym kroku mamy 8k od­
cinków o długości l / 4 fc każdy). Jeżeli zaznaczymy te dane
na wykresie logarytmicznym (najlepiej jeżeli użyjemy logarytmów o podstawie 4), to otrzymamy wykres taki jak na
rysunku 4.22.
Pom iar krzyw ej
3 /2
R ysunek 4.22: Długość a odwrotność skali dla krzywej 3/2. Na
wykresie przedstawione są wykresy logarytmów o podstawie 4.
Otrzymujemy prostą o nachyleniu 1/2
Nachylenie prostej interpolującej te dane wynosi d = 0,5.
Możemy też otrzymać ten wynik bezpośrednio. Długość
obliczona dla s = 1/4* wynosi 2fc, co wyraża się następującym
prawem potęgowym:
4.3. Wymiar fraktalny
z wykładnikiem d — 0,5. Dlatego też wymiar cyrklowy i wy­
miar samopodobieństwa są równe D = l + d = l,5 , co uza­
sadnia nazwę krzywa 3/2.
Zakończymy ten paragraf fascynującymi rozważaniami, Fraktalna
opartymi na artykule M. Sernetza i in.15 z roku 1985, a do­ natura
tyczącymi fraktalnej natury organizmów. Artykuł ten doty­ organizm ów
czy tempa metabolizmu dla różnych zwierząt (np. szczurów,
psów i koni) i jego związku z masą ich ciała. Tempo metabo­
lizmu mierzone jest w dżulach na sekundę, a masa w kilogra­
mach. Ponieważ masa ciała jest proporcjonalna do objętości,
a objętość zmienia się jak r 3, gdzie r jest współczynnikiem
proporcjonalności, wydawałoby się, że tempo metabolizmu
powinno być proporcjonalne do masy ciała (czyli do r 3).
Rysunek 4.23 pokazuje jednak, że wykładnik w otrzyma­
nym prawie potęgowym różni się znacznie od oczekiwanej
wartości 1.
Nachylenie prostej, dopasowanej do punktów ekspery­
mentalnych, wynosi w przybliżeniu 0, 75. Innymi słowy, je­
żeli m oznacza tempo metabolizmu, a w — masę ciała, to
log m — a log w + log c,
gdzie logc jest rzędną punktu przecięcia prostej z osią pio­
nową. Otrzymujemy stąd m — cwa . Ponieważ w cx r 3,
otrzymujemy m oc r 3a, gdzie 3a & 2, 25.
Oznacza to, że nasze przypuszczenie, zgodnie z którym
tempo metabolizmu powinno być proporcjonalne do masy
czy objętości, jest błędne. Zmienia się ono tak, jak fraktalna powierzchnia o wymiarze D f = 2,25. Jak możemy
to wyjaśnić? Istnieje przypuszczenie, że powyżej przedsta­
wione prawo zmiany tempa metabolizmu odzwierciedla fakt,
iż organizmy stanowią w pewnym sensie bardzo posplataną
powierzchnię, a nie są litym ciałem. Jeżeli pójdziemy dalej
za tym rozumowaniem — może nawet trochę za daleko —
15 Z: M. Sernetz, B. Gelleri, F. Hofman, The Organism as a Biore­
actor, Interpretation of the Reduction Law of Metabolism in Terms of
Heterogeneous Catalysis and Fractal Stucture, J. Theor. Biol. 117,
209-230 (1985).
283
284
4. Długość, pole powierzchni i wymiar
T em po
m etab olizm u
jako prawo
p otęgow e
log(przemiana materii)
log(masa ciała)
R ysunek 4.23: Prędkość przemiany materii, przedstawiona
we współrzędnych logarytmicznych, ukazuje podstawową prędkość
przemiany materii jako funkcję potęgową masy ciała
będziemy mogli powiedzieć, że zwierzęta, w tym także ludzie,
wyglądają jak trójwymiarowe obiekty, lecz są w swej budo­
wie o wiele bliższe powierzchni fraktalnych. I rzeczywiście,
jeżeli zajrzymy pod skórę, to znajdziemy najróżniejsze sy­
stemy (np. tętniczy i żylny układ krwionośny w nerce),
które stanowią dobry przykład powierzchni fraktalnych ze
swoim zadziwiającym rozgałęzianiem naczyń (zob. kolorowa
wkładka). Z fizjologicznego punktu widzenia jest niemalże
oczywiste, że wydolność nerki jest blisko związana z po­
wierzchnią jej kanalików i naczyń krwionośnych. Jest oczy­
wiste, że objętość tego systemu naczyń jest skończona —
mieści się przecież w nerce! Jednocześnie jego powierzchnia
jest praktycznie nieskończona, a dokonanie odpowiedniego
pomiaru będzie polegało, podobnie jak dla linii brzegowej, na
wyznaczeniu, jak mierzona powierzchnia rośnie w zależności
od zwiększającej się dokładności pomiaru. Prowadzi to do
wymiaru fraktalnego, który charakteryzuje pewne cechy stop­
nia złożoności rozgałęziania tego typu systemów. Ta licz­
bowa charakterystyka może potencjalnie stać się nowym
i obiecującym narzędziem dla fizjologii. Na przykład za­
dawano pytania w rodzaju: jakie są różnice pomiędzy syste-
4.4. Wymiar pudełkowy
285
Rysunek 4.24: Odlewy układu żył i układu tętnic w nerce ko­
nia jako przykłady struktur fraktalnych w organizmach żywych,
W naturalnej sytuacji oba te systemy wpasowują się dokładnie je­
den w drugi, a przy tym są tylko „negatywem” nerki. Pozostała
wolna przestrzeń między naczyniami odpowiada tkance nerki (zob.
też kolorowe ryciny)
mami różnych zwierząt? lub, czy zajdzie znacząca zmiana
w wymiarze fraktalnym Dy, jeżeli będziemy go mierzyć dla
systemów z pewnymi wadami?
4.4. W y m ia r p u d e łk o w y
W tym paragrafie będziemy zajmowali się trzecią i ostat­
nią wersją wymiaru fraktalnego Mandelbrota: wymiarem
pudełkowym. Pojęcie to jest związane z wymiarem samopodobieństwa. W pewnych sytuacjach daje ono takie same
wartości liczbowe jak wymiar samopodobieństwa, a w innych
odmienne.
Jak dotąd pokazaliśmy, w jaki sposób charakteryzować S tr u k tu r y niesastruktury, które m ają pewne specjalne własności, takie jak m o p o d o b n e
samopodobieństwo, czy też struktury, takie jak linia brze­
gowa, dla których możemy używać cyrkla o różnych rozsta­
wieniach. Co jednak możemy zrobić, jeżeli struktura nie jest
286
4. Długość, pole powierzchni i wymiar
D ziw n y fraktal
R ysunek 4.25: Dziwna struktura wykazująca pewne własności
skalowania
wcale samopodobna i jest tak zwariowana jak na przykład
ta na rysunku 4.25?
W takim przypadku nie istnieje krzywa, którą moglibyś­
my mierzyć przy użyciu cyrkla; nie występuje także samopodobieństwo, chociaż możemy zaobserwować pewne własności
z nim związane. Na przykład „chmura” w prawym dolnym
rogu wygląda trochę jak duża chmura występująca w górnej
części. W ymiar pudełkowy umożliwia nam systematyczny
pomiar, który można zastosować do dowolnej struktury na
płaszczyźnie i łatwo zaadaptować do struktur występujących
w przestrzeni trójwymiarowej. Pomiar ten opiera się na
podobnej zasadzie co pomiar długości wybrzeża.
Umieszczamy naszą strukturę na regularnej siatce o wiel­
kości oczek s i po prostu zliczamy „pudełka” siatki (uży­
wamy w tym miejscu określenia „pudełko” z powodu nasu­
wającego się skojarzenia dla przypadku trójwymiarowego —
przyp. tłum.), które zawierają fragmenty struktury. Otrzy­
mamy w ten sposób liczbę, powiedzmy N . W oczywisty
sposób liczba ta będzie zależała od tego, jak wybraliśmy s.
Dlatego zależność tę zapisujemy jako N(s). Teraz zmniej­
szamy stopniowo 5 i znajdujemy odpowiadające im liczby
N(s). Następnie wykonamy wykres logarytmów (a dokład­
niej: zaznaczymy na wykresie logarytmy wyników, log N(s),
w odniesieniu do lo g (l/s)).
287
4A. Wymiar pudełkowy
Zliczanie
p u d ełek
i =1/12
N(s) = 52
Rysunek 4.26: Zliczanie pudełek dla dziwnej struktury z po­
przedniego rysunku
Teraz spróbujemy dopasować do naniesionych na wykres W ym iar
punktów linię prostą i zmierzyć jej nachylenie D &. Liczba pudełkow y
ta to właśnie wymiar pudełkowy, kolejna wersja wymiaru
fraktalnego Mandelbrota. Rysunek 4.26 stanowi ilustrację
tej procedury dla dwóch pomiarów. Znajdujemy nachylenie
otrzymanej prostej, które tym razem jest równe D &= 1,45.
Dla celów praktycznych często jest wygodnie rozpatrywać
ciąg siatek, których wielkość oczek zmniejsza się dwukrot­
nie przy przejściu od jednej siatki do następnej. Przy takim
podejściu każde pudełko siatki dzieli się na cztery mniej­
sze pudełka, każde wielkości połowy poprzedniego. Kiedy
używamy takiego typu siatki do zliczania pudełek dla fraktala, dostajemy ciąg N( 2 ~k) , k = 0 ,1 ,2 ,... Przyjęliśmy tu ­
taj, że dla siatki o największych oczkach s = 2° = 1. Nachy­
lenie prostej, łączącej jedne dane z następnymi na wykresie
logarytmicznym, jest następujące:
logiV(2-(fc+1)) - logAT(2-fc) _
JV(2“ (fc+1))
log 2fc+x - log 2fc
“ ° g2 N( 2 ~ k) '
288
4. Długość, pole powierzchni i wymiar
W wyrażeniu występującym po prawej stronie równania uży­
liśmy logarytmów o podstawie 2, podczas gdy po lewej wy­
stępują logarytmy o dowolnej podstawie. A zatem wynik jest
logarytmem o podstawie 2 czynnika, o jaki wzrasta liczba
zliczonych pudełek przy przejściu od jednej siatki do na­
stępnej. Ten współczynnik kierunkowy będzie więc oszaco­
waniem wymiaru pudełkowego dla danego fraktala. Oznacza
to, że jeżeli liczba zliczonych pudełek przy przejściu z jed­
nej siatki do następnej wzrasta o czynnik 2^, podczas gdy
wielkość pudełek zmniejsza się o połowę, to wymiar fraktalny
wynosi D.
R ysunek 4.27: Pierwsze dwa kroki konstrukcji krzywej z samoprzecięciami
W ym iar sam oDobrym ćwiczeniem jest eksperymentalne sprawdzenie,
p o d o b ień stw a że wymiar pudełkowy D^ krzywej Kocha i krzywej 3/2 jest
i p u d ełk ow y nie taki sam jak odpowiedni wymiar samopodobieństwa i cyrsą ty m sam ym kłowy. Zauważmy jednak, że wymiar pudełkowy
na płasz­
czyźnie nigdy nie przekroczy wartości 2. Niemniej jednak
wymiar samopodobieństwa D s krzywej płaskiej może z ła­
twością być od niej większy. By się o tym przekonać, wystar­
czy skonstruować przykład, w którym współczynnik redukcji
wynosi s = 1/3, a liczba fragmentów w kroku odtwarzania
289
4.4. Wymiar pudełkowy
wynosi a > 9 (zob. rysunek 4.27). Otrzymamy wtedy
D
=
b g a
> 2
log(l/s)
Powodem tej niezgodności jest to, że krzywa generowana
na rysunku 4.27 ma części zachodzące na siebie, a które z za­
sady są liczone tylko raz w metodzie zliczania pudełek, lecz
z odpowiednią krotnością podczas znajdowania wymiaru samopodobieństwa. Dla tej krzywej mamy 5 = 1/3 oraz a =
13 i dlatego jej wymiar samopodobieństwa wynosi
D * = log 3 ~ 2’335Wymiar pudełkowy jest jednym z naczęściej stosowanych Z alety w ym iaru
w różnych dziedzinach nauki. Przyczyna jego dominacji pudełkow ego
tkwi w prostocie i automatyzacji dokonywanych obliczeń.
Możemy wprost liczyć pudełka i na bieżąco wyznaczać odpo­
wiednie wielkości pozwalające na obliczenie wymiaru. Pro­
gram ten można stosować dla kształtów mających cechy sa­
mopodobieństwa lub nie. Co więcej, obiekty te mogą być za­
nurzone w przestrzenie o wyższym wymiarze. Na przykład,
jeżeli zajmiemy się obiektami, które znajdują się w zwykłej
przestrzeni trójwymiarowej, to pudełka nie będą płaskie, lecz
będą prawdziwymi pudełkami trójwymiarowymi, mającymi
wysokość, szerokość i głębokość. Ale pojęcie to można rów­
nież zastosować do fraktali, takich jak zbiór Cantora, który
jest podzbiorem odcinka jednostkowego. W tym przypadku
pudełkami będą małe odcinki.
Posłużmy się jeszcze raz klasycznym przykładem wybrzeża Wielkiej Brytanii. Na rysunku 4.28 przedstawiony
jest zarys tego wybrzeża pokrytego dwiema siatkami. Jeżeli
znormalizujemy szerokość siatki, przyjmując ją jako 1, to
wielkość oczek wyniesie odpowiednio 1/24 i 1/32. Zliczanie
pudełek przecinających linię brzegową daje nam odpowie­
dnio 194 i 283 (kto chce, niech sprawdzi). Posługując się
tymi danymi, możemy łatwo wyznaczyć wymiar pudełkowy.
Po naniesieniu danych na wykres logarytmiczny otrzymamy
współczynnik kierunkowy prostej łączącej te dwa punkty
log283- l o g 194 , 2 ,4 5 - 2 ,2 9
log 32 - log 24 ~ 1 ,5 1 - 1 ,3 8 ~
’
'
W ym iar
pudełkow y
w ybrzeża
W ielkiej
B ry ta n ii
4. Długość, pole powierzchni i wymiar
290
' ^ P T ''
fV
%
>
i
¿1
.5
£
X
A
S V a t-1 - - .
/
w^
$ >u ,
K
s
~7
i
bi
f t
i
u
0
__
~ h
O
J
<>
—
f
J j
l
•¿i
ii]
%
{
1
< *
-r 1
int*- ■»-f
<;
P
fi
V*
[
&
{
i
'i!r
\p
--T
\
i
W
>
,J
J
i
/
UA
u.
h
V
7
<
t
f
l
J
3
r*r"
S
V
/
r
.r-' ,
/
w
J
r
JC
s
ł
“
\
3
r
a
“ \
j
</
.
4
t
“Vi"
- — Mr-
/-ri
- - i
l,
1
E
L
1
S,
- t t*
t = >-----—
- V
£
'= 4 *
r
V
1
r
- t
V J
J _
2!
, *,
..
i t
—
V
- 4
Fi 3 -
J
. .—
1
\
t
T i * - d r «i “
$*—
>
/ ;
f—■
-
f
r*
/
~r
—
\y —
r' rf
i
j
f/
t
ł
< -
ł-
—
-
V
-
f
J
*
r"l
r*
/
Z 7^1
i
f.
i
z ^ a
~
Ui
"
r
■K
£
- '“v J
R ysunek 4.28: Policzmy wszystkie pudełka, które przecinają
(lub nawet tylko dotykają) wybrzeża Wielkiej Brytanii, wliczając
Irlandię
Zgadza to się z naszym poprzednim rezultatem otrzymanym
jako wymiar cyrklowy.
O graniczen ia
Pojęcie wymiaru fraktalnego inspirowało naukowców do
d la w ym iarów podejmowania nowych badań i formułowania fascynujących
fraktalnych przypuszczeń. Rzeczywiście, przez jakiś czas wydawało się,
że wymiary fraktalne mogą pozwolić nam na odkrycie no­
wego porządku w świecie złożonych zjawisk i struktur. Oka­
zało się jednak, że istnieją pewne poważne ograniczenia. Po
pierwsze, istnieje wiele różnych wymiarów o różnych war­
tościach. Możemy również łatwo sobie wyobrazić, że dana
struktura mogłaby być „mieszaniną” różnych fraktali, każ­
dego o innym wymiarze pudełkowym. W takim przypadku
wymiar całości będzie po prostu równy wymiarowi składnika
(składników) o największym wymiarze. Oznacza to, że otrzy­
m ana liczba nie będzie charakteryzować całej struktury.
W takim wypadku chcielibyśmy otrzymać coś w rodzaju
spektrum liczbowego, które zawierałoby informację o rozkła­
dzie wymiaru fraktalnego dla danej struktury. Zadanie zna-
4.4. Wymiar pudełkowy
291
lezienia odpowiedniej charakterystyki zostało podjęte i jest
kontynuowane jako badanie muliifraktali.16
Historia wymiaru fraktalnego sięga pracy Hausdorffa
z 1918 r.17 A jednak definicja tego, co później zostało na­
zwane wymiarem Hausdorffa, nie jest przydatna w praktyce,
ponieważ jest bardzo trudna do zastosowania w przypadku
nawet elementarnych przykładów, a niemal niemożliwa do
sprawdzenia dla danych eksperymentalnych. Ma jednak duże
znaczenie w teorii, czego ślad będziemy mogli dostrzec w do­
datku do tomu II, zajmującym się miarami multifraktalnymi. W celu dokładniejszego poznania różnych koncep­
cji wymiarów związanych z wymiarami fraktalnymi i ich
wzajemnych relacji polecamy książki Geralda A. Edgara18
i Kennetha Falconera19. Zakończymy ten paragraf defini­
cją wymiaru Hausdorffa, która zawiera wiele technicznych
szczegółów, oraz związkiem wymiaru Hausdorffa z wymia­
rem pudełkowym.
O gran iczym y się do definicji w ym iaru H ausdorffa dla zbiorów A za­
wartych w przestrzeni euklidesowej
R n = { x \ x ~ ( x i , ..., x n ) yXi £ R }
dla pewnej liczby natu raln ej n. B y sform ułow ać definicję, trzeb a
w prow adzić pew ne oznaczenia. Po pierwsze w p ro w ad zam y funkcję
odległości d(x,y), oznaczającą odległość euklidesową p u n któ w x i y
w R n,
n
d(x,y) =
\i=1
16 Zob. B. B. Mandelbrot, An introduction to multifractal distribu­
tion functions, w: Fluctuations and P attern Form ation, H. E. Stanley
i N, Ostrowsky (red.), Kluwer Academic, Dordrecht 1988, J. Feder,
Fractals, Plenum Press, New York 1988. K. Falconer, Fractal Geometry,
Mathematical Foundations and Applications, Wiley, New York 1990,
17 F. Hausdorff, Dimension und äußeres Maß, M ath. Ann. 79, 157—
179 (1918).
18 G. A. Edgar, Measure, Topology and Fractal Geometry, SpringerVerlag, New York 1990.
19 K. Falconer, Fractal Geometry, M athematical Foundations and A p ­
plications, John Wiley & Sons, Chichester 1990.
Definicja
w ym iaru
Hausdorffa
292
4. Długość, pole powierzchni i wymiar
N astępnie d e fin iu je m y kres dolny (in fim u m ) i kres górny (suprem um )
podzbioru X prostej rzeczyw istej:
in f{a ; €
su p {x €
X}
=
X}
najw iększe dolne ograniczenie X ,
=
najm niejsze górne ograniczenie
X.
O zn acza to , że jeśli a = i n f { x € X } , to a < a; dla w szystkich x € X
i dla dow olnego e > 0 istnieje x G X takie , że x —a < e. Podobnie
b = su p {x e X } oznacza, że b > x dla w szystkich x E X i dla
dow olnego e > 0 istnieje x e X ta k ie , że b — x < c. Posługując się
tym i pojęciam i, m o żem y zdefiniow ać średnicę podzbioru U zaw artego
w R n
d iam
(U)
= s u p { d ( x , 2/) | x,y
Gi/} .
O s ta tn ią d efin icją, której p otrzeb ujem y, je s t definicja pokrycia otw ar­
te g o podzbioru A zaw arteg o w R n . P o d zb ió r U zaw arty w R n na­
zyw a się otw arty, je że li dla dow olnego x £ U istnieje kula Be(x) =
{y £ R n | d(x,y) < e} o prom ieniu e > 0, o środku w punkcie
zaw arta całkow icie w U. R odzina zb io rów otw artych { t Ą ,
Us, ■■•}
nazyw a się (p rze lic za ln y m ) pokryciem o tw arty m zbioru A, jeżeli
oo
A c \ J U t.
1—1
M o ż e m y ju ż zd efin io w ać w y m ia r Hausdorffa zbioru A.
będą d o d a tn im i liczb am i rzeczyw istym i. D efin iu jem y
hs(A)
d iam (Ui)
= in f <i
i=o
Niech
{ C /i, C/2, ...} otw arte
pokrycie zbioru A
ta k ie , że diam (U{) <
s
i £
e
A za te m in fim u m brane je s t po w szystkich otw artych pokryciach
zbioru A, dla których zbiory pokryw ające Ui m ają średnicę m niej­
szą od €. D la każdego ta k ie g o pokrycia bierzem y średnice otw ar­
tych zb io rów do niego należących i po podniesieniu do s -te j potęgi
sum ujem y. S u m a, ja k ą o trzym a m y, m oże być skończona albo nie­
skończona. W m iarę zm n iejszania £ klasa dopuszczalnych pokryć
m aleje. D la te g o te ż in fim u m rośnie w m iarę ja k £ —►0 dąży do
granicy, która m oże być nieskończonością albo skończoną liczbą rze­
czyw istą. O z n a c za m y
hs(A)
— lim
hse(A).
G ranica hs(A) nazyw ana je s t s-wymiarową miarą Hausdorffa zbioru
A. W szczególności w ynika stąd , że s-w ym iarow a m iara Hausdorffa
zbioru pustego w ynosi 0, oraz że hs(A) < hs(B), jeżeli tylko A c
B. Co w ięcej, / i 1 ( A ) je s t długością krzyw ej gładkiej A; h2(A) jest
polem pow ierzchni gładkiej A z dokładnością do czynnika 7t/4; h3(A)
4.4. Wymiar pudełkowy
293
je s t objętością tró jw ym iaro w ej gładkiej rozm aitości A z dokładnością
do czynnika 4 7 t/3 . Inna w ażna własność je s t następująca. Jeżeli
/ : A —» R n spełnia w arunek H óldera dla dow olnych par p u n któ w
x,y e A, czyli
d{f{x),f(y)) < c(d(x,y))a
dla pewnych stałych c > 0 i a > 0, to
hs/a( f ( A )) < cs/ahs(A).
Na przykład jeśli / je s t podobieństw em o w spółczynniku zm niejszania
0 < c < 1, to / spełnia w arun ek Hóldera z a = 1 (w aru n ek H óldera
z a ~ 1 nazywa się w arunkiem Lipschitza — przyp. tłum.) oraz
hs(f(A)) < cshs(A). Co więcej, H ausdorff dow iódł, że dla dow olnego
zbioru A praw dziwa je s t następująca zależność: istnieje taka liczba
Dh {A)%że
— / 00
n [/i)=\ 0
hs(
dla s < Z ) # ( A ) ,
dla s > Dh (A).
Liczbę tę nazyw am y wymiarem Hausdorff a, czyli
Dff(A) — in f { s | h s(A) = 0 } = s u p {5 | hs(A ) =
oo}.
Jeżeli s —Dh(A), to hs(A) m oże być rów ne zeru, nieskończoności
lub jakiejś dod atniej liczbie rzeczyw istej. N a zakończenie zb ierzem y
kilka podstawowych własności w ym iaru HausdorfFa:
(1 )
(2 )
(3 )
(4 )
(5 )
Jeśli A c R n, to DH ( A ) < n .
Jeśli A c B, to Dh (A) < DH(B).
Jeśli ^4 jest zbiorem przeliczalnym , to D H(A) = 0.
Jeśli ^4 c R n oraz Dh(A) < 1, to A je s t całkow icie niespójny.
Niech Coo oznacza zbiór C an to ra. W te d y D f i i C ^ ) = log 2 / log 3.
Podam y tera z heurystyczny dowód własności (5 ) przy założeniu,
że 0 < hs(C0o) < o o dla s = Dh{Coo). Zauw ażm y, że C oo składa się
z dwóch części: Cl — Coo H [ 0 ,1 /3 ] , oraz Cp = C ^ D [ 2 /3 ,1 ] . O bie
są podobne do całości i trzy k ro tn ie pom niejszone. S tąd o trz y m u je m y
Aa(Coo) = hs{CL) + hs{Cp) = Ćt fi Ca t ) + ĆłfiCoo).
Podzielm y obie strony przez hs(Coo) ^ 0. O trz y m a m y 1 = 2cs lub
te ż s — log 2 / log 3.
Jeśli mamy do czynienia z konkretnymi przykładami, to
okazuje się, że istnieją pewne trudności w obliczaniu wy­
miaru HausdorfFa. Wprowadzenie wymiaru pudełkowego jest
w pewnym sensie próbą ominięcia tych trudności.
294
4. Długość, pole powierzchni i wymiar
W ym iar
H ausdorffa
a w ym iar
pudełkowy
Podstaw ow ą tru d n o ścią w obliczaniu w y m ia ru Hausdorffa je s t osza­
cow anie
d ia m (Ui)s. Wymiar pudełkowy upraszcza sprawę, po­
zw alając zastąp ić w y ra zy d iam (Ui)s w y ra za m i 6S. Form alna defini­
cja w ym iaru pudełkow ego D b dow olnego ograniczonego podzbioru A
przestrzeni R n je s t następująca. Niech N$(A) oznacza najm niejszą
liczbę zb io rów o średnicy co najw yżej 6, p o kryw ającą A .20 O trz y m u ­
je m y w te d y
„
r
log N S(A)
D b = lim — —
,
5-+oo log 1 /0
o ile granica istnieje.
Istnieje kilka rów now ażnych definicji D b(A). Na przykład m ożem y
brać pod uwagę p o d zia ł R n przez siatkę o wielkości oczek 6. D o ­
stan ie m y sześcienne pudełka o boku 6, w y p ełn iają ce przestrzeń R n .
Niech N f6 oznacza liczbę pudełek przecinających A. O trz y m u je m y
następującą równość:
D tiA ). lim ! « ,
ó-o log 1/6
przy zało żen iu , że granica istnieje. O zn ac za to , że N$ a 6~s dla
m ałych 6, gdzie s = D b(A). M o ż e m y to zapisać dokładniej ja k o
N s (A)Sa
- > ( i ? i ! 3 ^ < n 4!
'
\ 0 dla s > D b{A).
Jednak
N S(A)6S = in f
{Ui, ^ 2, . . . } skończone pokrycie,
ta k ie , że d iam (Ui) < 6
M o ż e m y to porów n ać z definicją w ym iaru H ausdorffa — je d y n ą róż­
nicą je s t zastąp ien ie d iam U^ w yrazem 6S.
Niestety nie jest tak, że wymiar Hausdorffa i wymiar
pudełkowy zawsze się pokrywają.21 Na przykład możemy
pokazać, że D b(A) = n dla dowolnego gęstego podzbioru R n.
Oznacza to w szczególności, że wymiar pudełkowy zbioru
20 Ponieważ A jest ograniczony, możemy zawsze zakładać, że pokrycie
to jest skończone.
21 Czytelnika chcącego zapoznać się ze szczegółami odsyłamy do
książki K. Falconera, Fractal Geometry, M athem atical Foundations and
Applications, John W iley Sc Sons, Chichester 1990.
4.5. Fraktale brzegowe: diabelskie schody i krzywa Pean a
295
liczb wymiernych na odcinku [0,1] jest równy 1, podczas gdy
wymiar Hausdorffa tego (przeliczalnego) zbioru jest równy
0, Następnym ciekawym przykładem jest zbiór A — {0,1/2,
1 / 3 , 1 / 4 , Zbiór ten ma ułamkowy wymiar pudełkowy,
który wynosi dokładnie Db(A) = 1/2. Widzimy więc, że
jeżeli wymiar pudełkowy nie jest liczbą całkowitą, to nie
możemy ślepo zakładać, że zbiór ten ma własności fraktalne. Prawdą jednak jest, że wymiar Hausdorffa i wy­
miar pudełkowy zgadzają się dla dużej klasy zbiorów, wśród
których znajdują się w szczególności takie klasyczne zbiory
jak zbiór Cantora, trójkąt i dywan Sierpińskiego oraz wiele
innych, o czym powiemy na zakończenie rozdziału 5.
4.5. F rak tale b rzegow e: d ia b e lsk ie s c h o d y
i k rzy w a P e a n a
Fraktale omawiane do tej pory w bieżącym rozdziale miały
niecałkowity wymiar fraktalny. Nie wszystkie jednak frak­
tale są tego typu. Chcielibyśmy poszerzyć naszą wiedzę
o dwa przykłady fascynujących fraktali, będących przypad­
kami szczególnymi. Pierwszy przykład to tzw. diabelskie
schody będące krzywą fraktalną o wymiarze równym 1,0.
Drugi przykład to krzywa Peana o wymiarze równym 2,0.
D iab elsk ie
schody:
konstrukcja
■
krok 1
i
i
krok 2
krok 3
R y sunek 4.29: K olum now a konstrukcja diabelskich schodów
Pierwszy z tych obiektów, diabelskie schody, jest ściśle D iab elsk ie
związany ze zbiorem Cantora i jego konstrukcją. Zaczynamy schody
od kwadratu o boku długości 1. Następnie zaczynamy kon­
struować zbiór Cantora na dolnym jego brzegu (tzn. kolejno
296
4. Długość, pole powierzchni i wymiar
R ysunek 4.30: Kompletne diabelskie schody
usuwamy środkowe części trzecie, tak jak przedtem). Nad
każdą usuwaną środkową częścią trzecią długości l / 3 fc usta­
wiamy prostokąt o podstawie 1/3*4 odpowiedniej wysokości.
Przyjrzyjmy się konstrukcji na rysunku 4.29. W pierwszym
kroku ponad środkową częścią stawiamy prostokąt o pod­
stawie będącej odcinkiem [1/3,2/3], o wysokości 1/2. W na­
stępnym kroku wznosimy dwie kolumny, jedną o wysokości
1/4 nad odcinkiem [1/9, 2/9], a drugą o wysokości 3/4 nad
odcinkiem [7/9,8/9]. W trzecim kroku stawiamy cztery pro­
stokąty o wysokościach 1/8, 3/8, 5/8, 7/8, a w k -tym kroku
stawiamy 2fc_1 prostokątów o wysokościach l / 2 fc, 3/2fc,...,
(2k — l ) / 2 k odpowiednio. W granicy otrzymamy obiekt
zwany diabelskimi schodami Na rysunku 4.30 pokazano jego
przybliżony obraz otrzymany przy użyciu komputera. Może­
my zobaczyć coś jakby wznoszące się z lewa na prawo schody
o nieskończonej liczbie stopni, których wysokość staje się nie­
skończenie mała. W miarę procesu konstrukcji dostajemy
dwie części: górną białą i dolną czarną. W granicy będą one
symetryczne. Biała część będzie dokładną kopią części czar­
nej. Oznacza to, że część białą można otrzymać z czarnej
przez obrót o 180°. W tym rozumieniu krzywa graniczna
dzieli kwadrat fraktalnie na dwie połówki. Jako natychmia­
stowy wniosek otrzymujemy, że pole powierzchni czarnych
schodów jest równe połowie pola powierzchni kwadratu po­
czątkowego.
4.5. Fraktale brzegowe: diabelskie schody i krzywa Peana
297
P rzyjrzyjm y się jeszcze raz rysunkowi 4 .2 9 . W id zim y , że dwa w ąskie
prostokąty o szerokości 1 / 9 w drugim kroku tw orzą jeden prostokąt
o wysokości 1. Podobnie cztery prostokąty o szerokości 1 /2 7 w kroku
3 tworzą dwa prostokąty o wysokości 1 i ta k dalej. O znacza to , że jeśli
przeniesiemy prostokąty z prawej części kw adratu na lewą i pod zie­
lim y środkowy prostokąt na dwa oraz ustaw im y jeg o części jed n a nad
drugą, to o trzym a m y figurę, która w granicy w ypełni połow ę kw adratu
(zob. rysunek 4 .3 1 ).
1
I
1
krok 1
I
11
krok 2
krok 3
R y s u n e k 4 .3 1 : Pole pow ierzchni pod diabelskim i schodam i jest
równe 1 /2
W przypadku diabelskich schodów m ożem y spraw dzić nasze ro­
zum ow anie algebraicznie. Jeżeli będziem y łączyć prostokąty ta k , ja k
na rysunku 4 .3 1 , to całkow ite pole schodów A m ożna w yrazić w na­
stępujący sposób przy użyciu szeregu geom etrycznego:
1
8
3
+
8
5
+
8
7\
+
8
+
"
'
lub
+
3^ +
Sum a szeregu geom etrycznego w nawiasie wynosi 3. O trz y m u je m y
więc
„
1
3
1
A = 6 + 9 “ 2'
Zajm ijm y się teraz następnym i pytaniam i: jaka jest n a­
tu ra brzegu diabelskich schodów i jak a jest jego długość?
Przybliżenie brzegu schodów łam aną daje nam w oczywisty
sposób następujące fakty:
• brzeg jest krzywą bez luk,
• długość krzywej wynosi dokładnie 2!
P o le p o w i e r z c h n i
d i a b e l s k ic h
schodów
298
4. Długość, pole powierzchni i wymiar
Otrzymaliśmy zatem zaskakujący rezultat. Skonstruo­
waliśmy krzywą, która jest fraktalna, a która jednocześnie
ma skończoną długość. Innymi słowy, współczynnik kierun­
kowy prostej, d, na wykresie logarytmów długości w zależ­
ności od odwrotności współczynnika redukcji wynosi d — 0
i dlatego wymiar fraktalny powinien równać się D — d + 1 =
1! Wynik ten jest ważny, gdyż pokazuje, że istnieją krzywe
o skończonej długości, które chcielibyśmy uważać za fraktale. Co więcej, na pierwszy rzut oka wydawałoby się, że
diabelskie schody są samopodobne, ale tak nie jest. Można
by też się zapytać, dlaczego takie krzywe nazywane są fraktalnymi? Rozumowanie, które uzasadnia użycie terminu
„ fra k ta r, w tym przypadku jest oparte na fakcie, że dia­
belskie schody są wykresem bardzo dziwnej funkcji, funkcji
która jest wszędzie stała, z wyjątkiem punktów znajdujących
się w zbiorze Cantora.
krok 1
krok 2
krok 3
Rysunek 4.32: Wielokątowa konstrukcja diabelskich schodów
Konstrukcja
diabelskich
schodów przy
użyciu
wielokątów
W śledzeniu konstrukcji m oże być po m o cn e porów nanie rysunków
4 .2 9 i 4 .3 2 . N a rysunku 4 .3 2 w każd ym kroku konstruujem y w ielo kąt,
poruszając się je d y n ie w kierunku po zio m ym i pionow ym . Z a czyn a m y
zaw sze w lew ym dolnym rogu i poruszam y się poziom o do m om entu
zetknięcia się z bokiem prostokąta. W tym m om encie w spinam y się
po piono w ym boku aż do m o m e n tu osiągnięcia w ierzchołka. N a ­
stępnie zn ow u poruszam y się p o zio m o i znow u zd obyw am y następny
pro sto kąt. Na je g o w ierzchołku znow u poruszam y się poziom o i po­
w ta rz a m y te czynności aż do m o m e n tu osiągnięcia prawego górnego
rogu. K rzy w a , ja k a pow stanie w ten sposób, m a długość 2, poniew aż
po zsum ow aniu w szystkich poziom ych o d cinkó w o trzy m a m y długość
1. P od obnie, jeżeli zsu m u jem y w szystkie pionowe odcinki, też o trz y ­
m a m y 1.
299
4.5. Fraktale brzegowe: diabelskie schody i krzywa Peana
Sam oafiniczność
R ysunek 4.33: Samoafiniczność diabelskich schodów
Diabelskie schody nie są samopodobne. Wyjaśnijmy to D iab elsk ie
(zob. rysunek 4.33). Diabelskie schody można rozbić na sch od y są
sześć identycznych części. Część 1 otrzymano z całych scho­ sam oafiniczne
dów, pomniejszonych trzykrotnie w kierunku poziomym,
a dwukrotnie w kierunku pionowym (a zatem współczynniki
zmniejszania w różnych kierunkach nie są takie same). Dla­
tego też obiekt ten nie jest samopodobny. Dla przekształce­
nia podobieństwa występującego w definicji samopodobieństwa te dwa czynniki powinny być takie same. Część 6 jest
dokładnie taka sama jak część 1. Co więcej, prostokąt o bo­
kach długości 1/3 i 1/2 mieści w sobie dokładną kopię części
1, jak również kopię tej części obróconą o 180 stopni. Opisuje
to części 2, 3, 4 i 5. Przekształcenie zwężające, pomniej­
szające w różnej skali w kierunku poziomym i pionowym
jest szczególnym przypadkiem przekształcenia afinicznego.
Obiekty, które są zbudowane z afinicznych kopii całości, nazywają się samoafiniczne. Przykładem takiego obiektu są
właśnie diabelskie schody.
Diabelskie schody mogą wydawać się czysto matematycz­ D iab elsk ie
nym wymysłem. M ają one jednak bardzo ważne zastosowa­ sch ody w fizyce
nie w fizyce.22 Przeanalizujmy problem, który tak naprawdę
nie jest problemem fizycznym, chociaż ma fizyczne zabarwie­
nie, a w którym diabelskie schody pojawią się w naturalny
sposób.
22 P.Bak, The devil’s staircase, Phys. Today 39, 38-45 (1986).
300
4. Długość, pole powierzchni i wymiar
Ścim anie
R y s u n e k 4.34: Gęstość pokazana jest jako wysokość w kolejnych
pokoleniach sztabek
Zmodyfikujmy zbiór Cantora (zob. rysunek 4.34). Obiek­
tem początkowym nie jest tu jednak odcinek, a sztabka
o gęstości ro = 1. Zakładamy, że możemy tę sztabkę do­
wolnie ściskać i rozciągać. Początkowa sztabka ma długość
/o = 1 i dlatego jej masa wynosi rao = 1. Przecinamy na­
stępnie sztabkę w połowie i otrzymujemy dwa identyczne
kawałki o równych masach wynoszących m i =
= 1/2.
Następnie rozpłaszczamy je tak, że szerokość każdej zmniej-
4.5. Fraktale brzegowe: diabelskie schody i krzywa Peana
sza się do Zi = 1/3, ale bez zmiany grubości sztabki. Po­
nieważ masa jest zachowana, więc gęstość każdego kawałka
musi wzrosnąć do r\ — m \ / l \ = 3/2. Powtarzając ten
proces, otrzymujemy w n-tej generacji N — 2n sztabek,
każda o długości ln = l / 3 n i masie m n — l / 2 n . Mandelbrot nazwał ten proces ścinaniem, ponieważ masa, po­
czątkowo jednorodnie rozłożona, w trakcie procesu gromadzi
się w wielu mniejszych obszarach o dużej gęstości. Gęstość
każdego z mniejszych obszarów wynosi rn = m n/ l n. Na ry­
sunku 4.34 gęstość w każdym kroku przedstawiona jest jako
wysokość.
Załóżmy teraz, że proces ścinania zastosowano nieskoń­
czenie wiele razy, a otrzymaną strukturę położono na od­
cinku jednostkowym. Możemy zatem zapytać, jaka jest masa
M( x) struktury powstałej na odcinku od 0 do x ?23 Masa
nie zmienia się w lukach w materiale, a jedynie wzrasta sko­
kowo o infinitezymalnie małe wielkości w punktach zbioru
Cantora. Okazuje się, że wykres funkcji M( x ) to właśnie
diabelskie schody.
Krzywa, będąca brzegiem diabelskich schodów, ma wy­ K rzyw a P ean a
miar fraktalny równy D = 1, a ponieważ nie jest zwykłą
krzywą, stanowi przykład krańcowy. Przyjrzyjmy się teraz
przykładom, będącym inną skrajnością, krzywym o wymia­
rze fraktalnym D — 2. Pierwszą tego rodzaju krzywą od­
krył G. Peano w roku 1890. Jego przykład wywołał wiele
wątpliwości na tem at dopuszczalnych i niedopuszczalnych
definicji krzywych i, co jest z tym związane, na tem at pojęcia
wymiaru. Krzywą Peana wprowadziliśmy już w rozdziale 2,
zob. rysunek 2.36. Przypomnijmy, że podczas konstrukcji
zastępujemy odcinki generatorem — krzywą złożoną z 9 od­
cinków o długości równej jednej trzeciej długości wyjściowej
każdy.
Ponieważ współczynnik jednokładności jest równy 1/3,
więc dokonujemy pomiarów długości krzywej przy s = 1/3*/
k = 0,1,2,..., gdzie s jest rozstawieniem cyrkla. Prowadzi
to do całkowitej długości u — (9/3)* = 3*. Możemy za­
uważyć, że jeżeli prawo potęgowe jest postaci u = c * l / s d,
to c = 1, ponieważ dla 5 = 1 otrzymujemy u — 1. Na pod­
23 Możemy zapisać to formalnie jako M ( x ) =
dm( t ) .
302
4. Długość, pole powierzchni i wymiar
stawie zależności logu = d lo g l/s możemy również dostać
następującą równość:
_
log u ___ log 3k _ k _ ^
log l / s
log3fc k
Oznacza to, że D = 1 + d — 2 (tzn. że krzywa Peana ma wy­
miar fraktalny 2). Wynika to z własności wypełniania prze­
strzeni przez krzywą Peana, którą zajmowaliśmy się w roz­
dziale 2.
4 .6 . P r o g r a m n a z a k o ń c z e n ie ro zd zia łu : zb ió r
C a n to r a i d ia b e ls k ie s c h o d y
Diabelskie schody są fraktalem granicznym. Z jednej strony
jest to krzywa o całkowitym wymiarze fraktalnym, a z dru­
giej jest ona blisko związana ze zbiorem Cantora. Z pro­
gramu, jaki przedstawimy, będzie to wynikało w oczywisty
sposób. Jeżeli ustawimy param etr d i a b e l = l , to otrzymamy
schody, jeśli zaś d iab el= 0 , to zostanie narysowany zbiór
Cantora.
Przypomnijmy, że klasyczny zbiór Cantora otrzymujemy
przez zastosowanie bardzo prostej reguły: mamy odcinek,
z którego usuwamy środkową część trzecią, a z pozostałych
dwóch części usuwamy ich części środkowe itd. Nasz pro­
gram pozwala na określenie, jaka część będzie usuwana. Na
początku program zadaje użytkownikowi pytanie o wielkość
usuwanej części. Jeśli wprowadzimy 0 — nic nie będzie
usuwane, jeśli wprowadzimy 1 — usunięte zostanie wszy­
stko, a jeśli 0,333... — powstanie klasyczny zbiór Cantora.
W przypadku schodów param etr ten określa środkową część,
w której krzywa biegnie poziomo. W tym przypadku 0,333...
daje klasyczną konstrukcję, 0 — przekątną, a 1 — poziomą
linię prostą. Proponujemy wypróbować te i inne (własne)
wartości param etru.
Przyjrzyjmy się teraz programowi. Obliczenia związane
z różnymi krokami zbioru Cantora (lub schodów) są bardzo
podobne do programu w rozdziale 3 (używamy tej samej rekursywnej strategii zastępowania linii). I znowu zmienna
poziom oznacza głębokość rekursji. Jeżeli zmienimy wartość
początkową tej zmiennej, to zobaczymy inne kroki procesu
konstrukcji. Załóżmy najpierw, że diabel= 0, by dokonać
4.0. Program na zaKonczeme rozdziału
D iab elsk ie
schody na
ekranie
k om putera
Rysunek 4.35: Wynik programu „Zbiór Cantora i diabelskie
schody”
obliczeń dla zbioru Cantora. W tym przypadku program za­
cznie od narysowania poziomej linii początkowej. Następnie
oblicza wymiar fraktalny (wymiar samopodobieństwa) zbioru
Cantora i drukuje ten wynik. Teraz zaczyna się rekursywna
zamiana prostej (GOSUB 100).
W swej części rekursywnej program sprawdza najpierw,
czy znajdujemy się na najniższym poziomie. Jeśli tak, to
rysuje po prostu linię prostą. W przeciwnym przypadku
oblicza lewą część nowej figury i przechodzi do następnego
poziomu rekursji (GOSUB 100). Po wyznaczeniu i narysowa­
niu lewej części następują obliczenia dla części prawej. Za­
uważmy, że ponieważ diabeł = 0, wszystkie współrzędne
y (ylewy i yprawy) m ają tę samą wartość lewy + 0,5*w.
Otrzymujemy zatem poziome ułożenie punktów (czy odcin­
ków) reprezentujące stopnie konstrukcji zbioru Cantora.
Zajmijmy się teraz przypadkiem, gdy diabeł = 1. Po­
czątkowy odcinek jest teraz przekątną. W pierwszym kroku
rekursywnego zastępowania odcinek ten jest zastępowany
dwoma ukośnie położonymi odcinkami, połączonymi odcin­
kiem poziomym. W następnych krokach rekursji ukośne od­
cinki są zastępowanie rekursywnie w ten sam sposób. W pro­
gramie poziome połączenie jest rysowane zawsze, gdy za­
czyna się kolejne rekursywne zastępowanie części prawej (IF
diabeł THEN LINE . ..). Oznacza to, że w przypadku kon­
strukcji zbioru Cantora w każdym kroku otrzymujemy po­
ziome odcinki dążące w miarę wzrostu liczby kroków do
304
4. Długość, pole powierzchni i wymiar
Program w BASIC-u
Tytuł
Zbiór Cantora i diabelskie schody
Rysunek zbioru Cantora i diabelskich schodów
DIM xlewy(10), ylewy(lO), xprawy(10), yprawy(lO)
INPUT ,,usuwana czesc (0 - 1): 13, r
poziom = 7
diabeł = 0
lewy = 30
w = 300
xlewy(poziom) - lewy
xprawy(poziom) = lewy + w
ylewy(poziom) = lewy + .5*(l+diabel)*w
yprawy(poziom) = lewy + .5*(l-diabel)*w
REM OBLICZENIE WYMIARU
IF r < 1 THEN d = L0G(2)/L0G(2/(l-r)) ELSE d = 0
PRINT ,,Wymiar zbioru Cantora,ł, d
G0SUB 100
END
REM
100
RYSOWANIE PROSTEJ NA NAJNIŻSZYM POZIOMIE REKURSJI
IF poziom > 1 GOTO 200
LINE (xlewy(l),ylewy(1)) - (xprawy(1),yprawy(1))
GOTO 300
REM
200
ROZGAŁĘZIENIE NA NIZSZE POZIOMY
poziom = poziom -1
REM
LEWA GALAZ
xlewy(poziom) = xlewy(poziom+1)
ylewy(poziom) = ylewy(poziom+1)
xprawy(poziom) = .5*((1-r)*xprawy(poziom+1) + (l+r)*xlewy(poziom+1))
yprawy(poziom) = .5*(yprawy(poziom+1) + ylewy(poziom+1))
GOSUB 100
REM
PRAWA GALAZ
xlewy(poziom) = .5*((l+r)*xprawy(poziom+1) + (1-r)*xlewy(poziom+1);
ylewy(poziom) = .5*(yprawy(poziom+1) + ylewy(poziom+1))
IF diabeł THEN LINE (xlewy(poziom),ylewy(poziom))
- (xprawy(poziom),yprawy(poziom))
xprawy(poziom) = xprawy(poziom+l)
yprawy(poziom) = yprawy(poziom+l)
GOSUB 100
poziom = poziom + 1
300 RETURN
zbioru Cantora. W przypadku konstrukcji diabelskich scho­
dów odcinki, będące przybliżeniami zbioru Cantora, stają się
ukośne i przerwy pomiędzy nimi zapełniane są liniami pozio-
4.6. Program na zakończenie rozdziału
mymi. Można to zobaczyć, jeżeli zamienimy obliczenia dol­
nych poziomów (ustawimy poziom = 1 ,2 ,3 ,...) pomiędzy
zbiorem Cantora a schodami.
Zauważmy, że tak jak i w poprzednich programach mo­
żemy dostosować położenie i wielkość rysunku przez zmianę
wartości zmiennych lewy i w.
305
R ozdział 5
K odow anie obrazów
Geometria fraktalna spowoduje, ze zobaczysz świat innymi
oczyma. W dalszej lekturze kryje się niebezpieczeństwo. Mo­
żesz utracić swój nabyty w dzieciństwie sposób patrzenia na
świat. Inne wydadzą Ci się chmury, lasy, galaktyki, liście,
pióra, skały, góry, wzory na wodzie, dywanach, murach i wie­
le innych rzeczy. I już nigdy nie będą te same.
Michael F. Barnsley1
Do tej pory zajmowaliśmy się dwoma biegunami geome­
trii fraktalnej. Badaliśmy takie dziwolągi, jak zbiór Can­
tora, krzywa Kocha czy trójkąt Sierpińskiego; usiłowaliśmy
przekonać Czytelnika, że wśród naturalnie występujących
struktur i wzorów istnieje wiele takich, które możemy na­
zwać fraktalnymi. Fraktalne są na przykład linie brzegowe,
układy naczyń krwionośnych, kalafiory. Omawialiśmy ich
wspólne cechy — samopodobieństwo, własności skali oraz
wymiar fraktalny, właściwe zarówno naturalnym strukturom
jak i matematycznym dziwolągom. Nie zbadaliśmy jednak
jeszcze, czy łączy je jakieś wspólne pokrewieństwo. Może ka­
lafior jest tylko „m utantem ” trójkąta Sierpińskiego, a liść pa­
proci to „niesforna” krzywa Kocha. Nasuwa się pytanie, czy
1 Michael F. Barnsley, Fractals Everywhere, Academic Press, 1988.
307
istnieje sposób opisu, w którym kształty występujące w na­
turze, np. kalafior, i sztuczne konstrukcje, takie jak trójkąt
Sierpińskiego, byłyby blisko ze sobą związane. W rozdzia­
le tym opiszemy metody matematyczne umożliwiające taki
właśnie integrujący je opis. Wszystko zaczęło się od książki
Mandelbrota The Practal Geometry of Naturę (Fraktalna ge­
ometria przyrody) oraz od pięknego artykułu australijskiego
matematyka Hutchinsona2. Natomiast Barnsley i Berger po­
szli dalej; dzięki nim sposób opisu wprowadzony przez Hutchinsona — jak się wydaje — stwarza bardzo obiecujące
podstawy, które być może da się wykorzystać do kodowania
obrazu.3
Możemy uważać geometrię fraktalną za nowy język G eom etria
w obrębie matematyki. Tak jak słowa w języku polskim fraktalna jako
mogą być rozłożone na podstawowe składniki, jakimi są li- język
tery, a w chińskim na znaki, tak samo język geometrii fraktalnej umożliwia nam rozłożenie wzorów i kształtów, wystę­
pujących w naturze, na podstawowe proste jednostki.
Z nich możemy następnie tworzyć „słowa” i „zdania” dobrze
opisujące te twory.
Słowo „paproć” składa się z sześciu liter i w bardzo zwar­
tej formie przekazuje pewną treść. Wyobraźmy sobie dwóch
ludzi rozmawiających przez telefon. Jeden z nich opowiada
o spacerze po ogrodzie botanicznym, w czasie którego podzi­
wiał rosnące tam paprocie. Jego rozmówca rozumie go do­
skonale. W czasie gdy słowo „paproć” jest przenoszone po
drucie, bardzo złożona informacja zostaje przekazywana
w niezwykle zwartej formie. Zauważmy, że „paproć” ozna2 J. Hutchinson, Fractals and self- similarity, Indiana J . Math. 30,
713-747 (1981). Pewne z idei można odnaleźć we wcześniejszej pracy
R. F. Williamsa, Compositions of contractions, B o i Soc. Brasil M at.
2, 55-59 (1971).
3 M.F. Barnsley, V. Ervin, D. Hardin i J. Lancaster, Solution of
an inverse problem for fractals and other sets, Proc. Nat. Acad. Sci.
83, 1975-1977 (1986); M. Berger, Encoding images through transition
probabilities, Math. Comp. Model. 11, 575-577 (1988); Napisany też
został artykuł przeglądowy: E. R. Vrscay, Iterated functions systems:
Theory, applications and the inverse problem, Proceedings o f the N A T O
Advanced Study Insitute on Fractal Geometry, lipiec 1989. Kluwer Aca­
demic Publishers, 1991; Obiecujące podejście pojawia się w nowszym
artykule A. E. Jacquina, Image coding based on fractal theory of ite­
rated contractive image transformations, IE E E Trans.Signal Process.,
marzec 1992.
308
5. Kodowanie obrazów
cza również abstrakcyjne pojęcie paproci, a nie tylko tę jedną
podziwianą w ogrodzie. Do opisu tej jednej, szczególnej pa­
proci w taki sposób, by rozmówca mógł przekazać swój za­
chwyt, jedno słowo nie wystarczy. Powinniśmy zdawać sobie
sprawę, że język jest bardzo abstrakcyjny. A co więcej, ist­
nieje hierarchia poziomów abstrakcji, na przykład w ciągu:
drzewo, drzewo liściaste, dąb, dąb kalifornijski...
Omówimy tu taj jedno z podstawowych narzeczy geome­
trii fraktalnej, tak jakby była ona językiem. Podstawowymi
jej składnikami są proste przekształcenia, a słowami — pro­
ste algorytmy. Dla opisu tych przekształceń oraz związanych
z nimi algorytmów wprowadziliśmy w paragrafie 1.2 schemat
kopiarki wielokrotnie redukującej (KW R)4, którego będzie­
my wielokrotnie używać w tym rozdziale.
5 .1 . S c h e m a t k o p ia rk i w ie lo k r o tn ie red u k u jącej
K W R = IF S Przypominijmy w skrócie główne założenia KWR, kopiarki
wielokrotnie redukującej. Urządzenie to umożliwia nam opis
tego, co w matematyce znane jest pod nazwą determini­
stycznego systemu iteracyjnego (deterministic iterated function system, IFS). Od tego miejsca będziemy używali obu
tych określeń wymiennie; do niektórych problemów bardziej
użyteczny jest abstrakcyjny schemat maszyny, do innych,
bardziej formalnych — matematyczne pojęcie IFS. Przyj­
rzyjmy się ilustracjom 1.11 i 1.12, zamieszczonym w pierw­
szym rozdziale tej książki. Przedstawiona tam kopiarka ot­
rzymuje na wejściu obraz do przetworzenia. Wyposażona
jest ona w kilka niezależnych systemów soczewek, z których
każdy pomniejsza obraz początkowy i umieszcza go gdzieś
w obrazie na wyjściu. A oto param etry kopiarki:
Param etr 1: liczba systemów soczewek,
Param etr 2: współczynnik pomniejszania, osobny dla każde­
go systemu soczewek,
Param etr 3: ustawienie systemów soczewek przy tworzeniu
obrazu na wyjściu.
Podstawową zasadą jest sprzężenie zwrotne; obraz po
przetworzeniu przez kopiarkę jest przetwarzany ponownie
4 Podobny schemat był używany przez Barnsleya w jego populary­
zacji systemów iteracyjnych (IFS, iterated function system s), które są
matematycznym zapisem działania KWR.
5.1. Schemat K W R
jako obraz wejściowy. Proces ten jest powtarzany wielo­
krotnie. Jeśli mamy do czynienia z kopiarką o jednym tylko
systemie soczewek, to rezultat takiego procesu jest niezbyt
ciekawy (pozostanie tylko jeden punkt, co pokazano na ry­
sunku 1.11). Ten banalny eksperyment okazuje się jednak
niesłychanie ekscytujący i dający wielkie możliwości, jeśli
używamy wielu systemów soczewek. Co więcej, możemy
rozważać przekształcenia, które nie są zwykłym pomniejsza­
niem (to znaczy przekształcenia ogólniejsze od podobieństw).
Wyobraźmy sobie, że zbudowano taką maszynę i że ktoś
pragnie wykraść jej sekret — plan jej konstrukcji. Ile po­
trzeba czasu i wysiłku, aby wydobyć całą potrzebną informa­
cję? Okazuje się, że niewiele. Wystarczy, że taki szpieg użyje
naszej kopiarki jeden jedyny raz i skopiuje dowolny obraz.5
Na podstawie jednokrotnego przebiegu da się odkryć geome­
tryczne reguły rządzące tym urządzeniem. Przyjrzyjmy się
rezultatom, jakie otrzymamy puszczając je w ruch.
Zajmijmy się KW R z trzema systemami soczewek, z któ­ K W R dla
rych każdy jest ustawiony tak, by pomniejszać w skali 1/2. trójk ąta
Po pomniejszeniu trzy kopie są ustawiane na planie trójkąta S ierpińskiego
równobocznego. Na rysunku 5.1 pokazano wynik trzykrot­
nego kopiowania różnych obrazów początkowych. W części
(a) kopiujemy koło i posługujemy się cieniowaniem, by śledzić
działanie poszczególnych systemów soczewek. W części (b)
użyliśmy prawdziwie „dowolnego” obrazu. Zauważmy, że
już po kilku powtórzeniach kopiarka, czy raczej proces, jeśli
posłużymy się bardziej abstrakcyjnym pojęciem, wytwarza
obrazy coraz bardziej przypominające trójkąt Sierpińskiego.
W części (c) zaczynamy od trójkąta Sierpińskiego i możemy
zauważyć, że kolejne kopiowanie niczego nie zmienia. Po­
mniejszenie i nowe ułożenie kopii daje nam dokładnie obraz
początkowy. Jest to oczywiście spowodowane własnością samopodobieństwa, jaką wykazuje trójkąt Sierpińskiego.
Podsumujmy wyniki tego pierwszego eksperymentu. Nie­ A trak tor dla
zależnie od obrazu początkowego, po wielokrotnym przetwo­ K W R
rzeniu go przez KW R otrzymamy ciąg obrazów, które —
jak się wydaje — dążą do tego samego obrazu końcowego.
Nazywamy go atraktorem maszyny czy też procesu. Co
5 W tym cela możemy użyć prawie dowolnego obrazu. Wyjątek
stanowią kształty, wykazujące pewne symetrie. Szczegóły omawiamy
poniżej.
309
5. Kodowanie obrazów
310
K W R dla
trójkąta
S ierpińskiego
• • • •
m
oo
m o
mm©o
••
••
•
•
• • • •
••••••••
druga
kopia
trzecia
kopia
O
o o
O
(a)
•
obraz
•
pierwsza
kopia
(b)
•
•
* »*
*
w » w*»
w
w
»w
»w
9^
9^
obraz
* * » *
9^
pierwsza
kopia
druga
kopia
pierwsza
kopia
druga
kopia
trzecia
kopia
(c)
obraz
trzecia
kopia
R ysunek 5.1: Trzy iteracje KWR dla trzech różnych obrazów
początkowych
więcej, jeśli zaczniemy kopiować ten właśnie obraz, nic się nie
zmieni. Mówimy wtedy, że atraktor jest lewostronnie nie­
zmienniczy albo też stały. Do ilustracji tego pojęcia można
posłużyć się porównaniem powyższego eksperymentu z eks­
perymentem fizycznym, w którym obserwujemy ruch żelaz­
nej kulki w naczyniu (rysunek 5.2, po lewej). Zobaczmy,
jak kulka ta będzie się zachowywała, jeśli będziemy puszczać
ją swobodnie z różnych miejsc naczynia: zawsze wyląduje
na jego dnie, w punkcie spoczynku. Jeśli jednak kulka od
początku leży na dnie, nic się nie zmieni — pozostanie tam
gdzie była.
Naczynie odpowiada naszej kopiarce. Różne położenia
początkowe kulki odpowiadają różnym obrazom początko­
wym. Obserwacja drogi, jaką porusza się kulka, odpowiada
wielokrotnemu kopiowaniu obrazu wyjściowego, a punkt spo­
czynku kulki odpowiada obrazowi końcowemu. To, że ruch
kulki jest procesem ciągłym, podczas gdy kopiarka przetwa­
rza obraz skokowo w czasie, nie stanowi tu istotnej różnicy.
Kulka w naczyniu jest modelem układu dynamicznego z dok­
ładnie jednym atraktorem . Na rysunku 5.2 po prawej stro-
5.1. Schemat K W R
311
N a c z y n ia
Rysunek
5 .2 : N aczyn ia o jednym i dwóch zagłębieniach (punk­
tach przyciągających)
nie przedstawiono sytuację, w której występują dwa różne
atraktory. W tym przypadku ostateczne położenie zależy
od punktu, z którego wystartowaliśmy.
Czy KWR przypomina naczynie z jednym, czy z dwoma
zagłębieniami? Jak odpowiedź na to pytanie zależy od po­
czątkowego ustawienia parametrów kopiarki? Inaczej mó­
wiąc — czy jest możliwe, że przy pewnym ustawieniu pa­
rametrów KWR ma tylko jeden atraktor, podczas gdy przy
innym ma ona wiele atraktorów? Takie właśnie pytania po­
jawiają się we współczesnej matematyce. Dotyczą one pod­
stawowych problemów teorii układów dynamicznych, która
umożliwia analizę chaosu deterministycznego, jak również
zagadnień związanych z generowaniem fraktali.
Istnieją dwa sposoby poszukiwania odpowiedzi na po­
wyższe pytanie. Jeśli dopisze nam szczęście, to może odkry­
jemy ogólną zasadę matematyczną opisującą nasz problem.
Jeśli nam to się nie uda, możemy spróbować wymyślić nową
teorię albo — jeśli to okaże się na razie za trudne — możemy
przeprowadzić szczegółowo zaplanowane eksperymenty do­
starczające nam dodatkowych danych o problemie. Jest
oczywiste, że w wielu przypadkach eksperymenty nie będą
wystarczające. Czasami po prostu wiemy za mało. Jeśli dla
wszystkich pozycji wyjściowych, jakich użyjemy w ekspery­
mencie, zawsze wylądujemy w tej samej końcowej pozycji, to
co wtedy da się powiedzieć o „kształcie naczynia” ? Niewiele,
gdyż możemy mieć do czynienia z wieloma „zagłębieniami” ,
a tak naprawdę mogło się zdarzyć, że początkowe pozycje
nie były brane wystarczająco dowolnie.
Innymi słowy odkrycie, iż nasza KWR — jak się wy­
daje — zawsze zdąża do tego samego obrazu końcowego,
jest pięknym faktem eksperymentalnym, który jednak wy­
maga uzasadnienia teoretycznego. Okazuje się, że używając
pewnych ogólnych zasad matematyki i wyników Felixa Haus-
E k s p e ry m e n t
p o trz e b u je
za p le c z a
te o re ty c z n e g o
312
5. Kodowanie obrazów
dorffa i Stefana Banacha, możemy pokazać, iż dowolna KWR
doprowadza do jednoznacznego obrazu końcowego, swojego
atraktora. Ów obraz końcowy jest niezmienniczy pod działa­
niem odpowiadającej mu KWR. Dowód tego faktu zawdzię­
czamy Hutchinsonowi. Stanowi on piękny i ważny wkład
do teorii fraktali. „Dowolna KW R” oznacza, że liczba oraz
ustawienie systemów soczewek mogą być ustalone dowolnie.
Jedyną własnością, jaką KW R musi spełniać, by rezultat
Hutchinsona był prawdziwy, jest to, aby każdy system so­
czewek pomniejszał obraz początkowy.
5.2. Składanie p rostych przekształceń
Konstrukcja kopiarki wielokrotnie redukującej oparta jest na
zbiorze kontrakcji. Kontrakcją nazywamy przekształcenie,
które zmniejsza odległość pomiędzy punktami. Rzecz jasna
podobieństwa opisujące pomniejszanie za pomocą systemów
soczewek są kontrakcjami. Są nimi również przekształcenia,
których współczynniki redukcji są różne w różnych kierun­
kach. Na przykład przekształcenie, dla którego jeden współ­
czynnik redukcji (w kierunku poziomym) wynosi powiedzmy
P rzek szta łcen ia
d op u szczaln e
R ysunek 5.3: Dla naszej KWR dopuszczalne są przekształcenia
złożone z: pomniejszania, pochylania, odbicia symetrycznego,
obrotu i przesunięcia (nie pokazane)
óió
b.2. Składanie prostych przekształceń
1/3, podczas gdy drugi (w kierunku pionowym) wynosi po­
wiedzmy 1/2, jest też kontrakcją (zob. na przykład diabel­
skie schody z paragrafu 4.5). Zauważmy, ze przekształcenia
podobieństwa nie zmieniają kątów (tzn. są przekształceniami
konforemnymi — przyp. tłum.), podczas gdy kontrakcje
w ogólności mogą je zmieniać.
Możemy również rozpatrywać przekształcenia podobień- P rz e k s z ta łc e n ia
stwa złożone z pochylaniem i/lub obrotem, i/lub odbiciem, d la K W R
Na rysunku 5.3 pokane są niektóre dopuszczalne „systemy
soczewek” dla naszej KWR. W języku matematyki przek­
ształcenia takie nazywają się przekształceniami afinicznymi
płaszczyzny.
System y soczewek dla naszej K W R m ożna opisać za p om o cą przekształceń afinicznych płaszczyzny. Na płaszczyźnie ustalam y układ
współrzędnych, oś x (o d cię ty ch ) i oś y (rzę d n y ch ). W tym układzie
współrzędnych każdem u punktow i P odp ow iad a para liczb (x,y), co
zapisujem y ja k o P = (x,y). D zięki ta k ie m u przedstaw ieniu m ożem y
punkty dodaw ać, ja k rów nież m nożyć je przez liczby rzeczyw iste
(p u n kty tra k tu je m y ja k o w ektory zaczepione w p o c zą tk u układu
współrzędnych — przyp. tłum.). Jeżeli Pi = ( £ 1, 3/ 1), a Ą =
Przekształcenia
afiniczne
( £ 2, 2/ 2), to
Pi + Pi =
(£1
+ £ 2 , 2/1 + 2/2 )
oraz
sP = {sx,sy).
Przekształceniem liniowym
nazyw am y ta k ie przekształcenie F ,
które każdem u punktow i płaszczyzny P przyporządkow uje p u n kt F(P)
w taki sposób, że
Sum a i mnożenie
przez skalar
Rysunek 5.4: (Po lewej) Dodawanie dwóch punktów: (xi,2/i) +
(£2 , 2/2 ) = (£1 + £ 2 , 2/1 + 2/2 )* (Po prawej) Mnożenie punktu przez
skalar: s(x,y) — (sx,sy)
314
5. Kodowanie obrazów
F (P 1 + P 2) = F (P 1) + F(P 2)
dla dow olnych p u n k tó w P i i P% oraz
F(sP) = sF(P )
dla dow olnej liczby rzeczyw istej s i dow olnego pu n ktu P Przekształcenie
liniow e płaszczyzny m ożna przedstaw ić w danym układzie współrzędnych
za po m o cą m acierzy
przy czym je że li
P = (x,y)
oraz F(P)
= (u, u),
to
u = ax + by,
v = cx + dy.
O zn ac za to , że przekształcenie liniowe je s t w yznaczone za pom ocą
czterech w spółrzędnych a , 6, c oraz d. Istnieją te ż inne reprezenta­
cje przekształceń liniow ych, bardziej przyd atn e do an alizy kontrakcji.
W ty m celu zap iszm y wyrazy m acierzy ja k o
/ rcoscf)
r sin <f)
—ssimft \
s cos
J *
P rzed staw ien ie ta k ie je s t zaw sze m ożliw e. W y s ta rc zy położyć
r
= y/ a2 + c2
oraz
ó = arccos
. —-
:,
y/a2 + c2
aby o trz y m a ć r i <(>, W p o d obny sposób m ożna przedstaw ić s i
Przy
ta k im przedstaw ieniu ła tw ie j nam je s t analizow ać jedn okładności, ob­
roty i o db icia. R o zw ażm y następujące przypadki:
• s = r , O < r < l i 0 = ^ w yzn acza przekształcenie, które pom n iej­
sza r -k r o tn ie i jed n o cześn ie obraca o k ą t <p przeciw nie do ruchu
w skazów ek zegara (jeżeli <
f>= 0 , to przekształcenie je s t po prostu
je d n o k ła d n o ś c ią ).
• s = r, 0 < r < 1, <
f> = tt \ ip — 0 w yzn acza przekształcenie,
któ re pom niejsza r- kro tn ie oraz jedn ocześnie o d b ija sym etrycznie
w zględem osi y .
• r — a i s — 6, 0 < a < 1, 0 < 6 < 1 oraz *ip = 0 — 0 w yznacza
przekształcenie, k tó re pom niejsza a razy w kierunku osi ¿c i 6 razy
w kierunku osi y.
O .ć .
O A lć lU ć tlilC p r u s c y LII p i Z L A S Z L ć i l L L I l
o± o
• r — s > O oraz <
j>=
definiuje podobieństw o dane przez o brót
o kąt ^ i jednokładność o skali r .
są to przekształcenia liniowe złożone
z translacjam i. Innym i słowy, jeśli F je s t przekształceniem liniow ym ,
a Q punktem , to przekształcenie w ( P ) ~ F ( P ) + Q, gdzie P je s t
dow olnym pun ktem płaszczyzny, je s t przekształceniem afinicznym .
Przekształcenia te p o zw alają nam opisać ko ntrakcje oraz um ieszcza­
nie obrazu w w ybranym miejscu płaszczyzny (to zn aczy przesunięcie
o Q ). Poniew aż F je s t w yznaczone przez m acierz, a Q przez parę
współrzędnych, pow iedzm y ( e , / ) , przekształcenie afiniczne je s t w y­
znaczone przez sześć liczb
P r z e k s z ta łc e n ia a fin ic z n e
e \
( a b
\ c
Jeśli P =
d
(x, y)
u = ax
v
f
=
cx
) '
i w(P)
= (u, u),
+
by
+ e,
+
dy
+ /.
to
M ożna to te ż przedstaw ić w postaci, której będziem y czasam i używ ać
w dalszej części:
w (x , y)
=
(ax + by + e , c x + d y +
/).
Przekształcenie
afiniczne
Rysunek 5.5: Przekształcenie afiniczne, wyznaczone przez sześć
liczb a, 6, c, d, e i / , w działaniu na dwa punkty: Pi = (1,0)
i Ą - (0,1)
W analizie iteracyjnego system u funkcji bardzo w ażne je s t bada­
nie obiektów , które są lew ostronnie niezm iennicze pod je g o działan iem .
Teraz, gdy dysponujem y przekształceniem afinicznym w , m ożem y po­
szukiwać pun któw , któ re są lew ostronnie niezm iennicze ze względu
na w . Jest to zadanie zw ią za n e z rozw iązyw aniem układu rów nań
316
5. Kodowanie obrazów
liniow ych. Rzeczyw iście, rów nanie
układ dw óch rów nań liniow ych
w(P)
=
P
m ożem y zapisać jak o
x — ax + by + e,
y = cx + dy + f.
R o zw iąza n ie teg o układu istnieje i je s t jed n o zn aczn e, gdy w yznacznik
(a — l ) ( d —1) —bc^= 0. P u n k t P = (xyy) n azyw am y p u n ktem stałym
dla w. Jego w spółrzędne w y ra ża ją się następująco:
-e (d -l)+ 6 /
(o —l)(d —1) —6c’
X
_
^
- / ( a - 1) + ce
(a —l)(d —1) —bc'
K rok pierw szy:
Zwykle już pierwsze zastosowanie KW R do danego obra­
plan konstrukcji zu wyjawi nam jej wewnętrzne afiniczne kontrakcje. Możemy
K W R je nazwać planem konstrukcji kopiarki. Zauważmy, że mu­
simy uważać przy wyborze tego pierwszego obrazu — powi­
nien on być wystarczająco skomplikowany, aby jednoznacz­
nie wyznaczył przekształcenia. Mogłoby się bowiem zda­
rzyć, że moglibyśmy nie wykryć niektórych obrotów i odbić
lustrzanych. Na rysunku 5.6 przedstawiono sytuacje, które
mogą nas zmylić. Pierwsze dwie figury w oczywisty sposób
nie nadają się do wykrywania planów konstrukcji kopiarki.
W tym rozdziale do tego celu używamy zazwyczaj kwadratu
jednostkowego [0,1] x [0,1] z literą „L” wpisaną w lewym
górnym rogu.
Systemy soczewek dla KW R są opisane za pomocą zbioru
przekształceń afinicznych wi, W2 -,..., u j . Dla danego obrazu
początkowego A najpierw otrzymujemy pomniejszone afinicznie egzemplarze
W2 (A ) , ..., w n(A ). Następnie ko­
piarka składa te kopie razem, by wytworzyć obraz końcowy
W (A) :
W (A) = u)i(A) U u)2(A) U ... U w n (A).
W jest nazywane operatorem Hutchinsona. Wielokrotne
S y stem y
iteracyjn e (IF S ) przekształcanie za pomocą KW R odpowiada pętli sprzężenia
zwrotnego, co z kolei prowadzi do iterowania operatora W.
Stanowi to sedno deterministycznego systemu iteracyjnego
(IFS). Wychodząc od pewnego początkowego obrazu A$,
5.2. Składanie prostych przekształceń
ó l(
obrót i
obrót, odbicie i
zmniejszenie zmniejszenie
O dkryw anie
planu
konstrukcji
P
Rysunek 5.6: Obrazy w pierwszych dwóch rzędach nie pozwalają
na dokładne określenie przekształceń
otrzymujemy kolejno A \ = W ( A q), A<i = W ( A \ ) i tak dalej.
Rysunki 5.7 oraz 5.8 ilustrują tę konstrukcję. Pokazana jest
na nich KWR jako system sprzężenia zwrotnego oraz plan
konstrukcji kopiarki dla trójkąta Sierpińskiego, składającej
się z trzech przekształceń.
Rysunek 5.7: Działanie KWR jako pętli sprzężenia zwrotnego
Niech
wy , . .. , wn będą ko n trakcjam i płaszczyzny (d o kła d n a a naliza kontrakcji przeprow adzona będzie w dalszej części). Z d e fin u jm y
teraz nowe przekształcenie — o p erato r H utchinsona — w sposób
i o p erato r
H utchinsona
IF S
318
5. K o d o w a n ie o b ra zó w
P ierw szy plan
konstrukcji
KWR
R ysunek 5.8: Plan konstrukcji dla KWR z wykorzystaniem
kwadratu jednostkowego z naniesioną literą „L” w górnym lewym
rogu obrazu wyjściowego. Obraz początkowy pokazany jest w celu
określenia wzajemnego położenia obrazów końcowych
następujący: niech A będzie dow olnym podzbiorem płaszczyzny.6
M o ż e m y m yśleć o A ja k o o pew n ym obrazie. Przekształcenie zbioru A
polega na zastosow aniu N kontrakcji i um ieszczeniu uzyskanych ko­
pii w odp ow ied nich m iejscach. Form alnie przekształcenie to m ożem y
opisać następująco:
W(A)
= wi(A) U
W2 (A)
U ... U
(5.1)
O p e ra to r H utch in so n a pozw ala opisać działanie K W R w postaci ukła­
du dynam icznego: o d p o w iad ając eg o je j system u iteracyjnego. Niech
A q będzie zbiorem (o b ra ze m ) p o c zą tk o w y m . P rzez w ielo kro tn e sto­
sowanie te g o sam ego przekształcenia W o trzy m u je m y ciąg zbiorów
4fc+ i = W ( A k ) ,
k = 0 ,1 ,2 ,...
W ten sposób IFS w y tw a rza ciąg obrazów , dążący w granicy do
obrazu końcowego Aoo nazyw anego a tra k to re m danego IFS (czy od­
p o w iad ającej m u K W R ). Jest on lew ostronnie niezm ienniczy pod
dzia łan iem IFS. O zn ac za to , że
W (A 00) = A 00.
M ó w im y , że A oo je s t p u n k te m stałym przekształcenia W. W ja k i
sposób w y ra zić to , że An dąży do A oo? Jak sprecyzować pojęcie
6 Formalnie dopuszczamy dowolny zwarty podzbiór płaszczyzny A
Zwartość oznacza, że A jest domknięty i że A zawiera wszystkie swoje
punkty graniczne, czyli że dla każdego ciągu elementów A wszystkie
jego punkty skupienia należą do A. Otwarte koło jednostkowe, złożone
z punktów płaszczyzny leżących w odległości mniejszej niż 1 od po­
czątku układu współrzędnych, nie jest zbiorem zwartym. Jednak do­
mknięte koło jednostkowe, złożone z punktów, których odległość od
początku układu nie przekracza 1, jest zbiorem zwartym.
5.2. Składanie prostych przekształceń
kontrakcji? Czy Aoo je s t jed y n y m a tra k to re m dla W ? O dp ow iedzi na
te pytania znajdą się w dalszej części tego rozdziału.
Co się stanie, jeśli zmienimy przekształcenia, czyli jeśli
zmienimy param etry kopiarki (to znaczy liczbę soczewek
albo ich współczynniki redukcji, lub też jeśli kopie rozmieści­
my w inny sposób)? Na rysunkach przedstawiliśmy rezultaty
działania IFS przy różnych ustawieniach parametrów. Plan
konstrukcji jest przedstawiony osobno: linią przerywaną za­
znaczony jest obraz początkowy, a linią ciągłą wielokąty od­
powiadające poszczególnym kontrakcjom.
W tabeli 5.2 znajdują się param etry odpowiadających im
przekształceń afinicznych. Można ich użyć w programie na
zakończenie tego rozdziału do reprodukcji przedstawionych
tutaj figur.
Naszym pierwszym przykładem jest niewielka modyfi­
kacja IFS generującego trójkąt Sierpińskiego (rysunek 5.9).
Składa się ona z trzech przekształceń pomniejszających
w skali 1/2 i umieszczających kopie w sposób pokazany na
schemacie.
O dm iana
trójk ąta
Sierpińskiego
Rysunek 5.9: System iteracyjny o trzech przekształceniach podo­
bieństwa; współczynnik zmniejszania wynosi 1/2
Wydawałoby się, że wszystkie IFS, składające się z trzech
przekształceń pomniejszających w skali 1/2, wytworzą coś
podobnego do trójkąta Sierpińskiego. Jest to jednak dalekie
od prawdy. Na rysunku 5.10 pokazano przykład działania
IFS, który różni się od wyjściowego tylko dodatkowymi obro­
tami. Dolne prawe przekształcenie obraca kopię o 90 stopni
w kierunku zgodnym z ruchem wskazówek zegara, podczas
320
5. Kodowanie obrazów
gdy dolne lewe obraca kopię też o 90 stopni, ale w przeciw­
nym kierunku. W rezultacie otrzymujemy obiekt zdecydo­
wanie różny od trójkata Sierpińskiego, nazywany bliźniaczą
choinką.
B liźn iacza
choinka
Ł
CF3
c=£]
Rysunek 5.10: Inny system iteracyjny, również złożony z trzech
przekształceń podobieństwa o skali 1/2
Sm ok
o potrójnej
sym etrii
R ysunek 5.11: Białą linię narysowano jedynie w celu pokazania,
w jaki sposób figurę tę można rozbić na trzy części podobne do
całości
Będziemy teraz zmieniać również współczynniki redukcji
przekształceń. Na rysunku 5.11 dla wszystkich trzech prze­
kształceń wybraliśmy współczynnik 5 = 1/ \/3. Dodaliśmy
ponadto obrót o 90 stopni zgodnie z ruchem wskazówek ze­
gara. W wyniku otrzymaliśmy dwuwymiarowy obiekt z fraktalnym brzegiem, pewnego rodzaju smoka z trzema osiami
symetrii. Jest on niezmienniczy przy obrotach o 120 stopni.
321
5.2. Składanie prostych przekształceń
Mogłoby być dobrym ćwiczeniem znalezienie wymiaru samopodobieństwa tego atraktora przy użyciu technik z po­
przedniego rozdziału.
Labirynt
C antora
Rysunek 5.12:
System iteracyjny o trzech przekształceniach,
z których tylko jedno jest podobieństw em . A traktor jest zw iązany
ze zbiorem Cantora
Jak dotychczas, korzystaliśmy tylko z przekształceń bę­
dących podobieństwami. Na rysunku 5.12 tylko jedno z prze­
kształceń jest podobieństwem (ze współczynnikiem redukcji
1/3), natomiast drugie jest obrotem złożonym z trzykrot­
nym pomniejszaniem w kierunku poziomym, a w trzecim
występuje dodatkowo odbicie. W rezultacie otrzymujemy
rodzaj labiryntu, co uzasadnia wprowadzenie nazwy labirynt
Cantora. Zbiór Cantora jest wpleciony w każdy szczegół
tej konstrukcji. Wszystkie punkty iloczynu kartezjańskiego
dwóch zbiorów Cantora są tu taj w pewien systematyczny
sposób połączone.
Ostatni przykład IFS o trzech przekształceniach przed­
stawiono na rysunku 5.13. Przekształcenia m ają różne współ­
czynniki pomniejszania w kierunkach poziomym i pionowym,
dwa używają obrotów, a jedno nawet pochylania. Wynik
wydaje się znajomy: zgrabna gałązka.
Przyjrzyjmy się teraz dwóm przykładom przekształceń
o więcej niż trzech kontrakcjach (rysunki 5.14 i 5.15). We
wszystkich rozważanych przekształceniach występują jedy­
nie podobieństwa i translacje. Jedno z przekształceń na ry­
sunku 5.14 składa się również z obrotu. Jednak już te zadzi­
wiająco proste konstrukcje tworzą złożone i piękne struktury
przypominające swym kształtem kryształki lodu.
Na koniec zamknijmy naszą małą galerię zaskakująco rea-
322
5. Kodowanie obrazów
IFS dla gałązki
R ysunek 5.13: IFS o trzech przekształceniach afinicznych (bez
podobieństw)
K ryształek
o czterech prze­
k ształcen iach
K ryształek
o pięciu p rze­
k ształcen iach
R ysunek 5.15: IFS o pięciu przekształceniach podobieństwa.
Zwróćmy uwagę na krzywe Kocha widoczne w atraktorze
5.2. Składanie prostych przekształceń
323
Rysunek 5.16:
A traktor dla K W R o pięciu przekształceniach
m oże przypom inać naw et drzewo (atraktor jest pow iększony dw u­
krotnie w stosunku do wielkości planu konstrukcji)
Trójkąt,
kw adrat i koło
Rysunek 5.17:
pom ocą IFS
Sposób kodow ania trójkąta, kw adratu i koła za
324
5. Kodowanie obrazów
listycznym rysunkiem drzewa. Czy możecie sobie wyobrazić,
że nawet ten obraz jest atraktorem prostego IFS? Jest on za­
kodowany przez pięć tylko przekształceń afinicznych. W tym
przypadku jedynie jedno z nich jest podobieństwem. Ten re­
zultat w sposób bardzo przekonujący pokazuje przydatność
IFS do rysowania fraktalnych obrazków.
G eom etria
fraktalna jest
rozszerzen iem
klasycznej
geom etrii
Co jest obrazem końcowym (atraktorem) dowolnie za­
projektowanej KW R? Czy jest to zawsze fraktal? Z pewnoś­
cią nie. Wiele obiektów klasycznej geometrii można również
otrzymać jako atraktory IFS. Często jednak ten sposób re­
prezentacji nie wnosi wiele nowego ani nie jest prostszy od
klasycznej definicji. Na rysunku 5.17 pokazujemy, jak można
otrzymać kwadrat i trójkąt jako atraktory dla pewnych IFS.
Jednak już reprezentacja koła przy użyciu IFS pozostawia
wiele do życzenia. Możliwe są jedynie jego przybliżenia.
5 .3 . IF S i k la s y c z n e fra k ta le
Przy użyciu IFS konstrukcja klasycznych fraktali staje
się bardziej przejrzysta. Można je otrzymać jako atrak­
tory odpowiednich systemów iteracyjnych. Oznacza to też,
że problem ich istnienia, który omawialiśmy w rozdziale 3
(przeprowadziliśmy szczegółową dyskusję dla krzywej Ko­
cha), można obecnie ostatecznie rozwiązać pokazując, że
dla danego IFS istnieje jednoznaczny atraktor. Zrobimy to
w tym rozdziale. Dodatkową zaletą systemów iteracyjnych
jest to, że pozwalają one na lepsze zrozumienie teorioliczbowego opisu niektórych klasycznych fraktali, takich jak zbiór
Cantora, czy trójkąt Sierpińskiego.
Zbiór C antora
Pamiętacie zapewne charakterystykę zbioru Cantora za
pomocą systemu trójkowego. Jest on zbiorem punktów
z przedziału jednostkowego, których rozwinięcie trójkowe nie
zawiera cyfry 1 (zob. rozdział 2). Przyjrzyjmy się teraz IFS
o trzech przekształceniach:
,
N
1
«>o(a0 = 3^>
/
X
1
wn x ) " 3 X+
1
3
,
’
X
1
W2(x >= 3 X +
2
3
’
Zauważmy, że ten system używa tylko jednej zmiennej (to
znaczy działa na odcinku, a nie na płaszczyźnie).
Rysunek 5.18 pokazuje pierwsze kroki jego iterowania
(przy użyciu przedziału jednostkowego jako obrazu począt­
kowego). A traktorem tej kopiarki jest oczywiście odcinek
d.ó .
ozo
ir s i Klasyczne iraKiaie
krok 0
kroki
w2W
krok 2
i---------- i............. i---------- f............. i............. \..............i---------- k..............i----------- 1
w0(w0(/)) W^W^J)) w0(w2(D) Wj(w0(/)) W jiW ji/)) W ^w^l)) w2{w0{I))
w2(H'2(/>)
Rysunek
5 .1 8 : Pierw sze kroki iterow ania trójkowego IFS. Jeżeli
w ykluczym y u ą , to atraktorem będzie zbiór Cantora
jednostkowy (jest on po prostu cały czas przekształcany z po­
wrotem na siebie). Cóż jednak się stanie, jeśli użyjemy tylko
dwóch przekształceń: w q i
W ydaje się jasne, że w tym
przypadku atraktorem będzie zbiór Cantora (iteracje będą
odpowiadały krokom w jego klasycznej konstrukcji; kolejno
odrzucane będą środkowe części trzecie).
Zauważmy, że w\ przekształca odcinek jednostkowy na
odcinek [1/3, 2/3], to znaczy na punkty, których rozwinięcie
trójkowe przebiega od 0,1 do 0,1222 . .. — 0,12. Oznacza to,
że kiedykolwiek użyjemy w\ przy iterowaniu naszego IFS,
otrzymamy punkt, którego rozwinięcie trójkowe zawiera cy­
frę 1. Inaczej mówiąc, opuszczanie wszystkiego, co pochodzi
od wi, doprowadza do trójkowego opisu zbioru Cantora.
Zajmijmy się teraz trójkątem Sierpińskiego (czy też ra- T ró jk ą t
czej jego odmianą pokazaną na rysunku 5.9). Rozważamy S ie rp iń sk ie g o
IFS, który składa się z czterech podobieństw, przekształca­
jących kwadrat jednostkowy Q na jego cztery przystające
ćwiartki (zob. rysunek 5.19).
Dla wygody oznaczmy te przekształcenia w postaci dwój­
kowej (to znaczy 00, 01, 10 i 11 zamiast 0, 1, 2, 3) :
wm{x,y) = ( \ x , \ y ) ,
mo{x,y) = {\x +
w0i(x ,y ) = ( \ x , \ y + ±),
\y),
w u (x,y) = { \ x +
\ y + \).
Połączenie tych czterech podobieństw w jeden IFS da nam
jako atraktor kwadrat jednostkowy. Rysunek 5.20 pokazuje
pierwszą iterację tego systemu. Zauważmy, że używamy
binarnych współrzędnych do oznaczania mniejszych kwad­
ratów, generowanych w każdym kroku. W każdym kroku
nasz IFS powiększa czterokrotnie liczbę małych kwadratów.
326
5. Kodowanie obrazów
C ztery
kontrakcje
R ysunek 5.19: Kontrakcje przekształcające kwadrat jednost­
kowy na cztery przystające mniejsze kwadraty
P ierw sze kroki
W01
0
w oo
11
w
w
w
10
w
w
,V
01
Kb ( K l > w oo( V
W11
M'oo> V
W10)
w
W10
00
o
w
wJ
00
w
łV
01
10
11
R ysunek 5.20: Pierwsze dwa kroki IFS. Zauważmy, że ma­
łe kwadraciki można oznaczać za pomocą dwójkowego układu
współrzędnych
Dwójkowy układ współrzędnych jest bardzo wygodny do pro­
wadzenia ich rejestru.
Zobaczmy na przykład, co się dzieje w pierwszym kroku.
Przekształcenie u/oi przekształca kwadrat jednostkowy Q na
mniejszy kwadrat u>oi (Q ) o współrzędnych (0,1),
w n (Q) jest mniejszym kwadratem o współrzędnych (1,1)
i tak dalej. W drugim kroku możemy odszukać na przykład
kwadrat (10,11), którym jest w h ( w q i ( Q ) ) ( c o oznacza, że
najpierw stosujemy do Q przekształcenie woi, a następnie
w\\ do otrzymanego obrazu). Rozważmy następny przykład:
^ 10 ( ^ 0 0 (^ 11 (Q))) da nam w rezultacie kwadracik z trze-
o.o. i r o i Klasyczne iraKiaw
ciego kroku, (101,001). Czy już widać, w jaki sposób ozna­
czamy małe kwadraciki? Jeżeli składaliśmy przekształcenia
wio(«>oo(wii(Q))),
bierzemy pierwsze cyfry oznaczające
przekształcenia i ustawiamy je od lewej do prawej, co daje
101. Otrzymujemy w ten sposób dwójkową współrzędną x
otrzymanego kwadracika. Następnie bierzemy drugie cyfry
z oznaczeń przekształceń i ustawiamy je również od lewej do
prawej. Otrzymujemy 001, co daje nam współrzędną y.
Wiemy już, że atraktor IFS, składającego się z prze­
kształceń wqo, wq\ oraz w \ q, jest trójkątem Sierpińskiego.
Można to również opisać następująco: jeśli w kwadracie
jednostkowym opuścimy wszystko, co pochodzi od w \ \ , to
również otrzymamy trójkąt Sierpińskiego. Teraz widzimy,
że opłacało się wprowadzić kodowanie dwójkowe. Dla dowol­
nego kroku k mamy
małych kwadracików, które możemy
oznaczać za pomocą dwójkowych współrzędnych (każda ma
k cyfr). Jak możemy sprawdzić, czy w wytworzeniu ja­
kiegoś kwadracika za pomocą IFS było użyte przekształcenie
^ n ? Weźmy obie współrzędne wyznaczające dany kwa­
dracik i ustawmy je jedną nad drugą. Na przykład dla
(100111, 010000) oraz (100111, 001100) otrzymujemy
100111
010000
NIE
100111
001100
TAK
Jeżeli odnajdziemy cyfrę 1 na tej samej pozycji w obu współ­
rzędnych, oznaczać to będzie, że w\i było używane, w prze­
ciwnym razie nie było. Dlatego też omijanie tego typu kwa­
dracików w każdym kroku iteracji pozwoli nam otrzymać
trójkąt Sierpińskiego z kwadratu jednostkowego.7 Opis ten
jest utrzymany w tym samym duchu co trójkowy opis zbioru
Cantora. Co więcej, zauważmy, że właśnie stworzyliśmy na­
rzędzie do analizy geometrycznych wzorów pojawiających
się w trójkącie Pascala. Nasze kryterium pomijania odpo­
wiada dokładnie teorioliczbowemu kryterium Kummera dla
parzystych współczynników dwumianu Newtona, którego
używaliśmy w programie na zakończenie rozdziału 2.
W rozdziale 9 poświęcimy więcej miejsca temu intrygującemu
związkowi.
7 To tłumaczy dwójkową reprezentację trójkąta Sierpińskiego, której
używaliśmy w rozdziale 3, s. 236, przy omawianiu samopodobieństwa.
oz t
328
5. Kodowanie obrazów
D yw an
Dywan Sierpińskiego ma bardzo podobny opis teorioS ie rp iń sk ie g o liczbowy. Zacznijmy po prostu od kwadratu jednostkowego
i podzielmy go na dziewięć przystających kwadracików. Ja­
ko odpowiedniego IFS użyjemy przekształceń przeprowadza­
jących kwadrat jednostkowy na te kwadraciki, tak jak poka­
zano na rysunku 5.21 (znowu nie dopuszczamy obrotów czy
lustrzanych odbić).
D ziew ięć
k o n tra k c ji
W02
wn
W22
woi
WH
" ii
"oo
%
W20
0
1
2
R ysunek 5.21: Kontrakcje przekształcają kwadrat jednost­
kowy na dziewięć przystających mniejszych kwadratów, które
można w sposób wygodny opisać przy użyciu trójkowego układu
współrzędnych
Tym razem oznaczamy przekształcenia przy użyciu liczb
trójkowych, tzn. u/oo, woi, Wo2> w io,..., W22- Zgodnie z tą
konwencją każdy kwadracik w A;-tym kroku jest oznaczany za
pomocą pary trójkowych współrzędnych (mających k cyfr).
Przechodząc do granicy, każdy punkt kwadratu jednostko­
wego można opisać za pomocą pary nieskończonych ciągów
trójkowych, jak na przykład
( 011201 ..., 210201 ...).
Aby otrzymać dywan Sierpińskiego, wykluczamy wszystko,
co pochodzi od przekształcenia w n . Oznacza to, że zostają
tylko te punkty z kw adratu jednostkowego, które spełniają
następujące warunki: w przedstawieniu punktu za pomocą
pary współrzędnych trójkowych nie pojawia sie cyfra 1, albo
jeśli na jednej ze współrzędnych pojawia się cyfra 1, to w tym
samym miejscu na drugiej współrzędnej nie ma jedynki. Na
przykład zatrzymujemy punkt o współrzędnych (110, 001).
Również punkt (2012, 1010) należy do dywanu, ponieważ
£>,3.
i t s i klasyczne iraktale
punkt ten można również zapisać jako (2020, 1010). Wy­
rzucamy zaś punkty takie jak (2010, 1010). Zauważmy, że
przy tym opisie dywan Sierpińskiego jest w pewnym sensie
logicznym rozszerzeniem zbioru Cantora na płaszczyznę.
W książce tej przedstawiliśmy galerię klasycznych fraktali. Do galerii tej przez długi czas nic naprawdę nowego nie
przybyło. Dopiero niedawno B. Mandelbrot otworzył sze­
roko drzwi do wielu nowych sal w tej galerii i dodał kilka nie
starzejących się arcydzieł — jak na przykład zbiór Mandelbrota.
Zostały również skonstruowane, czy też odkryte, dwie
nowe struktury, które stanowiły stymulację dla współczes­
nych prac badawczych. Pierwsza z nich to dziwny atraktor,
odkryty w roku 1962 przez E. Lorenza, pracującego w MIT,
a druga to paprotka Bamsleya. Zbiór Mandelbrota, atrak­
tor Lorenza i paprotka Barnsleya każde otworzyły nowe, od­
dzielne działy w galerii matematycznych dziwolągów. Wśród
nich paprotka Barnsleya jest najbliższa tematyki tego roz­
działu.
Barnsley zakodował obraz, przedstawiony na rysunku
5.23, za pomocą czterech tylko systemów soczewek. Na ry­
sunku 5.22 pokazano plan konstrukcji odpowiadającej mu
KWR, Jako obrazu początkowego użyliśmy prostokąta. Za­
uważmy, że kontrakcja numer 3 zawiera również lustrzane
odbicie. Kontrakcja numer 4 nie jest podobieństwem: prze­
prowadza prostokąt na odcinek. A traktor tej KW R nie
będzie w ściśle matematycznym znaczeniu samopodobny.
ó 'l\)
5. Kodowanie obrazów
330
Paprotka
B arn sleya
R ysunek 5.23: Paprotka Barnsleya jest generowana za pomocą
KWR o czterech soczewkach
Oryginalne przekształcenia Barnsleya podajemy w tabeli 5.18
jak również, przy użyciu nieco innych oznaczeń, w tabeli 5.2.
Wpływ odkrycia Barnsleya na rozwój geometrii fraktalnej polegał na tym, że potrafił on stworzyć bardzo reali­
stycznie wyglądającą paprotkę, która jednak należy do tej
8 M. F. Barnsley, Fractal Modeling of Real World Images,w: The
Science o f Fractal Im ages, H.-O. Peitgen i D. Saupe (red.), SpringerVerlag, New York 1988, s. 241.
5.3. 1F$ 1 klasyczne fraktale
1
2
3
4
Translacje
e
/
0,0
T6
0,0
1,6
0,0
0,44
0,0
0,0
551
O broty
0
-2 ,5
49
120
0
<t>
-2 ,5
49
-5 0
0
Zm niejszanie
r
s
0,85
0,85
0,34
0,3
0,3
0,37
0,0
0,16
P rzek ształcen ia
dla paprotki
B arnsleya
T a b e la 5 .1 :
P rzekształcenia dla paprotki Barnsleya. K ąty są
podane w stopniach
P rzek ształcen ie
krzyw ej K ocha
na paprotkę
R y s u n e k 5 .2 4 : W ychodząc od param etrów dla krzywej K ocha,
przechodzim y w sp osób ciągły do tych dla paprotki, przeprowa­
dzając tym sam ym jeden fraktal w drugi
samej kategorii co trójkąt Sierpińskiego, krzywa Kocha czy
zbiór Cantora. Oznacza to, że kategoria ta zawiera nie tylko
matematyczne dziwolągi, które wydają się dalekie od na­
tury. Dopuszcza ona też takie struktury, które są pokrewne
kształtom, występującym w naturze. Możemy je otrzymać
przez niewielką modyfikację konstrukcji „matematycznych
potworków”. W pewnym sensie kopiarka generująca pa­
protkę powstaje przez „potrząśnięcie” KWR dla krzywej
Kocha. W rezultacie systemy soczewek zmieniają zarówno
swoje położenia, jak również współczynniki redukcji (zob.
rysunek 5.24).
Zajmiemy się obecnie innym aspektem pojęcia KWR.
Przesłanie związane z przedstawieniem paproci jest bardzo
332
5. Kodowanie obrazów
sugestywne. Obraz paproci jest niesłychanie złożony i skom­
plikowany oraz — jak się wydaje — zawiera wiele informacji.
Jednakże, co wynika z rysunku 5.22, ilość informacji w nim
zawarta jest z punktu widzenia IFS niewielka. Dzięki tej ob­
serwacji nasuwa się pomysł, by użyć IFS jako narzędzia do
kodowania obrazu i jego kompresji.
5 .4 . K o d o w a n ie o b r a z u p r z y u ż y c iu
s y s te m ó w ite r a c y jn y c h
Każdy z obrazów w naszej galerii otrzymano przy użyciu
bardzo prostego urządzenia, którego plan budowy możemy
odtworzyć już po pierwszej iteracji. Ile różnych obrazów
możemy wyprodukować w ten sposób? Odpowiedź jest oczy­
wista — nieskończenie wiele. Każda liczba i wybór socze­
wek oraz sposób ich rozmieszczenia definiują nowy obraz.
Możemy więc myśleć o planie budowy KW R (to znaczy
o zbiorze przekształceń, które opisują IFS) jako o planie
konstrukcji (czy też kodowania) danego obrazu. Rysunek
5.25 ilustruje tę interpretację przy użyciu stuktury przypo­
minającej gałązkę. A oto te przekształcenia:
1
2
3
K odow an ie
obrazu p rzy
d u żym
w sp ółczyn n ik u
kom presji
a
-0,467
0,387
0,441
b
0,02
0,43
-0,091
c
0,113
0,43
-0,009
d
0,015
-0,387
-0,322
e
0,4
0,256
0,421
f
0,4
0,522
0,505
Powyższy przykład ma bardzo duży współczynnik kom­
presji, Załóżmy, że posiadany obraz jest dany jako macierz
n x m, składająca się z czarnych i białych pikseli (punktów
na ekranie komputera). Oznacza to, że do reprezentacji
tego obrazu bez żadnego kodowania potrzebujemy n x m
bitów informacji. Plan konstrukcji gałązki przewiduje trzy
systemy soczewek, z których każdy jest opisany za pomocą
sześciu liczb rzeczywistych. Liczba rzeczywista jest repre­
zentowana w komputerze przez s bitów (zwykle s = 32).
A zatem plan konstrukcji gałązki zużywa tylko 18s bitów.
Współczynnikiem kompresji obrazu będzie więc nm/18s. Za­
łóżmy, że n = m — 1000 oraz s = 32. Otrzymamy więc
stosunkowo duży współczynnik kompresji, rzędu 1700.
5A. Kodowanie obrazu przy użyciu IFS
P lan konstrukcji
gałązki
Rysunek 5.25: Plan konstrukcji gałązki: kodowanie za pomocą
trzech przekształceń
Pozornie złożoną konstrukcję gałązki przedstawiono
w bardzo prosty sposób. Widzimy więc, że pewne skompli­
kowane struktury są w rzeczywistości bardzo proste, jeżeli
rozpatrzymy je z punktu widzenia KWR. Ta niezwykła kon­
kluzja może doprowadzić do obalenia wielu podstawowych
zasad w dziedzinie kompresji obrazu i percepcji wzrokowej.
Tak na przykład pewne szkoły opisują funkcjonowanie ludz­
kiego mózgu podczas percepcji wzrokowej przez porównanie
go do działania komputerów i algorytmów opisujących dzia­
łanie komputera. Istnieją modele, które próbują wyjaśniać,
w jaki sposób człowiek rozróżnia obiekty, takie jak trójkąt
równoboczny i nierównoboczny. W tym kontekście musimy
przyznać, że mózg ma niesłychaną moc obliczeniową, po­
nieważ potrafi w ułamku sekundy rozróżniać obiekty tak
złożone jak dąb i brzoza. Nasza analiza obrazów i ich planów
konstrukcji za pomocą KWR pozwala nam na uwagę, że być
może dąb jest skomplikowanym obiektem tylko z punktu wi­
dzenia klasycznej geometrii. Wydaje się, że ogólne pojęcie
dębu ma bardzo zwarty odpowiednik w mózgu człowieka.
Geometria fraktalna oferuje nowy i dający wiele możliwości
sposób opisu dla problemów kodowania obrazów. Możemy
więc rozważać możliwość, że nasz mózg używa sposobów ko­
dowania podobnych do tych, jakich używamy do opisu fraktali.
Podsumujmy, czego dowiedzieliśmy się do tej pory. W pro­
wadziliśmy pewnego rodzaju urządzenie, które nazwaliśmy
KWR (kopiarką wielokrotnie redukującą), a które jest w isto­
cie układem systemów soczewek, pomniejszających obraz
wyjściowy. Nasza KW R generuje układ dynamiczny, który
N ow y sp osób
sp ojrzen ia na
p ercep cję
obrazów
334
5. Kodowanie obrazów
z kolei nazwaliśmy IFS. Oznacza to, że jeśli nasze urządzenie
będzie działało w pętli sprzężenia zwrotnego, to otrzymamy
ciąg obrazów Aq, A \, A 2 , ..., gdzie Ao jest dowolnym obra­
zem początkowym* Ciąg ten będzie zbliżał się do obrazu
końcowego, A 0G, który nie zależy od obrazu początkowego
A0. Jeżeli wybierzemy A 00 jako obraz początkowy, to nie
będą zachodziły żadne zmiany (to znaczy IFS pozostawi A ^
nie zmienione). Mówimy wtedy, że A 00 jest punktem stałym
IFS albo też, że Aoo jest atraktorem tego układu dynamicz­
nego. W tym sensie możemy utożsamiać IFS z jego atrak­
torem. Opis matematyczny systemów soczewek dany jest
przez zbiór przekształceń afinicznych, z których każde jest
wyznaczone przez sześć liczb rzeczywistych. Liczby te mogą
być interpretowane jako kod odpowiadający końcowemu
obrazowi A ^ . Dekodowanie odbywa się przez kopiowanie do­
wolnego obrazu początkowego. Po pewnym czasie wyłoni się
zakodowany obraz A ^ .
P r o b le m
Czasami jednak dekodowanie obrazu przy użyciu IFS
d e k o d o w a n ia może przedstawiać poważny problem. Weźmy na przykład
paprotkę Barnsleya. Na rysunku 5.26 pokazano pierwsze
kroki IFS; jest oczywiste, że nawet po 10 krokach będziemy
daleko od jej ostatecznego obrazu. Nasuwa się wiec ogólne
pytanie: po ilu iteracjach zbliżymy się wystarczająco blisko
R ysunek 5.26: Kroki piąty i dziesiąty działania kopiarki odpo­
wiadającej paprotce
5.4. Kodowanie obrazu przy użyciu IFS
335
do końcowego obrazu? Żeby odpowiedzieć na to pytanie,
trzeba najpierw sprecyzować, co rozumiemy pod pojęciem
wystarczająco blisko. Rozsądne wydają się dwa kryteria.
Pierwsze wymaga, aby dwie kolejne iteracje zmieniały
tak mało w obrazie, by zmiana była mniejsza niż graficzna
rozdzielczość ekranu. Kryterium to jest wygodne dla pro­
blemów obliczeniowych. Podobną zasadą kierujemy się przy
obliczaniu pierwiastka kwadratowego: otrzymana liczba jest
przyjmowana za jego wartość, jeżeli kolejne iteracje nie zmie­
niają już jej pierwszych dziesięciu cyfr. Drugie kryterium
jest wygodniejsze i pozwala również na oszacowanie a priori
liczby iteracji. Można je wyprowadzić z następującej ana­
lizy najgorszego przypadku. Przypomnijmy, że początkowy
obraz może być zupełnie dowolny, załóżmy jednak, że po­
krywa on atraktor w całości. Weźmy na przykład wystar­
czająco duży prostokąt. Ponieważ końcowy obraz nie zależy
od obrazu początkowego, powtarzamy iteracje dopóty, do­
póki będzie można rozpoznać pomniejszone wersje począt­
kowego obrazu. Taką właśnie sytuację mamy na rysunku
5.26. Widać, że nawet po dziesięciu iteracjach ten układ
dynamiczny jest daleki od obrazu końcowego, jego atraktora. Jest to spowodowane tym, że przekształcenie numer
1 pomniejsza tylko o około 85%. Dlatego też, jeżeli chcemy
pomniejszyć początkowy kwadrat do wielkości nie przekra­
czającej wielkości punktu ekranu — czyli do momentu, gdy
prostokąt przestanie być dostrzegalny — to musimy przepro­
wadzić co najmniej N iteracji. Liczbę N można oszacować
w sposób następujący. Załóżmy, że wyjściowy prostokąt jest
narysowany na ekranie o wielkości 10 0 0 x 10 0 0 pikseli i że
pokrywa 500 x 200 pikseli. W tedy N jest w przybliżeniu
rozwiązaniem równania
500-0,85^ = 1.
Stąd otrzymujemy N ~ 39. Jeśli chcielibyśmy przedstawić
graficznie N iteracji IFS, musielibyśmy wykonać obliczenia
i narysować
4 W+ 1
M = 1 + 4 + 42 + 43 H
_ i
1- 4 ^ = ----- -----O
prostokątów. Dla N = 39 oznacza to, że trzeba wyliczyć
niesłychanie dużą ich liczbę M I-ii 4 ^^
1024. Jeżeli nawet
założymy, że dysponujemy komputerem, który przeprowa-
336
5. Kodowanie obrazów
dzi obliczenia i narysuje półtora miliona prostokątów na se­
kundę, to i tak na końcowy obraz musielibyśmy czekać 1018
sekund, czyli więcej niż 1010 lat. Jest to czas porównywalny
z wiekiem Wszechświata. Powyższy przykład może nam dać
przedsmak problemów związanych z dekodowaniem. W roz­
dziale 6 poznamy jednak bardzo prostą i dającą wiele moż­
liwości metodę dekodowania. Umożliwia ona otrzymanie
dobrego przybliżenia obrazu końcowego na ekranie kompu­
tera już w kilka sekund. Zmodyfikujemy również powyższy
nieefektywny algorytm w taki sposób, że będziemy mogli
otrzymać obraz paprotki (i innych atraktorów) z dokładnoś­
cią, jaką tu taj postulowaliśmy, ale za to w rozsądnym czasie.
P r o b le m
Aby użyć IFS do kodowania obrazu, trzeba najpierw rozo d w ro tn y : wiązać podstawowy problem: jak dla danego obrazu skonk o d o w a n ie struować odpowiednią KWR. Jest to problem poszukiwania
przekształcenia odwrotnego: kodowanie jest odwrotnością
dekodowania. Oczywiście nie możemy oczekiwać, że zawsze
będziemy mogli skonstruować KWR, która pozwoli nam ot­
rzymać dany obraz bez zniekształceń. Powinno być jednak
możliwe otrzymanie dobrego przybliżenia. Jak pokażemy
poniżej, możemy konstruować takie przybliżenie z dowolną
dokładnością.
Załóżmy, że mamy dany czarno-biały obraz przedsta­
wiony na ekranie o rozdzielczości n x m pikseli. Obraz taki
można dokładnie odtworzyć za pomocą KW R skonstruowa­
nej w następujący sposób. Zakładamy, że dla każdego czar­
nego piksela tego obrazu istnieje system soczewek, który
pomniejsza obraz wyjściowy do tego właśnie punktu. Po
pojedynczym przebiegu, wychodząc od dowolnego obrazu,
urządzenie nasze wytworzy pierwotny obraz. Oczywiście
nie jest to efektywny sposób kodowania obrazu, gdyż dla
każdego czarnego piksela musimy zatrzymywać w pamięci
osobne przekształcenie afiniczne. Powyższe rozumowanie
wykazuje, że teoretycznie jest możliwe otrzymanie dowolnie
dobrego przybliżenia danego obrazu. Dlatego też głównym
problemem jest skonstruowanie lepszej KWR, takiej która
nie używałaby tak wielu przekształceń afinicznych, a jedno­
cześnie wytwarzałaby wystarczająco dokładne przybliżenie.
Okazuje się, że wiąże się z tym szereg problemów:
(1) Jak możemy określić jakość przybliżenia? Jak określamy
różnice pomiędzy obrazami?
(2) Jak wyznaczyć odpowiednie przekształcenia?
¿>.4. Aodowa/ne oDrazu przy użyciu ir s
óó(
(3) Jak zminimalizować liczbę koniecznych przekształceń afinicznych?
(4) Jaką klasę obrazów możemy brać pod uwagę przy tym
podejściu?
Powyższe problemy są porównywalne z trudnościami, jakim
musieli sprostać naukowcy, budujący podstawy teorii nazy­
wanej dzisiaj analizą fourierowską. Obecnie analiza fourie­
rowska jest standardowym narzędziem z niezliczoną liczbą
zastosowań. Jedno z nich jest związane z kodowaniem, ana­
lizą i przetwarzaniem sygnału dźwiękowego. Całkowite roz­
winięcie tej teorii zajęło jednak kilka setek lat; rozwiązanie
związanych z tym problemów wymagało zaangażowania naj­
tęższych matematycznych umysłów. W porównaniu z nią
teoria fraktalnego kodowania obrazu jest jeszcze w powija­
kach. Podejście to istnieje nie dłużej niż dziesięć lat i — jak
się wydaje — obiecuje zbudowanie całkiem nowego sposobu
analizy i syntezy obrazów.
Podczas gdy niektórzy widzą w tym przełom, inni uważa­
ją, że fraktale w ogólności, a fraktale w kodowaniu obrazów
w szczególności, są tylko przelotną modą bez przyszłości.
Nie powinny nas dziwić te rozbieżności w ocenie. Tak działo
się zawsze. Kiedy dawni giganci nauki robili milowe kroki,
wielu współczesnych ich nie doceniało. Mimo to Galileusz,
Kopernik, Kepler, Darwin, Mendel, Einstein oraz inni wielcy
uczeni nie będą zapomnieni tak długo, jak długo nauka coś
znaczy dla ludzkości, o ich ślepych krytykach zaś nikt nie pa­
mięta. Wierzymy, że geometria fraktali jest jednym z wiel­
kich osiągnięć nauki i to niezależnie od tego, czy zastoso­
wanie fraktali umożliwi znalezienie najlepszych praktycznie
ram dla kodowania obrazów. W każdym razie idee, jakie wy­
rosną z tego nowego podejścia, będą miały zasadniczy wpływ
na sposób, w jaki traktujem y obrazy.
D źw ięk i obraz są dw om a najw ażniejszym i sygnałam i d o cierającym i
do naszych zm ysłów ze św iata zew nętrznego. P o m ag ają zrozum ieć
otaczający nas św iat. Pod pew nym i w zględam i sygnały te są do
siebie podobne, a pod innym i różnią się znacznie. P odstaw ow y m o­
del fizyczny dla św iatła i dźw ięku je s t ten sam: m ianow icie m odel
falowy. Jednakże dźw ięk trw a w czasie. D źw ięk zaczyna się w pew ­
nym m om encie, a kończy w innym , istniejąc pom iędzy swym po­
czątkiem a końcem , obrazy nato m iast są statyczn e. O pis za pom o cą
fal stosuje się rów nież do prom ieniow ania cieplnego. D zięki pracom
Kodowanie
i dekodowanie
dźwięku
338
5. Kodowanie obrazów
Eulera, B ernoulliego, L a g ra n g e’a i w ielkiego francuskiego uczonego
Fouriera (1 7 6 8 -1 8 3 0 ) fale, niezależnie od stopnia ich kom plikacji,
m ają wspólny, piękny opis m atem atyczn y. Leży to u podstaw sze­
regów Fouriera. N ajw a żn ie js zy m , w y d aje się, osiągnięciem Fouriera
je s t je g o w kład do teorii rozchodzenia się ciep ła9 , w której szeroko
zastosow ał teo rię szeregów , noszących te ra z je g o im ię. Szeregi Fo­
uriera p o zw a la ją nam na opis d źw iękó w przy użyciu pojęcia oscy­
lacji. D źw ię k o trz y m u je m y ja k o złożenie czystych to n ó w w postaci
a,ksin(kujkt + Ok), gdzie dk je s t a m p litu d ą , a Uk — częstotliwością
podstaw ow ą. C ud ow ną właściw ością szeregów Fouriera jes t to , że po­
zw alają one naw et na opis czegoś ta k złożonego ja k dźw ięk skrzypiec.
D la każdego to n u istnieje je g o an aliza fourierow ska, która pozwala
nam na w y zn a czen ie w spółczynn ików dk i a;*., zaró w no m atem a ty cz­
nie, ja k te ż e k sp erym en ta ln ie . O dszu kan ie tych w spółczynników jest
problem em o d w ro tn y m dla dźw ięku . C zym harm oniki są dla dźw ięku,
ty m system y soczew ek w K W R są dla obrazów . Złożenie czystych
harm o n ik w u kład zie d źw iękó w od p o w iad a ustaw ieniu system ów so­
czew ek w K W R .
5 .5 . P o d s ta w a IF S : z a sa d a p r z e k s z ta łc e n ia
z w ę ż a ją c e g o
Problem kodowania obrazu doprowadził nas do jednego
z centralnych pytań: w jaki sposób możemy porównywać ob­
razy, jak mierzyć odległość między nimi? Są to główne pro­
blemy dotyczące zagadnień systemów iteracyjnych. Bez od­
powiedzi na to pytanie nie będziemy mogli precyzyjnie wy­
znaczyć parametrów, przy jakich nasze urządzenie wytwo­
rzy graniczny obraz. Felix Hausdorff, którego już wspomi­
naliśmy jako twórcę matematycznych podstaw pojęcia wy­
miaru fraktalnego, zaproponował definicję odległości, która
nosi obecnie jego imię — odległości Hausdorffa. Wprowa­
dzenie odległości Hausdorffa h ( A ,B ) ma dwie ważne kon­
sekwencje. Po pierwsze, możemy teraz w bardzo precyzyj­
nym sensie powiedzieć, że ciąg Ak ma granicę A 00 ' A 00
9 Fourier był przyjacielem Napoleona i towarzyszył mu w wyprawie
do Egiptu w roku 1798, gdzie zdobył dziwne przekonanie, że gorąco
pustynne najlepiej służy zdrowiu. Zgodnie z tym przekonaniem opatulał
się ciepło — niczym mumia — i przegrzewał pomieszczenia, w których
mieszkał.
5.5. Zasada przekształcenia zwężającego
339
jest granicą ciągu A q,
A 2 ,..., jeżeli odległość Hausdorffa hlAoo^Ak) zmierza do zera przy k dążącym do nie­
skończoności. Po drugie, może dla naszych rozważań waż­
niejsze, Hutchinson pokazał, że operator W , który opisuje
łączenie kopii obrazu
W (A)
=
wi(A)
U
W2 (A)
U ... U
w n
(A),
jest kontrakcją ze względu na odległość Hausdorffa. Oznacza
to, że istnieje stała c, gdzie 0 < c < 1, taka że
h ( W ( A ) ,W ( B ) ) < ch(A, B)
dla wszystkich (zwartych) zbiorów A i B na płaszczyźnie.
Hutchinson wiedział, jak do dowodu tej podstawowej włas­
ności użyć jednej z najpiękniejszych i najważniejszych za­
sad w matematyce — zasady przekształcenia zwężającego.
Ma ona długą historię, a swoje ostateczne sformułowanie
zawdzięcza wielkiemu polskiemu matematykowi, Stefanowi
Banachowi (1892-1945).
Jeśli praca i osiągnięcia matematyków mogłyby być obję­
te prawem patentowym, to zasada przekształcenia zwężają­
cego byłaby jedną z przynoszących najwięcej zysków, zarów­
no teraz jak i w przyszłości. Banach, przechodząc na wysoki
stopień abstrakcji, zrozumiał, że wiele szczególnych przy­
padków, przewijających się w pracach wcześniejszych m ate­
matyków, można objąć jedną genialną regułą. Jego wynik
jest obecnie twierdzeniem, dotyczącym topologii przestrzeni
metrycznych, dziedziny będącej podstawą współczesnej ma­
tematyki, a która jest wykładana dopiero na poziomie szkół
wyższych. Postarajmy się wytłumaczyć przystępnie istotę
zasady Banacha.
Odległość Hausdorffa w yznacza odległość zbiorów . Jest ona o p arta
na idei odległości pom iędzy p u n ktam i, któ rą poniżej w yjaśnim y. O g ó lnie rzecz biorąc, odległość pom iędzy p u n ktam i w przestrzeni X m ożna
m ierzyć za pom ocą funkcji d : X x X —►R. R oznacza tu ta j zbiór
liczb rzeczyw istych, a funkcja d ma następujące własności:
(1) d(x,y)
(2) d(x, y)
(3 ) d{x,y)
(4 ) d(x, y)
> 0,
= 0 w ted y i tylko w tedy, gdy x = y,
= d(y, x),
< d(x, z) + d(z, y) (nierów ność tró jk ą ta ),
Pom iar
odległości:
przestrzeń
m etryczna
340
5. Kodowanie obrazów
R ysunek 5.27: Trzy metody mierzenia odległości na płaszczyźnie
(odległość miasta, odległość euklidesowa, odległość w metryce ma­
ksimum) i odpowiadające im sfery jednostkowe (zbiory punktów,
które leżą w odległości 1 od początku układu współrzędnych)
praw d ziw e dla dow olnych x ,y ,z G X. Funkcja o pow yższych własnoś­
ciach nazyw a się metryką. P rzestrzeń w yposażona w m etry kę nazywa
się przestrzenią metryczną. O to kilka przykład ów (zo b . rysunek
5 .2 7 ):
( 1 ) D la liczb rzeczyw istych m o żem y przyjąć, że
d(x,y) = \ x - y\.
(2 ) D la p u n k tó w płaszczyzny
niow ać wielkość
P = (x,y), Q = (u,v)
m o żem y zdefi­
di(P, Q) = \ / ( x - u ) 2 + ( y ~ v ) 2.
Jest to metryka euklidesowa.
( 3 ) Inną m e try k ą na płaszczyźnie je s t
doo(P, Q) - max {|x - it|, \y - v|}.
Jest to metryka maksimum.
( 4 ) N astęp n ą m e try k ą przedstaw ioną na rysunku 5 .2 7 je s t
miasta dana przez
metryka
d\(P,Q) = \x —u\ + \y —v\.
M e try k a ta nazyw ana je s t m e try k ą m iasta, gdyż w mieście, aby.
5.5. Zasada przekształcenia zwężającego
przedostać się od pun ktu P do Q , m ożna poruszać się jed y n ie po
ulicach; ta k te ż liczona je s t odległość.
Po ustaleniu m etryki w przestrzeni X m ożem y za cząć rozw ażać
granice ciągów. Niech x o , x i , X 2, ... będzie ciągiem p u n któ w prze­
strzeni X , n atom iast a pew nym elem entem X. W te d y a nazyw am y
granicą tego ciągu, jeżeli je s t spełniony w arunek
lim d(xjfc, a) = 0.
O znacza to, że dla dow olnego e > 0 m ożem y znaleźć p u n kt x n
z ciągu ta k i, że w szystkie pun kty następne zn ajd u ją się w odległości
mniejszej niż e od pun ktu a :
d(xfc, a) < e,
k > n.
M ó w im y w tedy, że ciąg zbiega do a. C zasam i chcielibyśm y badać
zbieżność ciągu bez uprzedniej znajom ości je g o granicy. Jest to
m ożliwe jed n ak że tylko w przestrzeniach m ających pew ną d o d a t­
kową własność (je st nią zupełność przestrzeni m etry czn yc h ). M o że m y
w tedy analizow ać zbieżność, biorąc pod uwagę tylko odległości po­
między pun ktam i ciągu.
Przestrzeń X nazyw am y przestrzenią metryczną zupełną, jeżeli
każdy ciąg C auchy'ego m a granicę należącą do X. O zn acza to co
następuje. Niech xq , x i , X 2, ... będzie ciągiem w X. C iąg ten nazy­
w am y ciągiem C au ch y’ego, jeżeli dla każdego e > 0 m o żem y znaleźć
pun kt x m ciągu, ta k i że każde dw a pun kty dalej położone w ciągu
oddalone są od siebie o nie więcej niż e :
d(xi,xj) < e,
i,j > m.
W te d y granica istnieje i należy do X . Z ilu s tru jm y to pojęcie dw om a
przykładam i:
(1 ) Z b ió r liczb w ym iernych nie je s t zupełny. Istnieją ciągi C a u c h y ’ego
liczb w ym iernych, dla których granice istnieją, ale nie są liczbam i
w ym iernym i. A o to przykład takie g o ciągu. E lem enty je g o zadane
są w zorem
k= 1
Ten ciąg liczb w ym iernych d ą ży do niew ym iernej granicy 7r 2/ 6 .
(2 ) Płaszczyzna R 2 je s t zupełną przestrzenią m etryczn ą ze względu
na każdą z m etryk d\, d2 oraz doo.
342
5. Kodowanie obrazów
Środow isko dla
W rozdziale 1 dowiedzieliśmy się, że wiele rozmaitych
zasad y procesów dynamicznych można rozpatrzyć z punktu widze­
p rzek ształcen ia nia systemu sprzężenia zwrotnego. Wychodząc od zdarze­
zw ężającego nia początkowego ao, które jest wybierane z pewnego zbioru
zdarzeń dopuszczalnych, generowany jest ciąg zdarzeń ao, ai,
a 2 , ... W miarę upływu czasu (w miarę wzrostu n) ciąg może
ewoluować na wiele sposobów. Głównym zadaniem teorii
układów dynamicznych jest przewidywanie zachowania ukła­
du w długim czasie. Często zachowanie to nie będzie zależało
od wyboru początkowego ao- Jest to właściwe miejsce do za­
stosowania zasady przekształcenia zwężającego. Może nam
ona umożliwić przewidywanie zachowania się systemu. Mu­
simy pamiętać jednak o różnorodności zachowań mogących
wystąpić w systemie sprzężenia zwrotnego. Mogą być one
zarówno nieuporządkowane, jak też mogą poddawać się pew­
nym regułom. W ydaje się oczywiste, że naszą zasadę będzie
można stosować tylko do pewnej wybranej podklasy tych sy­
stemów. Ustalmy dwie własności charakteryzujące tę podklasę:
(1) P rzestrzeń . Elementami przestrzeni mogą być liczby,
obrazy, przekształcenia itd. (oznaczać je będziemy a n),
byle tylko należały do zbioru, w którym możemy zmie­
rzyć odległość. Na przykład odległością pomiędzy x i y
może być d(x,y). Dodatkowo przestrzeń powinna być
w pewnym sensie nasycona. Oznacza to tutaj, że jeżeli
rozważać będziemy jakiś ciąg i spełniać on będzie pe­
wien warunek określający istnienie granicy, to granica
istnieje i należeć będzie do tej przestrzeni. (Oznacza to,
że chcemy, żeby nasza przestrzeń była przestrzenią me­
tryczną zupetną).
(2) P rzek szta łcen ie. Ciąg obiektów jest otrzymywany przy
użyciu pewnego przekształcenia / . Oznacza to, że dla do­
wolnego początkowego elementu ao generowany jest ciąg
ao, a i, ¿¿2 ,... w sposób następujący: an+i = / ( a n), n =
0 ,1 ,2 ,... Zakładamy dodatkowo, że / jest kontrakcją, to
znaczy że dla dowolnej pary punktów w przestrzeni, po­
wiedzmy x i y, odległość pomiędzy ich obrazami f ( x )
i f ( y ) jest zawsze ściśle mniejsza niż odległość pomiędzy
10 Technicznie oznacza to, że
stałą i 0 < c < 1.
< cd( x)y ) ) gdzie c jest
5.5. Zasada przekształcenia zwężającego
343
Dla tak opisanej podklasy systemów sprzężenia zwrot­ K onsekw encje
nego zasada przekształcenia zwężającego ma następujące zasady
ważne konsekwencje:
p rzekształcenia
(1) A tra k to r. Dla dowolnego punktu startu układu sprzę­ zw ężającego
żenia zwrotnego an+i = f ( a n) możemy przewidzieć jego
ewolucję w czasie. Istnieje punkt a ^ (granica układu
sprzężenia zwrotnego), do której system będzie zdążał.
Granica ta jest zawsze taka sama, niezależnie od punktu
startu, aoo jest nazywane jedynym atraktorem układu
sprzężenia zwrotnego.
(2) N iezm ienniczość. Układ sprzężenia zwrotnego zawsze
pozostawia
nie zmienione. Oznacza to, że jeżeli wy­
startujemy od aooi to zawsze otrzymamy a oq. Q>oo jest
punktem stałym dla / , czyli /(aoo) —
(3) Oszacowanie. Możemy przewidzieć, jak szybko układ
sprzężenia zwrotnego zbliża się do aoo, jeżeli w ystartu­
jemy z punktu ao* Wystarczy, że będziemy znali jeden
przebieg dla punktu początkowego. Oznacza to, że wy­
starczy zmierzyć odległość pomiędzy ao i ai = /(ao),
a będziemy mogli wywnioskować, i nie pomylić się przy
tym zbytnio, po ilu przebiegach system zbliży się do aoo
tak blisko, jak byśmy sobie życzyli. Co więcej, możemy
oszacować odległość pomiędzy ao i aoo.
Przekształcenie / je s t przekształceniem zwężającym ( kontrakcją)
w przestrzeni m etrycznej X , jeżeli istnieje taka stała c, 0 < c < 1,
że dla wszystkich p u n któ w x, y przestrzeni X m am y
d(f(x),f(y)) < c d(x,y).
Stałą c nazyw ać będziem y współczynnikiem zwężania (kontrakcji)
dla / . Niech ao, a i , a 2, .. . będzie ciągiem p u n któ w zupełnej prze­
strzeni m etrycznej, otrzym an ych ja k o an+i = f( a n). P raw d ziw e są
następujące stw ierdzenia :
(1 ) Istnieje jed n o zn aczn ie w yznaczony a tra k to r
a^
(2 ) aoo je s t niezm iennicze, /(a o o ) = a ^ .
(3 ) M o żn a oszacować a priori odległość pom iędzy
(¿(a^aoo) ^ c d(ao,a\ ) / (1
=
lim an.
n —>oo
an a
a tra k to re m ,
c).
W yjaś n im y tera z, skąd w zięło się oszacow anie w punkcie (3 ).
Z własności przekształcenia / o trz y m u je m y
d(f(a0)î a o o ) —d ( / ( a o ) ,
/(ao o ))
^ cd{ao ,
aoo)’
A trak to r dla
przekształcenia
zwężającego
344
5. Kodowanie obrazów
Jeżeli zasto su jem y nierów ność tró jk ą ta do p u n k tó w ao, aoo, / ( a o )
( = a 1) ) to o trz y m a m y
d (a o ,a o o )
< d(a0, f ( a 0)) + d (f(a 0) ) ^OO )
<
d ( o 0 , / ( a o ) ) + « ¿ ( a 0 , ao o ),
co d a je nam
d(a0, f ( a 0)) _ d(a0,ai)
1
G t ^ ć lO ł ^ o o ) —
1 —c
1
—
1 —c
i podobnie
i/
\
d(fln,
d \ & n : &oo / _
Z
1 -
d
C
(
a
—
n, ^n+l)
:
1 ~
C
dla w szystkich n — 0 , 1 , 2 , . . . O s ta te c zn ie prow adzi to do ciągu nie­
równości
d(an, an+i)
cd(an—i,a n)
^
C d { ( X n —2 ) ^ n —1 )
< ...
< cnd(ao, ai)
i do końcow ego w yn iku
cn
^oo) —
Z
1 —c
P ozw ala nam to na w yzn aczen ie n takieg o , by an zn ajdow ało się
w zad an ej odległości od a ^ .
Zajmiemy się teraz analizą działania IFS oraz jego opi­
sem przy użyciu zasady przekształcenia zwężającego. Za­
nim zaczniemy, zdefiniujmy odległość pomiędzy dwoma ob­
razami. Aby sprawę uprościć, będziemy brali pod uwagę
tylko obrazy czarno-białe. W języku matematycznym przez
„obraz” rozumiemy zwarty podzbiór11 płaszczyzny.
O d leg ło ść
Dla danego obrazu A możemy zdefiniować jego otoczeH a u s d o rffa nie epsilonowe, A £j jako zbiór A wraz ze zbiorem punktów
płaszczyzny, których odległość od A nie przekracza e (zob.
11 Zwartość podzbioru X płaszczyzny oznacza, że jest on ograniczony,
tzn. zawiera się całkowicie w pewnym dostatecznie dużym kole na
płaszczyźnie, oraz że każdy zbieżny ciąg punktów z tego zbioru zbiega
do punktu do niego należącego.
345
5.5. Zasada przekształcenia zwężającego
O toczen ie
ep silonow e
Rysunek 5.28: Otoczenie epsilonowe zbioru A na płaszczyźnie
rysunek 5.28). Hausdorff mierzył odległość pomiędzy dwoma
(zwartymi) podzbiorami płaszczyzny, używając ich otoczeń
epsilonowych. Formalnie możemy ją oznaczyć jako h ( A y5 ) ,
a obliczamy ją tak: próbujemy dopasować e w taki sposób,
aby A znajdowało się wewnątrz otoczenia epsilonowego 5 ,
oraz na odwrót: B wewnątrz otoczenia epsilonowego A.
Jeżeli weźmiemy e wystarczająco duże, będzie to możliwe.
Odległość Hausdorffa h ( A , B ) jest równa najmniejszemu ta ­
kiemu epsilonowi, dla którego otoczenie epsilonowe A e za­
wiera i?, oraz jednocześnie B £ zawiera A.
Z definiujem y te ra z odległość Hausorffa w sposób ścisły. Niech X
będzie zupełną przestrzenią m etryczn ą z m etry ką d. D la dow olnego
zw artego podzbioru A przestrzeni X i e > 0 d e fin iu jem y o to czen ie
epsilonowe A w sposób następujący:
Ae = {z e X
| d(x, y) < e dla pew nego y
G A}.
Dla dowolnej pary A , B zw artych p od zbiorów X odległość Hausdorffa
określona je s t ja k następuje:
h(A, B) = inf{e | A C B e oraz B c Ae}.
Już Hausdorff zauw ażył, że przestrzeń zw artych pod zbiorów X w ra z
z w prow adzoną w yżej odległością je s t rów nież zu pełną przestrzenią
m etryczną. O znacza to , że w przestrzeni w szystkich zw artych pod­
zbiorów zupełnej przestrzeni X ma sens rozw ażanie zasady prze­
kształcenia zw ężającego.
Zgodnie z tą definicją h(A, B) = 0, jeżeli A jest równe B.
Jest prawdą również, że jeżeli A i B są pojedynczymi punk­
tami, to h (A ,B ) jest po prostu ich odległością w zwykłym
Definicja
odległości
H ausdorffa
346
5. Kodowanie obrazów
Rysunek 5.29; Aby otrzymać odległość Hausdorffa między
dwoma zbiorami A i B na płaszczyźnie, obliczamy a£ = inf{e|R C
A£} (rysunki po lewej stronie) oraz b£ = inf{e|A C Be} (ry­
sunki po prawej stronie). B mieści się w a£-otoczeniu zbioru A,
a A mieści się w 6e-otoczeniu zbioru B . Odległość Hausdorffa jest
równa maksimum tych dwóch wielkości, h(A^B) — max{a£,&£}.
Zbiorami A i B są kolejno: dwa punkty (górny wiersz), koło i od­
cinek prostoliniowy (drugi wiersz), koło i duży kwadrat (trzeci
wiersz, w tym przypadku b£ = 0) oraz dwa przecinające się koła
(dolny wiersz)
sensie. Rysunek 5.29 jest ilustracją tego faktu, jak również
podaje kilka przykładów, pozwalających oswoić się z poję­
ciem odległości Hausdorffa.
5.5. Zasada przekształcenia zwężającego
Powróćmy do momentu, w którym znalazł się Hutchinson O perator
H u tch in son a
po zdefiniowaniu operatora W za pomocą
W (A) = w\(A) U W2 (A) U ... U w n (A).
Przekształcenia Wi, i — 1 ,..., iV, są kontrakcjami ze współ­
czynnikami zwężania c*. Hutchinson pokazał, że W jest rów­
nież przekształceniem zwężającym, jednakże względem od­
ległości Hausdorffa. Możemy więc zastosować zasadę prze­
kształcenia zwężającego do kolejnych iteracji operatora Hutchinsona W. Oznacza to, że od jakiego byśmy obrazu A q nie
wystartowali z naszym IFS, to otrzymamy ciąg
Ak+i = W (Ak),
k = 0 ,1 ,2 ,...,
który będzie zdążał do wyróżnionego obrazu Aoo, atraktora
dla IFS. Co wiecej, ten wyróżniony obraz jest niezmienniczy
dla W:
WiAoc) = Aoo.
To rozwiązuje centralny problem rozdziału 3. Krzywa Ko­
cha, trójkąt Sierpińskiego itd. wydają się dobrze określonymi
zbiorami na płaszczyźnie. Są one opisane przez pewne, wy­
dawałoby się zbieżne, procesy, iteracje odpowiadających im
operatorów Hutchinsona. Nie mogliśmy jednak dowieść, że
fr akt ale te rzeczywiście istnieją, a nie są tylko złudzeniem.
Mogłoby się bowiem zdarzyć, że mamy do czynienia
ze sprzecznością, tak jak w tej historii o golibrodzie, który
goli wszystkich mężczyzn, którzy sami się nie golą — oczy­
wista sprzeczność. Teraz, dzięki obserwacjom Hutchinsona
i definicji Hausdorffa, możemy mieć pewność, że graniczne
obiekty z przedziwnymi własnościami samopodobieństwa na­
prawdę istnieją.
Zasada przekształcenia zwężającego daje nam coś więcej.
Otóż jeśli znamy współczynnik zwężania c dla operatora
Hutchinsona W, to możemy ocenić, jak szybko IFS wytwo­
rzy ostateczny obraz. Wystarczy jeden raz zastosować ope­
rator Hutchinsona do A q. Ponieważ współczynnik kontrak­
cji dla W jest równy największemu spośród tych dla Wi,
czyli c — max{ci}, efektywność IFS będzie wyznaczona przez
przekształcenie o największym współczynniku ściągania. To
właśnie stanowi teoretyczne zaplecze naszych eksperymentów
pokazanych na rysunku 5.1 i kodowania obrazów za pomocą
IFS.
34Y
348
5. Kodowanie obrazów
W łasność
zwężania dla
o p erato ra
H utchinsona
H utchinson zastosow ał zasadę przekształcenia zw ężającego do operato ra W . Podejście to w y m ag a , aby przestrzeń, w której W działa,
była przestrzenią zu p ełn ą. Zupełność przestrzeni złożonej ze zw artych
po d zb io ró w płaszczyzny euklidesow ej, która sam a je s t zupełna, była
w ykazan a ju ż przez H ausdorffa. W ys ta rc zyło w ięc dowieść, że ope­
rato r H u tchinsona W je s t przekształceniem zw ęża jąc ym . A by zilu­
strow ać ideę dow odu, ro zp a trzm y przykład z dw om a przekształceniam i
zw ężającym i W\ i w2f o w spółczynnikach zw ężania równych odp ow ie­
dnio c i, C2 < 1. W e ź m y dwa dow olne zw arte podzbiory płaszczyzny
A oraz B. Pokażem y, że odległość H ausdorffa h(W(A),W(B)) po­
m iędzy
W(A) =
w 1(A ) U w 2(B)
oraz
W(B) = w 1(B )U w 2(B)
je s t ściśle m niejsza od odległości
h(A, B)
pom iędzy
A
i J5.
R ysunek 5.30: Zasada zwężania dla operatora Hutchinsona
Rysunek 5 .3 0 m ożna p o trakto w a ć ja k o ilu strację następującego
rozum o w ania. N iech odległością H ausdorffa pom iędzy A i B będzie
e, czyli h(A,B) = e. W te d y B zaw iera się w epsilonow ym otoczeniu
A, B C Ae. Po zastosow aniu przekształceń w\ oraz w<z o trzym u je m y
wi(B) C wi(Ae)
Z własności
oraz
w2{B)
C
w2{A£).
zw ężania dla tych dwóch przekształceń w ynika, że
wi(Ae} C
(cie)-o to czen ie
w\(A),
5.5. Zasada przekształcenia zwężającego
349
w 2 ( A £) C (c 2£ )-o to c ze n ie w2(A).
Podstaw iając c — max{ci,c2} o trzym a m y, że zaró w no W\{B) ja k
i W2 {B) są zaw arte w (c e )-o to c ze n iu zbioru wi(A) KJw2{A). Podob­
nie otrzym am y, że zaró w no w i ( A ) ja k i w2{A) są zaw arte w (ce)otoczeniu zbioru w\{B)Uw2(B). O znacza to, że odległość Hausdorffa
h(W(A), W(B)) je s t m niejsza niż cs. W y n ik a stąd , że o p e ra to r H u tchinsona W je s t przekształceniem zw ężającym ze w spółczynnikiem
kontrakcji c < 1. D la te g o te ż przekształcenie najm niej po m n iejszające
określa w spółczynnik ko ntrakcji dla całego IFS.
Dotychczasowe rozważania uprawniają nas do stwierdze­
nia, że wyniki naszych eksperymentów nie są spowodowane
szczęśliwym czy przypadkowym doborem parametrów, lecz
dają się wyjaśnić w ramach zasady przekształcenia zwęża­
jącego. Praca Hutchinsona daje podstawę do rozpoczęcia
nowej dyskusji o obrazach i ich kodowaniu. Ale — jak wi­
dzieliśmy — pozostaje do rozwiązania wiele poważnych pro­
blemów, jak na przykład problem dekodowania. Paprotka
może zostać zakodowana za pomocą IFS, ale nie wiemy je­
szcze, jak możemy otrzymać dany obraz (tzn. jak zdekodować paprotkę). W pewnym sensie oznacza to, że obrazy
mogą zostać zamknięte w bardzo małych pudełeczkach tak,
że stają się niewidzialne, ale nie znamy jeszcze sposobu, by
wydostać je z powrotem na światło dzienne. Potrzebujemy
teraz jakiegoś artysty, który przyjdzie i rozwikła nasze kody.
To będzie tematem następnego rozdziału. Musimy jednak
zdawać sobie sprawę, że nie rozwiązaliśmy do końca pro­
blemu, jak zakodować dany obraz.
W idzieliśm y, że a tra k to r prostego IFS , którego przekształcenia są
podobieństw am i, je s t sam opodobny. W ty m przypadku m ożem y obliczyć w ym iar sam opodobieństw a, jeżeli dod atkow o założym y, że N
kontrakcji w i , ...
m a następującą własność: w ^ A ^ ) n Wk(Aoo)
= 0, dla z, k takich, że i
k. Ten typ a tra k to ra nazywa się całkow icie
niespójnym . M ałe kopie a tra k to ra nie zach o d zą na siebie. Jeśli d o d a t­
kowo założym y, że podobieństw a m ają ten sam w spółczynnik zm n ie j­
szania c, 0 < c < 1, to w ym ia r sam opodobieństw a D s — d a tra k to ra
Aoo m ożem y w yliczyć z równości N c d = 1. O zn acza to , że
Wymiar fraktalny
atraktorów IFS
5. Kodowanie obrazów
350
Co w ięcej, m o że m y w ykazać, że w y m ia r sam opodobieństw a jes t w tym
przypadku rów ny w ym iaro w i pudełkow em u.
Jeżeli m a m y N pod obień stw ze w spółczynnikam i redukcji o d p o ­
w ied nio ró w n ym i c i, C2, . . . , c ; v , to — j ak p okazał H utchinson —
nadal m o żem y w yzn aczyć w y m ia r fra k ta ln y Ds = d , rozw iązując
rów nanie
ci "b c2 “b ’ *' T c5v = 1
(p rz y p a d e k szczególny, gdy c i = C2 = ... = c jv ). O czyw iście na
ogó ł nie m ożna ro zw ią zać teg o rów nania w zględem d od ręki. Trzeba
w te d y użyć m eto d num erycznych.
Z a ło że n ie, że a tra k to r pow inien być całkow icie niespójny m ożna
tro c h ę o s ła b ić .12 A le kiedy m a m y do czynienia z sytu acją, że po­
m niejszone atra k to ry , składające sie na obraz końcowy, zach odzą na
siebie w is to tn y sposób, w te d y pojaw ia się problem . Aby lepiej to
zro zu m ieć, w e źm y pod uwagę k w a d ra t jed n o stko w y i różne IFS go
generujące. Jeżeli na przykład w e źm iem y IFS pokazan y na rysunku
3 .2 9 , c zte ry podobieństw a o w spółczynnikach kontrakcji rów nych 1 /2
i kw adracikach stykających się b o kam i, to pow yższe rów nanie dopro­
w adzi nas do popraw nego w yniku D s = 2. Jeśli je d n a k pokryjem y
k w a d ra t za po m o cą czterech kontrakcji o w spółczynniku zw ężania,
pow iedzm y, 3 / 4 (w y s tą p ią więc isto tn e zazęb ien ia), to rów nanie na­
sze da nam D s > 2!
5 .6 . W y b ó r o d p o w ie d n ie j m e tr y k i
W ostatniej części wspomnieliśmy o kilku możliwych defini­
cjach odległości pomiędzy punktam i płaszczyzny. Odległość
Hausdorffa pomiędzy obrazami zależy również od wyboru tej
odległości. Nie powinien nas zatem dziwić fakt, że zasada
przekształcenia zwężającego zależy w istotny sposób od tego
wyboru.
P ojęcie
Jak już wspomnieliśmy wcześniej, odległość pomiędzy
zależn ości od punktam i płaszczyzny może być mierzona na wiele sposobów,
w yboru Na przykład jeśli P i Q są dwoma punktami płaszczyzny,
od ległości to odległość między nimi można wyznaczyć za pomocą od­
ległości euklidesowej (jest to długość odcinka łączącego te
12 Zob. J. Hutchinson, Fractals and self-similarity, Indiana Univ.
J. M ath. 30, 713-747 (1981), oraz G. Edgar, Measure, Topology and
Fractal Geometry, Springer-Verlag, New York 1990.
5.6. Wybór odpowiedniej metryki
351
dwa punkty), odległości miejskiej (jest to suma długości dwu
prostopadłych odcinków, poziomego i pionowego, łączących
P i Q), albo odległości maksimum (rysunek 5.27). Są to
tylko trzy z wielu możliwych definicji. Przyjrzyjmy się kołom
jednostkowym wyznaczonym przez te metryki, to znaczy
zbiorom punktów, których odległość od środka układu współ­
rzędnych jest mniejsza lub równa jeden. Oczywiście kształty
te zależą od metryki. Dla metryki euklidesowej otrzymamy
zwyczajne koło jednostkowe, a dla metryki maksimum kwa­
drat. Ale ważniejszy dla naszych rozważań jest fakt, że
to, czy przekształcenie jest czy nie jest przekształceniem
zwężającym zależy również od wyboru metryki. W ydaje się
sprzeczne z intuicją, że przekształcenie może być zwężające
w przypadku jednej metryki i nie być zwężające w przy­
padku innej.
Należy zdawać sobie sprawę, że w szystko zależy od w yboru m e try k i.
D ane przekształcenie m oże być zw ężające przy w yborze jed n ej m etryk i, podczas gdy przy w yborze innej nie. Jako przykład w e źm y
przekształcenie w dane przez m acierz
0 ,5 5
0 ,5 5
-0 ,5 5
0 ,5 5
która definiuje obrót o 4 5 ° ze w spółczynnikiem redukcji 0, 5 5^2 «
0 ,7 7 8 , bez przesunięcia, w je s t przekształceniem zw ężającym w m e­
tryce d2, ale nie w m etryce di czy doc.
Aby udow odnić pow yższe stw ierdzenie, najp ierw ustalm y p u n kt
P — ( 0 ,0 ) i rozw ażm y p u n kty Q w ybierane dla każdej m etryki z osob­
na. Zauw ażm y, że przekształcenie nie zm ienia położenia środka układu
współrzędnych ( w (P ) — P).
Niech dla m etryki d\ p u n kt Q = ( 1 ,0 ) . Q je s t przekształcane na
W(Q) = ( 0 ,5 5 ,0 ,5 5 ), O trz y m u je m y
d1(w(P),w(Q)) = 0 ,5 5 + 0 ,5 5 - 1,1 > 1,0 = dx(P , Q).
O znacza to, że w m etryce dx przekształcenie w nie zm niejsza o d ­
ległości pom iędzy P i Q , a więc w nie je s t przekształceniem zw ęża­
jąc ym .
Dla m etryki d 00 bierzem y Q = ( 1 ,1 ) . Jest on przekształcany na
w(Q) = (0 , 1 ,1 ). O zn acza to , że
doo(w(P), w(Q)) = m a x (0 , 1 ,1 ) = 1,1.
w nie jest przekształceniem zw ężającym rów nież w m etryce doo-
M etryka określa
własność
zwężania:
przykład
352
5. Kodowanie obrazów
W końcu p rze an a lizu jm y sytu ację dla m etryki euklidesowej. Aby
pokazać, że w je s t przekształceniem zw ęża jąc ym , m usim y sprawdzić
w aru n ek zw ężania dla dow olnych p u n k tó w P = (x,y) i Q = (u,v).
P rzy p o m n ijm y , że
d2(P,Q) = V ( x ~ u)2 + (y - v)2P u n k ty
P iQ
po przekształceniu będą w yg ląd ały następująco:
w(P) =
=
w>(Q) =
=
(0, 55x — 0,55y, 0, 55x + 0,55y)
0,55 ( x - y , x + y),
(0,55u — 0 ,55v, 0 ,55u + 0,55z;)
0,55 (w —
u + u),
a odległość po m ięd zy nim i będzie w y ra ża ła się przez
d2( w ( P ) w(Q)) =___________________________
= o, 55y j ( ( a r - y) - (u - v))2 + ((a; 4- y) - (u + v))2
= 0,55((® - y )2 + (x + y)2 - 2(x - y)(u - v)
—2(x + y)(u + v) 4- (w —v)2 + (u + i;)2)1/2
= 0 ,55^/2(x2 + y2) —2(2xu + 2yv) + 2(w2 -f v2j
= 0 ,55v/2((x - w)2 + (y - v)2)
= 0 ,5 5 v ^ d 2 (P ,Q ).
O trz y m u je m y stąd c = 0 ,
w 0 ,7 7 8 < 1, co oznacza, że w jest
p rzekształceniem zw ęża jąc ym w m etryce g?2- W sp ó łczyn n ikiem reduk­
cji je s t tu c .
Weźmy dla przykładu podobieństwo, które jest złożeniem
obrotu o 45° i zmniejszania w skali w przybliżeniu równej
0,778. Rysunek 5.31 ilustruje, jak przekształcenie to zmie­
nia koła jednostkowe13 dla różnych metryk. W każdej z tych
metryk koła są pomniejszane, ale tylko w metryce euklideso­
wej koło jednostkowe po przekształceniu znajduje się nadal
w kole jednostkowym. W innych przypadkach obraz i koło
jednostkowe wyjściowe tylko częściowo nachodzą na siebie.
Oznacza to, że w tych metrykach przekształcenie nie jest
zwężające.
13 Koła jednostkowe są to zbiory punktów, leżące w odległości nie
przekraczającej 1 od początku układu współrzędnych. A zatem zależą
one od tego, której metryki używamy. Tak na przykład, kołem jednost­
kowym w metryce euklidesowej jest zwykłe koło na płaszczyźnie, pod­
czas gdy dla metryki maksimum jest nim kwadrat jednostkowy (zob.
rysunki 5.31 i 5.33).
¿).0.
óbó
W y b ó r o d p o w ie d n ie j m e tr y k i
u<*> \
/
\
W łasn ość
zw ężania
a m etryka
Rysunek 5.31:
P rzekształcenie, które obraca o 45°, a następnie
zm niejsza w skali 0 ,7 7 8 , jest kontrakcją w m etryce euklidesowej
(pośrodku), ale nie jest kontrakcją w m etryce m iasta (po lewej)
ani w m etryce m aksim um (po prawej)
K odow anie
kw adratu
Rysunek 5.32:
K odow anie kw adratu przy użyciu jed yn ie dw óch
przekształceń. K luczow y jest obrót o 90°; bez niego nasze prze­
kształcenia nie byłyby kontrakcjam i
Jeśli oparlibyśmy się tylko na powyższym przykładzie, to
moglibyśmy dojść do wniosku, że metryka euklidesowa jest
tą specjalną metryką, która wychwytuje własności zwężające
przekształceń nawet wtedy, kiedy inne metryki zawodzą. Nie
jest to jednak prawdą. Weźmy na przykład przekształcenie,
które składa się z obrotu o 90° oraz zmniejszania pierwszej
współrzędnej w skali 0,5, to znaczy
(x,y) -> (-0 ,5 y ,x ).
Jeśli do tego przekształcenia dodamy odpowiednie przesu­
nięcie, to otrzymamy sposób na zakodowanie kwadratu (zob.
rysunek 5.32). Można łatwo sprawdzić, że kwadrat jest
punktem stałym dla operatora Hutchinsona, odpowiadają­
cego temu przekształceniu. Przekształcenie to jednak nie
jest kontrakcją w metryce euklidesowej ¿ 2 (punkt (1,0) jest
obracany na punkt (0,1), a skalowanie nie ma nań wpływu).
Co więcej, nie jest to także przekształcenie zwężające w me-
M etryka
euklidesow a nie
zaw sze jest
trafnym
w yb orem
354
5. Kodowanie obrazów
R ysunek 5.33:
P rzek ształcen ie, które obraca o 90° i zm niejsza
dw ukrotnie w kierunku osi
nie jest kontrakcją ani w m etryce
euklidesow ej, ani w m etryce m iasta, ani w m etryce m aksim um
(u góry). Jest on o jednak kontrakcją w zględem m etryki, która
kładzie różne w agi w kierunkach x i y. P rzykładem m oże być me­
tryka d (P , Q ) — m a x { l,2 5 |x — u |, |y — u |}. N a rysunku przedsta­
w iono zbiory jednostkow e (pośrodku) i ich obrazy pod działaniem
w(x,y) = ( - 0 ,5 y ,a r ) (po prawej)
tryce m iasta di, ani w metryce maksimum d ^ . Okazuje się,
że nie jest wcale jasne, czy kwadrat jest atraktorem dla IFS
złożonego z tych przekształceń.
Możemy znaleźć rozwiązanie tego problemu, ponieważ
istnieją metryki, dla których przekształcenia te są przek­
ształceniami zwężającymi (zob. rysunek 5.33). Aby taką
metrykę wyznaczyć, trzeba wykorzystać następującą obser­
wację. Odległość powinna być wyznaczana różnie dla kie­
runku osi x i kierunku osi y. Dzięki temu koło jednostkowe
w tej metryce będzie prostokątem, w którym zawierać się
będzie jego przekształcony obraz.
Z asada
Jeżeli chcemy stosować zasadę przekształcenia zwężająp rz e k s z ta łc e n ia cego, to może być dla nas ważne, w jakiej metryce działa
z w ę żająceg o dane przekształcenie. W szczególności część trzecia zasady,
a IF S która przewiduje, jak szybko iteracje IFS przybliżają się do
atraktora, jest zależna od jakości metryki. Im mniejszy jest
czynnik redukcji, tym szybsza jest zbieżność IFS, a prze­
cież czynnik redukcji jest bardzo wrażliwy na zmianę me-
355
5.7. Składanie obrazów samopodobnych
tryki. Jak istotny jest wybór odpowiedniej metryki, będzie
widoczne w kontekście problemu odwrotnego, o którym wspo­
mnieliśmy w paragrafie 5.4.
5.7. S k ła d a n ie o b r a z ó w sa m o p o d o b n y c h
Istnieje kilka metod automatycznego rozwiązywania prob­
lemu znajdowania przekształcenia odwrotnego, ale żadna
z nich nie obroniła się jako ta najlepsza. Dlatego właśnie
omówimy kilka metod. Niektóre z nich są wynikiem po­
mysłów Barnsleya z wczesnych lat osiemdziesiątych. Po­
mysły te jednak nie prowadzą (jeszcze) do automatycznych
algorytmów. Otrzymane algorytmy nadają się raczej do bu­
dowy programów interakcyjnych z inteligentnym użytkow­
nikiem.
Przypomnijmy, że plan konstrukcji KW R można ot­
rzymać już z pierwszej wykonanej przez nią kopii. Ko­
pia jest złożeniem przekształconych obrazów. Jeśli zastosu­
jemy KWR do obrazu wyjściowego, nazwijmy go obrazemcelem, to pierwsza kopia wyznaczy również dokładność przy­
bliżenia. Jeśli kopia jest identyczna z oryginałem, to od­
powiadający jej IFS koduje obraz w sposób idealny. Jeśli
odległość obrazu przetworzonego od oryginału jest mała, to
dzięki zasadzie przekształcenia zwężającego możemy wnio­
skować, że atraktor IFS niewiele różni się od obrazu wyjś­
ciowego, który będzie w tym przypadku obrazem-celem. Ry­
sunek 5.34 ilustruje nasze rozważania dla trójkąta Sierpiń­
skiego.
A trak tor IFS
i plan
konstrukcji
KWR
Te własności pozwalają nam na znalezienie kodu dla da­ K odow anie
nego obrazu-celu, a w szczególności dla obrazów mających obrazów
wyraźne cechy samopodobieństwa, jak na przykład paprotka. sam opod ob n ych
Po krótkim treningu jest już łatwo rozpoznawać afiniczne ko­
pie całości. Na przykład w paprotce na rysunku 5.35 część
R (1) jest trochę pomniejszoną, lekko obróconą wersją całej
paprotki. Ta obserwacja prowadzi do odnalezienia pierw­
szego przekształcenia afinicznego, w i. To samo możemy za­
stosować do kopii R W i R ^ \ Nawet dolna część łodygi (część
R ^ ) jest kopią całości. Kopia ta jest jednak zdegenerowana
w tym sensie, że przekształcenie z nią związane jest skalo­
waniem z czynnikiem 0 w jednym z kierunków. Znaczy to,
że paprotka przekształcona przez wą zamienia się w odci-
356
5. Kodowanie obrazów
T estow anie
sp osob ów
łaczen ia
R ysunek 5.34:
Zastosow anie trzech K W R do trójkąta Sierpiń­
skiego. U góry: w łaściw a K W R pozostaw ia obraz nie zmieniony.
Pośrodku: rozsądne przybliżenie. U dołu: złe przybliżenie
nek. Przekształcenia, które otrzymamy, zakodują nam całą
paprotkę, gdyż części R ^ - R ^ pokrywają ją całą.
K odow anie
Potrzebujemy więc procedury, która generowałaby zbiór
w sy ste m ie przekształceń tak, by suma przekształconych obrazów-celów
interak cyjn ym pokrywała obraz-cel tak dokładnie, jak tylko możliwe. Aby
zilustrować, jak może to być przeprowadzone przez program
interakcyjny, weźmy za przykład liść. Na początku obraz
liścia jest wprowadzany do komputera przy użyciu skanera.
Następnie kontur liścia można wyodrębnić z obrazu liścia za
pomocą standardowych narzędzi przetwarzania obrazów.
Otrzymamy w rezultacie wielokąt, który możemy szybko
otrzymać i natychmiast wyświetlić na ekranie komputera.
Co więcej, szybko można otrzymać i wyświetlić również prze­
kształcenia afiniczne. Przy użyciu interakcyjnych urządzeń,
takich jak mysz czy klawiatura komputera, można łatwo wy­
znaczyć sześć param etrów definiujących przekształcenie afi­
niczne. Równocześnie komputer wyświetla na ekranie prze-
o./. dKtaaanie oorazow samopoaoonycn
oo i
S posób łączenia
p rzekształceń
dla paprotki
&
m
obraz
wyjściowy
schemat
konstrukcji
R ysun ek 5.35: Ta paprotka jest niewielką modyfikacją orygi­
nalnej paprotki Barnsleya, która umożliwia łatwiejszy rozkład na
samopodobne części R ^ \ R ^2\ R ^3\ R ^
kształconą kopię wyjściowego wielokąta. Naszym celem jest
znalezienie przekształcenia, które wytwarza kopię dobrze pa­
sującą do pewnej części liścia. Następnie procedurę tę po­
wtarzamy. Użytkownik próbuje dopasować następne prze­
kształcenie afiniczne, jeśli oczywiście poprzednie nie dopro­
wadziło do pokrycia całego liścia. Kontynuując to postępo­
wanie, dojdziemy do sytuacji, gdy cały liść będzie pokryty
małymi i być może trochę zdeformowanymi kopiami samego
siebie. Na rysunku 5.36 pokazano kilka pośrednich kroków,
które mogą pojawić się przy planowaniu przekształceń liścia.
358
5. Kodowanie obrazów
Sposób łączen ia
p rzek ształceń
dla liścia
R ysunek 5.36: Kolejne kroki projektowania liścia. U góry:
skanowany obraz prawdziwego liścia oraz przybliżający go wie­
lokąt. U dołu: sposób łączenia 7 przetworzonych obrazów wie­
lokąta i atraktor odpowiadającego mu IFS
Zasada
przekształcenia
zwężającego
i sposób łączenia
obrazów
Z a sto su jm y zasadę przekształcenia zw ężającego ze s. 343 do analizy
re z u lta tó w o trzym a n yc h na rysunku 5 .3 4 , O szacow anie a priori dla
ciągu ao, a i ,
generow anego przez przekształcenie zw ężające
/ pew nej przestrzeni m etryczn ej, z a tra k to re m
prowadzi do nierówności
^oo) ^
cn
1 — C
c je s t w spółczynn ikiem redukcji dla / , n a to m ia s t a ^ + i =
0,1,2,...
k=
ooy
o . f . D K in a a m e o o m z o w S c u n o p o a o u i l y c n
O znacza to w szczególności, że
d(a0,a oo) < --------- d{a0, f { a 0)).
l —c
(5 .2 )
A zatem pojedynczy przebieg funkcji, jeśli sta rtu je m y od pun ktu ao,
daje nam oszacowanie odległości pun ktu ao od a tra k to ra a ^ w m e­
tryce d. S próbujm y te ra z przeanalizow ać ten re zu lta t, używ ając ope­
ratora Hutchinsona W oraz odległości H ausdorffa h. Niech c będzie
w spółczynnikiem redukcji dla W i niech P będzie dow olnym obrazem
początkow ym (form alnie: zw artym podzbiorem płaszczyzny). C hcie­
libyśmy określić, na ile dobrze o p erato r H utchinsona zako d u je dany
obraz P . M o żem y to o trzy m a ć z nierówności (5 .2 ). Rzeczywiście,
nierówność tę m ożna te ra z zapisać w następujący sposób:
h f t A n ) < - d _ h(P,W (P))
1 —c
(5 .3 )
gdzie Aoo je s t a tra k to re m IFS danego przez W. O zn acza to , że jakość
kodowania, m ierzona przez odległość H ausdorffa pom iędzy P i
będzie w yznaczona przez jednorazow e zastosow anie o p erato ra H u t­
chinsona do P. Jest ona kontrolow ana przez h(P, W ( P ) ) .14
Jeśli złożenia obrazów przekształceń dadzą obraz nie­
wiele różniący się od liścia, to dzięki zasadzie przekształcenia
zwężającego będziemy mogli powiedzieć, że atraktor IFS rów­
nież niewiele będzie się różnił od liścia. Przy wyborze przek­
ształceń przybliżających liść powinniśmy pamiętać również
o efektywności kodowania. Oznacza to, że chcielibyśmy użyć
jak najmniejszej liczby tych przekształceń. Definicja opty­
malnego rozwiązania problemu musi zatem zawierać kom­
promis pomiędzy jakością przybliżenia a efektywnością. Zna­
lezienie sposobu automatycznego kodowania obrazu-celu jest
ciągle jeszcze wyzwaniem dla badaczy.
Dopasowywanie przekształceń jest tylko jednym przykła­
dem spośród wielu problemów matematycznych, które nazy­
wamy problemami optymalizacji. Takie problemy często są
łatwe do sformułowania, ale bardzo trudne do rozwiązania,
nawet przy użyciu zaawansowanej technologii komputerowej
oraz złożonych algorytmów matematycznych.
14 Barnsley nazywa równanie (5.3) „twierdzeniem o sposobach
łączenia (collage’u) dla systemów iteracyjnych”.
360
5. Kodowanie obrazów
Problem
optymalizacji dla
znajdowania
przekszalceń
O szacow anie a priori w yn ikające z zasady przekształcenia zw ęża­
jąc eg o
M ^4») <
h(p ’w (p ))
dostarcza następującego problem u o p tym a lizac ji. Załóżm y, że m am y
dany obraz P , k tó ry ch cem y zakodow ać przez IFS, używ ając nie więcej
niż N przekształceń. T rze b a w yznaczyć te przekształcenia. K ażdy
zb ió r N przekształceń w i , ...
d efin iu je o p e ra to r H utchinsona W.
M o ż e m y d o d atko w o założyć, że w spółczynniki redukcji dla tych prze­
kształceń są m niejsze lub rów ne od jakieg o ś ustalonego przez nas
c < 1. P rzy pow yższych założeniach m a m y zn aleźć W, które m ini­
m alizu je odległość H au sdo rffa h(P,W(P)), by zg odnie z pow yższą
nierów nością pop raw ić jakość p rzy b liże n ia .15
Z łożoność
Standardowym przykładem tej klasy problemów jest
ob liczen iow a problem komiwojażera. Problem ten można sformalizować
w następujący sposób. Wybierzmy pewną liczbę miejscowości
(na przykład wszystkie miejscowości Polski mające więcej niż
500 mieszkańców) i określmy najkrótszą drogę, jaką sprze­
dawca musi przebyć, by odwiedzić wszystkie te miasta. Wy­
dawałoby się, że problem tak prosto sformułowany nie po­
winien być trudny do rozwiązania przy użyciu komputera.
Praw da jest jednak taka, że komputery stają się całkowicie
nieprzydatne w momencie, gdy liczba miejscowości prze­
kroczy parę setek. Problemy tego rodzaju nazywają się
obliczeniowo złożonymi i uważa się obecnie, że są one nie­
zmiennie odporne na szybkie rozwiązania i że zawsze ta ­
kimi pozostaną. Przykłady tego typu niosą przesłanie, że
proste problemy nie zawsze m ają proste rozwiązania i że
ocean m atem atyki aż roi się od takich stworów. Niestety nie
jest jeszcze jasne, czy wyszukiwanie przekształceń do ko­
dowania obrazów może być matematycznie sformalizowane
w sposób, który unikałby dużej złożoności obliczeniowej. Co­
kolwiek się wydarzy, wydaje się już jasne, że złożoność obli­
czeniowa dla niektórych obrazów będzie bardzo duża, pod­
czas gdy dla innych mała. Możemy zgadywać, że obrazy
15 Problem wyznaczania odległości Hausdorffa dla obrazów binar­
nych jest omawiany w pracy: R. Shonkwiller, An image algorithm for
computing the Hausdorff distance efficiently in linear time, Info. Proc.
Lett. 30, 87-89 (1989).
5.8. Złamanie zasady samopodobieństwa
zdominowane przez samopodobieństwo mogą być łatwe do
analizy. To jedno wystarczy, żeby nadal badać tę dziedzinę,
gdyż samopodobieństwo zdaje się charakteryzować wiele po­
jawiających się w naturze kształtów i wzorów.
Nasze rozważania prowadzą do kilku innych problemów,
które są blisko związane z obecnymi badaniami naukowymi.
Chcielibyśmy o nich chociaż krótko wspomnieć.
5.8. Z łam an ie z a sa d y s a m o p o d o b ie ń s tw a
(i s a m o a fin ic z n o śc i), c z y li K W R p o łą c z o n e
w sieć
Jeżeli tworzymy obraz stosując KWR, to otrzymujemy w kon­
sekwencji strukturę mającą powtórzenia w coraz mniejszej
skali. W przypadku gdy wszystkie przekształcenia zwią­
zane z KWR są podobieństwami z takimi samymi współ­
czynnikami redukcji (na przykład dla trójkąta Sierpińskie­
go), atraktor KWR nazywamy ściśle samopodobnym. Jeśli
współczynniki redukcji są różne, atraktor nazywamy samo­
podobnym. W przypadku kiedy przekształcenia nie są podo­
bieństwami, a tylko przekształceniami afinicznymi (np. dia­
belskie schody), atraktor nazywamy samoafinicznym.
Przy tworzeniu obrazów przez IFS otrzymujemy więc
obrazy samopodobne lub samoafiniczne. Jak już zauważy­
liśmy, IFS można używać do przybliżania obrazów, które nie
są ani samopodobne, ani samoafiniczne. Możemy otrzymać
przybliżenie o dowolnej dokładności. Jednakże małe części
otrzymanego atraktora będą wykazywały cechy samopodo­
bieństwa. W ostatniej części tego rozdziału wprowadzimy
uogólnienie idei IFS tak, że będzie można usunąć to ograni­
czenie.16
16 Podobne pomysły można znaleźć w: M. F. Barnsley, J, H. Elton
i D. P. Hardin, Recurrent iterated functions systems, C onstr. Approx.
5, 3-31 (1989); M. Berger, Encoding images through transition pro­
babilities, Math. Comp. Model. 11, 575-577 (1988); R. D. Mauldin
i S. C. Williams, Hausdorff dimension in graph directed constructions,
Trans. Am. Math. Soc. 309, 811-829 (1988); G. Edgar, Measure,
Topology and Fractal Geometry, Springer-Verlag, New York 1990. Idee
tego typu po raz pierwszy pojawiły się w: T. Bedford, Dynamics and
dimension for fractal recurrent sets, J. London Math. Soc. 33, 89-100
(1986).
361
362
5. Kodowanie obrazów
D w ie paprotki
R ysunek 5.37: Dwie paprotki różniące się od paprotki Barnsleya.
W obu egzemplarzach ułożenie liści na łodydze głównej jest różne
od ułożenia mniejszych listków na gałązkach bocznych. W tej
skali nie widzimy różnicy pomiędzy nimi, jednak powiększenia na
następnych rysunkach ukazują istotne różnice
Na rysunku 5.37 przedstawiono dwie paprocie, które
P ap rocie bez
sam op od o- bardzo przypom inają paprotkę Barnsleya, ale istnieje między
b ień stw a nimi pewna istotna różnica. Przy bliższej obserwacji możemy
zauważyć, że sposób ułożenia mniejszych liści różni się od
sposobu ułożenia liści głównych. Oznacza to, że główne liście
nie są już pomniejszonymi kopiami całości, czyli że paprocie
te nie są już ani samopodobne, ani samoafiniczne. Mimo
to wykazują one pewne cechy samopodobieństwa. Jakie są
to cechy i jak można te paprocie zakodować? Odpowiedź
na to pytanie zawiedzie nas do KW R połączonych w sieć,
nazywanych hierarchicznymi IFS.
Jeśli przyjrzyjmy się powiększeniu jednego z głównych
liści każdej z paproci (zob. rysunek 5.38), to ujrzymy pewną
strukturę hierarchiczną. Możemy w ten sposób odkryć różne
rodzaje hierarchii w sposobie ułożenia listków. Położenie
trzecich z kolei liści, licząc od największych — głównych,
jest inne. Paproć po lewej stronie ma wszystkie liście, oprócz
największych, położone naprzeciwko siebie, podczas gdy
w paproci po prawej położenie zmienia się z poziomu na
poziom. Na jednym poziomie liście ułożone są naprzeciwko
363
5.8. Złamanie zasady samopodobieństwa
P ow iększen ia
dolnego praw ego
liścia paprotki
Rysunek 5.38:
Po lewej: pow iększenia paprotki znajdującej
się po lewej stronie na rysunku 5.37 ukazują hierarchię typu (a):
w szystkie m niejsze listki są położone jeden naprzeciwko drugiego.
Po prawej: pow iększenie paprotki znajdującej się po prawej stro­
nie ukazuje hierarchię typu (b): m niejsze listki m ają strukturę
naprzem ienną
siebie, na następnym zaś na przemian. Te typy hierarchii
będziemy dla ułatwienia nazywać odpowiednio typami (a)
i (b).
Staje się widoczne, że kodowanie za pomocą IFS wykra­
cza poza problem kodowania obrazu. Zrozumienie za po­
mocą IFS własności hierarchicznego samopodobieństwa na
przykład w roślinach, otwiera możliwości dla matematycz­
nego opisu taksonomii w botanice. Zobaczymy później, że
samopodobne struktury mogą być nawet przemieszane.
Rozszerzymy możliwości KW R przez dopuszczenie łą­ K W R w sieci
czenia kilku KWR w sieć. Pokażemy, jak dwie KWR połą­
czone w sieć mogą doprowadzić do powstania paproci, która
nie jest samopodobna. Dla przejrzystości wywodu rozpa­
trzmy najpierw paproć bez łodygi.
5. Kodowanie obrazów
364
K opiarka dla
p aprotki
Rysunek 5.39:
U kład sprzężenia zw rotnego dla paprotki Barn-
sleya (bez łodygi)
Skupmy naszą uwagę na paproci o typie podporządkowa­
nia (a) z rysunku 5.38. Możemy wyodrębnić dwie podsta­
wowe struktury: (1) całą paproć i (2) jeden z jej głównych
liści, powiedzmy prawy dolny (zob. rysunek 5.40).
Liść ten jest samopodobny, czy też raczej samoafiniczny.
Wszystkie mniejsze liście są pomniejszonymi kopiami ory­
ginału. Cała paproć składa się z kopii tych liści, ale nie jest
po prostu powiększoną wersją żadnego z nich. Wynika to
z różnego rozłożenia liści głównych i mniejszych listków.
P od staw ow a
stru k tu ra
Rysunek 5.40:
P od ział paprotki o typie podporządkow ania (a)
na p od staw ow e struktury: cała paprotka i jeden z jej głów nych
liści
ą.tf. Zi&manie zasady samopodobieństwa
Rysunek 5.41:
Ta sieć, złożona z dw óch kopiarek, generuje
paprotkę o sposobie ułożenia listków danym przez typ (a). Po
prawej stronie pokazany jest graf odpow iadającego IFS
Stanowi to podstawową różnicę pomiędzy samoafiniczną pa­
protką Barnsleya a tą właśnie ze złamaną zasadą samoafiniczności.
Właśnie z powodu tej różnicy paproci tej nie da się wy­
generować przy użyciu zwykłej KWR. Okazuje się jednak, że
gdy połączymy dwie KWR w sieć, tak jak to jest pokazane
na rysunku 5.41, osiągniemy nasz cel.
Jedno z urządzeń (dolne) wytwarza jedynie główny liść.
Działa ono tak samo jak to do produkcji paprotki Barnsleya
(dla uproszczenia nie bierzemy pod uwagę łodygi). Składa
się ono z trzech przekształceń: jedno przekształca cały liść
w lewy dolny listek, drugie — w lewy górny, a trzecie prze­
kształca cały liść na wszystkie te listki, które nie zostały
pokryte przez wcześniejsze przekształcenia.
Następne urządzenie (górne) wytwarza całą paproć. Znaj­
dują się tu dwa wejścia i dwa wyjścia. W jednym przypadku
mamy do czynienia z pętlą. W drugim, górnym, wejście jest
obsługiwane przez wyjście urządzenia dolnego. Urządzenie
366
5. Kodowanie obrado w
to używa również trzech przekształceń, jednak każde z nich
przekształca tylko jeden obraz wejściowy. Dwa z nich (w 2
i W3 na rysunku) przekształcają obraz otrzymany w dol­
nej KWR. Umieszczają one prawy i lewy dolny listek na
właściwych miejscach. O statnie przekształcenie (oznaczone
na rysunku przez w\) przetwarza obraz wyjściowy z górnego
urządzenia, tzn. przekształca całą paproć w jej górną część
(część bez dwóch dolnych listków). Obrazy otrzymane przez
te trzy przekształcenia są łączone przy przesyłaniu do wyjścia
urządzenia górnego. Oznaczone jest to znakiem „U” — sumy
teoriomnogościowej. Podobnie postępowaliśmy w przypadku
KW R dla paprotki Barnsleya. Postępując zgodnie z powyż­
szym opisem, wygenerujemy paprotkę o rozmieszczeniu li­
stków w typie hierarchii (a).
Jeżeli chcemy otrzymać paprotkę o typie hierarchii (b),
Zm iana
w p ołączen iu musimy jeszcze bardziej skomplikować połączenia pomiędzy
w ejść dwoma KWR. W tego typu paproci pomniejszone kopie ca­
łości pojawiają się w częściach głównych liści, które same
nie są wcale kopiami całości. Możemy łatwo otrzymać taką
paproć, jeżeli dokonamy połączeń, takich jak na rysunku
5.42. Jedyną zmianą w stosunku do sieci dla paproci o typie
hierarchii (a) jest dodanie jednego wejścia w dolnej KWR.
Obraz na tym wejściu (który w granicy daje całą paproć)
będzie przekształcany tak, aby w granicy dać dwa dolne
liście.
Jak działa ta sieć? Bierzemy po prostu dowolny obraz
początkowy, na przykład trójkąt, i dajemy go do kopiowania
dwóm urządzeniom. Urządzenia te przekształcają obrazy
wejściowe zgodnie ze swoimi planami działania, zaznaczo­
nymi na rysunku strzałkami. Otrzymujemy w ten sposób
dwa wyjściowe obrazy: jeden dla liścia i jeden dla całej pa­
proci. Obrazy te następnie służą jako obrazy na wejściu, tak
jak to zaznaczono na połączeniu samosprzężenia. Podczas
iterowania tego procesu możemy zaobserwować, jak KWR,
odpowiedzialna za wytwarzanie liścia, wytwarza dolny prawy
listek i jak KWR, odpowiedzialna za produkcję całej paproci,
wytwarza odpowiednio zbudowaną paproć.
Zasada
Możemy zapytać, czy to, że w wyniku działania wyżej
p rzek ształcen ia opisanej konstrukcji otrzymujemy pożądany rezultat, jest
zw ężającego czystym przypadkiem? Otóż nie. Omawialiśmy poprzednio
znow u działa zasadę przekształcenia zwężającego. Okazuje się, że dla ta ­
kiej sieci możemy również zastosować tę zasadę. Jest to
0.5. ¿tamame zasady samopoaooiensiwa
R y s u n e k 5 .4 2 : Ta sieć, złożona z dw óch kopiarek, generuje drugą
paprotkę o sposobie ułożenia listków typu (b)
kolejny przykład użycia naszego abstrakcyjnego podejścia.
Możemy wywnioskować, że dla tej sieci istnieje dokładnie
jeden obraz graniczny, jej atraktor. Ten obraz graniczny
jest niezależny od obrazu, z jakiego startujemy. Oznacza
to w szczególności, że połączone w sieć urządzenia kodują
niesamopodobne paprocie, przy tym ich hierarchiczne po­
łączenia jakoś wyłapują cechy samopodobieństwa. W rze­
czywistości takie sieci świetnie nadają się do opisu tego ro­
dzaju samopodobieństwa i umożliwiają tworzenie bogatej
klasy atraktorów. Wyobraźmy sobie, że zmieniliśmy nie­
znacznie tylko współczynnik kontrakcji i położenie jednego
systemu soczewek. W rezultacie otrzymujemy cały nowy
wszechświat możliwych struktur. Jednakże każda z nich
wykazywać będzie takie same własności samopodobieństwa.
I w ten oto sposób dotarliśmy do początku nowej i bar­
dzo obiecującej teorii, która umożliwi rozszyfrowanie, być
może, wszelkiego rodzaju cech samopodobieństwa. M ate­
matyczny opis KWR działających w sieci jest tem atem po­
zostałej części tego rozdziału.
ÓOi
368
Formalizm
hierarchicznego
IFS
5. Kodowanie obrazów
Z a jm ijm y się rozszerzeniem pojęcia operato ra H utchinsona dla sieci
K W R . W y m a g a to w prow adzenia m acierzy. Niech
a 11
di rn
a \2
A =
1
^m 2
będzie m acierzą (m x m)
• ■•
o
®mm
elem en tach
a\3
i niech
ih \
b=
\ °m /
będzie w e kto re m . W te d y c = A b je s t w ekto rem o m składowych c*,
gdzie
rn
—
^
*
W p ro w a d ź m y pojęcie zw ią za n e ze zw ykłym i m acierzam i, hierarchiczne
IFS (o d p o w ia d a ją c e sieciom K W R ). Jest ono dane przez m acierz
( M x M)
i W 11
^ WM:
WM M
/
gdzie każde
je s t o p e ra to re m H utchinsona (tz n .
je s t w yzn a­
czone przez skończoną liczbę przekształceń zw ęża jąc ych ). O trz y m u ­
je m y w ten sposób operator Hutchinsona w postaci macierzowej
W , d zia ła ją c y na w e kto rze B złożonym z M obrazów
B =
\ Bm /
przy czym każde Bi je s t zw arty m podzbiorem płaszczyzny R 2. W y ­
n ikiem działan ia W ( B ) je s t w e k to r C o M składowych Ci
M
Ci = U WijiBj).
J= 1
W y g o d n ie je s t przyjąć, że o p e ra to r H utchinsona m oże być ta k że
o p e ra to re m „p u s ty m ” ,
— 0. T u ta j sym bol zbioru pustego 0
o .o .
zjicLiimuw
zasau y
ouy
tnauupuuuuwii& iwći
będzie grał podobną rolę ja k zero w arytm etyce: o p e ra to r 0 prze­
kształca dow olny zbiór na zbiór pusty (to zn aczy dla dow olnego zbioru
B m am y $(B) — 0 ).
Następnie m ożem y dokonać naturalnego utożsam ienia. Sieć K W R
m ożna przedstaw ić w postaci grafu złożonego z w ierzch o łkó w oraz
skierowanych kraw ędzi. W yjściu każdej K W R odp ow iad a w ierzchołek,
a każdem u wejściu kraw ędź skierowana. G rafy te , przedstaw ione obok
sieci K W R , reprezentują w sposób czytelny i zw ięzły hierarchie IFS
(przyjrzyjm y się na przykład paprotce bez cechy sam opodobieństw a
oraz paprotce Sierpińskiego).
w7 u wg u w9
Rysunek 5.43: Sieć złożona z trzech kopiarek, generująca pa­
protkę złożoną z pomniejszonych trójkątów Sierpińskiego
370
5. Kodowanie obrazów
Z au w ażm y, że kraw ędź skierow ana, łącząca w ierzchołek j z w ierz­
ch ołkiem i o d p o w iad a te m u , że obraz w yjściow y j je s t przekształcany
zg odnie z o d p o w ied n im o p erato rem H utchinsona (tz n . z ty m , który
działa na ty m w ejściu), a następnie przekazyw any do w ierzchołka i.
N a wyjściu o trz y m u je m y sum ę w szystkich przekształconych obrazów ,
któ re zo stały do teg o w ierzchołka przekazane. T e ra z m ożem y zdefi­
niować W ^ . Jeżeli istnieje kraw ędź skierow ana od w ierzchołka j do
w ierzchołka z, to Wij je s t w yzn aczo n e przez odpow iedni o perato r
H u tch in so n a. W przeciw nym przypadku kładziem y W\j — 0. D la
p rzyp ad kó w , któ re rozw ażam y, o trz y m a m y
dla pap ro tki ty p u (a ),
w = (
Wi
\ U>5 U W q
W2 U W$
Wą
dla pap ro tki typu (b ), oraz
w 2 U W3
Wą
0
dla pap ro tki Sierpińskiego. Z w ró ć m y uwagę, że użyliśm y tu ta j skró­
conej fo rm y zapisu o p e ra to ra H utchinsona. Na przykład jeśli prze­
kształcam y dow olny zb ió r B przy użyciu W2 U W 3 , to napiszem y
W2 u
Ws(B) —
W2
(B)
U
W3(B).
D zięki tym d efinicjom m ożem y te ra z opisać fo rm aln ie iteracje hie­
rarchicznego IF S . Niech A q będzie w ekto rem p o czątko w ym złożonym
z obrazów . P rzekształcen ie d efin iu je ciąg w ekto ró w o M współrzęd­
nych
Ajfc+i = W(Afc),
A: = 0, 1, 2...
O k a z u je się, że ciąg ten rów nież m a granicę Ax>> któ rą nazyw am y
a tra k to re m hierarchicznego IFS.
D ow ó d teg o fa k tu w ynika z zasady przekształcenia zw ężającego.
Z a c z y n a m y od płaszczyzny w yposażonej w m etry kę zu pełną. W yn ika
stąd , że przestrzeń zw artych p o d zb io ró w płaszczyzny z odległością
H ausdorffa je s t rów nież p rzestrzenią zu p ełn ą. N astępnie bierzem y
M -k r o tn y iloczyn kartezjański te j przestrzeni i oznaczam y go przez
H. W przestrzeni H istnieje n a tu raln a m etryka d maxł pochodząca od
odległości H ausdorffa: je że li A i B są e le m en tam i H , to kładziem y
u . cj.
¿j i c u i j l c l u i c
tj i _L
Z/aoauj' oojiiupuuuL /iciioii wa
^ m a x ( A , B ) — m a x { h ( A ^ , B ^ ) |i — 1 , . . . A / } ,
gdzie Ai i Bi o znaczają składowe A i B , a h(Ai^Bi) oznacza ich
odległość Hausdorffa. W p ro s t z definicji w ynika, że:
• H je s t rów nież zu pełną przestrzenią m etryczn ą,
• W : H ^ H je s t przekształceniem zw ężającym .
By udowodnić zupełność, m usim y do d atko w o założyć, że ite ra ­
cje W n m acierzy o p e ra to ró w H utchm sona nie składają się w yłącznie
z o p erato rów pustych 0. Z powyższych rozw ażań w ynika, że zasada
przekształcenia zw ężającego ze w szystkim i swoim i konsekw encjam i
m oże być tu stosowana, podobnie ja k dla zw yczajnych o p e ra to ró w
H utchinsona.
Paprotka
Sierpińskiego
Rysunek 5.44: Paprotka Sierpińskiego i jeden z jej głównych
liści
Na zakończenie tego rozdziału użyjemy KW R połączo- Paprotka
nych w sieć, aby otrzymać dość dziwną paprotkę, którą na- S ierpińskiego
zwiemy paprotką Sierpińskiego. Jest to paprotka o typie
podporządkowania (a), w której listki zastąpione są małymi
kopiami trójkąta Sierpińskiego. Sieć składa się z trzech KWR.
Dwie pierwsze są odpowiedzialne, tak jak przedtem, za struk­
turę paprotki, podczas gdy trzecia zajmuje się wytwarzaniem
trójkąta Sierpińskiego, który następnie jest dostarczany do
372
5 . Kodowanie obrazów
R ysunek 5.45: Dolna kopiarka generuje prostą, która jest na­
stępnie przetwarzana przez górną kopiarkę w celu uzyskania łodygi
paprotki
jednej z dwóch pierwszych kopiarek. Eksperyment genero­
wania paprotki Sierpińskiego pokazuje, że połączone w sieć
KW R są dogodnym narzędziem do analizy i kodowania hie­
rarchicznie zbudowanych obiektów, wykazujących cechy samopodobieństwa. Ponadto nadają się one do łączenia fraktali.
Ł od yga p ap rotki
Kiedy wprowadzaliśmy pojęcie paprotki Barnsleya przy
B arn sleya użyciu KWR, zaobserwowaliśmy, że nie jest ona ściśle samopodobna. Problem stanowiła przede wszystkim łodyga.
W tym przypadku łodygę otrzymaliśmy ze zdegenerowanej
afinicznie (tzn. zredukowanej do odcinka) kopii całej pa­
protki. W przypadku KW R problem ten znajduje swoje
wyjaśnienie. Plan sieci pokazany na rysunku 5.45 składa się
z dwóch KWR. Górne urządzenie wytwarza listki, a dolne
łodygę. Oznacza to więc, że paprotka Barnsleya jest w zasa­
dzie złożeniem dwóch (ściśle) samopodobnych obiektów.17
17 Dokładniej mówiąc, paprotka bez łodygi jest samoafiniczna, a nie
samopodobna, ponieważ przekształcenia wytwarzające liście są podo­
bieństwami tylko w przybliżeniu.
5.9. Program na zakończenie rozdziału
Różnorodność struktur, jakie możemy otrzymać składa­
jąc w sieć KWR, jest niewyobrażalna. Zastosowanie sieci
KWR prezentujemy w rozdziale 9 do rozwiązania problemu,
który był przez długi czas problemem otwartym, a mianowi­
cie do rozszyfrowania wzorów pojawiających się w trójkącie
Pascala przy analizie podzielności współczynników dwumia­
nu Newtona przez potęgi liczb pierwszych.
5.9. P r o g r a m n a z a k o ń c z e n ie rozd zia łu :
ite r o w a n ie K W R
Wyobraźmy sobie interakcyjny program komputerowy, który
ma za zadanie projektowanie kopiarek wielokrotnie redu­
kujących. Dzięki takiemu programowi można wybierać
i zmieniać przekształcenia i natychmiast obserwować na ekra­
nie komputera, jak zmieniają się odpowiednie atraktory. Ba­
wiąc się w ten sposób, możemy poznać efekt działania róż­
nych przekształceń afinicznych. Program tu pokazany nie
spełnia wszystkich oczekiwań, jakie można przed tego typu
programem stawiać, ale jest krótki i na tyle dobry, by wy­
generować większość obrazów omówionych w tym rozdziale.
Poniżej podajemy tabelę parametrów do wyznaczania prze­
kształceń afinicznych.
Rysunek 5.46: Wynik działania programu „Iterowanie KWR”
(po lewej, poziom = 5). Prawy obraz jest otrzymywany po zmia­
nie parametrów dla rysunku 5.13 zgodnie z tabelą 5.2
373
374
5. Kodowanie obrazów
Program podany tu taj ma param etry ustawione tak, by
generować trójkąt Sierpińskiego lub różne poziomy jego kon­
strukcji. Używamy wielokrotnych powtórzeń przekształceń
wyznaczających KWR. Na samym początku zostaniemy za­
pytani, ile iteracji m a być wykonanych. Chodzi o poziom
konstrukcji, który chcemy zobaczyć. Podobnie jak w poprze­
dnich rozdziałach, będziemy używali struktury rekursywnej,
aby uniknąć przechowywania w pamięci tysięcy trójkątów.
Wartość „1” oznacza poziom = 1 (tzn. nie przeprowadzać
żadnej iteracji KW R) i ujrzymy obraz początkowy, Obra­
zem początkowym jest tu trójkąt. Dlatego też na wszystkich
poziomach iteracji występują obrazy trójkątów. Wybór ta ­
kiego prostego obrazu początkowego powoduje, że program
jest krótki i szybki. Nie powinna być problemem zmiana
programu w ten sposób, by wyjściowym obrazem był kwa­
drat czy też inna figura. Pozostawiamy to Czytelnikowi.
Przyjrzyjmy się programowi. Na początku znajduje się
specyfikacja obrazu początkowego — trójkąta. Następnie
ustalamy wartości param etrów przekształceń: a ( l ) , a (2 ) ,
a (3 ) , ... f (1) , f (2) , f (3) . Zauważmy, że nie ustaliliśmy
wartości ani dla b () , ani dla c ( ) , a to dlatego, że będą one
zerami. Ominęliśmy je, by program był krótszy. Jeśli ze­
chcemy zmienić przekształcenia, to prawdopodobnie trzeba
będzie te param etry dopisać. Zauważmy, że występują one
od razu w drugiej linii deklaracji DIM. Jeżeli wprowadzamy
więcej przekształceń, nie wolno nam zapomnieć o odpowie­
dniej zmianie wymiarów w deklaracji DIM.
Następnie zaczyna się rekursja (jak zwykle GOSUB 100)
od sprawdzenia, na którym poziomie jesteśmy. Jeżeli znaj­
dujemy się na poziomie najniższym, to narysowany będzie
nieprzekształcony trójkąt. W przeciwnym przypadku (ety­
kieta 200) wchodzimy na następny poziom rekursji. Wy­
bieramy najpierw przekształcenie p rz e k s z t = 1. Jak tylko
część ta się zakończy i wszystkie przekształcane wielokrot­
nie trójkąty przy p rz e k s z t = 1 zostaną narysowane, wtedy
startuje następna część z p rz e k s z t = 2, a jako ostatnia
część dla p rz e k s z t = 3. To kończy część rekursywną pro­
gramu. Jeśli uprzednio zmienialiśmy liczbę przekształceń,
tu taj również powinniśmy rozszerzyć program.
Zauważmy, że kiedykolwiek zaczynamy rekursję dla no­
wego przekształcenia, najpierw przekształcenie to przekształ­
ca istniejący trójkąt (etykieta 50). Również w tym miejscu
375
5.9. Frogram na zakończenie rozdziału
a
b
Rys. 5.9
0,500
0,000
0,500
0,000
0,500
0,000
Rys. 5.10
0,000 --0,500
0,000
0,500
0,500
0,000
Rys. 5.11
0,000
0,577
0,000
0,577
0,000
0,577
Rys. 5.12
0,336
0,000
0,000
0,333
0,000 --0,333
Rys. 5.13
0,387
0,430
0,441 --0,091
-0,468
0,020
Rys. 5.14
0,255
0,000
0,255
0,000
0,255
0,000
0,370 --0,642
Rys. 5.15
0,382
0,000
0,382
0,000
0,000
0,382
0,382
0,000
0,382
0,000
Rys. 5.16
0,195 --0,488
0,462
0,414
-0,058 --0,070
-0,035
0,070
-0,637
0,000
Rys. 5.23
0,849
0,037
0,197 --0,226
-0,150
0,283
0,000
0,000
c
d
e
f
0,000
0,000
0,000
0,500
0,500
0,500
0,0000
0,5000
0,0000
0,0000
0,0000
0,5000
0,500
-0,500
0,000
-0,000
0,000
0,500
0,5000
0,5000
0,2500
0,0000
0,5000
0,5000
-0,577
-0,577
-0,577
0,000
0,000
0,000
0,0951
0,4413
0,0952
0,5893
0,7893
0,9893
0,000
1,000
1,000
0,335
0,000
0,000
0,0662
0,1333
0,0666
0,1333
0,0000
0,0000
0,430
-0,009
-0,113
-0,387
-0,322
0,015
0,2560
0,4219
0,4000
0,5220
0,5059
0,4000
0,000
0,000
0,000
0,642
0,255
0,255
0,255
0,370
0,3726
0,1146
0,6306
0,6356
0,6714
0,2232
0,2232
-0,0061
0,000
0,000
0,000
0,000
0,000
0,382
0,382
0,382
0,382
0,382
0,3072
0,6033
0,0139
0,1253
0,4920
0,6190
0,4044
0,4044
0,0595
0,0595
0,344
-0,252
0,453
-0,469
0,000
0,443
0,361
-0,111
-0,022
0,501
0,4431
0,2511
0,5976
0,4884
0,8562
0,2452
0,5692
0,0969
0,5069
0,2513
-0,037
0,226
0,260
0,000
0,849
0,197
0,237
0,160
0,075
0,400
0,575
0,500
0,1830
0,0490
-0,0840
0,0000
Tabela 5.2: Tabela parametrów dla przekształceń z bieżącego
rozdziału
Tabela
parametrów
376
5. Kodowanie obrazów
Program w BASIC-u
Tytuł
Iterow anie K W R
Wielokrotnie redukujące kopiowanie trójkąta Sierpińskiego
DIM xlewy(10),xprawy(10),xgorny(10),ylewy(10),yprawy(10),ygorny(10)
DIM a(3), b(3), c(3), d(3), e(3), f(3)
INPUT ,,Wprowadź poziom: )} poziom
lewy = 30
w = 300
wl = w + lewy
xlewy(poziom) = 0
ylewy(poziom) ~ 0
xprawy(poziom) = w
yprawy(poziom) = 0
xgorny(poziom) = .5*w
ygorny(poziom) = w
a(l) = .5 : a(2) = .5 : a(3) = .5
d(l) = .5 : d(2) = .5 : d(3) = .5
e(l) = 0 : e(2) = 0.5*w : e(3) = 0.25*w
f(l) = 0 : f (2) = 0 : f(3) = .5*w
GOSUB 100
END
REM
50
PRZEKSZTAŁCANIE TROJKATA
xlewy(poziom) = a(przekszt)*xlewy(poziom+l) +
ylewy(poziom) = d(przekszt)*ylewy(poziom+l) +
xprawy(poziom) = a(przekszt)*xprawy(poziom+1)
yprawy(poziom) = d(przekszt)*yprawy(poziom+1)
xgorny(poziom) - a(przekszt)*xgorny(poziom+1)
ygorny(poziom) = d(przekszt)*ygorny(poziom+1)
REM
100
RYSOWANIE TROJKATA NA NAJNIŻSZYM POZIOMIE
IF poziom > 1 GOTO 200
LINE (lewy+xlewy(1),wl-ylewy(1)) - (lewy+xprawy(1),wl-yprawy(1))
LINE - (lewy+xgorny(1),wl-ygorny(1))
LINE - (lewy+xlewy(1),wl-ylewy(1))
GOTO 300
REM
200
ROZGAŁĘZIENIE NA NIZSZE POZIOMY
poziom = poziom - 1
przekszt - 1
GOSUB 50
przekszt = 2
GOSUB 50
przekszt = 3
GOSUB 50
poziom = poziom + 1
300 RETURN
e(przekszt)
f(przekszt)
+ e(przekszt)
+ f(przekszt)
+ e(przekszt)
+ f(przekszt)
5.9. Program na zakończenie rozdziału
program dla zwięzłości nie zawiera parametrów b () albo
c (). Jeżeli chcemy użyć ogólniejszych przekształceń, mu­
simy przeprowadzić zmiany, takie jak na przykład:
a(przekszt)*xpraw y(poziom + l)+
b (p rzek szt)* y p raw y (p o zio m + l)+ e(p rzek szt)
c (p rz e k s z t) *xprawy(poziom*1)+
d(przekszt)*yprawy(poziom*1)*f(przekszt)
Zauważmy na koniec, że param etry występujące w tabeli 5.2
są ustalone dla obrazów znajdujących się w obszarze [0,1] x
[0,1]. Nasz program pokazuje obrazy w obszarze [0, w] x [0, w]
i dlatego części odpowiedzialne za przesunięcie e () i f () dla
przekształceń muszą być przeskalowane w zależności od w.
Nie powinniśmy o tym zapomnieć podczas zmieniania pa­
rametrów. Na przykład dla paprotki z rysunku 5.23 przyj­
miemy
e ( l) = 0,075*w
f (1) = 0 , 183*w
i tak dalej.
377
R ozdział 6
Gra w chaos: jak losow ość tworzy
d eterm in istyczn e k ształty
Chaos jest partyturą, na której zapisana jest rzeczywistość.
Henry Miller
Nic w naturze nie jest przypadkowe... Rzeczy wydają się lo­
sowe tylko przez niepełność naszej wiedzy.
Spinoza
Nasze rozumienie losowości, zwłaszcza w odniesieniu do obra­
zów, można wyrazić słowami, że obiekty czy kształty, które
powstały w sposób losowy, powinny wyglądać mniej lub bar­
dziej dowolnie. W ydaje się nam na ogół, że jeśli nawet mają
one pewną charakterystyczną strukturę, to prawdopodobnie
nie będzie ona dla nas interesująca. Dobrym przykładem
mogą być tu gwoździe, które wysypały się z pudełka na stół.
Browna
Przyjrzyjmy się następującemu przykładowi. Małe czą­
stki ciała stałego, zawieszone w cieczy, można obserwować
pod mikroskopem i ruch ich wydaje się nieregularny i zmien­
ny. Jest to tzw. ruch Brownax, który jest powodowany
1 Odkrycia tego dokonał botanik Robert Brown około roku 1827.
379
losowymi zderzeniami z cząstkami cieczy, znajdującymi się
w sąsiedztwie. Stanowi on dobry przykład tego, czego ocze­
kujemy od ruchu sterowanego losowo. Opiszmy krok po
kroku ruch takiej cząstki. Zacznijmy od punktu na płasz­
czyźnie.
Wybieramy losowo kierunek, przechodzimy w tym kie­
runku kawałek i zatrzymujemy się. Wybieramy losowo na­
stępny kierunek, przemieszczamy się znów kawałek i znowu
zatrzymujemy się, i tak dalej. Czy naprawdę musimy kon­
tynuować eksperyment, by wyczuć, jaki wyłoni się z tego
kształt? Jak będzie on wyglądał po stu, tysiącu, czy nawet
więcej krokach? W ydaje się, że przewidzenie jego charakte­
rystycznych cech nie powinno sprawiać problemu: spodzie­
wamy się, że pojawiać się będą mniej więcej takie same
wzory, jedynie trochę gęściej.
W każdym razie nie wydaje się, żeby łączenie losowości
z generowaniem obrazu miało być szczególnie owocne. Spró­
bujmy jednak zająć się przykładem, który — jak się na
pierwszy rzut oka wydaje — należy do tej kategorii. Co
więcej, naśladując Barnsleya2, wprowadzimy całą rodzinę
gier, które być może zmienią naszą intuicję na tem at lo­
sowości.
Oto pierwsza gra tego typu. Potrzebujemy kostki do gry Gra w chaos
o sześciu ściankach, ponumerowanych cyframi 1, 2, 3. Zwy­
czajna kostka oznaczona jest cyframi od 1 do 6. Możemy ją
2 M.F. Barnsley, Fractal modelling of real world images, w: The
Science o f Fractal Im ages, H.-O. Peitgen i D. Saupe (red.), SpringerVerlag, New York 1988.
380
6. Gra w chaos
łatwo dostosować do naszych potrzeb — musimy po prostu
utożsamić pary cyfr występujących na normalnej kostce, na
przykład 6 z 1, 5 z 2, a 4 z 3. Taka kostka będzie naszym
generatorem liczb losowych, przyjmującym jedynie wartości
1, 2 lub 3. Liczby losowe, które pojawią się w czasie trwa­
nia gry, na przykład 2, 3, 2, 2, 1, 2, 3, 2, 3, 1..., będą
sterowały procesem. Proces, którym się zajmiemy, będzie
opisany przez trzy proste reguły. Do opisu tych reguł mu­
simy najpierw przygotować planszę do gry. Na rysunku 6.1
jest ona narysowana: trzy punkty bazowe oznaczone cyframi
1, 2 i 3 tworzą trójkąt.
R ysunek 6.2: Sześć pierwszych kroków naszej gry. Punkty
wiodące są połączone odcinkami prostoliniowymi
Jesteśmy już gotowi do rozpoczęcia gry. Reguły wyjaś­
nimy w jej trakcie. Na początku wybieramy dowolny punkt
na planszy i zaznaczamy go maleńką kropką. Jest to nasz
bieżący punkt gry, punkt wiodący. Oznaczmy go przez zq,
by móc później się do niego odwoływać. Następnie rzucamy
kostką. Przypuśćmy, że wypadło 2. Wyznaczamy następny
punkt wiodący zi, który będzie leżał dokładnie w połowie
między punktem wiodącym zq a punktem bazowym ozna­
czonym cyfrą 2. Jest to pierwszy krok gry. Teraz łatwo jest
odgadnąć, na czym polegają dwie pozostałe reguły naszej
gry. Załóżmy, że graliśmy już k razy. Otrzymaliśmy zatem
punkty z i , ..., Zk- Rzućmy kostką. Jeśli otrzymaliśmy cyfrę
n, to następny punkt wiodący, z\~+1 , będzie leżał dokładnie
w połowie pomiędzy punktem z\~ a punktem bazowym ozna­
czonym cyfrą n. Na rysunku 6.2 przedstawiono kilka kroków
takiej gry. Wyznaczenie kolejności punktów jest ułatwione
dzięki połączeniu następujących po sobie punktów odcin-
381
kami. Powstaje kształt, który wydaje się tak samo niecie­
kawy i bezładny jak ten, który powstał w wyniku losowego
błądzenia na płaszczyźnie. Taka obserwacja jest jednak bar­
dzo daleka od prawdy. Na rysunku 6.3 pominęliśmy odcinki
łączące punkty i zostawiliśmy jedynie punkty wiodące. Gra
jest powtarzana (a) k — 100 razy, (b) k — 500 razy, (c)
k = 1000 razy, (d) k = 10000 razy.
...i n astęp n e
p u nkty w iodące
Rysunek 6,3: Gra w chaos po 100 krokach (a), 500 krokach (b),
1000 krokach (c) oraz 10000 krokach (d). Zaznaczone są jedynie
punkty wiodące, bez linii łączących. (Zauważmy, że pojawiło się
kilka punktów, które w sposób oczywisty nie należą do trójkąta
Sierpińskiego.)
Pierwsze wrażenie, jakie wywołuje rysunek 6.3, to scep­
tycyzm. Właśnie ujrzeliśmy, jak proces losowy wytworzył
trójkąt Sierpińskiego. Jest to zadziwiające, ponieważ trójkąt
Sierpińskiego był dla nas wzorem uporządkowania. Innymi
słowy zobaczyliśmy właśnie, jak losowość może stworzyć cał­
kowicie deterministyczny kształt. Jeżeli prześledzilibyśmy
ten proces krok po kroku, to nie moglibyśmy przewidzieć,
gdzie znajdzie się następny punkt wiodący, ponieważ będzie
zależeć to od losowego wyniku rzutu kostką. Mimo to wzór,
jaki tworzą wszystkie punkty gry, jest całkowicie przewidy­
walny. Stanowi to interesujący związek pomiędzy losowością
a fraktalami deterministycznymi.
Losowość
tw orzy k ształty
d eterm in i­
styczn e
382
6. Gra w chaos
Nasuwa się tu kilka pytań dotyczących tego związku. Na
przykład: jak możemy wyjaśnić powstawanie małych pla­
mek, które możemy dostrzec po dokładnym przyjrzeniu się
rysunkowi 6.3, a które definitywnie nie należą do trójkąta
Sierpińskiego? Lub co się stanie, jeśli użyjemy innej kostki,
na przykład takiej, która jest bardziej lub mniej niesyme­
tryczna? Możemy też zapytać: czy sam proces pozosta­
wia jakiś ślad na powstałym obiekcie, albo: czy powstanie
trójkąta Sierpińskiego jest spowodowane jakąś specjalną jego
własnością? oraz: czy istnieją odmiany gry w chaos, które
tworzą jakieś inne — może nawet dowolne — fraktale?
6 .1 . K o p ia rk a s p r z ę ż o n a z r u le tk ą
Czytelnik domyśla się już prawdopodobnie, że istnieje wiele
odmian gry w chaos, generujących wiele różnych fraktali.
W szczególności wszystkie figury, którymi zajmowaliśmy się
w ostatnim rozdziale, powstałe przy użyciu kopiarek wielo­
krotnie redukujących, można otrzymać jako wynik gry w cha­
os o dopowiednio dobranych regułach. Właśnie takimi grami
będziemy się zajmowali w tym paragrafie.
Losowe
Podstawową regułą w opisanej powyżej grze w chaos
przek ształcen ia jest wyznaczenie nowego punktu gry Zk+i przez wybranie
afiniczne środka odcinka pomiędzy ostatnim punktem wiodącym Zk
a losowo wybranym punktem bazowym, oznaczonym liczbą
ze zbioru {1,2,3}. Każdy z tych punktów można opisać
jako obraz ostatniego punktu wiodącego pod działaniem jed­
nego z trzech przekształceń tci, W2 lub w$. Co to za prze­
kształcenia? Możemy dokonać ciekawej obserwacji: są to te
same przekształcenia (afiniczne), którymi zajmowaliśmy się
w związku z trójkątem Sierpińskiego w rozdziale 5. Trak­
towaliśmy je tam jako matematyczny opis odpowiednich sy­
stemów soczewek w kopiarce. Tutaj każde przekształcenie
wn jest po prostu przekształceniem podobieństwa o skali 1/2
i środku w punkcie oznaczonym liczbą n. Wynika stąd, że
wn pozostawia nie zmieniony n-ty punkt bazowy. W języku
reguł gry: jeżeli punktem wiodącym jest punkt oznaczony
liczbą n i jeżeli w rzucie kostką wypadnie liczba n, to na­
stępny punkt gry pozostanie w punkcie bazowym. Jak się
o tym przekonamy, wygodnie jest zaczynać grę w chaos od
jednego z tych stałych punktów.
6.1, Kopiarka sprzężona z ruletką
Nasza pierwsza gra w chaos generuje tró jk ą t Sierpińskiego. S próbu j­
m y w yprow adzić fo rm a ln y opis przekształceń, któ re są używ ane w te j
grze. W tym celu w p ro w ad zam y układ współrzędnych o osiach x i y.
Przypuśćm y, że pun kty bazow e m ają współrzędne
Pi ~
383
Gra w chaos
i przekształcenia
IFS dla trójkąta
Sierpińskiego
P2 = («2 ,^ 2 )) P3 —(«3>^3)‘
Bieżący p u n kt gry to zk = (xfc,2/fc), azdarzenie losowe to liczba n
( 1 ,2 lub 3 ). N astępnym pu n ktem w iodącym je s t za te m
zk+ 1 = w n(zk) = (xk+i,yk+i),
gdzie
2^"n’
V k + 1 = \ y k + |& n-
Przekształcenie afiniczne
m ożna zapisać w postaci m acierzy ja k o
(ten sposób oznaczania zo stał w prow adzony w poprzednim ro zd ziale)
( I
02a„ \
V0
I
)'
Zauw ażm y, że poniew aż wn (Pn) = P n , pu n kty bazow e są p u n k ta m i
stałym i. M o że m y za te m grać w chaos w edług następującego algo­
rytm u:
Przygotow anie: W y b ie ra m y dow olny p u n kt na płaszczyźnie, zq.
Iteracja:
Dla k = 0 , 1 , 2 , . . . p rzy jm u je m y 2fc+1 = wSk(zk),
gdzie sk je s t w ybraną losowo (z jed n ak o w ym praw ­
do p o dob ieństw em ) liczbą ze zbioru { 1 , 2 , 3 } ; za zn a­
czam y zk+i.
Innym i słowy, liczby sk są zapisem w yb o ró w losowych, re zu lta tó w
rzutów kostką w kolejnych krokach. Ciąg s o ,s i,S 2i - - orsz p u n kt
początkow y z$ stanow ią ko m pletny opis danego przebiegu gry. W
skrócie m ożem y oznaczyć ten ciąg przez (sk). Form alnie ( s k ) je s t
ciągiem losowym o w yrazach z „ a lfa b e tu ” { 1 , 2 , 3 } .
Zauważmy, że pojęcie KWR (lub IFS) jest ściśle deter­ K W R i L K W R
ministyczne. Opiszemy teraz modyfikację naszej kopiarki,
odpowiadającą grze w chaos: przekształcenia nie będą sto­
sowane do figur, a jedynie do pojedynczych punktów. Co
więcej, nie stosujemy wszystkich systemów soczewek jed-
384
6. Gra w chaos
nocześnie. Zamiast tego w każdym kroku wybieramy lo­
sowo (z pewnym prawdopodobieństwem) jeden z nich i prze­
kształcamy za jego pomocą poprzedni wynik. Kopiarka na­
tom iast nie poprzestaje na stworzeniu obrazu pojedynczego
punktu, ale zapamiętuje wszystkie wygenerowane wcześniej
punkty. Wszystkie te punkty składają się na ostateczny
obraz tworzony przez naszą maszynę. Tak opisane urzą­
dzenie nazwiemy kopiarką wielokrotnie redukującą sprzężoną
z ruletką albo losową kopiarką wielokrotnie redukującą
(LKWR). Działanie urządzenia odpowiada przeprowadzaniu
gry w chaos.
Jaka jest relacja między KW R a jej losowym odpowie­
dnikiem? Poznaliśmy już odpowiedź w przypadku trójkąta
Sierpińskiego. Jej losowy odpowiednik, LKWR, również ge­
neruje trójkąt Sierpińskiego. Okazuje się, że jest to zasada
ogólna: końcowy obraz KW R (atraktor jej IFS) może po­
wstać przy użyciu odpowiadającej jej losowej LKWR, która
jest z kolei tym samym, co przeprowadzenie gry w chaos
z odpowiednimi regułami.
R ysunek 6.4:
(LKWR)
Losowe system y
iteracyjne:
form alny opis
LKW R
Pokazaliśm y,
Wl'
Kopiarka wielokrotnie redukująca z ruletką
że K W R
je s t w yznaczona przez N afinicznych kontrakcji
W2
P ojedyn czy krok kopiow ania m ożna opisać za pom o cą operatora H u tchinsona
W (A) — wi(A) U *• *U wat(^4.)W y c h o d z ą c od dow olnego obrazu początkow ego A q, ciąg pow sta-
6.1. Kopiarka sprzężona z ruletką
385
jących obrazów Ai = W {A q), A 2 = f F ( A i ) , . . . d ąży do je d n o ­
znacznego atra kto ra Aoo, obrazu końcowego m aszyny. O dp ow iedn ia
L K W R dana jest przez te sam e ko ntrakcje
Wi,W2,.:<>WN
i przez (d o d a tn ie ) praw dopodobieństw a
PuP2 , - i P n > 0
takie, że
N
¿ p , = 1.
i=
1
Opisany pow yżej schem at nosi nazwę losowego systemu iteracyjnego, podczas gdy o d p o w iad ająca mu K W R je s t deterministycznym
systemem iteracyjn ym . Niech « 1, 52^ 3 , .. . będzie ciągiem liczb w y­
branych niezależnie ze zbioru { 1 , 2, .. . N } , z praw dopodobieństw am i
Pk dla zdarzenia Si = k. Załóżm y, że zq je s t p u n ktem stałym jed n eg o
z tych przekształceń (n p . wi(zq) = zq). W te d y
(1 ) W szystkie punkty ciągu z0, z\ = ti>S l(z o ), ^2 = wS2(zi),...
należą do a tra k to ra A ^ .
( 2) Ciąg z0) zi>¿2 , je s t prawie na pew no gęsty w A ^ .
Pierwsze tw ierd zenie w ynika natychm iast z fa k tu niezm ienniczości
a tra kto ra. D rugim za jm ie m y się w następnym paragrafie. T a k więc
K W R i odp ow iad ająca je j L K W R kodują ten sam obraz A ^ —
m ożem y o trzym a ć a tra k to r, g rając w chaos przy użyciu o d p o w ie­
dniej maszyny. O gran iczenie „praw ie na pew no" w drugim stw ier­
dzeniu jest ograniczeniem czysto tech n iczn ym . Teoretycznie m oże
się zdarzyć na przykład, że m im o iż ciąg s\, « 2, ••• je s t losowy, to jego
wszystkie w yrazy będą ta k ie same. O d p o w iad a to sytuacji w y rzu ­
cenia kostką cyfry „ 1" nieskończenie w iele razy pod rząd, co m oże
się teoretycznie zdarzyć naw et w przypadku idealnie sym etrycznej ko­
stki. W ta k im przypadku gra w chaos nie doprow adzi do w ypełnienia
atrakto ra. Jednak praw dopodobieństw o takie g o nietypow ego zd arze­
nia jest zerowe.
Dzięki grze w chaos znaleźliśmy zatem nowe podejście N ow e p o d e jśc ie
do problemu dekodowania obrazów. Przypomnijmy problem do p ro b le m u
złożoności obliczeniowej, który pojawił się, gdy próbowaliśmy d e k o d o w a n ia
otrzymać paprotkę Barnsleya za pomocą bezpośredniego iterowania IFS. W rozdziale 5 oszacowaliśmy, że dla kompu­
tera wykonującego obliczenia i rysunki z prędkością miliona
386
6. Gra w chaos
prostokątów na sekundę potrzebowalibyśmy około 1010 lat.
Jeżeli przejdziemy do opisu paprotki za pomocą gry w cha­
os, to sytuacja radykalnie się zmieni. W takim przypadku
śledzimy ruchy jednego tylko punktu. Jest to łatwe zada­
nie dla komputera, nawet jeśli będziemy wykonywać miliony
iteracji. Zagrajmy więc w grę w chaos z LKWR wyzna­
czoną przez cztery przekształcenia w i , ..., wą ^ generujące pa­
protkę. Zakładamy, że prawdopodobieństwa dla wszystkich
przekształceń są jednakowe (tak jak w naszej pierwszej grze
w chaos). Zacznijmy od punktu
wybierzmy losowo prze­
kształcenie — powiedzmy
— i znajdźmy obraz punktu zo
pod działaniem tego przekształcenia. Otrzymujemy kolejny
P a p r o tk a
-
r>i - , . ; '*■
-,
. ^T.
v;
'
, V<4*-
•>»Vÿ m
■»w
V
j,-
s £ *<<■.
: •? i *<«•■
.
/
(a)
(b)
R ysunek 6.5: 100 000 punktów wiodących gry w chaos. Po lewej
stronie: LKWR z równymi prawdopodobieństwami dla wszystkich
kontrakcji. Po prawej stronie: dostrojona LKWR. W tym przy­
padku prawdopodobieństwa wyboru różnych przekształceń nie są
takie same
387
6.1. Kopiarka sprzężona z ruletką
punkt wiodący z\ = ^ 2 (^ 0 )? P ° czym losowo wybieramy ko­
lejne przekształcenie i tak dalej. Paprotka z lewej strony
rysunku 6.5, otrzymana po 100000 iteracjach, może nas roz­
czarować. Widoczne jej braki odpowiadają trudnościom w
jej otrzymaniu przy bezpośrednim stosowaniu KWR. Po­
wtarzanie gry w chaos nawet miliony razy nie doprowadzi
do zadowalającego rezultatu.
Jak zatem możemy otrzymać paprotkę taką, jaka znaj­
duje się po prawej stronie rysunku 6.5? Jest ona również
wynikiem gry w chaos, a powstała „jedynie’1 po 100000
iteracjach. Na czym zatem polega różnica? Otóż w tym
przypadku posłużyliśmy się odpowiednio „dostrojoną” ru­
letką3, w której prawdopodobieństwa nie są jednakowe, lecz
są odpowiednio dobrane dla poszczególnych przekształceń.
Jakość obrazu paprotki po prawej stronie jest zadowalająca
i stanowi przekonujący dowód potencjalnych możliwości
tkwiących w grze w chaos, do dekodowania obrazów zakodo­
wanych przy użyciu IFS. Jak jednak są wybierane prawdopo­
dobieństwa, i dlaczego odpowiednie ich dobranie przyspiesza
proces dekodowania z 1010 lat do kilku sekund? A w ogóle,
dlaczego gra w chaos daje takie rezultaty?
M ożem y przeprow adzać grę w chaos rów nież dia kopiarek połączonych
w sieć, tzn . dla hierarchicznych IFS. Z form aln ego pun ktu w idzenia
hierarchiczny IFS dany je s t przez m acierz o p e ra to ró w H utchinsona,
działających na M płaszczyznach
f
Wn
...
W 1M \
w =
>
\
WMl
* ••
W m M /
gdzie każde Wik je s t op erato rem H utchinsona, p rzekształcającym
podzbiory fc-tej płaszczyzny w ¿-tą.4Jest tu ta j istotn e, że niektóre
Wijfc m ogą być o p erato ram i 0, tzn . o p e ra to ra m i p rzekształcającym i
dowolny zbiór w zbiór pusty, 0. P rzyp o m n ijm y, ja k przebiega gra
w chaos dla operatora H utchinsona danego przez N kontrakcji w \ , . . . ,
Potrzebne nam są praw dopodobieństw a
i p u n kt po­
czątkow y xo* N astępnie tw o rzym y ciąg x i , X 2, . . . , którego kolejne
w yrazy dane są w zorem
Xn+1 = Win(xn),
n = 0,1,2,...,
3 Jak dostroić ruletkę opowiemy w paragrafie 6.3.
4 Zob. część techniczną na s. 368.
G ra w chaos dla
IFS połączonych
w sieć
6. Gra w chaos
388
przy czym w skaźnik i n — m G
je s t w ybierany losowo
z praw d opod obieństw em p m . Gra w chaos dla m acierzy o p erato rów
H utchinsona generuje ciąg we ktorów X o , X i , X 2, .. . , których skła­
d ow ym i są pod zbiory płaszczyzny. X n + i pow staje przez zastosowa­
nie losowo w ybranych kontrakcji z W do składow ych w ektora X n .
W celu uniknięcia operow ania w ielo m a w skaźnikam i opiszem y po­
je d y n c zy krok, posługując się oznaczeniem X = X n i Y = X n+ i .
Składow e w e k to ró w o znaczać będziem y odp ow ied nio przez
. . . , xm
i 2/i)
,Vm- Losowy w yb ó r kontrakcji z W m ożna opisać w dwóch
krokach. D la każdego wiersza i m acierzy W losujem y d w u k ro t­
nie.
K ro k 1: Z ¿-tego w iersza m acierzy W w y b ieram y op erato r H u tch in ­
sona Wik (n ie m oże to być o p e ra to r 0 ). Załóżm y, że operator
ten je s t d any przez N ko n trakcji,
K ro k 2: W y b ie ra m y losowo je d n ą ko n trakcję spośród w i >... ,w n, po­
w ied zm y w m .
Po to , by w yzn aczyć ż-tą składow ą yi w ektora Y , stosujem y do
k-te j składow ej
w ekto ra X losowo w yb ran ą ko ntrakcję w m (w cho­
dzącą w skład o p erato ra H utchinsona Wik). W y z n a c za m y zatem
yk = wm (xk)‘ Po to , by o trzy m a ć składowe w ektora Y = X n + i , ko­
lejno stosujem y o d p o w ied n ie (losowo w y b ieran e ) ko ntrakcje do skła­
dow ych w ekto ra X = X n , zg odnie ze w skaźnikam i oznaczającym i
ko lu m ny w m acierzy o p e ra to ró w H utchinsona W .
Losowanie odbyw a się zg odnie z zad an ym i z góry praw dopodo­
bień stw am i. Pow yższy opis losowej ite ra cji nasuwa n atu raln y sposób
w y zn a czan ia praw d opod obieństw dla obu z pow yżej opisanych kroków .
D la kroku 1 w y b ieram y z osobna praw dopodobieństw a Pik dla każdego
o p e ra to ra H utchinsona w ystępującego w W , ta k że sum a praw dopo­
dob ieństw w każdym wierszu będzie w ynosiła 1,
Pi i +
+ P%m = 1)
i — 1)
i
gdzie
Pik = o,
jeżeli
Wik = 0-
T a k ie d ob ranie p raw d opod obieństw za p e w n ia, że nigdy nie zosta­
nie w y b ra n y o p e ra to r 0. Z a łó żm y następnie, że Wik w yznaczony
je s t przez ko n trakcje
. . . , wn. D la każdej kontrakcji Wj w ybie­
ram y praw d opod obieństw a p i , ... ,pw w ta k i sposób, że pj > 0 oraz
Pi + * * ■+ P n = 1. P raw d o p o d o b ień stw o w ybrania w m wynosi p m ,
je że li założym y, że o p e ra to r H utchinsona Wik zo stał uprzednio w y­
brany w kroku 1.
U .J ..
± \ . U J J i a , l F l CL
¿ j K ^Z i K J U C L
Zj
1 U1CŁ-I\.cj.
LKW R i KW R
Rysunek
6 .6 : Pięć pierw szych iteracji K W R dla trójk ąta Sier­
pińskiego, zaczynających się od pojedyn czego punktu (górnego
wierzchołka trójkąta). P un kty pow stałe w w yniku gry w chaos
zaczynającej się od tego sam ego punktu są zaznaczone czarnym i
kółkami
Zanim zajmiemy się problemem efektywności, przedy­
skutujmy, jak to się dzieje, że gra w chaos wypełnia atraktor IFS. Z rozdziału 5 wynika, że jeżeli zaczniemy iterować
IFS od dowolnego obrazu początkowego
to otrzymamy
ciąg obrazów
dążących do atraktora A ^ . Jako
obraz początkowy możemy równie dobrze wybrać pojedyn­
czy punkt. Niech Aq = {^o}- Załóżmy, że IFS jest wyzna­
czony przez N przekształceń afinicznych. Po pierwszej ite­
racji otrzymamy obraz złożony z N punktów, a dokładniej
A i = { w i ( z o ) , w 2( z o ) , ... , w N ( z 0)}.
Po drugiej iteracji otrzymujemy N 2 punktów i tak dalej.
Oczywiście punkty te znajdą się dowolnie blisko atraktora
i po pewnym czasie dadzą nam dokładne jego przybliżenie.
Gra w chaos rozpoczęta od punktu zo jest bardzo podob­
na do iterowania IFS z tym samym punktem początkowym.
Wygeneruje ona ciąg punktów zi, Z2 , ..., gdzie k-ty punkt zk
należy do fc-tego obrazu
powstałego w trakcie iterowania
IFS. Dlatego też punkty z & znajdują się coraz bliżej atrak­
tora. Jeżeli zq od razu należy do obrazu końcowego, to wszy­
stkie punkty wiodące będą również punktami tego obrazu.
Łatwo jest znaleźć punkty, które na pewno należą do atrak­
tora. Takimi punktami są punkty stałe przekształceń afinicz­
nych, opisujących ten proces. Punkt zq jest punktem stałym,
D laczego gra
w chaos daje
p ożąd an e
rezu ltaty
390
6. Gra w chaos
jeżeli zo = Wk(zo) dla pewnego (lub pewnych) k — 1, ..., AT.5
Teraz już możemy wyjaśnić pochodzenie kropek leżących
poza trójkątem Sierpińskiego na rys. 6.3. W tam tym przy­
padku punkt początkowy nie należał do trójkąta Sierpiń­
skiego. Dlatego też pierwsze przebiegi gry w chaos wygene­
rowały punkty leżące wprawdzie blisko trójkąta Sierpińskie­
go, lecz ciągle od niego rozróżnialne. Różnica ta oczywiście
zmniejszy się już po kilku iteracjach.
Aby w pełni zrozumieć powodzenie gry w chaos, trzeba
jeszcze pokazać, że ciąg powstałych punktów znajdzie się
dowolnie blisko każdego punktu atraktora. Zajmiemy się tym
w następnym paragrafie.
6 .2 . A d r e sy : a n a liz a g r y w c h a o s
W celu przeprowadzenia analizy gry w chaos potrzebujemy
odpowiedniego formalnego języka, który pozwoliłby nam opi­
sać punkty atraktora IFS, jak również położenia poruszają­
cego się punktu wiodącego. Język ten będzie oparty na pew­
nej metodzie adresowania, którą rozwiniemy posługując się
przykładem trójkąta Sierpińskiego.
m etr
decym etr
\v-VvsX W
\\V-N\’ ■
!\-\
centym etr
milim etr
.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
M
I
I I M
, .
............ .......
M
- L - l l l - l l i L I L L .
M
I
M
I
I
I
i 1 I I
L U J . !
iLM l i i . jJj.J_LLj.lil ! ¡ Ul i m i J
R ysunek 6.7: Znajdywanie 357 za pomocą drzewa dziesiętnego
na linijce metrycznej
U k ła d
Podstawowa zasada, na jakiej oparta jest taka metoda
m e try c z n y ja k o adresowania, pochodzi sprzed paru tysięcy lat. Dziesiętny
IF S system liczbowy, dla którego położenie cyfry w zapisie liczby
5 Porównaj akapit o przekształceniach afinicznych na s. 313.
U.4. / l l i r e s y :
ć t iJ Ć tiiZ ć t g i y
W C J J ć tU *
ma dobrze określone znaczenie, jest właściwym układem od­
niesienia do wyjaśnienia używanego przez nas sposobu ad­
resowania i idei kryjącej się za grą w chaos. Przyjrzyjmy się
systemowi dziesiętnemu na rzeczywistym przykładzie: me­
trowej linijce z podziałką decymetrową, centymetrową i mi­
limetrową. Jeżeli podajemy trzycyfrową liczbę, na przykład
357, to rozumiemy, że chodzi tu o 357 część z 1000 mm.
Jeżeli odczytamy cyfry znajdujące się w tej liczbie od le­
wej strony do prawej, to zgodnie z ich wartościami możemy
odnaleźć odpowiednią ścieżkę na drzewie dziesiętnym (zob.
rysunek 6.7) i po trzech krokach znajdziemy się w miejscu
357.
W naszych rozważaniach nad grą w chaos jest istotne,
że możemy w inny sposób dotrzeć do położenia oznaczonego
357 — czytając cyfry od prawej strony do lewej. Otrzy­
mamy w ten sposób dziesiętną K W R . Dziesiętna KW R jest
to IFS składający się z dziesięciu kontrakcji (przekształceń
podobieństwa) wq, w \, ...
danych wzorami
x
/c
“ *(*) = 10 + i o ’
=
Oznacza to, że Wk pomniejsza metrową linijkę do fc-tego de­
cymetra. Działanie dziesiętnej KWR wyznacza dobrze nam
znany dziesiętny system metryczny na linijce.6
Zacznijmy od jednostki długości jednego metra. Pierw­
szy krok dziesiętnej KW R wyznacza na niej wszystkie od­
cinki decymetrowe. Następny krok generuje wszystkie centy­
metry itd. Tak opisany system dziesiętny — wraz ze swoimi
starożytnymi kuzynami, którym jest np. system szesnast­
kowy — jest prawdopodobnie najstarszą KWR.
Przeczytajmy zatem 357 od prawej strony do lewej, inter­
pretując cyfry jako kontrakcje. Zaczynając od jednostki me­
trowej zastosujmy najpierw przekształcenie u>7 , które prze­
niesie nas do jednostki decymetrowej zaczynającej się od
7 (zob. rysunek 6.8). Zastosujmy następnie ws — znaj­
dziemy się w 57. centymetrze. Na zakończenie
dopro­
wadzi nas do 357. milimetra. Dlatego odczytywanie liczby
od prawej strony do lewej i interpretowanie cyfr zgodnie
z ich położeniem jest tym samym, co odczytywanie od le-
6 A oto ćwiczenie: czy można skonstruować KWR dla układu
brytyjsko-amerykańskiego, odnoszącego mile do stóp i cali?
Oi7 -L
392
6. Gra w chaos
0
1
2
3
4
5
6
7
8
9
w5( w 7 )
lllllllll
MINIEN
lllllllll
lllllllll
lllllllll
mmli
lllllllll
lllllllll
lllllllll
lllllllll
0
1
2
3i
4
5
6
7
Ô
9
W3( w5( w7))
lllllllll
lllllllll
lllllllll
1 1 1 1 1I NI
lllllllll
lllllllll
lllllllll
lllllllll
LLLimil
lllllllll
0
1
2
3
4
5
6
7
8
9
R ysunek 6.8: Znajdywanie 357 przy zastosowaniu kontrakcji
dziesiętnej KWR
wej strony do prawej i interpretowanie ich jako dziesiętnych
kontrakcji.
G ra w ch ao s
Zagramy teraz w chaos na metrowej linijce. Najpierw
n a lin ijc e wygenerujmy losowy ciąg cyfr z {0,..., 9}. Zaczniemy od do­
wolnego punktu wiodącego (jego położenie dane jest w mi­
limetrach) i będziemy się przemieszczać do następnych po­
łożeń zgodnie z tym losowym ciągiem. Gra zakończy się
sukcesem, jeżeli odwiedzimy wszystkie możliwe położenia
wyrażone w milimetrach. Przyjrzyjmy się następującemu
ciągowi losowemu:
...765016357,
zapisanemu dla wygody od prawej do lewej. Po trzecim
kroku gry docieramy do położenia 357 danego w milime­
trach. Następną losową cyfrą jest 6. Które z położeń da­
nych w milimetrach punkt wiodący odwiedzi w następnej ko­
lejności? Oczywiście 635! Początkowa cyfra 7 jest więc nie­
istotna: niezależnie od tego, jaka to liczba, punkt wiodący
znajdzie się w czwartym kroku w położeniu oznaczonym 635.
Następnie punkt gry znajdzie się w milimetrze 163, potem
016 i tak dalej. Oznacza to, że przebieg gry w chaos przypo­
mina przesuwanie po losowym ciągu, w kierunku od prawej
do lewej, okienka obejmującego jednorazowo trzy cyfry.
Kiedy odwiedzimy wszystkie możliwe położenia wyrażone
6.2. Adresy: analiza gry w chaos
D ziesiętn a gra
w chaos
Rysunek 6.9: Trzycyfrowe okienko przesuwające się wzdłuż ciągu
...0119765016357 pozwala znaleźć położenie, podane w milime­
trach
w milimetrach? Stanie się tak, kiedy w przesuwalnym okien­
ku ukażą się wszystkie możliwe trzycyfrowe kombinacje. Czy
jest to prawdopodobne w przypadku ciągu otrzymanego przy
użyciu generatora liczb losowych? Odpowiedź brzmi „tak” ,
ponieważ jest to jedna z podstawowych cech komputerowego
generatora liczb losowych. Jest to niewyszukany sposób na
otrzymanie wszystkich możliwych trzycyfrowych adresów.
Nadawać się do tego będzie nawet taki generator liczb lo­
sowych, który słabo wypada w testach statystycznych, jeżeli
tylko generuje wszystkie kombinacje trzycyfrowe.7
Przyjrzyjmy się teraz, jak możemy przenieść to rozumo­
wanie na przypadek trójkąta Sierpińskiego, paprotki i innych
fraktali. Wiemy, że w trójkącie Sierpińskiego istnieje dobrze
określona hierarchia. Na najwyższym poziomie (poziom 0)
istnieje jeden trójkąt. Na następnym (poziom 1) istnieją
trzy. Na poziomie 2 jest ich już dziewięć. Następnie 27,
81, 243 itd. Na Ar-tym poziomie istnieje więc 3k trójkątów.
Każdy z nich jest kopią całego trójkąta, pomniejszoną 2k
razy (zob. rysunek 2.15).
Dla trójkącików ze wszystkich pokoleń występujących A d resy
w trójkącie Sierpińskiego potrzebujemy jakiejś metody adre­ w trójkącie
sowania czy oznaczania. Postąpimy podobnie jak przy two-
7 Barnsley tłumaczy powodzenie gry w chaos, odwołując się do wy­
ników z teorii ergodycznej (M.F. Barnsley, Fractals Everywhere, Aca­
demic Press, 1988). Jest to matematycznie poprawne, ale bezużyteczne
w praktyce. Nasuwają się dwa pytania: po pierwsze, dlaczego odpowie­
dnio dostrojona gra w chaos tak dobrze tworzy obraz na ekranie kom­
putera? Po drugie, dlaczego gra w chaos generuje ciągi wypełniające
atraktor w sposób gęsty? Nie jest to to samo pytanie! Teoria ergodyczna wyjaśnia jedynie drugi problem, ale nie potrafi wykluczyć
możliwości, że obraz pojawi się dopiero po 1011 latach. W rzeczywi­
stości mogłoby to się zdarzyć, o ile rzeczywiście komputery potrafiłyby
funkcjonować tak długo.
394
6. Gra w chaos
rżeniu nazwisk w pewnych językach germańskich, np. Helga
i Helgason, John i Johnson czy Nils i Nilsen. Będziemy
używać liczb zamiast imion:
poziom 1
1
2
3
poziom 2
11
12
13
21
22
23
31
32
33
poziom 3
111 112 113
121 122 123
131 132 133
211 212 213
221 222 223
231 232 233
311312 313
321 322 323
331 332 333
Niestety, jeśli będziemy chcieli zapisać więcej niż kilka
początkowych poziomów, to szybko zabraknie nam miejsca.
Jednak chyba już jest jasna reguła, jaką się posługujemy.
Reguła ta polega na oznaczaniu zgodnie z porządkiem leksykograficznym, takim jak w książce telefonicznej, czy zgodnie
z miejscem cyfry w systemie liczbowym. Cyfry 1, 2 i 3 można
interperetować jako hierarchię trójkątów lub hierarchię wy­
stępującą w drzewie (zob. rysunek 6.10). Dla trójkątów:
• 1 oznacza lewy dolny trójkąt,
• 2 oznacza dolny prawy trójkąt,
• 3 oznacza górny trójkąt.
T ró jk ą t
Przy tej interpretacji adres 13213 oznacza, że trójkąt,
o a d re s ie 13213 który nas interesuje, znajduje się na piątym poziomie kon­
strukcji. Adres 13213 mówi nam, gdzie dokładnie możemy
D rz e w a
a d reso w e
R ysunek 6.10: Drzewo Sierpińskiego (po lewej), drzewo symbo­
liczne (po prawej)
b.‘¿. Adresy: analiza gry w chaos
go znaleźć. Przeczytajmy ten adres. Odczytujemy go od
lewej strony do prawej, dokładnie tak jak liczbę w syste­
mie dziesiętnym. Oznacza to, że miejsca w zapisie dzie­
siętnym liczby odpowiadają poziomom konstrukcji. Zaczy­
namy od lewego dolnego trójkąta na pierwszym poziomie.
W tym trójkącie znajdujemy górny trójkąt z drugiego po­
ziomu, a następnie w nim szukamy dolnego prawego trójkąta
z trzeciego poziomu. Znajdujemy się teraz w trójkąciku o ad­
resie 132 (zob. rysunek 6.11). W nim musimy odszukać
dolny lewy trójkącik z czwartego poziomu, a na zakończenie
znajdziemy się w górnym trójkąciku w nim zawartym. Ozna­
cza to, że poruszamy się po gałęziach drzewa Sierpińskiego
z rysunku 6.10, aż do piątej generacji.
A d re sy
tró jk ą tó w
Rysunek 6.11: Znajdowanie małego trójkącika o adresie 132
w trójkącie Sierpińskiego przy użyciu zstępującego ciągu trójkątów
Podsumujmy i sformalizujmy nasze obserwacje. Adres
trójkącika to skończony ciąg liczb całkowitych S1 S2 —s/b gdzie
każde $i jest cyfrą ze zbioru {1,2,3}. Wskaźnik k może
być dowolnie duży. Oznacza on poziom konstrukcji trójkąta
Sierpińskiego. Przy przejściu z poziomu na poziom trójkąty
maleją dwukrotnie, więc współczynnik redukcji na poziomie
fc-tym wynosi 1/2*.
Wybierzmy teraz punkt z trójkąta Sierpińskiego. Jak A d re s p u n k tu
możemy wyznaczyć jego adres? W tym celu musimy powta­
rzać adresowanie trójkącików, biorąc coraz mniejsze trójkąty
zawierające dany punkt. Dlatego też możemy przypisać
każdemu punktowi trójkąta Sierpińskiego z zstępujący ciąg
trójkątów D o ,D i,D 2 ,... W ciągu tym znajduje się po jed­
nym trójkącie z każdego poziomu i są one wybierane tak,
że Dk + 1 znajduje się w trójkącie Dk oraz że punkt z należy
do wszystkich D dla fc = 0 ,1 ,2 ,... Temu ciągowi trójkątów
odpowiada ciąg liczb całkowitych si, $2 , •••
396
6. Gra w chaos
adres(£>i)
adres(i?2)
adres (Z>3)
— s\
=
= s i s 2ss
Wydłużanie ciągu adresowego odpowiada umiejscawia­
niu z w coraz mniejszych trójkątach (tzn. z coraz większą
precyzją). Przypom ina to znajdowanie z coraz większą dok­
ładnością położenia na linijce. Dlatego też nieskończenie
wiele wyrazów wyznacza z precyzyjnie:
a d re s^ ) = S1 S2 S3 ...
(6.1)
C zy ta n ie od
Ważne jest, abyśmy pamiętali, jak odczytywać adresy.
lewej do prawej Adres powinien być czytany od strony lewej do prawej i może
być interpretowany jako zstępujący ciąg trójkątów. Miejsce
cyfry w ciągu oznacza poziom konstrukcji.
W tym miejscu należy wspomnieć, że nasz sposób adre­
P u n k ty styk u
w trójk ącie sowania punktów w trójkącie Sierpińskiego nie zawsze pro­
S ierpińsk iego wadzi do jednoznaczności adresu. Mamy na myśli to, że ist­
nieją punkty z dwoma dopuszczalnymi adresami, podobnie
jak 0,499 i 0, 5 w systemie dziesiętnym. Zajmijmy się przez
chwilę tym faktem. Konstruując trójkąt Sierpińskiego, wi­
dzieliśmy, że w pierwszym kroku dostajemy trzy trójkąty,
a każde dwa z nich stykają się wierzchołkami. W następnym
kroku mamy już dziewięć trójkątów i każda sąsiadująca para
tych trójkątów ma wspólny wierzchołek. Jakie są adresy
punktów, w których trójkąty się stykają? Przyjrzyjmy się
przykładowi (zob. rysunek 6.12). Punkt, w którym trójkąty
oznaczone cyframi 1 i 3 się stykają ma adres 1333..., lecz
również 3111... Podobnie punkt, w którym stykają się trójA dres p u n k tu
R ysunek 6.12: Punkt o adresie 13222... Zauważmy, że punkt ten
mógłby też zostać zlokalizowany za pomocą adresu 12333...
397
6.2. Adresy: analiza gry w chaos
kąty oznaczone 13 i 12, ma dwa różne adresy: mianowicie
13222... i 12333... Ogólnie punkt, w którym stykają się dwa
trójkąty, musi mieć adres postaci
adres(^) = si...sfcn7ł2fł2^2**lub
adres(z) = s\...Skr 2 r \ r \ r \ ...,
gdzie 5^, rx, r 2 są ze zbioru {1,2, 3}, a r\ i V2 są różne. Takie
punkty nazywają się punktami styku. Cechuje je posiadanie
bliźniaczych adresów (zob. rysunek 6.13).
P u n k ty styku
Rysunek 6.13: Punkt styku o podwójnym adresie 1333... oraz
3111...
Konstrukcja trójkąta Sierpińskiego może sprawiać wra­
żenie, że oprócz trzech wierzchołków wszystkie jego punkty
są punktami styku. Otóż tak nie jest. Adresy pomogą
nam przeprowadzić rozumowanie, które wyjaśni ten pro­
blem. Jeżeli wszystkie punkty trójkąta Sierpińskiego byłyby
398
6. Gra w chaos
punktam i styku, to mogłyby zostać scharakteryzowane przez
bliźniacze adresy, tak jak wyżej. Jednak większość adresów,
jakie możemy sobie wyobrazić, nie jest tej szczególnej po­
staci (np. adres(z) = 5 15 2 5 3 ..., gdzie każda cyfra
jest
wybrana losowo). Oznacza to, że większość punktów nie
jest punktam i styku.
Rozbudujmy nieco szerzej formalizm związany z adre­
P rzestrzeń
adresów sami. W tym celu wprowadźmy nowy obiekt ]C3, przestrzeń
adresów. Element cr tej przestrzeni jest nieskończonym cią­
giem a = 5 x5 2 ..., którego elementy 5 * należą do zbioru { 1 , 2 ,
3}. Każdy element a tej przestrzeni wyznacza punkt z na­
leżący do trójkąta Sierpińskiego. Może jednak się zdarzyć,
że różne elementy tej przestrzeni będą odpowiadać temu sa­
memu punktowi, pewnemu punktowi styku.
A d resy dla
zbioru C antora
R ysunek 6.14: Adresy dla zbioru Cantora. Punkt A ma adres
11222..., punkt B zaś — adres 212111...
Przyjrzyjmy się teraz, jak pojęcie adresów można za­
A d resy dla
zbioru C antora stosować do innego przykładu fraktala, do zbioru Cantora
C. Do adresowania używamy tu taj jedynie dwóch cyfr: 1
i 2. Wszystkie nieskończone ciągi o wyrazach przyjmujących
jedynie wartości 1 i 2 tworzą przestrzeń adresów
porównamy zbiór Cantora z trójkątem Sierpińskiego, to mo­
żemy zauważyć ważną różnicę. Każdy punkt zbioru Can­
tora ma tylko jeden adres, a każdemu adresowi odpowiada
dokładnie jeden punkt. Tym samym adresy punktów zbioru
Cantora są jednoznaczne — możemy utożsamić
1
W przypadku ^ 3 i trójkąta Sierpińskiego takie utożsamienie
nie jest możliwe, ponieważ istnieją punkty o dwóch różnych
adresach.
Każdy fraktal, będący atraktorem IFS, ma właściwą so­
A d resy d la
atrak torów IFS bie przestrzeń adresów. Możemy to sprecyzować następująco.
Jeżeli IFS dany jest przez N kontrakcji tu i,..., w n , to każdy
6.2. Adresy: analiza gry w chaos
punkt z należący do atraktora A <*, ma adres w przestrzeni
adresowej
będącej przestrzenią wszystkich nieskończo­
nych ciągów S1 S2 S3 — 0 wyrazach ze zbioru {1, 2,... , W}.
Weźmy na przykład punkt 2 leżący na atraktorze A ^ ja­
kiegoś IFS, który składa się ze zbioru N kontrakcji u>i,...,
Przekształcając
za pomocą tych kontrakcji, otrzymamy
jego pokrycie (wyjaśniliśmy to już w rozdziale 5):
Aqo =
(A 00) U *■* U wj\j(A ^ ).
Wybrany przez nas punkt >2: należy z pewnością do co naj­
mniej jednego zbioru z tego pokrycia, powiedzmy do W k ( A o o ) .
Wyznaczyliśmy w ten sposób pierwszą część adresu punktu
z, a mianowicie s i = k . Zbiór w ^ A o o ) jest następnie dzie­
lony na N (niekoniecznie rozłącznych) podzbiorów
W k ( A 00 )
=
W k i w i i A o o ) U .. . U w N ( A o o ) ) =
= W k i w i i A o o ) ) U . .. U W k i w N i A o c ) ) .
Wybrany przez nas punkt znajduje się w co najmniej jed­
nym z tych podzbiorów, powiedzmy w Wft ( w i ( A 00) ) . Wy­
znacza to drugi symbol adresu punktu z, mianowicie S2 =
L Zauważmy, że mogą istnieć różne możliwości wyboru
5 2 , i wtedy też mielibyśmy kilka różnych adresów dla jed­
nego punktu. Znajdowanie kolejnych cyfr adresu można po­
wtarzać w nieskończoność. Większa liczba cyfr w adresie
pozwala z coraz lepszym przybliżeniem wyznaczyć punkt
2 , ponieważ kolejne zbiory stają się coraz mniejsze, zgo­
dnie z własnością przekształceń zwężających wchodzących
w skład IFS.
Podobnie jak w przypadku trójkąta Sierpińskiego, dosta­
jemy zstępujący ciąg podzbiorów D pochodzących z kolej­
nych poziomów konstrukcji atraktora i zawierających dany
punkt. Jeżeli <j ~ siS2**- oznacza adres punktu z, to zbiory
te są postaci
D k = w S l ( w 32( . . . w Sk( A 0O) ) ) .
Dla skrócenia zapisu możemy pominąć nawiasy i otrzymamy
W k (w i(A o o )) = WhWliAoo)
oraz
Dfc — ^ 3 1 ^ 5 2 ' " ^ S k ( A o o ) *
399
400
6. Gra w chaos
C zy ta n ie od
Chcemy zwrócić uwagę, że w pewnym sensie odczyty­
prawej stron y waliśmy ciąg 5x^2...Sfc od prawej strony do lewej, ponieważ
do lewej najpierw działaliśmy przekształceniem w Sk na A oo, następnie
na otrzymany wynik przekształceniem w 3 k _ 1 itd., a dopiero
na końcu działaliśmy przekształceniem w 3l. Przyjrzyjmy
się przykładowi. Na rysunku 6.15 pokazano, jak można
otrzymać trójkąt o adresie 213 przez działanie W2 (wi(w$(S)))
Możemy to opisać tak: góra (3) lewego (1) w prawym (2)
trójkąciku (zwróćmy uwagę na odpowienią kolejność). Pro­
sta obserwacja, że adresy tego samego punktu można od­
czytywać od lewej strony do prawej jak też od prawej do
lewej (w zależności od kontekstu), pomoże nam zrozumieć,
dlaczego gra w chaos daje pożądane rezultaty.
In terp retacja
adresów
R ysunek 6.15:
kontrakcji
Odczytywanie adresu wspak przy stosowaniu
Jed n ozn aczn e
Załóżmy, że istnieje jednoznaczna odpowiedniość pomię­
czy dzy punktam i A ^ a punktam i w XIiv* Oznacza to, że dla
n iejed n ozn aczn e każdego punktu z atraktora A ^ istnieje tylko jeden adres.
A traktor nazywamy wtedy całkowicie niespójnym. Na ry­
sunku 6.16 pokazano atraktory dla trzech IFS: pierwszy jest
całkowicie niespójny, w drugim znajdują się punkty styku,
a w trzecim pewne fragmenty zachodzą na siebie. W tym
ostatnim przypadku trudno jest podać adres punktu jedy­
nie na podstawie rysunku. Jednakże zawsze da się znaleźć
punkt odpowiadający danemu adresowi.
Poznaliśmy metodę adresowania punktów atraktora IFS.
Spróbujemy jej użyć do zrozumienia, dlaczego gra w cha­
os daje pożądane rezutalty i w jaki sposób generuje atrak­
tor. Posłużymy się znowu przykładem trójkąta Sierpińskie­
go, a następnie zastanowimy się, jak możemy rozszerzyć na­
szą metodę na przypadek ogólny.
0.z. Æaresy: analiza gry w cnaos
4U1
Trzy przypadki
A
A A
AA AA
A
A
AA
AA
A A
AA AA
A A
A
AA
A A
AA AA
A
A
AA
AA
A A A A.
A A A A AA AA
A
AA
A A
AAAA
A
AA
A
AA
AAAA ¿ k & i
Rysunek 6.16: Trzy atraktory IFS: pierwszy jest całkowicie
niespójny, drugi ma jedynie punkty styku, natomiast części trze­
ciego zachodzą na siebie (plany konstrukcji KWR przedstawiono
w zmniejszeniu)
Zacznijmy od kilku prostych obserwacji. Załóżmy, że
mamy do czynienia z doskonałą kostką, tzn. każda z cyfr 1,
2 i 3 będzie pojawiać się z tą samą statystyczną częstością.
Jeżeli oznaczymy przez pk prawdopodobieństwo wypadnięcia
liczby A;, k = 1,2,3, to p\ = p2 = Ps = 1/3.
Zagrajmy teraz w grę w chaos, posługując się taką do­
skonałą kostką. Zakładamy, że punkt wiodący należy do
trójkąta Sierpińskiego, lecz nie znamy jego dokładnego poło­
żenia. Trójkąt Sierpińskiego można rozbić na trzy zbiory na
pierwszym poziomie, na dziewięć na drugim i na 3k na &-tym
Gra w chaos
z rów nym i
p raw dopod o­
bień stw am i
402
6. Gra w chaos
P ra w d o p o d o ­
b ień stw a
R ysunek 6.17: Prawdopodobieństwo tego, że po jednej iteracji
punkt wiodący trafi do wybranego zbioru z pierwszego poziomu,
wynosi 1/3. Dla zbioru z drugiego poziomu, po dwóch iteracjach,
prawdopodobieństwo wynosi 1/9
poziomie (wszystkie te zbiory są trójkątam i). Wybierzmy
jeden z tych zbiorów, powiedzmy jeden ze zbiorów pierw­
szego poziomu. Jakie jest prawdopodobieństwo, że następny
punkt zn-(_i będzie leżał w tym trójkąciku? Oczywiście praw­
dopodobieństwo będzie równe 1/3 niezależnie od tego, gdzie
znajduje się zn, ani od tego, gdzie znajdowały się ¿n-i> z n - 2 —
Wybierzmy teraz pewien zbiór z drugiego poziomu. I zno­
wu zakładamy, że nic nie wiemy o położeniu zn oprócz tego,
że zn należy do trójkąta Sierpińskiego. Jeżeli chcemy, by
punkt wiodący trafił do wybranego zbioru D z poziomu
drugiego, musimy najpierw wyznaczyć dwa kolejne punkty
z n + 1 i zn+2 . Jakie jest prawdopodobieństwo, że z n+ 2 będzie
należał do D ? Oczywiście 1/9. Oznacza to, że jeśli wybie­
rzemy zbiór z k-tego podziału, to prawdopodobieństwo, że
gra w chaos wygeneruje po k przebiegach punkt zn+ki który
będzie się znajdował w
wynosi l / 3 fc.
Powtórzmy nasze rozumowanie, posługując się kontrak­
cjami w\)W 2 i W3 . Każda z w\,W 2 i W3 zostaje wybrana
z prawdopodobieństwem 1/3. Oznacza to, że każda para
WiWk jest losowana z prawdopodobieństwem 1/9 i ogólnie:
każde z możliwych 3 k złożeń kontrakcji w SlwS2 ...wSk, gdzie
Si jest elementem zbioru {1,2,3}, jest wybierane z prawdo­
podobieństwem l / 3 fc.
Teraz możemy wyjaśnić, dlaczego gra w chaos wytwarza
ciąg punktów, który po pewnym czasie wypełni cały trójkąt
Sierpińskiego przy dowolnej rozdzielczości. Gra w chaos
z matematycznego punktu widzenia tworzy następujący ciąg
punktów:
O.z. A d r e s y ;
analiza gry w chaos
zq
=
punkt startu (początkowy punkt gry)
¿1
=
w Si ( zq )
z2
=
wS2u;5l(zo)
=
wSfc...u;52u;Sl(^o),
4U0
gdzie ciąg zdarzeń si, $2, ••• i
5fc jest wybrany losowo.
Ostatni punkt
należy do trójkącika D fc-tej generacji,
o adresie SfcS*._i...S2 Si .
Wybierzmy z trójkąta Sierpińskiego punkt próbny P .
Chcielibyśmy znaleźć jakiś argument na rzecz tego, że jeżeli
będziemy grali w chaos wystarczająco długo, to otrzymamy
punkty leżące dowolnie blisko punktu P . W tym celu wy­
starczy, by punkt wiodący znalazł się w odległości od P nie
większej niż pewne małe i. Załóżmy, że średnicą trójkąta
Sierpińskiego jest d. Z tego założenia wynika, że trójkąciki
na m -tym poziomie trójkąta Sierpińskiego m ają średnicę
d j 3m. Oznacza to, że możemy wybrać m tak duże, że d /3 m <
s. Następnie możemy wybrać z m-tej generacji trójkąt D,
zawierający punkt P. W tedy każdy punkt z D będzie znaj­
dował się w odległości co najwyżej e od P. Trójkąt D jest
oznaczony adresem
adres(D) = t \ t 2 ^~tm,
U € {1; 2, 3}.
Przyjrzyjmy się teraz długiemu przebiegowi gry w chaos. Za­
piszmy otrzymany ciąg w odwrotnej kolejności, ..., s*.,
..., «2) si< Kończymy grę w momencie, gdy w ciągu ..., s&,
..., 52, si natrafimy na blok długości m pokrywający się
z
Weźmy na przykład
... , Sfc, ... , Sj~|_m+i, ¿i, 12, ... , tfjij Sj, ... , S2, Si.
Jeżeli punkt Zj należy do trójkąta Sierpińskiego, to
wt i - 'wtm(zj) będzie znajdował się w D. Oznacza to, że pozo­
staje jedynie wykazanie, że ciąg
na pewno się pojawi
w czasie trwania gry. Prawdopodobieństwo, że sekwencja m
liczb odpowiada ciągowi t f a —tm wynosi l / 3 m. Można za­
tem udowodnić (używając lematu Borela-Cantelli — przyp.
tłum.), że jeżeli gramy w chaos, posługując się doskonałą ko­
stką, to prędzej czy później otrzymamy taki ciąg, a co za tym
idzie punkt leżący w trój kąciku D, czyli tak blisko punktu
próbnego P, jak tego chcieliśmy.
P u n k ty w iodące
zn ajd ą się blisko
każdego pun ktu
trójk ąta
Sierpińskiego
404
6. Gra w chaos
G ra w chaos
generuje a tra k to r
IF S
P u n k ty pow stałe w grze w chaos p o kryją w sposób gęsty tró jk ą t
Sierpińskiego. O bserw acja ta je s t praw dziw a rów nież dla dow olnego
a tra k tó ra IFS . P rze d s ta w im y p o kró tce rozum ow anie, które uzasa­
dni to uogólnienie. Niech IFS będzie w yzn aczo n y przez N ko ntr­
akcji w i , . . . , w n i niech A ^ będzie jeg o a tra k to re m . A tra k to r ten
je s t niezm ienniczy ze w zględu na o p e ra to r H utchinsona H ( X ) =
w i(X )U * ■• U % ( I ) . O d p o w ied n i losowy IFS w yznaczony jes t przez
ko n trakcje Wi, k tó ry m o d p o w ia d a ją praw dopodobieństw a pi (ja k zw y­
kle pi > 0 i pi H
\~p n = 1 )■ P ozostaje nam w ykazać, że przepro­
w a d za ją c grę w chaos o takic h p a ram etrach , zn ajd zie m y się dowolnie
blisko dow olnego p u n ktu P a tra k to ra A ^ . S próbu jm y więc otrzym ać
p u n k t leżący nie dalej niż s od P. Niech adres P będzie następującej
postaci:
a d re s (P ) =
gdzie
ti e
,
l , . . . , A / \ Punkt
P je s t więc zaw arty
w e w szystkich zbiorach
■
rA^rri')
Am = Ult1Wt2 ---Wtm(A),
771=1,2,...
O trz y m u je m y
A i D A2 D A 3 D ’ • *,
gdzie średnica A m m aleje do zera, w m iarę ja k m rośnie. Jeżeli zn am y
czyn niki ko n trakcji c i , . . . , c ; y przekształceń w i , . . . ,
to m ożem y
w yzaczyć średnice tych zbiorów . Z definicji w spółczynnika redukcji
dla ko n trakcji dow olny zb ió r B o średnicy d ia m ( P ) po przekształceniu
przez Wi m a średnicę pom niejszoną o czynnik c* < 1:
d ia m (iU i(i? )) < C{ d ia m ( P ) .
M o ż e m y za te m zn aleźć ograniczenie górne średnicy A m, a m ianow i­
cie:
d ia m ( A m )
= d ia m (w x • • ■w tm (A x > ))
< ct l ci2 • • • c im _ 1cim d ia r n (A 00).
P on iew aż w szystkie w spółczynniki redukcji są m niejsze od 1, to przez
w yb ran ie o d p o w ied n io dużej liczby przekształceń m ożem y uczynić
tę średnicę m niejszą niż e. W s zys tk ie pun kty o adresach rozpoczy­
nających się sekw encją
położone są w odległości nie większej
niż e od ustalonego wcześniej P. W czasie trw a n ia naszej gry m usim y
więc n a tra fić na sekw encję
P raw d opod obieństw o, że dana mw yrazow a sekw encja je s t w łaśnie tym ciąg iem , je s t iloczynem praw­
d o p o d o b ień stw ptxPt2 * * *P im . a więc je s t niezerowe. O znacza to, że
Adresy: analiza gry w chaos
startu jąc z dow olnego pun ktu
blisko punktu P.
4U0
kiedyś zn ajd zie m y się dow olnie
Jak dotąd analizowaliśmy grę w chaos z matematycznego G ra w chaos
punktu widzenia. Spróbujmy teraz przenieść się do świata n a e k ra n ie
konkretów (tzn. zająć się taką odmianą gry w chaos, która k o m p u te r a
jest bliższa gry w chaos na ekranie komputera). Piksele
ekranu komputera tworzą prostokątną macierz. Możemy
je oznaczać za pomocą współrzędnych (np. piksel numer
5 w wierszu numer 12). Możemy posłużyć się również takim
systemem adresów, jaki opisaliśmy w tym rozdziale.
1
3
0
2
11
13
31
33
10
12
30
32
01
03
21
23
00
02
20
22
Rysunek 6.18: Adresy dla macierzy prostokątnej
Podzielmy najpierw ekran na 4 ćwiartki i przypiszmy
im adresy od 0 do 3, tak jak to jest pokazane na rysunku
6.18. Następnie podzielmy każdą z ćwiartek na cztery równe
części, z których każdą możemy oznaczyć dwucyfrowym ad­
resem. W ten sposób trzycyfrowymi adresami możemy ozna­
czyć piksele na ekranie o wymiarach 8 na 8 pikseli, a czte­
rocyfrowymi na ekranie 16 na 16 pikseli (ogólnie: adresami
n-cyfrowymi możemy oznaczyć piksele na ekranie o wymia­
rach 2 n na 2 n).
Załóżmy, że mamy ekran 8 na 8 . Jak możemy odnaleźć
piksel o adresie 301? Odczytujemy adres od strony lewej
do prawej i podążamy za zstępującym ciągiem kwadratów,
który ostatecznie ustala współrzędne położenia piksela jako
(4,5) — zob. rysunek 6.19. Następnie wyznaczmy cztery
kontrakcje wo,wi,W 2 i W3 , podobnie jak w paragrafie 5.3
(tzn. przekształcenie
przekształca cały ekran w ćwiartkę
¿), tak by pozostawały w zgodzie z naszym systemem ad­
resów.
Jeżeli kwadrat Q reprezentuje cały ekran, to ciąg
w 3 (Q)
d
w 3 (w0 (Q))
D
W 3(w oO i(<3)))
6. Gra w chaos
406
W sp ółrzęd n e
na ekranie
i adresy
~3\
Chaos PC
Rysunek 6.19: Adresowanie pikseli: piksel P, o współrzędnych
(4,5) na ekranie, ma adres 301...
D roga do
piksela 212
R ysunek 6.20: Pierwsze kroki gry w chaos, doprowadzające do
piksela 212
jest ciągiem scentrowanych prostokątów otaczających piksel
P na rysunku 6.19.
W paragrafie 5.3 zaprezentowaliśmy, co się stanie, jeżeli
opuścimy przekształcenie W3 , umieszczające cały ekran w pra­
wym górnym rogu. W rezultacie otrzymujemy jedynie te pi­
ksele, których adresy nie zawierają cyfry 3. Pokazaliśmy, że
IFS wyznaczony przez kontrakcje wo, uą, W2 generuje trójkąt
Sierpińskiego tak, jak na rysunku 5.9 (w naszym przykładzie
przybliżenie 8 na 8 pikseli). Przyjrzyjmy się teraz, jak to
się dzieje, że gra w chaos dopuszczająca jedynie kontrakcje
wq,wi i W2 generuje piksele o adresach nie zawierających
cyfry 3.
Rozważmy znowu wybrane losowo cyfry
...01211210010212.
Jeśli zaczyniemy od dowolnego punktu na ekranie, to pierw­
szy ruch gry przeniesie nas do ćwiartki oznaczonej cyfrą
o.ó. uoszrajanie ruiezKi
4Ui
2,
drugi do kwadratu o adresie 1 2 , a trzeci do piksela 2 1 2
(zob. rysunek 6.20). Następnie przeszlibyśmy do adresu
0 2 1 2 (kwadratu będącego elementem podziału piksela 0 2 1 ),
o ile dysponowalibyśmy 4-cyfrowymi adresami. Ustaliliśmy
jednak wyjściowo, że posługujemy się ekranem 8 na 8 pikseli,
a więc dysponujemy jedynie adresami 3-cyfrowymi. Odrzu­
camy cyfrę 2, czwartą w adresie. Następnie znajdziemy się
w pikselu o adresie 102, potem 010 i tak dalej. To co otrzy­
mamy będzie podobne do przesuwania okienka z miejscem
na dokładnie trzy cyfry nad naszym przykładowym ciągiem
liczb losowych. Zaznaczamy wszystkie te piksele, których
adresy się pojawiają.
Gra w chaos tym razem zakończy się sukcesem, jeżeli
w ciągu cyfr kierujących danym przebiegiem gry znajdą się
wszystkie możliwe kombinacje cyfr 0 , 1 i 2 . Ciąg cyfr, ja­
kim się posługujemy, nie musi być losowy — wystarczy, że
pojawią się w nim wszystkie możliwe adresy. Co więcej,
efektywność danego przebiegu gry będzie zależała od tego,
jak szybko wyczerpiemy wszystkie możliwe kombinacje. Sta­
nowi to klucz do gry w chaos. I nie ma to nic wspólnego,
jak czasem twierdzi literatura naukowa, z ważnymi twier­
dzeniami matematyki dotyczącymi np. teorii ergodycznej.8
6 .3. D o str a ja n ie ru le tk i
Nasze omówienie kopiarki wielokrotnie redukującej sprzę­
żonej z ruletką oparte było na założeniu, że kostka, jakiej
używaliśmy w grze w chaos, była doskonała i że prawdopo­
dobieństwa wylosowania poszczególnych przekształceń były
równe. Jak wpłynie na końcowy rezultat gry zmiana tych
prawdopodobieństw?
Zajmijmy się tym problemem w sposób trochę bardziej Ile p u n k tó w
ścisły dla trójkątów D powstałych na m-tym poziomie trój- tra fi d o d an eg o
kąta Sierpińskiego. Gramy zatem n razy, co daje nam punkty tr ó jk ą ta ?
^l) 5 Zn- Powstaje pytanie, jak wiele z tych punktów trafi
do D l Oznaczmy liczbę takich trafień przez h (z\ , ..., zn \ D).
8 Po raz pierwszy zauważył to Gerald S. Goodman, zob. G.S.
Goodman, A probabilist looks at the chaos game, F R A C T A L 90 —
cf
Proceedings o f the 1 IF IP Conference on Fractals, Lizbona} czerwiec
1990 (H.-O. Peitgen, J.M. Henriques, L.F. Penedo, red.), Elsevier, Am­
sterdam 1991.
408
6. Gra w chaos
Jeżeli dysponujemy doskonałą kostką do gry, to oczekiwać
będziemy, że w trakcie wystarczająco długiej gry każdy z ma­
łych trójkątów m-tego poziomu trafiony będzie tyle samo
razy. A dokładnie możemy to wyrazić w taki sposób, że
względna częstość punktów spośród
które znajdą
się w D, staje się ,w miarę wzrostu liczby wszystkich punktów
(zwiększania n), coraz bliższa l / 3 m. Zauważmy, że na mtym poziomie istnieje 3m trójkątów, które powinny być tra­
fiane z jednakowym prawdopodobieństwem. Możemy to wy­
razić za pomocą wzoru
lim
n— o
n
=
1
3m
(6,2)
Oznacza to, że zliczanie częstości wpadania do D generuje
miarę p(D), która jest dokładnie taka sama jak prawdopo­
dobieństwo przypisane D w naszych wcześniejszych rozwa­
żaniach.
Przedstawiamy tabelę, w której zapisano poszczególne
liczby trafień w dany trójkąt z drugiej generacji dla 1000
punktów, jak to przykładowo pokazano na rysunku 6.21.
Dla wielokrotnych powtórzeń każdy z trójkątów powinien
zawierać 11,1% wszystkich punktów.
adres
11
12
13
21
22
23
31
32
33
ilość
103
122
105
107
112
117
108
108
118
procentowo
10,3
12,2
10,5
10,7
11,2
11,7
10,8
10,8
11,8
Zmieńmy teraz trochę warunki. Załóżmy, że nasza kostka
jest niesymetryczna. Oznacza to, że prawdopodobieństwa:
pi na wypadnięcie 1, P2 na wypadnięcie 2 oraz p% na wypa­
dnięcie 3 nie są już jednakowe. Musi być pi + P2 + Ps — 1;
niech na przykład p\ = 0, 5,^2 = 0,3, a p% — 0,2. Zanim
zastanowimy się, jak zmieni się gra w chaos przy takich wa­
runkach, wyjaśnijmy, jak można otrzymać kostkę o takim
rozłożeniu prawdopodobieństw.
4uy
0.3. dostrajanie ruietici
1000 p u n któw
dla idealnej
kostki
Rysunek 6.21:
1000 punktów w iodących, w przypadku gdy
w szystkie przekształcenia m ają jednakowe praw dopodobieństw a
Symulację obciążonej kostki będziemy przeprowadzać Sym ulacja
oczywiście na komputerze, posługując się liczbami losowymi obciążonej
z generatora liczb losowych. Zazwyczaj, niezależnie od al­ kostki
gorytmu, który był używany do tworzenia liczb losowych,
są one dostępne w postaci znormalizowanej (tzn. przyj­
mują wartości pomiędzy 0 i 1) i rozłożone jednostajnie.
Rozkład jednostajny oznacza, że prawdopodobieństwo zna­
lezienia liczby losowej w przedziale [a, 6], gdzie 0 < a < b <
1, jest równe b —a. Tak więc, jeżeli podzielimy przedział
[0,1] na 100 równych części: [0,00, 0,01], [0,01, 0,02] i tak
dalej, to możemy oczekiwać, że w ciągu długiego trwania
procesu w każdym z tych odcinków znajdzie się 1% wszyst­
kich otrzymanych liczb losowych.
Spróbujm y sform alizow ać nasze obserw acje na te m a t generatorów
liczb losowych.
G enerator liczb losowych dostarcza ciągu liczb
zaw artych w odcinku [0 ,1 ] podzielonym na N m niejszych
przedziałów
[0 ,1 ] = [ a ;o ,x i)U [ x i, x 2) U • ■• U [ x ^ _ i , X i v ] ,
gdzie
0
= X q < X± < * • * < X p f - i <
x n
=
1.
O znaczm y k -ty przedział przez /& . Po w yw ołaniu n razy liczb loso­
wych o trzy m a m y n , ..., rn i m ożem y policzyć liczbę trafień w prze­
dział /*.. O zn aczm y tę wielkość przez h (ri , . .. , r n ;/fc ). D la dobrego
D ostrajanie
generatorów liczb
losowych
6. Gra w chaos
410
generatora liczb losowych żąd am y, by h(r \ , . . . , r n ; / * ) zależało je ­
dynie od długości Ik i żeby było rów ne w łaśnie tej długości. M o żem y
to zapisać fo rm a ln ie ja k o
^ ( r i , ..., v n \ /fc)
f f f
\
l lm ---------------------------- = długosc(ifc) = x k - ajfc-i.
t
Ji
n —>-oo
Zau w ażm y, że m o żem y o d w ró cić tę relację i obliczyć długość danego
przedziału, zliczając liczby losowe, któ re do niego w p a d n ą ! P rzy oka­
zji chcem y w spom nieć, że istnieje cała klasa m etod num erycznych
opartych na p o d obnym w yko rzystan iu liczb losowych, które daje się
zastosow ać do różnych p roblem ó w . N ie dziw i chyba fa k t, że m etody
te nazyw ają się metodami Monte Carlo.
P rzy k ła d e m , ja k i tu m o żem y przytoczyć, je s t problem postaw iony
w 1 7 7 7 r. przez Georgesa L.L. C o m te de B uffo na (1 7 0 7 -1 7 8 8 ).
C hciał on zn aleźć p raw d opod obieństw o zd arzenia polegającego na
ty m , że igła rzucona na poliniow aną kartkę papieru przetnie jed n ą
z linii. Po znalezieniu te g o praw dopodobieństw a okazało się, że w y­
nik je s t ściśle zw ią za n y z liczbą 7r = 3 ,1 4 1 5 9 2 ... Jeżeli odległość d
pom iędzy prostym i je s t w iększa od długości igły Z, to m ożna łatw o
w ykazać, że p raw d opod obieństw o P tego, że igła tra fi na prostą jest
rów ne 21/dn. P ierre S im on Laplace ( 1 7 4 9 - 1 8 2 7 ) d o strzegł w tej in­
te rp re ta c ji zu p ełn ie now y sposób obliczania n. W y s ta rc zy w ykonać
pew ną liczbę rzu tó w igłą i zliczyć przecięcia. Liczba tych przecięć
(p o podzieleniu przez liczbę w szystkich rzu tó w ) da nam przybliżenie
praw d opod obieństw a P i um ożliw i obliczenie ir = 2 1/dP.9
P ow róćm y do problem u d o strajan ia gry w chaos. M o żem y o trz y ­
m ać dow olnie dostro jo n y g en erato r liczb losowych (kostkę o N bokach
i N odp ow ied nich praw d o p o d o b ień stw ach ) w następujący sposób: dla
w ybranych p raw d o p o d o b ień stw pk, k = 1 , . . . , N, d efin iu jem y
h
=
[0,pi)
h
=
[ p i , P i + p 2)
h
=
In
=
[ p i + P 2 + * * * + P f c - l ) P l + P 2 + * ł - +PJb)
[ P i + P2 H------------ k P n -
u !]•
Za i-ty m razem zo staje w ybrane zd arzenie k y je że li losowa liczba r*
zn a jd u je się w przedziale h -
9 Oczywiście ten sposób obliczania liczby 7r jest mało efektywny.
Możemy wykazać na przykład, że prawdopodobieństwo uzyskania pięciu
poprawnych cyfr dziesiętnych w 3400 rzutach wynosi mniej niż 1,5%.
o.ó.
uostrajam e ruieiKi
¿±JLJL
Z takim generatorem liczb losowych łatwo symulować ob­
ciążoną kostkę. Dla prawdopodobieństw pi,P2 i Ps definiu­
jemy trzy przedziały:
h = [0,pi),
h = [P i,P i+ P 2 ) oraz I 3 = [pi + p 2 ,l\-
Zauważmy, że długość I jest równa p Dlatego jeżeli wy­
bierzemy liczbę k wtedy, gdy liczba losowa będzie należała do
przedziału /*., to k będzie losowane z prawdopodobieństwem
Pk. Na przykład jeżeli p\ = 0,5, P2 — 0, 3 i ps = 0, 2, to
/ x = [0,0,5), J2 = [0,5, 0,8)
oraz
J3 = [0,8,1],
Przyjrzyjmy się, jaki wpływ na punkty pojawiające się Gra w chaos
w grze ma wybór prawdopodobieństw. Na rysunku 6.22 po- z ob ciążoną
kazano 1000 i 10 000 punktów gry. Po długim czasie dosta- kostką
niemy znowu trójkąt Sierpińskiego, a dodatkowo powstaje
pewien wzór związany z rozkładem punktów wiodących. Zno­
wu zachodzi podobieństwo między całością wzoru a jego
mniejszymi częściami.
.
j .......
, : v.
.* *
£ 2 +.^
Rysunek 6.22: 1000 (po lewej stronie) i 10 000 (po prawej stro­
nie) punktów wiodących, kiedy prawdopodobieństwo wyboru w\
wynosi 50%, W2 — 30%,
zaś — 20%
Jednak gęstość punktów jest tym razem różna dla różnych
trójkątów podziału. Spróbujmy oszacować prawdopodobień­
stwa rządzące pojawianiem się punktów w trójkątach na
różnych poziomach trójkąta Sierpińskiego. Dla trzech trój­
kątów powstałych w pierwszym kroku odpowiedź jest prosta.
Rysunek 6.23 ilustruje to, co otrzymamy.
Jeżeli przejdziemy na następny poziom i będziemy mieli
do czynienia z dziewięcioma trójkątam i, to musimy wziąć
pod uwagę, jak każdy z nich powstał, tzn. jakich prze­
kształceń wS2 wSlJ gdzie si,S2 £ {1,2,3}, trzeba było użyć,
P u n k ty
uzyskane
za p om ocą
obciążonej
kostki
412
6. Gra w chaos
P ra w d o p o d o ­
b ień stw a —
p oziom 1
R ysunek 6.23: Prawdopodobieństwa przypisane trójkątom na
poziomie pierwszym
by z wyjściowego trójkąta otrzymać dany trójkąt drugiej ge­
neracji* Ta właśnie informacja jest zawarta w adresie. Jeżeli
więc D jest jednym z takich trójkątów o adresie S2 S1 , to
prawdopodobieństwo trafienia weń po dwóch iteracjach wy­
nosi pS2Psi * Na rysunku 6.24 przedstawiono rezultat takiego
określania prawdopodobieństw.
P ra w d o p o d o ­
b ień stw a —
p oziom 2
adresy
prawdopodobieństwa
R ysunek 6.24: Adresy i odpowiadające im prawdopodobieństwa
przypisane trójkątom na drugim poziomie
Wartości otrzymanych prawdopodobieństw wahają się
od 0,04 do 0,25. Dolny lewy trójkąt trafiano prawie sześć
razy częściej niż ten znajdujący się na górze. Zliczając punk­
ty w odpowiednich trójkątach podziału, porównamy nasze
oszacowania z obrazem powstałym na rysunku 6.22. O stat­
nia kolumna poniższej tabeli przedstawia oczekiwane wyniki
w procentach.
o.ó.
no
uosirajam e rmeiKi
adres
ilość
p ro c e n to w o
11
12
13
21
22
23
31
32
33
238
139
108
146
91
64
101
72
41
2 3 ,8 %
1 3 ,9 %
1 0 ,8 %
1 4 ,6 %
9 ,1 %
6 ,4 %
1 0 ,1 %
7 ,2 %
4 ,1 %
o c z e k iw a n a
częstość
25%
15%
10%
15%
9%
6%
10%
6%
4%
Generalna zasada polega na tym, że jeśli wybieramy na
fc-tym poziomie trójkąt D o adresie
adres(D) = siS 2 ---Sk,
to prawdopodobieństwo, że zostanie on trafiony po k itera­
cjach jest równe iloczynowi p Sl **
Możemy sprawdzić, czy dobrze wybraliśmy prawdopodo­
bieństwa, podobnie jak wcześniej, przez znalezienie względ­
nej częstości w każdym z trójkątów powstałych w A;-tym
kroku i odniesienie jej do
h ( z i , . . . , z n ;D)
lim ------------------- = p si • • •pSn.
n — >00
n
(6.3)
Podobnie jak przedtem h{z\^ ..., zn\ D ) oznacza liczbę trafień
w D w pierwszych n przebiegach gry, czyli przez punkty
z 1 ,..., zn* Liczba ta jest odpowiedzialna za rozkład gęstości
punktów w obrazie otrzymanym jako wynik naszej gry w
chaos. Ma to wpływ na:
(1) Sposób projektowania efektywnego schematu dekodowa­
nia IFS.
(2) Rozszerzenie pojęcia IFS z kodowania obrazów czarno-białych do kodowania obrazów kolorowych. Zajmiemy
się tym później (zob. s. 417).
Widzieliśmy, że nawet obciążenie kostki nie przeszkodzi
w tym, by w grze w chaos po pewnym czasie powstał trójkąt
Sierpińskiego. Czas potrzebny na jego powstanie zależy od
doboru prawdopodobieństw. Zgodnie z równaniem (6.3)
w niektórych częściach trójkąta Sierpińskiego względna liczba trafień może być bardzo mała, choć zawsze większa od
S ym etryczn a
kostka jest
n ajlep sza dla
trójk ąta
Sierpińskiego...
414
6. Gra w chaos
zera, podczas gdy w innych bardzo duża. Jeśli chcemy osią­
gnąć jak najlepszą efektywność, to powinniśmy dbać o to,
by ustalane przez nas prawdopodobieństwa były jednakowe.
Czy jednak taka zasada jest słuszna dla wszystkich atraktorów IFS?
M alutk i listek
p aprotk i
Wi (Wi (H’3(F)))
Wi(w3(/0)
w,(F)
R ysunek 6.25: Opis jednego z malutkich listków paprotki Barnsleya
... ale nie dla
Przypomnijmy sobie problemy, jakim musieliśmy sprop aprotk i stać podczas prób generowania paprotki Barnsleya przy uży­
ciu gry w chaos. Jeśli posługiwaliśmy się równymi prawdo­
podobieństwami dla wszystkich przekształceń, to długo nie
mogliśmy dostrzec oczekiwanego kształtu. Aby zrozumieć
to zjawisko, wybierzmy jakiś mały listek T na szczycie pa­
o.o.
'ilu
u o s z r a ja m e rm e iK i
protki (zob. rysunek 6.25). Możemy oznaczyć ten listek
przez kombinacje kontrakcji w \ , ..., wą :
T = w\w\ *• • wiWa(F),
(6.4)
gdzie F oznacza całą paprotkę, a liczba wszystkich prze­
kształceń wynosi k. Dlatego listkowi T odpowiada jeden ze
zbiorów poziomu k o adresie
adres(T) = 11...13,
przy czym 1 powtarza się k — 1 razy. Prawdopodobieństwo
trafienia w T p o i : iteracjach wynosi więc q = p i k~lp 3 .
Ustalmy k = 15. Oznacza to, że T jest 15. listkiem z pra­
wej strony paprotki. Podział paprotki na 15. poziomie ozna­
cza, że dysponujemy 415 « 109 zbiorami i że T jest jednym
z nich. Jeżeli weźmiemy jednakowe prawdopodobieństwa
P k = O, 25, A
: = 1, 2,3,4, to prawdopodobieństwo, że ujrzymy
tam punkt wynosi q = 0,2515 w 0,931 • 10“ 9! Praktycznie
prawdopodobieństwo to wynosi zero. Dlatego też paprotka
z lewej strony na rysunku 6.5 ma wiele braków. Generowa­
nie w ten sposób stu czy dwustu tysięcy punktów gry, by
przedstawić 109 zbiorów, nie ma sensu.
Jeżeli jednak weźmiemy relatywnie duże prawdopodo­ Z m ienianie
bieństwo wylosowania w\ i małe wylosowania W2 ,W3 ,wą, p raw dopodo­
to możemy poprawić prawdopodobieństwo q = p \Ąps przez b ień stw
wzięcie różnych prawdopodobieństw pi. Na przykład jeśli
Pi — 0 ,85, a p^ — 0 ,05, to otrzymamy w przybliżeniu
q « 0,00514.
Wystarczy 10 000 przebiegów gry w chaos, by oczeki­
wana liczba punktów w naszym listku T wyniosła 50. Odpo­
wiednio modyfikując prawdopodobieństwa jesteśmy w stanie
zmienić szansę pojawienia się po k iteracjach punktu w T
z praktycznie nie istniejącej na bardzo dużą. Oznacza to, że
za pomocą odpowiednio wyważonej kostki możemy stworzyć
taki rozkład 104 punktów w 109 zbiorach, że da on zadowa­
lający sposób na dekodowanie obrazu paprotki.
D obór najlepszych praw dopodobieństw
je s t tru d n y m i jeszcze nie
rozw iązanym problem m a tem a ty czn ym . M o ż e m y sform ułow ać ten
problem następująco. Niech e będzie zadaną z góry dokładnością
przybliżenia. O znacza to , że dla każdego punktu a tra k to ra w jeg o
bliskim otoczeniu, w odległości nie większej niż e, leży co najm niej
Przepis na wybór
praw dopodo­
bieństw
6. Gra w chaos
416
jed e n p u n k t generow any przez grę w chaos. Czyli odległość Hausdorffa pom iędzy a tra k to re m i je g o przybliżeniem wynosi co najw yżej
e. P ro b lem o p ty m a liza c ji polega na dopasow aniu praw dopodobieństw
Ph ••• i Pn w ta k i sposób, by oczekiw an a liczba pow tórzeń gry w chaos
p o trzeb n a do osiągnięcia te g o przybliżenia była m inim alna.
M im o że problem nie je s t jeszcze rozw iązany, to istnieją pew ne
heurystyczne m e to d y w yboru „d o b ryc h ” praw dopodobieństw . P rzed­
s taw im y je d n ą z nich. Z o stała ona spopularyzow ana przez B arnsleya10.
W o s ta tn im paragrafie p rzed staw im y ulepszenie te j m etody.
Z a jm ijm y się IFS z N przekształceniam i
i załóżm y,
że je g o a tra k to r je s t całkow icie niespójny. Jeżeli a tra k to r11 ozn a­
czy m y przez A , to przekształcone o b razy w \ ( A ) , . . . ,
stworzą
rozłączne pokrycie a tra k tó ra . T a k ie m ałe afiniczne kopie atra któ ra
n a zy w am y atraktorletkami Jeżeli w trak cie gry w chaos w ygeneru­
je m y n p u n k tó w , to m o że m y zap ytać o rozm ieszczenie tych p un któw
w poszczególnych N a tra k to rle tk a c h . P rzydzielenie każdej a tra k to rletce ta k ie j sam ej liczby p u n któ w , tz n . n /iV , doprow adzi do pow sta­
nia zb io ru , któ ry je s t w m iarę je d n o s ta jn ie rozłożony w tró jk ą c ie Sier­
pińskiego. T a k je d n a k nie będzie w przypadku IFS generującego pa­
protkę B arnsleya. Z a jm ijm y się te ra z epsilonow ym otoczeniem a tra k to ra A e , czyli zbiorem p u n k tó w odległych od niego o nie więcej niż
e. O trz y m a m y w te d y następującą zależność:
A c w i ( A e ) U * • • U w a K A ,) C A e .
D la m ałych e > 0 zbiory W i ( A £ ) są bliskim i przybliżeniam i a tra k to rletek. O k re ś lm y liczbę p u n któ w , któ re m ają w paść do z-tej a tra k to rletki zg o d n ie z p ro centow ym udziałem zbioru wi(Ae) w pow ierzchni
A €} 2 Po to , by uzyskać rozkład jed n oro dny, liczba p u n któ w w każdej
z a tra k to rle te k pow inna być proporcjonalna do odpow iedniej po­
w ierzchni przy założeniu, że a tra k to rle tk i nie zach o d zą na siebie zna­
cząco. Z algebry liniowej w iad o m o , że czyn nik, o ja k i zm ienia się po­
w ierzch n ia przy przekształceniu afin iczn ym , je s t w artością bezw zględ­
ną w yzn aczn ika liniowej części przekształcenia. D lateg o , jeżeli zapi­
szem y i- t e przekształcenie ja k o Wi(z) = A{Z +
i =
to pow ierzchn ia o to czen ia epsilonow ego ¿-tej a tra k to rle tk i wyniesie
w przybliżeniu
10 M. F. Barnsley, Fractals Everywhere, Academic Press, 1988.
11 Dla uproszczenia zapisu pomijamy indeks oo w symbolu atraktora.
12 Potrzebujemy powyższej konstrukcji, używającej epsilonowego
otoczenia atraktora, ponieważ mogą istnieć kłopoty z rozsądnym
określeniem pola powierzchni atraktora. Na przykład pole powierzchni
trójkąta Sierpińskiego równe jest zeru.
o.j. jjoszrajame ruieiKi
/
id et^ i
| det^il + ***+ | det^4iv|
Pi = t ;
.
r “i-------------- ;— r?
,
AT
1 — 1, ---, /V.
pom nożone przez pow ierzchnię otoczen ia epsiłonowego całego a tra k tora. D latego te ż chcielibyśm y dostać w i-te j a tra k to rle tc e n p i pun­
któw gry w chaos. M o ż e m y to osiągnąć, jeżeli w yb ierzem y praw do­
podobieństwa
zgodnie z pow yższym w zorem .
Ten przepis na w ybór praw dopodobieństw je s t dobry rów nież
w przypadku, gdy części a tra k to ra tro c h ę na siebie zach odzą. M u ­
simy jed n ak być ostrożni w tedy, gdy części a tra k to ra znacząco za­
chodzą na siebie lub gdy jed n o z przekształceń ma w yzn aczn ik rów ny
zeru. W przypadku zerow ania się w yznacznika praw dopodobieństw o
wybrania przekształcenia w edług pow yższego schem atu wynosi zero,
a więc dane przekształcenie nie byłoby nigdy w ybrane. P rzykład em ta ­
kiego przekształcenia m oże być łodyga paprotki Barnsleya. M o ż e m y
w takim przypadku przypisać te m u praw dopodobieństw u pew ną m ałą
wartość, np. 6 — 0 ,0 1 . Zap iszm y to form aln ie następująco:
Pi =
max(i, |detAi|)
r;----------------------------------------------,
.
%— 1 ,
, iV,
£ fc= i max(<5, | d e t j4fe|)
gdzie 6 > 0 je s t jak ąś m ałą stałą.
Dotychczas omawialiśmy jedynie obrazy biało-czarne O brazy
i ich kodowanie za pomocą IFS, jak również ich dekodowa­ cieniow ane
nie przy użyciu gry w chaos. Zobaczyliśmy, że prawdopodo­ i kolorow e
bieństwa pi dają nam bezpośrednią kontrolę nad rozkładem
punktów wiodących w odpowiednich częściach atraktora.
Obserwacja ta stanowi dobrą motywację, żeby posunąć się
0 jeden krok dalej. Załóżmy teraz, że mamy obraz o zróż­
nicowanym nasyceniu barwy. Dzielimy ten obraz na piksele
1 otrzymujemy w ten sposób macierz o rrt wierszach i n ko­
lumnach. Każdy z pikseli Pij jest nośnikiem jednostki in­
formacji o stopniu nasycenia barwy o wartości Q ij leżącej
gdzieś pomiędzy 0 a 1. Wartość 1 odpowiada kolorowi czar­
nemu, wartość 0 — białemu. Chcielibyśmy stworzyć sche­
mat kodowania i dekodowania takiego obrazu. W tym celu
weźmy IFS złożony z kontrakcji w \ , ...
o prawdopodo­
bieństwach p i ,..., ■Przyjrzyjmy się statystyce gry w chaos
dotyczącej piksela Pij :
418
6. Gra w chaos
Oznacza to, że prowadzimy grę w chaos z ustalonymi praw­
dopodobieństwami i zliczamy względną liczbę trafień R i j
w piksel Pij. Jeżeli liczby Q ij są proporcjonalne do R i j
w każdym pikselu (z tą samą stalą proporcjonalności a),
QiJ
—
CtRij,
i — 1,
, 777-, j
1, ... ,
77,
to dany rozkład nasycenia barwy Q ij odpowiada znormali­
zowanym krotnościom R%j. Powyższe kodowanie nie określa
stopnia jasności obrazu13, która może być wyregulowana
później. Kod dla obrazu składa sie po prostu z niezbędnych
przekształceń i odpowiadających im prawdopodobieństw
{ w i , . . . , w N },
{p i , . . . , P n },
gdzie każda z kontrakcji potrzebuje do swojego opisu sześciu
liczb rzeczywistych. Oznacza to, że obraz cieniowany będzie
zakodowany w I N liczbach rzeczywistych. Co więcej, gra
w chaos może zostać użyta do przetworzenia tej informacji
z powrotem na obraz.
Zastanowimy się teraz, jak znając rozkład nasycenia bar­
wy Q i j , znaleźć przekształcenia { w i,... , w n } i odpowiednie
prawdopodobieństwa { p i,... ,P n } i tak aby
h ( z \ , . . . , z n ; Pi j)
lim ----------------k—>oo
K
ocQi j ,
(6.5)
gdzie „oc” oznacza proporcjonalność. Jest to problem od­
wrotny dla obrazów o zróżnicowanym nasyceniu barwy. Stąd
już tylko mały krok do analizy obrazów kolorowych. Każdy
obraz kolorowy można uważać za obraz złożony z trzech
składników: czerwonego, zielonego i niebieskiego. Jest to
właśnie technika RGB tworzenia obrazu kolorowego na ekra­
nie telewizora. Każdy ze składników można rzecz jasna zin­
terpretować jako obraz o zróżnicowanym nasyceniu barwy
w połączeniu z odpowiednią informacją o kolorze — czerwo­
nym, zielonym albo niebieskim.
13 A zatem obraz, który jest równomiernie biały ma taki sam kod jak
obraz, który jest równomiernie czarny lub równomiernie szary.
4iy
ö.ö. JJostrajanie ruletki
S form u łu jm y te ra z problem o d w ro tn y w sposób, któ ry jeszcze raz
pozwoli na skorzystanie z tw ierd zenia o odw zorow aniu zw ężającym ,
om aw ianego w rozdziale 5 .14 A by zap o czątko w ać an alizę teoretyczną
problemu odw rotnego, zau w ażm y najp ierw , że liczby Q ij oznaczają
w istocie, jak a część p u n k tó w z gry w chaos tra fia w piksel P i j .
Liczby te pochodzą od pew nej m iary ¿t, której nośnik je s t naszym
atraktorem ; są one m ianow icie rów ne fi(Pij). M iara fi je s t m iarą
borelowską i je s t ona niezm iennicza pod działaniem operatora Mar­
kowa M(v), zdefiniow anego w sposób następujący. Niech X będzie
dużym kw adratem na płaszczyźnie, zaw ierającym Aoo, a tra k to r na­
szego IFS, v zaś — m iarą (borelow ską) na X . O p e ra to r M je s t w te d y
zdefiniow any przez
M(v) = Piiiw^ 1 + P 2 ^ 2 _1 H
F
O znacza to, że M( v) definiuje na X nową zn o rm alizo w an ą m iarę
borelowską. Jej w artość na danym podzbiorze B je s t w yznaczana
w sposób następujący:
najp ierw bierzem y część przeciw obrazu
w~1(B) zaw artą w X , następnie w artość v na ty m zbiorze, w końcu
m nożym y przez praw dopodobieństw a pi, a w yniki sum ujem y. T a k
zdefiniow any o p erato r M arko w a okazuje się ko ntrakcją w przestrzeni
znorm alizow anych m iar borelowskich na X , w yposażonych w m etrykę
H utchinsona15
gdzie suprem um je s t w zię te po w szystkich funkcjach / : X —> R
o własności |f(x) —f(y)\ < d(x,y) (d(x:y) oznacza odległość na
płaszczyźnie). M o żn a tu ta j zastosować tw ierd zen ie o odw zorow aniu
zw ężającym , poniew aż przestrzeń znorm alizow anych m iar (b o relo w ­
skich) je s t w te j m etryce zupełna. A za te m istnieje jed n o zn aczn ie
w yznaczony pun kt stały fi o peratora M arkow a M , M( f i ) = fi. Jest
to właśnie m iara, której poszukujem y, kiedy próbujem y znaleźć roz­
w iązanie problem u o d w ro tn eg o dla obrazu o zróżnicow anym nasyce­
niu barwy. Jeżeli chcielibyśm y dokładniej om ów ić to zagadnienie, to
znaleźlibyśm y się w cen tru m bieżących prac badaw czych.
14 Charakter tego paragrafu jest bardziej formalny i wymaga zna­
jomości pojęć z teorii miary. Czytelnik bez dostatecznego przygoto­
wania matematycznego może go opuścić bez szkody dla zrozumienia
pozostałej części tekstu.
15 J. Hutchinson, Fractals and self-similarity, Indiana Univ. J. Math.
30, 713-747 (1981).
P roblem
odw rotny i m iara
niezm iennicza
420
6. Gra w chaos
6 .4 . K ło p o ty z g e n e r a to r a m i liczb lo so w y c h
Ktokolwiek rozważa zastosowanie metod arytmetyki do two­
rzenia liczb losowych jest w stanie grzechu.
John von Neumann (1951)
Gra w chaos rozgrywana na komputerze nie może obejść się
bez generatora liczb losowych. Do tej pory nie rozwijaliśmy
tego tem atu szerzej, mówiliśmy jedynie, w jaki sposób otrzy­
mywać liczby losowe o zadanym rozkładzie przy użyciu liczb
o rozkładzie jednostajnym , dostarczonych przez komputer.
W komputerze liczby losowe nie są tak naprawdę losowe:
otrzymywane są metodami deterministycznymi, opartymi
na zasadzie sprzężenia zwrotnego. Tak więc otrzymywane
liczby tylko sprawiają wrażenie losowości, a w istocie są one
całkowicie powtarzalne przy ponownym puszczeniu tego sa­
mego programu. Z tego powodu liczby losowe produkowane
przez komputer nazywają się liczbami pseudolosowymi. Ist­
nieje wiele metod, których można użyć do generowania liczb
losowych, a które często wcale nie są oczywiste dla progra­
misty. Z tego powodu własności statystyczne liczb dostar­
czanych przez maszynę są zazwyczaj nieznane, poza jedną
— liczby te powinny mieć rozkład jednostajny. W tym pa­
ragrafie pokażemy, że gra w chaos wymaga znacznie więcej
niż tylko nieskomplikowanego rozkładu jednostajnego. Wy­
magania te są w sposób naturalny spełnione, gdy używamy
doskonałej kostki.
L iczby losow e
W pierwszym rozdziale badaliśmy chaos powstający przy
z ró w n a n ia iterowaniu prostych funkcji kwadratowych. Wydawałoby się
lo g isty czn eg o możliwe użycie do generowania liczb losowych równania lo­
gistycznego
Xk+1 = 4xfe(l - x k).
(6.6)
W istocie podejście to zostało zaproponowane już przez Sta­
nisława M. Ulama i Johna von Neumanna, interesujących się
projektowaniem algorytmów liczb losowych, które mogłyby
być uruchomione na pierwszym komputerze elektronicznym
ENIAC. Iteracje równania (6.6) dają liczby w zakresie od
0 do 1. Podzielmy ten odcinek na trzy równe pododcinki
[0,1/3), [1/3, 2/3) oraz [2/3,1]. Każda z generowanych liczb
należy do jednego z tych pododcinków. Następnie przepro-
421
6'.4. Kłopoty z generatorami liczb losowych
wadźmy grę w chaos dla trójkąta Sierpińskiego, używając
tego „generatora liczb losowych” . Rysunek 6.26 pokazuje
wynik uzyskany po 1000 iteracjach.
Trójkąt
Sierpińskiego
z rów nania
logistyczn ego I
R y s u n e k 6 .2 6 : P ierw sza próba w ygenerow ania trójk ąta Sier­
pińskiego przy użyciu generatora liczb losow ych opartego na
równaniu logistycznym
Wynik wydaje się dziwny, gdyż pokazuje się jedynie tro- Trójkąt
chę wybranych fragmentów trójkąta Sierpińskiego.16 Mimo Sierpińskiego
że wszystkie punkty leżą w trójkącie, widać, że brakuje lwiej nie p ow stał
jego części. Dłuższe, czy nawet dużo dłuższe iterowanie nic
nie pomoże. Przypominając sobie ostatni paragraf, jesteśmy
skłonni przypuszczać, że może to prawdopodobieństwa nie
zostały wybrane prawidłowo.
Aby sprawdzić tę hipotezę, wykonajmy histogram17 dla
10000 obliczonych liczb losowych.
16 Zagadnienie to opisał łan Stewart w pracy: Order within the chaos
game? Dynamics Newsletter 3, 2 & 3, 4-9 (1989). Stewart tak kończy
swój artykuł: „Nie mam pojęcia dlaczego te wyniki się pojawiają [...]
Czy zjawiska te można wytłumaczyć? [...]” Nasze argumenty umożliwią
jedynie powierzchowne zrozumienie. Zostały one opracowane przez na­
szych studentów E. Langego i B, Sucker w ramach pracy semestralnej
do wstępnego wykładu geometrii fraktalnej.
17 Ważne jest, żeby obliczenia histogramu zostały przeprowadzone
w podwójnej precyzji. W przeciwnym wypadku jest wielce prawdo­
podobne, że iteracje równania logistycznego wpadną w cykl okresowy
o małym okresie (może nawet mniejszym niż 1000), a zatem otrzyma­
libyśmy histogram, będący numerycznym artefaktem. Omawianie tego
faktu i zagadnienie histogramów będą kontynuowane w rozdziale 10.
422
6. Gra w chaos
odcinek
[0,1/3)
[1/3,2/3)
[2/3,1)
ilość
3910
2229
3861
procentowo
39%
22%
39%
Wynik ukazuje znaczące odchylenia od optymalnych częs­
tości 1/3 (33,3%) dla każdego z odcinków. Aby jeszcze raz
zbadać sposób, w jaki wybieraliśmy przekształcenia afiniczne
na podstawie liczb losowych, musimy dokonać dokładniejszej
analizy empirycznej. Podzielmy odcinek jednostkowy na 20
małych pododcinków o długości 0,05 każdy i policzmy dla
100000 iteracji odpowiadające im częstości.
Na podstawie wyników w tabeli dzielimy odcinek jedno­
P raw idłow e
dopasow anie stkowy na trzy pododcinki [0,1/4), [1/4,3/4) oraz [3/4,1].
praw dop od o­ Teraz iteracje równania logistycznego — jak się wydaje —
b ień stw dają taką samą liczbę powtórzeń w każdym z odcinków.
Podejście to daje generator liczb losowych o trzech możliwych
wynikach, 1, 2 i 3, z równymi prawdopodobieństwami 1/3
każdy. Używając tego schematu, znów rozegramy grę w cha­
os, mając nadzieję, że tym razem da ona dość prędko kom­
pletny trójkąt Sierpińskiego. Cóż, rys. 6.27 pokazuje re­
zultat. Mamy prawo być rozczarowani, wynik jest jeszcze
gorszy niż przedtem!
Hipoteza, że kłopoty zostały spowodowane nieprawidłowo
wybranymi prawdopodobieństwami, okazała się oczywiście
fałszywa. Aby dotrzeć do sedna sprawy, musimy jeszcze
Trójkąt
Sierpińskiego
z rów nania
logistyczn ego II
R ysunek 6.27: Inna próba wygenerowania trójkąta Sierpińskie­
go. Używaliśmy „poprawionego” generatora liczb losowych, opar­
tego na równaniu logistycznym
6.4. Kłopoty z generatorami liczb losowych
odcinek
[0,00, 0,05)
[0,05, 0,10)
[0,10, 0,15)
[0,15, 0,20)
[0,25,
[0,30,
[0,35,
[0,40,
[0,45,
[0,50,
[0,55,
[0,60,
[0,65,
[0,70,
[0,75,
[0,80,
[0,85,
[0,90,
[0,95,
0,30)
0,35)
0,40)
0,45)
0,50)
0,55)
0,60)
0,65)
0,70)
0,75)
0,80)
0,85)
0,90)
0,95)
1,00)
ilość
14403
6145
4812
3809
423
odcinek
ilość
[0,00, 0,25)
33425
[0,25, 0,75)
33287
[0,75, 1,00)
33288
3487
3389
3303
3244
3097
3240
3251
3196
3459
3621
3882
4164
4821
6012
14409
Tabela 6.1: Statystyka 100000 iteracji funkcji kwadratowej
raz zastanowić się, jakie własności generatora liczb losowych
są potrzebne, żeby gra w chaos dawała pożądane rezultaty.
Przypomnijmy, że kluczem do zrozumienia działania gry był
system adresowania. Dla każdego punktu atraktora istniał
adres składający się z nieskończonego ciągu cyfr spośród
{1,2,3}. Gra w chaos stworzy punkt leżący blisko niego,
jeżeli generuje wszystkie możliwe skończone adresy z od­
powiednimi prawdopodobieństwami. Przypominając sobie
kiepskie wyniki ostatnich dwóch eksperymentów, musimy
zdać sobie sprawę, że nie byliśmy w stanie wygenerować
większości adresów. Próbując poprawić rezultat iterowania równania (6.6), wybraliśmy odcinki [0,1/4), [1/4,3/4)
oraz [3/4,1]. W ten sposób zapewniliśmy sobie, że adresy
zaczynające się od 1, 2 i 3 będą się pojawiać z takimi sa­
mymi częstościami. A co z adresami zaczynającymi się od
11, 12, 13 i tak dalej? Spróbujmy dociec, które z adresów się
nie pojawiają, przez powtórzenie ostatniego eksperymentu
i zaznaczenie wyników na sieci o adresach trzycyfrowych.
424
6. Gra w chaos
P ow tórzen ie
z adresam i
R y s u n e k 6.28: Powtórzenie ostatniego eksperymentu. Wpisano
adresy „tłustych” punktów
Możemy odkryć, że niektóre kombinacje trzycyfrowe w ad­
K tó re adresy się
nie p ojaw iają? resach nigdy się nie pojawiają, a mianowicie
222, 221, 223, 212, 231, 233, 122, 121, 123, 322,...
Innymi słowy, pojawia się tylko osiem następujących adresów
trzycyfrowych:
111, 113, 132, 211, 213, 232, 321, 323.
Doszliśmy już tak daleko, że powinniśmy potrafić wy­
jaśnić te artefakty na podstawie konstrukcji liczb losowych,
opartej na równaniu logistycznym. Rysunek 6.29 przedsta­
wia iterację graficzną dla 4 x ( l—x). Na obu osiach zaznaczone
są trzy odcinki: [0,1/4), [1/4, 3/4) i [3/4,1]. Po przyjrzeniu
się wykresowi staje się jasne, dlaczego pewne kombinacje
liczb losowych są niemożliwe. Jeżeli zaczniemy od punktu
z pierwszego pododcinka [0,1/4), to punkt następny będzie
na pewno leżał albo znów w pierwszym pododcinku [0,1/4),
albo w drugim pododcinku [1/4,3/4). Tak więc kombinacja
13 nigdy się nie pojawi. Kontynuując stwierdzamy, że liczba
z drugiego pododcinka [1/4,3/4) będzie przekształcona na
liczbę z trzeciego pododcinka [3/4,1], a wszystkie liczby
z trzeciego wpadną po jednej iteracji do pierwszego albo do
drugiego.18 Czyżby oznaczało to, że kombinacje 13,21,22
18 Istnieje jeden wyjątek od tej zasady, mianowicie punkt 3/4. Punkt
ten pozostaje stały, tzn. 4 - | ' ( l ~ f ) = § - Jest to nieistotne dla naszych
rozważań.
b.4. Kłopoty z generatorami liczb losowych
4Z0
L ogistyczna
parabola
R ysunek 6.29: Iteracja graficzna dla 4 x ( l — x ) . Zaznaczyliśm y
obszary używ ane przez generator liczb losow ych
oraz 33 nie są w ogóle możliwe? Ostrożnie! Tak, na naszej
cyfrowej, komputerowej kostce do gry „3” nie może wypaść
bezpośrednio po „1”. Tłumaczy się to w języku adresów na
ciąg odwrotny 31! Zmiana kolejności bierze się stąd, że ad­
resy są odczytywane od strony lewej do prawej, natomiast
rozgrywki gry w chaos od prawej do lewej. Sprawdziliśmy
więc, że gra w chaos rozgrywana z naszym generatorem liczb
losowych nie będzie w stanie wyprodukować punktów, które
mają w swoim ciągu adresowym któryś z następujących dwu­
cyfrowych ciągów: 31, 12, 22 oraz 33. Dokładnie to zaob­
serwowaliśmy w naszym eksperymencie.
Oczywiście możemy teraz rozszerzyć powyższy sposób
analizy na przypadek, który obejmie nasze poprzednie po­
dejście do równania logistycznego (z odcinkami [0,1/3),
[1/3, 2/3) oraz [2/3,1]). Możliwe adresy są trochę inne, ale
w istocie niemożliwość powstania trójkąta Sierpińskiego wy­
nika z tego samego źródła: nie każdy skończony ciąg współ­
czynników pododcinka może się pojawić. Innymi słowy, zda­
rzenia te (pojawianie się poszczególnych współczynników
1, 2 i 3) nie są niezależne.
426
Modelowanie
atraktora dla
hierarchicznego
I F S , sterowanego
funkcją
kwadratową
6. Gra w chaos
Istnieje za d z iw ia ją c y zw ią ze k pom iędzy prow adzeniem gry w chaos,
u żyw ającej funkcji kw ad rato w ej Xk+i = 4xk(l —Xk ) 1 rów nanie ( 6 . 6),
a hierarchicznym i IF S . P o tw ierd za to raz jeszcze znaczenie w prow adzenia hierarchicznego IFS ja k o nowego narzędzia m atem atyczneg o.
S tero w an ie grą w chaos za p o m o cą funkcji kw adratow ej i odpow iednio dopasow anych praw d opod obieństw , ta k ja k na rysunku 6 .2 7,
oznacza, że przekształcenie
nie m oże być poprzedzane przez w\,
W2 przez W2 j
przez W2 , ^3 zaś przez w 3 . Lub te ż, zapisując w inny
sposób, m ożliw a je s t je d y n ie kolejność
w 1 p o tem wi,
w 1 p otem w 2 5
w 2 p o tem W3 ,
W3 p o tem ’ wi,
p o tem W2 -
Rysunek 6.30: Graf dla hierarchicznego IFS odpowiadającego
grze w chaos opartej na „liczbach losowych” uzyskanych przy
użyciu równania logistycznego
Zb u d o w a n ie IFS w sposób w skazan y przez g ra f na rysunku 6 .3 0
prow adzi do d o kład n ie teg o sam ego w yn iku . R ozw ażm y najpierw
w ierzch o łki 1 , 2 i 3 oraz ich połączenia przez kraw ędzie skierowane.
M ó w ią c nieściśle, p o łączenia te opisują „następne m ożliw e przekształ­
cenie". C zy te ln ik m oże spraw dzić, że przekształcenie Wi m oże być
zastosow ane tylko w p o rządku ta k im , ja k w łaśnie om ów iony. O d p o ­
w ia d a ją c ą m acierzą dla o p erato ra H utchinsona będzie
0.4. Kłopoty z generatorami liczo losowych
( w\
w _
Wi
0
\ Uą
0
0
ws 0 ^
0
W2
0
0
102
IO3
0
/
A tra k to r pojawi się w czw artej części składowej (ja k pokazano na ry­
sunku 6 .3 0 ).
Powyższe rozważania pokazują, że generator liczb loso­ Niezależne
wych, którego tu taj potrzebujemy, powinien spełniać pewien powtórzenia
ważny warunek. Zakładaliśmy go milcząco przy grze w cha­
os, ale jak dotąd nie został on jeszcze sformułowany w sposób
jawny. Kolejne rzuty kostką, czy też wyniki z komputera,
muszą być wzajemnie niezależne. Bez tego założenia jest
możliwe, że nawet jeżeli trzy rezultaty 1, 2 oraz 3 poja­
wiają się z takimi samymi częstościami, to może się pojawić
ciąg zdarzeń, podlegający znacznym ograniczeniom. Może
się zdarzyć, że szansa wypadnięcia „3” wyniesie 100%, jeżeli
poprzednim wynikiem było „2” , albo 0%, jeżeli poprzednie
doświadczenie dało „1” lub „3” . Właściwy sposób rozgry­
wania gry w chaos wymaga takiej kostki, dla której praw­
dopodobieństwo wypadnięcia „3” będzie stałe, nie zależąc
od wyniku poprzedniego rzutu (ani żadnego z rzutów po­
przedzających). Prawdziwa nieobciążona kostka o sześciu
ściankach ma tę własność w sposób naturalny. Prawdopo­
dobieństwo uzyskania „1”, a potem „2” wynosi 1/36 nie­
zależnie od wszystkich poprzednich wyników.
O becnie generatory liczb losowych używ ane w kom puterach naj­
częściej oparte są na m odyfikacji liniowej metody kongruentnej } 9
Przy ustalonym zakresie m i wartości początkow ej 0 < ro < m ,
następne liczby oblicza się zgodnie ze w zorem
nt+ i = (ark + c) m od m ,
przy czym param etry a i c są liczbam i n atu raln ym i m niejszym i niż m .
Liczba m je s t zw ykle w ybierana ja k o odpow iednia potęga 2, pasująca
do długości słowa w konkretnej m aszynie. M e to d a ta w ytw arza liczby
całkow ite w zakresie od 0 do m — 1. K ażda z liczb je s t całkow icie zde19 Metoda ta została wprowadzona w roku 1949, zob. D.H. Lehmer,Proc. 2nd Sym posium on Large Scale Digital Calculating M achi­
nery, Harvard University Press, Cambridge 1951.
Liniowy generator
kongruentny
428
6. Gra w chaos
te rm in o w an a przez swojego pop rzedn ika, zgodnie z pow yższym w zo­
rem . Jednakże w szystkie ciągi liczb pseudolosowych, tw orzone w ten
sposób, m uszą być okresowe. W arto ści w spółczynników a i c m ożna
w yb rać w ta k i sposób, żeby okres ten był m aksym alny z m ożliwych
i rów ny ra . Z pow odu okresowości, któ ra je s t w budow ana w kon­
strukcję, ciągi liczb losowych generow ane w ta k i sposób nie m ogą
być napraw dę losowe. Losowość m ożna rozum ieć na różne sposoby,
istnieje w iele te s tó w statystycznych: test częstości, test przebiegu
(run test), te s t zderzenia ( collision test), test spektralny, żeby w y­
m ienić tylko kilka z n ic h .20
Na zakończenie zwróćmy uwagę na fakt, że w grze w cha­
os rozgrywanej na komputerze jest istotne, żeby opierać się
na generatorze liczb losowych, który zapewnia niezależność
wszystkich wytwarzanych przez siebie liczb. Tylko w ten
sposób będziemy mogli wygenerować punkty o wszystkich
niezbędnych adresach. Większość generatorów liczb loso­
wych będących standardowym wyposażeniem współczesnych
komputerów spełnia tę własność dostatecznie dobrze. Nie
jest to jednak prawdą dla wszystkich używanych genera­
torów. Zilustrujemy to zagadnienie na dwóch przykładach.
Są nimi generator środka kwadratu (middle square genera­
tor) i generator Fibonacciego, powstałe w latach pięćdziesią­
tych.
P ierw szy
Przed zaistnieniem komputerów ludzie, którzy z takich
gen erator liczb czy innych powodów potrzebowali liczb losowych, musieli
losow ych rzucać kostką, losować karty z talii czy też, później, używać
przyrządów mechanicznych. Publikowano tablice liczb loso­
wych. W roku 1927 na przykład L. H. C. Tippet stworzył
tablicę 40000 liczb „wybranych losowo z danych spisu po­
wszechnego” . W roku 1946 John von Neumann jako pierw­
szy zaproponował, by liczby losowe mogły być wyliczane
przez maszynę przy użyciu pewnego deterministycznego al­
gorytmu, tzw. generatora środka kwadratu, w tej metodzie
jako zarodek dana jest pewna n-cyfrowa liczba dziesiętna
W artość tę podnosimy do kwadratu, a jej środkowe n cyfr
wybieramy jako kolejną liczbę, r\. Następnie należy podnieść
r\ do kwadratu i wybrać środkowe n cyfr — otrzymujemy
20 Zobacz wprowadzenie w tematykę generowania liczb losowych w:
D.E, Knuth, The A rt o f C om puter Programming, t. 2, Sem inum erical
A lgorithm s, wyd.2, Addison-Wesley, Reading, Massachusetts 1981.
4^y
6'.4. Kłopoty z generatorami liczb losowych
G enerator
środka
kw adratu
R ysunek 6.31: Przy użyciu generatora środka kwadratu do wy­
tworzenia liczb losowych trójkąt Sierpińskiego też się nie pojawia
(punkty są wytłuszczone)
G enerator
F ibon acciego
R ysunek 6.32: Użycie generatora Fibonacciego do generowania
liczb losowych też nie daje trójkąta Sierpińskiego
r 2 — i tak dalej. Zakres tak otrzymanych liczb zmienia się
od 0 do 10™ —1, a przez unormowanie wyników dostaniemy
liczby rozłożone w przedziale jednostkowym [0,1], czego wy­
magamy od znormalizowanych liczb losowych. Pokazano
jednak, że generator środka kwadratu jest kiepskim źródłem
liczb losowych, mimo że dla niektórych wybieranych cyfr
i pewnych wartości zarodków możemy otrzymać długie ciągi
liczb, które zdadzą wszelkie testy na losowość. Rysunek 6.31
przedstawia naszą próbę otrzymania trójkąta Sierpińskiego
przy użyciu tego generatora liczb losowych.
Generator Fibonacciego jest najprawdopodobniej naj- W zór drugiego
prostszą metodą drugiego rzędu dla liczb losowych. Każda rzędu
z liczb jest obliczana nie tylko na podstawie swojego bez­
430
6. Gra w chaos
pośredniego poprzednika, ale na podstawie dwóch liczb ją
poprzedzających. Procedura ta wyraża się wzorem
r% = { n -1 + n - 2 ) mod m.
Na rysunku 6.32 ustaliliśmy m = 218. Wynik jest dość
zaskakującym fraktalem — ale daleko mu do kompletnego
trójkąta Sierpińskiego.
6 .5 . M e t o d y o z m ie n n e j lic z b ie ite r a c ji
W tym i poprzednim rozdziałach pokazaliśmy, jak zakodować
pewne fraktale jako atraktory IFS. Omawialiśmy dwie rów­
noważne metody wprowadzania tego atraktora — algorytm
deterministyczny (np. iteracje KWR) oraz metodę probabi­
listyczną, grę w chaos. Niestety każde z podejść ma swoje
ograniczenia. Algorytm deterministyczny zachowuje się mar­
nie, gdy współczynniki kontrakcji dla przekształceń afinicznych różnią się znacznie, tak jak np. w przypadku pa­
protki Barnsleya. Z drugiej strony przebieg gry w chaos
silnie zależy od wyboru prawdopodobieństw, a jak na razie
podaliśmy jedynie metodę praktyczną ich wybierania (zob.
s. 415).
W istocie rzeczy algorytmu, który poniżej omówimy, moż­
na użyć do deterministycznego wyprowadzenia atraktora
w sposób pozwalający uniknąć niedogodności iterowania
zwykłej KW R.21 W wielu przypadkach ten algorytm jest
podejściem lepszym niż metody probabilistyczne. Może on
w szczególności wyznaczać atraktor z precyzją zadaną z góry,
podczas gdy m etoda probabilistyczna nie daje nam takiej
możliwości. W metodzie probabilistycznej brakuje kryte­
rium, które określiłoby czas trw ania gry w chaos, potrzebny
do osiągnięcia zadanej precyzji. Z drugiej strony gra w chaos
0 dobrze dobranych param etrach jest niezwykle efektywna
1 bardzo prędko pozwala na wgląd w globalną postać atrak­
tora.
21 Szczegóły zostały opublikowane w artykule: Rendering methods for
iterated function systems, autorstwa D. Heptinga, P. Prusinkiewicza i S.
Saupego, w: F R A C T A L 9 0 — P r o c e e d in g s o f th e 1 s t I F I P C o n fe r e n c e
o n F r a c ta ls , L i s b o n , J u n e 6 -8 , 1 9 9 0 (H.-O. Peitgen, J. M. Henriques, 1.
F. Penedo, red.), Elsevier, Amsterdam 1991.
6'.5. Metody o zmiennej liczbie iteracji
451
Omówmy najpierw problem przybliżania atraktora IFS, P ok rycia
Aoo> przy danych kontrakcjach w i, ...
z zadaną z góry atraktora
dokładnością s. Szukamy pokrycia atraktora przez zbiory
0 średnicy mniejszej niż e. Takie pokrycie może powstać jako
wynik iterowania operatora Hutchinsona. Zaczynając z do­
wolnego zbioru A, który zawiera atraktor (A ^ C A), po
pierwszej iteracji dostajemy pokrycie przez N zbiorów,
Aoo c wi (A) u *• • U w n
(A
),
po drugiej iteracji przez N 2 zbiorów,
Aoo C io iio i( A )
U i0 2 io i(A ) U * • *U w
n w n
(A)
1 tak dalej. Wszystkie przekształcenia Wk są kontrakcjami.
A zatem po pewnej liczbie iteracji, powiedzmy m, średnica
każdego spośród N M pokrywających zbiorów postaci
wslwS2 • *• wSrn(^ )
będzie mniejsza niż e. Niemniej jednak już z przykładu pa­
protki Barnsleya wiemy, że liczba tych zbiorów N M może
być astronomicznie duża, wykluczając jakiekolwiek prak­
tyczne obliczenia przy użyciu komputera.
Zauważmy, że średnica większości z N M zbiorów osta­ D ob ry p om ysł
tecznego pokrycia jest znacznie mniejsza, niż to konieczne.
A zatem byłoby znakomitym usprawnieniem, gdybyśmy po­
trafili zatrzymać iteracje w momencie dostosowanym do wiel­
kości zbiorów wSl • • • w Sfc(A) w krokach pośrednich (dla k =
Dla jasności sytuacji omówmy następujący prosty przyk­ P ro sty przykład
ład poglądowy. Rozważmy układ składający się jedynie z
dwóch przekształceń
( \ = x
wi(x)
2x
1
W2{X) = y +
określonych na zbiorze liczb rzeczywistych. Zauważmy, że
współczynnik kontrakcji dla w\ wynosi
a dla W2 jest on
równy
Istnieje silny związek między tymi przekształce­
niami a przekształceniami22 prowadzącymi do zbioru Can22 Przypomnijmy, że są nimi w\ ( x ) — | oraz W2 {x) = ^
s. 233).
| (zob.
432
6. Gra w chaos
tora. A jednak atraktorem dla tego układu nie jest zbiór
Cantora; nie jest to nawet fraktal, a po prostu odcinek jed­
nostkowy I = [0,1]. Stanie się to jasne, jeżeli zauważymy, że
odcinek pozostaje nie zmieniony pod działaniem stowarzy­
szonego operatora Hutchinsona
w 1(I) = [1,1/3],
w2(I) = [1/3,1],
czyli
H ( I ) =
w i
( I ) \ J
w
2(I) =
[0,1] =
I-
Znając charakterystykę atraktora IFS jako zbioru niezmien­
niczego dla operatora Hutchinsona, możemy wnioskować,
że odcinek jednostkowy jest istotnie atraktorem powyższego
prostego układu.
Spróbujmy pokryć atraktor zbiorami, których wielkość
M eto d a
o zm iennej nie przekracza e = 1/3. Jeżeli zaczniemy od I = [0,1], to po
liczb ie iteracji pierwszej iteracji otrzymamy zbiory w \{I) = [0,1/3] oraz
p o raz p ierw szy W2 CO = [1/3,1], których (łącznie) powinniśmy użyć jako
punktu wyjścia dla następnej iteracji. Ale ponieważ pierw­
szy z tych odcinków, w>i(/), ma już żądaną długość, konty­
nuujemy iterowanie tylko dla drugiego z nich, w2(/) (zob.
rysunek 6.33), co daje
Wiw2(l) = wi [1/3,1] - [1/9,1/3],
w2w2(I) = w2 [ 1 /3 ,1 ] - [ 5 /9 ,1 ] .
Wielkość pierwszego z tych dwóch zbiorów jest mniejsza niż
£, ale drugiego jeszcze nie. A zatem dla [5/9,1] jeszcze raz
powtarzamy naszą procedurę , otrzymując
w iw 2w2(I) - Wi [5/9,1] = [5/27,1/3],
w2w2w2(I) = w2 [5/9,1] = [19/27,1].
Wielkości tych odcinków wynoszą odpowiednio 4/27
i 8/27, i są obie mniejsze niż e = 1/3. Doszliśmy więc do
końca i oczekujemy, że tak otrzymany zbiór małych od­
cinków będzie pokrywać atraktor. Jednak sprawdzając bez­
pośrednio, otrzymujemy
6\5. Metody o zmiennej liczbie iteracji
433
[ 0 , 1/3] U [ 1 / 9 , 1 / 3 ] U [ 5 / 2 7 , 1 / 3 ] U [1 9 /2 7 ,1 ] =
[ 0 , 1/3] U [1 9 /2 7 ,1 ] ^
[ O , 1].
Widzimy, że cały czas brakuje pewnych fragmentów odcinka
jednostkowego (zob. rysunek 6.33). Innymi słowy, jeżeli po
prostu odrzucimy pewne części iteracji IFS, to nie dosta­
niemy oczekiwanego rezultatu.
D ziałanie K W R
o zm iennej
liczbie iteracji
Rysunek 6.33: O bcinanie iteracji operatora H utchinsona tylko
do tych zbiorów, których średnica jest m niejsza od pewnej zadanej
tolerancji, doprowadza w końcu do p ow stan ia zbiorów żądanej
wielkości. Zazwyczaj nie pokryw ają one jednak całego atraktora
A lgorytm
o zm iennej
liczbie iteracji
Rysunek 6.34: P odział hierarchiczny w prow adzony przy oka­
zji om awiania adresów daje w łaściw ą pod staw ę dla algorytm u
o zmiennej liczbie iteracji
Potrzebujemy innego, subtelniejszego sposobu dzielenia
odcinka na coraz mniejsze części. Na rysunku 6.34 poka­
zano strategię wykonywania kolejnych podziałów, idealnie
dopasowaną do naszego przykładu. Daje ona zbiory w i(I),
W2 Wi(I)i W2 W2 Wi(I) oraz W2 W2 W2 ( I ); długość każdego z nich
Popraw na
m eto d a
o zm iennej
liczbie iteracji
434
6. Gra w chaos
jest zadanej wielkości, ich suma zaś pokrywa odcinek L Ale
jak otrzymać taki sposób podziału? Staranniej badając ry­
sunek 6.34, zauważamy, że pokazuje on taką samą metodę
podziału hierarchicznego, jak ta używana dla mechanizmu
adresowania atraktora. Rysunek 6.35 przedstawia odpo­
wiadające jej drzewo adresowe. Gałęzie drzewa są różnej
długości, a węzły jednego poziomu nie znajdują się na tej
samej wysokości. Współrzędna wysokości reprezentuje wiel­
kość, do której odcinek jednostkowy jest zmniejszany po za­
stosowaniu odpowiedniej kontrakcji. Tak więc ta metoda
polega na odcinaniu tych gałęzi drzewa adresowego, które
przekraczają wysokość 1/3.
Drzewo
adresowe dla
algorytmu
o zmiennej
liczbie iteracji
R ysunek 6.35: Odcinamy te gałęzie drzewa adresowego odpo­
wiadającego rysunkowi 6.34, dla których współczynnik zwężania
odpowiednich złożonych kontrakcji osiąga wartość 1/3. W drzewie
po prawej stronie odcięto gałęzie przy współczynniku zwężania
równym 1/6, co daje pokrycie odcinka o większej rozdzielczości
(szerokości kolumn na rysunku nie mają znaczenia; nie są dosto­
sowane do wielkości odpowiadających im atraktorletek)
Mówiąc formalnie, po pierwszym kroku dostajemy na­
stępujące rozbicie atraktora:
A qq — W\ (Aoo) U ***U U>jv(^oo)ł
(6* 0
W kroku następnym dzielimy każdy ze zbiorów w^Aoo) zgo­
dnie z
WkiAoc) = wk (w1(Aca)) U • • • U wk (wN {Aoo)).
W trzecim kroku rozbijamy każdy ze zbiorów Wk(wi(A0o))
na
WkWiiAoo) = WkWiW^Aoo) U - ” U WkWiWfifiAoo).
6.5. Metody o zmiennej liczbie iteracji
Oznacza to, że w n-tym kroku każdy podzbiór atraktora
o adresie s \ . . . s n ^ i jest dzielony na mniejsze podzbiory o ad­
resach
S i ., . s n
—1
1,
S i .. . s n —\2 , 1
S i . . oS^- i -AT.
Te podzbiory Aoo to atraktorletki opisane wcześniej na stro­
nie 416. Jeżeli kiedykolwiek dochodzimy do atraktorletki,
której średnica jest mniejsza niż s, to ją zachowujemy. Wszy­
stkie pozostałe atraktorletki muszą być dzielone dalej. W na­
szym przypadku proces wygenerował atraktorletki o adre­
sach 1 , 2 1 , 2 2 1 oraz 2 2 2 .
Opierając się na tym pomyśle, możemy efektywnie obli­
czać przybliżenia atraktora A ^ . Wybieramy po prostu po
jednym punkcie z każdej końcowej atraktorletki. Z konstruk­
cji tej otrzymujemy, że dla każdego punktu atraktora istnieje
punkt w naszym zbiorze wybranych punktów, odległy od
niego o nie więcej niż s.
Zademonstrujmy tę procedurę na wprowadzonym wyżej
przykładzie. Wiemy, że yo = 0 jest punktem z A ^ (0 jest
punktem stałym dla w \). Pozwala nam to wyznaczyć punkty
w atraktorletkach:
yi = m {0 ) = o,
y2 = w2wi(0) = w2 (0) = 1/3,
j/3 = w2w2w i(0 ) = w2 (1/3) = 5/9,
2/4
= w2w2w2(0) = w2w2 (1/3) = w2 (5/9) = 19/27.
Ponieważ wielkość odpowiadających im atraktorletek jest
nie większa niż e, dostajemy przybliżenie
i oczywiście żaden z punktów w A ^ nie leży w odległości
większej niż e = 1/3 od wszystkich punktów z A e.
Porównajmy to z prostą iteracją IFS zaczynającą się
od punktu stałego 0. Osiągnięcie pożądanej precyzji wy­
magałoby trzech kompletnych kroków. A zatem w A ^ otrzy­
malibyśmy osiem punktów zamiast czterech, co podwoiłoby
ilość pracy. Musimy zauważyć, że „współczynnik nieefek­
tywności” jest zazwyczaj dużo większy.
435
436
6. Gra w chaos
Działanie IFS
a m etoda
o zmiennej
liczbie iteracji
R ysunek 6.36: Porównanie dwóch metod tworzenia atraktora IFS. (a) Iteracje operatora Hutchinsona (zaczynające się od
punktu) dla całkowitej liczby m = 9 iteracji, co daje Ni = 49 =
262 144 punkty, (b) Metoda o zmiennej liczbie iteracji, używająca
N 2 = 198 341 punktów
Mówiąc krótko, algorytm o zmiennej liczbie iteracji dzieli
Porównywanie
algorytmów: rekursywnie atraktorletkę tak długo, aż średnice otrzyma­
przykład nych zbiorów będą mniejsze bądź równe zadanej liczbie e.
z paprotką Z końcowego zbioru atraktorletek wybieramy po jednym re­
prezentancie. Punkty te pokrywają atraktor z dokładnością
e. Na rysunku 6.36 porównano dwie różne metody w za­
stosowaniu do paprotki Barnsleya. Ponieważ współczynniki
kontrakcji przekształceń różnią się znacznie między sobą, cy­
kle KW R dają bardzo nierówny rozkład punktów atraktora.
Algorytm o zmiennej liczbie iteracji usuwa tę niedogodność,
co wyraźnie widać na rysunku.
M etoda
o zm iennej liczbie
iteracji
M e to d a o zm iennej liczbie iteracji pozw ala nam obliczać przybliżenia
A e zbioru A 00 z za d a n ą z góry dokładnością e, ta k więc odległość
H au sd o rffa23 d n ( A e, A ^ ) je s t m niejsza bądź równa e. A za te m wszy­
stkie p u n kty A e leżą w odległości co najw yżej e od p u n któ w Aoo i od­
w ro tn ie . P a trzy m y te ra z na w \ , w^,
i ob liczam y współczynniki
ko n trakcji tych przekształceń. O zn a c zm y je przez p(wk)- W szystkie
23 Zobacz definicję odległości Hausdorffa w rozdz. 5.
I/, u .
irjLUl/UUJ^
W
IL^iClUJl
przekształcenia W k , któ re spełniają w arunek p(wjfc) < e /d ia m ( A 0O) ?
m ożna odrzucić z dalszych pod ziałów , gdyż o d p o w iad ając e im a tra k torletki
m ają średnicę m niejszą niż e. D la pozostałych prze­
kształceń kontynuujem y proces na drugim poziom ie \ o bliczam y w spół­
czynniki kontrakcji dla złożonych przekształceń
p ( w k w i ) , p ( w k w 2 ) , . . . , p ( w k w N ).
Pow tarzam y te ra z naszą procedurę, tj. o d rzu cam y te złożenia, których
współczynnik kontrakcji je s t m niejszy lub rów ny £ / d i a m ( A 00), konty­
nuujem y n atom iast dla pozostałych przekształceń, ro zw a ża ją c przek­
ształcenia złożone z trzech elem en tó w , i ta k dalej.
O gólnie, procedurę m ożem y opisać ja k następuje. Po osiągnięciu
złożenia o dostatecznie m ałym w spółczynniku kontrakcji
zn ajdujem y a tra k to rle tk ę o adresie S 1 S2 • ■• sm , wielkości
d \ a m ( w S l w S2 ■■■w Sm( A r x ) ) < e,
czyli to o co nam chodziło. Jeżeli w spółczynnik ko ntrakcji złożenia
w si ' ' ' w sTn je s t ciągle za duży, tzn . większy niż e /d ia m (^ 4 oc), to
kontynuujem y i rozw ażam y N złożeń z następnego poziom u,
w S l w S2 - - W SmW i
W S l W S2 ■" W SmW2
w S l w S2 ■- w Srnw N .
W ten sposób konstruujem y złożenia przekształceń, które spełniają
Niech S będzie zbiorem adresów odpow iednich a tra k to rle te k ,
Dla dowolnego punktu xo € Aoo (n p . dla dow olnego pun ktu stałego
przekształcenia w i ) odległość HausdorfFa m iędzy zbiorem
Ae
= {x : x = w Sl ■■■wSm(x0), (s i , ...sm) e S}
a atrakto rem jest ograniczona przez e, tj. ¿ ¡ j ( A e , A x ) < e. K oń czy
to podstawow y opis m eto d y o zm iennej liczbie iteracji.
D la celów praktycznych m etodę m ożna jeszcze bardziej przyspie­
szyć przez w ykorzystanie fa k tu , że a tra k to r m oże być przedstaw iony
tylko ze skończoną rozdzielczością (e k ra n u ). B ęd ziem y elim inow ać
z dalszych rozw ażań obrazy pu n któ w , w ielo kro tn ie tra fia ją c y c h w ten
U I
438
6. Gra w chaos
sam piksel.24 M a to zasadnicze znaczenie w przypadkach a tra k to ró w
zach odzących na siebie, poniew aż alg o rytm o zm iennej liczbie iteracji
nie w y c h w y tu je ta k ie g o zachow ania.
P ozostaje obliczenie albo oszacow anie w spółczynn ików kontrakcji
p ( w Sl • • ■w Stti). P rze d s ta w ia m y tu ta j trz y m e to d y o różnej złożoności
obliczeniow ej i o różnej jakości oszacowań. W e w szystkich trzech
przypadkach odległość je s t m ierzona przy użyciu m etryki euklidesow ej.
Piew sza i najprostsza z m etod opiera się na własności p { w \ w 2) <
p(wi)p(w 2 ) i szacuje w spółczynnik ko n trakcji złożonego przekształ­
cenia afinicznego w Sl • * • w Srn przez iloczyn pojedynczych współczyn­
nikó w ko n trakcji. A za te m ,
p ( w Sl ■■■WSm) < p { w Sl) ■■■p ( w Sm).
N iestety, w zó r ten d aje zb yt grube oszacow anie rzeczyw istej wartości
w spółczynnika kontrakcji przekształcenia złożonego. D la przykładu
ro zw a żm y dwa następujące przekształcenia afiniczne:
w\{x,y) = (0,Ola;, 0,99y),
W2 (x,y) = ( 0 , 99x, O .O lj/).
Poniew aż p ( w i ) = p { w 2 ) = 0 ,9 9 , o trz y m u je m y p { w \ ) p { w 2 ) = 9 9 2/
/ 1 0 0 0 0 . Z drugiej strony,
W1 W2 { x , y ) — ( 0 ,0 0 9 9 x , 0 ,0 0 9 9 y )
i p ( w i W 2 ) = 0 ,0 0 9 9 . Czyli użycie iloczynu p { w \ ) p ( w 2 ) zaw yżyło
rzeczyw istą w artość p(wiW2 ) 99 razy.
A lte rn a ty w n a m eto d a szacow ania w spółczynnika kontrakcji w y­
korzystuje następującą w łasność.25 W sp ó łc zy n n ik kontrakcji prze­
kształcenia afinicznego
w(x, y) ~ (ax + by + e,cx + dy + /)
spełnia nierówność
p(w)
< 2max{|a|, |6|, |c|, \d\}.
W w yżej ro zw ażan ym przykład zie w y n ik ten d aje górne ograniczenie
w spółczynnika ko n trakcji przekształcenia złożonego przez 0 ,0 1 9 8 ; jest
ono dużo lepsze, ale ciągle zaw yżone aż d w u kro tn ie .
T rzecia m eto d a je s t bardziej kosztow na obliczeniow o niż dw ie po­
24 Zobacz S. Dubuc i A, Elqortobi, Approximations of fractal sets,
J . C om put. Appl. M ath. 29, 79-89 (1990).
25 Zobacz G.H. Golub i C. F. van Loan, M atrix C om putations, wyd.2,
Johns Hopkins, Baltimore 1989, s. 57.
o.o. rneioay o zmiennej uczoie izeracji
przednie, daje je d n a k dokładne w artości. W yk o rzys tu je ona własność,
że w spółczynnik ko ntrakcji przekształcenia afinicznego w (z) — A z +
B (gdzie A oznacza m acierz, B zaś — w ektor kolu m now y) m ożna
przedstawić ja k o pierw iastek kw ad rato w y z najw iększej wartości w łas­
nej m acierzy A T A ( A T oznacza m acierz tran sp o n o w a n ą)
p(w)
— y m a x { |A i|
:
w artość własna A T A } .
W z ó r ten jest praw dziw y dla przekształceń afinicznych w przestrze­
niach o dow olnym w y m ia rze n . W przypadku d w u w ym iarow ym (n =
2 ), gdzie
przy w yznaczaniu p( w) m usim y obliczyć dwa pierw iastki kw adratow e,
a dokładnie
gdzie
p — a 2 + b2 + c2 -f d 2
q — (ad — be)2.
Poniew aż je d n a k nie interesuje nas dokładny w spółczynnik kontrakcji,
a tylko dobre jego ograniczenie, m ożem y zastąp ić obliczanie pierw ia­
stka kw adratow ego dobrą stablicow aną procedurą, co znacznie przy­
spieszy m etodę.
Jak stw ierdziliśm y na p o c zą tk u , odległość w powyższych roz­
ważaniach m ierzym y przy użyciu m etryki euklidesowej. M oglibyśm y
równie dobrze używać innej m etryki. N a przykład dla m etryki m a­
ksim um doo (zob. s. 3 4 0 ) w spółczynnik ko ntrakcji m ożna prościej
wyliczyć ze w zoru
Poo{w) = m a x {|a | + |6|, \c\ + |d |},
gdzie współczynniki a , . . . , d są elem en tam i m acierzy A , ta k ja k w yżej.
Metoda o zmiennej liczbie iteracji podaje nam listę pun­
któw przybliżających atraktor A ^ z zadaną dokładnością.
Kiedy punkty te potraktujem y jako środki malutkich kółe­
czek, dadzą nam one pokrycie A ^ . Niech
440
6. Gra w chaos
D e(y) = {x e R 2 : \\x - y II < s}
będzie zbiorem punktów na płaszczyźnie, które leżą w od­
ległości nie większej niż e od punktu y.
W tedy w naszym prostym jednowymiarowym przykła­
dzie zbiór
C£ - De(0)
U
D £ (1/3)
U
D£ (5/9)
U
D e (19/27)
pokrywałby atraktor (tzn. Aoo C C£) i wszystkie punkty
z C£ leżałyby w odległości co najwyżej e — 1/3 od Aqq. Na
rysunku 6.37 pokazano takie pokrycia dla paprotki.
O szacow anie
Gra w chaos potrzebuje zbioru prawdopodobieństw p*.,
p raw d op od o­ k = 1 ,..., W, określających, które z przekształceń w i,... , w n
b ień stw dla gry powinno być użyte w każdym kroku algorytmu. Tak jak było
w chaos już pokazane, dobór tych prawdopodobieństw nie jest wcale
trywialny.
M etoda o zmiennej liczbie iteracji wyznacza inny sposób
przypisania wartości tym prawdopodobieństwom. Dzielimy
P ok rycia
paprotki
R ysunek 6.37: Algorytm o zmiennej liczbie iteracji może dać
obrazy o różnej dokładności, zależnie od wyboru e — dopuszczal­
nej tolerancji dla odległości Hausdorffa. Dla powyższych wy­
kresów używano trzech różnych wartości: e — 0,5, 0,1, 0,015.
Każdy z punktów został zaznaczony jako malutkie kółeczko o od­
powiednim promieniu tak, by atraktor na pewno zawierał się
w obrazie
t>.b. Metody o zmiennej liczbie iteracji
441
G ra w chaos różne praw do­
p od ob ień stw a
Rysunek 6.38: Gra w chaos używająca Ni = 198 541 punktów.
(a) Użyte tutaj prawdopodobieństwa to 0,85, 0,07, 0,07 i 0,01.
(b) Ulepszone prawdopodobieństwa to 0, 73, 0,13, 0,11 i 0, 03
punkty zaznaczone w wyniku metody o zmiennej liczbie ite­
racji na N podzbiorów, do każdego z nich wkładając punkty
należące do odpowiedniej atraktorletki w ^A o o ).'26 Względna
liczba punktów w każdym podzbiorze określa odpowiadającą
jej wartość prawdopodobieństwa. Na przykład dla paprotki
otrzymujemy liczby 0, 73 , 0,13,0,11, 0,03.27 Jeżeli użyjemy
ich jako prawdopodobieństw dla gry w chaos, to dostaniemy
obraz o punktach rozłożonych bardziej równomiernie, niż
w obrazie stworzonym przy użyciu gry w chaos z prawdopo­
dobieństwami pochodzącymi ze wzoru na stronie 415 (zob.
rysunek 6.38).
26 Określenie ich nie jest dokładne, atraktorletki Wfc(^4oo) bowiem
mogą w pierwszym kroku zachodzić na siebie.
Algorytm uznaje
punkt reprezentujący atraktorletkę w Slw S2 • *• w 8m (Aoo) za należący do
1 (Aoo) ■
27 Prawdopodobieństwa te nie powinny być traktowane jako bez­
względne, ich wartości bowiem w pewnym stopniu zależą od rozdziel­
czości obrazu. Jeżeli zmienimy rozdzielczość, inne wagi mogą być
lepsze.
442
6. Gra w chaos
6 .6 . P r o g r a m n a z a k o ń c z e n ie ro zd zia łu :
g ra w c h a o s d la p a p r o tk i
Pokazaliśmy, że gra w chaos jest eleganckim sposobem wy­
znaczenia atraktora dla danej kopiarki wielokrotnie redu­
kującej. Program stosuje ten pomysł w praktyce. Można go
użyć do eksperymentowania z jakąkolwiek KWR z rozdziału
5. Należy wykorzystać param etry z tabeli 5.2 i zmienić
przekształcenia w programie zgodnie z podanymi tam war­
tościami. W krótce na ekranie będzie rósł nowy fraktal.
Program został ułożony tak, by powstała paprotka jak
na rysunku 6.39. Należy zauważyć, że jego param etry nie
były wymienione w tabeli 5.2. Prawdopodobieństwa otrzy­
mano przy użyciu wyznaczników, co opisano na s. 415. Jeżeli
chcielibyśmy użyć innych przekształceń, to powinniśmy sko­
rzystać z tego samego sposobu obliczania prawdopodo­
bieństw.
C h aotyczn a
paprotka
R ysunek 6.39: Wynik programu „Gra w chaos”
Rzućmy teraz okiem na program. Na początku musimy
podać liczbę iteracji dla gry w chaos. Następnie ustalane
są: szerokość obrazu i param etry części translacyjnych prze­
kształceń. Przypomnijmy, że w programie z rozdziału 5
musiały one być dopasowane do w. Nie musimy od razu
ustalać wszystkich parametrów przekształceń. W tym pro­
gramie są one określane dopiero w momencie, w którym
przekształcenia działają na punkt wiodący.
Następnie obliczamy punkt stały pierwszego przekształ­
cenia, p rz e k s z t 1. Punkt ten należy do atraktora i będzie­
my go używać jako punktu początkowego dla gry w chaos.
6.6. Program na zakończenie rozdziału
Program w BASIC-u
Tytuł
G ra w chaos
Gra w chaos dla liścia paprotki
INPUT ,,Liczba iteracji (5000):;’, imax
lewy = 30
w = 300
wl = w + lewy
el = .5*w : e2 = .57*w : e3 = .408*w : e4 = .1075*w
fl = 0*w : f2 = - .036*w : f3 = .0893*w : f4 = .27*w
REM PUNKT STAŁY DLA PRZEKSZTAŁCENIA 1
x = el
y = 0
FOR i = 1 TO imax
r = RND
REM przekształcenie 1 (łodyga)
50
IF r > .02 GOTO 100
xn = 0*x + 0*y +el
yn = 0*x + .27*y +fl
GOTO 400
100
200
300
REM przekształcenie 2 (prawy lisc)
IF r > .17 GOTO 200
xn = -.139*x + .263*y + e2
yn = ,246*x + ,224*y + f2
GOTO 400
REM przekształcenie 3 (lewy lisc)
IF r > .3 GOTO 300
xn = .17*x - .215*y +e3
yn = .222*x +.176*y +f3
GOTO 400
REM przekształcenie 4 (górna czesc paprotki)
xn * .781*x + ,034*y +e4
yn = -.032*x + .739*y +f4
REM RYSOWANIE PUNKTU WIODĄCEGO
400 PSET (xn+lewy,wl-yn)
x = xn
y = yn
NEXT i
END
Wyznaczyć go łatwo: x = e l ,y = 0 . Jeżeli zmienimy przek­
ształcenia, to musimy także zmienić te dwa podstawienia,
zgodnie ze wzorami na stronie 316. Jeżeli nie zrobimy tego
poprawnie, to na ekranie pojawią się dodatkowe punkty,
nie należące do atraktora. Nic gorszego nie może się stać,
więc nie jest to tak bardzo ważne. Część iteracyjna pro-
443
444
6. Gra w chaos
gramu zaczyna się od linii (FOR i= l TO imax). Najpierw
obliczana jest losowa liczba x, leżąca pomiędzy 0 a 1 . Jeżeli
x jest mniejsze niż (albo równe) 0 , 0 2 (czyli z prawdopo­
dobieństwem 2 %), to do punktu wiodącego stosujemy prze­
kształcenie p rz e k s z t 1 . Jest on następnie rysowany (przy
etykiecie 400) i przechodzimy do następnej iteracji. Jeżeli
nasza liczba losowa jest mniejsza niż (albo równa) 0,17 (tj.
z prawdopodobieństwem 0,17 —0,02 — 15%), to stosujemy
przekształcenie p rz e k s z t 2 . Jeżeli nie, to stosujemy prze­
kształcenie p rz e k s z t 3 (z prawdopodobieństwem 13%) albo
p rz e k s z t 4 (z prawdopodobieństwem 70%).
Jeżeli chcielibyśmy zmienić przekształcenia zgodnie z ta­
belą 5.2 (albo wypróbować własne pomysły), to możemy
wpisywać stałe reprezentujące param etry a , b , c id bez­
pośrednio do komend dotyczących przekształcania punktu
wiodącego. Spróbujmy na przykład stworzyć smoka z ry­
sunku 5.11. Przypomnijmy, że
xn = a * x + b * y + e
y n = c * x + d * y + f
a zatem pierwszym przekształceniem będzie (por.
5.2)
tabela
xn = 0.000 * x + 0.577 * y + e l
yn = -0 .5 7 7 * x + 0.000 * y + f l
na początku programu zaś ustalamy
e l = 0.0951 * w
f l = 0.5893 * w
ponieważ param etry e oraz f muszą być mnożone przez
w. Załóżmy, że obliczyliśmy prawdopodobieństwa pi~p^ dla
przekształceń od p rz e k s z t 1 do p rz e k s z t 4. Kładziemy
T\ — pi, V2 — P2 + n oraz r$ —p^ + r*i- Są to właśnie liczby,
które powinny być wstawione do komend zaczynających się
od IF , wybierających odpowiednie przekształcenie (ri przy
etykiecie 50, V2 przy etykiecie 100 i 7*3 przy etykiecie 200),
R ozdział 7
K ształty nieregularne: losowość
w konstrukcjach fraktalnych
Dlaczego geometria jest często opisywana jako „zim na”
i „sucha”? Jednym z powodów jest niemożność opisania
ksztattu chmury, wzgórza, brzegu morskiego, czy drzewa.
Chmury nie są sferami, linie brzegowe nie są okręgami, a ko­
ra nie jest gładka. Nawet błyskawica nie porusza się po linii
prostej. [...] Istnienie tych wzorów wzywa nas do studio­
wania kształtów, które nie interesują Euklidesa jako „ bez­
kształtne”, do badania morfologii tego co „amorficzne”.
Benoit B. M andelbrot1
Samopodobieństwo wydaje się jedną z podstawowych zasad
konstrukcji geometrycznych natury. Przez miliony lat ewo­
lucja kształtowała organizmy w taki sposób, by przetrwały te
najlepiej przystosowane. W przypadku budowy wielu roślin,
jak również narządów zwierzęcych, doprowadziło to do po­
wstania rozgałęzionych struktur fraktalnych. Przykładem
może być budowa gałęzi drzewa, która pozwala liściom za­
trzymywać maksymalną ilość światła słonecznego. Układ
1 Benoit B. Mandelbrot, The Fractal Geometry o f Nature, Freeman,
1982, s . l .
446
7. Losowość w konstrukcjach fraktalnych
naczyń krwionośnych w płucach jest tak rozgałęziony, aby
mogła zostać zasymilowana maksymalna ilość tlenu. Mimo
że samopodobieństwo w tych obiektach nie jest ścisłe, mo­
żemy na różnych poziomach dostrzec części składowe rozga­
łęzionej struktury.
W wielu przypadkach również świat materii nieożywionej
wykazuje pewne cechy fraktalne. Pojedyncze wzgórze na
przykład może wyglądać jak całe pasmo górskie, do którego
należy. Rozkład kraterów na Księżycu pozostaje w zgodności
z pewną zależnością potęgową, podobną do tej, jaką wi­
dzieliśmy we fraktalach. Rzeki, linie brzegowe i chmury
dostarczają kolejnych przykładów. Niemniej jednak zna­
lezienie hierarchicznych cegiełek, z których są zbudowane
zarówno obiekty nieożywione, jak i materia organiczna, jest
w zasadzie niemożliwe. Nie ma w nich oczywistego samopodobieństwa, chociaż obiekty te, oglądane są w powiększeniu,
wyglądają w zasadzie tak samo. Później wprowadzimy po­
jęcie samopodobieństwa w sensie statystycznym.
Tak więc w wielu naturalnych kształtach, pomimo ich
nieregularności, można odkryć pewne zależności potęgowe.
Jedną z konsekwencji — co było omawiane w rozdziale 4
— jest niemożność przypisania tym naturalnym kształtom
wielkości, takich jak długość czy pole powierzchni. Nie ist­
nieje prosta odpowiedź na pytanie: „Jaka jest długość linii
brzegowej Wielkiej Brytanii?” . Ktoś może otrzymać 5000
mil jako wynik swojego pomiaru tej linii brzegowej, ale ktoś
inny, dysponujący lepszą (dokładniejszą) techniką pomiaru,
mógłby równie dobrze otrzymać wynik znacznie większy niż
5000 mil. Właściwym pytaniem powinno być: na ile nieregu­
larna, do jakiego stopnia powyginana jest ta linia brzegowa,
albo: jaki jest jej wymiar fraktalny? W tym rozdziale zaj­
miemy się ponownie tym problemem. Podamy metody gene­
rowania modeli wybrzeży (i innych kształtów) o z góry zada­
nym wymiarze fraktalnym. Ktoś mógłby zaproponować, by
obrys płatka śniegu Kocha posłużył za model linii brzegowej
pewnej wyspy. A jednak, mimo że takie krzywe ściśle samopodobne m ają postulowaną niezmienniczość przy skalowaniu
i zadany wymiar fraktalny, to nie mogą być uważane za rea­
listyczne modele linii brzegowej. Powodem tego jest brak losowości. Aby modelować linie brzegowe, potrzebujemy krzy­
wych, których wygląd zmienia się po powiększeniu, ale które
mimo to ciągle są podobne do oryginału. Innymi słowy, pa­
trząc na powiększoną wersję linii brzegowej, nie powinniśmy
i . i . w prowadzenie
iosow osci
ao iraKzau aezermmiszycznycn
w i
być w stanie odróżnić jej od pierwowzoru. Powinniśmy ją
raczej uważać za inną część tej samej linii brzegowej nary­
sowanej w nie zmienionej skali.
Zaczynamy naszą dyskusję w tym właśnie punkcie, wpro­
wadzając pewien element losowości2 do pierwotnie deter­
ministycznych klasycznych fraktali. Prowadzi to do mo­
deli fizycznych, tzw. modeli perkolacji, mających szero­
kie zastosowania od rozpadu jąder atomowych po formo­
wanie skupisk galaktyk. Eksperymentem, w którego wy­
niku otrzymujemy losowe fraktalne struktury dendrytyczne
średniej wielkości — użytecznym do prezentacji praktycz­
nej w sali lekcyjnej — jest proces osadzania elektrolitycz­
nego, omawiany w paragrafie 7.2. Matematyczny model pro­
cesu osadzania oparty jest na ruchu Browna cząstek, który
daje się bez wielkiego trudu modelować za pomocą kom­
putera. Własności skali ruchu Browna i pewne jego ważne
uogólnienie (ułamkowy ruch Browna) są tem atem trzeciego
paragrafu. Dzięki niemu możemy symulować na kompute­
rze krajobrazy fraktalne i linie brzegowe. Przykłady takich
symulacji pokazane są w ostatnim paragrafie i na kolorowej
wkładce.
7.1. W p r o w a d z e n ie lo so w o śc i d o fra k ta li
d e te r m in isty c z n y c h
Wprowadzenie elementu losowości do klasycznego determi­
nistycznego fraktala jest pierwszym i najprostszym podej­
ściem, które umożliwi wygenerowanie realistycznych, „na­
turalnych” kształtów. Rozważać będziemy krzywą Kocha
i trójkąt Sierpińskiego.
Metoda wprowadzająca losowość do konstrukcji płatka
śniegu Kocha wymaga jedynie bardzo małej modyfikacji kla­
sycznej konstrukcji. Odcinek linii prostej będzie zastępowa­
ny, tak jak przedtem, łamaną złożoną z czterech odcinków,
każdy o długości równej jednej trzeciej długości pierwot­
nego odcinka. Również kształt generatora pozostaje taki
sam. Niemniej jednak w każdym kroku zastępowania do­
puszczamy dwie orientacje: załamanie może być skierowane
albo w lewo, albo w prawo (zob. rysunek 7.1).
2 Wprowadzanie losowości do rozgałęzionych struktur otrzymanych
z KWR wygodniej jest omawiać w kontekście następnego rozdziału.
W prow adzenie
losow ości do
konstrukcji
płatka śniegu
K ocha
448
7. Losowość w konstrukcjach fraktalnych
D w ie m ożliw ości
zastęp ow an ia
Rysunek 7.1: Dwa możliwe sposoby przeprowadzenia kroku za­
stępowania w konstrukcji Kocha
L osow a krzyw a
K ocha
Rysunek 7.2: Jedna z możliwych realizacji losowej krzywej Ko­
cha. Krok zastępowania jest taki sam jak w oryginalnej konstruk­
cji Kocha, z jednym wyjątkiem: dopuszczamy dwie orientacje ge­
neratora
Przy każdym kroku zastępowania wybieramy jedną z tych
orientacji w sposób losowy. Wynik nazwiemy losową krzywą
Kocha. Połączenie trzech różnych wersji losowej krzywej Ko-
7.1. Wprowadzenie losowości do fraktali deterministycznych
449
cha w taki sposób, że ich końce stykają się ze sobą, two­
rzy losowy płatek śniegu Kocha. W trakcie tego procesu
pewne własności płatka śniegu Kocha zostaną zachowane.
Na przykład wymiar fraktalny tej nowej krzywej będzie taki
sam (około 1,26). Ale jej wygląd zewnętrzny jest zupełnie
inny; przypomina ona raczej zarys wyspy niż pierwotną krzy­
wą płatka śniegu (zob. rysunki 7.2 i 7.3). Przy użyciu tych
samych metod zastosowanych do krzywej 3/2 możemy skon­
struować coś w rodzaju wyspy (zob. rysunki 7.4 i 7.5).
W tym przypadku wymiar krzywej będzie większy, równy
dokładnie 1, 5.
Rysunek 7.3: Ten losowy płatek śniegu Kocha powstał w wyniku
zlepienia trzech różnych wersji losowej krzywej Kocha
W powyższych dwóch przykładach losowych fraktali losowe decyzje muszą być podejmowane w trakcie procesu konstrukcji. Przy każdej z tych decyzji należało wybrać jedną
z dwóch losowych możliwości. Teraz podamy przykład,
w którym losować będziemy liczbę z odcinka; losowy trójkąt
Sierpińskiego. Proces konstrukcji przebiega tak samo jak
przedtem. Tak więc w każdym kroku trójkąt jest dzielony
na cztery mniejsze trójkąty, z których środkowy jest usu­
wany. Jednakże przy podziale dopuszczamy teraz trójkąty,
które nie są równoboczne. Na każdym boku trójkąta, który
ma zostać podzielony, wybieramy w sposób losowy jeden
punkt, a trzy uzyskane punkty łączymy. Otrzymujemy w ten
sposób cztery mniejsze trójkąty. Środkowy z tych trójkątów
D w a sp osob y
w prow adzania
losow ości do
konstrukcji
trójk ąta
Sierpińskiego
450
7. Losowość w konstrukcjach fraktalnych
W prow adzenie
losow ości do
krzywej 3 /2
Rysunek 7.4: Stadium początkowe i generator dla krzywej 3/2
z wprowadzoną losowością
Rysunek 7.5: Połączenie czterech różnych wersji losowej krzywej
3/2 tworzy wyspę, której linia brzegowa ma wymiar 1,5
Z m odyfikow any
trójkąt
Sierpińskiego 1
Rysunek 7.6: Punkty podziału na brzegach są wybrane losowo.
Rysunek przedstawia czwarty etap konstrukcji
/.z. rerKoiacja: iraniaw i poza,ry w losowycn lasacn
4U1
usuwamy, po czym procedurę powtarzamy (zob. rysunek
7.6).
Omówimy teraz pewną modyfikację trójkąta Sierpińskie­
go. Doprowadzi nas to bezpośrednio do tem atu następnego
paragrafu, do zjawiska fizycznego o wielu zastosowaniach:
perkolacji3. Używamy ponownie standardowego podziału
na trójkąty równoboczne. Jedną z łatwych modyfikacji jest
po prostu usuwanie losowo wybranego trójkąta. A zatem
można usunąć środkowy trójkąt, ale równie dobrze wybrać
i usunąć można inny z nich, zob. rysunek 7.7.
Zm odyfikow any
trójkąt
Sierpińskiego 2
Rysunek 7.7: W każdym kroku zastępowania mały trójkąt, który
zostanie usunięty, jest wybierany losowo. Zaczernione trójkąty
pochodzą z piątego etapu konstrukcji
Na rysunku możemy dostrzec małe i duże grona, złożone
z połączonych trójkątów. Grono definiujemy tutaj jako zbiór
czarnych trójkątów, które stykają się swoimi krawędziami,
a które są całkowicie otoczone przez białe trójkąty.4
7.2. P erk olacja: fra k ta le i p o ż a r y w lo so w y c h
lasach
Posuńmy nasze rozumowanie o jeden krok dalej. Rozważmy
trójkątną sieć o pewnej średnicy i zajmijmy się każdym trój­
kątem z osobna. Trójkąt jest usuwany lub nie zależnie od
pewnego zdarzenia losowego, które zachodzi z ustalonym
3 Słowo „perkolacja” pochodzi od słów łacińskich: „per” (przez)
i „colare” (płynąć).
Połączenia trójkątów samymi wierzchołkami nie są tu brane pod
uwagę.
452
7. Losowość w konstrukcjach fraktalnych
Z m o d y fikowany
trójkąt
Sierpiń skiego 3
R ysunek 7.8: Małe trójkąty z piątego etapu konstrukcji są usu­
wane z prawdopodobieństwem p. Cztery wartości p to (od lewego
górnego trójkąta do dolnego prawego): 0,3, 0,45, 0,55, 0,7. Na
pierwszych dwóch rysunkach (p = 0,3 i p = 0,45) współistnieje
wiele małych gron. Na rysunkach dla p = 0,55 i p = 0, 7 istnieje
jedno duże grono główne i kilka małych oderwanych gron
prawdopodobieństwem 0,0 < p < 1,0. Kształt otrzyma­
nej struktury zależy znacząco od wybranego prawdopodo­
bieństwa p . Oczywiście dla p — 0 nie otrzymujemy niczego,
podczas gdy dla p = 1 wypełniony zostanie cały trójkąt. Dla
pośrednich wartości p obiekt ma pewną gęstość5, która wzra­
sta wraz z p. Początkowo, dla małych wartości p, dostajemy
tylko trochę rozrzuconych plamek. Dla większych wartości
prawdopodobieństwa plamki robią się coraz większe, aż
w końcu dla pewnej wartości krytycznej p —pc plamki skle­
ja ją się w jedną dużą nieregularną całość. Dalszy wzrost
prawdopodobieństwa powoduje tylko pogrubianie grona.
Kiedy struktura zmienia się ze zbioru wielu rozłącznych
Per kolacja —
p rzep ływ sta je części w zasadniczo jeden duży konglomerat, mówimy, że
się m ożliw y zachodzi zjawisko perkolacji Nazwa ta pochodzi od in­
terpretacji wypełnionych części jako otwartych kanalików.
5 Formalnie, średnia gęstość jest równa p.
7.2. Perkolacja: frakt ale i pożary w losowych lasach
4M
Załóżmy, że cała dwuwymiarowa płaszczyzna jest podzie­
lona regularną siatką takich kanalików, które są albo otwarte
(z prawdopodobieństwem p), albo zamknięte (z prawdopo­
dobieństwem 1 —p). Wybierzmy losowo jeden z otwartych
kanalików i spróbujmy w tym punkcie wstrzyknąć ciecz.
Co się stanie? Jeżeli struktura znajduje się „poniżej progu
perkolacji” , tj. jeżeli prawdopodobieństwo p jest mniejsze
niż pc, to oczekujemy, że ten kanalik będzie częścią stosun­
kowo małego grona otwartych kanalików. Przez grono ro­
zumiemy zbiór połączonych otwartych kanalików, które są
całkowicie otoczone przez kanaliki zamknięte. Oznacza to, że
poniżej wartości progowej będziemy mogli wstrzyknąć tylko
pewną skończoną ilość cieczy zanim grono się całkowicie
wypełni, i ani kropli więcej. Jeżeli p znajduje się powyżej
wartości progowej, to z dużym prawdopobieństwem (pra­
wie na pewno — przyp. tłum.) odpowiadające mu grono
będzie nieskończenie duże. Przykład praktyczny to woda
przesączająca się przez drobiny kawy i spływająca do dzban­
ka jako napar. Najciekawsze zjawiska zachodzą podczas
zwiększania się prawdopodobieństwa od pewnej wartości po­
niżej wartości progowej do wartości powyżej p c . Tak na przyklad prawdopodobieństwo, że kanalik wybrany losowo na­
prawdę należy do grona maksymalnej wielkości, zmienia się
przy p — p c z zera na wartość dodatnią. Co więcej, dokładnie
dla wartości progowej pc maksymalne grono jest fraktalem!
Jego wymiar można wyznaczyć doświadczalnie, a w pewnych
przypadkach także analitycznie.6
Zjawisko perkolacji można zilustrować na przykładzie
pożarów lasów. Węzły w skupiskach odpowiadają drzewom
w lesie, ogień zaś nie może przedostawać się przez przerwy
pomiędzy drzewami. A zatem pytanie, czy las znajduje się
poniżej czy powyżej wartości progowej, dla której następuje
perkolacja, jest zasadnicze. W pierwszym przypadku drzewa
są względnie rzadko rozrzucone i tylko mała część wszyst­
kich drzew się spali, podczas gdy w drugim przypadku pożar
spustoszy prawie cały las. Omówmy ten model trochę ob­
szerniej. Dla uproszczenia załóżmy, że las nie jest lasem
naturalnym i że drzewa zostały zasadzone w wierszach i ko­
lumnach pewnej sieci kwadratowej. Kiedy wszystkie węzły
6 Przyjemnym wprowadzeniem do tego tematu dla niespecjalistów
jest książka Dietricha Stauffera, Introduction to Percolation Theory,
Taylor & Francis, London 1985.
G roźne pożary
lasów pow yżej
w artości
progowej
7. Losowość w konstrukcjach fraktalnych
454
tej sieci są zajęte przez drzewa, sytuacja jest jasna — pożar
rozpoczęty gdziekolwiek rozszerzy się na cały las (chyba,
że zostanie zakłócony przez silne wiatry albo strażaków,
czego nie bierzemy pod uwagę w tym modelu). A zatem
rozpatrzymy ciekawszy przypadek, kiedy każdy węzeł sieci
?f§_ 9 9 9 9 9 . f f U t f f t
2 -9 9 9 -9 -9 - -1 -9 9 9 -9 -9 __ 9 9 9 9 - 9 9 - — 4 4 4 4 - 4 4 2 __ 9 9 9 9 - 9 - 1 __9 9 9 9 - 9 2 9 9 9 9 9 1 - 4 4 — 4 4 4 -.
3 9 9 9 9 9 9 - 9 9 1 S 9 9 9 9 9 -9 9 .
9 9 -9 9 9 -9 9 -9 9 -9 9 9 -9 9
a .9999 .99 . 1 - 9 9 9 9 - 9 9 - .
-9 9 9 9 -9 -9 9 -9 9 9 9 -9 -9 9
____ 9 9 — 9 9 ____ 9 9 — 9 9
kroki
krok 0
-9 9 9 -9 9 9 9 9
^ .- 9 9 9 - 9 - 9 - + - 4 4 4 - 4 - 4 ę ę ę ę ęę
9#99 9 9
. __ 3 9 9 9 -9 . + 1&44 9
^ 2 __ 9 9 9 - JL-- i.-L--- JMMP-^ ^ 1 2 9 - 9 9 . ,m-l+++J$-44.
- ^ - 9 . 9 9 - 9 9 -+ + -!$ 9 -9 9
^ - 2 2 9 9 - 9 9 - -l l 1 $ 9 - 9 9 - .
-9 2 9 9 -9 -9 9 „31 2 9 -9 -9 9
____ 9 9 — 9 9 ____ 9 9 — 9 9
krok 6
krok 5
- 2 ^ - 9 9 9 9 9 - I jl-l- 9 9 9 9 9
-L—L-L-L-9-9-. JL-- L-L-L_^ ------ ^ ^ . - 9 9 - ___L-L-L-L_-i 3 --L-L-L-L /
_____L^L^L-L-2- -L
_A-—
A._i-_i-_i_ £4 JL-L-L i Ł-L-L-- ¿3.
-++-+^L +- ^ 9
^ - ^ ^ - 9 9 - .JL-- L-L-L—
L—.i-i-^^-9 -9 9 -^^ -9 -9 9
_______ ^ 2 — 9 9 ____ —
A
.Jl__ 9 9
krok 11
krok 10
- ^ ^ - 9 . 2 2 ^ 2 _L-L-L_Ql-L-L-L.
+ ___ L-L-L— i ----- L--- -L—LJ.J.-#___
___L++—L----- LJ--L. - JL_iL-A-—
i- _L ..
999 99999
+ -4 4 4 -4 -4 ę ę ę ę ę ę — 91 9 9 - 9 9 .
9999 99 .
i
9
+__ 9 9 9 9 - 9 - ^ __ 9 9 9 9 - 9 999
+ -4 4 — 4 4 4 - ^ - 2 9 __ 999 _L 1 2
+ 1& 4444-44 ^ ^ J .3 9 9 9 -9 9 . -a—
l-l2 2 9 9 —99.
_3 9 - 9 9 9 - 9 9 1 2 9 9 9 -9 9 . , / ę ę ę ę ę
9999- 99+ -9 9 9 9 -9 9 -9 9 9 9 -9 -9 9 . -9 9 9 9 -9 -9 9
____ 9 9 — 9 9 ____ 9 9 — 9 9 _______
krok 4
krok 3
krok 2
- 9 9 9 - 9 9 9 9 9 - f f S L M M * . 921 9 9 9 9 9
+ - 9 S 9 - 9 - 9 - ^ .- 2 1 2 - 9 - 9 - -l- 2 - l2 - 9 - 9 l2 - 9 9 _
2+ 12 9 9 .
99
+___ l1&9—9 — ^ ___ ^ 2 2 - 9 - ^__ -l-l-l2 - 9 + ++ 3JM . -l—. . — ¿a.j~ -L_LL---- l2 2
++^^++1-44. ._i—. i . —99. Jl++++++-+ + -+ 1 S -9 9 - l-u— l-l.1 -9 9 - ^ - ^ - 9 9
+ -^ + l$ -9 9 9 -h
-1 + 1 2 -9 -9 9 t l ^ l - 9 - i i .
____ 9 9 — 9 9 ____ 2 9 — 9 9 ____ 2 2 — 9 9
krok 8
krok 9
krok 7
__ L-L-L_99999. -+ + + -4 4 4 S 4 - l^ - 9 9 2 2 2
+- +-L+.__9_3_ +—+++—i -- L-. +_LAJ._^ ---L_
___L+++- # ! - .
+__ LJL++-- L-_i—i---L++_L3 __ L.—i----- L-L-L___ 1_L. __ L+___ L++ ___L_A
+-++++.-9$-. -L—L-L-L-L-22- + - + + + + - ! + - ^ + j.^ - 9 - 9 9 . - ul-l-l-l- 9 - 2 9 . - j . -j ^ - 9 - I S .
_____ L+— 9 9 _______ ^ — 9 9 _______ ++— $ 4
krok 14
krok 13
krok 12
---- L-L-L___ L++-L +.
^
__ L
9
drzewo
+ . - J -- L+ -L -—
L
płonące drzewo
+ ++
-+ + + .
__ i_JL
_A
._AA.----- L+ __ L-L_L-L-L---L _jL ---- 1—Ł------Ł_X_L-----L.-L.
+ __ A.+ + -L__ il_iL_ -L___ L-L-L-L_i_i.--_L-L-L-L_9 ---L-L _L-L-LJ_i __L_A> ---- i—1—L + _. i ___ L+
_________ L+ — 1 S
krok 15
krok 16
kroklT^^
wypalone drzewo
A.
pieniek
Rysunek 7.9: W tym ciągu rysunków pokazano 17 kroków roz­
przestrzeniania się pożaru lasu symulowanego na sieci 10 x 10.
Drzewa zostały początkowo umieszczone w węzłach sieci z praw­
dopodobieństwem 0,6 i podpalone po jednej (lewej) stronie sieci
(krok 0). Po 17 krokach las jest martwy; przeżyło tylko pojedyn­
cze drzewo.
A U ia L j a .
ii
c iii t / a i u
i
vy
iw u u
yv i i
la o c tw i
jest zajęty przez drzewo z ustalonym prawdopodobieństwem
p < 1. Z płonącego drzewa ogień może się przerzucić tylko
na drzewa bezpośrednio z nim sąsiadujące. W sieci drzewa
znajdują się w czterech miejcach: po bokach, powyżej i poni­
żej płonącego drzewa. W żargonie fizycznym miejsca te na­
zywają się „najbliższymi sąsiadami” . W kwadracie o L 2
miejscach rozmieszczamy drzewa zgodnie z wybranym praw­
dopodobieństwem p i podpalamy. Przyjmijmy, że podpa­
liliśmy te drzewa, które zostały zasadzone wzdłuż lewego
boku kwadratu. W tym prostym modelu możemy symu­
lować, jak ogień się rozszerza. Posuwamy się w dyskretnych
krokach czasowych. W każdym kroku płonące drzewo pod­
pala te sąsiadujące drzewa, które się jeszcze nie palą. Po
wypaleniu się drzewo pozostawia pieniek, który od tego mo­
mentu przestaje się liczyć. Rzecz jasna, tego typu model
perkolacji nie pomoże wiele w zwalczaniu czy analizowaniu
prawdziwych pożarów lasów. Jest on wszakże bardzo do­
brym przykładem poglądowym wprowadzającym nas w tę
tematykę.
Jak długo trwa taki pożar? Jeżeli drzewa są bardzo Lasy w punkcie
rzadko rozrzucone — z powodu niewielkiego prawdopodo- perkolacji palą
bieństwa p — pożar nie ma wiele materiału do spalenia się najdłużej
i zamiera bardzo szybko, pozostawiając większość lasu nie­
tkniętą. Z drugiej strony, jeżeli las jest bardzo gęsty (p
jest duże), to ma niewielką szansę przeżycia. Praktycznie
cały las zostanie zniszczony. Co więcej, stanie się to raczej
szybko; w nie więcej niż L krokach ogień przemknie przez
cały kwadrat, nie zostawiając prawie niczego poza poczer­
niałymi pieńkami. Musi istnieć pewna pośrednia wartość
prawdopodobieństwa, która prowadzi do maksymalnego cza­
su trwania pożaru lasu. Rysunek 7.10 przedstawia zależność
trwania pożaru lasu od jego gęstości.
Na diagramie widać ostry wierzchołek w pobliżu wartości
prawdopodobieństwa 0,6 : jest to wartość progowa dla per­
kolacji. Wierzchołek ten jest istotnie bardzo stromy: jeżeli
zwiększamy wielkość lasu, tj. liczbę L wierszy i kolumn, to
amplituda7 wierzchołka wzrasta nieograniczenie. W języku
matematycznym powiemy, że w momencie perkolacji istnieje
osobliwość. Prawdopodobieństwo odpowiadające perkola7 Amplituda będzie wzrastać szybciej niż szerokość lasu L , ale nie
tak szybko jak pole powierzchni L 2.
456
7. Losowość w konstrukcjach fraktalnych
C zas trw an ia
pożaru lasu
/
R ysunek 7.10: Średni czas trwania pożarów lasów, symulowa­
nych na sieciach kwadratowych o 20 rzędach (krzywa dolna), 100
rzędach (krzywa środkowa) i 500 rzędach (krzywa górna). Dla
każdego z punktów wykresu symulację przeprowadzono 1000 razy
i uśredniono. Im większą sieć wybrano, tym wyraźniejszy na wy­
kresie czasu trwania pożaru jest wierzchołek w pobliżu wartości
progowej perkolacji (p « 0,60)
cji bardzo starannie zmierzono eksperymentalnie, za jego
wartość przyjęto pc & 0,5928.
Należałoby teraz przeanalizować własności skali dla czasu
trw ania pożaru. Jak długo ogień będzie się palił, jeżeli wiel­
kość sieci rośnie nieograniczenie? Są tu taj trzy zupełnie
różne przypadki odpowiadające kolejno p < pc, p = pc
i p > pc. Na progu perkolacji możemy dostrzec zależność
zgodną z prawem potęgowym o niecałkowitym wykładniku
— dowód istnienia struktury fraktalnej.
Wielkością, którą dogłębnie przestudiowano, jest wiel­
M ak sym aln a
w ielkość kość maksymalnego grona (skupiska). Jest ona ściśle zwią­
skupiska drzew zana z czasem trw ania pożaru. Oznaczmy przez M (L ) liczbę
drzew w największym gronie dla sieci o średnicy L. Wiel­
kość grona będzie zmieniać się wraz z L, co uwzględniliśmy
/.z.
jT W A oićŁ u/żi: n c i i i i ć t i c i
p u z c tiy w lu a u w y c u la a a cu
± o t
przy zapisie. Wygodniejsza dla nas będzie znormalizowana
miara maksymalnego grona. Jest ona dana przez prawdo­
podobieństwo tego, że węzeł sieci, wybrany losowo, należy
do maksymalnego grona. Oznaczymy je przez P l (p )• Zależy
ono od prawdopodobieństwa p oraz (w mniejszym stopniu)
od rozmiaru sieci L. W celu oszacowania P l {p ) możemy
uśrednić względną wielkość grona M ( L ) / L 2 względem wielu
realizacji losowego lasu. Przy coraz większych sieciach za­
leżność od L zmniejsza się. Innymi słowy będziemy badać
granicę
Poo(p) = lim P l (p ).
L—^oc
Dla niewielkich wartości p prawdopodobieństwa P l ( p ) są za_
niedbywalne, a w granicy przy L — ►oo dążą do zera. Ale
istnieje wartość krytyczna — właśnie wartość progowa pc —
powyżej której Poo(p) szybko wzrasta. Innymi słowy, jeżeli
p jest większe od wartości progowej, to maksymalne grono
jest nieskończone i składa się z prawie wszystkich węzłów
sieci, natomiast przy p < pc prawdopodobieństwo tego, że
losowo wybrane miejsce należy do maksymalnego grona, jest
zaniedbywalne.
Dla wartości progowej prawdopodobieństwa wartość P rzejście fazowe
Pl {p ) gwałtownie wzrasta. W rzeczywistości, dla p trochę dla w artości
większego niż pc prawdopodobieństwo Poo{p) zmienia się8 progowej
jak funkcja potęgowa z wykładnikiem (3 = ^
P o o ip )
OC (P
- P c
y3-
W języku naszego symulowanego pożaru lasu możemy rów­
noważnie rozważać względną część wypalonych drzew po
zakończeniu pożaru (zob. rysunek 7.11). Blisko wartości
krytycznej pc następuje jej ostry wzrost, który staje się le­
piej widoczny dla sieci o większej liczbie wierszy. Efekt ten
jest również nazywany przejściem fazowym, tak samo jak
podobne zjawiska w fizyce. Na przykład przy ogrzewaniu
wody przejście fazowe od cieczy do gazu zachodzi przy 100
stopniach Celsjusza.9
8 Symbol „oc” oznacza „proporcjonalny do”.
9 W warunkach normalnych.
458
7. Losowość w konstrukcjach fraktalnych
P rzejście fazowe
w m om en cie
perkolacji
R ysunek 7.11: Wykres pokazuje prawdopodobieństwo tego, że
symulowany pożar osiągnie węzeł, w którym rośnie drzewo. Od­
powiada on danym z rysunku 7.10. Wielkości sieci (liczby rzędów)
są równe 20, 100 i 500. Poniżej wartości progowej prawdopodo­
bieństwo tego, że konkretne drzewo zostanie spalone maleje do
zera wzraz ze wzrostem wielkości sieci. Powyżej wartości progowej
względna część drzew spalonych wzrasta asymptotycznie zgodnie
z pewną funkcją potęgową
Z obserwacji tej możemy wyciągnąć pewne wnioski co
Fraktal zw any
p rogow ym do wielkości maksymalnego grona: jeżeli p > pc, to dodat­
skupiskiem nie prawdopodobieństwo Poo(p) implikuje, że wielkość grona
perkolacji zmienia sie jak L 2. Z drugiej strony dla p < p c możemy wy­
sunąć hipotezę, że prawdziwa jest pewna zależność potęgo­
wa, czyli że wielkość ta jest proporcjonalna do L D dla pew­
nego D < 2. Wskazywałoby to na fraktalną strukturę ma­
ksymalnego grona. Jednakże będzie to prawdziwe tylko dla
jedynej, specjalnej wartości p, mianowicie dokładnie dla war­
tości progowej p = pc. Fraktalne grono dla wartości progowej
jest często nazywane progowym skupiskiem perkolacji (incipient percolation cluster). Jego wymiar został zmierzony
i .z . r c r u o i a c j a : n c t K i a w i p o ż a r y w l o s o w y c u l a s a c n
*±oy
i jest równy D & 1,89. Dla wartości poniżej p c wielkość
maksymalnego grona zachowuje się tylko jak log(L).
Analiza, jaką przeprowadziliśmy, nie stanowi całej praw- Inne asp ek ty
dy o perkolacji. Istnieją na przykład inne sieci. Możemy roz- zjawiska
patrywać sieci trójwymiarowe czy nawet cz ter owy miarowe, perkolacji
Możemy także wprowadzić inne relacje sąsiedztwa. Istnieje
też wiele wielkości, którymi warto się zainteresować, a róż­
nych od pc, D czy POG(p). Taką wielkością jest na przykład
długość korelacji (correlation length) £. Jest ona zdefinio­
wana jako średnia odległość pomiędzy dwoma węzłami na­
leżącymi do tego samego grona. Kiedy p zbliża sie do p c
od dołu, długość korelacji £ rośnie przekraczając wszystkie
granice. Wzrost ten znów opisuje się funkcją potęgową
£ OC \ p - p c\—V
o wykładniku v równym 4/3 dla sieci dwuwymiarowych.
Długość korelacji jest istotna przy symulacjach numerycz­
nych. Dopóki średnica sieci L jest mniejsza niż długość ko­
relacji, wszystkie grona wyglądają jak fraktale o tym samym
wymiarze. Dopiero gdy średnica sieci jest dostatecznie duża
(L
£), jest możliwe stwierdzenie, że dla p < p c wszystkie
grona są w istocie skończone i m ają wymiar zero.
Należy zwrócić uwagę, że wartość progowa pc zależy od P ew n e stałe są
wyboru konkretnego modelu, np. od typu sieci i od rela- uniw ersalne
cji sąsiedztwa w jej węzłach. Jednakże wykładniki poja­
wiające się w prawach potęgowych, opisujących zachowanie
wielkości, takich jak długość korelacji w pobliżu progu perko­
lacji, nie zależą od tego wyboru. A zatem wielkości charak­
teryzujące ten typ zachowania, takie jak wykładniki u i £,
czy wymiar fraktalny grona, nazywane są uniwersalnymi
Wartości wielu stałych, na przykład pc w 0,5928 i D & ■
1,89, są jednak tylko przybliżeniami otrzymanymi w wy­
niku złożonych obliczeń komputerowych. Pasjonującym za­
gadnieniem jest wyprowadzenie metod dokładnego oblicza­
nia tych stałych. Nie możemy w tym miejscu wchodzić
w szczegóły — wiele problemów, jeszcze otwartych, jest te­
matem aktywnych badań.
Na zakończenie tego paragrafu powróćmy do sieci trój- W racam y
kątnej, od której zaczynaliśmy, a dla której motywacja po- od sieci
chodziła od trójkąta Sierpińskiego. W tym przypadku też kw adratow ych
możemy zdefiniować analogiczne wartości: M (L), Pl(p) do trójkątnych
460
7. Losowość w konstrukcjach fraktalnych
i Poo{p)* Pierwsze numeryczne oszacowania z roku 1960 wska­
zywały, że wartością progową perkolacji jest około 0,5. A po­
tem minęło około 20 lat zanim pierwszy nieścisły argument
zastąpiono pełnym dowodem matematycznym faktu, że p c
jest równe właśnie 0, 5. Co więcej zostało pokazane, że wy­
miar fraktalny progowego skupiska perkolacji równy jest
91
(porównaj rysunek 7.12). Jest to mniej więcej taka sama
wartość jak ta, którą uzyskano numerycznie dla kwadra­
towej. A zatem postawiono hipotezę, że jest to poprawny
wymiar progowego skupiska perkolacji dla wszystkich sieci
dwuwymiarowych.
W ym iar
fraktalny
progow ego
skupiska
perkolacji
R ysunek 7.12: Wymiar fraktalny D progowego skupiska per­
kolacji w sieci trójkątnej został wyznaczony na podstawie wykresu
logarytmicznego, przedstawiającego zależność wielkości grona
M(L) od wielkości sieci L. Wartość progowa perkolacji wynosi
pc = 0, 5. Nachylenie linii prostej interpolującej wyniki potwier­
dza wartość teoretyczną D = | | (rysunek zaadaptowany z książki
D. Stauffera, Introduction to Percolation Theory. Taylor & Fran­
cis, 1985)
i.z. rermiacja: iraKtaie i pożary w iosowycn iasacn
¿ŁOI
R enorm alizacja
w ęzłów w sieci
trójkątnej
Rysunek 7.13: Trzy sąsiadujące ze sobą komórki łączą się
w jeden superwęzeł. Superwęzeł jest zajęty, jeżeli dwa albo
trzy z małych węzłów są zajęte. Superwęzły tworzą nową sieć
trójkątną, która jest obrócona o 90 stopni w stosunku do sieci
wyjściowej. Pomniejszenie zamyka jeden cykl renormalizacji (zob.
przykłady na rysunku 7.15)
Zamiast analizować dowód rezultatu, że p c — 0,5, może­ Technika
my postarać się o inny interesujący argument, który otwiera renorm alizacji
drogę nowej metodzie analizowania fraktali, a o którym nie
mówiliśmy do tej pory: renormalizację. Jednym z kluczy do
zrozumienia fraktali jest ich samopodobieństwo, które poja­
wia się przy odpowiednim powiększaniu badanego obiektu.
Czy istnieje podobny sposób rozumienia progowego fraktalnego skupiska per kolacji? Odpowiedź jest twierdząca i nie
jest to wcale trudne do zbadania, przynajmniej dla sieci
trójkątnej. Twierdzimy, że pomniejszona kopia skupiska wy­
gląda, ze statystycznego punktu widzenia, tak samo jak pier­
wowzór. Ale jak możemy porównywać obie kopie? W tym
celu systematycznie zastępujemy węzły sieci odpowiadają­
cymi im superwęzłami. W sieci trójkątnej naturalne jest
połączenie trzech sąsiadujących węzłów w jeden superwęzeł.
Ten superwęzeł dziedziczy informację po swoich trzech po­
przednikach — mianowicie informację, czy jest zajęty, czy
nie. Najnaturalniejszą zasadą dla tego procesu jest zasada
większości; jeżeli co najmniej dwa z trzech pierwotnych węz­
łów są zajęte, to — i tylko w tym przypadku — superwęzeł
jest zajęty. Rysunek 7.13 ilustruje tę procedurę, jak również
geometryczne rozmieszczenie węzłów. Superwęzły z kolei
tworzą nową sieć trójkątną, której wielkość możemy teraz
pomniejszyć, co pozwoli na porównanie z siecią wyjściową.
Koncentracja węzłów zajętych dla zrenormalizowanej sieci
— nazwijmy ją pf — nie będzie w ogólnym przypadku taka
462
7. Losowość w konstrukcjach fraktalnych
sama jak dla wyjściowej sieci. Na przykład gdy p jest nie­
wielkie, w sieci znajduje się tylko trochę izolowanych węzłów
zajętych, których większość zniknie w procesie renormalizacji; a zatem pl < p. Na drugim końcu skali, kiedy p jest
duże, będzie się tworzyć znacznie więcej superwęzłów, co spo­
woduje wypełnienie luk pozostawionych w pierwotnej sieci,
czyli p! > p . Jedynie dla wartości progowej możemy spodzie­
wać się podobieństwa. W tedy zrenormalizowane supergrono
powinno być takie samo jak poprzednio, innymi słowy10
p'=pW tym przypadku mamy szczęście: możemy obliczyć, dla
jakiej wartości prawdopodobieństwa p zachodzi powyższa
równość! Superwęzeł będzie zajęty, jeżeli trzy pierwotne
węzły będą zajęte, albo gdy dokładnie jeden pierwotny węzeł
nie będzie zajęty. Prawdopodobieństwo tego, że węzeł jest
zajęty, wynosi p. A zatem pierwszy przypadek zachodzi
z prawdopodobieństwem p3. W drugim z przypadków praw­
dopodobieństwem tego, że dany węzeł jest zajęty podczas
gdy inne dwa nie są, jest p2(l —p). Są trzy takie możliwości.
Sumując otrzymujemy
p' = p3 + 3p2(l - p )
jako prawdopodobieństwo tego, że superwęzeł będzie zajęty.
Jesteśmy już prawie u celu. Dla jakiego p mamy p f — p?
W celu uzyskania odpowiedzi musimy rozwiązać równanie
p = p3 + 3p2(l - p )
albo, równoważnie,
p3 + Sp2(l - p) — p = 0.
Łatwo sprawdzić, że
p3 + 3p2(l - p ) - p = - 2 p{p - 0 ,5)(p - 1).
A zatem istnieją trzy rozwiązania, p = 0, p — 0,5 oraz
p — 1. Spośród tych trzech rozwiązań dwa nie są intere­
sujące, mianowicie p — 0 i p = 1. Las bez drzew (p = 0)
10 Widzimy tutaj godną uwagi interpretację samopodobieństwa,
w języku punktu stałego procedury renormalizacyjnej. Te pomysły
z teorii renormalizacji okazały się wyjątkowo owocne w teorii zjawisk
krytycznych w fizyce statystycznej.
{.z. jrerKoiacja: iramaie i pożary w iosowycn iasacn
¿400
renormalizuje się do lasu bez drzew, co nikogo nie dziwi.
Podobnie las nasycony (p = 1) nie zmienia się podczas renormalizacji. Natomiast trzecie rozwiązanie, p = 0,5, jest
tym, którego szukamy. Odpowiada ono nietrywialnej kon­
figuracji, tzn. lasowi o takiej strukturze, która po renormalizacji jest wciąż statystycznie taka sama. Superwęzły są
zajęte z takim samym prawdopodobieństwem 0,5 jak węzły
pierwotnej sieci. Na tym właśnie polega oczekiwane samopodobieństwo dla wartości progowej param etru p. Tak więc
elementarny argument renormalizacyjny pozwolił łatwo wy­
kazać, że pc — 0,5, co pozostaje w zgodności z jego rzeczy­
wistą wartością.
Dla wartości progowej renormalizacja niczego nie zmie­
nia, nawet gdy zostanie zastosowana wielokrotnie. Własność
ta nie jest prawdziwa dla żadnej innej wartości prawdopodo­
bieństwa 0 < p < 1. Do zbadania efektu wielokrotnej renormalizacji trzeba rozważać coś na kształt sprzężenia zwrot­
nego, które wiąże prawdopodobieństwa tego, że węzeł jest
zajęty przed renormalizacją i po niej. A zatem musimy
rozważać iteracje wielomianu trzeciego stopnia
p -> p 3 + 3p2(l - p ) .
Możemy ułatwić sobie ich analizę przez wykonanie odpowie­
dniego diagramu (zob. rysunek 7.14). Od razu widać, co się
P rzek ształcen ie
renorm alizacji
Rysunek 7.14: Graficzne iteracje przekształcenia renormalizacji
sieci trójkątnej p — ►
p3 + 3p2(l —p)
464
7. Losowość w konstrukcjach fraktalnych
dzieje. Startując z początkowego prawdopodobieństwa po <
< 0,5, iteracje zbiegają do 0, podczas gdy początkowe praw­
dopodobieństwo po > 0, 5 doprowadza do granicy równej 1.
Jedynie dla wartości krytycznej pc = 0, 5 otrzymujemy dy­
namikę różną od dwóch powyższych, mianowicie punkt stały.
R e n o rm a liz a c ja
Przez
zastosowanie metody renormalizacji możemy
ja k o n a rz ę d z ie sprawdzić, czy dana sieć znajduje się poniżej czy powyżej
b a d a w c z e wartości progowej. Przeprowadźmy procedurę renormaliza­
cji kilkakrotnie. Jeżeli obraz zbiega do konfiguracji pustej
(bez zajętych węzłów), to param etr p odpowiada sieci znaj­
dującej się poniżej wartości progowej. Jeżeli po długim cza­
sie wszystkie węzły wydają się zajęte, to pierwotna sieć znaj­
duje się powyżej wartości progowej. Metodę tę zilustrowano
na rysunku 7.15. Na pierwszy rzut oka nie jest wcale ja­
sne, która z trzech konfiguracji w najwyższym rzędzie jest
poniżej, a która powyżej progu perkolacji. Renormalizacja
ujawnia tę informację już po trzech krokach.
Sieć trójkątna jest przypadkiem szczególnym. Zastoso­
wanie tej techniki do innych sieci pozwala oczekiwać jedynie
przybliżeń wartości pc. Jest godne uwagi, w jaki sposób ten
pomysł doprowadził do nowego podejścia do bardzo trud­
nego problemu wyznaczenia parametrów perkolacji. Zasadę
renormalizacji wprowadził w roku 1966 fizyk Leo P. Kadanoff
w związku ze zjawiskami krytycznymi w innej dziedzinie fi­
zyki teoretycznej. Renormalizacja doprowadziła w końcu do
wyników ilościowych i pozwoliła wyjaśnić w sposób zadowa­
lający pewien mechanizm przejść fazowych. Mimo wszystko
droga od pomysłu renormalizacji do jej konkretnej, ostatecz­
nej postaci była tak ulotna, że Kadanoff jej nie znalazł. Do­
piero Ken G. Wilson z Uniwersytetu Cornella w roku 1970
pokonał trudności i rozwinął metodę renormalizacji w taki
sposób, że stała się ona narzędziem, które sprawdziło się
w niezliczonych zastosowaniach. Około dziesięciu lat później
za swoją pracę został uhonorowany nagrodą Nobla.
To, co się dzieje dla wartości progowej perkolacji, czy
też ogólniej dla punktu stałego renormalizacji, ma swój od­
powiednik w konstrukcjach fraktalnych. Przypomnijmy na
przykład konstrukcję krzywej Kocha, gdzie przedmiot badań
musi być zmniejszany w każdym kroku konstrukcji o czyn­
nik s = J. Jeżeli zmniejszalibyśmy o czynnik s <
to
w granicy otrzymalibyśmy tylko punkt. Z drugiej strony,
zmniejszanie w każdym kroku o czynnik s > | doprowadza
i .¿ 1 .
i
CI iYL/lCtCJ C
L.
11 C LJ\
Id iC
1 ¡ J U / j C II \
W
lU a U W J L .ll
ICtDClCil
Rysunek 7.15: Trzy kroki renormalizacji dla trzech danych kon­
figuracji (w rzędzie górnym). Od lewej do prawej prawdopodo­
bieństwa wynoszą p = 0, 35 < pc, p —0, 5 = ps i p = 0, 65 > pc
466
7. Losowość w konstrukcjach fraktalnych
do nieograniczonego wzrostu. Jedynie jeżeli pomniejszamy
w każdym kroku dokładnie trzykrotnie, to dostaniemy inte­
resujący obiekt graniczny, wykazujący własność samopodobieństwa. W większości przypadków poza konstrukcją krzy­
wej Kocha wcale nie jest jasne, w jakiej „prawidłowej” skali
należy pomniejszać.11
Perkolacja jest szeroko stosowanym modelem i ma zasto­
sowanie do wielu zjawisk obserwowanych w naturze i w na­
ukach technicznych. Przykładem może być formowanie się
cieniutkich warstewek złota na amorficznym podłożu, gdzie
badany param etr odpowiada dostarczonej ilości złota.12 Dla
wartości progowej perkolacji warstewka metalu umożliwi
przepływ prądu. Z drugiej strony perkolacja ma zastoso­
wanie także w zjawiskach tego rozmiaru, co powstawanie
galaktyk czy nawet gromad galaktyk.
7 .3 . L o so w e fr a k ta le w e k s p e r y m e n c ie
la b o r a to r y jn y m
Istnieje bardzo wiele struktur fraktalnych, które można ob­
serwować w naturze i eksperymentach laboratoryjnych.13
W tym paragrafie skupimy się na jednym wyjątkowo inte­
resującym przykładzie — agregacji.
G rona
p o w sta ją ce
w w ynik u
agregacji
m ałych cząstek
Badania nad zlepianiem małych cząsteczek w wielkie
grona (makrocząstki), między innymi w chemii polimerów,
inżynierii materiałowej i immunologii, trw ają od długiego
czasu. O statnio im petu tym badaniom dodały pojęcia po­
chodzące z geometrii fraktalnej.14 W tym paragrafie przed­
stawimy tylko jeden eksperyment tego rodzaju, opisany
przez Mitsugu M atsushitę, a dotyczący procesu osadzania
elektrolitycznego, prowadzącego do powstania krzyształu
dendrytycznego (o strukturze drzewopodobnej). Ma on tę
11 Zobacz F.M.Dekking, Recurrent Sets, Adv. Math. 44, 78-104
(1982).
12 Zobacz R. Voss, Fractals in Nature, w: The Science of Fractal
Im ages, H.-O. Peitgen i D. Saupe (red.), Springer-Verlag, 1988, s. 3637.
13 E.Guyon i H.E.Stanley (red.), Fractal Form s, Elsevier/NorthHolland and Palais de la Decouverte, 1991.
14 Zobacz The Fractal Approach to Heterogeneous Chemistry: Surfa­
ces, Colloids, P olym ers, D. Avnir (red.), Wiley, Chichester 1989 i Ag­
gregation and G elation, F.Family i D.P.Landau (red.), North-Holland,
Amsterdam 1984.
467
7.3. Losowe fraktale w eksperymencie laboratoryjnym
zaletę, że aparatura do jego realizacji jest nieduża i łatwa
do zbudowania, a niezbędne odczynniki chemiczne są łatwo
dostępne i nie są niebezpieczne.15 Całe doświadczenie zaj­
muje tylko około 20 minut. Co więcej, może być przeprowa­
dzone bezpośrednio w sali lekcyjnej. Przebieg doświadczenia
można sfilmować i odtworzyć przy użyciu sprzętu video, a na­
wet pokazać na żywo przy użyciu tradycyjnego rzutnika.16
Z a c y tu jm y opis dośw iadczenia bezpośrednio z artykułu M a ts u s h ity :17
„ O sadzanie elektro lityczn e od daw na było je d n y m z najlepiej znanych
zjawisk w chem ii zjaw isk agregacji. D opiero o statn io przyciągnęło ono
uwagę z zupełnie innego pun ktu w idzenia — z pun ktu w idzenia ge­
om etrii frak ta ln ej. W praktyce procesy osadzania elektrolityczneg o
mogą być bardzo skom plikow ane, a pow stające osady m ogą mieć
różnorodną i złożoną stru kturę. Jednakże, jeżeli proces osadzania
m etalu jest kontrolow any przez pojedynczy proces, np. przez dyfuzję,
to zazw yczaj osady w ykazu ją s tru k tu ry statystycznie proste, sam opodobne, tj. fraktaln e.
W eksperym encie tym m etaliczn y cynk pod postacią znaną ja k o
„listki m etalicznego cynku” rósł w sposób dw uw ym iarow y. P rocedura
doświadczalna, której użyto do ich w yhodow ania była następująca:
płytkę Pet r iego o średnicy około 20 cm i głębokości około 10 cm
w ypełniono 2 m olam i w odnego roztworu Z n S 04 (o głębokości około
4 cm ), a następnie w arstw ą octanu n -b u ty lu [C H 3 C O O (C H 2) 3 C H 3].
M iędzy nimi w ytw orzyła się pow ierzchnia styku (rysunek 7 .1 6 ). C zu­
bek węglowej katody (w k ła d do ołów ka o średnicy około 0 ,5 m m )
starannie w ypolerow ano ta k , by był płaski w płaszczyźnie prostopadłej
do swojej osi. K ato d ę następnie um ieszczono w centrum płytki Petriego w taki sposób, że jej płaski czubek zn alazł się d okładn ie na
powierzchni styku (rysunek 7 .1 6 ). O sadzanie elektro lityczn e zostało
zapoczątkow ane przez przyłożenie prądu stałego pom iędzy w ęglową
katodę a cynkową anodę w kształcie pierścienia, o średnicy około 17
15 Rzecz jasna, po zakończeniu doświadczenia musimy z zachowa­
niem odpowiedniej ostrożności usunąć zużyte płyny (nie wylewać ich
do zlewu). Ponadto pomieszczenie, w którym przeprowadzane będzie
doświadczenie, musi mieć dobrą wentylację.
16 Światło rzutnika wpływa jednak na przebieg doświadczenia, które
udaje się najlepiej w stałej temperaturze (tworzą się duże listki meta­
licznego cynku). Radzimy zatem wyłączyć rzutnik na większość czasu.
Najlepiej jest filmować eksperyment kamerą video i obraz natychmiast
pokazywać na monitorze.
17 M.Matsushita, Experimental Observation of Aggregations, w: The
Fractal Approach to Heterogeneous Chemistry: Surfaces, Colloids, P o­
lymers, D. Avnir (red.), Wiley, Chichester 1989,
Osadzanie
elektrolityczne
o stru k tu rze
dendrytycznej
7. Losowość w konstrukcjach fraktalnych
468
Przygotow anie
eksperym entu
katoda
węglowa
\
anoda
cynkowa
octan n-butylu
roztwór cynku
R ysunek 7.16: W płytce Petriego roztwór siarczku cynku jest
pokryty cienką warstwą octanu n-butylu
R ysunek 7.17: Ten krzyształ dendrytyczny powstał już po 15
minutach trwania eksperymentu, przeprowadzonego przez Petera
Platha z Uniwersytetu w Bremie. Rysunek przedstawia mniej
więcej oryginalną wielkość. Kryształ dendrytyczny metalicznego
cynku wygląda bardzo atrakcyjnie
cm, szerokości około 2,5 cm i grubości około 3 mm, umieszczoną
w płytce Petriego. Listek metalicznego cynku rósł dwuwymiarowo
na powierzchni styku dwóch cieczy, poczynając od brzegu płaskiego
wierzchołka katody, w kierunku zewnętrznej anody. Miał on strukturę
t.ó. juosowe iraKiaie w eKsperymencie laoorazoryjnym
wy
nieskończenie się rozgałęziającą (rysunek 7 .1 7 ). Jeżeli w ierzchołek ka­
to d y byłby zaokrąglony albo zan u rzo n y w roztw orze Z n S C U , to osad
w zrastałby w roztw orze tró jw y m ia ro w o . Z a zw y czaj listki cynku do­
rastają do wielkości około 10 cm ju ż po około 10 m inutach stałego
napięcia wartości około 5 w o ltó w . T e m p e ra tu ra układu utrzym yw an a
była na stałym poziom ie, a je j w artość była bliska te m p e ra tu ry poko­
jow ej.
B adanie s tru k tu r frak ta ln yc h uzyskiwanych osadów i ich zm ian
m orfologicznych ma w ielkie znaczenie praktyczne. P rzedstaw ion e tu ­
ta j eksperym enty osadzania elektrolityczneg o są oczyw iście w ażne dla
pewnych procesów, takic h ja k m igracja m etalu na podłożu szklanym
czy ceram icznym , lub dla osadzania się cynku na katodach w różnego
rodzaju bateriach. W obu przypadkach w zrost osadów je s t głów nym
czynnikiem ogran iczającym żyw otność części elektronicznych i b ate­
rii.”
Modelowanie matematyczne osadzania elektrolitycznego
listków metalicznego cynku oparte jest na podstawowym
pojęciu: ruchu Browna. Ruch Browna związany jest z niere­
gularnym poruszaniem się małych cząstek ciała stałego za­
wieszonych w cieczy. Ruchy te mogą być zaobserwowane
jedynie pod mikroskopem. Wkrótce po odkryciu takich ru­
chów cząsteczek pyłku sądzono, że ich przyczyna jest na­
tury biologicznej. Jednakże około roku 1826 botanik Ro­
bert Brown zdał sobie sprawę, że właściwe wytłumaczenie
było natury fizycznej, a nie biologicznej. Efekt ten jest spo­
wodowany bardzo delikatnymi zderzeniami z otaczającymi
cząstkami. W eksperymencie elektrolitycznym jony cynku
wędrują losowo w roztworze, aż w końcu zostają złapane
przez przyciągającą węglową katodę. Dołączanie jonów cyn­
ku zachodzi z największym prawdopodobieństwem tam,
gdzie gęstość linii pola jest największa. Dzieje się to na po­
wierzchni styku pomiędzy roztworem a octanem, w szcze­
gólności na wierzchołkach dendrytu. Wyprowadzimy bar­
dzo prostą metodę symulacji komputerowej takiego ruchu
Browna, która również pozwoli nam przeprowadzić symula­
cję powyższego eksperymentu.
Symulacja agregacji cząstek limitowanej dyfuzją (DLA,
zang. diffusion limited aggregation), oparta na ruchu Browna
cząstek, nie jest tru d n a.18 Umieśćmy gdzieś, powiedzmy
w początku dwuwymiarowego układu współrzędnych, jeden
18 Model tutaj przedstawiany pochodzi z prac T. A. W ittena i L. M.
Sandera, Phys. Rev. Lett. 47, 1400-1403 (1981) i Phys. Rev. B 2 7 ,
5686-5697 (1983).
S y m u la c ja
a g re g a c ji
lim ito w a n ej
d y fu z ją (D L A )
470
7. Losowość w konstrukcjach fraktalnych
zarodek krystalizacji dendrytu (jedną cząstkę). Cząstka ta
nie może się poruszać. Następnie ustalamy, że proces będzie
przebiegał w obszarze kołowym, otaczającym ten zarodek.
Promień tego obszaru może być równy 100 lub 500 średnicom
cząstek. Na brzegu obszaru wypuszczamy swobodną cząstkę
i pozwalamy jej poruszać się w sposób losowy. Podczas jej
ruchu mogą zdarzyć się dwie rzeczy. Albo cząstka opuści
nasz obszar — w tym przypadku zapominamy o niej i wy­
puszczamy nową cząstkę w losowym punkcie brzegowym ob­
szaru — albo cząstka zostaje w obszarze tak długo, aż zbliży
się do zarodka. W tym drugim przypadku przyczepi się do
niego i także stanie się zarodkiem (co zachodzi z pewnym
prawdopodobieństwem). Postępowanie to jest następnie po­
wtarzane, i daje w efekcie rosnące grono połączonych cząs­
tek, które bardzo przypomina kryształy dendrytyczne pow­
stające w wyniku DLA przy osadzaniu elektrolitycznym,
(zob. rysunek 7.18).
W yn ik i
sym ulacji
R ysunek 7.18: Wynik symulacji numerycznej DLA, opartej na
ruchu Browna pojedynczej cząstki
Obliczenia praktyczne są zazwyczaj oparte na kwadrato­
wej sieci złożonej z pikseli, (zob. rysunek 7.19). Swobodna
cząstka może w jednym kroku przejść do jednego z czterech
sąsiednich pikseli. Dla dużego grona proces ten może trwać
bardzo długo i musimy stosować różne tricki, żeby go przy­
spieszyć. Na przykład, możemy pozwolić cząstce przemie­
szczać się o więcej niż jeden piksel w każdym kroku. Jest to
471
7.3. Losowe fraktale w eksperymencie laboratoryjnym
S y m u la c ja
e k s p e ry m e n tu
o s a d z a n ia elek­
tro lity c z n e g o
Rysunek 7.19: Symulowany dwuwymiarowy ruch Browna jest
używany jako model trajektorii jonów cynku w cieczy. Cząstki
przemieszczają się od piksela do piksela, aż w końcu „przycze­
piają się” do istniejącego dendrytu
możliwe, jeżeli nasza cząstka znajduje się względnie daleko
od grona. Mówiąc precyzyjniej, odległość, na ja k ą cząstka
może skoczyć, jest ograniczona przez jej odległość od po­
wstającego grona.
Na podstaw ie zapisów przebiegu zarówno prawdziwego P ro b le m y
eksperym entu elektrolitycznego jak i sym ulacji kom putero­
wej, możemy zadać wiele interesujących pytań.
1. Jaki jest w ym iar fraktalny kryształu dendrytycznego?
2. Rzecz jasn a gęstość cząsteczek m aleje wraz ze w zrostem
odległości od centrum d en drytu. Czy istnieje m atem a­
tyczna zależność (w postaci funkcji potęgowej) pom iędzy
gęstością a odległością?
3. Czy napięcie pom iędzy pierścieniową an o d ą a węglową ka­
to d ą w doświadczeniu wpływa na w ym iar fraktalny kry­
ształu? Jeżeli tak , to jak m ożna uwzględnić to w dośw iad­
czeniu?
4. W jaki sposób natężenie przepływ ającego prąd u jest zwią­
zane z wielkością pow stającego dendrytu?
Znaleziono odpowiedzi na niektóre z powyższych pytań,
ale badanie agregacji wciąż nie doprowadziło do zadowa­
lających wyników .19 Na przykład w ym iar fraktalny wie19 Zobacz artykuł przeglądowy H. Eugene’a Stanleya i P aula Meakina, M ultifractal phenom ena in physics and chemistry, Naturę 335,
405-409 (1988).
472
7. Losowość w konstrukcjach fraktalnych
lokrotnie mierzono w eksperymentach i symulacjach; oba
podejścia dały tę samą wartość 1, 7. Kiedy struktury dendrytyczne w zrastają w trzech wymiarach zamiast w dwóch, wy­
miar fraktalny wynosi około 2,4—2, 5. Badano także zależność
między rozmiarem a napięciem prądu (zob. rysunek 7.20).
Zależność
w ym iaru
fraktalnego od
p rzyłożon ego
napięcia
wym iar
fraktalny
D
1,9 •
*
.
1,8 •
•*
•*
v
. •** •••
I
1,7 ............* .....
•
1,6 -
* I
1,5 -
■
■
2
4
■
■
6
T
8
l
10
,
12
14
przyłożone napięcie
(w woltach)
R ysunek 7.20: Wykres pokazuje wyniki eksperymentalne wią­
żące wymiar fraktalny DLA z przyłożonym napięciem. Wydaje
się, że dla niskich napięć wymiar jest stały Następnie istnieje
napięcie krytyczne, powyżej którego wymiar gwałtownie rośnie
M atematyczny model agregacji limitowanej dyfuzją moż­
na rozszerzać i udoskonalać. W arte badania jest na przykład
prawdopodobieństwo zlepiania, wspomniane jakiś czas temu,
które określa, czy jon znajdujący się blisko dendrytu przy­
lepia się do niego, czy też wędruje dalej. Pozwala to na
zmiany w strukturach powstających w małej skali. Im mniej­
sze prawdopodobieństwo przyklejenia się, tym dalej w zagłę­
bienia dendrytu mogą wnikać cząstki, pogrubiając dendryt
i tworząc strukturę podobną do mchu.20
Badano pewne interesujące rozszerzenia prostego mo­
R ozszerzen ia
m o d elu D L A delu dla DLA. Zamiast śledzić ruch pojedynczej cząstki,
20 Jednakże dla większych skal wielkości struktura dendrytyczna
otrzymana przy małym prawdopodobieństwie zlepiania wcale nie wy­
gląda na „grubą”. Wymiar fraktalny, mierzony w dużej skali, nie zależy
od prawdopodobieństwa zlepiania.
7.4. Symulacja ruchu Browna
możemy równocześnie rozważać wiele cząstek.21 Ponadto,
równoważnie, możemy pozwolić drzewiastemu gronu poru­
szać się i wyłapywać przy tym cząstki, które znajdą się w są­
siedztwie. Istnieje inny model DLA, pozornie nie związany
z powyższym modelem. Zamiast śledzić cząstki rozwiązu­
jemy równanie, które odzwierciedla jednoczesny ruch nies­
kończenie wielu cząstek. A zatem zamiast pojedynczych
cząstek rozważamy pewną ciągłą funkcję gęstości. Równanie
rządzące potencjałem elektrostatycznym jest równaniem róż­
niczkowym cząstkowym, znanym jako równanie Laplace’a.
Agregacja zachodzi wzdłuż brzegu dendrytu, gdzie gradient
potencjału jest największy. Czasami więc fraktale, takie jak
skupiska DLA, są nazywane fraktalami Laplace’a. W mo­
delu tym łatwo jest wprowadzić param etr kontrolujący jego
wymiar. 22
Zjawiska podobne do omawianej tu taj agregacji poja­
wiają się we wszystkich skalach wielkości: w rozkładzie ga­
laktyk jak i w mikrokosmosie. Obok agregacji limitowanej
dyfuzją i per kolacji, o których już mówiliśmy, częściowa li­
sta zjawisk z tym związanych musi zawierać molekularne
powierzchnie fraktalne, lepki przepływ w ośrodkach porowa­
tych oraz chmury lub obszary opadu deszczu.23
7.4. S y m u la cja ru ch u B r o w n a
Ruch Browna jest nie tylko ważną częścią modelu agrega­
cji limitowanej dyfuzją, ale może służyć także za podstawę
dla wielu innych modeli naturalnych kształtów fraktalnych,
takich jak na przykład krajobraz. Aby badać te modele,
musimy lepiej zrozumieć ruch Browna i jego uogólnienia.
W tym i następnym paragrafie przyjrzymy się dokładniej
ruchowi Browna i metodom jego symulacji.
Zanim sformułujemy rezultaty i ich uogólnienia, uproś­
cimy model i będziemy rozważać ruch Browna dla jednej
21 Zobacz R.F, Voss i M. Tomkiewicz, Computer Simulation of Den­
dritic Electrodeposition, J. Electrochem. Soc. 132, 2, 371-375 (1985).
22 Zobacz L.Pietronero, C. Evertz, A.B. Siebesma, Fractal and multufractal structures in kinetic phenomena, w: Stochastic Processes in
Physics and Engineering, S.Albeverio, P.Blanchard, M. Hazewinkel,
L.Streit (red.), D. Reidel Publ. Co., 1988, s. 253-278,
23 Te i inne zjawiska są omawiane z fizycznego punktu widzenia
w książce Fractals napisanej przez J. Federa, Plenum Press, New York
1988.
473
474
7. Losowość w konstrukcjach fraktalnych
tylko zmiennej przestrzennej. Tym samym ruch cząstek zo­
staje ograniczony do prostej. Maleńkie oddziaływania mo­
lekularne wpływają na cząstkę jedynie z prawa albo z lewa,
powodując jednostkowe przemieszczenie w jednym z tych
kierunków. Czy możemy w jakikolwiek sposób przewidzieć,
jakie będzie całkowite przemieszczenie po pewnej liczbie kro­
ków, powiedzmy, po n krokach? Jeżeli tak, to będziemy
mogli również symulować ruch Browna dla dłuższych prze­
działów czasu, obniżając tym samym koszt symulacji.
Rozwiążmy ten problem, nie jest on trudny. Przede
Średnie
p rzem ieszczen ie wszystkim musimy zdać sobie sprawę, że nie ma sensu pytać
kw adratow e o całkowite oczekiwane przemieszczenie, tzn. przemieszcze­
nie cząstek uśrednione względem wielu prób. Byłoby ono
równe zeru, ponieważ wszystkie jednostkowe przemieszcze­
nia poszczególnych cząstek są równe +1 lub —1, każde z praw­
dopodobieństwem równym 0,5. A zatem, średnio biorąc,
całkowite przemieszczenie musi być równe zeru. Zamiast
nich rozważamy kwadraty przemieszczeń, liczby nieujemne.
Średnia z kwadratów przemieszczeń, zwana średnim prze­
mieszczeniem kwadratowym, mówi nam, jak bardzo cząstki
rozprzestrzeniły się (w danej liczbie kroków). Wynikiem
tego obliczenia jest n, liczba kroków. A zatem im więcej
kroków, tym dalej rozprzestrzenią się cząstki. Co więcej, uj­
rzeliśmy tę relację ilościowo — średnio biorąc, kwadrat prze­
mieszczenia jest równy liczbie kroków.
W yznaczenie
średniego
przemieszczenia
kwadratowego
A b y obliczyć średnie przem ieszczenie kw adratow e, przez di, ¿2 , ...,
o zn ac zm y n przem ieszczeń jed n o stko w ych . R o zw ażam y wielkość
n
dn
n
(di + ¿2 + *■*+ dn)2 = 'y ^
dkdi
k = l 1=1
(je s t to k w a d ra t sum y n przem ieszczeń je d n o s tk o w y c h ). Ł atw o jest
przeanalizow ać poszczególne składniki sum y po prawej stronie, dkdi.
K ażd e z di rów ny je s t + 1 alb o —1 z ta k im sam ym praw dopodo­
bieństw em 0 ,5 , a co w ięcej, czynniki te są niezależne, gdy k ^ L
W y n ik a stąd, że przy obliczan iu iloczynu m ożliw e są cztery przy­
padki, w szystkie jed n ak o w o praw dopodobne, ja k zostało to wypisane
w ta b e li.
dk
di
dkdi
1
1
-1
-1
1
-1
1
-1
1
-1
-1
1
Prawdopodobieństwo
0,25
0,25
0,25
0,25
7.4. Symulacja ruchu Browna
A zatem iloczyny są ta k że równe + 1 lub — 1 z ty m sam ym praw ­
dopodobieństw em 0 ,5 , a w artość oczekiw ana takie g o iloczynu dla
k / l je s t zero. O czyw iście w artość iloczynów dkdk je s t zaw sze
równa + 1 , dla w szystkich k = 1 , . . . , n . W y n ik je s t jasny: w artość
oczekiw ana kw adratu całkow itego przem ieszczenia je s t równa liczbie
kroków, n.
Usuńmy teraz założenie, że małe przemieszczenia m ają
długość pełnej jednostki. Jeżeli rozważamy krótszą jedno­
stkę długości, to musimy zmodyfikować wynik: oczekiwane
kwadratowe przemieszczenie jest proporcjonalne do różnicy
czasu t. Stała proporcjonalności zależy od liczby kroków
w odcinku czasu t i od długości pojedynczego przemieszcze­
nia. Jest to fundamentalna własność ruchu Browna, praw­
dziwa też w przestrzeniach o wymiarze dwa lub więcej.
Dotychczas dowiedzieliśmy się, że całkowite przemieszcze­
nie w danym czasie t jest średnio równe zeru i że wartość
oczekiwana kwadratu przemieszczenia jest proporcjonalna
do t. Co więcej można powiedzieć o rozkładzie przemieszczeń
po czasie t? Innymi słowy, jeżeli rozważamy ruch Browna
(albo ruch Browna symulowany przez komputer) w równych
przedziałach czasowych długości i, to jaki jest rozkład war­
tości pomiarów przemieszczeń? W tabeli 7.1 wypisaliśmy
wyniki takiego eksperymentu, którego wykres widzimy na
rysunku 7.21.
Kształt tej krzywej jest większości z nas dobrze znany.
Jest to wykres odpowiadający rozkładowi, który jest zwykle
nazywany24 rozkładem Gaussa albo rozkładem krzywej dzwo­
nowej. Przykładem mogą być odchylenia we wzroście ludzi
z dużej grupy albo odchylenia w wielu pomiarach długości
pewnego (niefraktalnego) obiektu. Czasami rozkład Gaussa
jest używany jako model dla próbki statystycznie popraw­
nej — co nie zawsze ma pożadane konsekwencje praktyczne.
Na przykład stopnie ze sprawdzianów są często wystawiane
tak, by ich fluktuacje względem średniej pasowały do zada­
nej krzywej dzwonowej. W przypadku krańcowym może to
spowodować, że w każdej klasie — niezależnie od tego, jak
zdolni są uczniowie — kilku uczniów zawsze wypadnie źle,
ponieważ tego wymaga rozkład Gaussa.
24 W podręcznikach rachunku prawdopodobieństwa rozkład ten jest
zwykle nazywany rozkładem norm alnym — przyp. tłum.
475
7. Losowość w konstrukcjach fraktalnych
476
Jed n ow ym iarow y
ruch B row n a
D
0
2
4
6
8
10
12
14
16
18
20
22
24
ilość
828
815
718
648
547
478
383
335
233
171
116
66
42
D
ilość
-2
-4
-6
-8
-10
-12
-14
-16
-18
-20
-22
-24
767
746
648
547
453
421
315
234
185
94
60
44
D
26
28
30
32
34
36
38
40
42
44
46
48
50
ilość
21
17
6
1
2
0
0
2
1
0
0
0
0
D
-26
-28
-30
-32
-34
-36
-38
-40
-42
-44
-46
-48
-50
ilość
28
9
10
7
1
0
0
1
0
0
0
0
0
Tabela 7.1:
10000 przyrostów symulowanego ruchu Browna
w regularnych odstępach czasu. Każdy przyrost jest rozumiany
jako suma stu niezależnych przemieszczeń jednostkowych. Są one
następnie sumowane, a ich suma jest zapisywana jako całkowite
przemieszczenie D w czasie ¿, który odpowiada n = 100 krokom.
Należy zauważyć, że sumy te muszą być liczbami parzystymi, gdyż
D = a —6, gdzie a-l-6 = 100, a i b zaś oznaczają, ile razy nastąpiło
dodatnie bądź ujemne przemieszczenie jednostkowe. A zatem b =
/
100 —a, natomiast D — 2a —100 i jest liczbą parzystą. Średnie
kwadratowe przemieszczenie równe jest 99,82 i jest bardzo bliskie
teoretycznie oczekiwanej liczby 100
W racając do wyników powyższego eksperymentu, doty­
czącego ruchu Browna w jednym wymiarze, zwracamy uwagę
iż to nie przypadek ani nie dopasowywanie „na siłę” wy­
ników przez jakiegoś miłośnika statystyki sprawiły, że wyniki
tak dobrze zgadzają się z rozkładem gaussowskim. W isto­
cie rozkład Gaussa pojawia się we wszystkich przypadkach,
kiedy niezależne i podobne (tzn. jednakowo rozłożone) zda­
rzenia losowe są dodawane albo uśredniane. Ten fakt jest
treścią ważnego twierdzenia matematycznego zwanego cen­
tralnym twierdzeniem g ra n ic zn y m i Tak więc jednowymia­
rowy ruch Browna jest teraz kompletnie scharakteryzowany.
Przemieszczenie po czasie t jest tzw. zmienną losową o roz­
kładzie Gaussa, który jest wyznaczony przez średnią równą
zeru i średnie kwadratowe przemieszczenie proporcjonalne
25 Można je znaleźć w dowolnym podręczniku rachunku prawdopo­
dobieństwa albo statystyki.
7.4. Symulacja ruchu tirowna
4YY
S tatystyk a
sym ulacji jed n o ­
w ym iarow ego
ruchu B row na
Rysunek 7.21: Dane z tabeli 7.1 obrazujące 100 000 rzutów
sześciu kostek zebrano na wykresie. Rozkład jest w przybliżeniu
gaussowski
do przyrostu czasu t . Próbki z takiego rozkładu gaussow­
skiego, gdy średnia kwadratowa jest znormalizowana do jed­
ności, nazywają się (znormalizowanymi) gaussowskimi licz­
bami losowymi.
Z powyższych obserwacji jasno wynika, że takie gaussow­ G aussow skie
skie liczby losowe mogą być punktem wyjścia dla symulacji liczby losow e
ruchu Browna. Liczby te są równoważne przemieszczeniom,
odpowiadającym pewnemu przedziałowi czasu. Jeżeli po­
trzebne nam są przemieszczenia w innym przedziale czasu,
np. dwukrotnie dłuższym, to po prostu pomnożymy gaus­
sowskie liczby losowe przez odpowiedni czynnik — w tym
przypadku y/2. Istnieją dokładne metody26 sprawnego wy­
znaczania gaussowskich liczb losowych. Dla naszych celów
wystarczy rozważać jedynie prostą metodę, opartą na wspo­
mnianym wyżej centralnym twierdzeniu granicznym.
Możemy nawet skonstruować gaussowską liczbę losową,
używając rzutów kostką. Początkowo stworzy to liczby lo­
sowe z listy 1,2,3,4, 5,6, gdzie każdej z nich przypisujemy
jednakowe prawdopodobieństwo równe
Rozkład ten jest
zwany rozkładem jednostajnym zmiennej losowej. Na więk­
szości komputerów są dostępne takie liczby losowe z o wiele
większego zakresu, zwykle 1, 2 ,..., A, gdzie A = 215 —1 albo
26 Na przykład metoda Boxa-Mullera, zob. W. H. Press, B. P. Flan­
nery, S. A, Teukolski, W. T. Vetterling, Numerical Recipes, Cambridge
University Press, 1986, s.202.
7. Losowość w konstrukcjach fraktalnych
478
100 000 rzu tów
sześciom a
kostkam i
suma
oczek
1
2
3
4
5
6
7
8
9
ilość
0
0
0
0
0
4
15
48
110
suma
oczek
10
11
12
13
14
15
16
17
18
ilość
249
538
1033
1573
2541
3574
4836
6051
7527
suma
oczek
19
20
21
22
23
24
25
26
27
ilość
8503
8961
9268
9127
8238
7314
5985
4894
3621
suma
oczek
28
29
30
31
32
33
34
35
36
ilość
2449
1608
960
549
255
110
39
17
3
Tabela 7.2: Rzucono 100 000 razy sześcioma kostkami. Oczka
z sześciu kostek dodano, a ich statystykę pokazano w tabeli
nawet A = 231 —1. Jeżeli podzielimy wynik przez A, to otrzy­
mamy liczbę z przedziału od 0 do 1. Prawdopodobieństwo, że
wynik takiej procedury leży na przykład między 0,25 a 0, 75,
jest równe 50% albo 0,50.27 Ogólniej, prawdopodobieństwo
tego, że liczba losowa leży między a i b jest równe b — a,
gdzie a i b są wybrane tak, żeby 0 < a < b < 1. Aby
symulować gaussowskie zmienne losowe, weźmy po prostu
dowolną liczbę kostek — powiedzmy 6 — i rzućmy nimi.
Wynik zdefiniujemy jako sumę wyników na wszystkich ko­
stkach, która jest liczbą między 6 a 36. Powtórzmy te rzuty
wiele razy i zapiszmy, ile razy otrzymaliśmy każdą z liczb
spomiędzy 6 a 36 (zob. tabela 7.2 i rysunek 7.22).
Rozkład ma charakterystyczny kształt dzwonu. W isto­
cie, z centralnego twierdzenia wynika, że powyższy ekspe­
ryment jest przybliżeniem dla rozkładu Gaussa. Co więcej
jakość tego przybliżenia poprawia się wraz z liczbą kostek,
którymi rzucamy.
Dla celów praktycznych warto znormalizować wyniki za­
nim użyjemy ich do konstrukcji fraktalnej. Jednym z po­
wodów takiego postępowania jest to, że wyniki nie dają
rozkładu gaussowskiego scentrowanego wokół zera28. Na
przykład są one zawsze dodatnie, a wartość oczekiwana,
będąca średnią ze wszystkich wyników, zależy od liczby uży2' W wielu programach dzielenie to wykonywane jest automatycz­
nie i liczby losowe są od razu jednostajnie rozłożone na odcinku
jednostkowym.
28 To znaczy o średniej zero — przyp. thim.
/.4.
s y m u la c ja ru cn u n r o w n a
P rzyb liżon y
rozkład G aussa
otrzym an y
przez rzucanie
kostkam i
10000 9000 8000 7000 6000 5000 4000 3000 2000
-
1000
-
0
6
8
10 12 14 16 18 20 22 24 26 28 30 32 34 36
Rysunek 7.22:
P rzedstaw ienie danych z tab eli 7.2 obrazujących
wielokrotny rzut sześciom a kostkam i. R ozkład jest w przybliżeniu
gaussowski
wanych kostek. Możemy łatwo otrzymać przepis na nor­
malizację używając elementarnego rachunku prawdopodo­
bieństwa, ale w tym miejscu tylko sformułujemy końcowe
wzory. Zdefiniujmy
A
ograniczenie górne naszego generatora liczb loso­
wych, który może dać liczby 0 ,1 ,..., A (jak wyżej)
n
liczba używanych kostek
Y j,..., Yn wynik jednego rzutu n kostek.
Przybliżająca gaussowska zmienna losowa dana jest przez
D = \ J - ( Y i + Y2 + --- + Yn) - y / t o i ,
A V Ti
kiedy A i n są duże. Jest ona znormalizowana w taki sposób,
żeby wartość oczekiwana wynosiła zero, a wariancja29 była
bliska jedności. Wzór ten można bardzo łatwo wprowadzić
do komputera. Dla naszych celów wystarcza mała liczba n,
np. n = 3. W tym przypadku wzór upraszcza się do
D =
j
4iy
(Y1 + Y2 + Y3) - 3.
29 Wariancja jest to średnie kwadratowe odchylenie od wartości ocze­
kiwanej. W naszym przypadku wariancja równa jedności powoduje,
że około 68,27% wszystkich wyników D co do wielkości jest mniej­
szych niż 1, 94,45% zaś jest mniejszych niż 2, a 99, 73% jest mniejszych
niż 3.
7. Losowość w konstrukcjach fraktalnych
480
W szczególnym przypadku sześciu kostek bierzemy pod uwa­
gę, że wyniki rzutu kostką zmieniają się od 1 (nie od 0) do
stosunkowo niewielkiego maksimum, 6. Używając dokładnej
wartości wariancji, otrzymujemy
D = J Ę ( Y 1 + .-. + Y6 - 2 l ) .
Następująca tabela przedstawia konwersję sumy oczek na
kostkach (od 6 do 36) na znormalizowane przybliżone gaus­
sowskie liczby losowe.
N orm alizacja
rzu tu sześciu
kostek
suma
oczek
1
2
3
4
5
6
7
8
9
-3,59
-3,35
-3,11
-2,87
suma
oczek
10
11
12
13
14
15
16
17
18
-2,63
-2,39
-2,15
-1,91
-1,67
-1,43
-1,20
-0,96
-0,72
suma
suma
oczek
oczek
19
-0,48
28
-0,24
20
29
21
0,00
30
0,24 31
22
0,48
32
23
24
0,72
33
34
25
0,96
1,20 35
26
1,43 36
27
1,67
1,91
2,15
2,39
2,63
2,87
3,11
3,35
3,59
Tabela 7.3: Tabela przedstawia konwersję sumy oczek na przy­
bliżoną znormalizowaną gaussowską liczbę losową
N a stęp n y krok:
sum ow anie
n iezależnych
gaussow skich
liczb losow ych
Powyższych gaussowskich liczb losowych można użyć do
symulowania ruchu Browna w jednym wymiarze. Posuwaj­
my się w kierunku czasu t w równych małych odstępach ót.
W każdym przedziale czasowym o długości 6t gromadzimy
wpływ wszystkich molekuł, które wpadły na naszą cząstkę
i spowodowały pewne całkowite jej przemieszczenie, pra­
widłowo modelowane jako gaussowska liczba losowa. Usta­
lamy, że w chwili początkowej cząstka znajduje się w miej­
scu 0, co zapisujemy w skrócie jako X(0) = 0. Po kroku
czasowym Ót patrzymy na naszą (znormalizowaną) losową
liczbę gaussowską, wynik nazywamy D\, a położenie cząstki
zmieniamy na X(ót) = D\. Po dwóch krokach otrzymujemy
inne przemieszczenie — liczbę D 2 otrzymaną przez ponowne
odwołanie się do naszego generatora liczb losowych. Nowe
położenie jest sumą
X(2St) = X{ót) + D 2 = D 1 + D 2.
481
7.4. Symulacja ruchu Browna
Postępując dalej analogicznie, sumujemy nasze gaussowskie
liczby losowe według wzoru
X(kSt) — Di + D 2 + *• • + Djęj
k = 1,2,3 ,...
Wynik przedstawiono na rysunku 7.23.
R uch B row na
jako su m a
gaussow skich
zm iennych
losow ych
Rysunek 7.23: Zsumowanie niezależnych gaussowskich zmien­
nych losowych (górna krzywa) daje pewien, nie najlepszy, model
ruchu Browna w jednym wymiarze (dolna krzywa). Położenie
cząstki X(t) zaznaczono na osi pionowej, czas zaś zmienia się
w kierunku poziomym. Cząstka porusza się w górę i w dół
w sposób nieskorelowany, tzn. jeżeli nabiera ona wysokości w pew­
nym momencie, to szansa kontynuacji i szansa zmiany tej tenden­
cji są identyczne (50 : 50)
Jeżeli chcemy znać jedynie przybliżenia co drugi krok,
X(26t), X( 46t ) , ..., możemy skrócić obliczenia. Wiemy bo­
wiem, że średnie kwadratowe przemieszczenie dla podwo­
jonych różnic czasowych jest również dwukrotnie większe.
A zatem wystarczy pomnożyć gaussowskie liczby losowe
przez a/2- Oznacza to, że
X(2k6t) ~ y/2(D\ + D 2 + • • *+ 7)^),
k = 1, 2, 3,...
482
7. Losowość w konstrukcjach fraktalnych
P rzem ieszczan ie
środka odcinka
Rysunek 7.24: Pierwsze dwa kroki metody przemieszczania
środka odcinka, omówionej w tekście
M eto d a
rów now ażna:
losow e
p rzem ieszczan ie
środka odcinka
Innym — bezpośrednim i najbardziej popularnym —
sposobem tworzenia ruchu Browna jest tzw. metoda loso­
wego przemieszczania środka odcinka (random midpoint displacement method).30 Ma ona liczne zalety w porównaniu
z m etodą sumowania białego szumu, z których najważniejszą
jest możliwość jej uogólnienia na przypadek wielowymia­
rowy, używany na przykład przy modelowaniu funkcji wy­
sokości (pól wysokości) krajobrazów.31
Jeżeli mamy wyznaczyć proces X( t ) dla czasów t po­
między 0 a 1, zaczynamy od przyjęcia X (0) = 0, a X ( l )
jako gaussowskiej liczby losowej. Następnie konstruujemy
X ( ^ ) jako średnią z X( 0) i X (l), czyli ^(X (0) + X (l)) plus
poprawka D\. Czytelnik może zobaczyć wyniki tego i na­
stępnego kroku na rysunku 7.24. Ta poprawka D\ jest gaus­
sowską liczbą losową, którą należy pomnożyć przez współ­
czynnik skali
Następnie redukujemy współczynnik skali o \/2 i otrzy­
mujemy
po czym dzielimy odcinki od 0 do ^ i od ^
do 1. Przyjmujemy, że X ( |) jest równy wartości średniej
^(X (0) + X (^)) plus poprawka £>2 ) która jest gaussowską
liczbą losową pomnożoną przez bieżący współczynnik skali
^g. Analogiczny wzór zachodzi dla X ( |) , tj.
30 Metoda ta została wprowadzona w artykule A. Fourniera, D. Fussela i L. Carpentera, Computer rendering of stochastic models, Comm un. AC M , 25, 371-384 (1982) .
31 Inną zaletą jest to, że możemy przepisać wartości A (t) dla różnych
czasów t , a następnie obliczyć wartości pośrednie za pomocą losowego
przemieszczania środka odcinka. W tym rozumieniu metodę tę można
interpretować jako interpolację fraktalną.
YA. symulacja ruchu tsrowna
I(!) = £ (il± M + i 2 ,
gdzie D2 jest losową poprawką obliczoną tak samo jak po­
przednio.
W trzecim kroku postępujemy w taki sam sposób: zmniej­
szamy współczynnik skali y/2 razy i otrzymujemy
Po­
tem kładziemy
X ( l ) = l ( X ( 0 ) + X ( l ) ) + D 3,
X d ) = U ^ ( l ) + X ( l ) ) + D 3,
X ( f ) = I ( X ( i ) + X ( f ) ) + A j,
* ( I ) = § (* (!) + * (!))+ £ > 3 .
W każdym ze wzorów D% jest obliczana jako gaussowska
zmienna losowa (w każdym wzorze jest ona inna), pomnożo­
na przez bieżący współczynnik skali ^ = . W kolejnym kroku
obliczamy X( t ) dla i —
••• >i i ’ ożywając współczyn­
nika skali pomniejszonego znów y/2 razy. Następnie powta­
rzamy powyższe postępowanie, co zilustrowano na rysunku
7.25.
Jeżeli ruch Brow na ma zostać w yznaczony dla czasów t pom iędzy
0 a 1, najpierw ustalam y J f ( 0 ) = 0 i w y b ieram y X ( l ) ja k o gaus­
sowską liczbę losową o średniej 0 i w ariancji (średniej kw ad rato w e j)
równej D 2 (X( 1 )) = a 2 . W te d y rów nież D 2 ( X ( 1 ) — X ( 0 ) ) = a 2
1 oczekujem y, że
D 2 ( X ( t 2 ) - X ( t 1)) = \t2 - t 1 \a2
(7 .1 )
dla 0 < i i < t 2 < 1. K ład ziem y X ( | ) równe średniej z X ( 0 ) i A ( l )
plus pewna gaussowska losowa popraw ka D i o średniej 0 i w ariancji
A 2V W te d y
X ( i ) = i ( X ( l ) - X ( 0 ) ) + D 1,
zatem X(~) —X ( 0 ) ma w artość średnią rów ną zeru i to sam o zacho­
dzi dla X ( l ) - X ( | ) . Co więcej, żeby zależność ( 7 .1 ) była praw dziw a,
m usim y zażądać, aby
D 2 ( X ( i ) - X ( 0 ) ) = \ D 2 ( X( 1) - X ( 0 ) ) + A ! 2 = ¡ a 2.
A zatem musi być spełniona zależność
Analiza metody
losowego
przemieszczania
środka odcinka
484
7. Losowość w konstrukcjach fraktalnych
Rysunek 7.25: Ruch Browna otrzymany przez przemieszcza­
nie środka odcinka. Rysunek przedstawia osiem kroków przy­
bliżających ruch Browna, używających 3, 5 , 9 , , 257 punktów
podziału
W następnym kroku postępujem y w ta k i sam sposób, przyjm u jąc
X ( i ) - X ( 0 ) = i(X (0) + X( i ) ) + JD2.
Z a o b s e rw u jm y zn ó w , że przyrosty X, w ty m przypadku X { \ ) —
—X ( | ) oraz X ( | ) — ^ ( 0 ) , są gaussowskie i m ają średnią rów ną
zeru. A za te m m usim y w ybrać w arian cję A 2 zm iennej losowej D 2
w ta k i sposób, żeby
D \ X { \ ) - X ( 0 ) ) = \ D 2{ X{ i ) - X ( 0 ) ) + A l = ¡ a 2,
czyli
Al = X .
T o sam o rozum o w anie stosujem y dla X ( | ) i p o w ta rza m y je dla coraz
drobniejszych p o d ziałó w , o trz y m u ją c
a
2 __
n
2
2n+1
ja k o w y ra żen ie na w arian cję przem ieszczenia D n. T a k więc dla prze­
d zia łó w czasu 8 t d o d a je m y o d p o w iad ając e im zm ienne losowe o w a­
riancji
2_(n+1)<r2,
proporcjonalnej do St , czego się spodziewaliśm y.
7.4. Symulacja ruchu Browna
485
T rajektoria
ruchu B row na
na p łaszczyźnie
Rysunek 7.26: Powyżej przedstawiona jest trajektoria ruchu
Browna cząstki. Część trajektorii wzięta w ramkę (powiększona
w lewej górnej części rysunku) ujawnia niezmienniczość skali czy
też samopodobieństwo: mniejsza część wygląda tak samo jak
całość
Po skonstruowaniu ruchu Browna w jednym wymiarze
uogólnienie tej konstrukcji dla przypadku dwuwymiarowego
jest łatwym zadaniem. Nie wymagamy więcej niż to, żeby
małe zderzenia z naszą cząstką były ograniczone do dwóch
tylko kierunków: uderzenia z lewej albo uderzenia z prawej.
Teraz kierunek wybieramy dowolnie jako k ąt 32 pomiędzy ze­
rem a 180 stopniami, w radianach pomiędzy 0 a n. Wszy­
stkie kąty są jednakowo prawdopodobne, czyli dla potrzeb
symulacji wystarczy zmienna losowa o rozkładzie jednostaj­
nym. Reasumując, przemieszczenie cząstki jest obliczane
przez wybór kierunku w sposób wyżej określony i wybór
wielkości przemieszczenia jak przedtem — jako znormali­
zowanej gaussowskiej zmiennej losowej.33
Zapis graficzny ruchu cząstki poddanej ruchowi Browna
wygląda tak, jak oczekiwaliśmy, jak bardzo chaotyczny ślad
(rysunek 7.26). Trajektoria cząstki nie jest w żaden sposób
32 Nie musimy rozważać większych kątów, przemieszczenia bowiem
mogą być dodatnie albo ujemne.
33 Zwracamy uwagę, że do modelowania pól wysokości krajo­
brazu, wspomnianych wcześniej (zob. paragraf 7.6), używa się innego
uogólnienia ruchu Browna.
W prow adzenie
kolejnego
stop n ia
sw ob od y
486
7. Losowość w konstrukcjach fraktalnych
regularna, pewne obszary płaszczyzny są wypełnione przez
nią w sposób gęsty. W rzeczywistości wymiar fraktalny tej
trajektorii wynosi dwa. Powiększenie fragmentu drogi wyja­
wia samopodobieństwo ruchu. W ygląda ono bowiem tak
samo jak cała krzywa. Oczywiście to podobieństwo jest
prawdziwe jedynie w sensie statystycznym.
7 .5 . W ła s n o ś c i sk ali i u ła m k o w y ru ch B r o w n a
C zym jest
n iezm ien n iczość
skali w ykresu
jed n ow ym iaro­
w ego ruchu
Brow na?
Powróćmy
teraz do jednowymiarowego ruchu Browna
i omówmy te cechy podobieństwa modelu, które pozwalają
nam mówić o nim jako o fraktalu. Z konstrukcji — a także
z jednego rzutu oka na wykres z rysunku 7.23 — widać, że
nie możemy oczekiwać zwykłego podobieństwa, przy czym
w celu otrzym ania pierwotnego wykresu zmieniamy liniowo
czas i am plitudę (być może z różnymi współczynnikami pro­
porcjonalności). Oczywiście takie dokładne „afiniczne sa­
mopodobieństwo” nie jest możliwe — z powodu losowości
mechanizmu generującego. Mimo to na rysunku 7.27 pró­
bowaliśmy konstruować przeskalowane kopie pierwowzoru.
Rysunek 7.27: W tym eksperymencie skalujemy lewą połowę
próbki jednowymiarowego ruchu Browna w kierunku poziomym,
zachowując pierwotną amplitudę. Pokazane są wyniki sześciu ta­
kich kroków, krzywa górna jest krzywą pierwotną. Zauważmy,
w jaki sposób przy przechodzeniu do kolejnej krzywej przesuwane
są wierzchołki. Na każdym z wykresów połowa danych z poprze­
dniej krzywej znika, co spowodowane jest obcinaniem wykresu na
prawym końcu
(.o. vviasnosci SKau i utamKowy rucn nrowna
Powiększaliśmy dwukrotnie w kierunku poziomym, pozosta­
wiając amplitudę nie zmienioną. Zauważmy, że krzywe nie
są wcale podobne do siebie, dolne krzywe — gdzie rozciągnę­
liśmy czas o czynnik 2, 4, 8 ,..., 64 — m ają znacznie mniejsze
wahanie.
Na następnym rysunku powtarzamy eksperyment z tym
samym współczynnkiem, równym dwa w obu kierunkach —
poziomym i pionowym. Powiększamy dwukrotnie w kie­
runku poziomym i jednocześnie mnożymy amplitudę przez
dwa. Zmienia to znacząco krzywe, jak pokazano na rysunku
7.28. Tym razem dolne krzywe m ają znacznie zwiększone
tak wahanie jak i amplitudę; wykres wygląda dużo bardziej
chaotycznie.
R uch B row na
p on ow n ie
przeskalow any
w niew łaściw y
sposób
Rysunek 7.28:
Eksperyment analogiczny jak na rys.
Współczynniki skali w poziomie i w pionie są równe 2
7.27.
Z tych obserwacji możemy wywnioskować, że pomiędzy
dwoma współczynnikami powiększania: 1 (rysunek 7.27)
oraz 2 (rysunek 7.28) powinien istnieć pewien charakterys­
tyczny współczynnik skali r, dla którego krzywe powinny
być wizualnie takie same, tzn. jeżeli zmienimy czas o czyn­
nik 2 , a amplitudę o czynnik r, to nie powinniśmy dostrzec
uderzających różnic natury ogólnej, nawet jeżeli wielokrot­
488
7. Losowość w konstrukcjach fraktalnych
nie powtórzymy tę procedurę redukcji. Można wyznaczyć r
m etodą prób i błędów. Łatwiej jednak będzie dedukcyjnie
otrzymać, że r powinno być równe y/2. Wynika to bezpoś­
rednio z przeanalizowania średnich kwadratowych przemie­
szczeń A 2 dla ruchu Browna, które są proporcjonalne do
przyrostu czasu t,
A 2 oc t.
Rozważmy przeskalowaną funkcję losową
m
=
( i )
,
tzn. wykres X, rozciągnięty w kierunku czasu a razy, o am­
plitudzie powiększonej r razy. Przemieszczenia zmiennej Y
w czasie t są takie, jak dla zmiennej X pomnożonej przez r,
w czasie t / a . A zatem przemieszczenia kwadratowe są pro­
porcjonalne do r 2t/a . By zapewnić tę samą stalą proporcjo­
nalności jak w pierwotnym ruchu Browna, musimy po prostu
wymagać, żeby r 2/a — 1 lub, równoważnie, r = y/a. Kiedy
zastępujemy t przez t / 2 , tzn. kiedy rozciągamy wykres dwu­
krotnie, jak na rysunkach, mamy a = 2, a zatem r = v/2*
P opraw nie
przeskalow any
ruch B row na
Rysunek 7.29: Eksperyment analogiczny jak na rysunku 7.27.
Współczynnik skali w poziomie jest równy 2, a współczynnik skali
w pionie — tym razem poprawny — jest równy r — \/2 . Krzywe
są statystycznie równoważne, obrazując własność skali dla ruchu
Browna. Obszary zacieniowane mają ten sam kształt w różnych
skalach
/.£>. wtasnosci skali i ułamkowy ruch tirów na
4»y
Ostatni rysunek z tej serii (rysunek 7.29) ilustruje po­
wyższy wynik. Krzywe wyglądają mniej więcej tak samo.
W rzeczywistości one są takie same, w każdym razie ze
statystycznego punktu widzenia. Przeanalizowanie wartości
średniej, wariancji, momentów i tak dalej, daje takie same
własności statystyczne przeskalowanych krzywych. To właś­
nie jest niezmienniczość skali dla ruchu Browna.
W rozważaniach o niezmienniczości skali pokazaliśmy, że
dla zwyczajnego ruchu Browna musimy powiększyć ampli­
tudę o czynnik y/2, jeżeli czas (kierunek poziomy) jest po­
większany o czynnik 2 . Powiększanie amplitudy o inne czyn­
niki, takie jak 1 czy 2 , zilustrowano na rysunkach 7.27 i 7.28.
Nastąpiły zmiany we własnościach statystycznych wykresów.
Możemy zadać następne logiczne pytanie: jak wyglądałaby
krzywa, jeżeli miałaby niezmienniczość skali przy pionowym
przeskalowaniu o pewien, dowolnie wybrany, współczynnik
pomiędzy 1 a 2? W istocie takie krzywe istnieją i są nazy­
wane ułamkowymi ruchami Browna.
Na rysunkach 7.30 i 7.31 pokazano przykłady dla współ­
czynników 2 0,2 — 1,148... oraz 20,8 — 1,741... W ogólnym
przypadku ułamkowy ruch Browna jest scharakteryzowany
przez wykładnik, który pojawia się we współczynniku skali
(0,2 albo 0,8 na wymienionych rysunkach, 0,5 dla zwy­
czajnego ruchu Browna). Wykładnik ten, zwykle oznaczany
przez i/, nazywa się wykładnikiem Hursta, od nazwiska Hursta, hydrologa, który wspólnie z Mandelbrotem przeprowa­
dził jedne z pierwszych badań nad własnościami skali dla
fluktuacji rzecznych. Właściwy zakres tego param etru zmie­
nia się od wartości 0 , odpowiadającej bardzo nieregular­
nym losowym krzywym fraktalnym, do wartości 1 odpo­
wiadającej losowym krzywym wyglądającym raczej gładko.
W istocie istnieje bezpośredni związek pomiędzy H a wy­
miarem fraktalnym wykresu losowego fraktala. Związek ten
będzie wyjaśniony w następnym paragrafie.
C zy m ożliw e
są inne
w spółczyn nik i
skali?
Zw yczajny ruch B row na je s t procesem losowym X ( t ) o przyrostach
gaussowskich oraz
U ł a m k o w y ruch
Browna i samopodobieństwo
statystyczne
D 2( X ( t 2) - X ( t 1)) <x 1t 2 - h \ 2H,
gdzie H = 1. Uogólnienie teg o procesu dla 0 < H < 1 nazywa się
u ła m ko w ym ru c h em B ro w n a . M ó w im y, że przyrosty X są s ta ty ­
sty czn ie sam opodobne z p a ra m etre m H. R ozu m iem y przez to , że
490
7. Losowość w konstrukcjach fraktalnych
U łam k ow y ruch
B row n a 1
R ysunek 7.30: Poprawnie przeskalowany ułamkowy ruch Brow­
na. Współczynnik skali w kierunku pionowym wynosi 20,2 —
1,148... Krzywe są znacznie bardziej nieregularne niż dla zwykłego
ruchu Browna
U łam k ow y ruch
B row n a 2
R ysunek 7.31: Poprawnie przeskalowany ułamkowy ruch Brow­
na. Współczynnik skali w kierunku pionowym wynosi 20,8 =
1,741... Krzywe są znacznie gładsze niż te odpowiadające zwy­
czajnemu ruchowi Browna (zob. rysunek 7.29)
4U1
/.o. wtasnosci sKau i utamkowy rucn n równa
X(t ) - X{to)
oraz
są statystycznie nieodróżnialne, tzn . m ają ta k ie sam e d ystryb u an ty
łączne dla każdego to oraz r > 0. D la w ygody u stalm y to = 0 oraz
X(to) = 0. W te d y dw ie zm ienne losowe
X (t )
oraz
X(rt)
-jj-
są w sposób oczyw isty statystycznie nieodróżnialne. A za te m „p rzy­
spieszony" ułam kow y ruch Brow na X( rt ) będzie poprawnie przeskalowany, jeżeli pod zielim y jeg o a m p litu d ę przez r H .
Pomimo że jest to teoretycznie możliwe, nie jest łatwo
otrzymać ułamkowy ruch Browna jako wynik sumowania
białego szumu, metody opisanej po raz pierwszy na stro­
nie 482 i zilustrowanej na rysunku 7.23. Jednak mała zmiana
w metodzie losowego przemieszczania środka odcinka może
dać przybliżenia ułamkowego ruchu Browna. W celu otrzy­
mania losowego fraktala o zadanym wykładniku H ursta 0 <
< H < 1 musimy ustalić jedynie początkowy współczynnik
skali losowych poprawek jako y / l — 2 2 H ~ 2, w kolejnych kro­
kach współczynnik ten musi być zmniejszany ^ razy.
W tym paragrafie wyprowadzimy prosty wzór na wymiar Zw iązek m iędzy
fraktalny wykresu fraktala losowego. Wykres ten jest linią H a w ym iarem
narysowaną w dwóch wymiarach. A zatem jego wymiar po­ D
winien wynosić co najmniej 1 , ale nie powinien przekraczać
2 . W istocie dokładną wartością wymiaru fraktalnego wy­
kresu losowego fraktala o wykładniku Hursta H będzie
D = 2 - H.
Tak więc otrzymamy pełny możliwy zakres wymiarów fraktalnych, gdy H będzie się zmieniało od 0 do 1, co odpowiadać
będzie zmniejszaniu się D od 2 do 1.
Zastosujm y m etodę pudełkow ą do oszacowania w ym iaru frak ta ln eg o
wykresu frak ta la losowego A ( t ) . P rzyp o m n ijm y, że w szystkie w łas­
ności statystyczne tego wykresu pozostają nie zm ienione, jeżeli za­
stąpim y X(t) przez X(2t)/2H. Załóżm y, że pokryliśm y w ykres X(t),
dla t od 0 do 1, N m ałym i pudełkam i o boku długości r. T e ra z
rozw ażm y pudełka o połow ę m niejsze, wielkości r/2. Z niezm ien-
Wymiar
pudełkowy dla
wykresu
ułamkowego
ruchu Browna
7. Losowość w konstrukcjach fraktalnych
492
niczości skali dla fra k ta la oczekujem y, że obraz X(t ) dla pierwszej
połow y odcinka od 0 do 1 / 2 pow inien być 1 / 2 ^ razy m niejszy od
obrazu X( t ) dla całego odcinka. O czyw iście to sam o pow inno być
praw dą dla drugiej połow y od cin ka, od 1 /2 do 1. D la każdej połowy
będziem y p o trzeb o w ali 2 N / 2 H pudełek m niejszej wielkości r / 2 . D la
obu o d c in k ó w razem będziem y za te m potrzeb ow ali 2 2~HN m niej­
szych pudełek. Jeżeli przeprow adzim y to sam o rozum ow anie dla
każdej ćw ia rtki odcinka, to znow u okaże się, że liczbę pudełek m usim y
po m n o żyć przez 2 2 - H , czyli będziem y potrzeb ow ać ( 2 2~ H ) 2 pudełek
wielkości r / 4 . W ogólnym przypadku dostajem y
( 2 2 ~H)kN
pudełek wielkości
U ży w a ją c w zoru granicznego dla w y m ia ru pudełkowego, po niedługich
rachunkach m o żem y obliczyć, że
D = ,im tos [(2»-»)*y] = 2 _ H
k->o
o
Jo g
~
W y n ik ten p o zo staje w zg odzie z rozw ażaniam i w rozdz. 4, s. 288,
gdzie pokazaliśm y, że w y m ia r fra k ta ln y je s t rów ny D , o ile przy dzie­
leniu w ielkości pudełek przez 2 ich liczba zw iększa się 2 D razy.
W
ty m m iejscu je d n a k m usim y dodać słowo przestrogi.
N ie
m o żem y zap o m n ieć, że pow yższe* w yprow adzenie ustala w sposób
niejaw ny zw ią ze k skali pom iędzy am p litu d a m i a zm ie n n ą czasową,
które w rzeczyw istości nie są p o w iązane w żaden n a tu raln y sposób.
A z a te m w y n ik tych rach unków , w y m ia r fraktaln y, m oże zależeć od
te j relacji skali. Jest to szczególnie w yraźne, jeżeli próbow alibyśm y
oszacow ać w y m ia r na pod staw ie po m iaró w długości.34
Ułamkowe ruchy Browna można podzielić na trzy zupeł1 1
1
nie różne kategorie: H ^ 2 > H — ^ oraz H >
Przypadek
H = ^ to zwykły ruch Browna, który ma niezależne przyro­
sty, tzn. X (ć2) ~ ^ ( ¿ i) oraz X( t s ) - X (ć2) przy t\ < t2 <
< ¿3 są niezależne w sensie rachunku prawdopodobieństwa,
w szczególności ich korelacja wynosi 0. Dla H > | przyro­
sty te są dodatnio skorelowane, tzn. jeżeli wykres X rośnie
przy pewnym to, to kontynuuje tę tendencję dla t > t0. Przy
H < ^ prawdziwa jest własność przeciwna. Skorelowanie
jest ujemne, krzywe zaś oscylują bardziej chaotycznie.
34 Więcej szczegółów można znaleźć w: R. Voss, Fractals in Nature,
z: The Science o f Fractal Im ages, H.-O. Peitgen i D. Saupe (red.),
Springer-Verlag, New York 1988, s. 63-64 oraz B.B. Mandelbrot, Selfaffine fractals and fractal dimension, P hys. Scr. 32, 257-260 (1985).
7.6. Fraktalne krajobrazy
493
7.6. F ra k ta ln e k r a jo b r a z y
Następnym dużym krokiem naprzód jest odejście od przy­
padku jednowymiarowego i generowanie powierzchni, a nie
krzywych. Pierwszy sposób będzie oparty na triangulacji.
Podamy opis powierzchni jako pola wysokości nad węzłami
trójkątnej sieci, takiej jak pokazana na rysunku 7.32.
Sieć trójk ątn a
Rysunek 7.32:
Pow ierzchnia fraktalna jest zbudow ana nad sie­
cią trójkątną. Ponad każdym punktem w ęzłow ym określam y jej
wysokość
Algorytm działa podobnie do metody przemieszczania
punktu środkowego w jednym wymiarze. Zaczynamy od
dużego trójkąta podstawowego i losowych wartości wysokości
w jego trzech wierzchołkach. Następnie trójkąt ten dzie­
limy na trzy małe trójkąty. Wprowadzamy w ten sposób
trzy nowe punkty węzłowe, w których wysokość jest po­
czątkowo uzyskiwana przez interpolację wysokości w dwóch
punktach sąsiadujących (dwóch wierzchołkach pierwotnego
dużego trójkąta), a później modyfikowana w losowy sposób.
W następnym kroku otrzymujemy dziewięć mniejszych trój­
kątów, nad którymi wysokość będzie znów wyznaczana przez
interpolację i poprawkę. Losowa poprawka, konieczna w każ­
dym kroku, musi być dokonywana taką samą metodą jak
w zwykłym algorytmie przemieszczania środka odcinka.
W każdym kroku musimy zmniejszać współczynnik skali (dla
gaussowskiej liczby losowej) 1 /2 ^ razy. Procedurę tę oraz
perspektywiczny obraz pierwszego przybliżenia otrzymywa­
nej powierzchni ilustruje rysunek 7.33.
R ozszerzen ie
do dw óch
w ym iarów
oparte na sieci
trójkątów
Zaprogramowanie konstrukcji powierzchni fraktalnej sta­ M eto d a
je się trochę prostsze, jeżeli zastąpimy trójkąty kwadratami. w y kor zy st uj ąca
Przejście od jednej sieci kwadratowej do następnej, dwukrot­ kw adraty
nie gęstszej, odbywa się w dwóch krokach (zob. rysunek
7.34). Najpierw obliczamy wysokości dla środków wszyst-
494
7. Losowość w konstrukcjach
P ow ierzch n ia
fraktalna
o p o d sta w ie
trójkątnej
-k w ysokość
Rysunek 7.33: Konstrukcja fraktalna używająca triangulacji
S ieć
kw adratow a
Rysunek 7.34: Rysunek ukazuje dwa kroki zagęszczania dla
algorytmu, generującego powierzchnie fraktalne metodą przemie­
szczania środka
/.D.
fraktalne krajobrazy
4UD
kich kwadratów przez interpolację czterech sąsiadujących
punktów plus odpowiednia losowa poprawka. W drugim
kroku obliczamy pozostałe punkty pośrednie. Zauważmy, że
punkty te m ają również czterech sąsiadów (poza punktam i
na brzegu kwadratu), w których wysokość znamy po prze­
prowadzeniu pierwszego kroku. Następnie znów używamy
interpolacji wysokości w tych czterech sąsiednich punktach,
a wynik poprawiamy przez losowe przemieszczenie. Ze szcze­
gólną uwagą musimy traktować punkty na brzegu pierwot­
nego kwadratu, gdzie podczas interpolacji bierzemy pod uwa­
gę tylko trzy sąsiednie punkty. Musimy również trochę zmo­
dyfikować zmniejszanie współczynników skali. Ponieważ dla
dwukrotnego zmniejszenia wielkości sieci potrzebujemy
dwóch kroków, powinniśmy w każdym z nich zmniejszać
współczynnik skali nie 1 /2 ^ razy, ale ^ 1 / 2 H razy. Przyk­
ładowy wynik działania tego algorytmu przedstawiono na
rysunku 7.35.
Zauważmy, że wymiar fraktalny wykresów naszych funk­
cji jest wyznaczony, tak jak w przypadku krzywych, przez
parametr H. Wykresy są powierzchniami w przestrzeni trój­
wymiarowej, a zatem ich wymiar fraktalny jest równy co
najmniej 2, ale nie więcej niż 3.
Istnieje wiele udoskonaleń tego algorytmu. Przybliżenie U doskonalenia
prawdziwie brownowskiej powierzchni można udoskonalić i rozszerzenia
przez dodawanie „szumu” nie tylko w nowych węzłach pow­
stających w każdym kroku, ale we wszystkich węzłach bie­
żącej sieci. Nazwano to losowymi kolejnymi dodatkami (ran­
dom successive additions). Inny algorytm opiera się na spek­
tralnym opisie fraktala. W tym przypadku funkcja zostaje
rozłożona na sumę wielu funkcji sinus i cosinus o coraz więk­
szych częstotliwościach i malejących am plitudach.35 Bieżące
badania skupiają się nad lokalnymi własnościami fraktali.
Życzylibyśmy sobie, żeby wymiar fraktalny zależał od po­
łożenia. Na przykład „doliny” krajobrazów fraktalnych po­
winny być gładsze niż wysokie szczyty górskie. Rzecz ja­
sna komputerowa graficzna reprezentacja otrzymanych kra­
jobrazów, w tym usuwanie ukrytych powierzchni, może być
bardzo wyszukana, modele zaś odpowiedniego oświetlania
35 Wiele innych algorytmów omówiono w pierwszych dwóch roz­
działach The Science o f Fractal Im ages, H.-O. Peitgen i D. Saupe (red.),
Springer-Verlag, New York 1988.
7. Losowość w konstrukcjach fraktalnych
496
Rysunek 7.35:
K rajobraz fraktalny i odp ow iadająca mu m apa
top ograficzn a M etod ę przem ieszczania środka zastosow ano dia
sieci z 64 na 64 kw adratów . U jem ne w artości w ysokości zigno­
rowano, tak więc otrzym any krajobraz w ygląda jak pofałdowana,
g ó rzy sta w ysp a
Y.b. tra k t aine krajobrazy
4yy
i cieniowania mogłyby dostarczyć materiału do całej nowej
książki.36
W tym końcowym paragrafie powracamy do jednego
z podstawowych pytań, mianowicie w jaki sposób można
stworzyć imitację linii brzegowej. Można to zrobić na wiele
sposobów. Najpierw podamy jeden, prosty sposób. Jest
to bezpośrednie uogólnienie techniki przemieszczania środka
odcinka w jednym wymiarze (por. rysunek 7.36). Zaczy­
namy od niespecjalnie dokładnego przybliżenia linii brzego­
wej wyspy. Przybliżenie to można na przykład wykonać
ręcznie przez narysowanie kilku punktów wyznaczających
wielokąt domknięty. Każdy z boków tego wielokąta jest po­
tem po prostu dzielony przez przemieszczenie jego punktu
środkowego w kierunku prostopadłym do tego boku, na od­
ległość wyznaczoną przez generator gaussowskich liczb loso­
wych, pomnożoną przez współczynnik skali, tak jak w zwyk­
łym algorytmie przemieszczania środka odcinka. A zatem
w tym kroku podwajamy liczbę krawędzi wielokąta. Możemy
później powtórzyć ten sam krok z nowymi bokami drobniej­
szego wielokąta, dla liczb losowych, używając współczynni­
ka skali, który powinien zostać zmieniony 1/ 2H razy. P a­
rametr H , jak przedtem z pomiędzy 0 i 1, określa stopień
pozałamywania, czyli wymiar fraktalny otrzymanej krzywej:
im większe ii, tym gładsza krzywa. M etoda ta ma jednak
trzy słabe punkty.
1. Krzywa graniczna może mieć samoprzecięcia.
2. Blisko głównej linii brzegowej nie mogą powstać wyspy.
3. Własności statystyczne algorytmów nie określają fraktali
matematycznie „czystych”, tj. statystycznie otrzymywane
krzywe nie są wszędzie takie same.
Przynajmniej pierwsze dwa z powyższych problemów
można pokonać przy użyciu pewnego subtelniejszego algo­
rytmu. Jego podstawą jest kompletny krajobraz fraktalny,
który można wyznaczyć jakąkolwiek metodą, np. opisaną
powyżej metodą wykorzystującą kwadraty. Wybieramy pew­
ną wartość pośrednią wysokości jako „poziom morza” , jak
na rysunku 7.35. Naszym zadaniem jest teraz odtworzenie
odpowiadającej danemu fraktalowi linii brzegowej.
Najłatwiejszym sposobem zrobienia tego jest przeprowa36 Zobacz np. R. Hall, Illum ination and Color in Com puter Genera­
ted Machinery, Springer-Verlag, New York 1988.
O trzym yw anie
fraktalnych linii
brzegow ych
z fraktalnych
krajobrazów
498
7. Losowość w konstrukcjach fraktalnych
P ro ste
generow anie
w ybrzeża
fraktalnego
Rysunek 7.36:
G enerow anie fraktalnej linii brzegowej m etod ą
kolejnych losow ych przem ieszczeń środka odcinka
dzenie drobnego podziału naszego pierwotnego trójkąta czy
kwadratu, aby stworzyć tyle punktów, ile chcemy mieć na
rysunku, np. 513 na 513 punktów do przedstawienia na
ekranie monitora graficznego. 513 jest dobrą liczbą, gdyż
513 = 29 + 1, a zatem pojawi się ona naturalnie przy proce­
sie podziału kwadratu. Następnie przebiegane są stopniowo
wszystkie wartości wysokości, w tym przypadku będzie ich
około ćwierć miliona. Kropka zostaje narysowana w odpo­
wiednim miejscu ekranu, jeżeli odpowiadająca mu wartość
wysokości przekracza wybrany poziom morza. Wymiar fraktalny linii brzegowej jest kontrolowany za pomocą parame­
tru ii, który był używany przy tworzeniu krajobrazu. Jest
on równy D = 2 — ii, tyle samo co wymiar fraktalny dla
ułamkowego ruchu Browna.
Fałszyw e
Jeżeli mamy kolorowy monitor, to możemy bardzo szyb­
dw uw ym iarow e ko, używając krajobrazów fraktalnych, wygenerować rea­
chm ury listycznie wyglądające chmury. Rozważmy taki krajobraz
wygenerowany dla pewnej rozdzielczości około 513 na 513
punktów, jak wyżej. Każdy piksel ma przypisaną wartość
wysokości, którą teraz interpretujemy jako nasycenie ko­
loru. Bardzo wysokie wierzchołki krajobrazu odpowiadają
kolorowi białemu, pośrednie wartości wysokości — niebie­
skawemu, a niziny — niebieskiemu. Jest to bardzo łatwe
do przeprowadzenia przy użyciu tak zwanej mapy koloru,
która w większości kart graficznych jest po prostu wbudo­
wana. Przedstawienie widoku z lotu ptaka, przy zachowaniu
jednoznacznej odpowiedniości pikseli i węzłów sieci, pokaże
nam bardzo ładny obłok. Param etr H fraktala, który kon­
troluje wymiar fraktalny, może być zmieniany tak, jak chce
tego osoba oglądająca. Jedynym problemem, związanym
z tym podejściem, jest to, że model chmury jest w rzeczy-
7.7. Program na zakończenie rozdziału
499
wistości dwuwymiarowy. Nasz obiekt nie ma grubości i nie
jest możliwe obejrzenie go z boku.
Koncepcję fraktala można rozszerzyć. Możemy wyprodukować losowe funkcje fraktalne oparte nie na prostej czy
kwadracie, ale na kostce. Funkcja określa wtedy wartości
liczbowe dla wszystkich punktów wewnątrz kostki. Wartość
tę można zinterpretować jako wielkość fizyczną, taką jak np.
temperatura, ciśnienie, czy też gęstość pary wodnej. Ob­
szar zawierający te punkty kostki, w których gęstość pary
wodnej przekracza daną wartość progową, można rozumieć
jako chmurę. Możemy pójść nawet o krok dalej. Chmury są
fraktalne nie tylko w swojej geometrii, ale także w czasie.
A zatem możemy wprowadzić czwarty wymiar i zinterpre­
tować losowe fraktale dla czterech zmiennych jako chmury,
które zmieniają się w czasie, tym samym pozwalając na ani­
mację chmur i podobnych im kształtów.37
7.7. P r o g r a m n a z a k o ń c z e n ie ro zd zia łu :
lo so w e p r z e m ie sz c z a n ie śro d k a o d c in k a
Rozdział ten zawiera wiele losowych fraktali, które symu­
lują struktury kształtów występujących w naturze. Spośród
tych przykładów najbardziej uderzające są fraktalne kra­
jobrazy. W społeczności grafików komputerowych tworze­
nie takich symulacji stało się bardzo popularne, a tem at
ten jest ważną częścią rozdziałów o „zjawiskach natural­
nych” w większości obecnie wydawanych podręczników gra­
fiki komputerowej. Przedstawienie szczegółów technicznych
takich symulacji przekracza zakres tej książki. Nieco mniej
ambitnie przedstawimy jedynie program dla przekroju kra­
jobrazu fraktalnego, doprowadzający do panoramy poprzez
wykres jednowymiarowego ruchu Browna.
Centralnym założeniem tego modelu jest proporcjonal­
ność różnic wysokości nad dwoma punktami do pierwiastka
kwadratowego z ich odległości w kierunku poziomym. Stałą
proporcjonalności kontroluje sam użytkownik, pozwalając
na globalne skalowanie wysokości panoramy.
Program wychodzi od dwóch odcinków prostoliniowych,
tworzących wykres funkcji zębatej. Odcinki są następnie re37 Metodę tę użyto w początkowej scenie filmu: Fraktale. A nim acje,
eksperymenty i wywiady z E. Lorenzem i B. B. M andelbrotem, PW N,
Warszawa 1995.
A n im a c ja
p ra w d z iw y c h
c h m u r tró jw y m ia ro w y c h
7. Losowość w konstrukcjach fraktalnych
500
Obraz losow ego
p rzem ieszczan ia
środka odcinka
R ysunek 7.37:
W ynik programu „Krajobraz Brow na”
kursywnie dzielone, a w ich środku jest dodawane losowe
przemieszczenie. Przy starcie programu wprowadzamy do
niego współczynnik skali. Liczba ta powinna leżeć pomiędzy
0 a 1. Dla małych współczynników skali dostajemy krzywą
o niewielkich tylko wahaniach wysokości. Po określeniu licz­
by rekursywnych zastępowań (poziom = 7) i położenia
okienka (zmienne lewy oraz w) obliczamy lewą część funkcji
zębatej, odpowiednie końce odcinka zaś są zapisywane w ma­
cierzy. Przeprowadzana jest następnie rekursywna proce­
dura (etykiety od 100 do 300), najpierw dla lewej, następnie
dla prawej części funkcji zębatej. Obliczenie współrzędnej y
punktu środkowego stanowi sedno tej procedury. Przemie­
szczenie jest podawane jako iloczyn trzech wielkości:
• losowej liczby x (obliczanej jako RND + RND + RND -1 ,5 ,
pewne przybliżenie zmiennej losowej gaussowskiej scentrowanej w zerze),
• współczynnika skali s (pomnożonego przez 20, żeby pa­
sował do wielkości okienka na ekranie; przy zmianie wiel­
kości okienka w należy zmienić proporcjonalnie czynnik
2°),
• pierwiastka kwadratowego z różnicy współrzędnych x (od­
ciętych) końców bieżącego odcinka (zapewniającej brownowską własność charakterystyczną procesu).
Program ten daje panoramę bez cieniowania, takiego jak
na rysunku 7.37. Jeżeli chcielibyśmy dodać zacieniowanie,
to musimy zastąpić linię
LINE (x lew y (l) ,y le w y (l))-(x p r a w y (l) ,ypraw y(l))
następującymi liniami:
Program w B A SIC -u
T ytuł
Krajobraz Browna
Krajobraz Brow na otrzym any przy użyciu losow ego
przem ieszczania środka odcinka
DIM xlewy(10), xprawy(10), ylewy(lO), yprawy(lO)
INPUT ,.Skalowanie (0-1):” , s
poziom = 7
lewy - 30
w = 300
REM KRZYWA POCZĄTKOWĄ MA KSZTAŁT KAPELUSZA
xlewy(poziom) = lewy
xprawy(poziom) = .5*w+lewy
ylewy(poziom) = w+lewy
yprawy(poziom) = (1-s)*w+lewy
GOSUB 100
xlewy(poziom) = xprawy(poziom)
xprawy(poziom) = w+lewy
ylewy(poziom) = yprawy(poziom)
yprawy(poziom) = w+lewy
GOSUB 100
END
REM
100
RYSOWANIE PROSTEJ NA NAJNIŻSZYM POZIOMIE
IF poziom > 1 GOTO 200
LINE (xlewy(l),ylewy(l)) - (xprawy(1),yprawy(1))
GOTO 300
REM
200
ROZGAŁĘZIENIE NA NIZSZY POZIOM
poziom = poziom - 1
REM
LEWA GALAZ, R*D JEST PRZEMIESZCZENIEM
xlewy(poziom) = xlewy(poziom+1)
ylewy(poziom) = ylewy(poziom+1)
xprawy(poziom) = .5*xprawy(poziom+1) + .5*xlewy(poziom+1)
d = s*20*SQR(xprawy(poziom) - xlewy(poziom))
r = RND + RND + RND - 1.5
yprawy(poziom) = .5*yprawy(poziom+1) + .5*ylewy(poziom+1) + r*d
GOSUB 100
REM
PRAWA GALAZ
xlewy(poziom) = xprawy(poziom)
ylewy(poziom) = yprawy(poziom)
xprawy(poziom) = xprawy(poziom+1)
yprawy(poziom) = yprawy(poziom+1)
GOSUB 100
poziom = poziom + 1
300 RETURN
502
7. Losowość w konstrukcjach fraktalnych
FOR i = x le w y (l) TO xprawy(l) STEP .999
y = (yprawy( 1 ) * ( i -x lew y ( 1 ) ) +ylewy(1)*
(xprawy( 1 ) —i ) ) / (xprawy( 1 ) -x lew y (1 ))
LINE (i,lew y+w ) - ( i , y)
NEXT i
D odatek
Om ówienie fraktalnej
kompresji obrazów 1
Yuval Fischer2
Prawda jest zbyt złożona, by dawała się obejrzeć inaczej,
niż w przybliżeniu.
John von Neumann
Fraktalna kompresja obrazu — schemat używający prze­
kształceń fraktalnych do kodowania obrazów — ostatnimi
czasy przyciągała uwagę wielu. Zainteresowanie tą dziedziną
zostało rozbudzone głównie za sprawą Michaela Barnsleya,
który uważa, że skomercjalizował ten sposób postępowania.
Pomimo że metoda ta zyskała szeroką popularność, nie było
na jej tem at wielu publikacji naukowych. Większość z do­
stępnych artykułów nie zawierała żadnego opisu wyników
działania algorytmów. Nawet książka Barnsleya, która oma-
1 Praca częściowo sponsorowana przez kontrakt ONR N00014-91-C0177. Dodatkowo finansowana przez San Diego Supercomputing Cen­
ter oraz Institute for Non-Linear Science, University of California, San
Diego.
2 San Diego Supercomputing Facility, University of California, San
Diego, La Jolla, CA 92093.
504
Dodatek . Omówienie fraktalnej kompresji obrazów
wia zagadnienie fraktalnej kompresji obrazów w całej roz­
ciągłości, jest więcej niż lakoniczna, kiedy przychodzi do pre­
cyzowania pojęć związanych z kompresją obrazu.
Pierwszym opublikowanym schematem była praca dok­
torska A. Jacquina, studenta Barnsleya, który wcześniej już
publikował łącznie z Barnsleyem prace na tem aty pokrewne,
nie wyjawiając jednak sedna używanych przez siebie algo­
rytmów. Badania na ten tem at prowadził również autor
niniejszego tekstu, we współpracy z R. D. Bossem i E. W.
Jakobsem,3 jak również z Benem Bielefeldern4. W tym do­
datku omówimy kilka sposobów kodowania obrazów w po­
staci transform at fraktalnych. Opierają się one na wspo­
mnianych wyżej badaniach.
C zym je st
„Fraktalność” kompresji obrazów może przejawiać się na
„fraktalna wiele różnych sposobów. Po pierwsze, obraz jest zapisykom presja wany jako zbiór przekształceń, które są bardzo podobne do
ob razu” ? myślowego schematu KWR. Ma to wiele następstw. Zdekodowany obraz ma szczegóły w każdej skali, tak samo jak
paprotka Barnsleya. Co więcej, jeżeli przeskalujemy prze­
kształcenia z systemu iteracyjnego odpowiadającego paprot­
ce Barnsleya (na przykład jeżeli pomnożymy wszystko przez
2), to atraktor również zostanie przeskalowany (też o czynnik
2). W tym sensie zdekodowany obraz nie ma swego rozmiaru
charakterystycznego, może zostać zdekodowany jako obraz
dowolnego rozmiaru. Dodatkowe szczegóły, potrzebne do de­
kodowania obiektów większych rozmiarów, są automatycznie
generowane przez przekształcenia kodujące. Można by się
zastanawiać (na szczęście niezbyt długo), czy te szczegóły są
„rzeczywiste” , tzn. czy dekodowanie obrazu pewnej osoby
w coraz większym rozmiarze doprowadzi w końcu do tego,
że zobaczymy komórki skóry albo nawet atomy? Odpo­
wiedz jest oczywiście negatywna. Szczegóły zdekodowanego
obrazu nie są związane ze szczegółami naprawdę występują­
cymi wtedy, kiedy obraz był zapisywany w postaci cyfrowej.
Pochodzą one od przekształceń kodujących, które potrafią
dobrze kodować tylko części dużej wielkości. Niemniej jed­
nak w pewnych przypadkach szczegóły są realistyczne nawet
w małych powiększeniach, co może być użyteczną cechą na­
szej metody. Na przykład rys. D .l pokazuje szczegół fraktalnego zakodowania Lenny, obok powiększenia oryginału.
3 Z Naval Ocean Systems Center, San Diego.
4 Ze State University of New York, Stony Brook.
ouo
Rysunek D .l:
Część kapelusza Lenny, zdekodow ana w cztero­
krotnie większym pow iększeniu (po lewej) oraz obraz oryginalny
powiększony czterokrotnie (po prawej). N a praw ym rysunku w i­
doczna jest pikselizacja
Cały oryginalny obraz jest przedstawiony na rys. D.4 (po
lewej), jest to słynny już obraz Lenny, powszechnie używany
w literaturze na tem at kompresji obrazu. Powiększenie ory­
ginału ukazuje pikselizację: krateczki, które składają się na
obraz dadzą się wyraźnie odróżnić. Jest to spowodowane
czterokrotnym powiększeniem. Obraz zdekodowany nie wy­
kazuje pikselizacji, szczegóły bowiem są kreowane we wszy­
stkich skalach wielkości.
Obraz jest zapisywany w komputerze jako zbiór wartości
odpowiadających nasyceniu szarości (albo koloru) w każdym
punkcie (pikselu) obrazu. Typowo używanych jest 8 bitów
dla obrazów czarno-białych, co daje 28 = 256 możliwych
poziomów szarości dla każdego piksela. Doprowadza to do
stopniowania szarości, wystarczającego na to, by obrazy mo­
nochromatyczne zapisane w ten sposób wyglądały dobrze.
Niemniej jednak gęstość pikseli w obrazie musi być dosta­
tecznie duża, by nie było widać poszczególnych pikseli. Tym
samym nawet dla niewielkich obrazów potrzebne są duże
liczby pikseli, a zatem wymagana jest duża ilość pamięci.
Jednak oko ludzkie nie zauważa pewnych typów straty in­
formacji, a więc jest możliwe magazynowanie pewnego przy­
bliżenia obrazu jako zbioru transformat, które używają
C zem u
n a z y w a m y to
fr a k ta ln ą
„ k o m p re s ją ”
o b ra z u ?
506
Dodatek . Omówienie fraktalnej kompresji obrazów
znacznie mniej pamięci komputerowej, niż było potrzebne
do zapisania oryginalnego obrazu.
Tak na przykład cieniowaną odmianę trójkąta Sierpiń­
skiego z rysunku D.2 można odtworzyć z jedynie 132 bitów
pamięci przy użyciu tego samego mechanizmu dekodującego,
który wygenerował inne zakodowane obrazy w tym dodatku.
Ponieważ obraz ten jest samopodobny, może zostać zakodo­
wany w sposób bardzo zwięzły — jako pewien zbiór prze­
kształceń. Na tym polega idea schematu fraktalnej kompre­
sji obrazu opisanego poniżej.
C ieniow ana
odm iana
trójk ąta
Sierpińskiego
Rysunek
D .2 : C ieniow ana od m ian a trójkąta Sierpińskiego
Standardowe metody kompresji obrazu można oceniać
na podstawie ich współczynnika kompresji: stosunku ilości
pamięci, potrzebnej do zapisania nieprzetworzonego obrazu
jako zbioru pikseli, do ilości pamięci potrzebnej do zapisania
reprezentacji obrazu w postaci skompresowanej. Współczyn­
nik kompresji dla schematu fraktalnego jest trudny do zmie­
rzenia, ponieważ obraz można zdekodować w dowolnej skali.
Jeżeli zdekodowalibyśmy szarą wersję trójkąta Sierpińskiego
powiększoną dwukrotnie w stosunku do oryginału, to mo­
glibyśmy twierdzić, że współczynnik kompresji wzrósł czte­
rokrotnie, gdyż do zapisania zdekompresowanego obrazu po­
trzeba czterokrotnie więcej pikseli. Innym przykładem może
być obraz na rysunku D .l. Jest to część kompresji w sto-
U.L.
OćUilUpULlUUieilSbWU UU1ĆIZUW
OU I
sunku 5,7:1 pełnego obrazu Lenny. Gdyby został on zdekodowany w czterokrotnym powiększeniu, wtedy pełny zdekodowany obraz zawierałby 16 razy więcej pikseli, a zatem jego
współczynnik kompresji wyniósłby 91,2 : 1. Może wydawać
się, że oszukujemy Czytelnika; jednak ponieważ czterokrot­
nie większy obraz ma szczegóły w dowolnej skali wielkości,
nasze rozumowanie jest poprawne.
D . l . S a m o p o d o b ie ń stw o o b r a z ó w
Obrazy, które będziemy kodować, różnią się od obrazów
omawianych w innych częściach tej książki. Wcześniej, kiedy
mówiliśmy „obraz”, mieliśmy na myśli zbiór, który można
przedstawić jako czarny rysunek na białej płaszczyźnie, gdzie
miejsca czarne odpowiadały punktom tego zbioru. Tutaj
„obraz” oznacza obiekt wyglądający jak czarno-biała foto­
grafia.
G raf
w ygenerow any
z obrazu Lenny
Aby omawiać kompresję obrazu, potrzebny jest jego ma- O brazy jako
tematyczny model. Na rysunku D.3 pokazano wykres pew- w ykresy funkcji
nej specjalnej funkcji z = f{x>y)- Wykres ten powstał przy
508
Dodatek. Omówienie fraktalnej kompresji obrazów
użyciu obrazu Lenny (zob. rys. D.4), wzniesienie wykresu
nad punktem (x,y) odpowiada natężeniu szarości w od­
powiednim pikselu; kolor biały odpowiada położeniu wyso­
kiemu, a czarny — niskiemu. Jest to nasz model obrazu,
z tym małym wyjątkiem, że wykres na rysunku D.3 powstał
z połączenia punktów w przestrzeni, położonych nad punk­
tam i sieci 64 x 64, a w ogólności zakładamy, że wysokość
można zaznaczyć nad każdym punktem płaszczyzny (x,y)
i to w sposób niezależny jedna od drugiej. Innymi słowy,
nasz model obrazu ma nieskończoną rozdzielczość.
A zatem kiedy chcemy odwołać się do pojęcia obrazu,
mamy na myśli pewną funkcję /(x ,y ) , która podaje poziom
(natężenia) szarości w każdym punkcie (x,y). Kiedy mamy
do czynienia z obrazami o skończonej rozdzielczości, jakimi
są na przykład obrazy zapisane w postaci cyfrowej w pamięci
komputera, musimy albo uśredniać funkcję /(rr, y) względem
pikseli, albo zakładać, że funkcja f ( x , y ) ma w każdym z pi­
kseli stałą wartość.
N or malizowanie
wykresów
obrazów
D la uproszczenia zakładam y, że m am y do czynienia z obrazam i kw a­
d rato w y m i wielkości 1. W y m a g a m y , by {x,y) £ I 2 = {(u,v) I 0 <
u, v < 1 } oraz by f(x, y) £ I = [0 ,1 ]. Poniew aż będziem y chcieli sto­
sować zasadę przekształcenia zw ężającego, przestrzeń obrazów musi
być przestrzenią m etryczn ą zu pełną. W y m a g a m y też, żeby / była
fu n kcją m ierzaln ą. Jest to w ym ag an ie form aln e, które nas specjalnie
nie ogranicza, każda bow iem funkcja kaw ałkam i ciągła jes t m ierzalna
i m ożem y przyjąć, że dow olny n a tu raln y obraz odpow iada właśnie ta ­
kiej funkcji.
Chcielibyśmy umieć mierzyć odległość pomiędzy obra­
M etryka
w p rzestrzen i zami. Wprowadzimy więc metrykę na przestrzeni obrazów.
obrazów Istnieje wiele metryk do wyboru, ale najprostsza w użyciu
jest metryka supremum
S(f, g) =
sup
If ( x , y ) - g{x, y)\.
(x,y)el2
Metryka ta wyszukuje to położenie (#,y), w którym funkcje
/ i g różnią się najbardziej. Wartość różnicy / i g w tym
punkcie jest ich odległością.
Istnieją inne możliwe wybory modelu obrazu i inne moż­
liwe metryki. Tak samo jak przedtem, wybór metryki okreś-
5Uy
U. 1. bamopodobieństwo obrazów
d
Rysunek D.4: Oryginalny obraz Lenny wielkości 256x256 pikseli
(po lewej) i pewne jego samopodobne części (po prawej)
la, czy przekształcenia są ściągające, czy nie. Szczegóły te
są istotne, ale wykraczają poza zakres tego dodatku.
Typowy obraz twarzy, jak na przykład ten z rysunku D.4
(po lewej) nie wykazuje takich cech samopodobieństwa, jakie można odnaleźć na przykład w trójkącie Sierpińskiego,
Wydaje się, że obraz ten nie zawiera afinicznych przekształceń siebie samego. Ale w istocie obraz ten wykazuje inny
rodzaj samopodobieństwa. Rysunek D.4 (po prawej) po­
kazuje przykładowe części obrazu Lenny, które są podobne
w różnych skalach: część jej ramienia zachodzi na obszar,
który wygląda prawie tak samo, a część odbicia w lustrze jej
kapelusza jest podobna (po przekształceniu) do części kape­
lusza. Różnicą w stosunku do rodzaju samopodobieństwa
obecnego w paprotkach i trójkątach jest to, że obraz nie
jest złożony z kopii całego siebie (po odpowiednim prze­
kształceniu afinicznym), a składa się z kopii (odpowiednio
przekształconych) części samego siebie. Części te nie są
identycznymi kopiami siebie po przekształceniu afinicznym,
a więc musimy dopuścić pewien błąd w naszym przedstawia­
niu obrazu jako zbioru przekształceń. Oznacza to, że obraz,
zakodowany jako zbiór przekształceń, nie będzie wierną ko­
pią obrazu oryginalnego, a tylko pewym jego przybliżeniem.
Na zakończenie zastanówmy się, jakie obrazy mogą wy­
kazywać taki rodzaj lokalnego samopodobieństwa. Wyniki
O brazy
natu raln e nie są
dokładnie
sam opod ob n e
510
Dodatek. Omówienie fraktalnej kompresji obrazów
eksperymentalne sugerują, że większość obrazów, które mo­
żemy zobaczyć, można skompresować przy użyciu tego typu
samopodobieństwa, np. obrazy drzew, twarzy, domów, gór,
chmur itd. Istnienie takiego lokalnego samopodobieństwa
i możliwość jego algorytmicznego wyszukiwania są dwoma
odrębnymi zagadnieniami. W tym miejscu zajmiemy się dru­
gim z nich.
D .2 . P e w n a s p e c ja ln a K W R
K o p ia rk i W tej części omówimy pewne rozszerzenie schematu kopiarki
p o d z ie lo n e wielokrotnie redukującej, którego następnie użyjemy do ko­
dowania i dekodowania obrazów o zmiennym odcieniu szaroś­
ci. Tak jak przedtem, urządzenie jest charakteryzowane
przez kilka parametrów:
Param etr 1: liczba systemów soczewek,
Param etr 2: ustawienie współczynnika redukcji, osobno dla
każdego systemu soczewek,
Param etr 3: ustawienie systemów soczewek przy składaniu
kopii w całość.
Te param etry są częścią definicji KW R z rozdziału 5;
dodajemy do nich dwie następujące możliwości:
Param etr 4: ustawienie kontrastu i jasności dla każdego sy­
stemu soczewek,
Param etr 5: przesłona, która dla każdej soczewki z osobna
odsłania część oryginału do skopiowania.
Te dodatkowe możliwości wystarczają do kodowania obrazów
o zmiennym odcieniu szarości. O statni z parametrów jest
nowym, ważnym udoskonaleniem: dzieli on obraz na części,
z których każda będzie przekształcana oddzielnie. Z tego
powodu nazywać będziemy tę KW R podzieloną kopiarką
wielokrotnie redukującą (PKW R). Przez rozbijanie obrazu
na części możemy teraz zakodować wiele kształtów, które
byłoby bardzo trudno zakodować przy użyciu zwykłej KWR
(czy systemu iteracyjnego funkcji).
Omówmy w skrócie, co się stanie, kiedy przetworzymy
obraz oryginalny, używając naszego nowego urządzenia. Każ­
da z soczewek wybiera część oryginału, oznaczaną dalej przez
Di) i przekształca tę część (przekształcając też kontrast i ja­
sność) na część wytwarzanej kopii, którą oznaczamy przez
R i . D i będziemy nazywać dziedzinami, R i zaś — przeciw-
u . z. r e w im s p e c ja ln a j\ w n
tJ-L J.
dziedzinami. Odpowiednie przekształcenie oznaczamy przez
Rozbicie pozostaje domyślne przy tym oznaczeniu, a więc
możemy używać prawie takich samych oznaczeń, jak przed­
tem. Przy danym obrazie / jeden krok kopiowania przez ma­
szynę o N soczewkach można zapisać jako W ( f ) = w i ( f ) U
w 2 ( / ) U * ** U
Tak jak przedtem, urządzenie pracuje
w pętli sprzężenia zwrotnego: obraz końcowy kroku pierw­
szego staje się obrazem początkowym dla kroku drugiego
i tak dalej.
Rozważmy PKW R o 8 soczewkach, narysowaną na ry- P K W R dla
sunku D.5. Na rysunku zaznaczone są dwa obszary, je- m uszki
den oznaczany przez D\ =
= £>3 = Dą) a drugi przez
£>5 — Ds = Dy = £)g. Są to części rozbicia oryginału, które
będą następnie kopiowane przez 8 soczewek. Soczewki prze­
kształcają każdą dziedzinę Di na odpowiednią przeciwdziedzinę Ą , zmniejszając ją przy tym dwukrotnie (współczynnik
redukcji wynosi więc 1 / 2 ). Dla uproszczenia zakładamy, że
kontrast i jasność nie są w tym przykładzie zmieniane. Na
rysunku D .6 przedstawiono trzy iteracje PKW R dla trzech
Rysunek D.6:
początkow ych
Trzy iteracje
PKWR
dla trzech różnych obrazów
512
Dodatek. Omówienie fraktalnej kompresji obrazów
różnych obrazów początkowych. Atraktorem dla tego sy­
stemu jest obraz w kształcie muszki, pokazany na ry­
sunku (c).
Przykład ten ukazuje użyteczność PKW R. Przez odpo­
wiednie rozbicie oryginału, który miał zostać skopiowany,
zakodowanie obrazu muszki stało się bardzo proste (bystry
Czytelnik zauważy, że obraz ten można zakodować również
przy użyciu IFS).
P K W R = P IF S
M atematyczny odpowiednik PKW R nazwiemy podzielo­
nym systemem iteracyjnym funkcji (PIFS). PIFS ma pewne
cechy wspólne z kopiarkami połączonymi w sieć i powracalnymi systemami iteracyjnymi Barnsleya, ale wcale nie jest
z nimi identyczny.
Nie powiedzieliśmy jeszcze, jakie typy przekształceń bę­
dziemy dopuszczać. Formalnie rzecz biorąc, PKW R (czy też
PIFS) może składać się z zupełnie dowolnych przekształceń.
Jednakże dla uproszczenia sytuacji, jak również dla umożli­
wienia zwartego zapisu końcowego PIFS (dla uzyskania wy­
sokiego stopnia kompresji), ograniczamy się do przekształceń
Wi postaci
X
Wi
y
di
—
0
0
fH
Ci
0
z
0
" Ci "
X
"
y
z
Si _
+
fi
(D.l)
Ol
Wygodnie będzie zapisać
Vi{x,y) =
di
bi
Ci
di
X
_
y
+
.
Ci
/»
. fi .
Ponieważ obraz jest modelowany jako funkcja f { x , y ), mo­
żemy zapisać działanie Wi na obraz / jako Wi(f) = Wi{x,y,
f ( x , y ) ) . Przy tym podejściu
określa, w jaki sposób ele­
menty rozbicia (dziedziny) oryginału są przekształcane na
kopie (przeciwdziedziny), a
oraz Oi określają ich kontrast
i jasność. Nie wolno zapominać, że każde
jest ograniczone
do D{ x 7, czyli że w i działa jedynie na tę część obrazu, która
leży ponad dziedziną D{. Oznacza to, że Vi(Di) — R i .
Ponieważ chcemy, by W ( /) było obrazem, musimy żądać,
by URi = I 2 oraz by Ri HR j = 0, jeżeli i ^ j. A zatem, jeżeli
stosujemy W do jakiegoś obrazu, otrzymujemy pewną jed­
noznaczną wartość powyżej każdego punktu z kwadratu 72.
Działanie kopiarki w pętli odpowiada iterowaniu operatora
D.2. few na specjalna K W K
013
Hutchinsona W . Wychodzimy od obrazu początkowego /o,
a potem iterujemy: h = W ( f Q), h = W ( f i) = W ( W ( f Q))
i tak dalej, n-tą iterację będziemy oznaczać przez f n —
W n( f o).
Kiedy W będzie miało przyciągający punkt stały? Na P u n k ty stałe dla
mocy zasady przekształcenia zwężającego wystarczy, by W P IF S
było kontrakcją. Ponieważ wybraliśmy taką metrykę, która
jest czuła tylko na to, co dzieje się w kierunku z, nie musimy
nakładać warunków kontrakcji w kierunku x ani y. Prze­
kształcenie W będzie kontrakcją, jeżeli wszystkie Si < 1.
W rzeczywistości zasadę przekształcenia zwężającego można
zastosować do pewnej iteracji W m, a zatem wystarcza, by
W m było zwężające dla pewnego m. Prowadzi to do nieco
zdumiewającego rezultatu, że nie musimy nakładać żadnego
specjalnego warunku na S{. W praktyce najbezpieczniej jest,
by Si < 1, co zapewnia własność ściągania. Ale ekspery­
menty pokazują, że równie bezpieczna jest wartość Si < 1,2
i że w tym ostatnim przypadku kodowanie jest nawet trochę
lepsze.
Jeżeli W nie jest ściągające, ale W m jest (dla pewnego P rzek ształcen ia
m), to W będziemy nazywać ostatecznie ściągającym. Po­ o sta teczn ie
winniśmy teraz omówić, jak jest możliwe, by własność zwę­ ściągające
żania zachodziła dla pewnej iteracji przekształcenia W, ale
nie dla W. Przekształcenie W składa się z sumy (teoriomnogościowej) przekształceń Wi działających na rozłączne
części obrazu. Iteracja przekształcenia, W m, składa się z su­
my składowych postaci
Ponieważ iloczyn ograniczeń współczynników ściągania ogra­
nicza współczynnik ściągania złożenia, składowe te mogą być
kontrakcjami, gdy każda z nich zawiera pewne w*., które
ściąga dostatecznie mocno. A zatem W będzie ostatecz­
nie ściągające (w metryce supremum), jeżeli zawiera dosta­
tecznie dużo „mieszania” , tak że ściągające przekształcenia
Wi będą w końcu dominowały nad tymi, które rozciągają.
W praktyce dla danego PIFS warunek ten można łatwo
sprawdzić.
Przypuśćmy, że wszystkie Si < 1. Oznacza to, że w prze­
biegu PKW R kontrast zawsze ulega redukcji. Wydawać
się może, że w tym przypadku końcowy atraktor będzie jakąś
514
Dodatek. Omówienie fraktalnej kompresji obrazów
rozmytą, nieostrą szarością. Tak jednak nie jest, kontrast
bowiem jest tworzony na przejściu między przeciwdziedzinami mającymi różne stopnie jasności o^. Czy zatem kon­
trast w atraktorze zmienia się jedynie przy przechodzeniu
między różnymi R i? Nie: jeżeli przekształcenia V{ będą kontr­
akcjami, to miejsca, w których kontrast zmienia się pomiędzy
częściami Ri, będą się rozprzestrzeniać w coraz mniejszej
skali. Tak właśnie w atraktorze powstają szczegóły. Jest to
jeden z powodów, dla których żądamy, by przekształcenia Vi
były kontrakcjami.
Wiemy już, jak zdekodować obraz, który został zako­
dowany jako PIFS czy też jako PKW R. Zacznijmy od do­
wolnego obrazu początkowego i stosujmy wielokrotnie W —
tak długo, aż dostaniemy punkt stały foo. Będziemy używać
oznaczenia Hutchinsona i zapiszemy
= |Wj. Dekodowa­
nie jest łatwe, a tym, co nas naprawdę interesuje, jest ko­
dowanie. W celu zakodowania obrazu musimy wyznaczyć
Ri^Di oraz
jak również N , liczbę przekształceń, które
chcemy stosować.
Dekodowanie za
pomocą
odwracania
macierzy
Jeżeli d eko d u jem y obraz, używ ając ¡terow ania, bierzem y początkow e
/o i w y zn a c za m y f n = W ( f n~i). M o że m y to ta k ż e zapisać jako
f n{ x , y ) = sif n_ i { v l 1 {x,y)) + ou
gdzie i je s t w y zn a czan e z zależności (x,y) £ Ri. Przypuśćm y, że
m am y do czynienia z obrazem o rozdzielczości M x M . O braz można
zapisać ja k o w e kto r kolum nowy, pow yższe rów nanie przybiera w tedy
postać
fn = S f n - i + O ,
gdzie S je s t m acierzą kw ad rato w ą M 2 x M 2 o elem entach s*, które
kodują przekształcenia Vi, n a to m ia st O je s t w ektorem kolum now ym ,
zaw ierającym w artości p o ziom ów jasności 0 {. W te d y
n
fn = S nf 0 + Y , S J- 1O,
a jeżeli każde si < c < 1, to pierw szy składnik je s t w granicy równy
0 (w aru n ek Si < c < 1 m ożna opuścić, jeżeli W je s t ostatecznie
ściąg ające). Jeżeli I ~ S je s t m acierzą o d w ra ca ln ą , to
oo
/oo =
^ 5
j -0
^ 0
- ( J
- 5
) - 10 ,
u .ó>ivoaowaiize
oorazow
010
gdzie I jest m acierzą identycznościow ą. Bielefeld zw ró c ił uwagę, że
w przypadku, gdy w każdym pikselu w artość f n(x,y) zależy tylko
od jednej (alb o kilku) wartości f n^ i ( v ~ 1 (x, y ) ) , m acierz ta zaw iera
wiele zer i m ożna ją ła tw o odw rócić.
D .3 . K o d o w a n ie o b r a z ó w
Przypuśćmy, że chcielibyśmy zakodować pewnien dany obraz
/. Oznacza to, że chcemy znaleźć zbiór przekształceń w i,
takich, że W — IJ^Li wi oraz f ~ 1^1* Chcemy
więc, by / było punktem stałym dla operatora Hutchinsona
W. Tak samo jak w przypadku IFS, równanie na punkt stały
f = w ( f ) = W i ( f ) U w2(/) U • • • U wN (f)
sugeruje, w jaki sposób możemy tego dokonać. Szukamy
rozbicia / na części, do których następnie zastosujemy prze­
kształcenia Wi i z powrotem dostaniemy / . Nie możemy li­
czyć, że procedura ta będzie zawsze pracować, ponieważ z
reguły obrazy nie są zbudowane z części, które można nietrywialnie przekształcić tak, by dokładnie pasowały gdzie
indziej w obrazie. Możemy mieć natomiast nadzieję na zna­
lezienie innego rodzaju obrazu / ' = \W\, gdzie
jest
małe. Innymi słowy szukamy przekształcenia W, którego
punkt stały / ' = \W\ jest bliski /, czy też, mówiąc opisowo,
wygląda podobnie do /. W tym przypadku
f * f ' * W ( f ' ) K W ( f ) = Wl (f ) U w2(f ) u ... U wN (f).
A zatem wystarczy przybliżać części obrazu za pomocą prze­
kształconych części. Dokonujemy tego, minimalizując wiel­
kości
S (/n(flixM )),
i = l , . . . , N.
(D.2)
Znalezienie części Ri (i odpowiadających im dziedzin Di)
stanowi sedno problemu.
Następujący przykład może sugerować, jak możemy to P rosty przykład
robić. Przypuśćmy, że mamy do czynienia z obrazem 256 x dla ilustracji
256 pikseli, o 8 bitach na piksel. Niech i?i, i?2> • • • >R 1024
będą nie zachodzącymi na siebie kwadracikami 8 x 8 , pokry­
wającymi kwadrat [0,255] x [0,255]. Niech D będzie zbio-
516
Dodatek. Omówienie fraktalnej kompresji obrazów
rem wszystkich kwadracików 16 x 16. Zbiór D składa się
z 241 ♦241 = 58 081 kwadracików. Dla każdego Ri szukamy
takiego kwadracika Ą G D , który minimalizuje równanie
(D.2). Mówimy, że dziedzina ta pokrywa przeciwdziedzinę.
Każdy z małych kwadracików można przekształcić na 8 spo­
sobów na wybrany inny mały kwadracik, a więc oznacza to
porównywanie 8 *58 081 = 464648 kwadracików. Ponadto
każdy z kwadracików w D zawiera czterokrotnie więcej pi­
kseli niż Ri, czyli musimy albo dokonać wyboru (wybieramy
1 z każdych podkwadracików 2 x 2 w Di), albo uśrednić
podkwadraciki 2 x 2 , kiedy minimalizujemy równanie (D.2).
Zminimalizowanie równania (D.2) oznacza dwie rzeczy.
Po pierwsze, znalezienie dobrego wyboru Di (czyli tej części
obrazu, która najbardziej przypomina część powyżej Ri). Po
drugie, oznacza to znalezienie dobrych ustawień kontrastu
i jasności Si i o\ dla Wi. Dla każdego D G D możemy obli­
czyć S{ i Oi, używając metody najmniejszych kwadratów, co
ponadto da nam pierwiastek ze średniej różnicy kwadrato­
wej, W ybieramy jako Di ten kwadracik D £ D, dla którego
średnia różnica kwadratowa jest najmniejsza z możliwych.
Dwóch ludzi, lecących balonem, zostaje zniesionych z kur­
U w aga n a tem a t
m etryk su przez silny podmuch wiatru. Nie znając swojego położe­
nia zbliżają się do wzgórza, na którym siedzi samotna osoba.
Obniżają lot balonu i krzyczą do człowieka na wzgórzu:
- Gdzie jesteśmy?
Człowiek zastanawia się dłuższą chwilę i odpowiada:
- W balonie.
Jeden z mężczyzn w balonie zwraca się do drugiego i mówi:
- Ten człowiek był matematykiem.
Kompletnie zdumiony drugi z mężczyzn pyta:
- Skąd wiesz?
Pierwszy na to odpowiada:
- Zadaliśmy mu pytanie. Myślał nad nim przez długi czas,
a potem udzielił poprawnej odpowiedzi, która jednak była
całkowicie bezużyteczna.
Właśnie tak można opisać to, co zrobiliśmy z metryką.
Kiedy chodziło nam o prostą motywację teoretyczną, uży­
liśmy metryki supremum, która była do tego celu bardzo
wygodna. Ale w zastosowaniach praktycznych będzie dużo
lepiej używać metryki średniokwadratowej, w której łatwo
jest wykonać obliczenia najmniejszych kwadratów.
D / ó . K o d o w a n ie o b r a z ó w
b
Załóżm y, że dane są dwa kw adraty, zaw ierające n intensywności pik­
seli:
oraz
S zukam y takic h wartości s i o, które
zm in im alizu ją w yrażenie
R=
+ o - 6i)2.
Ż=1
Da nam to ta k ie wartości ustawień kontrastu i jasności, że afinicznie przekształcone wartości
będą leżały w najm niejszej m ożliw ej
średniokw adratow ej odległości od wartości bi . R p rzyjm u je w artość
m inim alną, kiedy pochodne cząstkow e w zględem s i o są rów ne zeru,
co zachodzi dla
n
n
n
n‘
. 1—
. 1=1
s—
1
. 1— 1
w
oraz
\i =l
1=1 /
W tym przypadku
n
R
=
E 6*2 + a (
.i=i
a
^ajbj + 2o
¿=i
V
n
t= i
'y ' aj
\
j +
(D.3)
to s
= 0 oraz o = Y%=i bi / n<2'
i - i
(
+ o I on2 —2 y >
\
Jeżeli
n2 Y!i=i al “ (EILi ai)2 = 0,
Wybór Di wraz z odpowiadającymi im Si i Oi wyznacza
przekształcenie Wi, które jest postaci takiej, jak w równaniu
(D.l). Po znalezieniu przekształceń w i,...,wio24 możemy
zdekodować obraz za pomocą przybliżania \W\. Na rysunku
D.7 przedstawiono cztery obrazy: dowolny obraz /o wy­
brany, aby uwydatnić fakturę, jego pierwsza iteracja W ( / o ) ,
zachowująca jeszcze nieco z faktury / o , a następnie W 2(fo)
i W 10( / o ) .
M etoda
najm niejszych
kw adratów
IY
Dodatek. Omówienie fraktalnej kompresji obrazów
518
R ysunek D.7: Obraz oryginalny, pierwsza, druga i dziesiąta
iteracja przekształceń kodujących
Rezultat jest zaskakująco dobry, jeżeli weźmiemy pod
uwagę, jak naiwny i prosty był algorytm kodujący. Do za­
pisu oryginalnego obrazu potrzebowaliśmy 65 536 bajtów pa­
mięci, a do zapisania przekształceń5 potrzebujemy tylko 3968
bajtów, co daje współczynnik kompresji 16,5 : 1. Przy tym
kodowaniu R = 10,4, a każdy piksel znajduje się średnio
5 Każde z przekształceń potrzebuje 8 bitów w kierunkach x i y do
wyznaczenia położenia D*, 7 bitów dla o*, 5 bitów dla Si i 3 bity do
opisania obrotu i odbicia, występujących przy przekształcaniu Di na
Ri-
u . 4. o p o so u y r o z u ija n ia o o ra z u
jedynie o 6,2 poziomów szarości od poprawnej wartości.
Obrazy te pokazują, jak w każdej iteracji powstają nowe
szczegóły. Pierwsza iteracja zawiera szczegóły wielkości 8x8,
następna wielkości 4 x 4 i tak dalej.
D .4 . S p o so b y r o z b ija n ia o b ra zu
Przykład z poprzedniego paragrafu jest wręcz banalny, ale
dobrze opisuje ideę schematu fraktalnego kodowania obra­
zów. Najpierw rozbijamy obraz za pomocą pewnego zbioru
przeciwdziedzin Ri. Następnie dla każdej Ri wybieramy spoś­
ród pewnego zbioru części obrazu takie Ą , które daje mały
błąd średniokwadratowy. Zbiory Ri i Di wyznaczają Si i c>t,
jak również a*, bi, c^, di, e* i fi z równania (D .l). Otrzy­
mujemy przekształcenie W — Uit^, które koduje pewne przy­
bliżenie oryginalnego obrazu.
Słabością powyższego przykładu jest to, że używa on R o zb icie
ustalonej wielkości przeciwdziedzin Ą . Istnieją obszary ob­ p o c z w ó rn e
razu, które trudno będzie dobrze pokryć w taki sposób (na
przykład oczy Lenny). Jednocześnie istnieją obszary, dla
których wystarczające będą większe przeciwdziedziny, co mo­
że zmniejszyć potrzebną liczbę przekształceń Wi, a tym sa­
mym poprawić współczynnik kompresji obrazu. Uogólnie­
niem rozbicia o stałej wielkości Ri jest tzw. rozbicie pocz­
wórne obrazu (quadtree partitioning). Przy tym rozbiciu
obraz kwadratowy jest dzielony na 4 mniejsze kwadraciki
takiej samej wielkości. Przy użyciu pewnego algorytmicz­
nego kryterium każdy z tych kwadracików może być dalej
rekursywnie dzielony.
Algorytm kodowania obrazu 256 x 256 pikseli może prze­
biegać następująco. Wybierzmy jako zbiór dopuszczalnych
dziedzin D zbiór złożony ze wszystkich małych kwadracików
obrazu wielkości 8, 12, 16, 24, 32, 48 i 64. Dzielmy te­
raz rekursywnie nasz obraz przy użyciu metody poczwórnej
tak długo, aż kwadraciki będą wielkości 32. Każdy kwadra­
cik rozbicia poczwórnego spróbujmy pokryć dziedziną, która
byłaby od niego większa. Jeżeli błąd średniokwadratowy
będzie mniejszy od pewnej z góry ustalonej wartości, to kwa­
dracik ten nazywamy
a jego pokrycie (przez większą dzie­
dzinę) — Di. Jeżeli nie, dzielimy kwadrat po raz kolejny i po­
wtarzamy procedurę. Metoda ta pracuje jeszcze lepiej, jeżeli
dopuścimy do zbioru dziedzin dopuszczalnych również kwa­
Ulii
Dodatek . Omówienie fraktalnej kompresji obrazów
520
draciki położone ukośnie. Na rysunku D.8 przedstawiliśmy
obraz owczarka collie, skompresowany przy użyciu tej me­
tody. Omówienie szczegółów tej, jak również dwóch innych
metod (opisanych poniżej), odkładamy do następnego para­
grafu.
O w czarek collie
R ysunek D.8: Owczarek collie (256 x 256) skompresowany przy
użyciu schematu poczwórnego. Współczynnik kompresji wynosi
28,95 : 1, błąd średniokwadratowy 8,5
R o z b ic ie H V
Słabością rozbicia poczwórnego jest to, że nie próbuje
ono wybierać zbioru dopuszczalnych dziedzin D w sposób
zależny od tego, co dany obraz przedstawia. Zbiór ten musi
być bardzo duży, by zawsze dało się znaleźć dziedzinę do­
brze pasującą do danego fragmentu obrazu. Jednym ze
sposobów, w jaki możemy temu zaradzić, jednocześnie po­
prawiając elastyczność rozbicia na obrazy, jest użycie roz­
bicia HV (H V partitioning). W rozbiciu HV obraz pro­
stokątny jest rekursywnie dzielony tak długo, aż spełnione
będzie pewne kryterium (jak przedtem). Schemat ten jest
bardziej elastyczny, ponieważ zmienne jest położenie rozbi­
cia. Możemy wtedy próbować tak dzielić obraz, by roz­
bicie miało coś ze struktury samopodobnej. Na przykład
możemy próbować układać rozbicia w taki sposób, by brzegi
obrazu miały tendencję do diagonalnego przebiegania przez
jego elementy. Możliwe jest użycie rozbicia większego, które
D A .
ozi
S p o s o b y r o z b ija n ia o b r a z u
pokrywałoby rozbicia mniejsze przy zachowaniu pewnych
rozsądnych wymagań wobec „dobrego” rozbicia. Na ry­
sunku D.10 przedstawiamy tę ideę. Na rysunku D.10 (a) po­
kazujemy część obrazu; na rysunku (b) — pierwszy podział
generuje dwa prostokąty: R \ , przez który krawędź przebiega
ukośnie i i?2 — nie zawierający żadnej krawędzi; na rysunku
(c) — następne trzy rozbicia iii dzielą go na 4 prostokąty,
z których dwa mogą zostać dobrze pokryte przez iii (po­
nieważ krawędź przebiega przez nie na ukos) i dwa, które
mogą zostać pokryte przez i i 2 (ponieważ nie przebiega przez
nie żadna krawędź). Na rysuku D.9 przedstawiono obraz San
Francisco, zakodowany przy użyciu tego schematu.
S an F ran cisco
Rysunek D.9: Obraz San Francisco (256 x 256) skompresowany
przy użyciu schematu HV. Współczynnik kompresji wynosi 7,6 :
1, błąd średniokwadratowy 7,1
Jeszcze inny sposób rozbijania obrazu oparty jest na trój- R o zb icie
kątach (tzw. rozbicie trójkątne, triangular partitioning). tr ó jk ą tn e
W trójkątnym schemacie podziału prostokątny obraz zo­
staje podzielony ukośnie na dwa trójkąty. Każdy z nich
jest następnie rekursywnie dzielony na 4 mniejsze trójkąty,
które są otrzymywane przez podział trójkąta wzdłuż pro­
stych łączących trzy punkty podziału, leżące na trzech bo­
kach trójkąta. Metoda ta ma wiele zalet w porównaniu z me­
todą rozbicia HV. Jest ona elastyczniejsza, trójkąty w tym
522
Dodatek. Omówienie fraktainej kompresji obrazów
Rysunek D.10:
Schem at HV próbuje tworzyć sam opodobne
p rostokąty w różnych skalach wielkości
R ysunek D .ll: Rozbicie poczw órne (5008 kw adratów ), rozbicie
HV (2910 prostokątów ) i rozbicie tró jk ątn e (2954 trójkątów )
schemacie można wybierać w taki sposób, by rozbicie miało
pewne cechy samopodobieństwa, jak przedtem. Ale tym ra­
zem artefakty, biorące się z niedoskonałości pokrycia, nie
biegną poziomo i pionowo, ale ukośnie, co mniej rozprasza.
Ponadto trójkąty mogą być zorientowane w dowolny sposób,
a zatem odchodzimy od obrotów o ustalone 90 stopni, które
występowały w rozbiciu poczwórnym i rozbiciu HV. Ta me­
toda musi jeszcze zostać w pełni rozwinięta i zbadana.
Na rysunku D . l l pokazujemy przykładowe rozbicia uzy­
skane w drodze trzech powyżej omówionych sposobów dzie­
lenia obrazu, zastosowanych do obrazu Lenny.
D .5 . U w a g i im p le m e n ta c y jn e
Z a p isy w a n ie W celu zwartego zapisania sposobu kodowania nie podak o d o w a n ia jemy wszystkich współczynników z równania (D.l). Ustaw sp o só b z w a rty wienia kontrastu i jasności są zapisywane przy użyciu usta­
lonej liczby bitów. Możemy na przykład obliczyć optymalne
wartości Si i o*, a następnie zdyskretyzować je przed zapisem.
Niemniej jednak wierność zapisu znacznie się poprawi, jeżeli
U .5. Uwagi im p le m e n ta c y jn e
nawet przy obliczaniu błędu w trakcie kodowania użyjemy
tylko zdyskretyzowanych wartości
i o* (równanie (D.3) to
ułatwia). Użycie 5 bitów do zapisu Si i 7 bitów do zapisu
0 { wyznaczono empirycznie jako optymalne. Rozkład
i 0{
wykazuje pewne nieregularności, a zatem dalszą kompresję
można uzyskać za pomocą kodowania entropijnego.
Pozostałe współczynniki są obliczane podczas dekodowa­
nia obrazu. W ich miejsce zapisujemy Ri i D{. Dla roz­
bicia poczwórnego Ri można kodować w porządku zapisu
przekształceń, jeżeli tylko znamy wielkość Ri. Dziedziny Di
należy zapisywać jako położenie i wielkość (oraz orienta­
cja, jeżeli dopuszczamy dziedziny diagonalne). To jednak
nie wystarcza, istnieje bowiem 8 sposobów, w jaki możemy
przekształcić wierzchołki Di na wierzchołki Ri. Musimy więc
użyć dodatkowych trzech bitów do określenia tego obrotu
i odbicia.
W przypadku rozbicia HV i rozbicia trójkątnego zapi­
suje się je jako zbiór wartości poprawek. W miarę jak pro­
stokąty (albo trójkąty) rozbicia stają się mniejsze, do za­
pisu wartości poprawki potrzeba coraz mniej bitów. Roz­
bicie może zostać kompletnie zrekonstruowane przez proce­
durę dekodowania. Jeden bit zostaje zużyty do określenia,
czy element rozbicia jest dalej dzielony, czy też jest używany
jako
natomiast zmienna liczba bitów jest potrzebna do
określenia wskaźnika Di w wykazie wszystkich zbiorów roz­
bicia. Przy użyciu powyższych trzech metod możemy bez
wielkiego trudu uzyskać kompresję o średnio 31 bitach na
Wi.
W przykładzie z paragrafu D.3 liczba przekształceń jest
ustalona. Natomiast opisane algorytmy podziału obrazu
dają się przystosować do zmiennej sytuacji w tym sensie, że
używają one zmiennej wielkości przeciwdziedzin, w zależno­
ści od lokalnego stopnia złożoności obrazu. Przy ustalonym
obrazie zwiększenie liczby przekształceń poprawia wierność,
ale pogarsza kompresję. Ta przeciwstawność pomiędzy kom­
presją a wiernością prowadzi do dwóch różnych podęjść do
kodowania / — jednego mającego na celu jak najlepszą
wierność, a drugiego — jak najwyższą kompresję. Oba te
podejścia są naszkicowane w poniższym pseudoprogramie.
W programie tym wiel(Ri) odpowiada wielkości przeciwobrazu; w przypadku prostokątów wiel (Ri) jest długością
dłuższego boku.
524
Dodatek. Omówienie fraktalnej kompresji obrazów
O p ty m a liz a c ja
Innym problemem jest czas kodowania, który można
cz a su k o d o w a n ia znacznie skrócić przez użycie schematu klasyfikacji dziedzin
i przeciwdziedzin. Zarówno dziedziny jak i przeciwdziedziny
są klasyfikowane na podstawie pewnych kryteriów, jak na
przykład sposób położenia względem nich krawędzi obrazu,
czy też zorientowanie jasnych plamek itd. Zaoszczędzimy
wiele czasu, jeżeli w trakcie poszukiwania pokrycia będziemy
używać dziedzin z tej samej klasy, co dana przeciwdziedzina.
Spodziewamy się, że dziedziny z tej samej klasy, co dana
przeciwdziedzina, powinny pokrywać ją najlepiej.
P seudoprogram a. Pseudoprogram mający na celu wierność
e c.
• Wybierz poziom tolerancji e c.
• Połóż R i = 1 2 i zaznacz ją jako nie pokrytą.
• Tak długo, jak długo istnieją nie pokryte dziedziny Ri , powtarzaj
{
• Spośród wszystkich możliwych dziedzin D wybierz tę, wraz z od­
powiadającym jej
która najlepiej pokrywa Ri (czyli tę, która
minimalizuje wyrażenie (D .2 )).
• Jeżeli ó ( f n ( Ri x I ) , W i ( f ) ) < ec albo w ie l(Ą ) < r mi n, to
• Zaznacz Ri jako pokryte i zapisz przekształcenie Wi,
• w przeciwnym przypadku
• Rozbij Ri na mniejsze przeciwdziedziny, które są zaznaczone
jako nie pokryte, i usuń R i z wykazu nie pokrytych przeciw­
dziedzin.
}
b. Pseudoprogram mający na celu kompresję używającą N prze­
kształceń.
• Wybierz docelową liczbę przeciwdziedzin N r .
• Stwórz wykaz zawierający jedynie R i ~ I 2 i zaznacz ją jako nie
pokrytą.
• Ja k długo wykaz zawiera nie pokryte przeciwdziedziny, tak długo
powtarzaj {
• Dla każdej nie pokrytej przeciwdziedziny z wykazu odnajdź i za­
pisz tę dziedzinę Ą G D wraz z przekształceniem wi , która
pokrywa je najlepiej, i zaznacz przeciwdziedzinę jako pokrytą.
• Z wykazu wszystkich przeciwdziedzin wybierz tę, dla której
w ie l(Ą ) > rmin i dla której wyrażenie
S ( f n ( R j x I ) , Wj ( f ) )
przyjmuje największą wartość (tzn. tę, która jest najgorzej po­
kryta)
u .o. uwagi lmpiemenzacyjne
• Jeżeli liczba przeciw dziedzin w w ykazie je s t m niejsza niż N r, to
{
• Rozbij Rj na m niejsze przeciw dziedziny, dod aj je do w ykazu
i zaznacz ja k o nie pokryte,
• Usuń iZ j, Wj i Dj z w ykazu.
}
}
• W ypisz w szystkie w i z w ykazu.
ozo
L iteratura
1. K sią ż k i
C
[1] Abraham, R. H., Shaw, C. D., D ynam ics, The Geometry of Behavior, cz.I - IV, Aerial
Press, Santa Cruz., wyd. 2, Addison-Wesley, 1992.
[2] Allgower, E., Georg, K., N um erical C ontinuation Methods — A n Introduction, SpringerVerlag, New York 1990.
[3] Arnold, V. I., Ordinary D ifferential E quations, MIT Press, Cambridge 1973.
Arnold, W. I., R ów nania różniczkowe zw yczajne, PW N, Warszawa 1975.
[4] Avnir, D. (red.), The Fractal Approach to Heterogeneous Chemistry: Surfaces, Colloids,
P olym ers, John W iley & Sons, Chichester 1989.
[5] Banchoff, T. F., B eyond the Third D im ension, Scientific American Library, 1990.
[6] Barnsley, M., Fractals Everywhere, Academic Press, San Diego 1988.
[7] Beardon, A. F., Iteration o f Rational Functions, Springer-Verlag, New York 1991.
[8] Becker K.-H., Dörfler, M., Computergraphische Experim ente m it Pascal, Vieweg, Braun­
schweig 1986.
[9] Beckmann, P., A H istory o f Pi, wyd. 2, The Golem Press, Boulder 1971.
[10] Belair, J., Dubuc, S., (red.), Fractal G eometry and A nalysis, Kluwer Academic PubL,
Dordrecht, Holland 1991.
[11] Billingsley, P., Ergodic Theory and In fo rm a tio n , John Wiley & Sons, New York 1967.
[12] Billingsley, P., Probability and Measure, John W iley & Sons, New York, Chichester 1979.
Billingsley, P., Prawdopodobieństwo i m iara, PW N, Warszawa 1987.
[13] Bondarenko, B., Generalized Pascal Triangles and P yram ids, Their Fractals, Graphs and
A pplications, Fan, Tashkent 1990.
[14] Borwein, J. M., Borwein, P. B., P i and the A G M — A Study in A nalytic Number Theory,
John W iley & Sons, New York 1987.
[15] Briggs, J., Peat, F. D., Turbulent M irror, Harper & Row, New York 1989.
[16] Bunde, A., Havlin, S. (red.), Fractals and Disordered System s, Springer-Verlag, Heidelberg
1991.
[17] Campbell, D., Rose, H. (red.), Order in Chaos, North-Holland, Amsterdam 1983.
[18] Chaitin, G. J., Algorithm ic Inform ation Theory, Cambridge University Press, Cambridge
1987.
[19] Cherbit, G. (red.), Fractals, Non-integral D im ensions and Applications, John Wiley &
Sons, Chichester 1991.
[20] Collet, P., Eckmann, J.-P., Iterated M aps on the Interval as D ynamical System s,
Birkhauser, Boston 1980.
[21] Crilly, A. J., Earnshaw, R. A., Jones, H. (red.), Fractals and Chaos, Springer-Verlag, New
York 1991.
[22] Cvitanovic, P. (red.), Universality in Chaos, wyd. 2, Adam Hilger, New York 1989.
[23] Devaney, R. L., A n Introduction to Chaotic D ynam ical System s, wyd. 2, Addison-Wesley,
Redwood City 1989.
[24] Devaney, R. L., Chaos, Fractals, and D ynam ics, Addison-Wesley, Menlo Park 1990.
[25] Durham, T., Com puting H orizons, Addison-Wesley, Wokingham 1988.
[26] Dynkin, E. B., Uspenski, W ., M athem atische Unterhaltungen II, VEB Verlag, Berlin 1968.
[27] Edgar, G., Measure, Topology and Fractal G eom etry, Springer-Verlag, New York 1990.
lite r a tu r a
ÖZ(
[28] Encarnacao, J. L., Peitgen, H.-O., Sakas, G., Englert, G., (red.), Fractal Geometry and
Computer Graphics, Springer-Verlag, Heidelberg 1992.
[29] Engelking, R., Teoria W ym iaru, PWN, Warszawa 1977.
[30] Escher, M. C., The World o f M. C. Escher, H. N. Abrams, New York 1971.
[31] Falconer, K., The Geometry of Fractal Sets, Cambridge University Press, Cambridge 1985.
[32] Falconer, K.¡Fractal Geometry, M athematical Foundations and A pplications, John Wiley
& Sons, New York 1990.
[33] Family, F., Landau, D. P. (red.), Aggregation and Gelation, North-Holland, Amsterdam
1984.~
[34] Family, F., Vicsek, T. (red.), D ynam ics o f Fractal Surfaces, World Scientific, Singapore
1991.
[35] Feder, J., Fractals, Plenum Press,
New York 1988.
[36] Fleischmann, M., Tildesley, D. J.,
Ball, R. C., Fractals in the Natural Sciences, Princeton
University Press, Princeton 1989.
[37] Garfunkel, S. (Project Director), Steen, L. A. (Coordinating Editor), For A ll Practical
Purposes, wyd. 2, W. H. Freeman and Co., New York 1988.
[38] GEO Wissen — Chaos und Kreativität, Grüner + Jahr, Hamburg 1990.
[39] Gleick, J., Chaos, M aking a New Science, Viking, New York 1987.
[40] Gnedenko, B. V., Kolmogorov, A.
N., L im it distributions fo r sum s of independent random
variables, Addison-Wesley, Reading (Mass.) - London 1968.
[41] Golub, G. H., Loan, C. F. van, M atrix C om putations, wyd. 2, Johns Hopkins, Baltimore
1989.
[42] Guckenheimer, J., Holmes, P., Nonlinear Oscillations, Dynamical System s, and Bifurca­
tions of Vector Fields, Springer-Verlag, New York 1983.
[43] Guyon, E., Stanley, H. E., (red.), Fractal Forms, Elsevier/North-Holland and Palais de la
Découverte, 1991.
[44] Haken, H., Advanced Synergetics, Springer-Verlag, Heidelberg 1983.
[45] Haldane, J. B. S., On Being the Right Size, 1928.
[46] Hall, R., Illum ination and Color in Com puter Generated Im agery, Springer-Verlag, New
York 1988.
[47] Hao, B. L., Chaos II, World Scientific, Singapore 1990.
[48] Hausdorff, F., Grundzüge der Mengenlehre, Verlag von Veit & Co., 1914.
[49] Hirsch, M. W., Smale, S., Differential Equations, Dynamical System s, and Linear Algebra,
Academic Press, New York 1974.
[50] Hommes, C. H., Chaotic D ynam ics in Economic Models, Wolters-Noordhoff, Groningen
1991.
[51] Huang, K., Statistical M echanics, John Wiley & Sons, New York 1966, rozdz. 8.
[52] Jackson, E. A., Perspectives o f Nonlinear D ynam ics, t. 1, 2, Cambridge University Press,
Cambridge 1991.
[53] Knuth, D. E., The A rt o f Com puter Programming, t. 2, Sem inum erical Algorithms,
Addison-Wesley, Reading (Mass.).
[54] Kotz, S., Johnson, N. L., Encyclopedia o f Statistical Sciences, John W iley & Sons, New
York 1982
[55] Kuratowski, C., Topologie II, PWN, Warszawa 1961.
[56] Lauwerier, H., Fractals, Aramith Uitgevers, Amsterdam 1987.
[57] Lehmer, D. H., Proc. 2 nd Sym posium on Large Scale Digital Calculating M achinery, Ha­
rvard University Press, Cambridge 1951.
[58] Leven, R. W., Koch, B.-P., Pompe, B., Chaos in Dissipativen System en, Vieweg, Braun­
schweig 1989.
[59] Lindenmayer, A., Rozenberg, G., (red.), A utom ata, Languages, Development, NorthHolland, Amsterdam 1975.
[60] Mandelbrot, B.B., Fractals: Form, Chance, and D im ension, W. H. Freeman and Co., San
Francisco 1977.
528
Literatura
[61] Mandelbrot, B.B., The Fractal G eometry o f Nature, W. H. Freeman and Co., New York
1982.
[62] Mandelbrot, B.B., Selecta Volume N: M ultifractals Sz 1 / f Noise: 1963-76. Springer, New
York.
[63] Mandelbrot, B.B., Selecta Volume N: Turbulence. Springer, New York.
[64] Mane, R., Ergodic Theory and Differentiable D ynam ics, Springer-Verlag, Heidelberg 1987.
[65] McGuire, M ., A n Eye fo r Fractals, Addison-Wesley, Redwood City 1991.
[66] Menger, K ., D im ensionstheorie, Leipzig 1928.
[67] Mey, J. de, Bornen van Pythagoras, Aramith Uitgevers, Amsterdam 1985.
[68] Moon, F. C., Chaotic Vibrations, John Wiley Sz Sons, New York 1987.
[69] Parchomenko, A. S., Was ist eine K u rve, VEB Verlag, 1957.
[701 Parker, T. S., Chua, L. O., Practical N um erical Alqorithm s fo r Chaotic Systems, SpringerVerlag, New York 1989.
[71] Peitgen, H.-O., Richter, P. H., The B eauty o f Fractals, Springer-Verlag, Heidelberg 1986.
[72] Peitgen, H.-O., Saupe, D., (red.), The Science o f Fractal Im ages, Springer-Verlag, New
York 1988.
[73] Peitgen, H.-O. (red.), N ew ton’s M ethod and Dynam ical System s, Klüver Academic Publ.,
Dordrecht 1989.
[74] Peitgen, H.-O., Jürgens, H., Fraktale: Gezähm tes Chaos, Carl Friedrich von Siemens
Stiftung, München 1990.
[75] Peitgen, H.-O., Henriques, J. M., Peneda, L. F., (red.), Fractals in the Fundamental and
Applied Sciences, North-Holland, Amsterdam 1991.
[76] Peitgen, H.-O., Jürgens, H., Saupe, D ., Malet sky, E., Perciante, T., Yunker, L., Fractals
fo r the Classroom, Strategic A ctivities, t. 1, 2, Springer-Verlag, New York 1991, 1992.
[77] Peters, E., Chaos and Order in the Capital M arket, John W iley Sz Sons, New York 1991.
[78] Press, W. H., Flannery, B. P., Teukolsky, S. A., Vet ter ling, W. T., Numerical Recipes,
Cambridge University Press, Cambridge 1986.
[79] Preston, K. Jr., Duff, M. J. B., M odern Cellular A uto m a ta , Plenum Press, New York 1984.
[80] Prigogine, I., Stenger, I., Order out o f Chaos, Bantam Books, New York 1984.
[81] Prusinkiewicz, P., Lindenmayer, A., The Algorithm ic Beauty of P lants, Springer-Verlag,
New York 1990.
[82] Rasband, S. N., Chaotic D ynam ics o f Nonlinear System s, John W iley Sz Sons, New York
1990.
[83] Renyi, A., Probability Theory, North-Holland, Amsterdam 1970.
[84] Richardson, L. F., W eather Prediction by N um erical Process, Dover, New York 1965.
[85] Ruelle, D., Chaotic Evolution and Strange A ttractors, Cambridge University Press, Cam­
bridge 1989.
[86] Sagan, C., K o n ta kt, Express Books, Bydgoszcz 1991.
[87] Schröder, M., Fractals, Chaos, Pow er Laws, W. H. Freeman and Co., New York 1991.
[88] Schuster, H. G., D eterm inistic Chaos, VCH Publ., Weinheim, New York 1988.
Schuster, H. G., Chaos determ inistyczny, PW N, Warszawa 1993.
[89] Sparrow, C., The Lorenz Equations: Bifurcations, Chaos, and Strange A ttractors,
Springer-Verlag, New York 1982.
[90] Stanley H. E., Ostrowsky, N. (red.), F luctuations and P attern Form ation, Kluwer Acade­
mic Publ., Dordrecht-Boston 1988.
[91] Stauffer, D., Introduction to Percolation Theory, Taylor Sz Francis, London 1985.
[92] Stauffer, D., Stanley, H. E., From N ew ton to M andelbrot, Springer-Verlag, New York 1989.
[93] Stewart, I., Does God Play Dice, Penguin Books, 1989.
Stewart, I., Czy Bog gra w kosci, PW N, Warszawa 1994.
[94] Stewart, I., Game, Set, and M ath, Basil Blackwell, Oxford 1989.
[95] Thompson, D ’Arcy, On Growth an Form , New Edition, Cambridge University Press, Cam­
bridge 1942.
[96] Toffoli, T., Margolus, N., Cellular A utom ata M achines, A New E nvironm ent For Model­
ling, MIT Press, Cambridge (Mass.) 1987.
Literatura
529
[97] Vicsek> T., Fractal Growth Phenomena, World Scientific Publ. Co., London 1989.
[98] Wade, N., The A rt and Science o f Visual Illusions, Routledge &; Kegan Paul, London
1982.
[99] Wall, C. R., Selected Topics in Elem entary Number Theory, University of South Caroline
Press, Columbia 1974.
[100] Wegner, T., Peterson, M., Fractal Creations, Waite Group Press, Mill Valley 1991.
[101] Weizenbaum, J., Com puter Power and H um an Reason, Penguin Books, 1984.
[102] West, B., Fractal Physiology and Chaos in M edicine, World Scientific Publ. Co., Singapore
1990.
[103] Wolfram, S., Farmer, J. D., Toffoli, T., (red.) Cellular Automata: Proceedings of an
Interdisciplinary Workshop, w: Physica 10D , 1 i 2 (1984).
[104] Wolfram, S. (red.), Theory and Application o f Cellular A utom ata , World Scientific Publ.
Co., Singapore 1986.
[105] Zhang Shu-yu, Bibliography on Chaos, World Scientific Publ. Co., Singapore 1991.
2. A r ty k u ły o g ó ln e
[106] Aharony, A. Feder, J. (red.), Fractals in Physics, Physica D 3 8 (1989).
[107] Barnsley, M. F., Fractal Modelling of Real World Images, w: The Science o f Fractal
Images, H.-O. Peitgen, D. Saupe (red.), Springer-Verlag, New York 1988.
[108] Cipra, B., A., Computer-drawn pictures stalk the wild trajectory, Science 241, 1162-1163
(1988).
[109] Davis, C., Knuth, D. E., Number Representations and Dragon Curves, J. Recreational
M ath. 3 , 66-81 oraz 133-149 (1970).
[110] Dewdney, A. K., Computer Recreations: A computer microscope zooms in for a look at
the most complex object in mathematics, Sei. A m . (August 1985) 16-25.
[111] Dewdney, A. K., Computer Recreations: Beauty and profundity: the Mandelbrot set and
a flock of its cousins called Julia sets, Sei. A m . (November 1987) 140-144.
[112] Douady, A., Julia sets and the Mandelbrot set, w :The Beauty o f Fractals, H.-O. Peitgen,
P. H. Richter (red.), Springer-Verlag, Heidelberg 1986.
[113] Dyson, F., Characterizing Irregularity, Science 200, 677-678 (1978).
[114] Gilbert, W. J., Fractal geometry derived from complex bases, Math. In te lI 4, 78-86 (1982).
[115] Hofstadter, D. R., Strange attractors : Mathematical patterns delicately poised between
order and chaos, Sei. Am . 245 (May 1982) 16-29.
[116] Mandelbrot, B. B., How long is the coast of Britain? Statistical self-similarity and frac­
tional dimension, Science 15 5 , 636-638 (1967).
[117] Peitgen, H.-O., Richter, P. H., Die unendliche Reise, Geo 6, (Juni 1984) 100-124.
[118] Peitgen, H.-O., Haeseler, F. v., Saupe, D., Cayley’s problem and Julia sets, Math. Intell.
6, 2, 11-20 (1984).
[119] Peitgen, H.-O., Jürgens, H., Saupe, D., The language of fractals, Sei. Am . (August 1990)
40-47.
[120] Peitgen, H.-O., Jürgens, H., Fr akt ale: Computerexperimente (ent) zaubern komplexe
Strukturen, w.Ordnung und Chaos in der unbelebten und belebten N atur, Verhandlungen
der Gesellschaft Deutscher Naturforscher und Ärzte, 115. Versammlung, Wissenschaftliche
Verlagsgesellschaft, Stuttgart 1989.
[121] Peitgen, H.-O., Jürgens, H., Saupe, D., Zahlten, C., Fractals — A n A nim ated D iscussion,
film wideo, W. H. Freeman and Co. 1990. W języku niemieckim jako: Fraktale in Film en
und Gesprächen, Spektrum Videothek, Heidelberg 1990.
[122] Ruelle, D., Strange Attractors, Math. Inteil. 2 , 126-137 (1980).
[123] Stewart, I., Order within the chaos game? Dyn. Newsl. 3 , 2, 3, 4-9 (1989).
[124] Sved, M. Divisibility — With Visibility, Math. Intell. 10, 2, 56-64 (1988).
[125] Voss, R., Fractals in Nature, w: The Science o f Fractal Im ages, H.-O. Peitgen, D. Saupe
(red,), Springer-Verlag, New York 1988.
[126] Wolfram, S., Geometry of binomial coefficients, A m . Math. M on. 91, 566-571 (1984).
530
Literatura
3. A r ty k u ły b a d a w c z e
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
Abraham, IŁ, Simulation of cascades by video feedback, w:Structural Stability, the The­
ory o f Catastrophes, and Applications in the Sciences, P. Hilton (red.), Lecture N otes in
M athem atics 525, 10-14, Springer-Verlag, Berlin 1976.
Aharony, A., Fractal growth, w: Fractals and Disordered System s, A. Bunde, S. Havlin
(red.), Springer-Verlag, Heidelberg 1991.
Bak, P., The devil’s staircase, Phys. Today 39, 38-45 (1986).
Bandt, C., Self-similar sets I. Topological Markov chains and mixed self-similar sets, Math.
N achr. 142, 107-123 (1989).
Bandt, C., Self-similar sets III. Construction with sofic systems, Monatsh. Math. 108,
89-102 (1989).
Banks, J,, Brooks, J., Cairns, G., Davis, G., Stacey, P., On Devaney’s definition of chaos,
A m . Math. M on. 99, 4, 332-334 (1992).
Barnsley, M. F., Demko, S., Iterated function systems and the global construction of
fractals, Proc. R. Soc. Lond. A 3 9 9 , 243-275 (1985).
Barnsley, M. F., Ervin, V., Hardin, D., Lancaster, J., Solution of an inverse problem for
fractals and other sets, Proc. Natl. Acad, Set. 83, 1975-1977 (1986).
Barnsley, M. F., Elton, J. H., Hardin, D. P., Recurrent iterated function systems, Con­
structive A pproxim ation 5, 3-31 (1989).
Batrouni, G. G., Hansen, A., Roux, S., Negative moments of the current spectrum in the
random-resistor network, Phys. Rev. A 38, 3820 (1988).
Bedford, T., Dynamics and dimension for fractal recurrent sets, J. London M ath. Soc.
33, 89-100 (1986).
Benedicks, M., Carleson, L., The dynamics of the Henon map, A nn. Math. 133, 1, 73-169
(1991).
Benettin, G. L., Galgani,L., Giorgilli, A., Strelcyn, J.-M., Lyapunov characteristic expo­
nents for smooth dynamical systems and for Hamiltonian systems; a method for computing
all of them. Część 1: Theory, Część 2: Numerical application, Meccanica 15, 9, 21 (1980).
Benzi, R., Paladin, G., Parisi, G., Vulpiani, A., On the multifractal nature of fully deve­
loped turbulence and chaotic systems, J. Phys. A 17, 3521 (1984).
Berger, M,, Encoding images through transition probabilities, Math. Comput. Model. 11,
575-577 (1988).
Berger, M., Images generated by orbits of 2D-Markoc chains, Chance 2, 18-28 (1989).
Berry, M. V., Regular and irregular motion, w: Jorna S. (red.), Topics in Nonlinear
D ynam ics, A m . Inst, o f Phys. Conf. Proc. 46, 16-120 (1978).
Blanchard, P., Complex analytic dynamics on the Riemann sphere, Bull. A m . Math. Soc.
11, 85-141 (1984).
Blumenfeld, R., Meir, Y., Aharony, A., Harris, A. B., Resistance fluctuations in random
diluted networks, Phys. Rev. B 35, 3524-3535 (1987).
Blumenfeld, R., Aharony, A., Breakdown of multifractal behavior in diffusion limited
aggregates, Phys. Rev. Lett. 62, 2977 (1989).
Borwein, J. M., Borwein, P. B., Bailey, D. H., Ramanujan, modularequations, and appro­
ximations to 7r, or how to compute one billion digits of 7r, A m . Math. Mon. 96, 201-219
(1989).
Brent, R. P., Fast multiple-precision evaluation of elementary functions, J. Assoc. Comput.
Mach. 23, 242-251 (1976).
Brolin, H., Invariant sets under iteration of rational functions, Arkiv. Mat. 6, 103-144
(1965).
Cantor, G., Uber unendliche, lineare Punktmannigfaltigkeiten V, Math. A nn. 21, 545-591
(1883).
Carpenter, L., Computer rendering of fractal curves and surfaces, Comput. Graph. (1980)
109 i in.
Literatura
531
[152] Caswell, W. E., Yorke, J. A., Invisible errors in dimension calculations: geometric and
systematic effects, w: Dim ensions and Entropies in Chaotic System s, G. Mayer-Kress
(red.), Springer-Verlag, Berlin 1986 i 1989, s. 123-136.
[153] Cayley, A., The Newt on-Fourier Imaginary Problem, Am . J . Math. 2, 97 (1879).
[154] Charkovsky, A. N., Coexistence of cycles of continuous maps on the line, Ukr. Mat. J. 16,
61-71 (1964).
[155] Chhabra, A., Jensen, R.V., Direct determination of the f{oi) singularity spectrum, Phys.
Rev. L e tt 62, 1327 (1989).
[156] Coleman, P. H., Pietronero, L., The fractal structure of the universe, Phys. Rep. 213, 6,
311-389 (1992).
[157] Corless, R. M., Continued fractions and chaos, A m . Math. M on. 99, 3, 203-215 (1992).
[158] Corless, R. M., Prank, G. W., Monroe, J. G., Chaos and continued fractions, Physica D
46, 241-253 (1990).
[159] Cremer, H., Uber die Iteration rationaler Funktionen, Jahresberichte der Deut. Math.
Vereinigung 33, 185-210 (1925).
[160] Crutchfield, J., Space-time dynamics in video feedback, Physica 10D , 229-245 (1984).
[161] Dekking, F. M., Recurrent Sets, Adv. in Math. 44, 1, 78-104 (1982).
[162] Derrida, B., Gervois, A., Pomeau, Y., Universal metric properties of bifurcations of endomorphisms, J. Phys. A: Math. Gen. 12, 3, 269-296 (1979).
[163] Devaney, R., Nitecki, Z,, Shift Automorphism in the Hénon Mapping, Com m un. Math.
Phys. 67, 137-146 (1979).
[164] Douady, A., Hubbard, J. H., Iteration des pôlynomes quadratiques complexes, C R A S
Paris 294, 123-126 (1982).
[165] Douady, A., Hubbard, J. H., Etude dynamique des pôlynomes complexes, Publications
M athématiques d ’Orsay 84-02 Université de Paris-Sud, 1984.
[166] Douady, A., Hubbard, J. H., On the dynamics of polynomial-like mappings, A nn. Sci.
Ecole Norm. Sup. 18, 287-344 (1985).
[167] Dress, A. W. M., Gerhardt, M., Jaeger, N. I., Plath, P. J, Schuster, H., Some proposals
concerning the mathematical modelling of oscillating heterogeneous catalytic reactions on
metal surfaces, w: L. Rensing, N. I. Jaeger (red.), Temporal Order, Springer-Verlag, Berlin
1984.
[168] Dubuc, S., Elqortobi, A., Approximations of fractal sets, J. Comput. Appl. Math. 29,
79-89 (1990).
[169] Eckmann, J.-P., Ruelle, D., Ergodic theory of chaos and strange attractors, Rev. Mod.
Phys. 57, 3, 617-656 (1985).
[170] Eckmann, J.-P., Kamphorst, S. O., Ruelle, D., Ciliberto, S., Liapunov exponents from
time series, Phys. Rev. 34A, 4971-4979 (1986).
[171] Elton, J., An ergodic theorem for iterated maps, J. Ergod. Theory D ynam . Sys. 7, 481-488
(1987).
[172] Evertsz, C.J.G., Mandelbrot, B.B., Harmonic measure around a linearly self-similar tree
J. Phys. A 25, 1781-1797 (1992).
[173] Evertsz, C.J.G., Mandelbrot, B.B., Woog, L.: Variability of the form and of the harmonic
measure for small off-off-lattice diffusion-limited aggregates, Phys. Rev. A 45, 5798 (1992).
[174] Faraday, M., On a peculiar class of acoustical figures, and on certain forms assumed by
groups of particles upon vibrating elastic surfaces, Philos. Trans. R. Soc. London 121,
299-340 (1831).
[175] Farmer, D., Chaotic attractors of an infinite-dimensional system, Physica 4D, 366-393
(1982).
[176] Farmer, J. D., Ott, E., Yorke, J. A., The dimension of chaotic attractors, Physica 7D,
153-180 (1983).
[177] Fatou, P., Sur les equations fonctionelles, Bull. Soc. Math. Fr. 47, 161-271 (1919), 48,
33-94, 208-314 (1920).
[178] Feigenbaum, M. J., Universality in complex discrete dynamical systems, w: Los Alam os
Theoretical D ivision A nnual Report, 98-102 (1977).
532
Literatura
179] Feigenbaum, M. J., Quantitative universality for a class of nonlinear transformations, J.
S ta t Phys. 19, 25-52 (1978).
180] Feigenbaum, M. J., Universal behavior in nonlinear systems, Physica 7D, 16-39 (1983) i
w: Campbell, D., Rose, H. (red.), Order in Chaos, North-Holland, Amsterdam 1983.
181] Feigenbaum, M. J., Some characterizations of strange sets, J. S ta t. Phys. 46, 919-924
(1987).
182] Feit, S. D., Characteristic exponents and strange attractors, Commun. Math. Phys. 61,
249-260 (1978).
183] Fine, N, J., Binomial coefficients modulo a prime number, A m . Math. Mon. 54, 589 (1947).
184] Fisher, Y., Boss, R. D., Jacobs, E. W ., Fractal Image Compression, w: Data Compression,
J, Storer (red.), Kluwer Academic Publ., Norwell, MA (w druku),
185] Fournier, A., Fussell, D,, Carpenter, L., Computer rendering of stochastic models, Com­
m un. A C M 25, 371-384 (1982).
186] Franceschini, V., A Feigenbaum sequence of bifurcations in the Lorenz model, J. Stat.
Phys. 22, 397-406 (1980).
187] Fraser, A. M., Swinney, H. L., Independent coordinates for strange attractors from mutual
information, Phys. Rev. A 33, 1034-1040 (1986).
188] Frederickson, P., Kaplan, J. L., Yorke, S. D., Yorke, J. A., The Liapunov dimension of
strange attractors, J. Differ. Equ. 49, 185-207 (1983).
189] Frisch, U., Parisi, G., Fully developed turbulence and intermittency, w: Turbulence and
Predictability o f Geophysical Flows and Climate D ynam ics, Proc. of the International
School of Physics “Enrico Fermi,”, Course LXXXVIII, Varenna 9083, Ghil, M., Benzi, R.,
Parisi, G .,(red.), North-Holland, New York 1985.
190] Frisch, U., Vergassola, M., A prediction of the multifractal model: the intermediate dissi­
pation range, Europhys. Lett. 14, 439 (1991),
191] Geist, K., Parlitz, U., Lauterborn, W ., Comparison of Different Methods for Computing
Lyapunov Exponents, Prog. Theor. Phys. 83, 5, 875-893 (1990).
192] Goodman, G. S., A probabilist looks at the chaos game, w: Fractals in the Fundamental
and Applied Sciences, H.-O. Peitgen, J. M. Henriques, L. F. Peneda (red.), North-Holland,
Amsterdam 1991.
193] Grassberger, P., On the fractal dimension of the Henon attractor, Phys. Lett. 97A, 224226 (1983).
194] Grassberger, P., Procaccia, I., Measuring the strangeness of strange attractors, Physica
9D, 189-208 (1983).
195] Grassberger, P., Procaccia, I., Characterization of Strange Attractors, Phys. Rev. Lett.
50, 346 (1983).
196] Grebogi, C., Ott, E., Yorke, J. A., Crises, sudden changes in chaotic attractors, and
transient chaos, Physica 7D, 181-200 (1983).
197] Grebogi, C., Ott, E., Yorke, J. A., Attractors of an N-torus: quasiperiodicity versus chaos,
Physica 15D, 354 (1985).
198] Grebogi, C., Ott, E., Yorke, J. A., Critical exponents of chaotic transients in nonlinear
dynamical systems, Phys. Rev. Lett. 37, 11, 1284-1287 (1986).
199] Grebogi, C., Ott, E., Yorke, J. A., Chaos, strange attractors, and fractal basin boundaries
in nonlinear dynamics, Science 238, 632-638 (1987).
200] Großman, S., Thomae, S., Invariant distributions and stationary correlation functions of
one-dimensional discrete processes, Z. Naturforsch. 32, 1353-1363 (1977).
201] Haeseler, F. v., Peitgen, H.-O., Skordev, G., Pascal’s triangle, dynamical systems and
attractors, w: Ergodic Theory and D ynamical System s. Report Nr. 250, Institut für Dy­
namische Systeme, Universität Bremen.
202] Haeseler, F. v., Peitgen, H.-O., Skordev, G., Cellular Automata, Matrix Substitutions and
Fractals, w: A nn. Math. A rtif. Intell, Report Nr. 270, Institut für Dynamische Systeme,
Universität Bremen.
203] Haeseler, F. v., Peitgen, H.-O., Skordev, G., On the Fractal Structure of Lim it Sets of
Cellular A utom ata and A ttractors of Dynamical System s, Manuskript. Report Nr. 285,
Institut für Dynamische Systeme, Universität Bremen.
Literatura
úóó
[204] Halsey, T, C., Jensen, M. H., Kadanoff, L. P., Procaccia, I., Shraiman, B. I., Fractal
measures and their singularities: The characterization of strange sets, Phys. Rev. A 33,
1141 (1986).
[205] Hart, J, C., DeFanti, T., Efficient anti-aliased rendering of 3D-linear fractals, Comput.
Graph. 25, 4, 289-296 (1991).
[206] Hart, J. C., Sandin, D. J., Kauffman, L. H., Ray tracing deterministic 3-D fractals, Com­
put. Graph. 23, 3 91-100 (1989).
[207] Hausdorff, F., Dimension und äußeres Maß, Math. Ann. 79, 157-179 (1918).
[208] Hénon, M., A two-dimensional mapping with a strange attractor, Com m un. Math. Phys.,
50, 69-77 (1976).
[209] Hentschel, H. G. E., Procaccia, I., The infinite number of generalized dimensions of fractals
and strange attractors, Physica 8 D , 435-444 (1983).
[210] Hepting, D., Prusinkiewicz, P., Saupe, D., Rendering methods for iterated function sy­
stems, w: Fractals in the Fundamental and Applied Sciences, H.-O. Peitgen, J. M. Henriques, L. F. Peneda (red.), North-Holland, Amsterdam 1991.
[211] Hilbert, D., Uber die stetige Abbildung einer Linie auf ein Flächenstück, M ath. A nn. 38,
459-460 (1891).
[212] Holte, J., A recurrence relation approach to fractal dimension in Pascal’s triangle?i In ter­
national Congress o f Math. 1990.
[213] Hutchinson, J., Fractals and self-similarity, Indiana Univ. J. Math. 30, 713-747 (1981).
[214] Jacquin, A. E., Image coding based on a fractal theory of iterated contractive image
transformations, IE E E Trans. Signal Process., 1992.
[215] Judd, K., Mees, A. I., Estimating dimensions with confidence, Int. J . Bifurcation Chaos
1, 2, 467-470 (1991).
[216] Julia, G., Mémoire sur l’iteration des fonctions rationnelles, J. Math. Pure Appl. 8, 47-245
(1918).
[217] Jürgens, H., 3D-rendering of fractal landscapes, w: Fractal Geometry and C om puter Gra­
phics, J. L. Encarnacao, H.-O. Peitgen, G. Sakas, G. Englert (red.), Springer-Verlag,
Heidelberg 1992.
[218] Kaplan, J. L., Yorke, J. A., Chaotic behavior of multidimensional difference equations,
w: Functional D ifferential Equations and Approxim ation o f Fixed P oints, H.-O. Peitgen,
H. O. Walther (red.), Springer-Verlag, Heidelberg 1979.
[219] Kawaguchi, Y., A morphological study of the form of nature, Comput. Graph. 16, 3 (1982).
[220] Koch, H. von, Sur une courbe continue sans tangente, obtenue par une construction
géométrique élémentaire, Ark. Mat. 1, 681-704 (1904).
[221] Koch, H. von, Une méthode géométrique élémentaire pour l’étude de certaines questions
de la théorie des courbes planes, Act. Math. 30, 145-174 (1906).
[222] Kummer, E, E., Uber Ergänzungssätze zu den allgemeinen Reziprozitätsgesetzen, J. fü r
die reine und angewandte M athem atik 44, 93-146 (1852).
[223] Lauterborn, W., Acoustic turbulence, w: Frontiers in Physical Acoustics, D. Sette (red.),
North-Holland, Amsterdam 1986, s. 123-144.
[224] Lauterborn, W., Holzfuss, J., Acoustic chaos, Int. J. Bifurcation Chaos 1 , 1 , 13-26 (1991).
[225] Li, T.-Y., Yorke, J. A., Period three implies chaos, A m . M ath. M on. 82, 985-992 (1975).
[226] Lindenmayer, A., Mathematical models for cellular interaction in development, cz. I i II,
J. Theor. Biol. 18, 280-315 (1968).
[227] Lorenz, E. N., Deterministic non-periodic flow, J. A tm os. Sei. 20, 130-141 (1963).
[228] Lorenz, E. N., The local structure of a chaotic attractor in four dimensions, Physica 1 3 D ,
90-104 (1984).
[229] Lovejoy, S., Mandelbrot, B. B., FYactal properties of rain, and a fractal model, Tellus
37A, 209-232 (1985).
[230] Lozi, R., Un attracteur étrange (?) du type attracteur de Hénon, J. Phys. (Paris) 39,
(Coll. C5) 9-10 (1978).
[231] Mandelbrot, B. B., Ness, J. W. van, Fractional Brownian motion, fractional noises and
applications, S IA M Rev. 10, 4, 422-437 (1968).
534
Literatura
[232] Mandelbrot, B, B., Intermittent turbulence in self-similar cascades: divergence of high
moments and dimension of the carrier, J. Fluid Mech. 62, 331 (1974).
[233] Mandelbrot, B. B., Fractal aspects of the iteration of z >—►Az(l —z) for complex A and z,
A nn. N Y Acad. Set. 357, 249-259 (1980).
[234] Mandelbrot, B. B., Comment on computer rendering of fractal stochastic models, Comm un. A C M 25, 8, 581-583 (1982).
[235] Mandelbrot, B. B., Self-affine fractals and fractal dimension, Phys. Scr. 32, 257-260
(1985).
[236] Mandelbrot, B. B., On the dynamics of iterated maps V: conjecture that the boundary of
the M-set has fractal dimension equal to 2, w: Chaos, Fractals and D ynam ics, Y. Fischer,
A.R. Smith (red.), Marcel Dekker, 1985.
[237] Mandelbrot, B. B., An introduction to multifractal distribution functions, w: Fluctuations
and P attern F orm ation, H. E. Stanley, N. Ostrowsky (red.), Kluwer Academic Publ.,
Dordrecht 1988.
[238] Mandelbrot, B. B., Multifractal measures, especially for the Geophysicist, Pure Appl.
Geophys. 131, 5-42 (1989) i w: F luctuations and P attern Formation (Cargese 1988), H.
E. Stanley, N. Ostrowsky, red., Kluwer Academic Publ, Dordrecht-Boston 1988, s. 345360.
[239] Mandelbrot, B. B., Negative fractal dimensions and multifractals, Physica A 163, 306-315
(1990).
[240] Mandelbrot, B. B., Evertsz, C. J. G., The potential distribution around growing fractal
clusters, N ature 348, 143-145 (1990).
[241] Mandelbrot, B. B., New “anomalous” multiplicative multifractals: left-sided f ( a ) and the
modeling of DLA, Physica A 168, 95-111 (1990),
[242] Mandelbrot, B. B., Evertsz, C. J. G., Hayakawa, Y., Exactly self-similar left-sided multi­
fractal measures, Phys. Rev. A 42, 4528-4536 (1990).
[243] Mandelbrot, B. B., Random multifractals: negative dimensions and the resulting limita­
tions of the thermodynamic formalism, Proc. R. Soc. Lond. A 434, 88-97 (1991).
[244] Mandelbrot, B. B., Evertsz, C. J. G., Left-sided multifractal measures, w: Fractals and
Disordered S ystem s, A. Bunde, S. Havlin (red.), 1991, s. 322-344.
[245] Mandelbrot, B. B., Evertsz, C. J. G., Multifractality of the harmonic measure on fractal
aggregates, and extended self-similarity, Physica A 177, 386-393 (1991).
[246] Mane, R., On the dimension of the compact invariant set of certain nonlinear maps, w:
D ynam ical System s and Turbulence, Warwick 1980, Lecture Notes in Math. 898, SpringerVerlag, 230-242 (1981).
[247] Marotto, F. R., Chaotic behavior in the Henon mapping, Comm un. Math. Phys. 68,
187-194 (1979).
[248] M atsushita, M., Experimental Observation of Aggregations, w: The Fractal Approach to
Heteroqeneous Chemistry: Surfaces, Colloids, P olym ers, D. Avnir (red.), John Wiley &
Sons, Chichester 1989.
[249] Mauldin, R. D., W illiams, S. C., Hausdorff dimension in graph directed constructions,
Trans. A m . M ath. Soc. 309, 811-829 (1988).
[250] May, R. M., Simple mathematical models with very complicated dynamics, Nature 261,
459-467 (1976).
[251] Meneveau, C., Sreenivasan, K. R., Simple multifractal cascade model for fully developed
turbulence. Phys. Rev. Lett. 59, 1424 (1987).
[252] Meneveau, C., Sreenivasan, K.R., A method for the direct measurement of / ( a ) of multi­
fractals, and its applications to dynamical systems and fully developed turbulence, Phys.
Lett. A 137, 103 (1989).
[253] Meneveau, C., Sreenivasan, K.R., Multifractal nature of turbulent energy dissipation, J.
Fluid Mech. 224, 429 (1991).
[254] Menger, K., Allgemeine Räume und charakteristische Räume, Zweite Mitteilung: Uber
umfassenste n-dimensionale Mengen, Proc. Acad. A m sterdam 29, 1125-1128 (1926).
U1LV1 UL Ul
¿t
(JU U
[255] Misiurewicz, M., Strange Attractors for the Lozi Mappings, w: Nonlinear D ynam ics, R.
H. G. Helleman (red.), A n n . N. Y. Acad. Sci. 357, 348-358 (1980).
[256] Mitchison, G. J., Wilcox, M., Rule governing cell division in Anabaena, Nature 239,
110-111 (1972).
[257] Mullin, T., Chaos in physical systems, w: Fractals and Chaos, Crilly, A. J., Earnshaw, R.
A., Jones, H. (red.), Springer-Verlag, New York 1991.
[258] Musgrave, K., Kolb, C., Mace, R., The synthesis and the rendering of eroded fractal
terrain, Comput. Graph. 24 (1988).
[259] Norton, V. A., Generation and display of geometric fractals in 3-D, Comput. Graph. 16,
3, 61-67 (1982).
[260] Norton, V. A., Julia sets in the quaternions, Comput. Graph. 13, 2, 267-278 (1989).
[261] Olsen, L. F., Degn, H., Chaos in biological systems, Q. Rev. Biophys. 18, 165-225 (1985).
[262] Paladin, G., Vulpiani, A., Anomalous scaling laws in multifractal objects, Phys. Rep. 156,
145 (1987).
[263] Packard, N. H., Crutchfield, J. P., Farmer, J. D., Shaw, R. S., Geometry from a time
series, Phys. Rev. Lett. 45, 712-716 (1980).
[264] Peano, G., Sur une courbe qui remplit toute une aire plane, Math. A nn. 36 157-160
(1890).
[265] Peitgen, H. O., Priifer, M., The Leray-Schauder continuation method is a constructive ele­
ment in the numerical study of nonlinear eigenvalue and bifurcation problems, w: Func­
tional Differential Equations and Approxim ation o f Fixed P oints, H.-O. Peitgen, H.-O.
Walther (red.), Springer Lecture Notes, Berlin 1979.
[266] Pietronero, L., Evertsz, C., Siebesma, A. P., Fractal and multifractal structures in kinetic
critical phenomena, w: Stochastic Processes in Physics and Engineering, S. Albeverio, P.
Blanchard, M. Hazewinkel, L. Streit (red.), D. Reidel Publ. Co., 1988, s. 253-278.
[267] Peyriere, J., Multifractal measures, Proceedings of the NATO ASI Probabilistic Stochastic
Methods in A nalysis, with Applications II Ciocco, July 14-27 (1991).
[268] Pomeau, Y., Manneville, P., Intermittent transition to turbulence in dissipative dynamical
systems, Commun. Math. Phys. 74, 189-197 (1980).
[269] Prasad, R. R., Meneveau, C., Sreenivasan, K. R., Multifractal nature of the dissipation
field of passive scalars in full turbulent flows, Phys. Rev. Lett. 61, 74-77 (1988).
[270] Procaccia, I., Zeitak, R., Shape of fractal growth patterns: Exactly solvable models and
stability considerations, Phys. Rev. Lett. 60, 2511 (1988).
[271] Prusinkiewicz, P., Graphical applications of L-systems, Proc. Graph. Interface 1986 Vision Interface, 247-253 (1986).
[272] Prusinkiewicz, P., Hanan, J., Applications of L-systems to computer imagery, w: Graph
Grammars and their Application to Com puter Science; Third International W orkshop, H.
Ehrig, M. Nagl, A. Rosenfeld, G. Rozenberg (red.), Springer-Verlag, New York 1988.
[273] Prusinkiewicz, P., Lindenmayer, A., Hanan, J., Developmental models of herbaceous
plants for computer imagery purposes, Comput. Graph. 22, 4, 141-150 (1988).
[274] Prusinkiewicz, P., Hammel, M., Automata, languages, and iterated function systems, w:
Fractals Modeling in 3-D Com puter Graphics and Imaging, A C M S IG G R A P H *91 Course
Notes C14 J- C. Hart, K. Musgrave, (red.), 1991.
[275] Rayleigh, Lord, On convective currents in a horizontal layer of fluid when the higher
temperature is on the under side, Philos. Mag. 32, 529-546 (1916).
[276] Reuter, L. Hodges, Rendering and magnification of fractals using iterated function sy­
stems, Ph. D. thesis, School of M ath., Georgia Institute o f Technology, 1987.
[277] Richardson, R. L., The problem of contiguity: an appendix of statistics of deadly quarrels,
General System s Yearbook 6, 139-187 (1961).
[278] Rossler, O. E., An equation for continuous chaos, Phys. Lett. 57 A , 397-398 (1976).
[279] Ruelle, F., Takens, F., On the nature of turbulence, Comm un. Math. Phys. 20, 167-192
(1971); 23, 343-344 (1971).
[280] Russell, D. A., Hanson, J. D., Ott, E., Dimension of strange attractors, Phys. Rev. Lett.
45, 1175-1178 (1980).
536
Literatura
[281] Salamin, E., Computation of 7T Using Arithmetic-Geometric Mean, M ath. Comput. 30,
135, 565-570 (1976).
[282] Saltzman, B., Finite amplitude free convection as an initial value problem — I, J. Atm os.
Sei. 19, 329-341 (1962).
[283] Sano, M., Sawada, Y., Measurement of the Lyapunov spectrum from a chaotic time series,
Phys. Rev. L e tt 55, 1082 (1985).
[284] Saupe, D., Efficient computation of Julia sets and their fractal dimension, Physica D 28,
358-370 (1987).
[2851 Saupe, D., Discrete versus continuous N ew ton’s method : A case study, A cta Appl. Math.
13, 59-80 (1988).
[286] Saupe, D., Point evalutions of multi-variable random fractals, w: Visualisierung in M a­
them atik und N aturw issenschaften - B rem er Computergraphiktage 1988, H. Jürgens, D.
Saupe (red.), Springer-Verlag, Heidelberg 1989.
[287] Sernetz, M., Gelleri, J3., Hofman, F., The Organism as a Bioreactor, Interpretation of the
Reduction Law of Metabolism in terms of Heterogeneous Catalysis and Fractal Structure,
J. Theor. Biol. 117, 209-230 (1985).
[288] Shanks, D., Wrench, J. W. Jr., Calculation of n to 100,000 Decimals, M ath. Comput. 16,
77, 76-99 (1962).
[289] Shaw, R., Strange attractors, chaotic behavior, and information flow, Z. Naturforsch.
3 6 a , 80-112 (1981).
[290] Shishikura, M., The Hausdorff dimension of the boundary of the Mandelbrot set and Julia
sets, SUNY Stony Brook, Institute for M athematical Sciences, Preprint # 1 9 9 1 /7 .
[291] Shonkwiller, R., An image algorithm for computing the Hausdorff distance efficiently in
linear time, Inf. Process. Lett. 30, 87-89 (1989).
[292] Siebesma, A. P., Pietronero, P., Multifractal properties of wave functions for one­
dimensional system s with an incommensurate potential, Europhys. Lett. 4, 597-602
(1987).
[293] Siegel, C. L., Iteration of analytic functions, A nn. M ath. 43, 607-616 (1942).
[294] Sierpinski, W ., Sur une courbe cantorienne dont tout point est un point de ramification,
C. R. Acad. P aris 160, 302 (1915).
[295] Sierpinski, W ., Sur une courbe cantorienne qui contient une image biunivoquet et continue
detoute courbe donnee, C. R. Acad. P aris 162, 629-632 (1916).
[296] Simö, C., On the Henon-Pomeau attractor, J. S ta t. Phys. 21, 4, 465-494 (1979).
[297] Smith, A. R., Plants, fractals, and formal languages, Comput. Graph. 18, 3, 1-10 (1984).
[298] Stanley, H. E., Meakin, P., Multifractal phenomena in physics and chemistry, Nature 335,
405-409 (1988).
[299] Stefan, P., A theorem of Sarkovski on the existence of periodic orbits of continuous endomorphisms of the real line, C om m un. M ath. Phys. 54, 237-248 (1977).
[300] Stevens, R. J., Lehar, A. F., Preston, F. H., Manipulation and presentation of multidi­
mensional image data using the Peano scan, IE E E Trans. P attern Anal. Mach. IntelI. 5,
520-526 (1983).
[301] Sullivan, D., Quasiconformal homeomorphisms and dynamics I, A nn. Math. 122, 401-418
(1985).
[302] Sved, M., Pitm an, J., Divisibility of binomial coefficients by prime powers, a geometrical
approach, A rs C om binatoria 26A, 197-222 (1988).
[303] Takens, F., Detecting strange attractors in turbulence, w: D ynam ical System s and Tur­
bulence, W arwick 1980, Lecture Notes in Math. 898, Springer-Verlag, 366-381 (1981).
[304] Tan Lei, Similarity between the Mandelbrot set and Julia sets, Report Nr 211, Institut für
Dynamische Systeme, Universität Bremen, June 1989, oraz Com m un. Math. Phys. 134,
587-617 (1990).
[305] Tel, T., Transient chaos, w: D irections in Chaos III, B.-L. Hao (red.), World Scientific
Publ. Co., Singapore (w druku).
[306] Thompson, J. M. T., Stewart, H. B., N onlinear D ynam ics and Chaos, John Wiley &; Sons,
Chichester 1986.
Ltizerazura
oo (
[307] Velho, L., de Miranda Gomes, J., Digital halftoning with space-filling curves, C om put.
Graph. 25,4, 81-90 (1991).
[308] Voss, R. F., Random fractal forgeries, w: Fundam ental Algorithm s fo r Com puter Graphics,
R. A. Earnshaw (red.), Springer-Verlag, Berlin 1985, s. 805-835.
[309] Voss, R. F., Tomkiewicz, M., Computer Simulation of Dendritic Electrodeposition, J.
Electrochem. Soc. 132, 2, 371-375 (1985).
[310] Vrscay, E. R., Iterated function systems: Theory, applications and the inverse problem,
w: Proceedings of the N A T O Advanced Study Institute on Fractal Geometry, July 1989,
Kluwer Academic Publ., 1991.
[311] Wall, C. R., Terminating decimals in the Cantor ternary set, Fibonacci Quart. 28, 2,
98-101 (1990).
[312] Williams, R. F., Compositions of contractions, Bol.Soc. Brasil. Mat. 2, 55—59 (1971).
[313] Willson, S., Cellular automata can generate fractals, Discrete Appl. M ath. 8, 91-99
(1984).
[314] Witten, I. H., Neal, M., Using Peano curves for bilevel display of continuous tone images,
IE E E Comput. Graph. Appl., May 1982, 47-52,
[315] W itten, T.A., Sander, L.M., Diffusion limited aggregation: A kinetic critical phenomena,
Phys. Rev. Lett. 47, 1400-1403 (1981) oraz Phys. Rev. B 27, 5686-5697 (1983).
[316] Wolf, A., Swift, J. B., Swinney, H. L., Vastano, J. A., Determining Lyapunov exponents
from a time series, Physica 16D , 285-317 (1985).
[317] Yorke, J. A., Yorke, E. D., Metastable chaos: the transition to sustained chaotic behavior
in the Lorenz model, J. Stat. Phys. 21, 263-277 (1979).
[318] Young, L.-S., Dimension, entropy, and Lyapunov exponents, Ergod. Theory Dynam . Sys.
2, 109 (1982).
[319] Zahlten, C., Piecewise linear approximation of isovalued surfaces, w: Advances in Scien­
tific Visualization, Eurographics Seminar Series, F. H. Post, A. J. S. Hin (red.), SpringerVerlag, Berlin 1992.
Skorowidz
adresy 390
- dla atraktorów IFS 398
- dla odcinków 114
- dla punktów 114, 395
- dla trójkąta Sierpińskiego 123, 393
- dla zbioru Cantora 114, 398
odczytywanie 396
agregacja cząstek 466, 469
- limitowana dyfuzją 40, 469
Aleksandrów, Paweł 154
algorytm 62, 87
amonit 193
analiza obrazów kolorowych 418
anomalie w działaniu mózgu 88
Archimedes 22, 252
Arystoteles 175
A stronóm ica N ova 71
atraktor 310, 334, 384, 385
- , algorytm deterministyczny 430
- całkowicie niespójny 400
- dziwny 329
- Lorenza 329
pokrycie 431
- samoafiniczny 361
- samopodobny 361
atraktorletka 416, 435
Banach, Stefan 312, 339
Banacha zasada 339
Barnsley, Michael 64, 306, 329, 379, 416,
503
BASIC 97
- LINE 98
- PSET 98
- SCREEN 100
Beckmann, Petr 215
Berger, Marc 307
Bernoulli, Daniel 338
Bernoulli, Jacob 254
Besicovitch, A. S. 181
Bielefield, Ben 505
bliźniacza choinka 320
Borwein, Jonathan 213, 219
Borwein, Peter 213, 219
Boss, R. D. 505
Bourbaki 27
Bouyer, Martine 217
Brahe, Tycho 69
Branner, Bodil 33
Brent, R. P. 219
Brooks, R. 33, 34
Brouwer, Luitzen 154, 155
Brown, Robert 378
Cantor, Georg 102, 106, 154, 185
Casio fx-7000G 68
centralne twierdzenie graniczne 476
Ceulen, Ludolph von 214
chaos 81
ciąg arytmetyczny 253
- Cauchy’ego 341
collage 359
Cremer, Hubert 172
Crutchfield, James 45
Cusanus, Nicolaus 210
cykl 42, 63, 95
czuła zależność 81
czynnik redukcji 50
- wzrostu 75
Cech, Eduard 154
Dase, Johann 215, 216
defibrylacja serca 88
dekodowanie 335, 349
- obrazu 514
Demokryt 21
deterministyczne metody 420
diabelskie schody 296
— , brzeg 297
— , pole powierzchni 297
uoy
öKorowiaz
dithering 148
DLA 469
długość korelacji 459
Douady, A.drien 32
drzewa pitagorejskie 176
dywan Sierpińskiego 103, 125, 328
dziesiętna KWR 391
dziwny atraktor 329
efekt motyla 73
eksperyment Lorenza 79
Eudoksos 21
Euklides 23
Euler, Leonhard 200, 212, 338
— , równe prawdopodobieństwa 401
grafika komputerowa 18
granica 186, 341
grecki Złoty Wiek 21
Gregory, James 212
grono 451-453
Grossman, Siegfried 88
grupy Kleina 31
Guilloud, Jean 217
Hadamard, Salomon 171
Hausdorff, Felix 102, 312, 339
Herschel, Wilhelm 69
Hilbert, David 102, 154, 185
homeomorfizm 153, 154
HP 285 83
Hubbard, John 32
Hurewicz, Witold 154
Hutchinson, J. 230, 339, 346
Feigenbaum, Mitchell 88
Feller, William 30
Fermat, Pierre de 125
Fermi, Enrico 18
Fibonacci, Leonardo 57, 104
Fibonacci-Association 58
Fibonacci-Quarterly 58
Fibonacciego ciąg 57, 208
- liczby 57
Fourier, Jean Baptiste 338
Fouriera transformacja 219
fraktal 37
- deterministyczny 381
- Laplace’a 473
fraktalna kompresja obrazu 505
- geometria 40
funkcja logistyczna 92, 95, 96
Jacquin, A. 504
Jakobs, E. W. 505
jednostka kontroli 42
Jowisz 69
Julia, Gaston 27, 102
Galileusz 29, 190
Galie, Johann 69
Gauss, Carl 68, 213, 215, 216
gaussowskie liczby losowe 477
gąbka Mengera 103, 155
— , konstrukcja 155
generator 133 281
- liczb losowych 83, 409
Fibonacciego 428
liniowy kongruentny 427
środka kwadratu 428
Gleick, James 72
Goethe, Johann Wolfgang von 17
góry 38
gra w chaos 64, 379, 387
— , analiza 390
— , dobór prawdopodobieństw 416
Kadanoff, Leo 464
Kahane, I.P. 31
kalafior 103
kalkulator 68
Kartezjusz 20
Kepler, Johannes 69
Keplera model Układu Słonecznego 69
klasyczne fr akt ale 103
Klein, Felix 20, 18l
Koch, Helge von 102, 206
kodowanie koła 321
- kwadratu 321, 353
- obrazów samopodobnych 356
- w systemie interakcyjnym 357
kompresja obrazów 332
kompresji współczynnik 332
kontrakcja 343
IFS 308
- hierarchiczny 363, 387
- , punkt stały 334
inicjator 133
iteracja graficzna 93, 424
iterowanie 42
540
kopiarka wielokrotnie redukująca 50
kopiarki podzielone 510
kostka do gry 65, 379
obciążona 408
symetryczna 401
krajobraz fraktałny 49
Krantz, S. 34
kryształ dendrytyczny 466
krzywa Hilberta 102, 186
- Kocha 102, 132, 197, 199, 260, 272
- Peana 102, 295
— , konstrukcja 138
— , samopodobieństwo 141
krzywe płaskie 162
Kummer, Ernst Eduard 183, 327
KW R 50, 334
- , atraktor 309
- deterministyczna 383
- dziesiętna 391
- losowa 384
plan konstrukcji 309, 316, 355
- połączone w sieć 363
przekształcenia 313
L-systemy 178
labirynt Cantora 321
Lagrange, Joseph 338
Lange, Ehler 421
Laplace, Pierre 410
Lebesgue, Henri 154, 157
Leibniz, Gottfried 41, 212
lewostronna niezmienniczość 310
liczby bezkwadratowe 213
- niewymierne 175
- pseudolosowe 420
- trójkowe 111
Lindemann, F. 217
linijka 391
LKWR 384
Lorenz, Edward 73, 79, 88
losowa krzywa 3 /2 449
Kocha 447, 448
losowe kolejne dodatki 495
- przemieszczanie środka odcinka 482
losowy płatek śniegu Kocha 449
- system iteracyjny 385
- trójkąt Sierpińskiego 449
Lucas, Edward 18
ludolfina 214
Skorowidz
łańcuchowe rozwinięcie ułamkowe 222
Machin, John 214, 215
Magnum, Wilhelm 31
Mandelbrojt, Szolem 171
Mandelbrot, Benoit 102, 139, 171, 250
mapa À 32
- fi 32
Mars 69
matematyka eksperymentalna 15
- nieliniowa 18
- stosowana 16
Matsushita, Mitsugu 466
May, Robert 37, 74, 88
Mefistofeles 17
Menger, Karl 154
Merkury 69
Metelski, J.P. 33
metoda adresowania 390
- Cusanusa 211
- najmniejszych kwadratów 264, 517
- Newtona 226
- o zmiennej liczbie iteracji 430
metody Monte Carlo 410
metryka 340
- euklidesowa 340
- maksimum 341
- miasta 341
miara borelowska 419
- Hausdorffa 292
mieszanie 95
miotełka Cantora 167
- Knastera-Kuratowskiego
167
model logistyczny 78
monitor 43
Montel, Paul 29
Morgan, Augustus de 23
multifraktale 31, 291
Mumford, David 16
nachylenie prostej 264
nerka 138
Neumann, John von 18, 420
Newton, Isaac 41, 72, 134
Newtona metoda 56
nieregularności klimatu 88
niewspółmierność 175
niezmienniczość 234
541
Skorowidz
niezmiennik topologiczny 153
obiekt graniczny 205
obliczenia Rutherforda 216
obraz, dekodowanie 385
- Lenny 505
obraz-cel 355
obrazy cieniowane 417
odległość euklidesowa 291
- Hausdorffa 204, 339, 345
operator 230
- Hutchinsona 63,317, 384
— , postać macierzowa 369
- Markowa 419
osadzanie elektrolityczne 466
otoczenie epsilonowe 345
pamięć ekranu 47
paproć niesamopodobna 362
paprotka Barnsleya 329
— , przekształcenia 329, 331
- Sierpińskiego 371
parametr 54, 67, 78, 92
parametry kontrolne 45
Pascal, Blaise 125
Peano, Giuseppe 138, 154, 301
perkolacja 451
Peyriere, J. 31
pierwiastek kwadratowy 54, 55
- z dwóch 208
PIFS 512
Pisano, Leonardo 57
Pitagoras z Samos 175
PKWR511
planety 69
Platon 23
Plutarch 22
płaszczyzna zespolona 172
płatek śniegu Kocha 132, 202
, pole powierzchni 203
podobieństwo 49, 188
podzielony system iteracyjny 512
Poincare, Henri 20, 154, 181
Pontrjagin, Lew 154
populacja rozwój 74
pożary lasów 451
prawa wzrostu 194
prawo potęgowe 265
Principia M athematica 186
problem królików 57
- odwrotny 336, 355, 418
proces dynamiczny 42
procesor 42, 49, 64
progowe skupisko perkolacji 458
projekt Manhattan 83
propagacja błędu 68
proportio divina 59
próg perkolacji 453
Prusinkiewicz, Przemysław 38
przejście fazowe 457
przekształcenie afiniczne 53, 299, 313
- Cantora 155
- konforemne 313
- kwadratowe 67
- liniowe 53, 313
- namiotowe 62, 146
- nieliniowe 175
- ostatecznie ściągające 513
- podobieństwa 49, 188, 273, 313
- zwężające 299, 343
przemieszczenie 474
przestrzeń adresów 398
- euklidesowa 291
- metryczna 340
— zupełna 341
przesunięcie dwójkowe 147
przewidywanie pogody 73, 79
przybliżenie 205, 207
- na poziomie pikseli 240
punkt stały 225, 226
- - dla IFS 334
- styku 397
punkt-uciekinier 119
punkt-więzień 119
punkt wiodący 65, 380
Ramanujan, Srinivasa 213
renormalizacja 461
Richardson, L. F. 181
Richter, Peter 33
romanesco 186
rozbicie obrazu HV 520
- poczwórne 519
trójkątne 521
rozkład Gaussa 475
- jednostajny 477
- normalny 475
rozwinięcie dwójkowe 111
542
rozwinięcie dziesiętne 111
- trójkowe 111
rozwój populacji 74
równanie charakterystyczne 238
- kwadratowe 41
- Laplace’a 473
- logistyczne 73, 81, 93, 420
ruch Browna 378, 447, 469
Ruelle, David 32
ruletka 64
Rutherford, William 216
rząd rozgałęzienia 165
Sagan, Carl 220
Salamin, Eugene 219
samoafiniczne obiekty 299
samopodobieństwo 103, 186
- afiniczne 197
- krzywej Peana 141
- lokalne 509
- obrazów 507
- siatkowe 240
- spirali logarytmicznej 256
- statystyczne 197, 489
- ścisłe 199
Santillana, G. de 24
Saturn 69
Shanks, Daniel 216
Shishikura, M. 35
Sierpiński, Wacław 102, 126, 185, 234
Sierpińskiego dywan 103, 123, 328
- paprotka 371
- trójkąt 102, 186, 199, 234, 309, 325
skalowanie 188
spirala Archimedesa 252
- , długość 256
- gładka 258
- logarytmiczna 192, 252, 254
- pierwiastków kwadratowych 176
- wielokątna 256
- złota 259
sprzężenie zwrotne 41, 43
— , cykl 43
deterministyczne 64
— , eksperyment 43
geometryczne 256
— , pętla 58, 317
— , system 50, 58
, urządzenie 41
Skorowidz
— , zegar 42
stabilność 52
Stewart, łan 421
Stone, Marshall 27
Strassnitzky, L. K, von 215
Strömgren, Elis 72
struktura drzewopodobna 466
- samoafiniczna 145
Sucker, Britta 421
system dziesiętny 104
- iteracyjny 308
— deterministyczny 385
— losowy 385
szereg dla arcusa tangensa 214
- geometryczny 200, 257, 297
— , konstrukcja 201
- Gregory’ego 212
szeregi Fouriera 338
ścinanie 301
średnie przemieszczenie kwadratowe 474
Tan Lei 35
tempo metabolizmu 283
- wzrostu 268
teoria układów dynamicznych 311
testy statystyczne 428
Thomae, Stefan 88
Tombaugh, William 69
topologia 153
- przestrzeni metrycznych 339
trójkąt arytmetyczny 128
- Pascala 125
— , kolorowe kodowanie 127
- Sierpińskiego 51, 102, 186, 199, 234,
309, 325
turbulencja 88
układ dynamiczny 310
- dziesiętny 390
Ułam, Stanisław 18, 83, 420
ułamkowy ruch Browna 490, 489
, wymiar pudełkowy 491
uniwersalność dywanu Sierpińskiego 160
- gąbki Mengera 164
Urysohn, Paweł 154
Utah 270
Verhulst, Pierre 74
Verhulsta model 77
Skorowidz
Vièta, François 212
Voss, R. 38
Voyager II 88
Wallis, J. R. 30
Wallis, John 212
Weierstrass, Karl 181
wejście 42, 49
Wenns 69
Wilson, Ken 464
Witten, E. 22
Wrench, John, Jr. 217
współcznnik kierunkowy prostej 264
- kontrakcji 344
- redukcji 275
- skali 188, 276
- zmniejszania 53
- zwężania 344
wybrzeże Wielkiej Brytanii 251
, długość 263
, wymiar pudełkowy 269
wyjście 42, 49, 60
wykładnik Hursta 491
wykres logarytmiczny 263
- dla krzywej Kocha 272
wymiar 274
- cyrklowy 281
- euklidesowy 274
- fraktalny 104, 152, 274
- Hausdorffa 152, 293
543
- informacyjny 274
- pojemnościowy 274
- pokryciowy 157, 159
- pudełkowy 152, 274, 285, 287
- samopodobieństwa 274, 278
- topologiczny 154
wzór Machina 214
wzrost alometryczny 196, 267
- ciała 194
- izometryczny 196
- proporcjonalny 196
zagadnienie trzech ciał 72
zależność dwustopniowa 56, 58
- prosta 54, 55, 58
zasada przekształcenia zwężającego 339
zbieżność ciągu 341
zbiór Cantora 102, 106, 186, 232, 324, 432
— , konstrukcja 107
- Julii 171, 172
- M 32
- Mandelbrota 32, 329
- zwarty 161
zjawiska nieliniowe 53
złota średnia 59
— , łańcuchowe rozwinięcie ułamkowe
224
złoty podział 72, 208
- stosunek 59
Zu Chong-Zhi 210
Download