H.-O.Peitgen, H.Jurgens, D.Saupe GRANICE W Y D A W N I C T W O CHAOSU N A U K O W E P W N Spis treści O autorach 8 W stęp autorów 9 Przedm ow a. Fraktale i od rod zen ie m atem atyk i eksperym en talnej Benoit B. Mandelbrot 15 1. Podstaw a geom etrii fraktalnej: sprzężenie zw rotn e i iterow anie 37 1.1. Zasada sprzężenia zwrotnego ................................................................... 41 1.2. Kopiarka wielokrotnie red u k u ją ca .............................................................49 1.3. Podstawowa klasyfikacja układów sprzężenia zw rotnego........................ 54 1.4. Przypowieść o paraboli albo: nie ufaj k o m p u te ro m .............................67 1.5. Chaos zwycięża każdy komputer .............................................................83 1.6. Program na zakończenie rozdziału: iteracja g ra fic z n a ........................... 97 2. K lasyczne fraktale i sam op od ob ieóstw o 102 2.1. Zbiór C a n to ra .............................................................................................. 106 2.2. Trójkąt i dywan Sierpińskiego................................................................. 120 2.3. Trójkąt P a s c a la ...........................................................................................125 2.4. Krzywa K o c h a ........................................................................ 132 2.5. Krzywe wypełniające przestrzeń.............................................................. 138 2.6. Fraktale a w y m i a r .....................................................................................152 2.7. Uniwersalność dywanu S ierp iń sk ieg o .....................................................160 2.8. Zbiory J u l i i ................................................................................................. 171 2.9. Drzewa p itag o rejsk ie................................................................................. 175 2.10. Program na zakończenie rozdziału: trójkąt Sierpińskiego a adreso­ wanie dwójkowe............................................................................ 181 6 Spis treści 3. G ranice i sam op od ob ień stw o 185 3.1. Podobieństwo i skalow anie........................................................................188 3.2. Ciągi geometryczne i krzywa Kocha .....................................................200 3.3. Osaczenie nowego problemu z kilku stron: pi i pierwiastek kwa­ dratowy z d w ó c h ........................................................................................ 208 3.4. Fraktale jako rozwiązania ró w n a ń ........................................................... 226 3.5. Samopodobieństwo siatkowe: uchwycenie g r a n ic y .............................. 239 3.6. Program na zakończenie rozdziału: krzywa K o ch a.............................. 246 4. D łu gość, p ole pow ierzchni i w ym iar: pom iar złożoności i skalow anie 250 4.1. Spirale o skończonej i nieskończonej długości........................................252 4.2. Pomiar krzywych fraktalnych i prawa p o tę g o w e ................................. 260 4.3. W ymiar frak taln y ........................................................................................273 4.4. W ymiar pudełkow y.................................................................................... 285 4.5. Fraktale brzegowe: diabelskie schody i krzywa P e a n a ........................295 4.6. Program na zakończenie rozdziału: zbiór Cantora i diabelskie s c h o d y ........................................................................................................... 302 5. K odow anie obrazów 306 5.1. Schemat kopiarki wielokrotnie red u k u ją cej...........................................308 5.2. Składanie prostych p rz e k sz ta łc e ń ...........................................................312 5.3. IFS i klasyczne fraktale ...........................................................................324 5.4. Kodowanie obrazów przy użyciu systemów ite r a c y jn y c h ................. 332 5.5. Podstawa IFS: zasada przekształcenia z w ę ż a ją c e g o ...........................338 5.6. W ybór odpowiedniej m e t r y k i ................................................................. 350 5.7. Składanie obrazów sam opodobnych........................................................355 5.8. Złamanie zasady samopodobieństwa (i samoafiniczności), czyli KWR połączone w s i e ć ........................................................................................ 361 5.9. Program na zakończenie rozdziału: iterowanie K W R ........................373 6. G ra 6.1. 6.2. 6.3. 6.4. 6.5. 6.6. w chaos: jak losow ość tw orzy d eterm in istyczn e k ształty 378 Kopiarka sprzężona z r u l e t k ą ................................................................. 382 Adresy: analiza gry w c h a o s .................................................................... 390 Dostrajanie r u l e t k i .................................................................................... 407 Kłopoty z generatorami liczb losow ych ................................................. 420 Metody o zmiennej liczbie ite ra c ji...........................................................430 Program na zakończenie rozdziału: gra w chaos dla paprotki . . . . 442 Spis treści 7 7. K ształty nieregularne: losow ość w konstrukcjach fraktalnych 445 7.1. Wprowadzenie losowości do fraktali deterministycznych .................. 447 7.2. Perkolacja: fraktale i pożary w losowych la s a c h .................................. 451 7.3. Losowe fraktale w eksperymencie lab o rato ry jn y m ...............................466 7.4. Symulacja ruchu B row na........................................................................... 473 7.5. Własności skali i ułamkowy ruch B ro w n a...............................................486 7.6. Fraktalne k ra jo b ra z y ..................................................................................493 7.7. Program na zakończenie rozdziału: losowe przemieszczanie środka o d c i n k a ........................................................................................................499 D odatek. O m ów ienie fraktalnej kom presji obrazów Yuval Fischer D .l. D.2. D.3. D.4. D.5. 503 Samopodobieństwo o b ra z ó w ..................................................................... 507 Pewna specjalna K W R ...............................................................................510 Kodowanie o b r a z ó w ..................................................................................515 Sposoby rozbijania o b r a z u ........................................................................ 519 Uwagi im p lem en tacy jn e........................................................................... 522 Literatura 526 Skorowidz 538 O autorach H einz-O tto Peitgen. Urodzony w roku 1945 w Bruch (Nie­ mcy). D oktorat w 1973 roku i habilitację w 1976 roku uzy­ skał na uniwersytecie w Bonn. Od roku 1977 profesor ma­ tem atyki na uniwersytecie w Bremie. W latach 1985-1991 przebywał na University of California w Santa Cruz, a od roku 1991 na Florida Atlantic University w Boca R at on. Odwiedzał również uniwersytety w Belgii, Włoszech, Me­ ksyku i USA. Edytor kilku pism z dziedziny chaosu i fraktali. W spółautor nagrodzonych książek The Beauty of Fractals (z P. H. Richterem) oraz The Science of Fractal Images (z D. Saupem). H artm ut Jiirgens. Urodzony w roku 1955 w Bremie (Nie­ mcy). Doktorat uzyskał w roku 1983 na uniwersytecie w Bre­ mie. Zatrudniony w przemyśle informatycznym w latach 1984-1985, a od roku 1985 dyrektor Graficznego Laborato­ rium Układów Dynamicznych na uniwersytecie w Bremie. W spółautor i współproducent (razem z H.-O. Peitgenem, D. Saupem i C. Zahlten) nagrodzonego filmu wideo Fractals: an Animated Discussion. Dietmar Saupe. Urodzony w roku 1954 w Bremie (Niemcy). Doktorat uzyskał w roku 1982 na uniwersytecie w Bremie. W latach 1985-1987 przebywał na University of California w Santa Cruz. Od 1987 roku adiunkt na uniwersytecie w Bremie, a od 1993 roku profesor informatyki na uniwer­ sytecie we Fryburgu. W spółautor nagrodzonej książki The Science of Fractal Images (z H.-O. Peitgenem). W stęp autorów Badania naukowe na temat chaosu — najciekawszej dziedziny bieżących badań, jaka istnieje. Jestem przekonany, ze badania nad chaosem doprowadzą do rewo­ lucji w naukach przyrodniczych} podobnej do tej, która została spowodowana przez mechanikę kwantową. Gerd Binnig Laureat Nagrody Nobla z fizyki Dwutomowa książka, którą właśnie Państwu przedstawiamy, jest adresowana do każdego, kto chciałby zapoznać się ze szczegółami geometrii fraktalnej, na­ wet jeżeli nie wie wiele o matematyce. Nie jest to zwykły podręcznik, ale nie jest to również książka popularnonaukowa. Naszym pragnieniem było, by przedstawić Czytelnikowi możliwie szeroki przegląd pojęć związanych z fraktalami, chaosem i układami dynamicznymi. Dodatkowo chcieliśmy pokazać, w jaki sposób fraktale i chaos są związane zarówno ze sobą, jak i z wieloma innymi aspektami m atem a­ tyki oraz zjawisk występujących w naturze. Trzecim motywem, przewijającym się przez tę książkę, jest wewnętrzne piękno fraktalnych i chaotycznych struktur, dostępne ludzkiemu wzrokowi, ale też wyobraźni. Już przez prawie 10 lat (w 1991 r. — przyp. tłum.) matematyka i na­ uki przyrodnicze są niesione na fali, która, jeżeli brać pod uwagę jej możliwości twórcze i możliwości ekspansji, stała się pierwszorzędną interdyscyplinarną przy­ godą. Od jakiegoś już czasu fala ta dociera do dalekich brzegów sięgających daleko poza nauki ścisłe. Nigdy przedtem myśl matematyczna — zwykle ro­ zumiana jako sucha i jałowa — nie została tak prędko zaakceptowana ani nie wzbudziła takiego zainteresowania ze strony opinii publicznej. Fraktale i chaos dosłownie przyciągnęły uwagę, entuzjazm i zainteresowanie ogólnoświatowej pu­ bliczności. Ich kolory, piękno i forma geometryczna, jak niewiele innych rzeczy, które zostały kiedykolwiek w matematyce dokonane, porywają zmysły przypad­ kowego obserwatora. Dla informatyka fraktale i chaos są bogatym nowym teryto­ 10 Wstęp autorów rium do badań, tworzenia i budowania nowego wizualnego świata. Dla studenta czy ucznia wydobywają one matematykę z mroków antyku prosto w dwudziesty pierwszy wiek. Nauczycielowi wreszcie dają one jedyną w swoim rodzaju, nowa­ torską możliwość zilustrowania zarówno praw ruchu jak i matematyki, a także różnorodnych związków zachodzących między nimi. Jakie są powody tej fascynacji? Po pierwsze, młoda jeszcze dziedzina stwo­ rzyła obrazy o takiej mocy i tak wyjątkowe, że wystawa z nich złożona, zor­ ganizowana przez Instytut Goethego1, odniosła światowy sukces. Co więcej, i co ważniejsze, chaos i geometria fraktalna skorygowały nasze przestarzałe pojęcie świata. W spaniałe sukcesy w naukach przyrodniczych i w technologii przyczyniały się do złudzenia, że cały świat funkcjonuje jak jeden wielki dokładny mechanizm, taki jak w zegarku, a prawa nim rządzące czekają tylko na to, by je krok po kroku odkryć. Wierzono, że po odkryciu tych praw ewolucja czy rozwój obiektów po­ winny — w każdym razie zasadniczo powinny — dawać się jeszcze dokładniej przewidywać. Wielu ludzi porwał zapierający dech w piersiach rozwój techniki komputerowej i zarysowująca się możliwość lepszego okiełznania natłoku infor­ macji. Zaczęto pokładać wzrastające zaufanie w tych urządzeniach. Dzisiaj właśnie osoby znajdujące się w aktywnym centrum nowoczesnej na­ uki zaczynają twierdzić, że nadzieja ta była niczym nieuzasadniona. Możliwość dokładnego przewidywania przyszłego biegu wypadków jest nieosiągalna. Z no­ wych teorii, ciągle jeszcze bardzo młodych, da się wywnioskować, że ścisły determinizm i pozornie przypadkowy rozwój wypadków nie wykluczają się wzajemnie, lecz ich koegzystencja jest w naturze regułą. Teoria chaosu i geometria fraktalna dotyczą tych właśnie zagadnień. Kiedy analizujemy rozwój w czasie pewnego procesu, zazwyczaj wyrażamy się używając pojęć teorii chaosu. Natomiast kiedy interesują nas struktury, które chaotyczny proces pozostawia po swym przebiegu, wtedy używamy pojęć geometrii fraktalnej, będącej w istocie geometrią chaosu. Z tego punktu widzenia geometria fraktalna jest przede wszystkim nowym „językiem” , który może zostać użyty do opisu złożonych form obecnych w naturze. Przypomnijmy, że elementami „tradycyjnego języka” — geometrii euklidesowej — są podstawowe, dobrze znane kształty, takie jak proste, okręgi i sfery. Na­ tom iast elementów naszego nowego języka nie można bezpośrednio obserwować. Są nimi algorytmy, które mogą być przekształcane na kształty i struktury jedy­ nie przy użyciu komputerów. Co więcej, zasób tych algorytmicznych elementów jest niewyczerpywalnie wielki. Mogą wyposażyć nas one w opisowe narzędzie 1 W samym tylko słynnym londyńskim Muzeum Nauk Przyrodniczych (SPR) wystawa Fron­ tiers o f Chaos : Im ages o f Complex D ynam ical System s ( Granice chaosu: obrazy zespolonych układów dynam icznych), zorganizowana przez H. Jurgensa, H.-O. Peitgena, M. Prufera, P. H. Richtera i D. Saupego przyciągnęła ponad 140 000 widzów. Począwszy od roku 1985 wystawa ta odwiedziła ponad 100 miast w ponad 30 krajach na wszystkich kontynentach. Wstęp autorów 11 o ogromnych możliwościach. Kiedy opanujemy już ten nowy język, będziemy mo­ gli opisać kształt chmury z taką łatwością i tak dokładnie, jak architekt potrafi opisać budynek w języku tradycyjnej geometrii. O związkach pomiędzy chaosem a geometrią można powiedzieć wiele, na pewno nie jest on przypadkowy. Jest wynikiem ich głębokiego pokrewieństwa. Pokre­ wieństwo to najlepiej można dostrzec przy analizie zbioru M andelbrota, obiektu matematycznego odkrytego przez Benoita M andelbrota w roku 1980. Niektórzy naukowcy opisywali go jako najbardziej złożony — i być może najpiękniejszy — obiekt kiedykolwiek widziany w matematyce. Jego najbardziej fascynująca cecha charakterystyczna została odkryta dopiero niedawno: można go interpretować jako ilustrowaną encyklopedię nieskończonej liczby algorytmów. Jest wspaniale zorganizowaną skarbnicą obrazów, traktowaną par excellence jako przykład upo­ rządkowania wewnątrz chaosu. Fraktale i nowoczesna teoria chaosu są również powiązane faktem, że wiele obecnych odkryć, nadających tempo w swoich dziedzinach, było możliwe jedy­ nie przy użyciu komputerów. Patrząc z perspektywy naszego odziedziczonego rozumienia matematyki jest to wyzwanie, które niektórzy odczuwają jako odno­ wienie i wyzwolenie dające wiele możliwości, a inni jako degenerację. Niemniej jednak dyskusja nad „właściwą” matematyką jest w zasadzie zakończona. Stało się już jasne, że historia nauki została wzbogacona o nowy rozdział, bez którego nie może się obejść. Określenie tego tem atu mianem „pięknych obrazków” czy też „upadku determinizmu” jest jedynie powierzchowne. Mówiąc krótko, teoria chaosu i geometria fraktalna kwestionują nasze rozumienie stanów równowagi — a tym samym harmonii i porządku — zarówno w naturze, jak i poza nią. Dają one nowy całościowy i jednorodny model, który umożliwia po raz pierwszy do­ tarcie do granic prawdziwej złożoności przyrody. Jest wysoce prawdopodobne, że nowe metody i terminologia pozwolą nam, na przykład, na lepsze zrozumienie ekologii i zagadnień rozwoju klimatu, a zatem mogą się one przyczynić do efek­ tywniejszego stawiania czoła naszym gigantycznym problemom globalnym. Zamierzamy przybliżyć teorię chaosu i geometrię fraktalną osobom aktywnie bądź biernie zaangażowanym w lekcje i wykłady. W kwietniu 1988 r., w ra­ mach obchodów stulecia American M athematical Society, Heitz-Otto Peitgen miał zaszczyt wygłosić odczyt o zagadnieniach, które są tem atem tej książki, na corocznym zjeździe Narodowego Związku Nauczycieli M atematyki (Natio­ nal Council of Teachers of Mathematics, NCTM) w Chicago.2 Odczyt ten był następnie kontynuowany na kolejnych rocznych, i wielu regionalnych, zjazdach NCTM. Dwa z nich pozostaną na zawsze w naszej pamięci: wykład z okazji wręczenia nagród prezydenta USA w Waszyngtonie w październiku 1988 r., oraz 2 Pomysł tematu i miejsca wygłoszenia tego odczytu pochodziły od prezesa Joint Po­ licy Boards of Mathematics, profesora Kennetha M. Hoffmanna z Massachusetts Institute of Technology. 12 Wstęp autorów główny wykład na rocznym zjeździe NCTM w Orlando na Florydzie w kwietniu 1989 r., kiedy to ponad 3500 nauczycieli wypełniło salę wykładową po brzegi. Te związki ze światem nauczania m atem atyki przeistoczyły się wkrótce w głębokie powiązania. Wspólnie zdaliśmy sobie sprawę, że teoria chaosu i geometria fraktąlna m ają, uprzednio niedostrzegany, potencjał dawania świadectwa, czym współ­ czesna żywa m atem atyka naprawdę jest i jakie przyszłościowe pytania zadaje. Członkowie NCTM wkrótce wyrazili pragnienie, by została napisana mała broszura podsumowująca te wykłady. Springer-Verlag i NCTM omówiły wspólne jej wydanie i miały nadzieję, że ukaże się ona na jesieni 1990 r. Odbyliśmy wiele rozmów z nauczycielami. Evan M. Maletsky, Terrence H. Perciante i Lee E. Yunker stali się naszymi doradcami i przyjaciółmi. Kontakty z nimi pozwoliły nam zrozumieć, że wprowadzająca książka, adresowana jedynie do szkół, nie będzie wystarczająca. Należało napisać zeszyty ćwiczeń, w których zadania byłyby wpi­ sane w istniejący plan i arkusze zadań gotowych do użycia w klasie. Doprowadziło to do wielokrotnych zmian w naszych planach i tak mała broszura stała się dwoma pełnowymiarowymi tomami. Zostały one podzielone na trzynaście rozdziałów — siedem w części pierwszej, koncentrującej uwagę na fraktalach, i sześć w części drugiej, poświęconej zagadnieniom chaosu. Część druga zawiera następujące roz­ działy: 8. 9. 10. 11. 12. 13. 14. Struktury rekursywne: wzrastanie fraktali i roślin Trójkąt Pascala, autom aty komórkowe i atraktory Chaos deterministyczny: wrażliwość, mieszanie i punkty Porządek i chaos: podwajanie okresu i jego chaotyczne zwierciadło Dziwne atraktory: scena, na której rozgrywa się chaos Zbiory Julii: fraktalne brzegi basenów przyciągania Zbiory Mandelbrota: porządek wśród zbiorów Julii Bardzo się staraliśmy, by przedstawiać elementy fraktali, chaosu i układów dy­ namicznych w sposób przystępny. Każdy rozdział stanowi zamkniętą całość i może być czytany niezależnie od innych. Podstawą każdego z rozdziałów jest tekst złożony zwykłą czcionką, natom iast akapity omawiające techniczne aspekty zaga­ dnień złożono czcionką bezszeryfową i oddzielono poziomą kreską. Zamieściliśmy je, by wzbogacić treść i dać głębszą analizę, adresowaną do tych Czytelników, którzy wiedzą, jak dawać sobie radę z m atem atyczną stroną zagadnień. Zakoń­ czyliśmy każdy rozdział krótkim programem w języku BASIC, programem na zakończenie rozdziału, który ma za zadanie uwydatnić jeden z wiodących ekspe­ rymentów danego rozdziału. Oczywiście pozostało wiele luk, które chcielibyśmy wypełnić, ale na szczęście zostało już wydane wiele doskonałych książek, które mogą za nas to zrobić. Poniżej wymienimy jedynie ich przykłady. Portrety osób zajmujących się tą dzie­ dziną oraz genezę zagadnienia, jak również zaplecze i powiązania teoretyczne Wstęp autorów 13 można znaleźć w: Chaos, Making a New Science3 Jam esa Gleicka oraz Does God Play Dice4 (tytuł przekładu polskiego: Czy Bóg gra w kości?5) lana Ste­ warta. Czytelnik zainteresowany systematycznym wykładem matematycznym może przeczytać pozycje: An Introduction to Chaotic Dynamical Systems6 i Chaos, Fractals and Dynamics7, obie autorstwa Roberta L. Devaneya, Fractals Every­ where Michaela F. Barnsleya, oraz Fractal Geometriß Kennetha Falconera. No i przede wszystkim mamy książkę nad książkami o geometrii fraktalnej, napisaną przez samego Benoita B. Mandelbrota, The Fractal Geometry of Nature10. Książce towarzyszy kilka zeszytów ćwiczeń, napisanych przez autorów tej książki wspólnie z Evanem M. Maletskym, Terrencem H. Percinate’em oraz Lee E. Yunkerem. Zeszyty te wymagają aktywnego udziału ucznia w konstruowa­ niu, obliczaniu, wizualizacji i pomiarach oraz korzystania ze starannie przygo­ towanych zestawów zadań. Te dodatkowe pozycje uwypuklają liczne powiązania między praktykami a programem matematyki obowiązującym obecnie w szkołach i na uniwersytetach. So eine Arbeit wird eigentlich nie fertig; (man muß sie fü r fertig erklären, wenn man nach Zeit und Umständen das möglische getan hat).11 Johann Wolfgang Goethe, 1787 Podziękow ania Geometrię fraktalną i chaos często wiąże się z matematyką eksperymentalną i jej wkładem do matematyki. Jesteśmy wdzięczni Benoit B. Mandelbrotowi za to, że zgodził się napisać wstęp do naszej książki, w którym omawia historyczną perspektywę, jak również zasługi i niebezpieczeństwa matematyki eksperymentalnej, na podstawie swoich szerokich doświadczeń. Na przełomie lat 1982/83 zapoznaliśmy się lepiej z fraktalami przez lekturę jego wspaniałej książki. Decyzja o zajęciu się tym tem atem zapadła na skutek rozmowy Heinza-Ottona Peitgena z Leo Kadanoffem, odbytej w Salt Lake City, Utah, 6 grudnia 1982 r. Wkrótce potem mieliśmy zaszczyt osobiście poznać Benoit z okazji wernisażu naszej wystawy Frontiers of Chaos: Images of Complex Dynamical Systems w Instytucie Goethego w Bremie i od 3 Viking, 1987. 4 Penguin Books, 1989. 5 PW N, 1996. 6 wyd. 2, Addison Wesley, 1989. 7 Addison Wesley, 1990. 8 Academic Press, 1989. 9 John Wiley and Sons, 1990. 10 W. H. Freeman, 1982. 11 „Praca taka jak ta nigdy nie będzie naprawdę skończona; autor musi po prostu stwier­ dzić, że ją zakończył, kiedy zostanie zrobione to, co było możliwe, w ramach dostępnego czasu i okoliczności.” (Goethe miał na myśli swą Iphigenie.) 14 Wstęp autorów tamtego czasu towarzyszy nam lojalne poparcie i krytyczna rada dobrego przyja­ ciela. Mamy nadzieję, że za pośrednictwem tej książki jego wielkie dzieło stanie się bardziej przystępne dla ogółu. Jesteśmy winni wyrazy wdzięczności wielu osobom, które asystowały nam przy pisaniu tej książki. Nasz student Torsten Cordes bardzo sprawnie i z niewyczer­ paną cierpliwością opracował większość rysunków. Dwaj inni nasi studenci, Ehler Lange i Lutz Voigt, zaczęli nam pomagać blisko końca, kiedy liczba rysunków stała się nie do ogarnięcia przez jedną osobę. Douglas Sperry czytał bardzo sta­ rannie nasz tekst w różnych jego stadiach, pomógł usunąć naleciałości niemieckie w naszej angielszczyźnie i z wielką starannością dokonał redakcji tekstu. Frie­ drich von Haeseler i Guentcho Skordev przeczytali wiele rozdziałów i wysunęli cenne sugestie. Chcielibyśmy także podziękować Eugenowi Allgowerowi i Richar­ dowi Vossowi za przeczytanie części oryginalnego maszynopisu. Gisela Gründl pomogła nam w zorganizowaniu tych etapów pracy, dotyczących oprawy arty­ stycznej i stworzenia skorowidza, które musieliśmy zlecić komu innemu. Claus Hósselbarth zaprojektował wspaniałą okładkę. Evan M. Maletsky, Terrence H. Perciante i Lee E. Yunker przeczytali części pierwotnej wersji maszynopisu i udzielili nam bardzo ważnych wskazówek doty­ czących układu tej książki. W trakcie naszych wysiłków podtrzymywały nas na duchu i dodawały zachęty rzesze nauczycieli m atem atyki i nauk przyrodniczych, z którymi spotykaliśmy się podczas ogólnokrajowych i regionalnych zjazdów NCTM. James D. Gates i Harry Tunis z NCTM bardzo wcześnie zawierzyli naszej pracy i nie stracili nadziei nawet wtedy, gdy ich zaufanie było wystawiane przez nas na próbę, kiedy nie dotrzymywaliśmy wielu ustalonych terminów. Kiedy złożyliśmy naszą książkę w wydawnictwie Springer-Verlag w sierpniu 1991 r M byliśmy szczęśliwi, że ją skończyliśmy. Cały czas mieliśmy jednak wrażenie, że można by ją rozwijać dalej. Tym bardziej doceniliśmy złotą myśl Goethego. Książka została złożona przy użyciu programów zecerskich TeX i LaTeX, a wszystkie ilustracje (z wyjątkiem cieniowanych i kolorowych) zostały wcielone do plików komputerowych. Mimo że zabrało to niezliczoną liczbę godzin trud­ nego czasami eksperymentowania z pisaniem potrzebnych macros, przyznajemy w tym miejscu, że podejście to w znacznym stopniu uprościło pracę pisarską, redakcyjną i drukarską. Na zakończenie chcemy stwierdzić, że byliśmy bardzo zadowoleni ze wspaniałej współpracy z wydawnictwem Springer-Verlag w Nowym Jorku. Heinz-Otto Peitgen, H artm ut Jürgens, Dietmar Saupe Brema, w sierpniu 1991 r. Przedm owa Fraktale i odrodzenie m atem atyki eksperym entalnej Benoit B. M andelbrot1 Napisanie wstępu do książki powstałej w Laboratorium Sy­ stemów Dynamicznych uniwersytetu w Bremie jest wielką przyjemnością, której nie mogłem się oprzeć. Przyjemność ta jest jednocześnie związana z wyzwaniem: wszyscy wie­ dzą, jak bardzo poważam autorów, ich wysiłki i osiągnięcia. Tak więc powtórzenie tego publicznie po raz kolejny mogłoby zostać uznane jedynie za przejaw przyjacielskiego poklepy­ wania po ramieniu. Zostałem poproszony, by dopisać się do tej książki, tak jak do dwóch wcześniejszych z tego samego Laboratorium w Bremie. Dokładniej, zostałem poproszony, by zawrzeć w tym wstępie trochę więcej historii, filozofii, ale także (jeżeli uznam za stosowne) autobiografii i prezentacji bieżących wy­ padków. Szerokie zagadnienie, do którego się tu taj usto­ sunkuję, dotyczy obecnego stanu rzeczy oraz natury geo­ metrii. Ogólniej, dotyczy ono „matematyki eksperymental­ nej” , powstającej jako odpowiedź pewnych matematyków 1 Wydział Fizyki, IBM T. J. Watson Research Center, Yorktown Heights, NY 10958 oraz Wydział Matematyki, Yale University, New Haven, CT 06520. 16 Przedmowa na używanie komputera, co doprowadziło już (cytując Davida Mumforda) „do punktu zwrotnego w swojej historii” . Obecnie mamy Journal of Experimental Mathematics, po­ kazujący, że dziedzina ta ostatnio zbudziła się z całą siłą, a może nawet uległa odrodzeniu. Pewne wydarzenia, które towarzyszyły temu odrodzeniu, przyciągały szeroką uwagę, na co też w pełni zasługiwały (i zasługują). W naszym szybko zmieniającym się świecie przywilejem wieku jest to, że daje on perspektywę historyczną. Poprze­ dnia duża zmiana w matematyce rozpoczęła się zanim przy­ szedłem na świat, ale byłem już obecny, kiedy stwarzała ona swoje własne instytucje i kiedy wczorajszy porządek zako­ rzenił się na dobre. Dlatego właśnie sądzę, że mogę pozwolić sobie na zamieszczenie fragmentów autobiograficznych. Szare i zielon e Na początek zauważmy, że matematyka eksperymen­ talna nie oznacza inwazji matematyki stosowanej na mate­ matykę „czystą” . Matematyka stosowana zawsze była prze­ siąknięta naukami przyrodniczymi, czyli również doświad­ czeniami. Cecha ta przyczyniła się w znacznym stopniu do tego, że m atematyka stosowana straciła popularność u tych, którzy wierzą, że m atematyka stosowana to zła matematyka. Jednak matematyka eksperymentalna oznacza coś trochę in­ nego: mianowicie wprowadzenie eksperymentu z powrotem do sedna matematyki, które nie musi — w każdym razie w dniu dzisiejszym — mieć żadnego kontaktu z naukami przyrodniczymi. Najbardziej uderzającym wpływem eksperymentu jest to, że stale podkreśla podstawową różnicę — z którą będzie­ my sie jeszcze spotykać — między faktem matematycznym a jego matematycznym dowodem. Jestem świadom tego, że wielu dobrych matematyków chciałoby zawęzić definicję ich dziedziny badań i uporać się szybko z faktami. Być może dlatego, że wyrośli przyzwyczajeni do sytuacji, w któ­ rej nowe prawdy matematyczne pochodziły prawie wyłącznie z dowodów starych faktów matematycznych. Historyk wie jednak, że w przeszłości rozwój matematyki opierał się na wielu innych źródłach, zarówno na obserwacji jak i na eks­ perymencie. Dzisiejsza m atematyka eksperymentalna nawet nie pró­ buje odtrącać tego typu obserwacji, która charakteryzowała tę najmniej „wyszukaną” spośród nauk empirycznych: hi­ storię naturalną. Ale opiera się ona przede wszystkim na Przedmowa aktywnym doświadczeniu. Dowód matematyczny, jeżeli ma­ tematycy tak zdecydują, może zachować wiele ze swoich cech charakterystycznych w takiej formie, do jakiej przywykli w ostatnich dekadach (o czym będziemy od czasu do czasu wspominać). A zatem nie chcę ani nie oczekuję — i nigdy nie chciałem ani nie oczekiwałem — by dowód został za­ stąpiony po prostu obrazkami. Niedawno powstałe metody poszukiwania nowych faktów dają matematykom silną po­ zycję wyjściową o nieoczekiwanym charakterze, która używa więcej niż tylko przysłowiowego ołówka i kartki papieru. Ry­ sunki już dowiodły swej zadziwiającej mocy w pomaganiu we wczesnych stadiach dowodu matematycznego i budowa­ nia teorii fizycznych. W miarę jak pomoc ta rozszerza się, może to doprowadzić do nowej równowagi i do zmian w do­ minujących stylach kompletnego dowodu matematycznego czy kompletnej teorii fizycznej. Innymi słowy, być może właśnie jesteśmy świadkami po­ nownego pojawiania się „dubletu” badań eksperymentalno-teoretycznych. Fizycy eksperymentalni i teoretyczni rzadko żyją w perfekcyjnej zgodzie, jednakże wiedzą, że nie tylko muszą koegzystować, ale przede wszystkim muszą słuchać siebie nawzajem i współdziałać. Tylko nieliczni spośród zwolenników każdej ze stron chcieliby unicestwić drugą z nich. W matematyce sytuacja jest odmienna: istnieje długa histo­ ria konfliktu, co zostało pięknie przedstawione przez poetę w następującym dwuwierszu: Wszelka, mój bracie, teoria jest szara, Zielone zaś jest życia drzewo złote. Słowa te pojawiają się w sztuce Goethego (1749-1832) Faust (tłum. F. Konopka, PIW , 1962) w słynnej scenie, kiedy Mefistofeles przebiera się za starego Profesora Faustusa i opisuje różnorodne programy akademickie zauroczo­ nemu przechodzącemu nieopodal studentowi. Diabeł zatrzy­ muje się myślą przy medycynie (dzięki której liczne białogło­ wy zostały przezeń usidlone), po czym na zakończenie (wersy 2038-9) podaje wspaniały opis dwóch kultur. W oryginale: Grauy teurer Freund, ist alle Theorie, Und griin des Lebens goldner Baum . Od dwóch wieków praktykanci twardych nauk teoretycznych mają powody, by z rezygnacją przyznać rację mądrości Sza­ tana. Ciągle jeszcze, mimo że większość instytucji nauko- 17 18 Przedmowa wych przestała zmuszać swoich uczonych do celibatu i no­ szenia togi, wielu profesorów jest dumnych z faktu, że laicy postrzegają ich dziedziny badań jako beznadziejnie szare. O statnio jednak zostało stworzone nowe narzędzie; kom­ puter. Traktowany odrębnie jest tak „szary” , jak tylko szary być może. Ale przyniósł on nauce dwa dary. Jego pierw­ szym darem są znacznie ułatwione obliczenia. Nie będziemy się tym zajmowali, wspomnimy tylko, że wiele ze wczesnych uzasadnień użycia komputera w latach czterdziestych nie po­ chodziło od ludzi businessu, ale od tych, którzy chcieli spoj­ rzeć z nowej perspektywy na równania różniczkowe. Jednym z nich był John von Neumann, który w młodości był „prawie normalnym” matematykiem, ale jako czterdziestolatek nie był już za takiego uważany i zaangażował się silnie w zaga­ dnienia przewidywania pogody. Innym pionierem używania komputerów był Enrico Fermi, fizyk nad fizykami, który pragnął użyć komputera do zrozumienia pewnych innych działów m atem atyki nieliniowej.2 Do tamtego czasu obli­ czenia komputerowe zdążyły już spowodować wiele zmian w matematyce, ale zmiany te można by nazwać ilościowymi, polegającymi raczej na różnicy w stopniu, a nie różnicy w ro­ dzaju. Weźmy na przykład teorię liczb. Była ona dziedziną de facto eksperymentalną aż do czasów Gaussa, a została uznana za eksperymentalną przez Edwarda Lucasa. Nikt zatem nie może się sprzeciwiać eksperymentowaniu w tej dyscyplinie. Drugim podarkiem od komputera jest grafika, która ma zupełnie inną historię, a która niesie ze sobą głęboką zmianę jakościową, a nawet pewne znamiona rewolucji. Ponieważ nie zajmowałem się głównym nurtem matematyki, o czym dalej, powitałem z radością grafikę komputerową, jak tylko się pojawiła. Miałem to szczęście, że mogłem wykazać, jak ludowa mądrość, że powyższy dwuwiersz Goethego wyraża bezsporną diabelską prawdę, ma w istocie niewielką wartość. Jej pozorna uniwersalność wzięła się po prostu z okresu, kiedy technologia pozostawała z tyłu za myślą abstrakcyjną, po którym nastąpił okres, kiedy matematycy nie kwapili się z zaakceptowaniem nowych technologii. Grafika kompu­ terowa wielokrotnie pozwalała mi delektować się podejmo­ 2 E. Fermi, J. Pasta, S. Ułam, Los Alam os docum ent L A -1940, 1955. Przedrukowane w Dziełach Zebranych Enrico Fermiego , t. 2, s. 978-88. Także w S. Ułam, Sets} Numbers and Universes , MIT Press, 1974, s. 490-501. Przedmowa waniem badań teorii matematycznych i fizycznych, których szarość wydawała się nienaganna (co w pewnych przypad­ kach bywało potwierdzone wiek trw ającą apologią), oraz do­ wodzeniem, że po odpowiednim ich przekształceniu te same teorie można wzbogacić w ich własnych (matematycznych lub fizycznych) językach. Ponadto potrafią one generować wzory, które w swej niezgłębionej złożoności bez trudu mogą być brane za falsyfikaty dzieł Życia, N atury czy nawet Sztuki. Tym samym jedna z części starej teorii nie tylko przestaje być szara, ale nabiera tylu kolorów, by radować nawet arty­ stę. Widziana z bliskiej perspektywy rola grafiki kompute­ rowej obejmuje szerokie pole. Często, niestety zbyt często, ogranicza się do prostej wizualizacji. Tak właśnie może się stać, gdy badacz wręcza swoje dane specjaliście potrafiącemu z nich zrobić ładne obrazki — na przykład w celu zrobienia wrażenia na wizytatorach. Trochę w taki właśnie sposób ja sam zaczynałem w latach sześćdziesiątych, zanim jeszcze po­ jawiły się narzędzia, które ktokolwiek ośmieliłby się nazwać grafiką komputerową. Moim celem było zrobienie wrażenia na niechętnych kolegach, pokazanie, że pewne moje dwulinijkowe wzory mogą nie być głęboką matematyką, ale jedno­ cześnie mogą produkować „falsyfikaty” rynku akcji, map ga­ laktyk, czy pogody. W trakcie robienia tego wyłonił się bar­ dziej interesujący fakt, jako przeciwny biegun prostej wizu­ alizacji. Właśnie używanie grafiki komputerowej jest na eta­ pie kompletnego przetwarzania roli oka ludzkiego. Twarde nauki teoretyczne już dawno temu odrzuciły użycie wizu­ alnego postrzegania jako argumentu; wielu obserwatorów kiedyś wierzyło, a nawet miało nadzieję, że tak będzie za­ wsze. Ale grafika komputerowa wprowadza je z powrotem jako nieodzowną część procesu myślenia, poszukiwania i od­ krycia. Omówimy dokładniej obie te role. Muszę wyznać, że nie znoszę terminu wizualizacja. Je­ stem rzecz jasna zadowolony, że zamiast samotności, która była moim udziałem w latach sześćdziesiątych i siedemdzie­ siątych, pojawił się szalejący tłum. Jestem zadowolony, kiedy wizualizacja robi wrażenie na wizytatorach, i oczekuję z nie­ cierpliwością na bogactwa możliwe do wydarcia z tenden­ cji industrialnych, które zrodziły to pojęcie. Termin ten przypomina mi jedynie o złych dawnych czasach, z których w końcu wyszliśmy. Dla mnie wizualizacja jest terminem 19 20 Przedmowa wymyślonym przez algebraików. Pewni algebraicy myślą na przykład, że pojęcie „okrąg” oznacza jedynie równanie x 2 + y 2 = r 2. Dla nich ta piękna krzywa, kształtu takiego jak brzeg Księżyca w pełni, nie istnieje jako taka, ale tylko jako wizualizacja jednorodnego równania kwadratowego. Poincaremu przypisuje się słowa o jego nauczycielu: „Pan Hermite nigdy nie m a na myśli konkretnego obrazu i szybko do­ strzeżesz, że najbardziej abstrakcyjne wielkości są dla niego jak istoty żyjące” . Zaskakuje mnie to tak samo, jak zaska­ kiwało Poincarego, ale nie neguję, że może to być prawdą. Kiedy ludzie tacy jak Hermite otrzymują za dużo politycz­ nej władzy nad życiem matematycznym, nic z czasów, kiedy Kartezjusz wprowadził analizę do geometrii nie może ostać się przy życiu. Ponad wiek temu uważano za oczywiste (co zostało nawet elokwentnie wyrażone przez Felixa Kleina i Henriego Poincarego), że geometrzy i algebraicy są dwoma różnymi typam i naukowców. Niestety w ciągu naszego wieku egzaminy akademickie rekrutujące nowych naukowców da­ wały coraz mniej uznania zdolnościom geometrycznym, a co­ raz więcej — nawet cały jego ciężar — zdolnościom alge­ braicznym. Pod tym względem Stany Zjednoczone stano­ wią przypadek krańcowy, ponieważ nigdy nie zaczęto tam poważnych badań nad geometrią tak charakterystycznych dla wszystkich krajów Europy. Być może tłumaczy to czę­ ściowo fakt, dlaczego uchodźcy z Rosji i Niemiec sądzili, że m atem atyka w Stanach Zjednoczonych jest tak dobrze roz­ winięta, ale przede wszystkim czysta i algebraiczna aż do przesady. Dużo wcześniej niż analogiczne zjawiska stały się regułą również w Europie. Oczywiście ci, którzy doprowadzili do popadnięcia geo­ metrii w niełaskę, opisywali to jako nieuniknione, jako je­ szcze jeden dowód na to, że historia bezlitośnie toczy się naprzód i nigdy nie patrzy wstecz. Jednak w tej dziedzi­ nie, jak i w wielu innych, przekonanie, że nieuniknione prze­ znaczenie rządzi biegiem historii, zostało ostro zanegowane przez ostatni rozwój wypadków. W ydaje się teraz, że bezli­ tosna algebraizacja nie była wcale nieunikniona. W znacz­ nej mierze, ze strony wszystkich teoretycznych naukowców, przejawiło się to w spontanicznym, praktycznym i odpowie­ dnim przystosowaniu się do zaległości w technologii, o czym już mówiliśmy. Było trudno nie zgadzać się z wyczerpa­ niem się klasycznych narzędzi geometrii i brakiem nowych, 21 Przedmowa i nie zachowywać się w sposób, który brałby to pod uwagę. Ale obecnie użycie komputera przesuwa te przystosowania i wynikające z nich środki w stan historycznego zawieszenia. Przerwijmy nasze rozważania na moment w celu auto­ biograficznej dygresji. Ja sam, poczynając od lat czterdzie­ stych, przekształciłem się w adepta tego antygeometrycznego trendu. Będąc geometrą z krwi i kości oraz osobą w znacznym stopniu opierającą się na naocznej obserwa­ cji, myślę, że było dla mnie błogosławieństwem, iż musiałem zdawać osławione francuskie egzaminy w czasie, kiedy geo­ metria była jeszcze w powijakach. Patrząc z perspektywy geometrii fraktalnej, której, co muszę Czytelnikowi wyznać, poświęciłem większość mego matematycznego życia, widzia­ łem, jak rozwijają się nowe tendencje. Cały czas szukałem w przeszłości faktów, które doprowadziły do wykluczenia na­ ocznej obserwacji z twardych nauk teoretycznych. Zatem proszę pozwolić mi na przytoczenie kilku starych, ale wciąż aktualnych historyjek, które kiedyś czytałem, oraz na wspo­ mnienie kilku opowieści współczesnych, jednej z fizyki, a po­ zostałych z matematyki, których byłem jednym z głównych uczestników. Wspólnym motywem tych opowieści jest to, że do tyczą one konfliktu, który zaistniał podczas greckiego Złotego Wieku, w czasie kiedy matematyka i nauki ścisłe uzyskiwały sformułowania bliskie swej obecnej formy, i kiedy rozwijało się pojęcie dowodu. Dwie strony tego konfliktu można na­ zwać pluralistyczną i utopijną. Pluralistyczny punkt widzenia jest doskonale wyrażony w następujących słowach: „Pewne rzeczy stały się po raz pierwszy dla mnie oczywiste przy użyciu metody mechanicz­ nej, pomimo że musiały być jeszcze udowodnione metodami geometrycznymi, ponieważ ich badanie metodami mechaniki nie dawało ścisłego dowodu. Ale oczywiście jest dużo ła­ twiej udowodnić stwierdzenie, jeżeli wcześniej zaznajomimy się z zagadnieniem, niż bez żadnego uprzedniego obezna­ nia. Z tego właśnie powodu twierdzenia o tym, że objętości stożka i ostrosłupa są jedną trzecią objętości walca i graniastosłupa o tej samej podstawie i wysokości, których dowód po raz pierwszy odkrył Eudoksos, nie przypisujemy Demokrytowi. Demokryt po raz pierwszy je sformułował, choć bez dowodu.” Autorem tych słów mógłby być ktoś prawie Plur aliści i U to p iści w greckim Z łotym W ieku 22 Przedmowa nam współczesny, ale w istocie są to słowa Archimedesa3. Proszę Czytelnika, by nie prześlizgiwał się wzrokiem po tych imionach starożytnych herosów. Proszę czytać dalej! Powody, dla których poglądy Archimedesa powinny być nazywane pluralistycznymi, leżą w fakcie, że uznają one ko­ nieczność zachowania właściwej równowagi pomiędzy rolą dowodu i rolą eksperymentu, wliczając w to rolę zmysłów. Archimedes nie uważał, że uznanie eksperymentu i zmysłów jako narzędzi do poszukiwania nowych faktów matematycz­ nych mogłoby przynieść jakąkolwiek szkodę. Istnienie faktów matematycznych przez długi czas wydawało mi się niepod­ ważalne, ale z doświadczenia wiadomo, że pewni autorzy odmawiają uznania jakiegokolwiek znaczenia tych pojęć i uważają je za wewnętrznie sprzeczne. Dlatego też dało się słyszeć gwar w kołach matematycznych, kiedy to kongres matematyczny w Kyoto w 1990 r. przyznał medal Fieldsa fizykowi E. Wittenowi. Pojawiło się wiele opinii opisujących matematykę bez twierdzeń jako coś, co nie powinno być ak­ ceptowane jako część „prawdziwej m atem atyki” . Grzmienie przeciw doświadczeniu i zmysłom jest saty­ sfakcjonującą ideą w naszej kulturze, ale na pewno nie jest to idea nowa. Czy nie byłoby przyjemnie dowiedzieć się, kto pierwszy wyraził tę ideę? Wnosząc z tonu powyższego cy­ tatu , wydaje się, że Archimedes odpowiadał na czyjąś ja­ sno wyrażoną opinię. Musiał być to utopistyczny punkt widzenia, podtrzymywany przez Platona (427-347 p.n.e.), człowieka o wielkiej sile, zarówno w dziedzinie intelektu jak i wpływów. Tak, okazuje się, że inwektywy, których często mogę słuchać dzisiaj, skierowane przeciwko powrotowi naoczności do nauk ścisłych, nie są nowe, a są jedynie echem opinii Platona. Natom iast pluraliści, którzy mile widzą i do­ ceniają powrót naoczności, myśląc o sobie jako o bardziej trzym ających się ziemi i bardziej nowoczesnych, niewiele wiedzą o Platonie, a jednak aktywnie walczą z jego cieniem. Najszerzej cytowanym źródłem dotyczącym poglądów Platona są Żywoty Plutarcha, opisujące losy rzymskiego ge­ nerała i polityka Marcellusa, który dowodził oblężeniem Syrakuz, gdzie przez rzymskiego żołnierza został zabity Archi­ medes. Cytując z przekładu Drydena: „Eudoksos i Archytas byli pierwszymi twórcami tej przesławnej i powszechnie 3 Archimedes (287-212 p.n.e.), Demokryt (460-370 p.n.e.), Eudo­ ksos (408-355 p.n.e.). Przedmowa uznawanej sztuki mechaniki, której używali jako eleganc­ kiej ilustracji prawd geometrii i jako środka doświadczalnego uwiarygodnienia, naocznie i dotykalnie, rezultatów zbyt zło­ żonych na to, by dowodzić ich za pomocą słów i rysunków... Ale ... Platon oburzył się na to i zwymyślał jako zwyczajny upadek i unicestwienie tej specjalnej wyższości tkwiącej w ge­ ometrii, która teraz miałaby odwrócić się od niematerialnych obiektów świata czystego rozumu, by ponownie zniżyć się do poznawania zmysłami i szukania pomocy w świecie materii, a nawet i to jedynie wtedy, gdy zgodzić się na cenę zmniej­ szenia autonomii i zubożenia treści.” Ponieważ anegdota Plutarcha o ważniackich manierach Platona została napisana w 400 lat po zdarzeniu, powinniś­ my odnosić się do niej z ostrożnością. Ale jest prawdą, zgo­ dnie ze słowami samego Platona, że geometrzy „rozmawiają w najdziwniejszy i dziadowski sposób ..., tak jakby wszy­ stkie ich dowody miały jakiś cel praktyczny ... Ale z całą pewnością badania te są prowadzone z uwagi na poznanie.” Kiedy podwójna obelga Platona, skierowana przeciwko fizyce i przeciwko poznaniu wizualnemu, po raz pierwszy przyciągnęła moją uwagę, już od dziesiątków lat mozolnie starałem się odbudować te uprzednio zniszczone wizerunki. Okazało się, że trzymałem z Eudoksosem. Było zachwy­ cające, że mogłem się dowiedzieć, iż Eudoksos był pionie­ rem nie tylko mechaniki i astronomii (jak wynika ze słów Plutarcha), ale również geometrii (co powiedział Archimedes). W istocie, często uważa się go za najbardziej twórczego spośród wszystkich matematyków antycznej Grecji, Eukli­ des zaś — którego świetność przypada na około 300 r. p.n.e. — był encyklopedystą. Platon natomiast wcale nie był twór­ czym geometrą. Zacytujmy Augustusa de Morgana: „Pisma Platona nie są w stanie przekonać żadnego matematyka, że autor ten nałogowo poświęcił się geometrii” . W imię czy­ stości chciał ograniczyć geometrię do operacji za pomocą cyr­ kla i linijki. Platon był autorem nie tylko jednej szkodliwej Utopii. W rzeczywistości niechętne słowa Platona, skiero­ wane przeciwko fizyce i zmysłom, przystawały do jego po­ litycznego ideału, państwa autorytarnego, opisanego w jego Republice. Pod wpływem Platona matematycy greccy przeszli wy­ bitną transformację — antyempiryczną i antywizualną — która wywołuje najskrajniejsze reakcje. Niektórzy ją wy­ chwalają jako jedno z najwybitniejszych i najtrwalszych osią- 23 24 Przedmowa gnięć starożytnej Grecji, inni natom iast ostro krytykują. Tak więc de Santillana4 wini ją za to, że Grekom nie udało się jed­ nocześnie z m atematyką rozwinąć fizyki, co doprowadziło do takich katastrofalnych efektów w dziedzinie grecko-rzymskiej technologii, że możemy przypisać jej część winy za upadek Rzymu, Platon (a wiele stuleci później Hermite) wierzył w pełną realność Idei, czego konsekwencją jest to, że prawdy i obiekty matematyczne są odkrywane, a nie wymyślane, (To przeko­ nanie ma tylko kilka konkretnych konsekwencji, ale zgadzam się z nim całym sercem.) Ale Platon wierzył również, że świat fizyczny ma jedynie „względną realność” . To właśnie doprowadziło go do sformułowania Utopii, w której prawdy matematyczne muszą być odkrywane i badane w oderwa­ niu od jakiegokolwiek konkretu i bez stosowania „zmysłów” , co z całą pewnością zawiera używanie wzroku, a może na­ wet „intuicji” . Utopiści, którzy wyrzucili rysunki z mate­ matyki, sami wprowadzili się w namiętność tak bliską religii, że należałoby ich nazwać ikonoklastami. Eicon oznacza obraz (co dziś wiedzą osoby znające się na komputerach) i ma związki znaczeniowe z idolem. Klasta to ten, który burzy i niszczy. D w ie Powracając z czasów Platona do czasów nam współczesn ierozłączn e nych, widzimy, że sytuacja jest zupełnie inna, nowa i płynna, stron y a opinie ostro podzielone. Możemy usłyszeć słowa uznania m a tem a ty k i od wielu, w tym od ludzi młodych i ich nauczycieli, ale na pewno nie od wszystkich. Przytoczę w tym miejscu ciekawą opowieść. Kiedy byłem młodszy, a matematyka eksperymen­ talna jeszcze się nie odrodziła, cała aktywność dotyczyła jed­ nego tylko rodzaju matematyki. Tak było już wtedy, kiedy studiowałem w Paryżu w połowie lat czterdziestych, naj­ pierw krótko w Ecole Normale Supérieure, a później przez zwyczajowe dwa lata w Ecole Polytechnique. Kiedy byłem w szkole średniej, uległem głębokiej fascynacji bardzo trud­ nym przedmiotem nazywanym geometrią, który stanowił znaczną część programu nauczania. Dla mnie w każdym ra­ zie polegała ona na badaniu obiektów mających dwie własno­ ści, które mogą przeczyć sobie wzajemnie, a jednak posu­ wają się wspólnie: tak jak rękawiczka na dłoni, tak jak dwie strony monety, czy też (lepsze porównanie) tak jak ciało 4 G. de Santillana, The Origins o f Scientific Thought, University of Chicago Press, 1961. Przedmowa i dusza, jedno niezbędne drugiemu. Możemy wnioskować na ich temat w stylu abstrakcyjnym — może suchym, ale tak dostojnym jak nic innego: pionierem takiego stylu był Eukli­ des. Ale to nie wszystko. Dla mnie matematyka dotyczyła zupełnie realnych obiektów, możemy je zobaczyć i je obracać jako rysunki albo jako gipsowe odlewy stojące na półkach w pracowni matematycznej. Kiedy miałem kilkanaście lat, uwielbiałem słuchać, że pewne liczby, początkowo wprowa­ dzone jako formalne pierwiastki kwadratowe z liczb rzeczy­ wistych ujemnych (to pochodzenie doprowadziło do nazwa­ nia ich liczbami „urojonymi”), szybko okazały się identyczne z punktami płaszczyzny. Wydawało się, że dowodzi to faktu, iż oryginalny sposób ich wprowadzenia był niezupełny, i — 0 ile wiem — nikt go nie popierał. Wprowadzanie alge­ bry bez tej interpretacji naprawdę zasługiwałoby na imię „złożonej” procedury. Podobały mi się także euklidesowe interpretacje geometrii nieeuklidesowych, które ujawniły, że jeszcze inna moneta, która w latach trzydziestych XIX w. wydawała się mieć tylko jedną stronę, w istocie miała dwie. Stało się moją dziką, lecz głęboką nadzieją, że sytuacje, w których obiekt pozostawał „abstrakcyjny” , były po pro­ stu dowodem czasowego braku wyobraźni przestrzennej ze strony geometrów. Przeskakując w czasie, łatwo można sobie wyobrazić mo­ ją radość, gdy geometria fraktalna pokazała, że wiele tak zwanych „matematycznych potworków” okazało się tak re­ alnymi, jak to tylko możliwe. Nie muszę chyba dodawać, że ten pogląd wpływał na sposób, w jaki odrabiałem trudne zadania domowe z m ate­ matyki, które dawano nam do rozwiązania. Kiedy się już zapoznałem z podstawowym zarysem nowego zadania, nie spieszyłem się wcale z zajmowaniem się pytaniami, które nam zadano; w zamian za to próbowałem naszkicować jakiś rysunek. Jeżeli zadanie to było sformułowane geometrycz­ nie, ten krok był bezpośredni. Natomiast jeżeli zadanie było sformułowane algebraicznie lub analitycznie, było to n ajtru­ dniejszą częścią rozwiązania. Jak tylko mój rysunek był go­ towy, poświęcałem mu całą moją uwagę; przekształcałem go 1 wprowadzałem wszelkie możliwe zmiany. W szczególności modyfikowałem go, próbując (choć trochę) wzbogacić, uczy­ nić atrakcyjniejszym i bardziej symetrycznym. W pewnym momencie „intuicja geometryczna” , o której będziemy mó­ wić za chwilę, niezmiennie zalewała mnie nagłym strumie­ 25 26 Przedmowa niem obserwacji. Dopiero wtedy sprawdzałem, jakie pyta­ nia nam zadano, i prawie zawsze okazywało się, że wszyst­ kie odpowiedzi były „intuicyjnie” oczywiste. Również nie­ zmiennie formalne dowody tych przypuszczeń były najłat­ wiejszymi krokami całego procesu. Jak sobie przypominam nigdy nie zdarzyło się, bym został bez odpowiedzi. Fakt ten oczywiście pomaga opisać rodzaj matematyki nauczanej we Francji w tam tych latach. Ta sama sytuacja kształtowała się w całej Europie, ale — jak się wydaje — nigdy nie zado­ mowiła się w Stanach Zjednoczonych. Intuicja geometryczna jest zdolnością, która wymaga pewnej uwagi. Słyszałem, jak zbyt wielu zaprzeczało jej ist­ nieniu, nawet nie zdając sobie sprawy, że opisują oni w ten właśnie sposób swoje ułomności. Inni ludzie lubowali się w ostrzeganiu o pułapkach intuicji i o je j nieadekwatności. Nie zdawali sobie sprawy, że intuicja nie jest czymś stałym, ale raczej jest owocem przeszłego doświadczenia. Może zostać łatwo zniszczona, ale daje się wyćwiczyć. Powróćmy do moich lat studenckich. Do pełnego roz­ koszowania się m atem atyką potrzebowałem połączenia we­ wnętrznego zainteresowania i formalizmu. Ale już w szkole średniej zasłyszałem pogłoski, że mój raj nie był bez skazy. A potem, po zakończeniu II wojny światowej, do Paryża powrócił mój stryj, który był profesorem matematyki w słyn­ nym College de France. Za sprawą stryja stałem się tym spośród wszystkich 20-letnich studentów matematyki w Pa­ ryżu, który uzyskiwał najlepsze porady. Stryj rozpoczął od poinformowania mnie (grzecznie, lecz stanowczo), że z punk­ tu widzenia działalności badawczej geometria, którą kocha­ łem, jest martwa. Nie chodziło tylko o zredukowanie do małego ale wciąż ożywionego strumyczka, gorzej, była ona m artwa od blisko wieku, poza m atem atyką dla dzieci. Stryj też był bardzo dobry z geometrii w szkole średniej. Ale czuł, że aby naprawdę zasłużyć się w matematyce, trzeba odejść od geometrii. Słyszałem to wszystko w latach czterdziestych, ale Brooks (1989) odbija echem opinię mojego stryja, kiedy opisuje m oją „wrażliwość m atem atyczną” (wtedy i dzisiaj) jako ✓„raczej dziecinną i trochę nudną” . Ściślej rzecz ujmując, powiedziano mi, że geometria, jako słowo, jest nadal żywa, ale straciła ostatni ślad dawnych bezpośrednich zastosowań. Tak na przykład geometria alge­ braiczna została uratowana z rąk zgrai ludzi (głównie Wło­ chów), którzy nie potrafili niczego w sposób właściwy zde­ Przedmowa finiować ani udowodnić, i była jednym z najbłyskotliwszych dzieci na podwórku, odrodzona jako przedsięwzięcie całko­ wicie algebraiczne, predestynowane do przyszłości lepszej niż jej teraźniejszość. Jako pierwszą możliwość stryj mój zaproponował, bym przeniósł się do jego dziedziny badań, analizy zespolonej, którą opisywał jako będącą jak najdalej od wzrastającej mo­ dy w kierunku abstrakcji. Na przykład powiedział mi o teorii iteracji Fatou-Julii i zasugerował, że błyskotliwy nowy po­ mysł matematyczny mógłby umożliwić mi zrobienie czegoś naprawdę wartościowego i wartego nagrody. Był on jednym z niewielu, którzy znali teorię Fatou-Julii. Uważał, że jest ona bardzo ładna, i drażniło go, że nie posunęła się wiele między rokiem 1917 a 1945. Dał mi oryginalne odbitki, które od nich otrzymał. Niestety, w trakcie czytania wy­ bitnych prac tych autorów szybko okazało się, że nie była to ta geometria, którą kochałem. Ponadto Gaston Julia był cały czas aktywny (miał około pięćdziesiątki, a po tym, jak przeniosłem się na politechnikę, był moim nauczycielem geo­ metrii różniczkowej). Mimo wszystko prawie nikt poza moim wujem nie słyszał o zbiorach J (nie był jeszcze znany term in „zbiory Julii” , za który odpowiedzialność częściowo ciąży na mnie). W istocie rzeczy mało kto poza moim wujem kiedy­ kolwiek rozmawiał z Julią. Drugą i bardziej oczywistą możliwością studiowania geo­ metrii było dostosowanie się do grupy matematyków, którzy nazwali się „Bourbakistami” . „Dostosować się” jest tu właś­ ciwym terminem, co potwierdza ciekawy esej autobiogra­ ficzny E. Hewitta5. „Od Stone’a i moich kolegów m atem a­ tyków z Harvardu wziąłem witalną lekcję o naszej wspaniałej dziedzinie: Zasada # 1 . Poważaj profesję. Zasada # 2 . Jeżeli masz wątpliwości, zob. zasadę # 1 .” Kim był Stone? Poza tym, że był wspaniałym, twórczym matematykiem, Marshall Stone jako syn przyszłego Sędziego Głównego Stanów Zjednoczonych miał właściwy sobie au­ torytarny sposób bycia i rozumienia świata. Opisywał on „profesję” w następującym podniosłym tonie6: „Wiele istotnych zmian w naszym pojmowaniu m atem a­ tyki i w naszym jej postrzeganiu zaszło od roku 1900. Jedną 5 E. Hewitt, Math. In te ll 12, 4, 32-39 (1990). 6 M. Stone, Am . M ath. Mon. 68, 715-734 (1961). 27 28 Przedmowa z nich, naprawdę rewolucyjną w świecie pojęć, jest odkrycie, że matematyka jest całkowicie niezależna od świata fizycz­ nego... Kiedy przestaniemy porównywać matematykę dzisiejszą z m atematyką końca dziewiętnastego wieku, możemy być zdumieni, jak szybko powiększyła się wiedza matematyczna, zarówno ilościowo jak i pod względem złożoności. Nie po­ winniśmy jednak nie zauważać, jak blisko rozwój ten związa­ ny był z naciskiem na abstrakcję i wzrastającą troską o po­ strzeganie i analizę szeroko pojmowanych wzorów matema­ tycznych. Jeżeli zbadamy sprawę dogłębnie, to w istocie zobaczymy, że ta nowa orientacja, która stała się możliwa dopiero po rozwodzie matematyki z jej zastosowaniami, stała się źródłem ogromnej witalności i wzrostu w ciągu bieżącego stulecia.” Bourbakiści używali słów „struktura” i „podstawa” przy każdej możliwej okazji. Terminy te były dla nich „pozy­ tywne” , tak jakby były związane z dostojnymi zadaniami budowania i odbudowywania. Ale Bourbakiści byli niekonse­ kwentni w trzymaniu się tego poszukiwania podstaw, zanim zaczęło ono dotyczyć logiki. Co więcej, uważałem (i nigdy nie znalazłem powodu, by zmienić mój pogląd), że pracowali w znacznym oddaleniu od tych pracujących ciężej, którzy naprawdę kładli fundamenty po wykonaniu wykopu w nie­ uporządkowanym i niepewnym gruncie. Przestawiali tylko meble jak dekoratorzy wnętrz, a nie jak budowniczy. Co gor­ sza, często wydawało się, że po prostu wkładali całe swoje serce w impulsywne sprzątanie, prowadzenie domu i awantu­ rowanie się. Moje uczucia na ich tem at były silne i proste (co czyni ze mnie osobę o skłonności do silnych uczuć, właściwą matematykom). Ich formalisme à la française z całą pewnoś­ cią nie był zajęciem bezużytecznym, ale było po prostu śmieszne pozwolić tej zasadzie rządzić matematyką, rządzić wybieraniem tych, którzy mieli zostać matematykami, i roz­ ciągać jej wpływ, gdzie tylko się dało. Tak więc byłem nie­ chętny Bourbakistom i bałem się ich. Śmierć geometrii i pojawienie się Bourbakistów spowo­ dowały, że zrezygnowałem z pozycji, której wielu mi za­ zdrościło, pierwszego studenta pierwszego roku ekskluzyw­ nej Ecole Normale. (Łączna liczba studentów pierwszego roku matematyki i fizyki w całej Francji zmniejszyła się tym samym do 14.) A potem wyjechałem z Francji. Jak już Przedmowa opisywałem7, obie te decyzje okazały się słuszne, ponieważ Bourbakiści rośli w siłę i wkrótce zawładnęli nie tylko Ecole Normale, ale również francuską akademią. W końcu Bourbakiści odeszli, ale wcześniej wykształcili wielu młodych matematyków, którzy w całym swoim życiu nie poznali niczego więcej. Trudno jest im dzisiaj pojąć in­ tensywność emocji, które Bourbakiści wzbudzali wśród swo­ ich zwolenników i swoich wrogów. Z tego właśnie powodu zapisałem8 kilka faktów i myśli dotyczących Bourbakistów. W żadnym przypadku nie mógłbym stać się szczęśliwym członkiem społeczności Ecole Normale, a później nie mógł­ bym być szczęśliwy we Francji jako profesor matematyki, gdzie koledzy należący do klubu rządzącego spoglądaliby na mnie niechętnie i na pewno nie uważaliby mnie za gentelmana. Wyprowadzenie się z uniwersyteckich wydziałów ma­ tematycznych do IBM-u umożliwiło mi trwałe zachowanie tej „dziecinnej wrażliwości”, którą miałem jako młodzieniec. Jak tylko komputery stały się łatwiejsze w użyciu i w miarę, jak prymitywna grafika zaczęła stawać się dostępna dla tych, którzy byli gotowi zapłacić bardzo wysoką cenę za bilet wstę­ pu, wyrażoną w wysiłku i obciążeniu, uczyniłem z nich nie tylko narzędzie, do którego można odwołać się w miarę po­ trzeby, ale stałą i integralną część mojego procesu myślenia. Doprowadza nas to do pytania, które jest bardzo stare, ale szczególnie ostro brzmi w następującym kontekście: ja ­ kie są w odkryciu naukowym odpowiednie wkłady narzędzia i jego użytkownika? Kłopot polega na tym, że różne na­ rzędzia są tu taj traktowane w różny sposób. Galileusz na­ pisał książkę, by poskarżyć się gorzko na tych, którzy po­ mniejszali jego odkrycie plam na Słońcu, twierdząc, że od­ krycie to należy w całości przypisać życiu w czasie „tele­ skopowej rewolucji” . Fatou (kaleka) i Julia (ranny bohater wojenny) są — i słusznie — cenieni za ich teorię iteracji i nikt nie będzie umniejszał ich pracy dlatego tylko, że żyli w czasie I wojny światowej czy też w epoce Montela9. Dzi­ siaj niektórzy pomniejszają wartość prac wykonanych za po­ 7 B. B. Mandelbrot, Math. People, D. J. Albers i G. L. Alexanderson (red.), Birkhauser, 1985, s. 205-225. 8 B. B. Mandelbrot, Math. In te ll 1 1 , 3, 10-12 (1989). 9 W 1912 r. Paul Montel wprowadził podstawowe narzędzie Fatou i Julii, normalne rodziny funkcji, a wkrótce potem — jak prawie wszy­ scy młodzi ludzie z francuskiej akademii — został powołany do wojska. 29 30 Przedmowa mocą komputera, uważając, że są wynikiem jedynie tego, że ich wykonawca przypadkiem żył w epoce komputerów. Jeżeli byłaby to prawda, stalibyśmy w obliczu tajemnicy. Dlaczego m atem atyka eksperymentalna przyciągała tak nie­ wielu naukowców przez tak długi czas po tym, jak von Neu­ mann i Fermi (wspominani wcześniej w tej przedmowie) po­ kazali, w jaki sposób m atem atyka może skorzystać z kom­ putera? Ich przykład został zignorowany. Kiedy rozpo­ czynałem swą pracę w IBM, gdzie przeniosłem się w 1958 r., możliwości używania komputerów były celowo i systema­ tycznie odtrącane z pogardą przez każdego liczącego się matematyka. Nawet przykład S. Ulama może być ciekawy. Był on współautorem (wspominanego wyżej) słynnego wcze­ snego artykułu o m atematyce eksperymentalnej (zob. przy­ pis s. 18) i mogłoby się wydawać, że powinien stać się orę­ downikiem tego nowego trendu. Niemniej jednak w przed­ mowie, którą napisał do reprintu tego artykułu w 1963 r., stwierdza, co następuje: „M atematyka nie jest tak naprawdę nauką obserwacyjną, ani nawet nie jest nauką eksperymen­ talną. Niemniej jednak obliczenia, które przeprowadziliśmy [Paul Stein i ja] były użyteczne w ustaleniu pewnych ra­ czej zadziwiających faktów o prostych obiektach matema­ tycznych.” Opinia, że liczy się tylko narzędzie, jest z pewnością fałszywa w moim przypadku, ponieważ grafika stała się pod­ stawowa w mojej pracy na długo przed początkiem ery kom­ puterów. Żywo pamiętam, ile czasu spędziłem nad wykresem wyników rzutów m onetą w słynnym podręczniku rachunku prawdopodobieństwa. Jest on odtworzony jako rycina 241 w mojej książce The Fractal Geometry of Nature. Dopro­ wadziło mnie to do różnych rodzajów użytecznych modeli. William Feiler, autor podręcznika, odpowiedział kiedyś na moje pytanie, czy te liczby losowe zostały wzięte z tabeli, czy też były wynikiem rzucania prawdziwej monety, ale nie pa­ miętam już jego odpowiedzi. Z całą pewnością nie były wy­ generowane przez komputer ani przezeń narysowane, a żaden inny autor podręcznika prawdopodobieństwa nie odczuwał potrzeby zamieszczenia takiego wykresu. Grafika z wykorzystaniem komputera stała się zasadnicza w mojej pracy w późnych latach sześćdziesiątych, kiedy w se­ rii prac, napisanych wspólnie z J. R. Wallisern, używaliśmy plottera do narysowania, jeden obok drugiego, ciągu praw­ dziwych zapisów pogody i zapisów generowanych przez „nie- Przedmowa prawdziwe” modele zmienności pogody. Okazało się to bar­ dzo ważne, ale było bardzo odległe od matematyki. Pierwsze poważne zastosowanie w matematyce pojawiło się gdzie in­ dziej, w polu zainteresowań specjalistów z dziedziny analizy harmonicznej, I. P. K ahane’a i J. Peyriere’a. Heurystyczne obliczenia odgrywały co prawda ważną rolę, ale to rysunki doprowadziły mnie do serii matematycznych hipotez na te­ mat pewnych losowych, osobliwych miar (później zwanych m,ultifraktalami). Potrafiłem udowodnić jedynie specjalne przypadki, ale Kahane i Peyriere udowodnili pełne hipotezy i przeszli do ich bardzo ciekawych zastosowań, które uzasa­ dniały ich wysunięcie. Drugie poważne zastosowanie, opublikowane bardzo póź­ no, w 1983 r., dostarczało pierwszego szybkiego algorytmu konstrukcji zbiorów granicznych dla pewnych grup Kleina. Doprowadza nas to do znaczącego epizodu. W tam tych la­ tach nie znałem żadnego eksperta z tej dziedziny, ale od dawna znałem Wilhelma Magnusa z NYU. Napisał on książkę o grupach Kleina, zatem złożyłem mu wizytę w 1978 czy 1979 r., aby się zapytać, czy mój algorytm był znany jemu albo innym. W tedy Magnus dał mi teczkę z wygenerowanymi komputerowo zbiorami granicznymi, przysłanymi mu przez różne osoby. Nikt spośród autorów tych ilustracji nie użył ich do poszukiwania nowych faktów matematycznych! Było to dla mnie głębokim zaskoczeniem, a jednocześnie silnym źródłem zachęty. Niemniej jednak powyższe badania były jedynie apetycz­ nymi przystawkami. Z mojego własnego punktu widzenia (jak również z szerszego punktu widzenia, podzielanego przez wiele osób) matematyka wzięła ostry zakręt w latach 1979-1980, kiedy teoria Fatou-Julii, którą z taką pogardą odtrąciłem w latach czterdziestych, znów stała się znaczącą częścią głównego nurtu matematyki. Zdarzyło się to, po­ nieważ tem at ten został dogłębnie odmieniony przez użycie nowego narzędzia. Jak już wspominałem, poprzednie zmiany w tej dziedzinie nastąpiły na początku wieku, kiedy to ro­ dziny normalne Paula Montela zagoniły do pracy Julię i Fatou. Ale — ku głębokiemu i gorzkiemu rozczarowaniu mo­ jego wuja — to nowe narzędzie nie było „czysto m atem a­ tyczne” . Nie wyrosło z niej, ale spoza matematyki. Metody geometrii fraktalnej pozwoliły mi już wcześniej użyć kom­ putera do wielu problemów fizyki i stało się tak, że mogłem również użyć go do głównego nurtu matematyki. Powie- 31 32 Przedmowa dzieliśmy już, że teoria Fatou-Julii wypadła z głównego nur­ tu. Ale wróciła do niego, robiąc wiele hałasu po tym, jak w latach 1979-1980 przeprowadziłem pewne badania nad zbiorem, który jest pedantycznie nazywany miejscem geo­ metrycznym bifurkacji przekształcenia z —> z2 + c. W mo­ ich wczesnych artykułach zbiór ten był nazywany „mapą /¿” , ponieważ fizycy zwykli byli oznaczać stałą c przez — a zatem zwykli byli zapisywać badane przekształcenie jako z z 2 ~ p. W tych samych artykułach miejsce geometryczne dla przekształcenia z —>Xz (1 —z) było nazywane „mapą À” . Moje obserwacje na tem at tego miejsca geometrycznego zostały przedstawione w m aju 1980 r. na specjalnym semi­ narium w Harvardzie, a potem w listopadzie 1980 r. na seminarium prowadzonym przez Davida Ruelle’a w Bures pod Paryżem, w Institut des Hautes Etudes Scientifiques. Seminarium w Bures miało wielu słuchaczy i jak się okazało wywarło głęboki wpływ na Adriena Douady’ego, który był tam obecny. On, a później także jego były student John Hubbard, porzucili swe poprzednie prace (był on w tym czasie ciągle jednym z liderów Bourbakistów) i od 1980 r. całkowicie poświęcili się miejscu geometrycznemu, które im opisałem na tym seminarium, a później w czasie wielu spo­ tkań prywatnych. Niedługo potem Douady i Hubbard zapro­ ponowali, by nazwać ten zbiór terminem zbioru Mandelbrota albo literą M. Z b ió r M Zbiór M ciągle przyciąga uwagę. Wiele osób (moim zda­ niem słusznie) uważa prace, którym dał początek, za bardzo specjalne w procesach narodzin nowej matematyki ekspe­ rymentalnej. To może dlatego jego dokładne pochodzenie przyciągnęło tak wyjątkowo wielką uwagę. Mniej godne po­ chwały są nieudokumentowane anegdoty, które przy okazji opowiadano, czy to w celu udowodnienia, że matematyka eksperymentalna jest okropnym pomysłem, czy wykazania, że jest to wspaniały pomysł, czy też, że została zrobiona zupełnie innymi rękami. Ponieważ nauczono mnie, że stwier­ dzenia, na które nie znaleziono kontrprzykładu, należy trak­ tować jako poprawne, z pewną dozą niechęci zdecydowałem się naszkicować te jeszcze kontrowersyjne próby. A z tego, że próby te spaliły na panewce wywnioskowałem, że nie było współzawodnika co do pierwszeństwa w odkryciu pierwszych i najbardziej uderzających własności zbioru M. Powinienem był na początek wspomnieć, że kilku bada- Przedmowa czy powiedziało mi w zaufaniu, iż pomysł badania M prze­ mknął im przez myśl, ale nigdy nie zajęli się nim i nie wy­ suwali żadnych żądań. Około 1988 r. (co najciekawsze nie wtedy, kiedy badania nad zbiorem M były nowe) pewien na­ ukowiec (który — wspaniałomyślnie — nie zostanie wymie­ niony z nazwiska) zachował się inaczej: być może wierzył, że powinien był wykonać tę pracę; zrobił niefortunny krok i wyraził swoje zdanie na piśmie, ale bez przytoczenia żad­ nego dowodu, który ktoś mógłby zobaczyć czy osądzić. Inne opublikowane roszczenie jest, wprost przeciwnie, udokumen­ towane: artykuł Brooksa i Metelskiego10 zawiera szkic M. Szeroko rozpowszechniany list Brooksa do B. Branner przy­ ciągnął szeroką uwagę do tego szkicu w 1988 r. Zostało pod­ kreślone, że list ten pochodzi z 1979 r. Tak więc, zbiór M został dostrzeżony jednocześnie w dwóch miejscach, w obu przypadkach bardzo mgliście. Niemniej jednak, co próbowałem wytłumaczyć w innym miejscu11, data tego pierwszego spostrzeżenia nie jest ważna. Przyjaciele i wrogowie matematyki eksperymentalnej są zgodni co do jednego: że rysunek sam w sobie nie jest wcale interesujący. (Jest tak zwłaszcza w tym przypadku, po­ nieważ rysunki w pracy Brooksa i Metelskiego są z gruntu źle oznaczone.) Dla matematyka eksperymentalnego ważne jest nie tyle pierwsze wrażenie, co idee matematyczne nasuwane przez te rysunki, jeżeli takie miałyby się nasunąć. Brooks i Metelski nie wnoszą żadnej matematycznej idei. Dokładnie na odwrót, mój pierwszy rzut oka na M w mętnej jeszcze postaci wywołał nieodparte wyzwanie, żeby zasto­ sować do iteracji te same tricki, których z tak dobrym rezul­ tatem używałem przez ostatnie piętnaście lat. (To właśnie dlatego — co zostało już powiedziane — Brooks później opisał mą „wrażliwość matematyczną” jako „raczej dzie­ cinną i trochę nudną.”) Nie muszę powtarzać, co nastąpiło w 1980 r., ponieważ wystarczająco dokładnie opisałem to w moim wstępie do wspaniałej książki Peitgena i Richtera12. (Zostało to napisane w 1985 r. do katalogu ich wystawy Granice Chaosu ( The Frontiers of Chaos).) 10 R. Brooks, J. P. Metelski, The dynamics of 2-generator subgroups of PSL(2,C), w: R iem ann Surfaces and Related Topics, I. Kra i B. Maskit (red.), Princeton University Press, 1981. 11 B. B. Mandelbrot, Math. In te il 11, 4, 17-19 (1989). 12 H. O. Peitgen, P. H. Richter, The Beauty of Fractals, SpringerVerlag, 1986. 33 34 Przedmowa Gdyby Brooks tylko chciał, jego wola mogłaby być wy­ pełniona z nawiązką w 1989 r. Jego przypadek przypomniał S. K rantz13, słynący jako przekaziciel matematycznych aneg­ dot o wydarzeniach, których nie był uczestnikiem ani nawet świadkiem. Zasłynął także mniej chwalebnie z dokładności (czy też raczej jej brak) swoich opowieści14. W 1989 r. anegdociarz ten wziął artykuł Brooksa i Metelskiego, po to jedynie, by poczynić stwierdzenia przeciwne stwierdzeniom Brooksa.15 Po pierwsze twierdził, że omawiane rysunki po­ chodziły z roku 1978, a po drugie, że były szeroko znane w społeczności matematyków. Gdyby to drugie było praw­ dziwe, zaoszczędziłoby to Brooksowi robienia czegokolwiek w 1988 r., Douady i Hubbard zaś nie mieliby żadnego po­ wodu, by nazywać zbiór M moim nazwiskiem. W roku 1991 tego samego anegdociarza ponownie cy­ towano: argumentuje on, że spójność zbioru M dowodzi, iż m atem atyka eksperymentalna może zawieść „nawet w [swoim] centralnym punkcie” . Pojawiają się różne inne argumenty oparte na tym, że m atematyka eksperymentalna jest jednocześnie bezpośrednia i nieefektywna. Jednak prak­ tycy znają się na tym lepiej: w zdolnych i ostrożnych rękach jeden eksperyment wiedzie do innego eksperymentu, potem wiąże się go ze znanymi faktami matematycznymi, w końcu doprowadza on do nowych hipotez matematycznych. W szczególnym przypadku zbioru M metoda eksperymen­ talna zaprowadziła mnie dalej, niż przyznają różnorodne sprawozdania, które możemy usłyszeć. Historia ta powinna zostać szerzej poznana, ona to bowiem uprawomocnia strony 155-157 z już wspominanego mojego fragmentu w The Beauty of Fractals (Piękno fraktałi). Być może tam właśnie zobaczył to nasz anegdociarz, ponieważ cytował moje słowa w swojej recenzji książki Peitgena i Richtera (jeżeli „recen­ zja” jest tu właściwym słowem). Ostatnie postępy mate­ matyki eksperymentalnej i jej rosnąca akceptacja powodują, że moje dawne słowa są warte tego, by je jeszcze raz prze­ czytać jako realistyczny opis udanego zastosowania metody eksperymentalnej w matematyce. Używałem jej od dawna, a dzisiaj zdobywa ona wielu nowych zwolenników. Spójność M była jedną z wielu obserwacji empirycznych, 13 S. 14 S. 15 S. Krantz, M ath. Intell. 12, 3, 58-63 (1990). Krantz, M ath. Intell. 13 , 4, 5 (1990). Krantz, M ath. Intell. 11, 4, 12-16 (1989). Przedmowa które poczyniłem na tem at M, a które potem doprowadziły do wspaniałych, w pełni dowiedzionych twierdzeń. Co więcej, to co nazwałem hieroglificznym charakterem zbioru M zo­ stało rozwinięte i udowodnione przez Tan Lei, a zupełnie ostatnio M. Shishikura udowodnił, że brzeg M ma wymiar Hausdorffa 2. Nie potrafiłbym napisać żadnego z tych do­ wodów. Ale chciałbym podkreślić raz jeszcze, że cenię na równi heurystykę (graficzną czy inną) i dowód. Nie oczer­ niam prac, których nie rozumiem albo których nie potrafił­ bym sam wykonać. Słyszymy, że tradycjonaliści (zgodnie ze swoją rolą) boją się, iż przez ponowne przyjęcie eksperymentu matematyka mogłaby stracić to „coś specjalnego” . Jest istotnie praw­ dopodobne, że mogłaby coś stracić, jak również, że mogłaby coś innego zyskać. Dobrze, że utraciła swoją monolityczną strukturę, charakteryzującą ją w latach pięćdziesiątych i sześćdziesiątych. Nadeszła już pora na doprowadzenie opowieści z powro­ tem do źródeł, bez zwracania nadmiernej uwagi na te ostat­ nie spory. Ich nadmiernie osobisty charakter kiedyś bardzo mnie drażnił, ale z perspektywy widzę je jako dość trywialne, odświeżające epizody w długiej walce o dusze, która roz­ grywała się pomiędzy Platonem a Archimedesem. 35 R ozdział 1 Podstaw a geom etrii fraktalnej: sprzężenie zw rotne i iterow anie Uważam za niezwykle ważne, aby równanie logistyczne było wprowadzane we wczesnej fazie edukacji matematycznej. Równanie to można badać fenomenologicznie przez przepro­ wadzanie jego iteracji na kalkulatorze lub nawet ręcznie. Ba­ danie jego nie wymaga używania tak skomplikowanych pojęć, jakich używamy przy rachunku różniczkowym. Może jednak znacznie wzbogacić intuicję ucznia dotyczącą układów nie­ liniowych. Powodziłoby nam się wszystkim lepiej nie tylko w pracy naukowej1 ale również w życiu politycznym i ekonomicznym, jeżeli szersza byłaby wiedza o tym , że proste układy nieliniowe niekoniecznie mają prostą ewolucję. Robert M. May1 Niestety przesłanie Maya nie wywarło większego wpływu, przynajmniej jeśli chodzi o nauczanie matematyki. Jakie zjawiska ma on na myśli i dlaczego uważa je za tak niezwykle ważne? Aby znaleźć odpowiedź na te pytania, spróbujemy najpierw umieścić postulaty Maya w szerszym kontekście. Jeśli myślimy o fraktalach jako o kształtach, obrazach i struk1 R. M. May, Simple mathematical models with very complicated dynamics, Nature 261, 459-467 (1976). 38 1. Podstawa geometrii fraktalnej Zim ow y w schód słońca Rysunek 1.1: Zimowy wschód słońca, Sierra Nevada, widziane z Lone Pine, California, 1944. Fotografia Ansela Adamsa. Copy­ right (c) 1991 by Trustees of the Ansel Adams Publishing Rights Trust. Wszystkie prawa zastrzeżone turach, na ogół wydają się nam one obiektami statycznymi. W wielu przypadkach taki punkt widzenia jest uzasadniony, jak na przykład w przypadku naturalnych tworów przedsta­ wionych na rysunkach 1.1, 1.2, 1.3. Takie podejście jednak nie daje nam wglądu w powsta­ wanie i rozwój danej struktury. Często, na przykład w bo­ tanice, zależy nam nie tylko na opisie struktury dojrzałej rośliny, lecz również na opisie tego, jak powstawała. W is­ tocie żaden model geometryczny rośliny, który jednocześnie nie zawiera opisu dynamiki jej wzrostu, nie doprowadzi nas daleko. To samo jest prawdą dla łańcuchów gór. Ich kształt jest wynikiem zarówno ruchów tektonicznych, które je stwo­ rzyły, jak też procesów erozji, które teraz i w przyszłości będą kształtowały to, co widzimy. Podobny proces zachodzi w przypadku formowania się osadu cynku przy osadzaniu elektrolitycznym. Fraktale Widzimy więc, że nie powinniśmy zajmować się samymi a p rocesy tylko fraktalami z pominięciem procesów, które je stworzyły, zm ienne Jeśli jednak zgodzimy się z takim postawieniem problemu, w czasie wchodzimy na bardzo niebezpieczny teren. Powstaje pyta- 39 D ąb kalifornijski Rysunek 1.2: Dąb kalifornijski, rezerwat Arastradero, Pało Alto. Fotografia wykonana przez Michaela McGuire Paproć Rysunek 1.3: Zdjęcie pochodzi z: K. Rasbach, D ie F a rn p fla n zen Zentraleuropas, Verlag Gustav Fisher, Stuttgart 1968. Przedruk za zgodą wydawcy nie, co to są za procesy i jaki jest ich wspólny matematyczny opis. Czy przypadkiem nie sugerujemy, że bardzo skompli­ kowane kształty, które spotykamy w naturze, są wynikiem równie złożonych procesów? Okazuje się,że mimo iż jest tak 40 1. Podstawa geometrii fraktalnej W zrost rośliny Rysunek 1.4: Wzrost rośliny symulowany za pomocą zmodyfi­ kowanego L-systemu (rysunek udostępnił P. Prusinkiewicz) P ro ces agregacji lim itow anej dyfuzją Rysunek 1.5: Model DLA ( d iffu sio n lim ite d aggregation) osadza­ nia cynku w procesie galwanizacji. Cząsteczki osadzają się na dol­ nej linii, tworząc drzewopodobne skupiska (rysunek udostępnił R. F. Voss) w wielu przypadkach, jednocześnie paradygmat, który długo funkcjonował w nauce: złożona struktura jest wynikiem działania złożonych i powiązanych ze sobą procesów jest na ogół daleki od prawdy. Przeciwnie, wydaje się — i jest to jedną z bardziej zaskakujących konsekwencji geome­ trii fraktalnej i teorii chaosu — że jeżeli mamy do czynienia ze złożoną prawidłowością, to w gruncie rzeczy jest całkiem prawdopodobne, że powstała ona jako rezultat bardzo pro­ stego procesu. Oznacza to również, że rozważając prosty proces nie powinniśmy łudzić się, iż łatwo zrozumiemy jego działanie. 1.1. Zasada sprzężenia zwrotnego 1.1. Z asad a sp r z ę ż e n ia z w r o tn e g o Najważniejszym przykładem prostego procesu o bardzo zło­ żonym zachowaniu jest proces wyznaczony przez równanie kwadratowe postaci x 2 + c, gdzie c jest wybraną stałą, albo równoważnie p + rp( 1 — p), gdzie ustalone jest r. Zanim będziemy mogli przystąpić do szerszego omówienia tego zja­ wiska — co nastąpi w rozdziale2 10 — zawrzemy bliższą znajomość z jedną z głównych postaci dram atu. Procesy ze sprzężeniem zwrotnym m ają fundamentalne znaczenie we wszystkich naukach przyrodniczych. Zostały one wprowadzone już przez Sir Isaaca Newtona i Gottfrieda W, Leibniza około 300 lat temu w postaci zasad dynamiki. Dziś koncept ten jest powszechnie stosowany przy wszelkim bodaj modelowaniu zjawisk przyrodniczych. Prawa tego ro­ dzaju wyznaczają na przykład położenie i prędkość cząstki w danej chwili na podstawie ich wartości w chwili poprze­ dniej. Trajektoria poszczególnej cząsteczki może być rozu­ miana jako realizacja takiego ogólniejszego prawa. Nie ma również znaczenia, czy rozważany proces jest procesem dys­ kretnym — to znaczy odbywającym się krokami — czy też ciągłym. Fizycy lubią posługiwać się pojęciem infinitezymalnych odcinków czasowych: natura non facit saltus^. Biolo­ gowie zaś często wolą rozpatrywać zmiany zachodzące z roku na rok, czy też z pokolenia na pokolenie. Rysunek 1.6: Urządzenie ze sprzężeniem zwrotnym, gdzie We — jednostka wejścia, Wy —- jednostka wyjścia, K — jednostka kontroli 2 Odwołania do rozdziałów o numerach wyższych niż 7 dotyczą dru­ giego tomu książki — przyp.tłum . 3 Przyroda nie robi gwałtownych skoków. 41 42 1. Podstawa geometrii fraktalnej Iterow anie, Będziemy używali wymiennie terminów: iterowanie, sprzężenie sprzężenie zwrotne i proces dynamiczny.4 Na rysunku 1,6 zw rotn e i p roces wyjaśniamy zasadę sprzężenia zwrotnego. To samo działanie d yn am iczn y jest powtarzane wielokrotnie, przy czym wynik jednej ope­ racji jest zarazem wartością początkową następnej. Iterowanie — zasada sprzężenia zwrotnego U rząd ze n ie sprzężenia zw ro tn e g o składa się z trzech jedn ostek pamięci oraz jed n eg o układu p rzetw arzająceg o (W e = wejście, W y = wyjście, K = jed n o stka ko n tro ln a, P — jed n o stka przetw arzająca czyli pro­ cesor). Połączone są one czterem a kanałam i ko m unikacyjn ym i, zob. rysunek 1.6. Całością rząd zi zegar, który nadzoruje to, co się dzieje w e w szystkich jed n o stkach i zlicza cykle. Jednostka kontroli działa pod obnie do skrzyni biegów w silniku. Polega to na ty m , że m ożem y ustaw ić iterow anie w dan ym stanie p o c zą tk o w y m , a następnie puścić je w ruch. C ykle m o żem y pod zielić na cykle przygotow aw cze i cykle przebiegu, z których każdy m oże być rozbity na kroki podstawowe: Cykl przygotow aw czy: krok 1: załad u j in fo rm ację do W e krok 2: załad u j in fo rm ację do K krok 3: przekaż zaw artość K do P Cykl przebiegu: krok krok krok krok 1: 2: 3: 4: przekaż zaw artość W e do P przetw ó rz to , co je s t na wejściu W e przekaż re zu lta t do W y przekaż zaw artość W y do W e D zia ła n ie urządzenia sprzężenia zw ro tn eg o rozpo czynam y jed n ym cyklem przygotow aw czym . N astępnie w ykon ujem y pew ną liczbę cy­ kli przebiegu. Ich liczba m oże zależeć od w y n ikó w obserw acji, ja ­ kich do ko n u jem y k o n tro lu jąc bieżący re zu lta t uzyskiw any na wyjściu. W y k o n a n ie jed n eg o cyklu przebiegu nazyw am y czasam i pojedynczą ite ra c ją . Jeśli odwołujemy się do iteracji, to powinniśmy wyo­ U rząd zen ie sprzężenia brazić sobie odpowiednie urządzenie sprzężenia zwrotnego. zw rotn ego — Działanie tego urządzenia może być modyfikowane przez us­ co to jest? tawianie odpowiednich parametrów zewnętrznych, podob­ nych przekładniom w silniku. Omówimy podstawowe za4 Mając nadzieję, że taka swoboda językowa nie będzie wprowadzać Czytelnika w błąd — przyp.thim . 43 1.1. Zasada sprzężenia zwrotnego sady, posługując się prostym przykładem wizyjnego sprzęże­ nia zwrotnego, który pozwala również na wykonanie przy­ kładowych eksperymentów. To przykładowe urządzenie sprzężenia zwrotnego można skonstruować przy użyciu od­ powiednio dobranego sprzętu. Jest to urządzenie „rzeczywi­ ste” w pierwotnym znaczeniu tego słowa, co stanowi wyjątek w tej książce. Najczęściej przez „urządzenie sprzężenia zwrotnego” rozumiemy tu taj abstrakcyjne urządzenie, ro­ dzaj eksperymentu myślowego. Takie abstrakcyjne urządze­ nie może zadziałać w formie odpowiedniego programu kom­ puterowego, obliczeń na kieszonkowym kalkulatorze, czy też po prostu na kartce papieru. P od staw ow a zasada w izyjn ego sprzężenia zw rotn ego Rysunek 1.7: Podstawowa zasada wizyjnego sprzężenia zwrot­ nego Wizyjne sprzężenie zwrotne jest eksperymentem rozu­ W izyjn e mianym tradycyjnie. Idea jego jest prawdopodobnie tak sprzężenie stara, jak sama telewizja. Mimo to prezentowany przez nas zw rotn e eksperyment jest tak zaskakujący, że możliwości, jakie niesie, mogą być interesujące nawet dla ludzi zajmujących się tele­ wizją profesjonalnie.5 Na rysunku 1,7 pokazano, na czym polega wizyjne sprzężenie zwrotne. Kamera video skiero5 Został on zaproponowany przez Ralpha Abrahama z University of California w Santa Cruz w latach siedemdziesiątych. Zob. R. Abraham, Simulation of cascades by video feedback, w: Structural Stability, the 44 I. Podstawa geometrii fraktalnej wana jest na ekran monitora i jednocześnie przekazuje na ten ekran wszystko, co znajduje się w jej polu widzenia. Oczy­ wiście istnieje wiele czynników, które m ają wpływ na to, co można zaobserwować na monitorze. Są nimi różnego typu pokrętła do kontroli jasności, kontrastu itd., jak też param etry kamery (ogniskowa, przesłona itd.). Podstawowe znaczenie ma również położenie kamery względem monitora. Poniżej przedstawiamy kilka wskazówek, które mogą się przy­ dać przy planowaniu własnego eksperymentu sprzężenia zwrotnego z kamerą. Wskazówki do przeprowadzenia eksperymentu wizyjnego 9 9 sprzężenia zwrotnego E ksp erym en t pow inien być przeprow adzany w ciem nym pom ieszczeniu. O dległość p o m ięd zy kam erą a m o nitorem pow inna być taka, ¿e by obraz był p rzekształcany w stosunku 1:1. K o n tra s t m onitora pow inien być m o żliw ie ja k najw iększy, jasność zaś pow inna być usta( ( w iona na dosyć niskim poziom ie. O trz y m a m y lepszy efekt, jeśli m o n ito r u staw im y do góry nogam i. P o n ad to statyw kam ery po­ w inien u m o żliw ia ć skręt kam ery w zględem osi poziom ej, podczas gdy pozostaje ona zw rócona przodem do m o n ito ra. K am era po­ w inna być obrócona o około 4 5 ° w zględem je j poziom ego położenia. Po połączeniu kam ery i m o nitora o trz y m u je m y podstaw ow ą konfi­ gurację u m o żliw ia ją c ą eksp erym en t. K am era pow inna m ieć ręcznie ustaw ianą przesłonę, ta k by u m o żliw ić je j stopniow e otw ieranie, pod­ czas gdy ostrość nastaw iona je s t na ekran m o nitora. W zależności od ustaw ienia ko n trastu i jasności w ystarczy zap alić zapałkę przed ekran em m o n ito ra , by eksp erym en t ruszył. Jest jasne, w jaki sposób możemy przedstawić nasz eks­ peryment w postaci schematu podobnego do tego na ry­ sunku 1.6 (wejście = kamera, procesor — kamera i elektro­ niczne części monitora, wyjście = ekran monitora, jednostka kontroli = ostrość, jasność itp.). Zegar sprzężenia zwrotnego pracuje w tym wypadku dość szybko, tzn. w tempie około 30 cykli na sekundę albo raczej takim, ile obrazów na sekundę wytwarza dany system TV .6 Theory o f Catastrophes, and Applications in the Sciences, P. Hilton (red.), Lecture Notes in Mathematics t. 525, Springer-Verlag, Berlin 1976, s. 10-14. 6 System NTSC to typowo 30 cykli na sekundę i 480 linii w obrazie, systemy europejskie — 25 cykli i 575 linii. 45 1.1. Zasada sprzężenia zwrotnego Każdy z parametrów kontrolnych wywiera wpływ na eks­ peryment, a niektóre mogą istotnie zmienić wynik. Mo­ żemy zatem myśleć o naszym eksperymencie jako o kom­ puterze analogowym z pokrętłami kontrolnymi. Dla pew­ nych parametrów kontrolnych i zmiennych stosunkowo pro­ sto można zrozumieć ich wpływ na nasz eksperyment. Dla innych jest to trudne, a dla niektórych diablo trudne. W rzeczywistości wiele obserwowanych efektów ciągle nie jest dobrze zrozumianych. Największy wkład w głębsze zrozu­ mienie procesu wizyjnego sprzężenia zwrotnego uczynił fizyk P. Crutchfield.7 Z asadnicze zn aczenie param etrów kontrolnych M onitor w ew nątrz m on itora w ew nątrz m on itora ... Rysunek 1.8: Efekt pojawiający się, jeżeli odległość między kamerą a monitorem jest duża. Zasada działania i podstawowe odwzorowanie (po lewej), rzeczywiste sprzężenie zwrotne (po pra­ wej) Zmienną, której zasadniczy wpływ na generowanie obra­ zu najłatwiej jest analizować, jest ustawienie kamery w sto­ sunku do ekranu monitora. Jeżeli odległość kamery od moni­ tora jest duża, ekran monitora stanowi tylko niewielką część pola widzenia kamery. W rezultacie kopia monitora będzie widoczna na niewielkiej części ekranu i tak znowu, i znowu, w nieskończoność. Na ekranie zatem zobaczymy monitor wewnątrz monitora, wewnątrz monitora itd. (zob. rysu­ nek 1.8). Rezultat takiego procesu możemy określić jako 7 P. Crutchfield, Space-time dynamics in video feedback, Physica 10D , 229-245 (1984). 46 1. Podstawa geometrii fraktalnej kompresję albo, używając pojęć dynamicznych, jako ruch w kierunku centrum ekranu. Początkowy obraz, jaki pojawi się na ekranie monitora, zostanie zmniejszony i pojawi się znowu na ekranie, a następnie znowu zostanie zmniejszony, i znowu, i znowu. Powiemy, że przekształcenie to działa w stosunku 1 : m, gdzie m < 1, tzn. to, co na ekranie ma długość 1, zostanie zredukowane do długości m w czasie jednego cyklu sprzężenia zwrotnego. Efekt polegający na pojawieniu się monitora wewnątrz monitora jest znany pod nazwą wizyjnego sprzężenia zwrot­ nego (z kamerą). Jest on łatwy do powtórzenia przy użyciu prawie dowolnego rodzaju sprzętu. Okazuje się jednak, że ten prosty system może doprowadzić do powstania całej gamy efektów, które jednak nie są powszechnie znane, gdyż czasami jest trudniej je otrzymać. N a jed ź na .. najedź na •. R ysunek 1.9: Efekt pojawiający się, jeżeli odległość między kamerą a monitorem jest mała. Zasada działania i podstawowe odwzorowanie (po lewej), rzeczywiste sprzężenie zwrotne — po­ wtarzające się powiększanie obrazu ołówka (po prawej) Zajmijmy się teraz tym, co się będzie działo na drugim końcu skali położenia monitora względem kamery. Jeśli od­ ległość pomiędzy kamerą a monitorem jest niewielka, to tylko część ekranu znajduje się w polu widzenia kamery. Część ta ukaże się na całym ekranie i znowu, i znowu, w nie­ skończoność (zob. rysunek 1.9). Obraz jest więc powiększany 1.1. Zasada sprzężenia zwrotnego w stosunku 1 : m, gdzie m > 1, tzn. część o długości 1 na ekranie będzie przekształcana na obraz o długości m w pojedynczej pętli sprzężenia zwrotnego. W tym wypadku zachodzący proces najlepiej jest określić jako powiększanie, albo też, używając języka ruchu, jako przemieszczanie w kierunku skraju ekranu. Z tego, co ukaże się początkowo na ekranie, zostanie wybrana tylko część i będzie powiększona do rozmiaru całego ekranu. Z tej po­ większonej części zostanie wybrana część, znowu zostanie powiększona i tak znów, i znów. Ponieważ TV odnawia obraz 25 razy na sekundę zauważenie poszczególnych kroków tego procesu nie jest możliwe. Rezultatem zbyt bliskiego położenia kamery względem ekranu może być pojawienie się na ekranie jakiegoś dziwnego, nieuporządkowanego ruchu. Najciekawsze efekty otrzymujemy, gdy kamera ustawiona Isto ta jest tak, że stosunek wielkości obrazu przekształcanego do sprzężenia oryginalnego wynosi w przybliżeniu 1:1. Jeśli dodatkowo ob- zw rotn ego rócimy kamerę o pewien kąt wzdłuż osi poziomej, to obraz na ekranie jest rejestrowany przez kamerę jakby obrócony o pewien kąt. W tedy obraz pojawiający się on na ekra­ nie (przekształcony w stosunku 1:1) jest w zasadzie tej sa­ mej wielkości — ale obrócony. Od tego momentu zawodzi jakiekolwiek proste wytłumaczenie otrzymanych skompliko­ wanych, ale zarazem pięknych efektów wizualnych. Z tego, co do tej pory zostało powiedziane, moglibyśmy wywnio­ skować, że na ekranie pojawi się ciąg obrazów otrzymanych przez kolejne obroty. Okazuje się, że wniosek ten jest zbyt dużym uproszczeniem. Otóż mogą wystąpić najdziwniej­ sze efekty, immanentnie związane z tworzeniem obrazu te­ lewizyjnego. Jak wiemy, obraz na ekranie tworzony jest za pomocą szeregu kolejnych linii. W podobny sposób więc ka­ mera rejestruje obraz pojawiający się na ekranie. Ma to wpływ na końcowy efekt. Występuje też zjawisko pamięci ekranu związane z fłuorescencją ekranu. Dodatkowo wy­ stępują zjawiska związane z wiązkami elektronów zarówno w monitorze jak i w kamerze. I nie jest to jeszcze kompletna lista czynników, które m ają wpływ na końcowy obraz poja­ wiający się na ekranie. Jak widzimy, ten niezwykle prosty układ sprzężenia zwrot­ nego ilustruje rozmaitość efektów, jakie można otrzymać w wyniku jego działania. W pewnym sensie jest to tematem 47 1. Podstawa geometrii fraktalnej 48 Rysunek 1.10: Kilka przykładów rzeczywistego wizyjnego sprzężenia zwrotnego. Można dostrzec silniej bądź słabiej zazna­ czoną okresowość, która zależy od kąta nachylenia kamery video. Od lewego górnego rogu do prawego dolnego możemy dostrzec okresy 3, 5, 5, 5, 8, 8, 11, 11, > 11 naszej książki. Zajmiemy się teraz grupą prostych ekspery­ mentów, które wniosą trochę światła do tego świata fascy­ nujących zjawisk. Podstawa ich będzie właściwie taka sama jak w układzie sprzężenia zwrotnego z kamerą: początkowy obraz jest wielokrotnie przetwarzany przez to samo urządze­ nie. 49 1.2. Kopiarka wielokrotnie redukująca 1.2. K op iark a w ie lo k r o tn ie r e d u k u ją c a Zajmijmy się nam rozwinąć trii fraktalnej. eksperymentu teraz grupą eksperymentów, które pozwolą intuicje związane z pojęciami języka geome­ W pewnym sensie stanowią one kontynuację sprzężenia zwrotnego z kamerą. K opiarka redukująca Rysunek 1.11: Iteracje kopiarki redukującej zastosowanej do portretu Carla Friedricha Gaussa (1777-1855) Rozważmy najpierw urządzenie kopiujące, które ma moż­ liwość pomniejszania. Jeżeli weźmiemy jakiś rysunek, wło­ żymy go do urządzenia i naciśniemy guzik, to otrzymamy jego kopię. Będzie ona przedstawiała wyjściowy rysunek po­ mniejszony jednorodnie o, powiedzmy, 50%, czyli dwukrot­ nie. Kopię tę możemy określić, używając matematycznego języka, jako figurę podobną do oryginału. Proces prowadzący do powstania tego typu kopii nazywamy przekształceniem podobieństwa lub podobieństwem. Użyty w schemacie przed­ stawionym na rysunku 1.6 wytworzy on układ sprzężenia zwrotnego8, którego działanie w długim czasie jest łatwe do przewidzenia: po około dziesięciu cyklach obraz nasz, ule­ gając stopniowemu zmniejszaniu, zamieni się w punkt. In­ nymi słowy, użycie tego urządzenia to strata papieru (zob. rysunek 1.11). Zmodyfikujemy teraz to podstawowe ustawienie. Przy­ pomnimy, że podstawowym zadaniem naszego urządzenia jest pomniejszanie obrazu. Pomniejszenie takie otrzymu­ jemy za pomocą układu soczewek. Jako prostą modyfikację standardowego urządzenia wyobraźmy sobie, że nasza ko8 Czytelnik powinien spróbować odnaleźć jednostki wejścia i wyjścia oraz procesor. 50 1. Podstawa geometrii fraktalnej piarka m a nie jedną, a wiele soczewek redukujących. Może ich być 2, 3, 7 lub 14 532 231, czy też inna dowolna liczba. Każda z soczewek jest skierowana na obiekt do kopiowania, pomniejsza go, a następnie umieszcza w pewnym miejscu na papierze. Schemat takiego urządzenia ma określoną liczbę soczewek, czynników redukcji oraz określone miejsce umie­ szczenia kopii. Definiuje to konkretny system sprzężenia zwrotnego, który możemy uruchomić i zobaczyć, co otrzy­ mamy. Takie urządzenie będziemy nazywali kopiarką wielo­ krotnie redukującą, w skrócie KWR. K opiarka w ielok rotn ie redukująca R y su n e k 1 .12 : Kopiarka wielokrotnie redukująca (KWR): pro­ cesor jest wyposażony w trzy systemy soczewek Na rysunku 1.12 pokazujemy pierwszy przykład takiej KWR, mającej tylko trzy soczewki, z których każda po­ mniejsza o 50%, czyli dwukrotnie. Jaki będzie wynik iteracji przy użyciu takiej kopiarki w pętli sprzężenia zwrotnego? Czy to, co ujrzymy, będzie po prostu układem coraz mniejszych obrazów, które będą dążyć do punktu? Rysunek 1.13 dostarcza zaskakującej odpo­ wiedzi, której konsekwencje mogą potencjalnie zrewolucjo­ nizować nasze rozumienie techniki kopiowania. Zacznijmy może od prostokąta jako obrazu próbnego. Przetworzymy go przez nasze urządzenie do kopiowania. Otrzymamy trzy po­ mniejszone kopie, które pokolorujemy w zależności od tego, który układ soczewek przetworzył obraz wyjściowy. 51 1.2. Kopiarka wielokrotnie redukująca P ro sto k ą t p od działaniem KW R Rysunek 1.13: Iteracje wychodzące od prostokąta doprowadzają do trójkąta Sierpińskiego. Rysunek przedstawia pierwszych pięć kroków oraz (w prawym dolnym rogu) rezultat pewnej większej liczby iteracji Następnie zobaczymy 3 x 3 = 9 pomniejszonych kopii P ierw szy znak: prostokąta, potem 3 x 9 = 27 jeszcze mniejszych kopii, po- trójkąt tern 81,243, 729 itd. Wielkość tych kopii gwałtownie maleje, Sierpiń sk iego9 ale składają się one na obraz, który wcale nie zanika, dążąc do punktu. Zamiast tego obraz ten kształtuje się w przy­ bliżenie trójkąta Sierpińskiego. Trójkąt Sierpińskiego jest fraktalem, którego będziemy często używać. Ma on wiele istotnych z punktu widzenia geometrii fraktalnej cech. Jeżeli użyjemy jako przenośni zasad języka, możemy powiedzieć, że wprowadziliśmy właśnie pierwszy znak naszego nowego dialektu fraktalnego. Z tego, co do tej pory napisaliśmy, wynika jasno, że ta podstawowa zasada pozwoli stworzyć nieskończenie wiele różnych obrazów. Trzeba tylko prze­ stroić naszą kopiarkę tak, by miała 4, 5, czy jakąś inną liczbę układów soczewek oraz różne czynniki redukcji. Zajmiemy się bardziej systematycznie tym problemem w rozdziałach 5 i 6. Istnieją jednak dwa zaskakujące fakty, które zasługują na wstępne omówienie w tym miejscu. Jeśli przyjrzymy się raz jeszcze rysunkowi 1.13, to skłonni jesteśmy uwierzyć, że przyczyną tendencji, która powoduje tworzenie się trójkąta Sierpińskiego, jest wybór prostokąta o odpowiednich rozmiarach jako obrazu początkowego dla naszego układu sprzężenia zwrotnego. Zależność ta nie jest jednak prawdziwa, co udowodnimy biorąc za obraz wyjściowy 9 Trójkąt Sierpińskiego nazywany jest czasem uszczelką Sierpińskie­ go — przyp. th im . 52 1. Podstawa geometrii fraktalnej D ziałan ie K W R na skrót „ N C T M ” oraz na inne k ształty R y su n e k 1.14: Możemy zacząć od dowolnego kształtu — urządzenie to zawsze doprowadzi do trójkąta Sierpińskiego trójkąt czy dowolny inny obraz, jak na przykład napis NCTM (jest to skrót nazwy amerykańskiego stowarzyszenia nau­ czycieli matematyki, National Council of Teachers of Mathematics — przyp. tłum.). Można zapytać, co będzie re­ zultatem naszego procesu? Rysunek 1.14 daje nam odpo­ wiedź na to pytanie. W trakcie działania procesu sprzężenia zwrotnego zawsze otrzymujemy przybliżenia tej samej fi­ gury. W każdym kroku otrzymujemy zbiór obrazów, których wielkość gwałtownie maleje. Nie liczy się, czy obrazy były prostokątami, trójkątam i czy literami NCTM, w każdym z tych przypadków osiągana jest ta sama figura końcowa — trójkąt Sierpińskiego. Oznacza to, że nasza kopiarka wy­ twarza jeden i tylko jeden obraz końcowy i to niezależnie od obrazu, z którego wystartowała. Zachowanie to wydaje się niezwykłe, jednak w języku matematyki można je opisać po prostu jako stabilność. Oznacza to, że rozważany pro­ ces ma taką własność, że jego rezultaty dążą do jednego końcowego obiektu, który jest niezależny od tego, jak zapo­ czątkowaliśmy proces. Następnym ciekawym faktem jest to, że posługując się pojęciem kopiarki, możemy odtwarzać nie tylko takie ma­ tematyczne dziwolągi, jak trójkąt Sierpińskiego i jemu po­ dobne (niedługo wprowadzimy ich więcej). Jakie obiekty możemy otrzymać w ten sposób? Dla wielu naturalnych form istnieje urządzenie kopiujące, które prowadzi do po­ wstania tego właśnie kształtu. Jak skonstruować takie urzą­ dzenie? Nie jest to proste zadanie. Niemniej jednak w rozdziale 5 wprowadzimy niekóre zasady tworzenia takich 1.2. Kopiarka wielokrotnie redukująca urządzeń. Próbując znaleźć rozwiązanie tego problemu, do­ trzemy do granic poznania współczesnej matematyki. Istota rzeczy polega na dostrzeżeniu różnorodności obiek­ tów możliwych do uzyskania przy użyciu bardzo prostego układu sprzężenia zwrotnego, którego param etram i możemy łatwo manipulować i które są całkowicie pod naszą kontrolą, a więc zupełnie inaczej niż w przypadku sprzężenia zwrot­ nego z kamerą. W naszym pierwszym przykładzie każdy układ soczewek P rzejście od działał jak przekształcenie podobieństwa, tzn. prostokąt był p od ob ień stw a przekształcany na prostokąt, trójkąt o danych kątach na do afiniczności trójkąt o takich samych kątach i tak dalej. Jedyną rzeczą, która ulegała zmianie była wielkość obrazu. Dla każdych dwóch punktów wyjściowego obrazu ich odległość w kopii jest zmniejszona o stały czynnik w porównaniu z ich odlegością w oryginale. Jednym z możliwych uogólnień jest dopuszczenie, by współczynnik zmniejszania mógł być różny w różnych kierunkach. Na przykład system soczewek może pomniejszać dwukrotnie w kierunku poziomym, a trzykrot­ nie w kierunku pionowym. W rezultacie załamie się podo­ bieństwo: kwadrat zostanie przekształcony na prostokąt, trójkąt o danych kątach — na trójkąt o innych kątach. W matematyce przekształcenie takie nazywa się afinicznym. Podobieństwa i przekształcenia afiniczne znajdują się jednak w tej samej klasie obiektów matematycznych: przekształceń liniowych, tzn. takich przekształceń, które przekształcają linię prostą w linię prostą. Dopiero po takim rozszerzeniu możemy w pełni docenić potęgę używania urządzenia ko­ piującego (zob. rozdz. 5). Występujące w świecie rzeczywistym układy soczewek P rzejście od nie dają perfekcyjnego podobieństwa. W ykrzywiają obraz liniow ości do w mniejszym lub większym stopniu. Krańcowym przykładem nieliniow ości takiego zniekształcenia jest linia prosta, która przekształcona przez soczewkę typu „rybie oko” staje się linią zakrzywioną. W matematyce określamy to jako zjawisko nieliniowe. Prześ­ ledźmy to zjawisko na uproszczonym przykładzie. Rozważamy liczby większe od 1. Jeśli pomnożymy je, na przykład, przez czynnik 1/3, to otrzymamy podobieństwo. Jeśli jednak będziemy rozważali branie pierwiastka kwadra­ towego, otrzymamy typowe zjawisko nieliniowe. Odcinek pomiędzy 1 a 10 przechodzi na odcinek pomiędzy 1 a ~ 3,16, podczas gdy odcinek pomiędzy 1 a 100, który jest 11 53 54 1. Podstawa geometrii fraktalnej razy dłuższy niż odcinek pomiędzy 1 i 10, przechodzi na odci­ nek pomiędzy 1 a \/l0 0 = 10, który z kolei jest tylko około 4 razy dłuższy niż odcinek pomiędzy 1 a y/lÓ, Współczynnik zmniejszania zmienia się i zależy od miejsca, gdzie działa przekształcenie. Urządzenia kopiujące o układach soczewek przekształcających nieliniowo rozważane są w rozdziale 12. Prowadzą one do zbiorów Julii, jak również do zbioru Mandelbrota. Układy soczewek, które będziemy tam rozważać, m ają jednak dodatkową cechę, w pewnym sensie związaną z podobieństwami — zachowują kąty. Na rysunku 1.15 przedstawiono takie przykładowe przekształcenie. P rzek szta łcen ie nieliniow e N [TM — Kri R y su n e k 1.15: Zespolony pierwiastek kwadratowy na płasz­ czyźnie w działaniu na litery NCTM. Zauważmy, że zachowywane są kąty 1 .3 . P o d s ta w o w a k la sy fik a cja u k ła d ó w sp r z ę ż e n ia z w r o tn e g o Zajmiemy się obecnie układami sprzężenia zwrotnego, które operują na liczbach. Zanim jednak zaczniemy omawiać po­ szczególne przykłady, przyjrzyjmy się ich ogólnym zasadom działania. Jeśli w układzie sprzężenia zwrotnego występuje zależ­ Z ależność p rosta ność prosta, tzn. iteracja jest dana wzorem x n-i-i = f ( x n), gdzie f ( x ) może być dowolną funkcją, to potrzebna jest zna­ jomość tylko jednej liczby na wejściu. W wyniku działania funkcji otrzymujemy nową wartość — na wyjściu (np. f ( x n) ~ x \ + 1). Wzór, jakim się posługujemy, może być kontrolowany przez stały param etr (np. f ( x n) ~ :r^ + c), ale wynik zależy tylko od wartości na wejściu. Wartości mają wskaźniki, by móc określić czas (cykl), w jakim je otrzy­ mano. Sprzężenie zwrotne o zależności prostej jest bardzo poży­ tecznym narzędziem w matematyce. W szczególności zostało 55 1.3. Klasyńkacja układów sprzężenia zwrotnego U rząd zen ie z zależnością p rostą Rysunek 1.16: Zasada działania urządzenia sprzężenia zwrot­ nego z zależnością prostą ono rozwinięte do numerycznego poszukiwania rozwiązań złożonych problemów. Podejście to ma co najmniej kilka tysięcy lat. N astępujący przykład sprzężenia zw ro tn eg o o zależności prostej opi­ suje algorytm znany m a te m a ty k o m sum eryjskim jakieś 4 0 0 0 la t te m u . Jest on pięknym przykładem siły m etod i ciągłości idei w m atem a ty ce . O d ta m te g o czasu cyw ilizacja przeżyw ała swoje w zlo ty i upadki, a je d ­ nak siła i piękno myśli m atem a ty czn ej przetrw ały. Niech a > 0. C hcem y w yznaczyć ciąg x 2, x % ,... w ten sposób, by jego granicą był y/a, tzn . by x n zb liżał się do y/a w m iarę w zrostu n. Poniżej pod ajem y sposób, w ja k i m ożna w yznaczyć ciąg x n . Z a ­ cznijm y od dow olnego x 0 > 0, a następne w y ra zy ciągu o b liczajm y tak: ^n+l ~ 2 (^n ^ J 71 = 0, 1, 2, ... (l-l) P rzyjrzyjm y sie przykładow i y/2. W y b ie rz m y na p o c zą te k xq = 2. O trzy m a m y w ted y i 12 = K11 + £ ) = K1,5 +r s ) = i = i ' 41666 - i ta k dalej. P rzyjrzym y się bliżej te j m eto d zie po to , by zrozum ieć, dlaczego i ja k dobrze przybliża ona oczekiw an y w ynik. W p ro w a d źm y za te m błąd względny en wartości x n, określony w zorem X ji — (l H- e-fi^y/a. ( 1 .2 ) S tarożytny sposób obliczania pierw iastka kwadratowego 56 1. Podstawa geometrii fraktalnej Po podstaw ien iu w rów naniu (1 .1 ) w yrażen ia (1 + e n ) \ / a w miejsce x n o trz y m a m y N astępnie, posługując się jeszcze raz definicją ( 1 .2 ), m ożem y w yrazić błąd w zględny en+i następująco: Z własności xq > 0 w yn ika, że eo > — 1 i d lateg o en > 0 dla n = 1, 2, 3 , . . . O trz y m u je m y więc, że x n > ^J~a dla w szystkich n > 0. Na koniec m o żem y na po d staw ie zależności (1 .3 ) oszacować błąd. Jeżeli opuścim y w m ian o w n iku liczbę 2, to o trz y m a m y en+1 < j a jeżeli opuścim y 2en , o trz y m a m y , en+1 < 2 * Pierw sza nierów ność i definicja en za p o m o cą rów nania (1 .2 ) dają nam ciąg nierów ności %1 > x 2 > #3 > O zn ac za to , że granicą teg o ciągu je s t yfa. Z drugiej nierówności o trzy m u je m y , że je ż e li en < 1 0 - n , to e n+ i < 1 0 - 2 n / 2 , tzn . każdy następny w y ra z ciągu m a praw ie pod w ojoną liczbę popraw nych cyfr. Pow yższy sposób na obliczan ie pierw iastka kw adratow ego je s t przy­ kładem ogólniejszej m e to d y zn ajd o w an ia ro zw iązań dla równań nieli­ niowych; m eto d a ta zo stała o d k ry ta w 4 0 0 0 la t później i nosi nazwę metody Newtona. M e to d y sprzężenia zw rotn ego z zależn ością d w u stop n iow ą Układy sprzężenia zwrotnego z zależnością prostą repre­ zentują tylko szczególny rodzaj w rozbudowanej rodzinie me­ tod wykorzystujących sprzężenie zwrotne. Następną klasą są metody o zależności dwustopniowej. Najczęściej stosowany jest wzór £n-(-l — 9 { x n i %n—l ) * 57 1.3. Klasyfikacja układów sprzężenia zwrotnego Jako przykład rozpatrzmy wzór generujący liczby Fibonacciego 'Sn—l) ~ "1“ ^n —1* Leonardo Pisano, zn any ta k ż e ja k o F ib o n acci10, był w y b itn ą po­ stacią zachodniej m a te m a ty k i średniow iecznej. W ie le p od różow ał po krajach basenu M o rza Ś ródziem nego, aby w końcu osiąść w swojej rodzinnej Pizie. W roku 1202 opublikow ał dzieło Liber abaci, które zm ieniło Europę. D zięki niem u E uropejczycy poznali cyfry arabskie, takie ja k 0 , 1 , 2 , . . . W dziele ty m zo stał postaw iony rów nież problem , który od ta m te g o czasu w ciąż dostarcza natchnienia rzeszom m a te ­ m atyków . A o to ten problem . W czasie 0 urodziła się para królików . Po miesiącu para ta osiąga dojrzałość i po następnym miesiącu w y­ daje na św iat następną parę i ta k dalej, tz n . co m iesiąc nowa para królików je s t w ydaw ana na św iat przez pierwszą parę. Co więcej, każda nowa para po miesiącu dojrzew a i zaczyna m iesięczną produk­ cję potom ków , i ta k bez końca. Zakład am y, że króliki żyją bez końca. Jaka je s t liczba par po n m iesiącach? B ądźm y ostrożni i prześledźm y ew olucję królików krok po kroku. W naszej króliczej rodzinie w prow adźm y rozróżnienie pom iędzy dorosłymi i m łodym i param i królików . Św ieżo urodzona para je s t oczy­ wiście m łoda i dojrzew a po je d n y m m iesiącu. Para dojrzała w ydaje na św iat co miesiąc parę m łodą. Niech M n i Dn będą o d p o w ie­ dnio liczbą m łodych i dojrzałych par królików po n m iesiącach. Po­ czątkow o, w czasie n — 0, m am y tylko je d n ą parę m łodych królików (M o = 1, A ) “ 0 ), któ re po m iesiącu przechodzą w dojrzałe ( M i = 0 ?JDi = 1). Po dw óch m iesiącach dorosła para w y d aje na św iat parę m łodą ( M 2 = 1,£>2 = 1)- I znow u po następnym m iesiącu. Co więcej, para m łoda dorasta (M3 = 1 ,Z > 3 = 2). Reguła je s t na­ stępująca: liczba par m łodych Mn+1 je s t rów na liczbie par dojrzałych w poprzednim m iesiącu, D n . Liczba par dojrzałych w zrasta o pary m łode z poprzedniego m iesiąca, Mn. D lateg o następujące dw a w zory opisują całkowicie dynam ikę rozw oju króliczej rodziny ■^n+l —Fni F n+i —L)n + (1 .4 ) Jako w arunki początkow e ustalim y M o — 1 , A ) — 0. Z pierw ­ szego z powyższych rów nań o trzym u je m y , że M n = Dn- \ . P o d ­ staw iając tę zależność do drugiego rów nania, o trz y m u je m y £>n+ i = L>n + przy założeniu, że D0 = 0,D i = 1. T o pojedyncze rów nanie opisuje całkow itą wielkość populacji królików . W y k o rz y ­ 10 Filius (=syn) Bonacciego. Ciąg Fibonacciego i rozmnażanie się królików 58 1. Podstawa geometrii fraktainej stu jąc ten w zó r, o trz y m u je m y natych m iast liczbę par w kolejnych generacjach królików : 0,1,1,2,3,5,8,13,21,34,55,89,144,233,... K ażda liczba w ty m ciągu je s t sum ą je j dw óch poprzedników . Ciąg ten nosi nazw ę ciągu Fibonacciego. Pow yższy problem je s t przykładem układu sprzężenia zw rotnego. R óżni się on je d n a k zn acznie od poprzedniego przykładu. W e w szyst­ kich pętlach sprzężenia zw ro tn e g o , ja k ie rozpatryw aliśm y do te j pory, stan system u w ch w ili n był w yzn aczo n y tylko przez stan bezpośrednio go poprzedzający, w chw ili 7^ — 1. T a k ie układy nazyw am y układami z zależnością prostą. W przypadku ciągu Fibonacciego stan w chwili n + 1 zależy za ró w n o od stanu w chw ili n , ja k i w chwili n —1. Takie układy n azyw ają się układami o zależności dwustopniowej. Prosto i niew innie w y g lą d a ją c y ciąg Fibonacciego m a w iele interesujących w łasności. N ap isan o o nim tysiące arty ku łó w , istnieje naw et stow a­ rzyszenie Fibonacci Association w ydające w łasne pism o Fibonacci Quartely, w k tó ry m publikow ane są ciągle nowe fa k ty zw iązane z tym problem em . Jedna z własności, któ rą przedstaw iam y poniżej, była znana ju ż od daw na, a o s ta tn io doprow adziła do zad ziw iających odkryć w bio­ logii. P rzez w iele w ie k ó w w yw ierała ona rów nież w ielki w pływ na a rc h ite k tu rę i sztukę. Jest jasne, że ciąg Fibonacciego m oże rosnąć bez ograniczenia. W pop ulacji kró likó w następuje eksplozja. M o ż e m y je d n a k zapytać, w ja k i sposób ten niesłychany w zrost następuje, pokolenie po pokole­ niu. W celu zn alezien ia odp ow ied zi na to pytanie p rzyjrzyjm y się raz jeszcze liczbom Fibonacciego i zn a jd źm y ilo razy przyrostu kolejnych generacji (w y n ik za o k rą g lim y do sześciu m iejsc po przecinku). n 1 2 3 4 5 6 7 8 9 10 11 12 13 Dn 1 1 2 3 5 8 13 21 34 55 89 144 233 Dn+ i/D n 1/1 2/1 3/2 5/3 8/5 13/8 21/13 34/21 55/34 89/55 144/89 233/144 377/233 w zapisie dziesiętnym 1,0 2,0 1,5 1,666666 1,6 1,625 1,615385 1,619048 1,617647 1,618182 1,617978 1,618056 1,618026 59 1.3. Klasyfikacja układów sprzężenia zwrotnego N ajw yraźniej zbliżam y się w ten sposób do pew nej liczby. M o ż e w i­ dzieliście tę tajem n iczą liczbę 1.618033988749894848820... ju ż wcześniej? A jeśli przedstaw im y ją tak: 1.61803398... = 1 + ^ ¿á ? Jest to słynna złota średnia, proportio divina11, nazw ana ta k w śred­ niowieczu. Liczba ta inspirowała m a te m a ty k ó w , astro n o m ó w i filo­ zofów ja k żadna inna w historii m a te m a ty k i. Może się wydawać, że nie można stosować metod dla układów sprzężonych do układów o zależności dwustopnio­ wej, o których dyskutowaliśmy do tej pory. Przecież wartość na wyjściu, £n+i, zależy nie tylko od wartości w poprzednim kroku, ale również od poprzedzającej ją, czyli x n- \ . W tym przypadku naturalne wydaje się zmodyfikowanie bu­ dowy naszego urządzenia sprzężenia zwrotnego tak, by wpro­ wadzić pewien rodzaj pamięci przechowującej informację po­ chodzącą z poprzednich cykli. Urządzenia z pamięcią są charakterystyczne dla ery komputerów. Podczas gdy maszyna nie m ająca pamięci reaguje na dane warunki początkowe zawsze tak samo, reakcja urządzenia z pamięcią może zależeć albo od stanu, w jakim się znajduje, albo od zawartości pamięci w danej chwili. Jako ilustrację tej własności rozważmy autom at do sprzedaży na­ pojów. Nie będziemy mogli zaspokoić pragnienia tylko przez naciśnięcie guzika. Najpierw trzeba wrzucić odpowiednią ilość pieniędzy, by maszyna znalazła się w odpowiednim sta­ nie do przyjęcia polecenia. Rozszerzmy nasze pojęcie urządzenia sprzężenia zwrot­ nego przez wyposażenie procesora w jednostkę pamięci we­ wnętrznej. Wtedy iterację z dwustopniową zależnością, x n+\ = g(%n,Xn- 1 )? można przedstawić następująco. N aj­ pierw zauważmy, że do rozpoczęcia działania układu wyma­ gane są dwie wartości początkowe: xo i x\. Przygotowanie: Wartość początkowa jednostki pamięci jednostki wejścia x\. 11 złoty stosunek (łac,). xq, U kład y sprzężenia zw rotn ego z pam ięcią 60 1. Podstawa geometrii fraktalnej Iteracja: Wyliczenie xn+i = g(xn, xn_i), gdzie x n po­ chodzi z jednostki wejścia, a x n_i z pamięci. Następnie wprowadzenie x n do jednostki pa­ mięci. Wydawać by się mogło, że układy sprzężenia zwrotnego z pamięcią powinny nadawać się lepiej do modelowania pew­ nych zjawisk. Jednak wcale tak nie jest. Urządzenie z pa­ mięcią można przedstawić przecież w sposób równoważny jako urządzenie z zależnością prostą, które działa na we­ ktorach. Wejście i wyjście można podawać w postaci par, trójek, czwórek itd. liczb. Oznacza to, że para zmiennych na wejściu (xn, x n_i) generuje parę zmiennych na wyjściu ( X n + 1 1X T1) . Wprowadźmy nową zmienną yn = xn_i i zastąpmy wzór U rząd zen ia z zależn ością xn+i = g( xn, x n- 1 ) równoważną mu parą równań p rostą Xn+1 = d ziałające na UnĄ-l — Xndw óch zm ienn ych Ten sposób podstawiania można łatwo uogólnić. Na przykład załóżmy, że wzór, który wyznacza sprzężenie zwrotne, zależy od k poprzednich iteracji. Możemy wtedy zapisać ten wzór jako proces o zależności prostej dany przez zbiór k wzorów. W ystarczy wprowadzić k zmiennych niezależnych. Zwykle zmienne niezależne są łączone w wektor zmiennych. Na przykład parę (xn, yn) można zapisać jako nową, pojedynczą zmienną Z n. Co więcej, możemy też w nowy sposób przed­ stawić wzory xn+i = g( xn, y n), yn+\ — x n jako jeden wzór 1 — G( Zn). Oznacza to, że nie musimy rozwijać nowych metod do badania układów o zależnościach złożonych. Mo­ żemy użyć metod już istniejących dla zależności prostych. P ę tla o dw óch krokach Rysunek 1.17: Pętle o dwóch krokach są specjalnym przy­ padkiem urządzeń sprzężenia zwrotnego o zależności prostej dla dwóch zmiennych 1.3. Klasyfikacja układów sprzężenia zwrotnego R ozw ażm y przykład liczb Fibonacciego. M o że m y je zdefiniow ać sto­ sując zależność złożoną D n -\-\ ~ 9 { & n i D n —l ) ” “ I” 61 P r o b le m ew o lu cji k ró lik ó w jak o z a le ż n o ść p r o sta 1? gdzie Do = 0 i D\ = 1. R ów now ażne rów nania dla zależności prostej dla układów par (xn,y n) są następujące: •^n+l Xn ym 2/n+l = Xn, z w artościam i p o czątkow ym i xo = 0 i yo = 1. Jest to dokładn ie to samo, co o trzym aliśm y w cześniej, p o d staw iają c x n — D n i yn = M n . Używaliśmy skróconego oznaczenia G( xn) dla całego zbio­ ru wzorów, wykorzystywanych w procesorze. Pozwalało to na stosunkowo prosty zapis złożonych zależności w układach sprzężenia zwrotnego. Wzór G( xn) może jednak być nie­ jednorodny jak w następującym przykładzie, istotnym dla rozważań w rozdziale 2 i 10: U kład y 0 zależności prostej 1 w zorach niejednorodnych _ J axn, jeśli x n < 0, 5 Xn~hl | a (l —xn), jeśli x n > 0,5. a oznacza tu taj param etr, np. a = 2 czy a = 3. W ta ­ kim przypadku nie będziemy wprowadzać dwóch urządzeń sprzężenia zwrotnego i dodatkowego połączenia, zapiszemy powyższy wzór jako jeden: x n+i = / ( x n), gdzie / jest prze­ kształceniem, którego wykres przedstawiono na rysunku 1.18. P rzek ształcen ie o w ykresie w k ształcie n am iotu R y su n ek 1.18: Przekształcenie o wykresie w kształcie namiotu dane jest przez f( x ) = ux, jeśli x < 0,5, oraz —ax -f a, jeśli x > 0 , 5 . W tym przypadku wybraliśmy 3 jako wartość parametru 62 P r o b l e m ( 3 A 4- 1) 1. Podstawa geometrii fraktalnej U ży w a ją c bardzo prostej zasady, przedstaw im y te ra z algo rytm , który w y tw a rza ciąg liczb całkow itych, ale którego przebieg nie zo stał je ­ szcze do końca zrozum iany. A o to je g o definicja w prow adzona przez L o thara C o llatza . K ro k 1: W y b ie rz dow olną liczbę n a tu raln ą A . K ro k 2: Jeśli A — 1, S T O P . K ro k 3: Jeśli A je s t parzysta, za s tą p A przez A /2 i przejdź do kroku 2. K ro k 4: Jeśli A je s t nieparzysta, to zastąp A przez 3^4 + 1 i przejdź do kroku 2. P rzy jrzy jm y się kilku przebiegom tego algo rytm u dla różnych A: • 3, 10, 5, 16, 8, 4, 2, 1, S T O P • 34, 17, 52, 26, 13, 40, 20, 10, 5, 16, 8, 4, 2, 1, S T O P • 75 , 2 2 6 , 113, 3 4 0 , 170, 85 , 2 5 6 , 128, 64, 32, 16, 8, 4, 2, 1, S T O P W y d a je się oczyw iste, że niezależnie od doboru wartości A al­ g o rytm za trzy m a się. M o żn a zaobserw ow ać, że im większe A , tym w ięcej m usim y w ykon ać kroków , by się za trzy m a ć . P rzy jrzy jm y się je d n a k przebiegow i alg o ry tm u dla A = 27. • 27, 8 2 , 41 , 124, 62, 31, 94 , 4 7 , 142, 71, 214, 107, 322, 161, 48 4, 2 4 2 , 121, 3 6 4 , 182, 91 , 2 7 4 , 137, 412, 2 0 6, 103, 3 1 0 , 155, 46 6, 23 3 , 7 0 0 , 3 5 0, 175, 5 2 6 , 263, 7 9 0 , 395, 1186, 593, 1780, 890, 4 4 5 , 13 36 , 668, 3 3 4, 167, 5 0 2 , 2 5 1, 754, 377, 11 32 , 5 6 6 , 283, 850, 4 2 5 , 12 76 , 6 3 8, 3 1 9 , 9 5 8 , 4 7 9 , 14 38 , 719, 2 1 5 8 , 1079, 32 38 , 1619, 4 8 5 8 , 2 4 2 9 , 7 2 8 8 , 3 6 4 4 , 18 22 , 9 1 1 , 2 7 3 4 , 1367, 4 1 0 2 , 20 51 , 6154, 3 0 7 7 , 9 2 3 2 , 4 6 1 6 , 2 3 0 8 , 11 54 , 5 7 7 , 1732, 8 6 6 , 4 3 3 , 1300, 65 0, 3 2 5 , 9 7 6 , 4 8 8 , 2 4 4 , 122, 61 , 184, 92, 46, 23, 70, 35, 106, 53, 160, 80 , 40, 20 , 10, 5, 16, 8, 4, 2, 1, S T O P O czyw iście m yliliśm y się. Z pow yższego przykładu w ynika d o d a t­ kowo, że o d p o w ied ź na pierwsze pytanie nie je s t w cale ta k oczyw ista. C zy rzeczyw iście ciąg ten musi się zawsze zakończyć? O ile nam w iad o m o , problem ten pozostaje ciągle nie rozw iązany. Zostało to co praw da spraw dzone przy użyciu ko m putera dla liczb m niejszych od A = 1 0 9 . P rzepro w ad zen ie teg o testu nie było rów nież zad a­ niem ła tw y m , pon iew aż w czasie obliczeń w yrazy ciągu m ogą prze­ kroczyć naw et najw iększe dopuszczalne liczby, ja k ie ko m puter m oże sensownie przedstaw ić. D la te g o te ż pew ne zm ienne procedury, po­ w iększające zakres liczb reprezentow anych przez kom puter, m uszą zostać sp ecjalnie w łąc zo n e do rozw iązan ia te g o problem u. i .ó . r\ia sy n K a cja UKtaaow sp rzę że n ia zw ro tn eg o uo Powyższy algorytm m ożem y z łatw ością rozszerzyć na ujem ne liczby całkow ite. A o to kilka przykładów : • • • • • - l t - 2 , - 1 , - 2 , ...C Y K L o długości 2 - 3 , - 8 , - 4 , - 2 , - 1 , ...w p ad a w C Y K L o długości 2 - 5 , - 1 4 , - 7 , - 2 0 , - 1 0 , - 5 , - 1 4 , ... C Y K L o długości 5 - 6 , - 3 , - 8 , - 4 , - 2 , - 1 , ... w pada w C Y K L o długości 2 - 9 , - 2 6 , - 1 3 , - 3 8 , - 1 9 , - 5 6 , - 2 8 , - 1 4 , - 7 , - 2 0 , ... w p ad a w C Y K L o długości 5 • - 1 1 , - 3 2 , - 1 6 , - 8 , - 4 , - 2 , - 1 , ... w pada w C Y K L o długości 2 Pow staje pytanie, czy istnieją inne cykle? O tó ż tak: • -1 7 , -5 0 , -2 5 , -7 4 , -3 7 , -1 1 0 , -5 5 , -1 6 4 , -8 2 , -4 1 , -1 2 2 , -6 1 , -1 8 2 , - 9 1 , 272, - 1 3 6 , - 6 8 , - 3 4 , - 1 7 , ... C Y K L o długości 18. Jeżeli zm ien im y nasz algo rytm ta k , że zlik w id u je m y S T O P w kro­ ku 1, to o trzy m a m y dla A = 1: • 1, 4, 2, 1, C Y K L o długości 3, a jeśli dopuścim y A — 0: • 0, 0 ,...C Y K L o długości 1. Po ta k w prow adzonych popraw kach m ożem y zapisać nasz algo­ rytm ja k o system sprzężenia zw ro tn eg o ja k następuje: _ n+1 ( x n/2, 3xn + 1, jeśli x n je s t liczbą parzystą, jeśli x n je s t liczbą nieparzystą. M ożna więc ogólnie zapytać: ja k ie cykle są m ożliw e w ty m u kła­ dzie sprzężenia zw ro tn eg o i czy w ybór x$ zaw sze doprow adzi do ciągu, który po pew nym czasie w padnie do któregoś z takich cykli? W y d a je się, że pytanie to nie je s t bardzo tru d n e i że o d p o w ied ź w ta k rozw i­ niętej gałęzi nauki, ja k ą je s t m a te m a ty k a , pow inna być zn ana, albo co najm niej m ożliwa do uzyskania przy użyciu istniejącego ap aratu . O tó ż nie! Jest to przykład na to , że w m a te m a ty c e je s t jeszcze w iele do zrobienia oraz ta k że na to , że prosto w yg ląd a ją ce problem y nie zawsze są równie proste do rozw iązan ia. Innym przykładem, o wiele bardziej zaskakującym i wymagającym ostrożności, jest kopiarka redukująca z poprzedniego paragrafu. Można ją też traktować jako urządzenie sprzężenia zwrotnego o prostej zależności, opisane pojedynczym wzorem £n+i = F ( x n). W tym przypadku F jest nazywane operatorem Hutchinsona. Przypadkowi temu przyj­ rzymy się dokładniej w rozdziale 5. K opiarka redukująca jako urządzenie z zależn ością p rostą 64 L Podstawa geometrii fraktalnej R u letk a Wszystkie rozważane do tej pory urządzenia były ściśle deterministyczne. Teraz zajmiemy się urządzeniem, które łączy determinizm z losowością. Podobnie jak w poprze­ dnich przykładach, jednostka przetwarzająca (procesor) za­ wiera pewne wzory. Dodatkowo jednak mamy do czynie­ nia z ruletką, wykorzystywaną do losowego wyboru wzoru, który zostanie użyty w danym kroku. Liczba (lub para liczb) na wejściu po przekształceniu za pomocą losowo wy­ branego wzoru da nam nową liczbę na wyjściu. Wzór, jaki zastosujemy, jest wybierany losowo dla każdego kroku pro­ cesu sprzężenia zwrotnego. Czyli na to, co otrzymamy na wyjściu, ma wpływ nie tylko to, co znalazło się na wejściu. Podobnie działo się w urządzeniach z pamięcią. Niestety, nie możemy w żaden sposób przekształcić naszego procesu tak, by otrzymać (deterministyczne) urządzenie o prostej zależności. Jeśli liczba wzorów wynosi 7V, to ruletka ma N pól do wyboru, po jednym dla każdego wzoru. Ponu­ merowane pola m ają zróżnicowaną wielkość, odpowiadającą prawdopodobieństwom wyboru danego wzoru. Urządzenia tego typu pom agają w znalezieniu skutecznych metod de­ kodowania obrazu, zakodowanego przy wykorzystaniu urzą­ dzenia do kopiowania. Będziemy się tym zajmowali w roz­ dziale 6. R uletk a Gra w chaos Z a jm ie m y się obecnie fascyn ującym i konsekw encjam i w prow adzenia kopiarki w ie lo k ro tn ie red u k u jąc ej. Będzie to jednocześnie następny przykład w spółgrania chaosu i fra k ta li. O to gra nazw ana przez M . F. Barnsleya grą w chaos. Na pierw ­ szy rzu t oka nie m a ona zw ią zk u z chaosem i fra k ta la m i. O piszm y i .ó . j\ia sy n K a c ja U Kiaaow sp rzę że n ia zw ro tn eg o najpierw reguły te j gry. W rzeczywistości nie je s t to jed n a gra, ale nieskończenie w iele gier. P odlegają one je d n a k ty m sam ym zasadom . R zucam y kostką do gry i w y b ieram y ja k ą ś spośród prostych reguł. A oto przykładowa gra: Przygotow anie: W e ź m y kartkę papieru i ołów ek. Z a zn a c z m y na papierze trz y punkty, któ re po n u m eru jem y 1, 2, 3 i nazyw ać będziem y bazami W e ź m y kostkę do gry, by m óc w ybrać losowo liczby 1 ,2 i 3. Łatw o m ożna w yprodukow ać ta k ą kostkę. Jeśli w e źm iem y zw ykłą kostkę do gry, w ystarczy podstaw ić za szóstkę jedynkę, za p iątkę dwójkę, a za czw órkę tró jkę. Zasady: N a p o c zą tk u gry w yb ierzm y dow olny p u n kt na kartce i zazn aczm y go przez postaw ienie kropki. N a z w ijm y go punktem wiodącym. N astępnie rzućm y kostką. Jeśli, na przykład, o trz y ­ m aliśm y liczbę 2, w y zn a czam y odcinek pom iędzy p u n ktem w io d ącym i bazą o num erze 2 oraz zazn aczam y p u n kt dokładn ie w środku teg o odcinka, tzn . dokładn ie w połow ie pom iędzy p u n ktem w io d ącym i bazą 2. Będzie to now y p u n kt wiodący. W ten sposób zakończyliśm y pierwszą kolejkę gry. T e ra z zn ów rzucam y kostką, by w sposób losowy o trzym ać liczbę 1 ,2 lub 3, i w zależności od rezu ltatu w yznaczyć nowy pun kt w iodący w połow ie pom iędzy poprzednim pu n ktem w io d ącym a losowo w ybraną bazą. Rysunek 1.20: Trzy punkty bazowe (wierzchołki trójkąta) oraz kilka pierwszych iteracji punktu w iodącego Na rysunku 1.2 0 pokazano kilka pierwszych w yn ikó w gry. Z a z n a ­ czono kolejne punkty w iodące w kolejności ich pow staw ania, xq,x\, X2 , ... To, co opisaliśm y pow yżej, je s t tylko bardzo prostym sposobem generowania losowych p u n któ w na płaszczyźnie i nie w yd aje się spe­ cjalnie fascynujące. N asze podejście się je d n a k g w ałtow n ie zm ieni, gdy dostrzeżem y, co pojaw ia się w w yniku działania teg o prostego układu sprzężenia zw rotnego. 66 1. Podstawa geometrii fraktalnej C zy m o żem y przew idzieć, co o trz y m a m y ja k o re z u lta t dużej liczby pow tórzeń te j gry, tzn . ja k i obraz w yłoni się z p u n k tó w x o , x i , . . . , £ 1000? Z au w ażm y, że jeśli p u n kt w io d ą cy raz dostanie się do w nętrza tró jk ą ta w yzn aczo n eg o przez trz y p u n kty bazowe, proces nasz pozo­ stan ie ta m na zaw sze. Co więcej, s ta rtu ją c z dow olnego punktu kartki p u n kt w io d ą cy zaprow adzi nas do w n ętrza tego tró jk ą ta . Poniew aż losowo g en eru jem y p u n kty w io d ące, więc w ydaw ałoby się, że w rezul­ ta c ie o trz y m a m y losowy rozkład p u n któ w , w pew ien sposób rozrzuco­ nych pom iędzy b azam i 1, 2 i 3. R ozkład p u n któ w będzie rzeczywiście losowy, ale obraz, k tó ry utw orzą pun kty — nie (zo b . rysunek 1 .2 1 ). N ie je s t on w cale losowy. D o s trze g am y w y ra źn ie zarysow ujący się tró jk ą t Sierpińskiego. Jest to o b ie kt niesłychanie uporządkow any — całko w ite przeciw ieństw o obiektu losowego. W yniki gry w chaos Rysunek 1.21: 500, 1000, i 1500 punktów wygenerowanych za pomocą gry w chaos W ty m m om encie m oże nam się w ydaw ać, że działa tu siła wyższa lub je s t to po prostu d ziw n y zbieg okoliczności — ale ta k nie jest. K a żd y obraz, k tó ry m o żem y o trzy m a ć przy użyciu kopiarki redu­ ku jącej, m ożna te ż o trz y m a ć ja k o w yn ik specjalnie dostosowanej we­ rsji gry w chaos. C o w ięcej, je s t to sposób na przyspieszenie genero­ w ania o b razu . Gra w chaos je s t te ż kluczem do rozszerzenia pojęcia kodow ania o b razu , nad któ rym dyskutow aliśm y przy om aw ianiu ko­ piarki w ie lo k ro tn ie redukującej. M o ż e m y za je j pom ocą skalować odcienie szarości, a naw et tw orzyć obrazy barw ne. B ędziem y to o m a­ w iać w rozdziale 6, któ ry będzie rów nież zaw ierać podstaw y teorii praw d opod obieństw a — ale ta k ie j z pięknym i niespodziankam i. 1.4. przypowieść o paraoou 1.4. P r z y p o w ie ść o p a r a b o li alb o: n ie u faj k o m p u te r o m Przyjrzyjmy się teraz iteracjom przekształceń kwadratowych. Najpierw wprowadźmy do naszego schematu iteracyjnego wyrażenie x 2 + c. x i c są tu taj liczbami, m ają jednak różne znaczenie. Iterowanie tego wyrażenia dla ustalonego (konIterow anie funkcji kw adratow ej R y s u n e k 1 .2 2 : Iterow anie funkcji kwadratowej jako urządzenie sprzężenia zw rotnego. Procesor został zaprogram ow any tak, aby przy danych x i c obliczał x 2 + c trolującego) param etru c oznacza co następuje. Zacznijmy od jakiejś liczby x, obliczmy wartość naszego wyrażenia, a następnie zanotujmy wynik, tak by stał się on nową war­ tością x. Następnie znów obliczmy wartość wyrażenia, i tak dalej. Przyjrzyjmy się przykładowi: Przygotowanie: Ustalmy param etr c, powiedzmy c — —2. Następnie wybierzmy liczbę x, na przykład x = 0, 5. Iteracja: Policzmy wartość wyrażenia dla x, otrzy­ mamy 0,25 —2 — —1,75. Teraz to powtórzmy, tzn. wyznaczmy wartość wyrażenia, używając pierwszego wyniku jako nowej wartości x, czyli wyznaczmy wartość dla x = —1,75. Otrzymamy 1,0625 itd. Poniższa tabela przedstawia wyniki dla pierwszych czterech iteracji: X x2 + c 0,5 -1,75 1,0625 -0,87109375 -1,75 1,0625 -0,87109375 -1,2411956787109375 68 1. Podstawa geometrii fraktalnej Już po czterech powtórzeniach natykamy się na poważny problem. Ponieważ podnosimy do kwadratu, liczba miejsc znaczących po przecinku, potrzebnych do przedstawienia kolejnych wyników, podwaja się w każdym kroku. Unie­ możliwia to otrzymanie dokładnych wyników dla więcej niż kilku iteracji, gdyż komputery i kalkulatory reprezentują liczby tylko z pewną określoną, a na pewno skończoną, liczbą miejsc po przecinku.12 C zy liczą się Jest to oczywiście powszechny problem w obliczeniach n iew ielk ie przeprowadzanych na komputerze czy na kalkulatorze. Naj­ różn ice ? częściej jednak nie musimy brać tego pod uwagę. W yda­ wałoby się, że potęga komputerów jest tak wielka, że takie niewielkie różnice naprawdę się nie liczą. Na przykład, jeżeli obliczamy 2 * (1/3), najczęściej nie przejmujemy się tym, że kalkulator reprezentuje liczbę 1/3 tylko w pewnym przy­ bliżeniu. Zaakceptujemy odpowiedź 0,6666666667, która jest oczywiście różna od prawdziwej reprezentacji 2/3. Na­ wet przy wykonywaniu skomplikowanych obliczeń najczęściej obieramy taką postawę i pokładamy zaufanie w kompute­ rze czy kalkulatorze, wierząc, że takie niewielkie różnice nie złożą się na istotny błąd. Wiadomo skądinąd, że tego ro­ dzaju założenie może być bardzo niebezpieczne. Istnieją me­ tody oparte na ideach K. Gaussa (1777-1855, zob. rysunek 1.11), wyznaczające akumulację błędu podczas wykonywa­ nia obliczeń. Przy rozwoju współczesnych m etod obliczenio­ wych wiele się zmieniło. W ydaje się, że istnieją co najmniej dwie przyczyny, które spowodowały te zmiany. P ro b lem Współczesne metody obliczeniowe pozwalają na wyko­ akum ulacji nywanie niesłychanie złożonych obliczeń o zasięgu tak wiel­ błędu kim, jaki wydawał się niemożliwy jeszcze pół wieku temu. Często przy tego typu obliczeniach dokładna i uczciwa ana­ liza propagacji błędu jest na obecnym etapie rozwoju nauki po prostu niemożliwa. Może to jednak prowadzić do rozwoju bardzo niebezpiecznego zjawiska. Wielu naukowców często zbytnio ufa wynikom obliczeń komputerowych. Jeśli postępowalibyśmy tak dalej, znaczyłoby to, że nie zdajemy sobie sprawy z roli, jaką dbałość o dokładność w pomiarach i obliczeniach miała dla dokonania wielu wiel­ kich odkryć. Dla przykładu przytoczmy tu ta j zadziwiającą 12 Na przykład dokładność CASIO fx 7000G wynosi 10 cyfr, HP 28 S zaś — 12 cyfr. 1.4. Przypowieść o paraboli 69 B rahe i K epler Rysunek 1.23: Tycho Brahe, 1546-1601 (po lewej) i Johannes Kepler, 1571-1630 (po prawej) historię modelu Układu Słonecznego Johanna Keplera. Ke­ pler (1571-1630) stworzył wypracowaną mistyczną teorię, według której sześć znanych wtedy planet: Merkury, Wenus, Ziemia, Mars, Jowisz i Saturn13 miało związek z pięcioma bryłami platońskimi (zob. rysunek 1.24). Po to, by uzasadnić swoją mistyczną teorię harmonii M ałe od ch ylen ia niebieskiej, Kepler mógł użyć jedynie danych astronomicz­ i ich nych dostępnych w owych czasach. Zdawał sobie sprawę, konsekw encje że konstrukcja jakiejkolwiek teorii wymaga dokładniejszych danych. Takie właśnie dane były w posiadaniu duńskiego astronoma Tychona Brahego (1546-1601), który przez 20 lat zbierał niesłychanie dokładne współrzędne położenia pla­ net. W lutym 1600 r. Kepler został asystentem Brahego do obliczeń matematycznych. Przydzielono mu do rozwiązania problem wyznaczenia orbity, która opisywałaby położenie Marsa. Zadanie to wydawało się trudne, gdyż ruch Marsa był najtrudniejszy do przewidzenia. Kepler przechwalał się, że rozwiąże to zadanie w osiem dni. Zarówno teoria Ko­ pernika jak i Ptolemeusza zakładały, że orbita ta powinna być kołowa, być może z niewielkimi modyfikacjami. Dla­ tego też Kepler rozpoczął od poszukiwania odpowiednich orbit kołowych dla Ziemi i dla Marsa. W rzeczywistości orbita Ziemi, z której przecież wykonano obserwacje, po13 Planety te były znane w starożytności jeszcze przed wynalezieniem teleskopu. Siódmą planetę — Urana odkrył dopiero w 1781 amator Frie­ drich Wilhelm Herschel, Neptuna zaś dopiero w 1846 Johann Gottfried Galie z Obserwatorium w Berlinie. Dziewiątą i najbardziej odległą pla­ netę — Plutona — odkrył w 1930 William Tombaugh z Obserwatorium Lowell we Flagstaff w Arizonie. 70 1. Podstawa geometrii fraktalnej winna zostać wyznaczona przed jakimkolwiek użyciem da­ nych o położeniach planet. Kepler dopiero po latach znalazł rozwiązanie — jak się wydawało — pasujące do wszystkich obserwacji Brahego, który nie dożył końca tej pracy Jed­ nakże Kepler, sprawdzając swoje rozwiązanie — przez wy­ liczanie elementów orbity Marsa i porównywanie ich z da­ nymi Brahego — zauważył rozbieżności sięgające 8 minut kątowych (co stanowi około jednej czwartej kątowej średnicy Księżyca). N aturalne byłoby przypisanie tego odchylenia błędowi w obserwacjach Brahego — Kepler spędził przecież całe lata, przeprowadzając bardzo dokładne obliczenia. Po­ nieważ jednak praca z Tychonem Brahem pozostawiła nieza­ chwianą wiarę, że tablice Brahego nie zawierają nieścisłości, Kepler kontynuował swoje obliczenia. Doprowadziło to do dalszych sześciu lat żmudnych wyliczeń, które wypełniły poM od el K ep lera U kład u S łon eczn ego R y s u n e k 1 .2 4 : K ażda z planet w yzn acza sferę wokół Słońca, zaw ierającą jej orbitę. M iędzy kolejne sfery Kepler wpisał w ielościany forem ne, których w ierzchołki leżały na zewnętrznej sferze, a których ściany dotykały wewnętrznej sfery. W idzim y ośm iościan pom iędzy M erkurym a W enus, dw unastościan po­ m iędzy Ziem ią a M arsem , d w ud ziestościan pom iędzy Ziemią a M arsem , czw orościan pom iędzy M arsem a Jow iszem oraz sześcian pom iędzy Jow iszem a Saturnem 71 1.4. Przypowieść o paraboli p P ierw sze i drugie prawo K ep lera R y s u n e k 1 .2 5 : Pierw sze i drugie prawo Keplera: (1) Prawo o orbitach eliptycznych. O rbity w szystkich planet są elipsam i ze Słońcem w jednym z ognisk. (2) Prawo pow ierzchni. W ciągu każdego odcinka czasu odcinek prostoliniow y łączący Słońce i daną planetę zakreśla takie sam o pole R ozw iązanie S trom gren a dla zredukow anego zagadnienia trzech ciał R y s u n e k 1 .2 6 : ciał O rbity dla zredukowanego zagadnienia trzech nad 900 stron, pozwalających na sformułowanie nowego re­ wolucyjnego modelu, zgodnie z którym orbity planet są eli­ psami, a nie okręgami. W roku 1609 Kepler opublikował swoje słynne dzieło Astronómica Nova, w którym ogłosił dwa z trzech swoich słynnych praw. Trzecie prawo14 opubliko14 Prawo czasów: kwadrat okresu obiegu planety wokół Słońca jest wprost proporcjonalny do sześcianu średniej odległości od Słońca. 72 1. Podstawa geometrii fraktałnej wano później i stanowiło dla Sir Isaaca Newtona wskazówkę do sformułowania jego prawa powszechnego ciążenia. Obliczenia Elisa Stromgrena dla zredukowanego zagadnienia trzech ciał A b y zad em o n stro w ać, ja k i niesłychany postęp d o konał się dzięki kom ­ p u tero m , p rzed staw im y następujący pou czający przykład. Rysunek 1 .2 6 przedstaw ia re z u lta t obliczeń w ykonanych przez 56 naukow ców pod kierow nictw em Elisa S tro m g re n a w O bserw atoriu m K openhaskim (D a n ia ) w ciągu 15 ( ! ) lat. O b liczen ia doprow adziły do rozw iązań szczególnych dla ta k zw anego zredukow anego zagadnienia trzech ciał (o rb ity księżyca, po zo stająceg o pod w pływ em dw óch p lan et) i opu­ blikow ano je w roku 19 25 . O b liczen ia teg o rzędu wielkości i złożoności m ożna obecnie prze­ prow adzić na zw yk ły m ko m p u terze P C w ciągu najw yżej kilku dni. To porów n anie je s t doskonałym przykładem na to , co nazyw ane bywa na­ ukową i tech n o lo g iczn ą rew olucją. R ew olucją, któ ra je s t napędzana przez potęgę współczesnych m eto d obliczeniow ych. P rob lem Coraz więcej potężnych obliczeń wykonywanych jest przy oprogram ow ania użyciu oprogramowania działającego na zasadzie czarnej ty p u czarna skrzynki, stwarzanego często przez znane i uznane firmy. skrzynka Tego typu oprogramowanie wydaje się i najczęściej jest godne zaufania. Niestety, nie wyklucza to faktu, że nawet najlep­ sze pakiety oprogramowania wytwarzają czasem całkowicie nieprawdziwe wyniki i jest sztuką samą w sobie zrozumieć i przewidzieć, dlaczego tak się dzieje. Co więcej, użytkownicy często nie mogą sami przeprowadzić analizy błędów po pro­ stu dlatego, że nie m ają dostępu do algorytmów takiego oprogramowania, dostępnego na zasadzie czarnej skrzynki. Coraz więcej decyzji w nauce i technice, ale również w eko­ nomii i polityce, opiera się na obliczeniach i symulacjach przeprowadzanych na wielką skalę. Niestety nie zawsze mo­ żemy zakładać, że przeprowadzono uczciwą analizę akumu­ lacji błędu przy przeprowadzanych obliczeniach. Producenci komputerów prześcigają się w budowie coraz szybszych ma­ szyn i wydaje się, że nie przykładają dostatecznej wagi do ważnego problemu kontroli jakości obliczeń naukowych. Dla poparcia naszych rozważań chcielibyśmy przytoczyć P arad ygm at p o g o d y cytat z książki Jam esa Gleicka Chaos, Making a New Science w g J. G leicka (Chaos, tworzenie nowej nauki) 15. 15 James Gleick, Chaos, M aking a New Science, Viking, New York 1987. 73 1.4. Przypowieść o paraboli Iterow anie rów nania logistyczn ego Rysunek 1.27: U rządzenie sprzężenia zw rotego dla rów nania logistycznego. Procesor został zaprogram owany tak, by przy za­ danych p i r obliczać w artość w yrażenia p + rp ( 1 — p) „Współczesne modele pogody wykorzystują siatkę po­ miarów o odległości pomiędzy poszczególnymi punktami po­ miaru rzędu 100 km, a mimo to niektóre dane muszą być odgadywane, ponieważ stacje naziemne oraz satelity nie są w stanie dokonać pomiarów dla wszystkich potrzebnych punktów. Przypuśćmy jednak, że całą Ziemię można po­ kryć czujnikami znajdującymi się co, powiedzmy, pół metra. Niech wypełniają one w podobny sposób całą przestrzeń aż do granic atmosfery. Załóżmy dodatkowo, że każdy czuj­ nik podaje dokładny pomiar temperatury, ciśnienia, wil­ gotności i innych parametrów, jakie mogą być potrzebne meteorologom. Dokładnie w samo południe nieskończenie potężny komputer przyjmuje te wszystkie dane oraz oblicza, co będzie się działo w każdym z punktów o 12:01, potem o 12:02, potem o 12:03... Mimo takich dokładnych danych komputer nie będzie mógł przewidzieć na miesiąc naprzód, czy w Princeton, New Jersey będzie padał deszcz czy świeciło słońce. W południe w przestrzeni pomiędzy czujnikami będą się kryły fluktuacje, o których komputer nie będzie wiedział, takie maleńkie odchylenia od średniej. O 12:01 te fluktuacje spowodują błędy w obliczeniach dla punktów odległych o 50 cm. Wkrótce błędy te rozprzestrzenią się na odległość kilku metrów i tak dalej, aż obejmą całą kulę ziemską.” Tego rodzaju efekt znany jest pod nazwą efektu motyla. Nazwa ta wzięła się z tytułu artykułu Edwarda N. Lorenza „Can the flap of a butterfly wing stir up a tornado in Texas” (Czy ruch skrzydła motyla może wywołać tornado w Te­ ksasie?). Zaawansowana kontrola jakości obliczeń w prze­ widywaniu pogody polega na określeniu, czy mechanizmy, które określają formowanie się pogody, są aktualnie w sta- 74 1. Podstawa geometrii fraktaînej nie stabilnym czy nie. Wcześniej czy później w TV ukaże się spiker i powie: „Dobry wieczór państwu, mówi Wiche­ rek. Z powodu efektu motyla nie mamy prognozy pogody na jutro. Atmosfera znajduje się w stanie niestabilnym, co uniemożliwia dokonanie wystarczająco dokładnych po­ miarów dla naszych modeli komputerowych. Spodziewamy się jednakże stabilizacji w najbliższych dniach. W tedy to podamy państwu prognozę na weekend” . Powróćmy do iterowania wyrażeń kwadratowych i przyj­ P ow rót do i terow ania rzyjmy się wyrażeniu funkcji p + rp( 1 - p). kw adratow ej Po pierwsze, iteracje tego wyrażenia można przeprowadzić równie łatwo jak dla x 2 + c. Wyrażenie kwadratowe p + rp( 1 — p) ma bardzo cie­ kawą interpretację w biologii. Służy ono jako podstawa dla pewnego modelu rozwoju populacji, którego idea pojawiła się w pracach belgijskiego matematyka Pierre’a Franęoisa V erhulsta16, wykonanych około roku 1845. Prace te zainspi­ rowały Maya do napisania słynnego artykułu w Naturę (zob. początek rozdziału). S zereg czasow y rozw oju p opulacji Rysunek 1.28: Szereg czasow y rozwoju populacji — typow y przebieg. W ynik i kolejnych pom iarów połączone są odcinkam i Co to jest model rozwoju populacji? Jest to prawo, które M o d el rozw oju p op u lacji dla danego gatunku pozwala nam przewidzieć rozwój w cza­ sie wielkości populacji tego gatunku. Czas mierzony jest 16 Dwie staranne napisane prace ukazały się w M émoires de VAcadém ie Royale de Belgique, w roku 1844 i 1847. 1,4, Przypowieść o paraboli w sposób dyskretny, tzn. n = 0 ,1 ,2 ,... (mogą to być mi­ nuty, godziny, dni, miesiące, lata — to, co jest odpowiednie dla danego gatunku). Wielkość populacji mierzona w czasie n jest dana przez aktualną liczbę egzemplarzy tego gatunku, Pn. Na rysunku 1.28 przedstawiono typowy przebieg takiego rozwoju. Oczywiście liczebność populacji może zależeć od wielu parametrów, takich jak warunki środowiskowe (np. ilość pożywienia, przestrzeń, klimat), interakcja z innymi gatun­ kami (np. relacja drapieżnik — ofiara), lecz również struk­ tura wiekowa, płodność itd. Złożoność warunków wywie­ rających wpływ na rozwój danej populacji zilustrujemy na­ stępującą średniowieczną przypowiastką. Tego roku jest dużo myszy na polach. Chłop jest tym 0 m yszach bardzo przejęty, gdyż oznacza to marne zbiory. W rezulta­ 1 starych cie posagi panien na wydaniu będą bardzo niewielkie, a co pannach za tym idzie pojawi się wiele starych panien. Jak wiadomo, stare panny kochają koty, więc liczba kotów znacznie się po­ większy. To z kolei przyczyni się do gwałtownego spadku liczby myszy. Uszczęśliwi to chłopów, posagi będą bogate, a co za tym idzie liczba starych panien zmniejszy się. Zmniej­ szy się zatem liczba kotów i jesteśmy znowu przy myszach. Te się znów rozmnożą itd. Chociaż powyższą opowieść powinniśmy traktować z przymrużeniem oka jako model rozwoju populacji myszy i starych panien, ilustruje ona jednak potencjalną złożoność dynamiki populacji. Pokazuje też, że zmiany te mogą być cykliczne: wzrost, spadek, wzrost, spadek... Naturalne podejście do modelowania polega na zamroże­ Scenariusz dla niu jak największej liczby parametrów populacji. Załóżmy, p łytk i P etrieg o że jesteśmy w posiadaniu szczepu komórek, które żyją w sta­ łym środowisku, np. w płytce Petriego, ze stałym dopływem pożywienia i w stałej temperaturze. Przy tego typu warun­ kach spodziewać się możemy, że istnieje pewna maksymalna wielkość populacji N> która może przeżyć w tym środowisku. Jeżeli bieżąca wielkość populacji P w czasie n, tzn. P n, jest mniejsza niż 7V, spodziewać się możemy wzrostu liczebności populacji. Jeżeli zaś Pn jest większa niż iV, wielkość popu­ lacji musi zmaleć. Wprowadźmy teraz odpowiedni model. Podobnie jak prędkość jest jedną z wielkości charakteryzujących ruch ciała, tak czynnik wzrostu jest odpowiednią wielkością do charak­ 75 76 1. Podstawa geometrii fraktalnej teryzowania rozwoju populacji. Czynnik wzrostu możemy mipr7vr za 7:n pomocą nnrnnra wielkości wiolhnśri mierzyć P n+ 1 — P n (1.5) Pn Oznacza to, że czynnik wzrostu r w czasie n jest wyznaczony przez wzrost liczebności populacji w jednym kroku czasu w stosunku do wielkości populacji w czasie n. Wzrost liczebności populacji a naliczanie odsetek Jeśli m odel rozw oju populacji za kła d a, że czynnik w zrostu stały, to Pn+l —Pn n = r r jest (1 .6 ) dla pew nej liczby r niezależnej od n . R o zw iązu ją c to rów nanie dla Pn+1, o trz y m u je m y prawo w zrostu liczebności p o p u la c ji17 Pn+1 = Pn + rPn - (1 + r)Pn . W ty m m odelu liczebność pop ulacji w zrasta o czyn nik 1 + r w każdym kroku czasow ym . R zeczyw iście, pow yższy w zó r rów now ażny je s t na­ stęp ującem u w zorow i: Pn = (l + r)nP0, (1.7) gdzie Po j est liczebnością p o c zą tk o w ą pop ulacji, od której rozpo­ częliśm y obserw acje w m om encie n = 0. M o ż e m y za te m , zn ając r i liczebność p o c zą tk o w ą pop ulacji Po, w yliczyć liczebność popula­ cji Pn dla dow olnego m o m en tu i to naw et bez znajom ości przebiegu układu sprzężenia zw ro tn e g o . Co więcej, rów nanie (1 ,7 ) je s t zn ane z naliczeń ra t i składanych odsetek, gdy stopa procentow a wynosi r. M o d el populacji Najprostszy model rozwoju populacji zakłada, że czyn­ V erhulsta nik wzrostu jest stały. To założenie prowadzi do nieogra­ niczonego wzrostu, a to jest nierealistyczne. W obecnym modelu założymy więc, że rozwój populacji jest ograniczony przez stałe czynniki środowiskowe, co jednak wymaga mo­ dyfikacji prawa wzrostu. Obecnie czynnik wzrostu będzie zależeć od relacji pomiędzy bieżącą liczebnością populacji a maksymalną wielkością, jaką ona może osiągnąć. Verhulst 17 Zauważmy, że tempo wzrostu nie zależy od IV, tzn. jeżeli używamy znormalizowanych wielkości pn = P/N, to N skróci się w równości r = (pn+i —pn)/pn, dając równość równoważną z (1.6). 77 1.4. Przypowieść o paraboli zaproponował, by czynnik wzrostu w czasie n był proporcjo­ nalny do różnicy pomiędzy liczebnością populacji a maksy­ malną jej wielkością, co jest również dobrą miarą opisującą wielkość części środowiska, nie zużytej przez populację do czasu n. Założenie to doprowadzi nas do modelu rozwoju populacji Verhulsta P n+ l — Pn Tpn { \ ~~ p n \ (1*^) gdzie pn jest względną liczebnością populacji pn = Pn/ N , a N jest maksymalną wielkością populacji dla danego stanu środowiska. Jest to zwarta forma opisu naszego układu sprzężenia zwrotnego. Posługujemy się tu całkowitymi wskaź­ nikami do oznaczenia iteracji dla danego kroku (pn dla wej­ ścia, p n + 1 dla wyjścia). Ten m odel rozwoju populacji zakłada, że czynnik w zrostu zależy od wielkości populacji w dan ym czasie. N a jp ie rw należy unorm ow ać li­ czebność populacji przez w prow dzenie p = P /N . W te d y p przebiega wartości od 0 do 1, tzn . m ożem y interp retow ać na przykład p = 0 ,0 6 ja k o wielkość populacji stanow iącą 6 % je j m aksym alnej liczebności N. I znowu indeksujem y p w skaźnikiem n, tz n . użycie pn oznacza, że chodzi o liczebność w czasie n = 0 , 1 , 2 , 3 , . . . C zynnik w zrostu w yznaczony je s t przez w yrażen ie o d p o w iad ające w yrażeniu (1 .5 ), Pn+ 1 Pn Pn V erhulst założył, że czyn nik w zrostu w czasie n pow inien być pro­ porcjonalny do 1 — pn (części środowiska nie w ykorzystanej jeszcze przez populację w czasie n ). P rzy założeniu, że w zrost populacji ograniczony je s t stałym i w arunkam i środow iskow ym i, w zrost pow i­ nien zm ieniać się zgodnie z następującym i regułam i, zestaw ionym i w tabelce: wielkość populacji m ała około 1 mniej niż 1 więcej niż 1 tem p o w zrostu duże, dod atnie m ałe dod atnie ujem ne M o żem y to rów nież przedstaw ić następu jąco18: 18 Znak oc oznacza „proporcjonalny do” . Wielkość po lewej stronie jest wielokrotnością wyrażenia po prawej stronie. Wyprowadzenie modelu Yerhulsta 78 1. Podstawa geometrii fraktalnej Pn+ l Pn pn ------------------ OC 1 Pn lub po w prow adzeniu o d p o w ied n iej stałej Pn+ l Pn r = r { l - p n). Pi Jeżeli w y zn a czym y z teg o rów nania pn+i , to o trzy m a m y rów nanie ( 1.8) Pn+ l =Pn + rpn( l ~ p n). M o d el Powyższy model nosi nazwę modelu logistycznego19. Mologistyczn y żerny zaobserwować kilka jego interesujących własności. Po pierwsze, zauważmy, że model działa zgodnie z tabelą po­ stulowanych ograniczeń na czynnik wzrostu, zamieszczoną powyżej. Po drugie, wygląda na to, że mamy prawo po­ zwalające nam obliczyć (tzn. przewidzieć) wielkość popula­ cji w każdym momencie, podobnie jak w przypadku stałego czynnika wzrostu. Istnieje jednak podstawowa różnica po­ między nimi. Otóż dla większości wartości r nie istnieje jawne rozwiązanie równania na jak to ma miejsce dla równania (1.6), dla którego rozwiązaniem jest równanie (1.7). Oznacza to, że nie możemy obliczyć pn, korzystając bezpoś­ rednio z wartości r i po, co było poprzednio możliwe. Musimy zatem wykonać n razy iteracje, takie jak na rysunku 1.27. Zacznijmy nasz eksperyment podstawiając r = 3.20 Poniższa tabela podaje trzy pierwsze kroki iteracji dla po = 0,01, tzn. dla początkowej populacji o wielkości 1% populacji maksy­ malnej N . p p + rp{ 1 - p ) 0,0 1 0 ,0 3 9 7 0 ,1 5 4 0 7 1 7 3 0 ,0 3 9 7 0 ,1 5 4 0 7 1 7 3 0 ,5 4 5 0 7 2 6 2 6 0 4 4 ... Z tego samego powodu co podczas iterowania x 2 + c ob19 od logis (fr.) — dom, kwatera. 20 Okazuje się, że r = 3 jest jednym z tych niewielu parametrów, dla których istnieje jawne wyrażenie na pn jako funkcji r i po, zob. rozdz. 10. 1.4. Przypowieść o paraboli serwujemy potrzebę coraz większej dokładności przy wyko­ nywaniu kolejnych obliczeń, jeżeli chodzi nam o otrzym a­ nie dokładnego wyniku. W ydaje się jednak, że w naszym modelu rozwoju populacji nie jest to konieczne. Czy nie wystarczy, że będziemy znali rozwój populacji w pewnym przybliżeniu? Czyż nie powinniśmy się zadowolić wynikiem, który jest poprawny do trzech, czterech miejsc po przecinku? Przecież trzecie miejsce po przecinku oznacza w naszym mo­ delu dziesiątą część procenta. Wydawać by się mogło, że nie ma najmniejszego powodu, aby nie zakładać, że komputer czy kalkulator są w stanie wykonać potrzebne obliczenia. Taka ogólna zasada jest jednak zdecydowanie nieprawdziwa — przewidywane zachowania naszego modelu oparte na ta ­ kich obliczeniach mogą być całkowicie błędne. Znaleźliśmy się w centrum tego, co naukowcy nazywają N iem ożn ość obecnością chaosu w deterministycznych układach sprzężeń p rzew id yw an ia zwrotnych. Jednym z pierwszych naukowców, który uświa­ domił sobie wagę tego typu efektów, był meteorolog z MIT Lorenz21, w późnych latach piędziesiątych. Odkrył on to zjawisko — niemożność przewidywania w układach deter­ ministycznych — w matematycznych modelach, które były stworzone i często używane do długoterminowych prognoz pogody. Jak to się często zdarza przy dokonywaniu odkryć, Lo­ E k sp erym en t renz natrafił na to zjawisko przez przypadek. Lorenz przed­ L orenza stawia najważniejszą część tego wydarzenia w następujący sposób.22 „Zaczęło się to wszystko gdzieś około roku 1956, kiedy pewne metody przewidywania [pogody] zostały zapropono­ wane [...] jako najlepsze z dostępnych, z czym się jednak nie zgadzałem. Zadecydowałem sam wysmażyć niewielki układ równań symulujących zachowanie atmosfery, rozwiązać go za pomocą komputerów, które wtedy właśnie zaczęły być do­ stępne, a następnie potraktować wyniki tak, jakby to były rzeczywiste dane z obserwacji atmosferycznych, i sprawdzić, 21 Lorenz, E.N., Deterministic non-periodic flow, J. A tm os. Sei. 20, 130-141 (1963). 22 W: H.-O.Peitgen, H. Jürgens, D. Saupe, C. Zahlten, Fractals: A n Anim ated Discussion, Video film, Preeman, 1990. Ukazał się on także w języku polskim jako Fraktale. A nim acje, eksperym enty i wywiady z E. Lorenzem i B. B. M andelbrotem, PW N, Warszawa 1995. 79 80 1. Podstawa geometrii fraktainej czy proponowane metody stosują się do nich. Prawdziwym problemem było uzyskanie takiego układu równań, który do­ prowadziłby do wyników nadających się do przetestowania, ponieważ szybko stało się jasne, że jeśli rozwiązanie tych równań będzie cykliczne, to proponowane metody będą try­ wialne, a tym samym będą stosowały się idealnie. O ryginalny ek sp erym en t Lorenza Rysunek 1.29: N um eryczne całkowanie rów nania Lorenza (na górze). P oliczono to ponow nie, zaczynając od t — 2 , 5, z w artością początk ow ą w ziętą z pierw szego całkowania, ale z wprowadzonym m ałym błędem (pośrodku). R óżnica pom iędzy tym i dw om a w yni­ kam i (sygn ałam i) staje się tak w ielka jak sam sygnał (na dole) 1.4. Przypowieść o paraboli 81 Musieliśmy więc otrzymać układ równań, mający rozwią­ zania niecykliczne, takie które nie powtarzają się, ale prze­ biegają nieregularnie i w sposób niezdefiniowany. Znalazłem w końcu układ dwunastu równań, które to spełniały i spraw­ dziłem, że proponowane metody nie były odpowiednie. Gdy to robiłem chciałem sprawdzić niektóre z wyników w sposób bardziej szczegółowy. W swoim biurze miałem wtedy mały komputer, wpisałem więc kilka pośrednich wartości, które komputer wydrukował, jako nowe warunki początkowe dla następnych obliczeń, i na chwilę wyszedłem. Kiedy wróciłem, zobaczyłem, że rozwiązania były inne niż przedtem; kom­ puter zachowywał się inaczej. W pierwszej chwili podej­ rzewałem, że mam jakieś kłopoty z komputerem, jednak wkrótce odkryłem, że prawdziwą przyczyną jest to, iż liczby wpisane przeze mnie różniły się od liczb wyjściowych, które zaokrągliłem, i ta niewielka różnica pomiędzy czymś rozwi­ niętym do szóstego miejsca po przecinku i jego zaokrągle­ niem do trzeciego miejsca w czasie symulacji dwóch mie­ sięcy pogody stała się tak wielka jak sam sygnał. Wynikało z tego, że jeżeli prawdziwa atmosfera zachowuje się w podob­ ny sposób, to nie jesteśmy po prostu w stanie przewidzieć pogody na dwa miesiące naprzód. Te małe błędy będą się powiększać, aż staną się wielkie.” Oznacza to, że jeśli nawet posługiwalibyśmy się zupełnie C zuła zależność poprawnym modelem pogody — jako modelem przebiegu od w arunków zmian fizycznych właściwości pogody — nie możemy za ich p oczątk ow ych pomocą robić prognoz na dłuższy czas. To zjawisko nosi obecnie nazwę czułej zależności od warunków początkowych i jest jednym z podstawowych własności, składających się na pojęcie chaosu23 deterministycznego. Nasz następny eks­ peryment naśladuje w najprostszy sposób autentyczny eks­ peryment Lorenza. Używał on o wiele bardziej wrażliwego układu sprzężenia zwrotnego, złożonego z dwunastu zwy­ czajnych równań różniczkowych; my użyjemy po prostu rów­ nania logistycznego24. Wykonamy iteracje wyrażenia kwadratowego p + r p ( l—p) dla stałej r = 3 i wartości początkowej po = 0? 01 (zob. ta23 Określenie „chaos” pojawiło się po raz pierwszy w pracy T. Y. Li i J. A. Yorke’a, Period 3 Implies Chaos, Am . Math. M on. 82, 985-992 (1975). 24 W istocie, sam Lorenz później odkrył, że jego układ jest ściśle związany z równaniem logistycznym. 82 1. Podstawa geometrii fraktalnej bela 1.1). W lewej kolumnie przedstawiony jest przebieg iteracji bez przerw, podczas gdy w prawej kolumnie prze­ prowadzamy iteracje 10 razy, zatrzymujemy i zaokrąglamy wynik 0, 7229143012 odrzucając cyfry po trzecim miejscu po przecinku, co daje nam liczbę 0,722, a następnie kon­ tynuujemy iterację tak, jak gdyby był to ostatni wynik na wyjściu. Eksperyment ten przeprowadziliśmy na kalkulato­ rze kieszonkowym CASIO fx-7000G. E k sp erym en t L orenza raz jeszcze p ow tórzen ia bez zatrzym an ia 1 2 3 4 5 10 0,0397 0,15407173 0,5450726260 1,288978001 0,1715191421 0.7229143012 10 15 20 25 30 100 0,7229143012 1,270261775 0,5965292447 1,315587846 0,3742092321 0,7355620299 zatrzym ane i zaczęte na nowo 0,0397 0,15407173 0,5450726260 1,288978001 0,1715191421 0,7229143012 zaczęte na nowo od 0,722 1,257214733 1,309731023 1,089173907 1,333105032 1,327362739 Tabela 1.1: E ksperym ent Lorenza dla m odelu rozwoju popu­ lacji. Przeprow adzone są dw ie grupy iteracji startujące się z tego sam ego punktu. W czasie obliczeń jed ną z w artości zaokrąglono przez odrzucenie cyfr po trzecim m iejscu po przecinku i w takiej p o sta ci w zięto do kolejnego kroku obliczeń. N iedługo potem te dw a szeregi tracą w szelką korelację. P odkreślono cyfry, które są zgodne po obu stronach P ew n e jak Nie wywołuje zdziwienia, że jeżeli wynik w dziesiątej w yn ik rzu tu iteracji jest zgodny tylko do trzeciego miejsca po przecinku, kostką to w piętnastej też istnieje różnica pomiędzy wynikami. Jest jednak niespodzianką — i wskazuje to na istnienie chaosu w systemie, czy też, używając sformułowania Lorenza, nie­ możności przewidywania — że wyniki wyższych iteracji wy­ dają się zupełnie nieskorelowane. Plan eksperymentu su­ geruje, że lewa strona tabeli jest bardziej wiarygodna jako przebieg iteracji. Jest to jednak tylko złudzenie, jak zoba­ czymy w nadchodzących eksperymentach. Wartości itera­ cji naszego układu sprzężenia zwrotnego stają się w końcu 83 1.5. Chaos zwycięża każdy komputer tak samo pewne jak wynik otrzymany przy użyciu genera­ tora liczb losowych lub rzucie kostką do gry czy monetą. W rzeczywistości tę zadziwiającą własność odkrył wielki pol­ ski matematyk Stanisław Ułam, gdy próbował skonstruować generator liczb losowych dla pierwszego komputera elektro­ nicznego ENIAC pod koniec lat czterdziestych, co łączyło się z obliczeniami na wielką skalę dla Projektu M anhattan. 1.5. C h a o s z w y c ię ż a k a żd y k o m p u te r Jeśli okażemy sceptycyzm, to możemy dojść do wniosku, że być może błąd, który wprowadziliśmy — odrzucenie cyfr po trzech cyfrach dziesiętnych w eksperymencie Lorenza — był zbyt duży. Ktoś może przypuszczać, że być może za­ obserwowane przez nas dziwne zachowanie iteracji zniknie, jeśli tylko zmniejszymy błąd dla warunków początkowych. Jednak nie tracilibyśmy naszego czasu na jałowe obliczenia, jeśliby to miało być prawdą. Otóż niezależnie od tego, jak małe odchylenie od wartości początkowych wybierzemy, błąd będzie gwałtownie rósł, tak że po stosunkowo niewielu ite­ racjach przewidywanie za pomocą komputera stanie się bez­ wartościowe. Aby zrozumieć w całości wagę tego zjawiska, proponujemy wykonanie następnego eksperymentu. Tym razem nie zaczniemy iteracji od różniących się warunków po­ czątkowych, lecz do obliczeń użyjemy dwóch kalkulatorów wyprodukowanych przez różnych producentów. Spodzie­ wamy się, że wcześniej czy później ich wyliczenia będą się ogromnie różnić między sobą. Co się będzie działo, jeżeli przeprowadzać będziemy ite­ racje na dwóch różnych urządzeniach o stałej dokładności? Co otrzymamy po 10 iteracjach czy 20, lub nawet 50? Wy­ daje się to głupim pytaniem. Czy nie wystarczy po prostu wykonać obliczenia dla 10,20, 50 kroków iteracji? Tak, wy­ starczy, ale problem polega na tym, że wynik zależy w dużym stopniu od sposobu przeprowadzania obliczeń. Aby zilustrow ać, co m am y na myśli, gdy m ó w im y o zależności od przeprow adzania obliczeń, po ró w n ajm y rezu ltaty o trzy m a n e za po­ m ocą dwóch różnych kalkulatorów , pow iedzm y, C A S IO i H P. Z a ­ cznijm y od kroku 1 i p rzy jrzy jm y się 2 , 3 , 4 , 5 , 1 0 , 1 5 , 2 0 , . . . , 50 p o w tó ­ rzeniom iteracji (zob. ta b e la 1.2 i rysunek 1 .3 0 ). Podczas gdy pierwsza i druga generacja naszej populacji zo staną Wyścig komputerów w kierunku chaosu 84 1. Podstawa geometrii fraktalnej CASIO fx-7000G a H P 28S przy obliczaniu p + rp( 1 —p) powtórzenia 1 2 3 4 5 10 15 20 25 30 35 40 45 50 CASIO 0,0397 0,15407173 0,5450726260 1,288978001 0,1715191421 0,7229143012 1,270261775 0,5965292447 1,315587846 0,3742092321 0,9233215064 0,0021143643 1,219763115 0,0036616295 HP 0,0397 0,15407173 0,545072626044 1,28897800119 0,171519142100 0,722914301711 1,27026178116 0,596528770927 1,31558435183 0,374647695060 0,908845072341 0,143971503996 1,23060086551 0,225758993390 Tabela 1.2: Dwa różne kalkulatory wykonujące to samo obli­ czenie nie dają takich samych wyników Różnice w wyścigu CASIO-HP R ysunek 1.30: Wykres różnicy wyników między obliczanymi wartościami iteracji dla HP i CASIO przew idzian e w ten sam sposób przez oba kalkulatory, całkow icie różnią się one dla 50 . generacji. O bliczenia dokonane na C A S IO p rzew idują w ielkość populacji na około 0 ,3 % m aksym alnej, podczas gdy H P w skazuje na około 2 2 % pop ulacji m aksym alnej! Jak do tego doszło? Po uw ażn ym spraw dzeniu naszych pro g ram ó w d o jd ziem y do w nio­ sku, że oba są popraw ne i używ ają te g o sam ego w zoru p + rp(l — p). Jedyną różnicą je s t to , że C A S IO używ a 10 m iejsc po przecinku, pod­ czas gdy H P używa ich 12. Ż a d en z nich nie je s t w stanie przedstawić do kład n ie ite ra cji trzeciej ani dalszych. R zeczyw iście, druga iteracja p o trzeb u je 8 m iejsc po przecinku i d la te g o do przedstaw ienia w yniku trze cie j p o trzeb a 16 m iejsc dziesiętnych itd . D la te g o te ż nie da się 85 1.5. Chaos zwycięża każdy komputer „P ” ?-> p „R” ?-> R „N” ?-+ N L b ll P -j-R * P * (l-P )—> P Dsz N G oto 1 PA wprowadź P wprowadź R wprowadź N (żądaną liczbę iteracji) p oczątek pętli sprzężenia zw rotnego proces sprzężenia zw rotnego zliczanie iteracji za pom ocą zm niejszenia N o 1 koniec pętli sprzężenia zw rotnego w yśw ietla P, kiedy N redukuje się do zera Program dla iteracji przekształcenia p + rp{ 1 - p) napisany dla kalkulatora CASIO fx-7000G Tabela 1.3: Program dla jednego z kalkulatorów , u żyty do wygenerow ania danych dla ta b el pow tórzenia 5 6 7 8 9 10 CASIO 0 ,1 7 1 5 1 9 1 4 2 1 0 ,5 9 7 8 2 0 1 2 0 1 1 ,3 1 9 1 1 3 7 9 2 0 ,0 5 6 2 7 1 5 7 7 6 5 0 ,2 1 5 5 8 6 8 3 9 3 0 ,7 2 2 9 1 4 3 0 1 2 HP 0 ,1 7 1 5 1 9 1 4 2 1 0 0 0 ,5 9 7 8 2 0 1 2 0 0 8 0 1 ,3 1 9 1 1 3 7 9 2 4 0 0 ,0 5 6 2 7 1 5 7 7 7 0 0 0 ,2 1 5 5 8 6 8 3 9 4 2 9 0 ,7 2 2 9 1 4 3 0 1 7 1 1 Tabela 1.4: Iteracje krytyczne — kiedy kalkulatory zaczynają dawać różne wyniki uniknąć błędów pow stałych z zaokrągleń, które w ydaw ałoby się nie m ają w ielkiego znaczenia. P rzy n ajm n iej na to w skazyw ałyby w yniki iteracji 4 i 5. O bliczenia w ykonane na C A S IO i H P zg ad zają się do dziesiątego m iejsca po przecinku. Jednakże po dziesięciu iteracjach różnica istnieje ju ż na miejscu dziesiątym : C A S IO daje ta m 2, a H P pokazuje 7 (zo b . ta b e la 1 .2 ). P rzy jrzy jm y się więc bliżej iteracjo m pom iędzy 5 i 10 (zob. ta b e la 1.4). Rzeczywiście, podczas gdy dla p iątej iteracji oba kalku lato ry d ają zgodne w yniki do dziesiątego m iejsca, ju ż dla szóstej iteracji różnią się trochę na dziesiątym miejscu po przecinku. Różnica ta wynosi 2 x 1 0 -1 1 i je s t ta k niew ielka, że n ikt nie zw racałby na nią uwagi. Jeśli je d n a k przyjrzym y się bliżej, co się z nią dzieje, to okazuje się, że ju ż w dziesiątej iteracji w zrośnie ona do 5 x 1 0 ~ 10, ale ciągle je d n a k je s t ta k m ała, że n atu raln e je s t zaniedbanie je j. Z a u w a żm y je d n a k , że różnica ta wzrosła o rząd wielkości (o czynnik 1 0 ). Jeśli w rócim y do ta b e li 1.2 i przyjrzym y się jeszcze raz 15, 2 0 , 25 , ... iteracjom , to w yd aje się, że w idzim y, ja k niew ielkie zaburzenie, dostrzeżone na dziesiątym miejscu po przecinku w szóstej iteracji, rozprzestrzeniło się ta k , że po 40 iteracjach ta p o czątkow o niew ielka różnica wzrosła o czynnik 1 0 10! Iteracje krytyczne 86 1, Podstawa geometrii fraktalnej D laczego je d n a k użyliśm y sform ułow ania „w yd a je się, ż e ...” ? O tó ż przy porów n yw aniu kalku lato ró w C A S IO i H P jesteśm y skłonni p okładać większe za u fan ie w H P, poniew aż używ a w swych oblicze­ niach większej dokładności (d w a d o d atko w e m iejsca po przecinku). Jesteśm y więc skłonni uw ażać obliczenia H P dla 4 0 iteracji za po­ praw ne i odrzu cić obliczenia w ykon ane za pom o cą C A S IO . Jest to je d n a k tro c h ę przedw czesne. Jeśli C A S IO p o d aje błędny w yn ik — a rzecz jasna przynajm niej jed e n z nich musi pod aw ać w y n ik całkow icie niepopraw ny — nie m o że m y zakład ać, że błąd ten w ynika z pow ażnych usterek w jeg o konstrukcji. D o błędu doszło raczej z pow odów właściwości m a­ tem a ty c zn y c h tych ite ra cji. I d lateg o te ż H P je s t w ystaw iony na d ziałan ie teg o sam ego m echanizm u pow staw ania błędu, z pew nym je d n a k o p ó źnieniem , które w ynika z większej dokładności przy oblicze­ niach. M o ż e m y z a te m z całą pew nością tw ie rd zić tylko to , że jeden z ka lku la to ró w m yli się całkow icie w swoich przew idyw aniach, p om im o że d e te rm in istyc zn y proces, któ ry próbuje opisać, je s t niesłychanie prosty. Jest je d n a k bardzo praw d opod obne, ż e o b a kalkulatory podają błędne w y n iki. Z jaw is ko to je s t nieuniknioną konsekwencją tz w . a ry t­ m etyki zm iennop rzecinkow ej i ten sam e fe k t w ystąpi zarów no na kie­ szonkow ym k a lku la to rze ja k i na su p erko m p u terach w artych w iele m ilio n ó w dolarów . Niewielka różnica występująca pomiędzy dwoma kalkula­ toram i, tzn. ich różna dokładność, powiększa się tak szybko, że moc przewidywania kalkulatorów (komputerów) znika. Ale proszę nam wierzyć, nie jest to koniec problemów. Spra­ wy przedstawiają się jeszcze bardziej skomplikowanie niż to, co widzieliśmy do tej pory. Przeprowadźmy obliczenia dla naszego przykładu prawa wzrostu zadanego funkcją kwadra­ tową p + rp( 1 —p), dla r = 3 i dla warunku początkowego Po = 0,01, tak samo jak wcześniej, na jednym tylko kalkula­ torze CASIO, ale w dwóch przebiegach. Jaka jest różnica po­ między przebiegami? Jeżeli dane są identyczne i używaliśmy tego samego kalkulatora, to może ulec zmianie jedynie kod programu, jaki przedstawiliśmy w tabeli 1.3. I właściwie jedyną rzeczą do zmiany jest sposób obliczania wyrażenia kwadratowego. I nawet taka najmniejsza, wydawałoby się absurdalnie mała, zmiana ma znaczenie, co jest przedsta­ wione w tabeli 1.5. 87 1.5. Chaos zwycięża każdy komputer pow tórzenia 1 2 3 4 5 10 11 12 13 14 15 20 25 30 35 40 45 p + r p ( l — p) 0,0397 0,15407173 0,5450726260 1,288978001 0,1715191421 0,7229143012 1,323841944 0,03769529734 0,146518383 0,5216706225 1,270261775 0,5965292447 1,315587846 0,3742092321 0,9233215064 0,0021143643 1,219763115 (1 + r ) p — r p 2 0,0397 0,15407173 0,5450726260 1,288978001 0,1715191421 0,7229143012 1,323841944 0,03769529724 0.1465183826 0,5216706212 1,270261774 0,5965293261 1,315588447 0,3741338572 0,9257966719 0,0144387553 0,0497855318 p + rp( 1 - p) a (1 + r)p — r p2 Tabela 1.5: D w a różne sposoby obliczania w artości tej sa­ mej funkcji kwadratowej na tym sam ym kalkulatorze nie są równoważne Jak dotąd obliczaliśm y w artość w yrażen ia p + r p( 1 — p), któ re je s t m atem atyczn ie tym sam ym co (1 + r ) p — r p 2. Po w prow adzeniu zm ian do kodu (n ależy zastąp ić „P + R * P * ( 1 - P ) ” przez „ (1 - f R )* P - R * P * P " w algo rytm ie w tab e li 1 .3 ) jesteśm y ciekaw i, czy taka m aleńka zm iana w pływ a na w ynik. P o ró w n ajm y re zu lta ty — występuje całkow ita zgodność aż do 11. iteracji. N astępnie w 12. m am y niewielką różnicę — na ostatnich trzech m iejscach — 734 i 724. Dwie różne implementacje tego samego prawa wzrostu, zadanego funkcją kwadratową W pierwszej chwili trudno jest uwierzyć własnym oczom. Przyjrzyjmy się raz jeszcze 12. iteracji. Tak, to prawda. Oto znów pojawił się wirus nieprzewidywalności. I odtąd nie zdziwi nas już załamanie się możliwości przewidywania. Jeżeli pierwsze eksperymenty nie przekonały Was, że cha­ os jest nie do pokonania, ostatnie rozważania pokazują osta­ tecznie naszą niemoc. Przy używaniu obliczeń o stałej dok­ ładności nie istnieje sposób na niszczycielskie działanie cha­ osu. Możliwość przewidywania wcześniej czy później załamie się. W cześn iej czy później m ożliw ość p rzew idyw ania załam uje się 88 1. Podstawa geometrii fraktainej Można się spierać, że tego typu zjawiska są rzadkie, ła­ twe do wykrycia lub przewidzenia. Nieprawda! Otóż odkąd chaos (= załamanie się możliwości przewidywania) zaczął być modny, w nauce nastąpił prawdziwy zalew artykułów, które wskazywały na to, że chaos jest właściwie regułą w świę­ cie, podczas gdy porządek (— przewidywalność) jest właś­ ciwie wyjątkiem. Czy jednak nie stoi to w sprzeczności z, na przykład, udanymi misjami kosmicznymi, takimi jak misja Voyagera II, który po dwunastu latach podróży po na­ szym układzie planetarnym, gdy opuszczał go, mijając Nep­ tuna, znajdował się tylko kilka kilometrów od przewidzianej drogi? Okazuje się, że nie. Istnieje uzasadnione przeko­ nanie, że nawet ruch obiektów kosmicznych rządzi się tymi prawami — wcześniej czy później... Oprócz tego, od czasu, kiedy pojęcie chaosu deterministycznego pojawiło się na sce­ nie nauki — pomimo jego zaskakujących korzeni w pracach Henriego Poincarégo na przełomie wieków jest to w zasadzie osiągnięcie, które stało się możliwe dopiero po wprowadze­ niu komputerów — nastąpił znaczący postęp w głębszym ro­ zumieniu zjawisk takich jak turbulencja, defibrylacja serca, niestabilność laserów, rozwój populacji, nieprzewidywalność klimatu, anomalie w działaniu mózgu itd. C haos m ożna Co więcej, jest fascynujące i dające nadzieję, że zjawizrozum ieć sko chaosu będzie kiedyś lepiej zrozumiane. Ostatnio stało się jasne, że chaos m a tendencję do podporządkowywania się pewnym stałym regułom. Odkrycie i zrozumienie ich za­ wdzięczamy tymże samym komputerom, które są tak wraż­ liwe na błędy wynikające z istnienia chaosu. Będzie to głównym tem atem rozważanym w rozdziale 11, gdzie będziemy omawiać niesłychanie ciekawe odkrycia Mitchela Feigenbauma, Siegfrieda Grossmana, Stefana Thomae, i Edwarda Lorenza, jak również Roberta Maya, którzy znaleźli porządek w chaosie, jak również odkryli drogi wio­ dące od uporządkowania do chaosu. Prawo rozwoju populacji opisane funkcją kwadratową p + r p (l —p), które badaliśmy do tej pory, jest tylko jednym z całej rodziny systemów sprzężenia zwrotnego, wykazujących bardzo skomplikowane zachowanie. Wyrażenie x 2+c jest in­ nym przykładem — jednak przykładem trywialnym w tym sensie, że jeżeli wykonamy eksperyment podobny do opi­ sanego w tabeli 1.2 dla c = —2, zaobserwujemy podobne zachowanie. Przyczyna tego jest po prostu taka, że te dwa 89 1.5, Chaos zwycięż a każdy komputer procesy można utożamić po zmianie układu współrzędnych, tzn. są one naprawdę takie same. Będziem y używali w skaźników w celu oznaczenia kroków iteracji (in ­ deks n dla wejścia, n - f 1 dla w yjścia). M o ż e m y więc zapisać oba prawa następująco: + rp„(l Pn+1 = P n ~Pn), 0,1,2,3,... 71 = (1 .9 ) i x n+i = x l + c, 77 = 0,1,2,3,... (1 .1 0 ) M o żem y sprawdzić, że po podstaw ieniu 1 - t-2 c = —-— oraz 1+ r xn = — rpn (1 1 1 ) w zory (1 .9 ) i ( 1 1 0 ) są identyczne. Rysunek 1.31: Dwa urządzenia iterujące, ściśle powiązane dzięki zaznaczonym na rysunku przekształceniom Przeprow adźm y podstaw ienia w celu spraw dzenia równow ażności w zorów po zm ianie w spółrzędnych. Jeżeli skorzystam y z równości (1 .1 1 ) dla P n + ir o trzy m a m y Zn+1 = 1 4- r ^ ^Pn+lł a w ykorzystując rów nanie (1 .9 ) na p n+1( 1+r M - pn). x Zn+1 = —z-----rpn - r 2pn(l Równoważność x2 + c i p + rp( 1 + p ) 90 1. Podstawa geometrii fraktalnej Z drugiej strony rów nanie (1 .1 0 ) z x n i c przekształconym i zgodnie z (1 .1 1 ) prow adzi do aW i = /1 + r \ 2 1 —r2 — -------- rpn ) + — -— Po rozw inięciu praw ych stron obu rów nań w idzim y, że są one w rze­ czyw istości ta k ie sam e, m ianow icie rów ne Z au w ażm y, że r = 3 o dp ow iad a c — —2. W yjaśn ia to pow ód, dla któ reg o m ogliśm y obserw ow ać to sam o zachow anie obu procesów. S p raw d źm y d o d atko w o tę rów now ażność obu procesów, podstaw iając kilka przykładow ych w artości. Jeżeli r = 3 i po = 0 ,0 1 , to c = — 2 i zo = 1 )9 7 , zg o d n ie z ró w n an iam i (1 .1 1 ). O b lic za ją c x n dla n — 10 na k a lku la to rze C A S IO , o trz y m u je m y xiq = —0 ,1 6 8 7 4 2 9 0 3 6 . Jeżeli p rzekształcim y n o zg odnie z (1 .1 1 ), to o trzy m a m y p i0 = 0 ,7 2 2 9 1 4 3 0 1 2 , co je s t dokładn ie w artością, ja k ą m ożem y odczytać z ta b e li 1.2 dla 10. iteracji. Jeżeli, je d n a k że , p o w tó rzy m y pow yższe w yliczen ia dla 50, a nie 10 ite ra c ji, o trz y m a m y x ^q = 0 ,2 3 1 0 1 2 2 9 0 6 i pso = 0 ,2 5 5 0 6 5 5 1 4 2 (zg o d n ie z ró w n an iem ( 1 .1 1 )) , co się całkow icie różni od 50. ite ra­ cji w ta b e li 1.2 . N ie podw aża to je d n a k rów now ażności procesów, je s t tylko jeszcze je d n y m przykładem na to , że, ja k wcześniej za­ uważyliśm y, dwa różne sposoby obliczeń teg o sam ego m ogą dopro­ w ad zić do niezgodności. O zn ac za to , że i tu chaos w pływ a na po­ praw ność obliczeń. D laczego zajm u jem y się i terow an iem różnych funkcji kw adratow ych? Możemy zadać sobie pytanie, czy warto zajmować się badaniem x 2 + c, jeśli przebieg iteracji dla tej funkcji jest taki sam (z dokładnością do zmiany układu współrzędnych) jak dla funkcji p + rp(l —p)l Istnieje wiele różnych pro­ blemów, rozwiązywanych za pomocą iterowania funkcji kwa­ dratowych, i w zasadzie nie jest ważne, które przedstawienie funkcji jest badane, gdyż są one sobie równoważne. Jed­ nakże nasze rozumienie matematycznego przedstawienia da­ nego problemu, stopień jego złożoności i interpretacja roz­ wiązania zależą w dużej mierze od wyboru równania kwa­ dratowego. Dlatego też za każdym razem będziemy wybie­ rali takie przekształcenie kwadratowe, które będzie najlepiej pasowało do danego problemu. 1.5. Chaos zwycięża każdy komputer 91 Zajmijmy się przez chwilę rozważaniami na tem at, czy możemy w prosty sposób odpowiedzieć na pytanie, czym jest spowodowane zachowanie chaotyczne? W ydaje się oczy­ wiste, że jeżeli tylko pojawi się niedokładność w procesie sprzężenia zwrotnego, błąd ten następnie zwiększa się wie­ lokrotnie. Oznacza to, że błąd akumuluje się raptownie, co jest spowodowane kwadratową postacią funkcji opisującej ten proces. Innymi słowy możemy przypuszczać, że zacho­ wanie to jest spowodowane podnoszeniem do kwadratu. Jest tak w istocie, ale zależność jest o wiele bardziej złożona, niż można by się było spodziewać. Dokładna analiza tego pro­ blemu zawarta jest w rozdziale 10. Przekonajmy się jednak już teraz, że samo podnoszenie do kwadratu nie wyjaśnia je­ szcze niczego! W tym celu przeanalizujmy następujące dwa proste eksperymenty. W naszym ostatnim eksperymencie iterowania funkcji kwadratowej x n+\ — + c przyjęliśmy c — —2 i wystar­ towaliśmy z punktu xq = 1,97. Cóż jednak otrzymamy, jeśli zaczniemy nasz proces w punkcie, na przykład, xo = 1? Iteracja doprowadzi do ciągu 1, —1, —1, —1,... Jeśli wybie­ rzemy £o — 2, otrzymamy w wyniku iteracji ciąg 2,2,2 ,... Znaleźliśmy zatem takie wartości dla xo, dla których nasza iteracja zachowuje się niesłychanie wprost stabilnie. Mo­ żemy jednak wykazać, że jest to wyjątkiem i że dla pra­ wie wszystkich wartości xq z przedziału [—2,2] zaobserwu­ jemy zachowanie chaotyczne. Jeżeli rozpoczniemy nasz pro­ ces w punkcie xq = 1,999999999, to znaczy z niewielkim odchyleniem od xo — 2, otrzymamy znowu zachowanie nieu­ porządkowane, o ile tylko przekroczymy odpowiednią liczbę iteracji. To pokazuje, że analiza błędu nie jest łatwa do prze­ prowadzenia, co staje się jeszcze bardziej widoczne w na­ stępnym eksperymencie. Zmieńmy naszą iterację radykalnie przez zastąpienie pa­ rametru kontrolnego na c — —1 zamiast poprzedniego c = —2. Jeżeli niemożność przewidywania wynikałaby tylko z pro­ cesu podnoszenia do kwadratu, to powinniśmy zaobserwować podobne zachowanie. Przeprowadźmy obserwację startując tym razem z punktu x q = 0,5, zob. tabela 1 . 6 . Przebieg iteracji jest następujący: po pewnej liczbie ite­ racji proces ustala się i powtarzają się tylko dwie wartości: 0 i —1. Co więcej, powtórzenie iteracji dla innych wartości N iep rzew id y­ w alna iteracja zm ien ia swój charakter 92 1. Podstawa geometrii fraktalnej S ied em n aście iteracji dla x 2 - 1 powtórzenia 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Tabela 1.6: z xq = 0,5 X 0,5 -0,75 -0,4375 -0,80859375 -0,3461761475 -0,8801620749 -0,2253147219 -0,9492332761 -0,0989561875 -0,9902076730 -0,0194887644 -0,9996201881 -0,0007594796 -0,9999994232 -0,0000011536 -1,0000000000 -0,0000000000 x2- l -0,75 -0,4375 -0,80859375 -0,3461761475 -0,8801620749 -0,2253147219 -0,9492332761 -0,0989561875 -0,9902076730 -0,0194887644 -0,9996201881 -0,0007594796 -0,9999994232 -0,0000011536 -1,0000000000 -0,0000000000 -1,0000000000 Pierwszych siedemnaście iteracji startujących początkowych, na przykład xo = 1 lub xo = 0,75, czy xo = 0, 25 doprowadza do tego samego rezultatu. Układ sprzężenia zwrotnego jest obecnie w stanie idealnie stabil­ nym. Cykle stabilne P od obny ro d zaj stabilności pow inien w y stąp ić podczas iteracji funkcji w funkcji logistycznej, je że li tylko w y b ierzem y o d p o w ied n ią w artość param etru logistycznej r i w ielkość pop ulacji p o c zą tk o w e j po* R o zw iązu jąc rów nanie (1 .1 1 ) dla r i p przy ustalonej w artości c = —1, o trz y m u je m y r = \ / l —4c ~ y/E, 1+ r x 1 —2x + y/l —Ac 1 —2x + y/E P ~ 2r ~ r ~ ~ 2\/5 ' D la ta k ic h p a ra m e tró w istnieje cykl stab iln y o dw óch punktach, o d p o w iad ając yc h w artościom x = 0 i x = —1, a m ianow icie = 1+ 2V5 = 0,723606797. 1.5. Chaos zwycięża każdy komputer oraz 3 + ^5 = 1 2\/5 1 7 0 8 2 o 3 9 ... Widzieliśmy już tego rodzaju zachowanie procesu pod­ czas omawiania kopiarek redukujących, kiedy to otrzymy­ waliśmy zawsze ten sam obraz końcowy, niezależnie od wy­ boru obrazu początkowego. Własność ta nazywa się sta­ bilnością i jest pożądana w wielu przypadkach. Proces wtedy jest przewidywalny i niewielkie błędy podczas przebiegu za­ nikają lub ulegają redukcji, mogą więc zostać pominięte. W takim przypadku możemy posługiwać się komputerem używającym arytmetyki o skończonej precyzji, który teraz jest narzędziem doskonale się nadającym do analizy tych przypadków i nie może zawieść. Jak dotąd potrafiliśmy wykrywać, czy iteracja doprowa­ dza do stanu stabilnego czy nie za pomocą dokładnej analizy wartości pojawiających się podczas przebiegu iteracji. Ist­ nieje pewna klasa procesów wyznaczonych za pomocą funk­ cji kwadratowych, dla których można przeprowadzić innego rodzaju test zachowań, test graficzny i bezpośredni. Ograniczmy nasze rozważania do ¡terowania funkcji po­ Iteracja staci graficzna p rocesów %n+ 1 ~ Q>Zn { \ — Z n ) . sprzężenia Zauważmy, że wykresem funkcji y — ax( l — x), związanej zw rotn ego z naszą iteracją, jest parabola przebiegająca przez punkty (0,0) i (1,0), niezależnie od wyboru param etru a. Wierz­ chołek paraboli, którego pierwsza współrzędna jest zawsze równa 0,5, znajduje się na wysokości a / 4. Iterowanie tej funkcji kwadratowej jest ponownie równoważne ¡terowaniu równania logistycznego x n+i = x \ + c. Wybraliśmy taki ro­ dzaj iteracji, gdyż (dla odpowiednich wartości param etru a, 0 < a < 4 — przyp. tłum.) startując z punktu xq znaj­ dującego się pomiędzy 0 a 1, proces, jaki opisuje nasza ite­ racja, już zawsze tam pozostanie. Istnieje efektywny sposób konstrukcji ciągu xo, x i, X2 , ... za pomocą linijki i przy użyciu wykresu paraboli, ilustrujący poglądowo przebieg iteracji nazywanej iteracją graficzną. 93 1. Podstawa geometrii fraktalnej 94 Zasada iteracji graficznej R y s u n e k 1 .3 2 : P ierw sze kroki iteracji graficznej Do przeprowadzenia iteracji trzeba najpierw wyznaczyć wykres funkcji y — ax( 1 — x) oraz dwusieczną (przekątną kwadratu, zob. rysunek 1.32). Następnie należy zaznaczyć punkt xq na osi x i przeprowadzić linię pionową wychodzącą z punktu #o, a kończącą się w momencie przecięcia wykresu funkcji. Od tego punktu zaczynamy rysować linię poziomą do punktu przecięcia z przekątną, a stąd znowu linię pionową do punktu przecięcia z wykresem itd. Zachow anie sta b iln e a=2,75 R y s u n e k 1 .3 3 : Iteracje graficzne dla takich trzech w artości pa­ ram etru, które prow adzą do zachow ania stab iln ego Dlaczego procedura ta prowadzi do zamierzonego rezul­ tatu ? Dzieje się tak, ponieważ każdy punkt na przekątnej jest w tej samej odległości od każdej osi. Tą metodą możemy dosłownie zobaczyć, czy iteracja prowadzi do stanu stabil­ nego czy niestabilnego. Na rysunku 1.33 pokazano metodę graficznej iteracji dla trzech różnych wartości param etru a L 5 . Chaos zwycięża każdy komputer 95 w stabilnym zakresie procesu. Dla a = 1,45 możemy zaob­ serwować powstanie w czasie iteracji schodków, które zbie­ gają w kierunku punktu przecięcia wykresu z przekątną. Dla a = 2,75 iteracja generuje spiralę zbiegającą do punktu prze­ cięcia wykresu i przekątnej. Dla a = 3,24 możemy zaobser­ wować, jak iteracja prowadzi do powstania cyklu. Zachowanie n iestab iln e Rysunek 1.34: Zachowanie niestabilne dla a = 4. B ierzem y tę sam ą wartość początkow ą dla różniących się liczb iteracji Na rysunku 1.34 przedstawiona jest iteracja dla a = M ieszanie 4 i jednej wartości początkowej xo; poszczególne rysunki różnią się jednak liczbą przeprowadzonych kroków iteracji. Od lewej do prawej pokazane są iteracje po 10, 50 i 100 kro­ kach. Proces wyraźnie nie zatrzymuje się. Zamiast upo­ rządkowanego zachowania w granicy stopniowo zapełnia całą dostępną przestrzeń. Zjawisko to, nazywane mieszaniem, jest wskaźnikiem niestabilnego stanu systemu. Co prawda do stwierdzenia istnienia prawdziwej niestabilności powin­ niśmy użyć o wiele bardziej subtelnych metod analizy, by wykluczyć przypadek cyklu o bardzo długim okresie. Mo­ żemy na przykład spytać, jaka jest różnica pomiędzy pajęczynkami na rysunku 1.33 (a = 3,2) i na rysunku 1.34 (a = 4). Pokazaliśm y ju ż w cześniej, ze ¡terow anie funkcji logistycznej je s t rów ­ now ażne ¡terowaniu funkcji x 2 -b c. T e ra z w ykażem y rów now ażność iteracji opierającej się na funkcji az( 1 — z)> ja k ie j używ aliśm y w m e­ to d zie graficznej. P rzyp o m n ijm y, że rów nanie Pn+ l = Pn + rpn(l - pn) i 1 -1 2 ) przy użyciu podstaw ienia zn = — — pn r+ 1 oraz a = r+ 1 (1.13) Równoważność iteracji graficznej i modelu rozwoju populacji 1. Podstawa geometrii fraktalnej 96 przybiera postać Zn + 1 — a Zn ( \ Z n ). (1'14) O b lic z a m y zn+i , u żyw a ją c rów nania (1 .1 3 ) oraz funkcji logistycznej, a następnie, posługując się w zorem (1 .1 4 ), spraw dzam y, czy zgadza się to z w y n ikiem ite ra c ji. O trz y m u je m y Zn+l — r | rPn+1 r+ 1 T {Pn + rPn( l - P n ) ) r+ 1 r' 2 2 - 7 T i Pn = i z drugiej stro ny Zn+i — azn {\ = rP n ~ zn) rr z+ r1P n ' W y k a z a liś m y z a te m , że ¡terow anie p n+ i = Pn+rpn( l —pn) jes t w rze­ czyw istości ty m sam ym co ¡terow anie z n+1 = azn(l —zn). W istocie ¡terow anie ja k ie jk o lw ie k funkcji kw adratow ej je s t rów now ażne ¡tero­ w aniu fu n kcji logistycznej (z od p o w ied n io dobranym p a ra m e tre m ). D ow ó d teg o je s t p o d o b n y do w yliczeń przedstaw ionych pow yżej. P rzep row ad zęAnaliza procesu opisanego przez układ sprzężenia zwrot­ nie an alizy nego dlatego jest tak trudna, że stany stabilne i niestachaosu je st bilne przeplatają się ze sobą w niesłychanie skomplikowany tru d n e sposób. Układ sprzężenia zwrotnego może zachowywać się w sposób łatwy do przewidzenia lub nie, w zależności jedynie od ustawienia param etrów kontrolnych. Odbywa się to podobnie jak w systemie używanym do przewidywania pogody. Istnieją stany, w których przewidy­ wanie jest możliwe (jak systemy wysokiego ciśnienia nad ob­ szarami pustynnymi stanu Utah, USA); lecz również, podob­ nie jak przedtem, istnieją sytuacje, w których możliwość przewidywania załamuje się. W tedy to wymyślne, warte 1.6. Program na zakończenie rozdziału wiele milionów dolarów, urządzenia oraz najtęższe umysły mogą przewidywać z równym skutkiem jak każdy z nas, gdy powiemy, że pogoda jutro będzie taka sama jak dziś. Ozna­ cza to, że oba systemy mogą potencjalnie zachowywać się na dwa różne sposoby i istnieje możliwość przejścia od jed­ nego sposobu do drugiego. Stanowi to podstawę działu ma­ tematyki, czy raczej nauki, o chaosie. Temat ten jest ściśle związany z fraktalami, co opiszemy w rozdziałach 10 i 11. Najlepszym sposobem do opisu tej relacji jest powiedzenie, że geometria fraktalna jest geometrią chaosu. 1.6. P ro g r a m n a z a k o ń c z e n ie rozd zia łu : itera cja g ra ficzn a Do każdego rozdziału tej książki napisaliśmy program kom­ puterowy, program na zakończenie rozdziału, który odpo­ wiada którejś z ważnych konstrukcji zawartych w danym rozdziale. Programy te są krótkie, co ułatwia wprowadzenie ich do komputera, jak również — co jest nawet ważniejsze — zrozumienie, co one wykonują. Programy napisaliśmy w języku BASIC. Tak, to prawda! Wyobrażamy sobie za­ rzuty, jakie ludzie mogą wnosić, ponieważ uważają ten język za przestarzały, niewydajny, bez struktury i który, jak wia­ domo, uniemożliwia pisanie dobrych programów. Dlaczego więc go wybraliśmy? Po pierwsze, jest to język łatwo dostępny dla wszyst­ kich programistów. Często jest to język wbudowany lub darmowo dołączany do wielu komputerów; w każdym ra­ zie nie jest problemem uzyskanie go po niskiej cenie. Co więcej, uważamy, że BASIC, a właściwie to co z niego bie­ rzemy, jest tak łatwy do zrozumienia, że nawet ktoś, kto nie miał do czynienia z programowaniem, powinien móc zro­ zumieć, co dany program wykonuje. Dlatego z niewielkim wysiłkiem można zacząć eksperymentować i próbować mo­ dyfikować programy. Na zakończenie wreszcie, dla wielbi­ cieli piękniejszych języków komputerowych nie powinno sta­ nowić problemu przetłumaczenie tych programów na Wasz ulubiony dialekt i błyskawiczne wpisanie do komputera. Wszystkie programy, jakie podajemy w tej książce, zo­ stały napisane przy użyciu Microsoft BASIC na kompute­ rze Apple Macintosh. Wypróbowaliśmy również nasze pro- 97 98 1. Podstawa geometrii fraktalnej gramy na komputerach kompatybilnych z komputerem oso­ bistym IBM (zob. uwagi dla użytkowników PC). Powinny one zatem działać i na tego typu komputerach bez spe­ cjalnych kłopotów. Większość programów dostarcza wy­ ników głównie w postaci graficznej, pojawiającej się w części ekranu o kształcie kwadratu. Obszar ten zaczyna się w le­ wym górnym rogu ekranu w punkcie (lew y,lew y) i jest na w pikseli szeroki. Param etry te są ustawione jako lewy = 30 i w = 300, można jednak je łatwo zmienić, by lepiej pa­ sowały do rozmiarów ekranu danego komputera. Do wy­ konywania rysunków używamy dwóch bardzo popularnych rozkazów BASIC-u: LINE i PSET. Rozkaz LINE ( x l ,y l ) - (x2,y2) powoduje narysowanie prostej od punktu (x l ,y l) do punktu (x 2 ,y 2 ).25 Następny rozkaz PSET ( x l , y l) powoduje narysowanie punktu (x l , y l ) . Przeanalizujmy te­ raz nasz pierwszy program. Iteracja graficzna Rysunek 1,35: Obraz z ekranu dla programu „Iteracja graficzna” Iteracja graficzna jest pouczającym sposobem wizualiza­ cji dynamiki przebiegu procesu. Jako przykład26 rozważmy 25 Jeżeli pierwszy z tych punktów nie jest określony, to rysowanie prostej zaczyna się w punkcie bieżącym, którym jest punkt końcowy prostej z ostatniej komendy LINE albo PSET. 26 Łatwo można zastąpić tę funkcję inną — wymaga to zmiany jedynie dwóch linii programu. 99 1.6. Program na zakończenie rozdziału Program w B A SIC -u T ytuł Iteracja graficzna E ksperym enty z funkcją kw adratow ą INPUT „Parametr a, start xO” ,a,xO lewy = 30 w = 300 m= 1 imax = 10 REM RYSOWANIE DWUSIECZNEJ I FUNKCJI LINE (lewy+w,lewy) - (lewy,lewy+w) FOR i—1 TO w xn = i/w FOR k = 1 TO m xn = a*xn*(l-xn) NEXT k LINE - *(i+lewy,lewy+w* (l-xn) ) NEXT i REM xn = PSET FOR POCZĄTEK W x0 x0 (lewy+w*xn, lewy+w) i = 1 TO imax REM OBLICZANIE WARTOŚCI FUNKCJI FOR k = 1 TO m xn = a*xn*(l-xn) NEXT k REM RYSOWANIE LINII PIONOWEJ I POZIOMEJ LINE - (lewy+w*xO,lewy+w*(l-xn)) LINE - (lewy+w*xn,lewy+w*(l-xn)) xO=xn NEXT i END iterację funkcji kwadratowej x n+i = f a ( x n ), f a ( x ) = ax( l - x ) , O < a < 4. Powyższy program pozwala na śledzenie iteracji graficznej dla funkcji f a przy różnych wartościach param etru a i punktu początkowego x q . Przed uruchomieniem programu użytkow­ nik powinien wprowadzić (na polecenie IN P U T ) wartości a i x 0. Program rysuje najpierw wykres funkcji f a (a właściwie m -tą iterację /™, gdzie m > 1) i przekątną układu współ­ rzędnych. Możemy zmienić wartość m wprost w programie. 100 1. Podstawa geometrii fraktalnej Zauważmy, że w programie — który tu umieszczamy — jest m = 1. Iteracja graficzna zaczyna się od wartości początkowej x0. Potem wykonywane są następujące czynności: • jest obliczana wartość xn funkcji f a (lub m-tej iteracji /™), • jest rysowana linia pionowa do wykresu funkcji (w górę lub w dół do wartości xn), • od tego punktu rysowana jest linia pozioma do przekątnej. Po wykonaniu imax powtórzeń (początkowo liczbą tą jest 10) tych kroków, program zatrzyma się. Jeżeli chcemy zmienić liczbę wykonywanych kroków, wystarczy zmienić wartość imax. Podczas przeprowadzania eksperymentów z programem możemy podstawiać różne wartości występujące pomiędzy 0 a 1 jako wartości początkowe dla różnych wartoś­ ci param etru a. Dla danej funkcji kwadratowej wartość pa­ ram etru a powinna znajdować się pomiędzy 0 a 4. Proponu­ jemy spróbować podstawić jako param etr liczby: 1,75, 2,0, 2,75, 3,1, 3,5, 3,6, 3,83 i 4,0. Uwagi dla użytkowników komputerów PC Jeżeli m a m y do dyspozycji ko m p u ter ko m p atyb iln y z IBM PC, pow inniśm y ju ż przyzw yczaić się do niew ygody polegającej na ty m , że za n im m o żem y w ykon ać ja k ik o lw ie k program graficzn y potrzebna jest karta g raficzn a, a następnie trze b a ustaw ić odpow iedni try b graficzny. Sposób w ykon ania teg o zależy od budow y danego ko m putera. W y ­ ko rzystujem y w te j książce je d y n ie try b czarno-biały. Pow inno to u łatw ić w ykon anie program ów . W język u B A S IC instrukcja SCREEN (n ie chodzi tu o funkcję o tej sam ej n a zw ie) po zw ala na ustaw ienie różnych try b ó w graficznych. N a przykład SCREEN 1 um ożliw i działanie grafiki z rozdzielczością 3 2 0 na 2 0 0 pikseli. N a to m ia s t SCREEN 2 daje nam w kierunku osi x naw et w iększą rozdzielczość (6 4 0 pikseli). P row adzi to je d n a k do pow stania o b razó w z n iep o żąd an ym dla nas e fe k te m skali. SCREEN 9 pow inna dać rozdzielczość 6 4 0 na 3 5 0 pikseli. D o k ła d n y opis pow i­ nien zn ajd o w ać się w opisie ko m p u tera. P rogram y, ja k ie zn ajd u ją się w te j książce, w y ko n u ją rysunki w fo rm ie kw ad ratu szerokie na około 3 0 0 pikseli. M o żn a to zm ienić p o d staw iają c inne w artości dla zm ien­ nej w , któ ra zn a jd u je się w większości p rogram ów . Jeżeli kom puter dyspo nuje kartą g rafic zn ą, któ rą m oże jed y n ie w yśw ietlać 2 0 0 linii, m ożna ustaw ić w = 2 0 0 . W iększa rozdzielczość je s t je d n a k bardziej o d p o w ied n ia. N ie używ aliśm y num erow ania (n ad aw an ia e ty k ie t) w szystkich ko- 1.6. Program na zakończenie rozdziału lejnych poleceń. Jeżeli ję zy k tego w ym ag a, po prostu należy nadać etykiety kolejnym poleceniom . Jednak trze b a to w ykonać ta k , by nie pow stała sprzeczność z e tyk ietam i ju ż istniejącym i. N a przykład jeżeli pierwszą e tyk ietą, ja k ie j użyliśmy, je s t 100, w szystkie poprze­ dnie polecenia m ożem y num erow ać tylko liczbam i od 1 do 9 9 . Jeżeli naszym następnym oznaczeniem je s t 2 0 0 , w szystkie linie pom iędzy nimi m ogą mieć oznaczenia od 101 do 199 itd. 101 R ozdział 2 K lasyczne fraktale i sam opodobieństw o W matematyce sztuka stawiania problemów jest ważniejsza od sztuki ich rozwiązywania. Georg Cantor M andelbrota uważa się często za ojca geometrii fraktalnej. Niektórzy m atematycy przypominają jednak, że wiele fraktali i ich opisów wywodzi się z klasycznej matematyki. Wśród matematyków związanych z fraktalami możemy wy­ mienić na przykład Georga Cantora (1872), Giuseppe Peana (1890), Davida Hilberta (1891), Helge’a von Kocha (1904), Wacława Sierpińskiego (1916), Gastona Julię (1918) czy Felixa Hausdorffa (1919). To prawda, że konstrukcje tych matematyków odegrały kluczową rolę w stworzonej przez M andelbrota idei nowej geometrii. Jednocześnie jednak jest prawdą, że nie powstawały one w celu stworzenia podstaw nowego spojrzenia, czy nowej geometrii natury. Obiekty, ta ­ kie jak zbiór Cantora, krzywa Kocha, krzywa Peana, krzywa Hilberta i trójkąt Sierpińskiego uważane były raczej za obiek­ ty wyjątkowe, kontrprzykłady, matematyczne monstra. Ale być może nasze stwierdzenie jest pewnym przejaskrawie­ niem. W rzeczywistości wiele wczesnych fraktali powstało 1UO przy próbach dogłębnego zrozumienia pojęć podstawowych (takich jak np. „ciągłość” czy „krzywa”). Zbiór Cantora, dywan Sierpińskiego i gąbka Mengera są szczególnie ważnymi przykładami dzięki ich głębokim korzeniom i podstawowej roli, jaką odegrały w rozwoju wczesnej topologii. Nawet w kręgach matematyków ich głębokie znaczenie W yn atu rzen ie się nieco zatraciło — nie były one postrzegane jako kształty czy typow ość? typowe, a raczej jako kształty przejawiające odchylenia od normalnych struktur. Mandelbrot udowodnił później, że te „wczesne” matematyczne fraktale m ają wiele cech wspólnych z kształtami, które można znaleźć w naturze. Stąd wziął się tytuł jego książki, opublikowanej w 1982 r., The Fractal Ge­ ometry of Naturę (Fraktalna geometria natury).1 Możemy zatem powiedzieć, że Mandelbrot odwrócił oficjalną inter­ pretację i ocenę tych fantastycznych obiektów do góry no­ gami. W rzeczywistości zrobił on o wiele więcej. Takie struktury jak zbiór Cantora istniały już wcześniej. Ale to Mandelbrot stworzył język, który umożliwił integrację wszy­ stkich wcześniejszych obiektów fraktalnych. Zauważył, że to, co wydaje się wyjątkiem, stanowi raczej regułę, z własnym słownictwem i własną gramatyką. Zgodnie z tym co Mandel­ brot sam twierdzi, nie podążał on za jakimś jednym wielkim planem podczas realizacji tego programu. Było to raczej podsumowanie jego złożonego — chciałoby się rzec samotni­ czego — doświadczenia naukowego w matematyce, lingwi­ styce, ekonomii, fizyce, naukach medycznych, czy sieciach komunikacyjnych, by wspomnieć choć o kilku dziedzinach, w których był aktywny. Zanim otworzymy naszą galerię klasycznych fraktali Sam opodobieńi omówimy szczegóły niektórych z tych wczesnych arcydzieł, stw o wprowadźmy pojęcie samopodobieństwa. Pojęcie to będzie się powtarzało dla wszystkich fraktali, wyraźniej dla jed­ nych, a tylko w pewnej odmianie dla innych. W pewnym sensie słowo „samopodobny” nie wymaga wyjaśnień. Obe­ cnie podamy jedynie przykład wzięty z natury i mający tę własność, a mianowicie kalafior. Nie jest to przykład klasycznego matematycznego fraktala, jednak dzięki niemu pojęcie samopodobieństwa jest intuicyjnie jasne bez żadnej matematyki. Główka kalafiora składa się z różyczek, które po oddzieleniu od reszty przypominają całą główkę, tyle że 1 Freeman, 1982. 104 2. Klasyczne fraktale i samopodobieństwo Sam op o d o b ień stw o kalafiora Rysunek 2.1: Sam op odob ień stw o zw yczajnego kalafiora, zade­ m onstrow ane przez rozłożenie go na cząstki i dw ukrotne kolejne pow iększenie (u dołu ). M ałe cząstk i w ygląd ają podobnie jak cały kalafior w pomniejszeniu. Części te mogą być znowu podzielone na jeszcze mniejsze cząstki, które znowu są podobne do całego kalafiora, jak również do części, z której zostały oddzie­ lone. Ta własność samopodobieństwa przenosi się na trzecią i może czwartą generację. Potem różyczki stają się za małe, by je dzielić. W matematycznym modelu fraktali własność samopodobieństwa przenosi się na następną generację nie­ skończenie wiele razy. Prowadzi to do powstania nowych pojęć, takich jak wymiar fraktalny, który można stosować również do obiektów, nie mających dowolnie małych części. S am op od ob ień ­ Zasada samopodobieństwa występuje w matematyce wie­ stw o w sy stem ie lokrotnie. Jednym z najstarszych i najważniejszych przyk­ d ziesiętn ym ładów jest nasz system dziesiętny.2 Trudno sobie wyobrazić, 2 Leonardo z Pizy, znany także jako Fibonacci, przyczynił się do wprowadzenia do matematyki cyfr arabskich 0 , 1 , 2 , 3 , 4 , 5 , 6 , 7 , 8 i 9. 1UO czym bez niego byłaby współczesna matematyka i nauki przy­ rodnicze. Jesteśmy do niego tak przyzwyczajeni, że wydaje nam się, jakby istniał zawsze. Nie jest to prawda. Jego obecna forma powstała w wyniku długiego procesu kultu­ rowego i jest bardzo podobna do zasady tworzenia fraktali. System dziesiętny stworzył również podstawy systemu metrycznego (pomiaru długości, powierzchni, pojemności, ciężaru itd.). Przyjrzyjmy się miarce z zaznaczonymi de­ cymetrami (dzięsięc tworzy metr), centymetrami (dziesięć tworzy decymetr, sto — metr) i milimetrami (dziesięć two­ rzy centymetr, tysiąc zaś m etr).3 Jeden decymetr miarki wygląda jak cała miarka pomniejszona dziesięć razy. Nie jest to przypadkowe. Odpowiada to dokładnie systemowi dziesiętnemu. Na przykład 357 mm to 3 decymetry, 5 cen­ tymetrów i 7 milimetrów. Oznacza to, że pozycje poszcze­ gólnych cyfr wyznaczają ich położenie, podobnie jak to się dzieje w systemie dziesiętnym. M etr składa się z tysiąca mili­ metrów, lecz kiedy mamy wyznaczyć 357 pozycję nie będzie­ my przecież liczyli 357 części od lewej do prawej. Zamiast tego najpierw wyszukamy trzecią kreskę oznaczającą decy­ metry, od tego miejsca piątą odpowiadającą podziałowi na centymetry, a wreszcie od tego miejsca siódmą milimetrową. Dla większości z nas takie postępowanie jest oczywiste. Do­ piero ktoś, kto musi posługiwać się systemem mil, jardów i cali, może docenić piękno systemu dziesiętnego. Odczy­ tywanie położenia punktu na miarce odpowiada wędrówce po rozgałęzieniach drzewa, drzewa liczb dziesiętnych (zob. rysunek 2.2). Budowa tego drzewa uwydatnia samopodoPierwsze siedem rozdziałów jego najlepiej znanej pracy, Liber abaci (1202, „Księga o liczbach”), zajmuje się tłumaczeniem pozycji cyfry — określa ona, czy dana cyfra obrazuje jednostkę, dziesiątkę, setkę itd.— oraz demonstruje użycie tego systemu do operacji arytmetycznych. 3 System metryczny jest obecnie używany przez naukowców większości narodów. Został on stworzony przez francuskie Zgromadze­ nie Narodowe w latach 1791-1795. Jego użycie rozszerzało się powoli, ale w sposób ciągły. Do wczesnych lat siedemdziesiątych już tylko nie­ wiele krajów (w tym Stany Zjednoczone) używało innych systemów miary. Od roku 1960 określeniem metra był: 1 metr = 1 650763,73 długości fali pomarańczowo-czerwonej linii widmowej atomu kryptonu 86 w ściśle określonych warunkach. (Obecna definicja: 1 metr jest to długość drogi przebytej w próżni przez światło w czasie 1/299792458 s — przyp. red. wyd. polskiego.) Około roku 1790 został on zdefinio­ wany jako 1/10 000 000 długości ćwierci obwodu koła wielkiego Ziemi, biegnącego od Bieguna Północnego przez Paryż do równika. 106 2. Klasyczne fr akt ale i samopodobieństwo bieństwo systemu dziesiętnego. Podobne drzewa podziału odzwierciedlają samopodobieństwo konstrukcji fraktali, roz­ ważanych w tym rozdziale. m etr decym etr centym etr milimetr R ysunek 2.2; Linią pogrubioną oznaczone są gałęzie drzewa dziesiętnego, odpowiadające liczbie 357 2 .1 . Z b iór C a n to r a Cantor (1845-1918) był niemieckim matematykiem z uni­ wersytetu w Halle. Prace jego są jednymi z najważniejszych w tworzeniu współczesnych podstaw matematyki, a w szcze­ gólności teorii mnogości. Zbiór Cantora pierwszy raz pojawił się4 w pracy opubli­ kowanej w roku 1883 jako przykład zbioru o wyjątkowych własnościach.5 Powinniśmy powiedzieć, że w zwierzyńcu dziwolągów matematycznych, klasycznych fraktali, pełni naj­ ważniejszą rolę, mimo że nie jest specjalnie pociągający dla oka. Nie jest też odpowiedni do ilustracji właściwości frak­ tali. Wiemy obecnie, jak ważna jest rola zbioru Cantora w wielu dziedzinach matematyki. Jest nieodzowny, w bar­ dzo głębokim sensie, do zrozumienia chaosu w układach dy­ namicznych (spróbujemy naświetlić ten problem choć tro­ chę), jak również stanowi podstawę dla innych fraktali (np. zbiorów Julii, w rozdziale 12). 4 G. Cantor, Über unendliche, lineare Punktmannigfaltigkeiten V, Math. A nn. 2 1 , 545-591 (1883). 5 Zbiór Cantora jest przykładem doskonałego i nigdzie gęstego podzbioru odcinka. z .i. ¿Dior oantora i u/ G eorg C antor Rysunek 2 .3 : G eorg Cantor, 1845-1918 Podstawowy zbiór Cantora jest to nieskończony zbiór punktów odcinka jednostkowego [0,1]. Oznacza to, że może­ my interpretować go jako zbiór pewnych liczb, na przykład 0, 1, 1/3, 2/3, 1/9, 2/9, 7/9, 8/9, 1/27, 2/27,... Jeśli za­ znaczylibyśmy te, jak również pozostałe punkty tego zbioru (jeśli oczywiście znalibyśmy je), niewiele byśmy zobaczyli. Dlatego posłużymy się pewnym prostym sposobem. Otóż zamiast rysować punkty, narysujemy pionowe odcinki o jed­ nakowej długości, które zaczynać się będą we wszystkich punktach zbioru Cantora. Pozwoli nam to ujrzeć trochę le­ piej rozkład tych punktów na odcinku. Rysunek 2.4 może dać nam pewne wyobrażenie o zbiorze Cantora. Jeśli jed­ nak chcemy go poznać, to najważniejszy jest sposób, w jaki powstaje. Zacznijmy od przedziału [0,1]. Następnie wyrzućmy ot­ K onstrukcja warty przedział (1/2,2/3), tzn. usuńmy środkową trzecią zbioru C antora część przedziału [0,1] bez liczb 1/3 i 2/3. Pozostaną dwa przedziały: [0,1/3] i [2/3,1], o długości 1/3 każdy i kończy to podstawowy krok konstrukcji. Następnie powtarzamy krok konstrukcji w ten sposób, że z przedziałów [0,1/3] i [2/3,1] usuwamy środkowe części trzecie, otrzymamy więc cztery przedziały o długości 1/9 każdy. Postępujemy tak dalej. In­ nymi słowy jest to układ sprzężenia zwrotnego, generujący ciąg domkniętych przedziałów — jeden w kroku zerowym, 108______________ 2. Klasyczne frakt ale i samopodobieństwo Zbiór C antora R ysunek 2.4: Zbiór Cantora jest tutaj przedstawiony w po­ staci linii pionowych nad wszystkimi punktami należącymi do tego zbioru dwa w pierwszym, cztery w drugim, osiem w trzecim itd. (tzn. 2n przedziałów o długości l / 3 n każdy w n-tym kroku). Na rysunku 2.5 przedstawiamy graficznie tę konstrukcję. R ysunek 2.5: Kilka początkowych kroków konstrukcji zbioru Cantora K oń ce od cin k ów Co znajduje się w zbiorze Cantora? Są to punkty, które zn ajd u ją się pozostaną po nieskończenie wielu etapach usuwania środko­ w zbiorze wych części. Co znaczy nieskończenie wielu? Weźmy dla C antora... przykładu punkt x. Znajduje się on w zbiorze Cantora, jeśli możemy mieć pewność, że niezależnie od tego, jak wiele razy usuwaliśmy odcinki, punkt x nie był usunięty. Takimi punk­ tam i są 0, 1, 1/3, 2/3, 1/9, 2/9, 7/9, 8/9, 1/27, 2 /2 7 ,..., ponieważ są to końce odcinków powstałych podczas kon­ strukcji — muszą więc pozostać. Wszystkie te punkty mają jedną rzecz wspólną. Są one mianowicie związane z potęgami trójki, a właściwie z potęgami 1/3. Jest to ważne spostrze­ żenie, które wykorzystamy jeszcze później do zrozumienia zbioru Cantora. Mogłoby się wydawać, że wszystkie punkty zbioru Cantora są tej postaci, tzn. że są to końce przedziałów powstałych w trakcie konstrukcji. Nic bardziej błędnego! Poniżej przedstawimy rozumowanie, które do pewnego stop­ nia wyjaśni tę sprawę. 109 2.1. Zbiór Cantora Jeżeli zbiór Cantora składałby się tylko z końców od­ ...ale to nie cinków powstałych podczas konstrukcji, moglibyśmy je ła­ w szystk o two ponumerować tak, jak pokazano na rysunku 2.6. K oń ce odcin k ów poziom 0 0 poziom 1 poziom 2 Rysunek 2.6: Zliczanie końców odcinków powstałych w kon­ strukcji zbioru Cantora. W kroku Ar, k > 0, powstaje 2k nowych końców odcinków. Numerujemy je jak na rysunku Oznaczałoby to, że zbiór Cantora jest przeliczalny, a wia­ domo, że nie jest.6 Będzie to pokazane później. Nie możemy zatem w żaden sposób ponumerować zbioru Cantora, a co za tym idzie składa się on także z punktów nie będących końcami odcinków z jego konstrukcji. Czy możemy podać jakieś przykłady? Aby to zrobić, użyjemy prostego, lecz dającego duże możliwości opisu zbioru Cantora używającego rozwinięcia trójkowego. Przyjrzyjmy się najpierw, co możemy uzyskać przy użyciu systemu dziesiętnego. Przypomnijmy sobie rozważania zwią­ zane z miarką. Usuwajmy teraz części takiej miarki w ko­ lejnych krokach (zob. rysunek 2.7). Zacznijmy od m etra i usuńmy z niego piąty decymetr od lewej w kroku 1. Po­ zostało nam więc dziewięć decymetrów, z których usuwamy z kolei w drugim kroku każdy piąty centymetr. W trze­ cim kroku z pozostałych 81 odcinków centymetrowych usu­ wamy piąte odcinki milimetrowe. Następnie kontynuujemy ten proces i w czwartym kroku dochodzimy do rozważania dziesiątych części milimetra itd. Konstrukcja ta jest bardzo podobna do klasycznej konstrukcji zbioru Cantora. Zbiór punktów, które nie zostaną usunięte w żadnym kroku jest fraktalem; nosi on również nazwę zbioru Cantora. Pouczające jest odniesienie konstrukcji zmodyfikowanego zbioru Cantora do drzewa rozwinięcia dziesiętnego z rysunku 2.2. Usuwanie fragmentu z metrowej miarki odpowiada wy­ cinaniu gałęzi w tym drzewie. W pierwszym kroku odcinamy 6 Zobacz niżej, s. 116. M odyfikacja używ ająca system u d ziesiętn ego 110 2. Klasyczne fraktale i samopodobieństwo i i i u u i i |11 i i i i i i i i | i i i i 11 i m | i i i u i 11 i [ i i i u i i 11 | i i ii i i u i | 111 i i u i i j 1111 j i i 11 | m 'i 11111 | i i u i i i i i 0 i i i i 1 2 3 4 5 6 i 111111111 1ii j111111 111^ 111 11 11nr-i in 11 r 11111 n r r i j 1111 n 1 1111 “ 0 i i i ] i i i i “ 1 im 2 3 4 u r^77771777^77777777^ n n*m ‘i*r i 0 2 ' 3 m 5 I 4 8 9 i u j i i i i n i i i | i i i i ln im i iijiii i1111111 i i n i i i |1 i1i1i11 iniii 6 5 7 7 8 9 1 n 11 \ j 11 ^7771777^77777777^77777777^ 8 9 Rysunek 2.7: W tej metrowej miarce usunięto odcinki: piąty decymetr (krok 1), piąte centymetry (krok 2) oraz piąte milime­ try (krok 3). Są to trzy pierwsze kroki konstrukcji dziesiętnej modyfikacji zbioru Cantora Rysunek 2.8: Przedstawienie rozwinięcia dwójkowego za pomocą drzewa o podwajających się gałęziach. W odróżnieniu do praw­ dziwych drzew rysujemy drzewo adresowe, tak więc korzeń jest na górze. Do każdej liczby z odcinka [0,1] na dole możemy dotrzeć startując od korzenia na szczycie i poruszając się po odpowiednich gałęziach. Jeśli zapiszemy kolejne cyfry oznaczające te gałęzie (0 dla lewego, 1 dla prawego odgałęzienia), to otrzymamy rozwinięcie dwójkowe wybranej liczby rzeczywistej. Drzewo dwójkowe jest samopodobne: każde dwa rozgałęzienia w każdym z wierzchołków są pomniejszonymi kopiami całego drzewa główną gałąź oznaczoną numerem 5. W następnych krokach wycinamy kolejne gałęzie oznaczone cyfrą 5. Oznacza to, że zatrzymujemy jedynie te liczby, które w swym rozwinięciu dziesiętnym nie zawierają cyfry 5. Oczywiście to, że usu­ wamy właśnie piąte decymetry, centymetry, milimetry itd. 111 2.1. Zbiór Cantora nie jest istotne. Moglibyśmy równie dobrze odrzucić wszyst­ kie liczby zawierające w rozwinięciu dziesiętnym cyfrę 6 lub na przykład cyfry 3,4,5 i 6. Zależnie od wyboru otrzymamy jakąś modyfikację zbioru Cantora. Nigdy jednak nie otrzy­ mamy w ten sposób klasycznego zbioru Cantora, do tego potrzebujemy liczb trójkowych , Liczby trójkowe są to liczby o podstawie 3. Oznacza to, C harakterystyka że do zapisu liczby możemy użyć jedynie cyfr 0,1 i 2. W po­ zbioru C antora niższej tabeli podajemy kilka przykładów. dziesiętne jako potęgi trójki trójkowe 4 17 0 ,3 3 3 ... 0,5 1 • 3 1 + 1 • 3° 1 • 3 2 + 2 • 3 1 + 2 • 3° 1 -3 " 1 1 • 3 _1 + 1 • 3 -2 + 1 • 3 -3 + • • 11 122 0,1 0 , 111 ... Tabela 2.1: Zamiana czterech liczb dziesiętnych na liczby trój­ kowe P rzyp o m n ijm y zasadę naszego system u dziesiętnego. Szczególnie będzie nas interesowało przedstaw ianie w nim liczb. Jeżeli na przykład napiszem y 0 ,3 2 5 7 3 , oznacza to 3 • 1 0 “ 1 + 2 • 1 ( T 2 + 5 ■1( T 3 + 7 • 1 ( T 4 + 3 • 1 ( T 5 . Każdą liczbę z odcinka [0 ,1 ] m ożem y przedstaw ić w postaci x = o i • lC T 1 + a2 • 1C T 2 + o 3 • 1 0 “ 3 + . .. , (2 .1 ) gdzie o i, a,2 , a 3 , ... są cyfram i ze zbioru { 0 , 1 , 2 , . . . , 9 } , cyfram i dziesiętnym i. P rzedstaw ienie to nosi nazwę rozwinięcia dziesiętnego liczby x. Rozw inięcie to m oże być nieskończone (np. x — 1 / 3 ) lub skończone (np. x = 1 / 4 ) . Jeśli m ów im y, że postać czy rozw inięcie jest skończone, oznacza to , że zakończone je s t ono nieskończoną liczbą kolejnych (zb yteczn ych ) zer. Jak wiem y, kom putery reprezentują liczby przy w ykorzystaniu ich rozwinięcia dwójkowego. Podstaw a rozw inięcia 10 zam ieniona jes t na 2. W e ź m y na przykład liczbę (d w ó jk o w ą ) 0 ,1 1 0 0 1 . M o ż e m y ją zapisać następująco: 1 • 2“ 1 + 1 • 2“2 + 0 • 2-3 + 0 • 2~4 + 1 ■2“5. Przedstaw ienie to prowadzi je d n a k do pow stania niejednoznaczności. O tó ż, w eźm y dla przykładu liczbę dziesiętną 2/ 10. M o ż e m y ją zapisać Rozwinięcie trójkowe 112 2. Klasyczne frak tale i samopodobieństwo na dw a sposoby: 0 ,1 9 9 9 9 ... lub 0 ,2 0 0 0 0 ... W układzie dw ójkow ym podobna niejednoznaczność w ystępu je przy zapisie 1 /4 ; m ożna ją zapisać ja k o 0 , 00111 , lub 0 , 01000, gdzie kreska nad o statn ią cyfrą oznacza, że zn ajd u ją ca się pod nią cyfra (lu b c y fry) będzie pow tarzana w nieskończoność. Drzewo trójkowe Rysunek 2.9: Drzewo o potrajających się gałęziach przedsta­ wia rozwinięcie trójkowe liczb z przedziału jednostkowego. Pierw­ sza główna gałąź prowadzi do liczb leżących pomiędzy 0 i 1/3. Poruszanie się w dół po gałęziach i zapisywanie cyfr odpowia­ dających kolejnym rozgałęzieniom: 0,1 i 2 dla odpowiednio le­ wego, środkowego i prawego odgałęzienia da rozwinięcie trójkowe tej liczby, do której się zbliżamy T e ra z m o żem y d o kład n ie opisać zb ió r C an to ra, używ ając rozw i­ nięcia tró jko w eg o dla liczb z przedziału jednostkow ego [0,1]. Liczby te w rozw inięciu tró jk o w y m będą m iały następującą postać: dla do­ w olnego x, pod obnie ja k w rów naniu (2.1), X— *3 ^ + &2 *3 ^ ~h *3 ^ T" CLą *3 ^ ... (2-2) cl\ , <225 03 , . . . są cyfram i ze zbioru { 0, 1 , 2} . Zapiszmy kilka punktów ze zbioru Cantora jako liczby trójkowe: 1/3 to w systemie trójkowym 0,1, 2/3 to 0,2, 1/9 to 0,01, 2/9 to 0,02. Możemy zatem scharakteryzować wszystkie punkty ze zbioru Cantora następująco. S tw ierd zenie. Zbiór Cantora C jest to zbiór punktów z od­ cinka jednostkowego, których pewne rozwinięcie trójkowe nie zawiera cyfry }1 \ 2.1. Zbiór Cantora 113 To teorioliczbowe przedstawienie zapewnia istnienie granicy dla geometrycznej konstrukcji zbioru Cantora. W rozpatrywanym przykładzie 2/3 i 2/9 są punktami zbioru Cantora zgodnie z powyższym stwierdzeniem, po­ nieważ ich rozwinięcia trójkowe — 0,2 i 0,02 — nie zawierają cyfry 1. Jednakże wydaje się, że pozostałe dwa przykłady za­ przeczają tej regule. Ich rozwinięcia trójkowe — 0,1 i 0, 01 — zawierają przecież cyfrę „1.” To prawda, przypomnijmy jednak sobie niejednoznaczność naszego przedstawienia. Przecież 1/3 może być równie dobrze zapisana jako 0,02222. Oznacza to, że 1/3 należy do zbioru Cantora. A co z liczbą 1/3 + 1/9? Jest to liczba usunięta ze zbioru już przy pierw­ szym kroku konstrukcji. Jej rozwinięcie trójkowe to 0,11, ale czy nie moglibyśmy zapisać jej też w formie, która za­ przeczyłaby naszym założeniom? Tak, w istocie, możemy zapisać 1/3 + 1/9 jako 0,10222. Jak widzimy pojawia się tu cyfra „1” i własność ta nie zależy od tego, jaką reprezentację trójkową dla tej liczby wybierzemy. Dlatego liczba ta jest poza zbiorem Cantora. Te rozważania doprowadziły nas do wniosku, że nie ma sprzeczności w naszym opisie. Możemy obecnie podać charakterystykę punktów zbioru C harakterystyka Cantora, które na pewnym etapie konstrukcji tego zbioru końców wyznaczały koniec odcinka pozostającego w zbiorze. Punkty odcink ów te mają specyficzną charakterystykę, odróżniającą je od re­ szty punktów zbioru Cantora. Otóż punkty te odpowia­ dają liczbom, których rozwinięcie trójkowe od pewnego miej­ sca składa sią z samych zer lub z samych dwójek. Liczby, których rozwinięcie trójkowe jest innej postaci, jak na przyk­ ład 0 , 02002200022200002222000002222... lub liczba, w której wybralibyśmy cyfry 0 i 2 losowo, będą należały bezsprzecznie do zbioru Cantora, lecz nie będą na żadnym etapie konstrukcji wyznaczały końców odcinków. Okazuje się, że takich punktów jest znacznie więcej. Ozna­ cza to, że jeśli będziemy wybierać losowo punkt zbioru C , to z prawdopodobieństwem 1 nie będzie on końcem odcinka. Dzięki tej charakterystyce zbioru Cantora jest jasne, że co prawda w dowolnie małym otoczeniu każdego punktu zbioru C znajdują się punkty z tego zbioru, jednocześnie jednak C jest tylko pyłem punktów. Oznacza to, że C nie za­ wiera żadnego odcinka (wynika to również z geometrycznej 114 2 . Klasyczne frakt ale i samopodobieństwo konstrukcji, a mianowicie ze sposobu, w jaki odcinki usu­ waliśmy). A d resy i zbiór Powróćmy na chwilę do geometrycznej konstrukcji zbioru C antora Cantora przez usuwanie środkowych części trzecich z od­ cinków, począwszy od odcinka jednostkowego [0,1]. Po pier­ wszym kroku otrzymujemy dwie części, lewą i prawą. Po kroku drugim każda z tych części rozpada się znowu na dwie, a mianowicie lewą i prawą. I tak dalej. Teraz opiszemy sku­ teczny sposób oznaczania części powstałych w danym kroku. Dwie części powstałe w pierwszym kroku oznaczmy jako L i P, lewa i prawa. Cztery części powstałe po kroku dru­ gim oznaczamy odpowiednio LL, LP, P L ,P P , tzn. część L powstała po pierwszym kroku rozpada się na części L i P, co daje w rezultacie L L i LP. Podobnie dla części P. Na rysunku 2.10 przedstawiono trzy pierwsze kroki konstrukcji. A d resy dla zbioru C antora Rysunek 2.10: Adresy dla zbioru Cantora W rezultacie, jeśli zapiszemy 8 liter kolejno, np. L L P L P P P L , to możemy dokładnie odczytać, który z 28 przedziałów o długości 1/38 chcemy wybrać. Ważne jest, by pamiętać, że dany adres odczytywany jest od lewej do prawej, co oznacza, że miejsce litery w słowie ma podobne znaczenie jak miejsce cyfry w zapisie dziesiętnym. A d resy Adres o skończonej długości, jak na przykład L L P L P P od cin k ów P L , wyznacza niewielki odcinek powstały podczas konstruka ad resy cji zbioru Cantora. Im dłuższy jest adres, tym wyższy krok p u n k tów konstrukcji i tym krótszy odpowiedni odcinek. Skończone adresy nie wystarczają więc do oznaczania punktów ze zbioru Cantora, gdyż w każdym z takich odcinków, niezależnie od tego jak małym, jest ich wciąż nieskończenie wiele. Dlatego właśnie do identyfikacji punktów zbioru Cantora potrzebu­ jemy adresów o nieskończonej długości. Przytoczymy tu ­ taj dwa przykłady. Pierwszy to 1/3. Punkt ten znajduje 115 2.1. Zbiór Cantora się w lewym odcinku po pierwszym kroku, mającym adres L. Po drugim kroku konstrukcji znajduje się on w prawej części tego pierwszego, to znaczy w odcinku [2/9,1/3] o ad­ resie L P . Po rozpadnięciu się tego odcinka nasz punkt znowu znajduje się w prawym odcinku, o adresie L P P , itd. By wy­ znaczyć dokładne położenie punktu, zapiszmy ciąg adresów kolejnych przedziałów, do których punkt należy, a miano­ wicie: L, LP, L P P , L P P P , L P P P P itd. Oznacza to, że adres tego punktu możemy zapisać jako nieskończenie długi ciąg LPPP P..., albo, używając kreski do oznaczenia nie­ skończenie wielu powtórzeń, jako LP . Jako drugi przykład weźmy punkt 2/3, który po pierwszym kroku znajduje się w prawym odcinku. Przy podziale tego odcinka i przy wszy­ stkich podziałach znajdować się on będzie w lewej części. Dlatego właśnie adresem 2/3 jest P L L L ... lub po prostu PL. D rzew o adresow e Rysunek 2.11: Adresy punktów zbioru Cantora tworzą drzewo dwójkowe Spróbujmy przyjrzeć się sytuacji, do której doszliśmy D rzew o dzięki systematycznemu oznaczaniu odcinków. Na rysunku dw ójkow e dla 2,11 przedstawione jest nieskończone drzewo dwójkowe o ga­ zbioru C antora łęziach rozdwajających się w ewolucji z góry na dół. Jaki jest związek tego dwójkowego drzewa ze zbiorem Cantora? Drzewo to składa się z wierzchołków i gałęzi. Poziomy drze­ wa, związane z powstawaniem nowych gałęzi, odpowiadają kolejnym krokom konstrukcji zbioru Cantora. Relacja ta po­ woduje, że drzewo binarne jest w pewnym sensie drzewem genealogicznym. Oznacza to, że możemy porównać naszą sy­ 116 2. Klasyczne fraktale i samopodobieństwo tuację do podziału komórkowego, a drzewo mówi nam, skąd pochodzi komórka odległego pokolenia. Jest to pożyteczna własność, lecz to jeszcze nie wszystko. Co się stanie, jeśli za­ miast alfabetu {L, P } rozważymy jakiś inny i dokonamy konsekwentego podstawienia? Weźmy na przykład, 0 i 2, tzn. zastąpmy każdą literę L przez 0, a P przez 2. Otrzymamy więc ciągi typu 022020002 zamiast L P P L P L L L P . Łatwo zgadnąć, do czego dążymy. Otóż ten ciąg cyfr możemy inter­ pretować, po wstawieniu przecinka i zera na początku, jako liczbę trójkową, a mianowicie 0,022020002. Przedstawiliśmy zatem związek pomiędzy trójkową reprezentacją zbioru Cantora a systemem adresów. Jest to dodatkowy argument przemawiający za takim właśnie opisem zbioru Cantora za pomocą systemu trójkowego. Jeśli chcemy wiedzieć, gdzie znajduje się dana liczba ze zbioru Cantora — oczywiście z pewną, zadaną dokładnością — wystarczy, jeśli w jej roz­ winięciu trójkowym w miejsce 0 podstawimy L i P w miejsce 2. Otrzymany adres pozwoli nam odnaleźć miejsce w drzewie binarnym, w którym nasza liczba się znajduje. L i P to nie 0 i 1 Związek adresów L i P z liczbami trójkowymi może suge­ rować zrobienie jeszcze innego podstawienia. Co by się stało, gdybyśmy utożsamili L i P z 0 i 1, tzn. nasze ciągi z licz­ bami dwójkowymi? Takie postępowanie niesie ze sobą pewne niebezpieczeństwa. Przeanalizujmy te niebezpieczeństwa na przykładzie liczby 1/3. Adres odpowiadający jej to L P , co odpowiadałoby 0, l i w systemie dwójkowym. Ta liczba ma jeszcze inne przedstawienie, mianowicie 0,1. Jeśli jednak przetłumaczymy to na adresy, odpowiada ona ciągowi PL, tzn. adresowi punktu zbioru Cantora 2/3. W ten sposób do­ prowadziliśmy do sprzeczności. Oznacza to, że właśnie liczby trójkowe są w naturalny sposób odpowiednie do opisu zbioru Cantora i mimo że wykorzystujemy jedynie dwie cyfry, nie możemy sprowadzić tej postaci do naturalnej reprezentacji w systemie dwójkowym. Liczebność zbioru Cantora Z naszych rozw ażań w ynika, że liczebność zbioru C an tora jes t taka sam a, ja k liczebność odcinka jedn ostko w ego [0 ,1 ]. Pokażem y, że każdem u p un ktow i odcinka o d p o w iad a pew ien p u n kt zbioru C an­ to ra . • K a ż d y p u n kt odcinka ma rozw inięcie dwójkowe. 2 .1 . Z /b io r Cantora llY • K ażde rozwinięcie dw ójkow e odpow iada ścieżce po drzew ie binar­ nym dla liczb dw ójkow ych. • K ażda taka ścieżka odpow iada ścieżce po drzew ie trójkowym dla zbioru C antora. • Każda ścieżka w drzew ie tró jko w ym zbioru C antora odp ow iad a w sposób jed n o zn aczn y punktow i zbioru C antora poprzez adresy w rozwinięciu tró jko w ym . W yn ika z tego, że istnieje odpow iedniość pom iędzy liczbam i z o d ­ cinka jednostkow ego a pu n ktam i zbioru C an to ra. R óżnym liczbom odpow iadają różne punkty. D lateg o liczebność zbioru C antora jes t co najm niej taka ja k zbioru liczb na odcinku. Z fa k tu , że zbiór C antora zaw iera się w odcinku, w ynika, iż je g o liczebność nie m oże przewyższać liczebności odcinka. O znacza to, że ich liczebności są takie same. Zbiór Cantora jest naprawdę bardzo złożony, lecz jest on S am opodobieńrównież samopodobny. Weźmy na przykład tę część C, która stw o zawiera się w odcinku [0,1/3]. Możemy traktować tę część jako pomniejszoną wersję całego zbioru. Jak to możemy opisać? Weźmiemy pod uwagę definicję zbioru Cantora jako zbioru punktów odcinka [0,1], nie mających w swoim roz­ winięciu trójkowym cyfry 1. Dla każdego punktu ze zbioru Cantora postaci £ — Oii X 3 -f- Ot-2 X 3 + G!3 X 3 ^ ~b OLĄ X 3 ^ “h -*• j (gdzie cti £ {0, 2}) możemy znaleźć odpowiadający mu punkt ze zbioru [0,1/3] wykonując dzielenie przez 3, tzn. ~ —0 x 3 o “b Oc\ X 3 -|- OL2 X 3 ~b x 3 ^ ~b ... I rzeczywiście, jeśli na przykład weźmiemy x — 0,200220... i pomnożymy przez 1/3 = 0,1, to tylko przesuwamy przeci­ nek o jedno miejsce w lewo (tzn. otrzymamy liczbę 0,0200220..., która jest znowu w C ). Wynika z tego, że część zbioru Cantora zawarta w odcinku [0,1/3] jest dokładną ko­ pią całego zbioru pomniejszoną o czynnik 1/3 (zob. rysu­ nek 2.12). Dla części zbioru C, zawartej w odcinku [2/3,1], możemy powtórzyć podobne rozumowanie (musimy jedy­ nie dołączyć dodatkowo 2/3 = 0,2). W podobny sposób każdy odcinek, który powstał podczas geometrycznej kon­ strukcji zbioru Cantora, zawiera cały zbiór Cantora pomniej- 118 2. Klasyczne fr akt ale i samopodobieństwo S am op od ob ień stw o zbioru C antora Rysunek 2.12: Zbiór Cantora jest złożony z dwóch dokładnych kopii całości, pomniejszonych o czynnik 1/3 szony w skali l / 3 fc, dla odpowiedniego k. Możemy zatem rozważać zbiór Cantora jako rodzinę dowolnie małych części, z których każda jest pomniejszonym całym zbiorem. Tę właśnie własność zbioru Cantora określamy jako samopodo­ bieństwo. Intuicyjne rozumienie samopodobieństwa pozwala nam zauważyć, że w tym przypadku samopodobieństwo jest doskonałe i zachodzi dla nieskończenie wielu poziomów. Zwracamy uwagę, że w naszych rozważaniach dotyczących samopodobieństwa konsekwentnie unikaliśmy geometryczne­ go modelu zbioru Cantora. Używaliśmy zamiast tego jego reprezentacji liczbowej. Zauważmy, że własności zbioru Cantora związane ze ska­ lowaniem odpowiadają jego następującej własności niezmienniczości. Weźmy dowolny punkt ze zbioru Cantora i pom­ nóżmy go przez 1/3. Otrzymamy punkt, który znowu znaj­ duje się w zbiorze Cantora. Tak samo, jeśli najpierw po­ mnożymy przez 1/3, a następnie dodamy 2/3. Wynika to prosto z trójkowej charakterystyki i obserwacja ta będzie wykorzystywana wielokrotnie w rozdziale 5. Zanim powrócimy do naszego wstępu do klasycznych fraktali i zajmiemy się następnymi przykładami, rzućmy okiem na jeszcze jedną własność zbioru Cantora, która pozwala na jego ważną interpretację dynamiczną i zaskakujący związek z chaosem. Przyjrzyjmy się matematycznemu układowi sprzężenia Zbiór C antora jako zbiór zwrotnego zdefiniowanemu jak następuje. Jeśli x jest liczbą p u n k tów — wejściową, to liczba na wyjściu jest wyznaczona przez na­ w ięźn iów stępujące równanie warunkowe: J 3x, \ -3® + 3, jeśli x < 0,5, jeśli x > 0,5. Oznacza to, że na wyjściu dostaniemy 3 x , —3x + 3, jeżeli x > 0,5. .. (J jeżeli x < 0,5,a liy 2 . 1 . Z jO io t k a n t o r a Dla punktu początkowego generuje ciąg xq układ sprzężenia zwrotnego Powstaje ciekawe pytanie: jakie jest graniczne zachowanie takich ciągów? Dla wielu punktów początkowych xo bardzo łatwo jest znaleźć odpowiedź. Weźmy na przykład xq < 0. Dla tego punktu początkowego otrzymamy x \ = 3xo oraz x\ < 0. Wnioskujemy indukcyjnie, że wszystkie liczby x z tego ciągu są ujemne oraz że ~ 3 xq. Ciąg ten maleje bez ograniczeń, dąży w granicy do minus nieskończoności, —oo. Ciąg o tąkim zachowaniu granicznym nazwiemy ciągiem uciekającym, a punkt xo — żartobliwie — punktem-uciekinierem. Rozważmy teraz punkt xo > 1. Otrzymamy x \ = —3xo~ —3 < 0 i widzimy, że znowu ciąg ucieka do —oo. Nie wszyst­ kie punkty są jednak punktami-uciekinierami. Na przykład dla xq = 0 wszystkie punkty ciągu są zerami. Oznacza to, że dowolny punkt #o, jeśli raz trafi do zera, to tam już zostanie na zawsze, a zatem nie będzie punktem-uciekinierem. Ta­ kie punkty będziemy nazywali punktami-więzniami. Na ra­ zie wiemy, że wszystkie punkty-uciekinierzy muszą zawierać się w odcinku [0,1]. Nasuwa się interesujące pytanie: które punkty odcinka jednostkowego uciekną, a które pozostaną? Przyjrzyjmy się kilku przykładom. Xo XX X2 0 1/3 1/9 1/2 1/5 0 1 1/3 3/2 3/5 0 0 1 -3 /2 6/5 Xą 0 0 0 -9 /2 -3 /5 0 0 0 -27/2 -9 /5 W/U więzień więzień więzień uciekinier uciekinier Jasne jest, że cały (otwarty) odcinek (1/3,2/3) ucieknie, ponieważ jeśli 1/3 < xq < 2/3, to mamy x \ > 1 oraz x<i < 0. Jednocześnie każdy punkt, który w pewnym momencie znaj­ dzie się w tym przedziale, również ucieknie. Rysunek 2.13 pokazuje takie punkty i ilustruje kantorowską konstrukcję zbioru punktów, które pozostaną. 120 2. Klasyczne fraktale i samopodobieństwo O dcinki— uciekin ierzy Rysunek 2.13: Mechanizm uciekania dla punktów S tw ierd zen ie. Zbiór więźniów W dla układu sprzężenia zwrotnego wyznaczonego równaniem ( 2.3) tworzy zbiór Can­ to m , a punkty przedziału [0,1], leżące poza zbiorem Cantora, to zbiór punktów-uciekinierów U. Jest to godny odnotowania rezultat, który pokazuje, że ana­ liza dynamiki układów sprzężenia zwrotnego może dostar­ czyć ciekawej interpretacji zbioru Cantora. Tego rodzaju bliskie związki pomiędzy chaosem a fraktalami będą miały swoją kontynuację w rozdziale 12. 2.2. Trójkąt i d yw an Sierpińskiego Następny klasyczny fraktal, którym będziemy się zajmowali, jest o czterdzieści lat młodszy od zbioru Cantora. Wprowa­ dził go wielki polski m atem atyk Wacław Sierpiński7 (18821969) w roku 1916. Sierpiński był profesorem we Lwowie i w Warszawie. Był jednym z najwybitniejszych i najbardziej wpływowych ma­ tematyków polskich swoich czasów i zyskał uznanie na całym świecie. Nawet jeden z kraterów Księżyca nosi jego imię. Podstawa geometrycznej konstrukcji trójkąta Sierpińskie­ go jest następująca. Zaczynamy od trójkąta na płaszczyźnie, a następnie wykonujemy wielokrotnie operację usuwania częś­ ci trójkąta (przez trójkąt rozumiemy tu taj „wypełniony” trójkąt, zaznaczyliśmy jego punkty na czarno). Wybierzmy środki jego trzech boków. Punkty te razem z wierzchołkami 7 W . Sierpiński, C. R . Acad. P aris 160, 302 (1915), oraz W. Sier­ piński, Sur une courbe cantorienne qui contient une image biunivoquet de toute courbe donnée, C .R . Acad. Paris 162, 629-632 (1916). 121 2.2. Trójkąt i dywan Sierpińskiego W acław Sierpiński Rysunek 2.14: Wacław Sierpiński, 1882-1969 początkowego trójkąta wyznaczają cztery mniejsze trójkąty, z których usuwamy środkowy. To zamyka podstawowy krok konstrukcji. Innymi słowy po pierwszym kroku mamy trzy przystające trójkąty, których boki są równe połowie boku początkowego trójkąta. Stykają się one w trzech punktach, z których każdy jest wspólnym wierzchołkiem dwóch przy­ ległych trójkątów. Następnie powtórzmy naszą procedurę dla trzech pozostałych trójkątów i tak dalej i dalej, tak długo, jak potrzeba. Oznacza to, że zaczynamy od jednego trójkąta, a następnie powstaje 3,9,27,81, 243,... trójkątów, z których każdy jest dokładnie pomniejszoną wersją trójką­ tów z poprzedniego kroku. Na rysunku 2.15 pokazano kilka kroków konstrukcji. Trójkąt Sierpińskiego8 jest zbiorem punktów płaszczyzny, które pozostaną po wykonaniu nieskończenie wielu kroków konstrukcji. Możemy od razu zauważyć punkty, które na pewno należą do trójkąta Sierpińskiego — boki wszystkich trójkątów, powstałych w jego konstrukcji. Samopodobieństwo występuje tu taj w sposób oczywisty, choć nie jesteśmy jeszcze przygotowani, by szczegółowo je omawiać. Jest ono wbudowane w proces konstrukcji. Otóż każda z trzech części w fc-tym kroku jest dwukrotnie po8 Trójkąt Sierpińskiego bywa również nazywany „uszczelką Sierpiń­ skiego” (Sierpiński gasket). 2. Klasyczne fraktale i samopodobieństwo 122 Trójkąt Sierpińskiego R ysunek 2.15: Podstawowe kroki konstrukcji trójkąta Sier­ pińskiego W zór S ierpińskiego R ysunek 2.16: Studium Eschera przeprowadzone dla wzorów, opartych na trójkącie Sierpińskiego, wplecionych w dwunastowieczny pulpit katedry w Ravello, projektu Nicole’a di Bartolomea z Foggii, akwarela i tusz, 278 na 201 mm. ©1923 M. C. Escher/ Cordon Art-Baarn-Holland mniejszoną wersją całej figury z poprzedniego kroku. Sa­ mopodobieństwo jednak jest własnością zbioru otrzymanego jako granica geometrycznej konstrukcji, i dopiero w rozdziale 2.2. Trójkąt i dywan Sierpińskiego 5 będziemy dysponowali odpowiednim aparatem matem a­ tycznym do analizy tego zjawiska. W rozdziale 8 zajmiemy się reprezentacją liczbową trójkąta Sierpińskiego, z której będzie można wyprowadzić samopodobieństwo tak prosto, jak w przypadku zbioru Cantora. Podobnie jak w przypadku zbioru Cantora, możemy Adresy dla wprowadzić adresy dla trójkątów (lub punktów) występu­ trójk ąta jących w konstrukcji trójkąta Sierpińskiego. W tym przy­ Sierpińskiego padku musimy użyć trzech symboli do konstrukcji systemu adresów. Jeżeli użyjemy na przykład symboli L (lewy), P (prawy), G (górny), otrzymamy ciągi znaków w rodzaju LPGG czy G P L L L G L P . Żeby zidentyfikować trójkąty w od­ powiednim kroku konstrukcji trójkąta Sierpińskiego, napisy te należy czytać od lewej do prawej. Na przykład L P G G od­ powiada trójkątowi czwartej generacji, otrzymanemu w na­ stępujący sposób. Wybieramy lewy trójkąt pierwszej ge­ neracji, następnie prawy, jaki powstał w nim w następnym kroku, w nim z kolei górny, a w nim znów górny, zob. ry­ sunek 2.17. Adresy dla trójkąta Sierpińskiego będą analizo­ wane w rozdziale 6. Stanowią one klucz do rozwikłania gry w chaos wprowadzonej w rozdziale 1. L PG G Rysunek 2.17: LPGG oznacza mały trójkącik w trójkącie Sier­ pińskiego, który możemy odszukać idąc drogą: lewy, prawy, górny, górny trójkąt Nie powinniśmy jednak mylić naszego sposobu adreso­ wania o trzech symbolach z liczbami trójkowymi. Istnieje kilka różnych sposobów na przedstawienie sym­ bolicznego adresowania przy użyciu drzewa. Przedstawiona konstrukcja oparta jest na trójkątach, które są usuwane pod­ czas tworzenia trójkąta Sierpińskiego. Węzły drzewa odpo- 124 2, Klasyczne fraktale i samopodobieństwo P a jęcza ste drzew o Rysunek 2.18: Drzewo reprezentuje nie tylko strukturę trójkąta Sierpińskiego, ale również jego geometrię D yw an Sierpińsk iego Rysunek 2.19: Kilka kroków konstrukcji dywanu Sierpińskiego 125 2.3. Trójkąt Pascala wiadają środkom tych trójkątów. Gałęzie dorastają w każ­ dej kolejnej generacji, jak na rysunku 2.18. Zauważmy, że niektóre z gałęzi zetkną się, gdy przejdziemy z naszym proce­ sem do granicy. Takim przykładem są gałęzie odpowiadające ciągom LGGG... i GLLL..., które stykają się w punkcie A . Sierpiński dodał jeszcze jeden obiekt do galerii klasycz­ D yw an nych fraktali, mianowicie dywan Sierpińskiego. Na pierwszy Sierpińskiego rzut oka wygląda on jak wariacja znanego tem atu. Przyj­ rzyjmy się rysunkowi 2.19. Zaczynamy od kwadratu na płaszczyźnie. Dzielimy go na dziewięć przystających kwa­ dratów, z których usuwamy środkowy i tak dalej. Figurę jaką otrzymamy w wyniku nieskończonego procesu można uważać jako uogólnienie zbioru Cantora. Przyjrzyjmy się przecięciu prostej równoległej do podstawy początkowego kwadratu i przechodzącej przez jego środek z dywanem. Otrzymamy dokładnie konstrukcję zbioru Cantora. W paragrafie 2.7 zobaczymy, że choć złożoność dywanu i trójkąta Sierpińskiego na pierwszy rzut oka może wydawać się taka sama, to okazuje się, że w rzeczywistości istnieje pomiędzy nimi ogromna różnica. 2.3. T rójkąt P a sc a la Blaise Pascal (1623-1662) był wielkim matematykiem i uczo­ nym francuskim. W wieku zaledwie dwudziestu lat skon­ struował około dziesięciu urządzeń mechanicznych służących do dodawania liczb całkowitych, prekursorów dzisiejszych komputerów. To, co dziś nosi nazwę trójkąta Pascala, nie jest jednak jego autorstwa. Pierwsza wzmianka o nim uka­ zała się w druku w Europie w roku 1527. Chińską wersję trój­ kąta Pascala opublikowano już w roku 1303 (zob. rysunek 2.23). Pascal używał tego trójkąta do obliczeń związanych z grami hazardowymi, które omawiał z Pierrem de Fermatem w roku 1654. Badania te stały się później podstawą teorii prawdopodobieństwa. T ró jk ą t Pascala je s t to tró jk ą tn a m acierz liczbowa złożona ze współ­ czynników rozwinięcia w ielom ian u (x + l ) n , gdzie n oznacza num er wiersza, poczynając od n = 0. W ie rs z n ma n 4- 1 elem entów . Na przykład dla n = 3 w ielom ian ma postać (x + l ) 3 — x 3 + 3 x 2 + 3 x + 1. Trójkąt Pascala 126 2. Klasyczne fraktale i samopodobieństwo B laise P ascal R ysunek 2.20: Blaise Pascal, 1623-1662 Czyli trze ci w iersz to 1 , 3 , 3 , 1 (zo b . rysunek 2 .2 1 ). Istnieje kilka sposobów na obliczan ie w spółczynników . P ierw ­ szy korzysta z zasady indukcji; o b liczając w artości w danym w ier­ szu, ko rzystam y z e le m e n tó w poprzedniego w iersza. Załóżm y, że w spółczynniki a o , ... ,a n w n -ty m wierszu są znane: (x -f- l ) n = anx n H + ciix + ao, i że p o szu ku jem y w sp ółczynn ików &o, ••• ,& n + i następnego wiersza (x + l) 71-*"1 = bn.j_ixn+1 + **• H- b\x + 6q- R ysunek 2.21: Osiem pierwszych wierszy trójkąta Pascala za­ nurzonego w sieci sześciokątnej 127 2.3. Trójkąt Pascala Są one bezpośrednio zw ią za n e ze zn anym i w spółczynnikam i ao, ■**, dn : ( x + l ) n+1 = (ar + l ) n ( x -b 1) = ( d n X 71 ~b * * ■ = a n £ n+1 + d n - i x n -b * ■* + d \ x 2 + P a nx n H — QnX d \ x -b d ę j ) { x -b 1 ) clqx b a\x + a0 -b [d?i ~b ^ n _ i)a r ~b - b * * ■ -b ( o i + d o ) x + a o * Po porów naniu w spółczynników o trzy m u je m y ostatecznie ¿>0 = û 0i ^A ^A ~b dfc —\ dla k 1 5 . . . ? Tl) ^n+1 — Przepis na obliczanie elem en tó w w wierszu je s t w ięc bardzo prosty. Pierwsza i ostatnia liczba są ta k ie sam e ja k w wierszu poprzedzającym i zawsze są one równe 1. Pozostałe elem enty są sum am i dw óch ele­ m entów znajdujących się dokładnie nad nim i. P rzy ta k im ro zu m o ­ waniu najlepszym graficznym przedstaw ieniem tró jk ą ta Pascala je s t tró jk ą t ta k i, ja k na rysunku 2 .2 1 , z w ierzchołkiem położonym cen­ tralnie. Do przeprow adzania obliczeń niewielu w ierszy tró jk ą ta Pascala całkiem w ystarczająca je s t m etoda indukcyjna. Jednakże jeśli szu­ kam y elem entu wiersza oznaczonego dużą liczbą, przydałaby się m e­ to d a bezpośrednia. M e to d a taka istnieje i je s t o p arta na tw ierd zen iu o współczynnikach d w u m ian u , które m ożem y zapisać w postaci (*+»>” = Ê « ï é * r " - v , A—0 v } Osiem wierszy trójkąta Pascala Rysunek 2.22: Kolorowe kodowanie w yrazów dla trójkąta P a­ scala o ośm iu wierszach: białe — parzyste i czarne — nieparzyste 128 2. Klasyczne fraktale i samopodobieństwo gdzie n! oznacza „n silnia” i je s t dane w zorem n! = 1 • 2 *• ■(n —1) • n dla liczb n atu raln ych n , oraz 0! = 1. Jeśli p od staw im y y = 1, to d o stan iem y n a ty ch m ias t k- ty w spółczynnik bk ( k zm ienia się od 0 do Tl) dla n -te g o wiersza tró j ka ta Pascala ze w zoru bk = ni k\(n — k)\ n(n — 1) • ■• (n — k + 1) 1 • 2 *• *k Na przykład w spółczynnik k = 3 w rzędzie n — 7 wynosi *1.3 = ^7 * -6 =' 5 3 5« (zob. czw arty ele m en t w o s ta tn im wierszu na rysunku 2 .2 1 .). N astęp n y zw ią ze k liczbow y je s t ła tw y do w yprow adzenia: suma w szystkich w p ó łczyn n ikó w w wierszu n w tró jk ą c ie Pascala wynosi Chiński trójkąt arytmetyczny Rysunek 2.23: Już w 1303 r. trójkąt pojaw ił się w Chinach na pierwszej stronie książki Chu Shih-C hiehna Ssu Yuan Yii Chien. W yzn aczał on w spółczynniki dw um ianow e do ósmej potęgi 2.3. Trójkąt Pascala 129 2 n , co m ożem y uzyskać p o d staw iając x = y — 1 we w zorze na roz­ winięcie dw u m ianu. Po to, by znaleźć prawo tworzące trójkąt Pascala, za­ nurzmy jego osiem początkowych rzędów w sieć sześciokątów (zob. rysunek 2.21). Pokolorujmy komórki sieci zgodnie z następującą przykładową regułą. Jeśli w komórce znajduje się liczba nieparzysta, to kolorujemy komórkę na czarno, jeśli zaś parzysta, to pozostawiamy ją białą. Na rysunku 2.22 po­ kazano wynik takiego kolorowania. Warto powtórzyć ten eksperyment dla większej liczby rzędów (zob. rysunek 2.25). O statnia figura z tej serii przypomina nam trójkąt Sierpińskiego. Czy jest to zgodne z prawdą? Musimy być ostrożni z odpowiedzią na to pytanie i zajmiemy się tym po raz pierwszy w rozdziale 3. Wzory, jakie powstają przy braniu pod uwagę własności liczbowych, mogą być różnorodne. Jest ich nieskończenie wiele. Prze­ cież parzyste/nieparzyste oznacza podzielne przez 2 lub nie. Jak będą wyglądały wzory, jeśli przy kolorowaniu będziemy Trójkąt P ascala w Jap on ii Rysunek 2.24: Pojawił się w 1781 r, w Sampo Doshimon Murai Chuzena 130 2. Klasyczne fraktale i samopodobieństwo A ,4.4 AA A A AAAA A .' : A . A * ' . A. A Ą ty A Ą / t ty t Ą M A 6 m °c P A B A— A— ¿ iiM AAAAAAAA w Ł A sr n A AA AAAA AA jO p ę w y S k m ^ijinO unÓ oSm w5mdmJmomQmOm% #tXXXXXXX^XXX^ JiOfiOOOOOOOOOOPOOiOŁ J tS ^ W t S i^ S S tS i ^ ^ K k AAAAAAAAAAAAAAAA •wfcOudoOocóuOuOuoOT S W I M S iiM i JwM^I#iQQPOQQQQQQQQQQQQOQęMXXX2!MMMMPBML A$6A55A5$AS5$55$$$S$55S9% S5A$ dA $6A 5S & muĘÓi^mówuĘOmjiiuOOOduOOooOOw JiPQQQQQQQQQwQQQfi0QQQQQQQQQQQęQQfi0QęwQQOQQQQwQŁ JWSQQPQOQQQQQQQQiMi0QQQOQ0QQQQQQQiBiQQQQQQQQO0QQQQ!ML i08QQQQQpi2QQQQQQfiQfiQQQQQpQ^ Jy9Q4&QQQQQQQQQQQiw&lQQQQQQQWQQQS0M^QQQQQQQQQQ&Q$L ^fcDQC^^5QQQÓQQQOQC^^DO£^k5QQQOQOOQQC^^j0^yfeQQQQQQQQQQ^^^30^y^ JMiQQiMi0QQQMQQQQQiMiQQiMiSQQQQQQQQQiMS0QiMi0QQOQQQQQQiMi0QiŁ łS S S ^ tS S S ^ S S S ^ B S S ^ B S S ^ tS S S ^ IS S S ^ tS S k AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA R ysunek 2.25: Kolorowanie odpowiednio parzystych i nieparzy­ stych elementów trójkąta Pascala o 16, 32, 64 wierszach 131 2.3. Trójkąt Pascala Bo q jS 6b o0oV#Vo0oV#Vo°o § I$ $ !$ 9 9 q ^ o # o n # j^ n o # aa rW tifflftSSSSftSiSiiS^^ x W x y ii9 9 ^ pm afoooofoooo A^QQQiift®jSi6j6iSS6S6SSSiiiSiftSiSUSft®SU^9$Q^ T S I^y A otófeŚfc ^ S ra m m .ouuwSSSsgiM x x x o s B B .0. ^. jg 0^ . . ¿&uQQWWKSmXjMBHuuKOMBKXxlaCŁ ^O TM O ^O T raara iw a s M^^O oaK O pD OO ^^^^^^O O ^OOOTóCpiO D DT ni xxxxxli«lSQQQQyiligB&i ^ ^ x3dSj^^8!^j^Sj!^j^Sj^5^SSSS88^S8^Sj^5j^Sj!^j!S!Sj!&u ^OOPOO^OOPOOOOOWOOOOOiiSiiifiiOOOOOSOOOOOPOOSOiŁ^-OOO^ ^OOOOOOOO^Oc^OOOOSę^OOOOOOOO^OOOOOOwOi^OOOOę^OOÓ^OOOOOÓO^'^^ MAMAM M M M M M M M M M M M M OAMAM M M M M Rysunek 2.26: K olorowanie trójkąta P ascala. Czarne komórki oznaczają podzielność przez 3 (rysunek lew y górny), przez 5 (ry­ sunek prawy górny) i przez 9 (u dołu) 132 2. Klasyczne fr akt ale i samopodobieństwo czarnym kolorem oznaczali podzielność przez 3, 5, 7, 9 itd., a pola „niepodzielne” przez odpowiednie liczby pozostawimy białe? Rysunek 2.26 daje nam pewne wyobrażenie o tym, co może w ten sposób powstać. Każdy z tych wzorów ma pewne piękne regularności i ce­ chy samopodobieństwa, które ilustrują podstawowe własnoś­ ci teorioliczbowe trójkąta Pascala. Wiele z tych własności jest znanych — były badane od wieków. W książce B. Bondarenki9 możemy znaleźć bibliografię prac z ostatnich trzystu lat, gdzie 406 pozycji obejmuje prace zarówno zawodowych matematyków jak też am atorów .10 2.4. K rzyw a K och a Helge von Koch był szwedzkim matematykiem, który w roku 1904 wprowadził krzywą nazywaną obecnie krzywą Kocha.11 Po połączeniu trzech odpowiednio obróconych egzemplarzy krzywej Kocha otrzymamy figurę zwaną z oczywistych po­ wodów płatkiem śniegu (zob. rysunki 2.28 i 2.29). Niewiele wiemy o Kochu. Jego wkład do matematyki nie był tej miary co Cantora, Peana, Hilberta, Sierpińskiego czy Hausdorffa. Jednak w rozdziale o klasycznych fraktalach jego konstrukcja powinna się znaleźć chociażby dlatego, że wiedzie do wielu interesujących uogólnień i na pewno była szalenie inspirująca dla Mandelbrota. Krzywa Kocha jest pojęciem równie trudnym do zrozumienia, jak zbiór Can­ tora czy trójkąt Sierpińskiego. Problemy, jakie stawia przed naszą wyobraźnią, są jednak innej natury. Po pierwsze — na co wskazuje jej nazwa — jest to krzywa, chociaż nie jest to oczywiste z konstrukcji. Po drugie, krzywa ta nie zawiera żadnych prostych linii czy odcinków. Krzywa ta ma wiele ze złożoności, jaką możemy dostrzec w przebiegu autentycz­ nych linii brzegowych — zagięcie w zagięciu zagięcia, i tak dalej. 9 B. Bondarenko, Generalized Triangles and Pyramids of Pascal, Their Fractals, Graphs and Applications, Fan, Tashkent 1990. 10 W rozdziale 9 pokażemy, jak wzory fraktalne i cechy samopodo­ bieństwa można opisać metodami, które będą tematem rozdziału 5. 11 H. von Koch, Sur une courbe continue sans tangente, obte­ nue par une construction géométrique élémentaire, A rkiv fö r Matem atik 1, 681-704 (1904). Inny jego artykuł to: H. von Koch, Une méthode géométrique élémentaire pour l’étude de certaines questions de la théorie des courbes planes, A cta M ath. 30, 145-174 (1906), 155 2.4. Krzywa Kocha sidérer comme positif le côté laissé à gauche quand on parcourt le segment dans le sens positif. Pour abréger, nous désignons par il cette opération au moyen de laquelle on passe d’un segment rectiligne AB à la ligne po­ lygonale ACDEB déviant de AB vers le côté positif. O ryginalna konstrukcja K ocha D Fig. r. o A 4 U F H C E P R B Fig. 2. 2. Partons maintenant d’une ligne droite déterminée A B , le sens de A vers B étant considéré comme positif (fig. 2). Par l ’opération i l , A B est remplacée par la ligne brisée AC D EB, les segments AC, CD, I)E, E B étant égaux entre eux et leur Bens positif étant respectivement celui de A vers C, de C vers D, de D vers E , de E vers B. Effectuons l ’opération il sur chacun de ces segments; la ligne ACDEB sera remplacée par la ligne brisée AFGHCIKLDMNOEPQR B composée de 16 segments égaux A V ,F G etc. Rysunek 2 .2 7 : Fragm ent oryginalnego artykułu K ocha z 1906 r. Podamy teraz prostą konstrukcję krzywej Kocha. Za- K onstrukcja cznijmy od linii prostej. Początkowy obiekt nosi nazwę ini- geom etryczn a cjatora. Podzielmy go na trzy równe części. Następnie w miejsce środkowej części wstawmy trójkąt równoboczny i usuńmy jego podstawę. To kończy podstawowy krok kon­ strukcji. Po pomniejszeniu figura ta, w czterech egzempla­ rzach, będzie służyła nam w następnych krokach. Nazywamy ją generatorem. Powtarzamy więc konstrukcję w ten sposób, że dzielimy każdy odcinek w figurze na trzy równe odcinki, zamiast środkowego wstawiamy generator itd. Na rysunku 2.30 przedstawiono kilka pierwszych kroków konstrukcji. Samopodobieństwo jest wbudowane w proces powstawania tej krzywej, tzn. każda z czterech części w k-tym kroku kon­ strukcji jest trzykrotnie pomniejszoną kopią całej krzywej z poprzedniego, (k — l)-szego kroku. W istocie zamierzeniem Kocha było skonstruowanie no- 134 2. Klasyczne fr akt ale i samopodobieństwo Rysunek 2.28: Zarys płatka śn iegu K ocha zawiera trzy przy­ sta ją ce części, z których każda jest krzyw ą K ocha, taką jak na rys. 2.30 i 2.33 P rzyk ład y naturalnych p łatk ów śn iegu Rysunek 2.29: P łatek śniegu K och a m a niew ątpliw ie pew ne ce­ chy w spólne z płatkam i śniegu w ystęp ującym i w naturze, których p rzykłady przedstaw iono na tym rysunku wego przykładu dla zilustrowania odkrycia dokonanego przez niemieckiego m atematyka Karla Weierstrassa. Odkrycie to, dokonane w roku 1872, wywołało pewien kryzys w matema­ tyce. Otóż opisał on krzywą nieróżniczkowalną, tzn. taką, która nie ma stycznej w żadnym punkcie. Możliwość róż­ niczkowania (czyli znajdowania nachylenia krzywej w danym punkcie) jest głównym narzędziem rachunku różniczkowego, który został stworzony niezależnie przez Newtona i Leibniza na 200 lat przed Weierstrassem. Pojęcie nachylenia krzywej jest zgodne z intuicją i ma związki z pojęciem stycznej (zob. rysunek 2.31). Jeśli jednak krzywa ma załamanie, to pojawia się pro­ blem. Nie możemy w żaden sposób dopasować jednoznacz­ nej stycznej. Otóż krzywa Kocha jest przykładem krzy­ wej, która w każdym punkcie ma załamanie, co prowadzi do 2.4. Krzywa Kocha K onstrukcja krzyw ej K ocha Rysunek 2.30: K olejne etap y konstrukcji krzywej K ocha. Liczba odcinków za każdym razem pow iększa się czterokrotnie S tyczn e do krzyw ych Rysunek 2.31: N a ostrej krawędzi styczn a do krzywej nie jest jednoznacznie w yznaczona tego, że nie możemy w jakikolwiek sposób znaleźć stycznej w żadnym jej punkcie. W prosty sposób możemy znaleźć takie uogólnienie dla U ogóln ion a konstrukcji Kocha, które pozwoli nam otrzymać wiele no­ konstrukcja wych stuktur samopodobnych. Podstawą tych konstrukcji K ocha jest inicjator, który może być rodziną odcinków, oraz gene­ rator, który jest łamaną złożoną z połączonych odcinków. Zaczynając od inicjatora, zastępujemy każdy odcinek gene­ ratora odpowiednio pomniejszoną kopią krzywej występu­ jącej w poprzednim kroku. Musimy starannie dopasować końce odcinków, by dokładnie pasowały do generatora. Po- 136 2 . Klasyczne fraktaie i samopodobieństwo wtarzamy to ad infinitum . W praktyce jednak zatrzymu­ jemy się, gdy tylko długość odcinka jest mniejsza od roz­ dzielczości urządzenia graficznego. To, czy konstrukcja Ko­ cha prowadzi do powstania zbieżnego ciągu figur lub nawet krzywych, czy nie, zależy od wyboru inicjatora i generatora. Na rysunku 2.32 pokazany jest przykład takiej konstrukcji. In n a konstrukcja K och a R ysunek 2.32: Inny wybór inicjatora i generatora doprowadza do innego samopodobnego fraktala D łu gość krzyw ej Powróćmy do oryginalnej krzywej Kocha i przyjrzyjmy K och a się jej długości. W każdym kroku konstrukcji otrzymamy figurę będącą krzywą. Po pierwszym kroku jest to krzywa złożona z czterech odcinków tej samej długości, po drugim jest ich 4 x 4 , następnie 4 x 4 x 4 odcinków po trzecim kroku itd. Jeżeli początkowy odcinek miał długość L, to po pierw­ szym kroku każdy odcinek jest długości L x 1/3, po drugim kroku otrzymamy L x 1/32 itd. Ponieważ w każdym kroku 2.4. Krzywa Kocha 137 konstruowana jest krzywa złożona z odcinków, łatwo jest zmierzyć jej całkowitą długość. Po pierwszym kroku jest równa 4 x L x 1/3, następnie 42 x L x 1/32 itd. Po A;-tym kroku wynosi ona L x 4fc/3 fc. Widzimy więc, że w każdym kroku długość krzywej wzrasta o czynnik 4/3. Pojawiają się następujące problemy. Po pierwsze, krzywa Kocha to obiekt otrzymany po wykonaniu nieskończenie wie­ lu kroków. Co przez to rozumiemy? Następnie, jeśli nawet moglibyśmy odpowiedzieć na zadane właśnie pytanie, to czy otrzymany obiekt będzie krzywą? Dlaczego krzywe powsta­ jące w kolejnych krokach nie m ają samoprzecięć? P orów nyw anie kolejnych kroków konstrukcji krzywej K ocha R y s u n e k 2 .3 3 : K onstrukcja krzywej K ocha, krok 5 (krzywa górna) i krok 20 (krzyw a dolna) Na rysunku 2.33 widzimy dwie krzywe, które są dla nas prawie nie do odróżnienia. Są to jednak zupełnie różne krzywe. Górna krzywa powstała w konstrukcji po wykona­ niu 5 kroków, podczas gdy druga po wykonaniu 20 kroków. Oznacza to, że zgodnie z naszymi wyliczeniami długość od­ cinków wynosi l / 3 fc, gdzie k oznacza liczbę kroków konstruk­ cji. Jakiekolwiek zmiany powstały w wyniku konstrukcji, szybko znajdują się poniżej granicy rozdzielczości wzroku, nie są więc dostrzegalne, chyba że pod mikroskopem. Dla­ tego w celach praktycznych jesteśmy zmuszeni zadowolić się krzywą powstałą w np. 10 kroku, która stwarza wystarczjąco dobre złudzenie. Oczywiście nie otrzymamy w ten sposób krzywej Kocha. Krzywa, jaką otrzymamy, będzie miała skończoną długość i jeśli odpowiednio ją powiększymy, 2. Klasyczne frakt ale i samopodobieństwo 138 to będzie zawierała fragmenty linii prostych występujących w konstrukcji. Zwracamy uwagę na fakt, że istnieje ogromna różnica między tym, co otrzymamy w jakimkolwiek poje­ dynczym kroku konstrukcji, a ostatecznym obiektem. Zaj­ miemy się bliżej tym problemem, który oczywiście poja­ wia się również przy konstrukcji innych klasycznych fraktali omawianych w następnych rozdziałach. 2.5. K rzyw e w y p ełn ia ją ce p rzestrzeń Jeżeli bierzemy pod uwagę intuicje stojące za pojęciem wy­ miaru, to linie są przykładami obiektów jednowymiarowych, a płaszczyzna — dwuwymiarowego. W roku 1890 Giuseppe Peano12 (1858-1932) i zaraz po nim w roku 1891 David H ilbert13 (1862-1943) rozważali krzywe, które znajdują się wprawdzie na płaszczyźnie, lecz które podważają nasze in­ tuicyjne rozumienie krzywej.14 Otóż rozważali oni krzywe, które wypełniają płaszczyznę, tzn. dla dowolnego obszaru płaszczyzny istnieje krzywa przebiegająca wszystkie punkty tego obszaru. Na rysunku 2.36 przedstawiono kilka pierw­ szych kroków konstrukcji krzywej Peana. S tru k tu ry w y p ełn ia ją ce p rzestrzeń w ystęp u ją w naturze W naturze struktury wypełniające przestrzeń stanowią podstawę budowy żywych organizmów. Organizm musi być zaopatrywany w życiodajne substancje, takie jak woda i tlen. W wielu przypadkach substancje przekazywane są przez uk­ ład krwionośny, który musi być tak zbudowany, by dostar­ czyć je do każdego miejsca w organizmie. Na przykład nerka zawiera trzy przeplecione ze sobą rozgałęzione systemy na­ czyń: układu tętniczego, układu żylnego i układu moczowego (zob, kolorowa wkładka). Każdy z nich ma dostęp do każdej części nerki. Geometria fraktalna dostarcza metod pozwa­ lających na uporządkowanie takich skomplikowanych struk­ tu r w sposób efektywny. Oczywiście 100 lat temu ani Peano, 12 G. Peano, Sur une courbe, qui remplit toute une aire plane, Math. A nn. 36, 157-160 (1890). 13 D. Hilbert, Uber die stetige Abbildung einer Linie auf ein Flächenstück, M ath. A nn. 38, 459-460 (1891). 14 Hilbert przedstawił swój przykład w Bremie, w trakcie dorocz­ nego spotkania Deutsche Gesellschaft fü r N aturforscher und Arzte. Na tym spotkaniu on oraz Cantor przyczynili się wydatnie do utwo­ rzenia D eutsche M athem atiker Vereinigung, niemieckiego towarzystwa matematycznego. 2.5. Krzywe wypełniające przestrzeń 139 Ueber die stetige Abbildung einer Linie auf ein Fl&chenstück*) P raca H ilb erta — stron a 1 Von D avid H dubbrt in K önigsberg i. Fr. Peano flat kürzlich in den Mathematischen Annalen**) durch eine arithmetische Betrachtung gezeigt, wie die Punkte einer Linie stetig auf die Punkte eines Flächenstückes abgebildet werden können. Die für eine solche Abbildung erforderlichen Functionen lassen sich in übersichtlicherer Weiae hemteUen, wenn man sich der folgenden geo­ metrischen Anschauung bedient. Die abtti bildende Linie — etwa eine Gerade von der Länge 1 — theilen wir zunächst in 4 gleiche Theile 1,5?, 3, 4 und das Flächenstück, welches wir in der Gestalt eines Quadrates von der Seitenlange 1 «¡nehmen, theilen wir durch zwei zu einander senkrechte Gerade in 4 gleiche Quadrate 1, 2, 3, 4 (Fig. 1). Zweitens theilen wir jede der Theilstrecken 1 ,2 , 3 , 4 wiederum in 4 gleiche Theile, so dass wir auf der Geraden die 16 Theilstrecken 1,2, 3 , . . 1 6 erhalten; gleichzeitig werde jedes der 4 Quadrate 1,2, 3, 4 in 4 gleiche Quadrate getbeilt und den so entstehenden 16 Quadraten / 1 « 1 j * * * «/-*•* »*» »*M> «. ■* » * ' 1 n * i. Hg. n». s. werden dann die Zahlen 1, 2 . . . 16 eingeschrieben, wobei jedoch die Reihenfolge der Quadrate so zu wählen ist, dass jedes folgende Quadrat sieb mit einer Seite an das vorhergehende anlehnt (Fig. 2). Denken wir uns dieses Verfahren fortgesetzt — Fig. 3 veranschaulicht den m) Vergl. ein« ttitttieünng über denselben Gegenstand in den V erhandlung« der Gesellschaft deuteober Naturforscher and A ente. Bremen 1S90. *•) Bd. U , S. 167. SO* R y s u n e k 2 .3 4 : P ierw sza strona oryginalnej dw ustronicow ej pracy H ilberta z pierw szym graficznym przedstaw ieniem jego krzywej fraktalnej w ypełniającej płaszczyznę ani Hilbert nie zajmowali się tym problemem. Dopiero teraz, po ukazaniu się prac Mandelbrota, wszechobecność fraktali w naturze zdaje się oczywista. Krzywą Peana otrzymujemy stosując pewną wersję kon­ K onstrukcja strukcji Kocha. Zaczynamy od pojedynczego odcinka, ini­ z in icjatorem cjatora, a następnie zastępujemy ten odcinek generatorem, i gen eratorem tak jak to pokazano na rysunku 2.36. Generator ma dwa punkty, w których sam siebie przecina, a właściwie tylko do- 140 P raca H ilb erta — stro n a 2 2. Klasyczne fr akt ale i samopodobieństwo 460 D a t id H tlbkkt . S t e t i g e A b b i l d u n g e i n e r L in i e a u f e i a F l ä c b e n s t ü c k . nächsten Schritt — , so ist leicht ersichtlich, wie man einem jeden gegebenen Punkte der Geraden einen einzigen bestimmten Punkt des Quadrates zuordnen kann, Man hat nur nöthig, diejenigen Theilstrecken der Geraden zu bestimmen, auf welche der gegebene Punkt fallt. Die mit den nämlichen Zahlen bezeichneten Quadrate liegen nothwendig in einander und schliessen in der Grenze einen bestimmten Punkt des Flächenstückes ein. Dies sei der dem gegebenen Punkte zugeordnete Punkt. Die so gefundene Abbildung ist eindeutig und stetig und umgekehrt einem jeden Punkte des Quadrates entsprechen ein, zwei oder vier Punkte der Linie. £s erscheint Überdies bemerkenswert!), dass durch geeignete Abänderung der Theillinien in dem Quadrate sich leicht eine eindeutige und stetige Abbildung finden lässt, deren Um­ kehrung eine nirgends mehr als dreideutige ist Die oben gefundenen abbildenden Functionen sind zugleich ein* fache Beispiele für überall stetige und nirgends differentiirbare Func­ tionen. Die mechanische Bedeutung der erörterten Abbildung ist folgende: Es kann sich ein Punkt stetig derart bewegen, dass er während einer endlichen Zeit sämmtliche Punkte eines Flächenstückes trifft. Auch kann man — ebenfalls durch geeignete Abänderung der Theillinien im Quadrate — zugleich bewirken, dass in unendlich vielen überall dichtveriheiUen Punkten des Quadrates eine bestimmte BetvegungsricMung sowohl nach vorwärts wie nach rückwärts exisUrt. Was die analytische Darstellung der abbildenden Functionen anbetrifft, so folgt aus ihrer Stetigkeit nach einem allgemeinen von K. W e ie r s tr a s s bewiesenen Satze*) sofort, dass diese Functionen sich in unendliche nach ganzen rationalen Functionen fortschreitende Bei hen entwickeln lassen, welche im ganzen Intervall absolut und gleichmässig convergiren, Königsberg i. Pr., 4. März 1891. *) Vergl. Sitzungsberichte der Akademie der Wiese nachaften au Berlin, S. Juli 1886. R ysunek 2.35: Druga strona pracy Hilberta tyka siebie samego w dwóch miejscach. Krzywa stanowiąca generator mieści się dokładnie w kwadracie, który jest zazna­ czony linią przerywaną. Krzywa Peana przebiegnie wszyst­ kie punkty tego właśnie kwadratu. Każdy odcinek, znajdujący się na krzywej z kroku pierw­ szego, jest zastępowany odpowiednio pomniejszonym gene­ ratorem. Czynnikiem pomniejszenia jest oczywiście 3. W ten sposób otrzymujemy drugi krok konstrukcji. Krzywa po­ wstała w tym kroku ma dokładnie 32 punkty, w których sama się ze sobą przecina. Następnie powtarzamy nasz pro- 141 2.5. Krzywe wypełniające przestrzeń K onstrukcja krzywej P ean a j J c r krok 1 Rysunek 2.36: Konstrukcja krzywej wypełniającej przestrzeń z inicjatorem i generatorem. W każdym kroku jeden odcinek za­ stępowany jest 9 trzykrotnie krótszymi odcinkami. Na prawym dolnym rysunku punkty przecięcia odcinków są lekko zaokrąglone, byśmy mogli lepiej zrozumieć, jak przeprowadzana jest konstruk­ cja ces, tzn. w każdym kroku konstrukcji pomniejszamy odcinki trzykrotnie. W k-tym kroku otrzymujemy w ten sposób odcinki o długości l / 3 fe, co stanowi ciąg gwałtownie ma­ lejący. Ponieważ każdy odcinek zastępowany jest 9 odcin­ kami o długości 1/3 poprzedniego, możemy łatwo policzyć długość krzywej w każdym kroku. Jeżeli założymy, że długość odcinka stanowiącego inicjator była równa 1, to otrzymamy w kroku 1: 9 x 1/3 = 3, a w kroku 2: 9 x 9 x 1/32 = 9. Ogólnie możemy zauważyć, że na każdym etapie konstrukcji otrzymana krzywa zwiększa długość o czynnik 3. W kroku k długość ta wynosi więc 3fc. Konstrukcja krzywej Peana, równie prosta lub —jeśli wo­ Sam opodobieńlimy — równie trudna jak konstrukcja krzywej Kocha, niesie stw o ze sobą pewne trudności, których nie widzimy w konstrukcji Kocha. Weźmy na przykład intuicyjne pojęcie samopodobieństwa. W przypadku konstrukcji krzywej Kocha wydaje się, że możemy stwierdzić podobieństwo pomiędzy obrazem otrzymanym po nieskończenie wielu krokach (w praktyce chodzi o krzywą, jaką możemy zaobserwować na monito­ rze po wielu krokach) a figurami powstającymi w kolejnych krokach. Jeżeli przyjrzymy się krzywej Peana w taki sam in- 142 2. Klasyczne fraktale i samopodobieństwo tuicyjny sposób, to w każdym kolejnym kroku otrzymujemy figurę podobną do figur powstałych w innych krokach, lecz fi­ gura końcowa (tzn. figura, jaką otrzymamy po wielu krokach konstrukcji na monitorze) jest w zasadzie wypełnionym kwa­ dratem i w związku z tym w żaden sposób nie przypomina kolejnych kroków konstrukcji. Oznacza to, że albo krzywa Peana nie jest samopodobna lub też, że nasza intuicja samopodobieństwa nie jest dostatecznie dobra. W rozdziale 4 przekonamy się, że krzywa Peana jest doskonale samopo­ dobna. Głównym problemem jest ujrzenie ostatecznej figury jako krzywej, a nie, jak sugerują graficzne jej reprezentacje, jako części płaszczyzny. Parametryzacja kwadratu za pomocą krzywej Peana P rz y jrz y jm y się własności w y p ełn ian ia przestrzeni tro c h ę dokładniej. K iedy śledzim y kolejne kroki pow staw ania te j krzyw ej, w idzim y, że około 1 / 9 te j krzyw ej zn ajd o w ać się będzie w lew ym kw adraciku (zob. rysunek 2 .3 7 ) i w zasadzie w y d aje się, że będzie w ypełniała właśnie ten obszar. P odobne obserw acje m o żem y poczynić o pozostałach kw ad ratac h p o d ziału . K ażd y z k w a d ra tó w pierw szego podziału m oże być p od zielon y na następne dziew ięć kw a d ra tó w , każdy z nich je s t 9kro tn ym p o m n iejszeniem p o czątkow ego. O tó ż krzyw a, zanim przej­ dzie do następnego kw ad ratu z pierw szego po d ziału , najp ierw prze­ biega każdy k w a d ra t z p o d p o d ziału . D zie je się ta k na wszystkich p o zio m ach . Z własności te j w ynika, co następuje. Jeśli przebie­ g a m y krzy w ą, pow stałą na pew nym eta p ie konstrukcji krzyw ej Peana, do pew nej części je j całko w itej długości, pow iedzm y do 1 0 /2 7 , tzn . około 3 7 % , to d o jd zie m y do pew nego pu n ktu kw ad ratu . Zobaczm y, co będzie się d zia ło , gdy przejd ziem y do następnego poziom u kon­ strukcji i znow u będziem y śledzić 3 7 % te j now ej, dłuższej krzyw ej. Z n o w u d o trze m y do jak ie g o ś określonego pun ktu kw ad ratu (zob. ry­ sunek 2 .3 7 ). O k a z u je się, że p u n kt ten zn a jd u je się w pobliżu poprze­ dniego. Jeśli będziem y p o w ta rzali tę procedurę w ielo k ro tn ie dla na­ stępnych kroków ko nstru kcji, to o trz y m a m y ciąg p un któw . P u n kty te będą zb ieg ały do je d n o zn a c zn ie określonego pu n ktu kw ad ratu . P u n kt ten m o żem y nazw ać p u n ktem o adresie 1 0 /2 7 . W podobny sposób m o żem y zn aleźć p u n kty o d p o w iad ając e każdem u procentow i, to zna­ czy każdej liczbie p o m ięd zy 0 , 0 a 1 ,0 . P u n k ty te tw orzą krzyw ą, przebiegającą przez w szystkie p u n kty kw ad ratu ! M a to swoje m ate­ m atyc zn e określenie ja k o „p a ra m e try za c ja kw ad ratu za pom ocą od­ cinka je d n o s tk o w e g o ". I o tó ż krzyw a, która przecież ma naturę je d ­ n ow ym iarow ą, m oże w ypełnić coś co je s t dw u w ym iarow e. W y d a je się więc, że używ anie in tu ic yjn e g o pojęcia w y m ia ru je s t w tym przypadku niebezpieczne. 143 2.5. Krzywe wypełniające przestrzeń Rysunek 2.37: Krzywe Peana na czterech różnych poziomach są przebiegane do 1/3 + 1/27 = 10/27 całkowitej długości. Na dol­ nych rysunkach nie pokazano pozostałej części krzywej. Parametr 10/27 definiuje pewne punkty zaznaczone na każdym z wykresów. Punkty te zbiegają do jednoznacznie wyznaczonego punktu kwa­ dratu w miarę zwiększania liczby kroków A by nasze rozum ow anie uczynić bardziej precyzyjnym , pow inno się w prow adzić system adresów , któ ry w przypadku krzyw ej Peana będzie opierał się na ciągach o w yrazach z dziew ięcioelem entow ego zbioru sym boli lub cyfr. Dla każdego pun ktu kw ad ratu istnieje adres będący nieskończonym ciągiem . C iąg ten w yznacza te ż pun kty na każdym poziom ie konstrukcji krzyw ej Peana. C iąg pu n któ w , po je d ­ nym dla każdego kroku, będzie zb iegał do danego pun ktu kw ad ratu . Wypełniająca kwadrat krzywa Peana, a raczej każda krzy­ wa powstała na skończonym etapie konstrukcji krzywej Pe­ ana, jest bardzo niewygodna do narysowania odręcznego, czy nawet przy użyciu plotera sterowanego przez kompu­ ter. Liczba małych odcinków, jakie trzeba narysować, aby wypełnić kwadrat, jest ogromna. Co więcej, po narysowaniu każdego odcinka trzeba wykonać obrót o 90 stopni. Uzasa­ dnione jest więc pytanie o to, czy nie istnieją inne, prostsze C zy istn ieje lep szy sposób w y p ełn ien ia kw adratu za p om ocą krzyw ej? 144 2. Klasyczne fr akt ale i sam opodobi eńs t wo sposoby prowadzące do zapełnienia kwadratu przez krzywą. Zastanówmy się, jak zabralibyśmy się do rozwiązania tego problemu z ołówkiem w ręku. W ydaje się, że najprościej byłoby zamazać kwadrat, wodząc ołówkiem tam i z powro­ tem, od jednego brzegu kwadratu do drugiego, dbając o to, by nawroty były wykonane tak ściśle, żeby nie zostawić wol­ nego miejsca na kartce. Spróbujmy opisać powyższą procedurę w sposób formal­ N a iw n a konstrukcja.,. ny, podobnie jak konstrukcję krzywej Peana. Krok pierw­ szy to łamana złożona z dwóch odcinków, z których pierw­ szy ma początek w lewym dolnym rogu kwadratu, a kończy się w punkcie środkowym górnego brzegu, gdzie zaczyna się drugi odcinek biegnący do prawego, dolnego rogu kwadratu. W następnym kroku podwajamy rozdzielczość w tym sensie, że pozioma linia biegnąca gdzieś w środku kwadratu przetnie krzywą w dwukrotnie większej liczbie punktów. Możemy to uzyskać pow tarzając zygzaki w połowie długości kwadratu (zob. rysunek 2.38). Oczywiste jest, jak konstrukcja jest kontynuowana. Na P rób a w y p ełn ien ia k w adratu w n ajp ro stszy sp osób v = 0,6 0,2125 poziom 3 R ysunek 2.38: Cztery pierwsze etapy konstrukcji mającej do­ prowadzić do wypełnienia kwadratu przy użyciu krzywej zygzako­ watej 2.5, Krzywe wypełniające przestrzeń 145 każdym etapie po prostu podwajamy liczbę zygzaków. Dla każdej danej rozdzielczości e > 0 możemy z pewnością zna­ leźć etap, na którym wygenerowana krzywa mija dowolny punkt kwadratu o odległość mniejszą niż e. Zatem wydawa­ łoby się, że zadanie, jakie sobie postawiliśmy, jest wykonane. Co więcej, moglibyśmy twierdzić, że krzywa wypełniająca przestrzeń, którą skonstruowaliśmy, jest w pewnym sensie samopodobna, ponieważ w każdym kroku powstaje krzywa będąca złożeniem dwóch kopii krzywej powstałej w poprze­ dnim kroku konstrukcji, po odpowiednim przeskalowaniu w kierunku poziomym15. Prostota tej konstrukcji stawia pod znakiem zapytania wysiłki tak znakomitych matema­ tyków, jak Peano czy Hilbert. Dlaczego nie skorzystali z tak prostej konstrukcji, która musiała im się sama nasuwać? Dlaczego stworzyli takie skomplikowane konstrukcje, które nawet zakceptowano do publikacji w najbardziej prestiżo­ wych matematycznych czasopismach? Odpowiedź wydaje się sprzeczna z intuicją, jednak sen- ...prow adzi do sowna po przeprowadzeniu analizy problemu. Otóż kon- nikąd strukcja krzywej Peana prowadzi do powstania w granicy krzywej, co wykazaliśmy w technicznej części następującej po opisie konstrukcji na stronie 142. Krzywa ta ma nie­ skończoną długość, cechy samopodobieństwa i osiąga każdy punkt kwadratu. Powyższa konstrukcja, w przeciwieństwie do konstrukcji Peana, nie prowadzi do powstania krzywej, chociaż na każdym etapie konstrukcji mamy do czynienia z krzywą! Zajmijmy się bliżej tym zadziwiającym faktem. Będziemy traktować poziomy i pionowy bok kwadratu jako osie współrzędnych x i ?/, przyjmujące wartości od 0 do 1. Krzywa, pojawiająca się w n-tym kroku konstrukcji, dana jest przez zygzakowaty wykres funkcji, którą nazwiemy yn. Ustalmy teraz współrzędną x pomiędzy 0 a 1 i przyjrzyjmy się wartościom yn(x) dla rosnącego wskaźnika n. Jeżeli po­ wyższa konstrukcja naprawdę prowadziłaby do dobrze okreś­ lonej krzywej granicznej, to oczekiwalibyśmy, że ciąg punk­ tów yi(x), y 2 ( x) j ... ma granicę, którą powinna być wartość y dla krzywej granicznej w punkcie x. Jest to oczywiście prawdą dla wszystkich punktów, których rozwinięcie dwój­ kowe jest skończone, jak np. 1/4 czy 139/256, ponieważ, 15 Dla tego typu przypadków, gdzie czynnik skali jest różny dla różnych kierunków, bardziej stosowne byłoby określenie samoafiniczne. Przekształcenia afiniczne będą omawiane w rozdziałach 5 i 6. 146 2. Klasyczne frakt ale i samopodobieństwo jak to wynika z konstrukcji, dla takich punktów od pewnego poziomu wszystkie kolejne krzywe przyjmują wartość zero. Istnieją jednakże punkty, które łamią tę ważną własność zbieżności. Takim punktem jest na przykład x = 1/7, dla którego y przyjmuje wartości 2/7, 4/7, 6/7, 2/7, 4/7, 6 /7 ,... i tak dalej cyklicznie. Dlatego właśnie nie istnieje obiekt będący granicą, nie ma krzywej wypełniającej prze­ strzeń, nie ma głębszego zrozumienia. Ten naiwny sposób zapełniania kw adratu jest w istocie podobny do zapełnienia skończonej przecież sieci pikseli obrazu przez przyporządko­ wanie każdemu punktowi koloru czarnego. Po pewnej liczbie kroków sprawa jest zakończona i nie ma powodu przechodze­ nia do większej rozdzielczości. Nie ma tu mowy o samopodobieństwie, a na pewno nie powstaje żaden fraktal. Wi­ dzimy więc teraz, że rzeczywiście geniusz Peana i Hilberta doprowadziły do powstania dziwoląga o nieprzewidzianych własnościach, którego istnienie nie wydawało się wcześniej możliwe. Analiza naiwnego podejścia do do zapełniania przestrzeni M o ż e m y przeprow adzić an alizę ciągu krzyw ych pow stających w naiw ­ nej konstrukcji krzyw ej w y p ełn iają ce j przestrzeń. W p ro w ad źm y więc cyklicznie p o w ta rzając e się przekształcenie o w ykresie w kształcie na­ m io tu (tent transformation): 2 .fr a c (x ), 2 (1 — f r a c (x )) , jeśli fra c (x ) < 0 , 5 jeśli fra c (x ) > 0, 5 gdzie fr a c (x ) oznacza funkcję przyporządkow ującą danej liczbie jej część u łam kow ą, tzn . fr a c (x ) = x — m a x { & : k < x , k c a łk o w ite }. U ży w a ją c teg o ozn aczen ia, m o żem y zapisać krzyw e, w ystępujące w kon­ stru kcji, po prostu tak: y 0(x) j/i ( z ) y2(x) yn {x) = h(x), = h(2x), - h(Ax), = h(2nx) przy x p rzy jm u ją cy m w artości pom iędzy 0 a 1. M o że m y zauw ażyć, że część ułam kow a liczb x , 2 x , 4 x , . . . , 2nx , ... w yznacza ju ż wartość 147 2.5. Krzywe wypełniające przestrzeń y dla danej wartości x. Prześledźm y, co dzieje się w przypadku wcześniej używanego przykładu x ~ 1 / 7 fra c (l/7 ) - 1 /7 , fr a c (2 /7 ) - 2 /7 , fr a c (4 /7 ) = 4 /7 , f r a c (8 /7 ) - 1 /7 , Ułam kowa część 1 6 /7 to znow u 2 / 7 i dalej pow tarza się to cyklicznie. U łam ki 1 /7 , 2 /7 , 4 / 7 , 1 / 7 , . . . przejdą przy naszym przekształceniu „n am iotow ym " na 2 / 7 , 4 / 7 , 6 / 7 , 2 / 7 , 4 / 7 , 6 / 7 , . . . , ta k ja k to przewidzieliśm y. D la te g o te ż granica lim yn ( 1 /7 ) nie istnieje, a co za tym idzie ciąg krzyw ych 2 / o > 2 / i i - - nie d ąży do żadnej granicy. Na zakończenie m o żem y zapytać, czy w y b ierając x = 1 / 7 do przetestow ania zbieżności natrafiliśm y na ja k iś szczególny punkt. O tó ż nie. O k azu je się, że dla prawie w szystkich p u n k tó w x ciąg 2/o(z)» 2 /i(a ), nie ma granicy. Z a s ta n ó w m y się nad ty m przez chwilę. Część ułam kow ą liczby 2nx łatw o je s t znaleźć, jeśli zapiszem y x w rozwinięciu dw ó jkow ym . W e ź m y przykładow o liczbę wcześniej przez nas używ aną, x = 1 /7 , która ma rozw inięcie dw ójkow e 0,001001..., 64 512 1/8 1 1 -1 /8 7' M nożenie liczby w układzie dw ó jkow ym przez 2 polega na przesu­ waniu w szystkich cyfr o je d n ą pozycję w lewo. N a to m ia s t branie części ułam kowej polega na odrzuceniu w szystkich cyfr stojących przed przecinkiem . I ta k na przykład, jeśli w yko n am y kolejne prze­ sunięcia dla 1 /7 , to o trz y m a m y 0 ,0 1 0 0 1 0 ..., 0 ,1 0 0 1 0 0 ... oraz, po przesunięciu i odrzuceniu jed y n k i, która pojaw ia sie przed przecin­ kiem , 0 ,0 0 1 0 0 1 ..., co nam daje znowu 1 /7 . C ałą tę operację m ożem y również nazwać przesunięciem binarnym (dwójkowym), które sta­ nowi podstawowe narzędzie do an alizy chaosu, ja k ą przeprow adzim y w rozdziale 10. Stosowanie po w ielokroć do danej liczby binarnego przesunięcia m ożna sobie w yobrazić ja k o um iejscow ienie danej liczby na nieskończenie dokładnym narzędziu pom iarow ym i przyglądaniu się jej przez m ikroskop o stale p o d w ajającym się czynniku pow iększenia. Jeśli w ybierzem y losowo liczbę pom iędzy 0 a 1, a więc liczbę o lo­ sowym rozkładzie zer i jedynek, to przesunięcie dw ójkow e da nam ciąg liczb losowych, któ ry z pewnością nie będzie dążył do żadnej wartości granicznej. Poniew aż „większość" liczb ma w swoim roz- 148 2 . Klasyczne frakt ale i samopodobieństwo w inięciu d w ó jko w ym losowo p o jaw iające się zera i jed y n k i, m ożem y w nioskow ać stąd, że brak zbieżności w naszej naiw nej konstrukcji nie je s t w y ją tk ie m , lecz regułą. Mogłoby się wydawać, że krzywe, które wypełniają płasz­ Z astosow anie krzyw ych czyznę, są jedynie ciekawostką w świecie czystej matematyki w y p ełn ia ją cy ch — uważane za „dziwolągi” . Okazuje się jednak, że stano­ p łaszczyzn ę wią one ważną pozycję w odkryciu przez Mandelbrota fraktali jako modelu natury. Co więcej, i to może być zaska­ kujące, te dawno odkryte „dziwolągi” są wykorzystywane w bardzo praktycznych, technicznych zastosowaniach, po­ nad 100 lat po ich odkryciu. Opiszemy tu pokrótce ich zastowanie do analizy obrazu, jakie zostało ogłoszone na prestiżowym zjeździe SIGGRAPH16 w 1991 r. Omawiana technika analizy obrazu wprowadza nowy sposób binarnego cieniowania, użyteczny do wprowadzania odcieni szarości do dwukolorowego urządzenia graficznego, takiego jak na przykład drukarka laserowa.17 Problem polega na tym, że drukarka tworzy tzw. bitmapę, macierz składającą sie z czar­ nych i białych pikseli, podczas gdy odcienie szarości nie mogą być zakodowane na poziomie pikseli. Aby dać so­ bie radę z tym problemem, wprowadzono techniki cienio­ wania (dithering), które opierają się na przebieganiu obrazu o zmiennym odcieniu szarości linia po linii lub w małych kwadratowych klatkach. Otrzymuje się przybliżenie czarno-białe, które ma za cel minimalizację całkowitego błędu. Na ogół otrzymuje się wiele artefaktów, które pozwalają zgadnąć, że była używana ta nowa technika. Jak może pomóc wprowa­ dzenie krzywych wypełniających płaszczyznę? Wyobraźmy sobie krzywą Hilberta przechodzącą przez wszystkie piksele obrazu o zmiennym odcieniu szarości. Poruszanie się po tej krzywej daje nam możliwość innego niż linia po linii sposobu przebiegania obrazu. Czarno-białe przybliżenie otrzymy­ wane jest dla pikseli następujących po sobie wzdłuż tej po­ splatanej linii. Przewagą przebiegania obrazu wzdłuż krzy­ wej Hilberta jest to, że jest ono niezależne od jakichkolwiek 16 SIGGRAPH = Special Interest Group Graphics of the Associa­ tion for Computing Machinery (ACM). Ich doroczne zjazdy przyciągają około 30 000 osób, zawodowo zajmujących się grafiką komputerową. 17 Luiz Velho, Jonas de Miranda Gomes, Digital Halftoning with Space-Filling Curves, Comput. Graph. 25, 4, 81-90 (1991). 149 2.5. Krzywe wypełniające przestrzeń D w ie m eto d y cieniow ania Rysunek 2.39: Cieniowanie za pomocą krzywej Hilberta (po prawej) porównane z cieniowaniem tradycyjnym (po lewej). W górnym rzędzie — obie metody zastosowane do kwadratu, którego odcień zmienia się w sposób ciągły od białego (dolny lewy róg) do czarnego (prawy górny róg). W dolnym rzędzie — obie metody zastosowane do obrazu Lenny cech związanych z kierunkiem, które są obecne w metodach tradycyjnych. Wytwarzane są aperiodyczne plamki stwo­ rzone z nieregularnych grup punktów przyjemnych dla oka, a podobne do ziarna występującego na zdjęciach fotogra­ ficznych. Na rysunku 2.39 przedstawiono dla porównania: tradycyjną technikę nazywaną clustered dot ordered dither i nową metodę. Istnieją też inne, wcześniejsze metody prze­ twarzania obrazu wykorzystujące krzywe wypełniające prze­ strzeń18. 18 R. J. Stevens, A. F. Lehar, F. H. Preston, Manipulation and Pre­ sentation of Multidimensional Image Data Using the Peano Scan, IE E E Trans. P a ttem Anal. Mach. In te ll 5, 520-526 (1983). 150 2. Klasyczne frakt ale i samopodobieństwo Algorytm cieniowania wykorzystujący krzywą Hilberta Z a jm ie m y się te ra z opisem uproszczonej w ersji cieniow ania używ ają c e g o krzyw ej H ifb e rta . W e ź m y dla przykładu kw ad rat z płynnie zm ie n ia ją c y m się odcieniem szarości i p o s ta ra jm y się go ja k najw ierniej o d tw o rzyć przy użyciu je d y n ie czarnych i białych pikseli. Roz­ dzielczość obrazu musi być potęgą d w ó jk i. Na przykład na rysunku 2 .4 0 ro zw a ża m y rozdzielczość 4 , 8 , 1 6 i 3 2 piksele w pionie i pozio­ m ie. D la tych kilku p rzy p ad kó w m o żem y dopasow ać odpow iednio krzyw ą H ilb e rta ta k , ja k to pokazan o na rysunku. O trz y m u je m y w ten sposób p ew n e uporządkow anie pikseli. W przypadku rozdziel­ czości 4 na 4 piksele, jeśli kolum ny o zn aczym y literam i A , B , C , D , w iersze zaś 1 , 2 , 3 , 4 , piksele obrazu są uporządkow ane następująco: A l , B I , £ 2 , A 2 , . . . , D2, C2, C l, D L O zn a c zm y te ra z przez J i, 72, . . . , / n w artości natężenia dla kolej­ nych pikseli w p rzetw arzan ym obrazie z w ystęp u jącym i odcieniam i C ien iow an ie p rzy u życiu krzyw ej H ilb erta Rysunek 2.40: Zasada algorytmu, używającego cieniowania opartego na czterech kolejnych etapach przebiegania obrazu przy użyciu krzywej Hilberta. Używano tego samego zacieniowanego kwadratu jak na rys. 2.39 2.5. Krzywe wypełniające przestrzeń szarości (w artości te m ieszczą się pom iędzy 0 dla koloru czarnego a 1 dla białego). W ys tę p u jąc e tu ta j n je s t potęgą d w ó jki i oznacza całkow itą liczbę pikseli. O braz, ja k i o trzym a m y, zależy od odp ow ie­ dnio wyliczonych wartości natężenia 0 1, 0 2, . . . , 0 n G { 0 , 1 } - N ajpierw ustalm y n _ ( 0, 1 \ 1, jeśli i i < 0 , 5 , jeśli h > 0 , 5 . Przybliżenie to zaw iera błąd E i = h - Oj. Zam iast zignorować tę różnicę, m ożem y przenieść ją do kolejnego piksela w ciągu. D okładna reguła je s t następująca: q __ i 0? jeśli Ik + i, jeśli I k + U k ~ \ < 0,5, > 0,5, E k ~ h ~ OkO znacza to, że błąd przem ieszcza się w zd łu ż ciągu pikseli. C elem teg o przenoszenia błędu je s t zm in im alizo w an ie całkow itego błędu natężeń, uśrednianego dla części obrazu o różnej wielkości. O trz y m u je m y w tym przypadku sumę błędów dla całości obrazu: n = E n, k= i co daje stosunkowo m ałą wartość. Isto tn ą zaletą teg o algo rytm u je s t to, że błąd przenoszony je s t w zd łu ż krzyw ej H ilb e rta , która przebiega obraz w sposób postrzegany przez nas ja k o bardzo nieregularny. Jeżeli zastąpilibyśm y krzyw ą H ilb e rta , na przykład, krzyw ą przebiegającą obraz linia po linii, to przenoszenie błędu w sposób regularny dopro­ wadziłoby do pow stania zakłam u jących obraz a rte fa k tó w . A lg o rytm , zaproponow any przez Stevensa, Lehara i Prestona na S IG G R A P H , je s t uogólnieniem przedstaw ionej przez nas m etody. Z a m ia s t poje­ dynczych pikseli rozw ażane są bloki kolejnych pikseli, w ystępujące przy przebieganiu h ilb e rto w s k im .19 19 Przedstawiona tutaj uproszczona wersja została po raz pierwszy opublikowana w: I. H. W itten i M. Neal, Using Peano curves for bilevel display of continuous tone images, IE E E Comput. Graph. A ppl., Maj 1982, 47-52. 151 152 P od su m ow an ie 2. Klasyczne frakt ale i samopodobieństwo Podsumowując dotychczasowe rozważania, możemy po­ wiedzieć, że pokazaliśmy, jak pojęcie samopodobieństwa ro­ zumiane w ścisły sposób wymaga brania pod uwagę obiektów będących końcowym rezultatem konstrukcji, której najważ­ niejszym elementem jest sprzężenie zwrotne. Musimy być bardzo ostrożni, jeśli chcemy używać tego pojęcia. Powinno istnieć jasne rozróżnienie pomiędzy skończonym krokiem kon­ strukcji a samym fraktalem. Jednak nasuwa sie pytanie: jak w takim razie możemy analizować za pomocą tych metod formy i wzory spotykane w naturze, jak na przykład kala­ fior? Otóż kalafior zawiera te same kształty w kilku, pięciu czy sześciu, poziomach powiększenia. Większe części kala­ fiora składają się z mniejszych o podobnym kształcie. Jest to wskazaniem do tego, by kalafior analizować metodami geometrii fraktalnej, podobnie jak w wielu zastosowaniach możemy traktować planety jako kule i używać metod geome­ trii Euklidesowej. Tak samo jak planeta nie jest idealną kulą, tak i kalafior nie jest doskonale samopodobny. Po pierwsze występują zaburzenia w samopodobieństwie: mała część nie jest dokładnie pomniejszoną częścią większą. Ważniejszym jednak problemem jest to, że zakres skali powiększenia w ja­ kiej widzimy podobieństwo form jest skończony. Dlatego fraktale mogą być używane tylko jako modele kształtów występujących w naturze i musimy zawsze zdawać sobie sprawę z istniejących ograniczeń. 2 .6 . F r a k ta le a w y m ia r Odkrycie krzywych wypełniających przestrzeń było kamie­ niem milowym w rozwoju pojęcia wymiaru. Krzywe ta­ kie poddawały w wątpliwość naturalne założenie, że krzywe są obiektami jednowymiarowymi, ponieważ mogą wypełnić płaszczyznę (tzn. obiekt intuicyjnie postrzegany jako dwu­ wymiarowy). Sprzeczność ta stanowiła argument w dysku­ sji, która toczyła się przez kilka dziesięcioleci na początku tego wieku. Kiedy mówimy o fraktalach, na ogół bierzemy po uwagę wymiar fraktalny, wymiar Hausdorffa czy wymiar pudełkowy (zajmiemy się bliżej tymi pojęciami w rozdziale 4), jednak początki tych pojęć sięgają wczesnych odkryć to­ pologii. 153 2.6. Fraktale a wymiar * Topologia jest gałęzią matematyki, której zasadniczy roz­ Św iat z gum y wój rozpoczął się na początku naszego wieku. Zajmuje się ona, z jakościowego punktu widzenia, problemami dotyczą­ cymi formy i kształtu. Dwa podstawowe pojęcia topologii to „wymiar” i „homeomorfizm” . Topologia zajmuje się sposo­ bami rozciągania i wykręcania kształtów w przestrzeni, która zachowuje się jak zrobiona z gumy. Okrąg, kw adrat i p łatek śniegu K ocha Rysunek 2.41: Okrąg można zdeformować w sposób ciągły tak, by powstał trójkąt. Trójkąt można przekształcić na płatek śniegu Kocha. Topologicznie wszystkie one są równoważne W topologii linie proste m ają prawo zamieniać się w krzy­ we, okręgi mają prawo być ściskane w trójkąty albo roz­ ciągane w kwadraty. Na przykład z topologicznego punktu widzenia linia prosta i krzywa Kocha nie są rozróżnialne. Również obrzeże płatka śniegu Kocha jest tym samym co okrąg. Albo płaska kartka papieru — jest równoważna kartce nieskończenie pomiętej. Jednak nie wszystkie zmiany są w topologii dozwolone. Przecięcia linii, na przykład, mu­ szą pozostać przecięciami. W języku matematyków oznacza to, że przecięcie jest niezmiennikiem. Nie może zostać zni­ szczone ani nowe nie może powstać, niezależnie od tego, jak bardzo linie są rozciągane i wykręcane. Liczba dziur w obiek­ cie jest również niezmiennikiem topologicznym, co oznacza, że sfera może być wygięta w kształt podkowy, ale już nie w kształt ciastka z dziurką. Dozwolone przekształcenia nazy- 154 2. Klasyczne fr akt ale i samopodobieństwo wają się homeomorfizmami20 i działając na obiekt nie zmie­ niają niezmienniczych własności tego obiektu. Dlatego sfera i powierzchnia sześcianu są homeomorficzne, a sfera i ciastko z dziurką nie. R ów n ow ażność Wspomnieliśmy już, że linia prosta i krzywa Kocha są to p o lo g iczn a topologicznie równoważne. Co więcej, linia prosta jest pro­ totypem obiektu o wymiarze 1. Dlatego, jeśli wymiar jest pojęciem topologicznym, to oczekiwalibyśmy, że krzywa Ko­ cha również ma wymiar 1. Jest to jednak delikatny problem, który niepokoił matematyków na przełomie wieku. Historia różnych definicji wymiaru jest związana z naj­ większymi ówczesnymi matematykami, takimi jak: H. Po­ incare, H. Lebesgue, L.E.J. Brouwer, G. Cantor, K. Menger, W. Hurewicz, P. Aleksandrów, L. Pontriagin, G. Peano, P. Urysohn, E. Cech i D. Hilbert. Historia ta jest ściśle związana z powstaniem pierwszych fraktali. Hausdorff zwrócił uwagę na to, że problem stworzenia prawidłowego pojęcia wymiaru jest bardzo złożony. Istniała naturalna in­ tuicja związana z tym, co to jest wymiar: wymiar obiektu X jest to liczba niezależnych param etrów (współrzędnych), które są potrzebne do jednoznacznego opisu jego punktów. Idea Poincarego miała naturę indukcyjną i zaczynała się od punktu. Otóż punkt ma wymiar 0. Następnie linia prosta ma wymiar 1, ponieważ może być podzielona na dwie części za pomocą punktu (który ma wymiar 0). Z kolei kwadrat ma wymiar 2, bo może być podzielony na dwie części przez linię prostą (która ma wymiar 1). Sześcian ma wymiar 3, gdyż może być podzielony na dwie części przez kwadrat (który ma wymiar 2). W ym iar W czasie rozwoju topologii matematycy szukali jakośćioto p o lo g iczn y wych cech, które nie zmieniałyby się podczas odpowiednich przekształceń obiektów (technicznie nazwanych homeomor­ fizmami). W ymiar (topologiczny) obiektu powinien przy tych przekształceniach być zachowany. Okazało się jednak, że istnieją poważne kłopoty ze sformułowaniem poprawnego i dokładnego pojęcia wymiaru, jednocześnie o odpowiednich własnościach. Na przykład w roku 1878 Cantor znalazł prze­ kształcenie / z odcinka jednostkowego [0,1] w kwadrat jed­ nostkowy [0,1] x [0,1], które było różnowartościowe 20 Dwa obiekty X i Y (przestrzenie topologiczne) są homeomorficzne, jeżeli istnieje homeomorfizm h : X — ►Y (tzn. ciągłe wzajemnie jedno­ znaczne przekształcenie mające ciągłe przekształcenie odwrotne h ~ 1). 2.6. Fraktale a wymiar 155 i na21. Wydawało się więc, że potrzeba tylko jednego para­ metru, by opisać punkty kwadratu. Przekształcenie Cantora nie jest jednak homeomorfizmem. Nie jest ciągłe, tzn. nie prowadzi do krzywej wypełniającej przestrzeń! Konstrukcje krzywych wypełniających przestrzeń, poda­ ne przez Peana i następnie przez Hilberta, dały przykład przekszałceń #, przekształcających odcinek jednostkowy [0,1] na kwadrat [0,1] x [0,1], które były nawet ciągłe. Prze­ kształcenia te jednak nie były różnowartościowe (tzn. ist­ nieją punkty odcinka x \ i 2 2 > / x 2, które są przekształ­ cane w ten sam punkt kwadratu y = g{x\) — g(x 2 )). Powstało związane z tym pytanie — na które odpowiedź wydawała się oczywista — czy istnieje przekształcenie, od­ wzoruj ące różnowartościowo odcinek I = [0,1] na cały kwa­ drat 12 = [0,1] x [0,1], ciągłe w obie strony? Czy też ogólniej, czy n-wymiarowa jednostkowa kostka I n = [0, l]n jest homeomorficzna z kostką ra-wymiarową I m = [0, l]m,n ^ m l Jeśli istniałoby takie przekształcenie, to matematycy w swoim odczuciu znaleźliby się w kłopocie: otóż obiekt jednowymiarowy byłby homeomorficzny z dwuwymiarowym. Pozostawałoby to w niezgodności z ideą niezmienniczości w topologii. Pomiędzy rokiem 1890 a 1910 pojawiło się kilka „do­ Linia p rosta wodów” pokazujących, że I n i I m nie są homeomorficzne i kw adrat nie są dla n / m, lecz nie były one kompletne. Dopiero holenderski rów now ażne matematyk Brouwer w roku 1911 zażegnał ten kryzys. Podał mianowicie elegancki dowód tej nierównoważności, który do­ datkowo stanowił ważny bodziec do rozwoju topologii. Jed­ nak próby znalezienia odpowiedniego pojęcia wymiaru i do­ wód, że proste obiekty, takie jak / n, m ają oczywisty wymiar, ciągnęły się przez następne dwadzieścia lat. Na ten okres przypada również praca niemieckiego matematyka Hausdorffa (która doprowadziła do powstania pojęcia wy­ miaru fraktalnego). W ciągu naszego wieku matematycy tworzyli wiele pojęć wymiaru (mały wymiar indukcyjny, duży wymiar induk­ cyjny, wymiar pokryciowy, wymiar homologiczny).22 Wiele 21 Pojęcie „na” oznacza tutaj, że dla każdego punktu z z kwadratu jednostkowego istnieje dokładnie jeden punkt x z odcinka jednostko­ wego, który jest przekształcany na z — }{x). 22 K. Kuratowski, Topology II, PWN, Warszawa 1968, R. Engelking, Teoria W ym iaru, PWN, Warszawa 1977. 156 2. Klasyczne fraktale i samopodobieństwo K onstru kcja gąbki M en gera R ysunek 2.42: Obiektem, który jest ściśle związany z dywa­ nem Sierpińskiego, jest gąbka Mengera, nazwana tak na cześć Karla Mengera (1926). Weźmy sześcian, podzielmy jego ściany na 9 przystających kwadratów i wywierćmy dziury tak, jak po­ kazano — zaczynając od środkowego kwadracika, na wylot, do środkowego kwadracika na przeciwnej ścianie. Przekrój dziury musi być kwadratem. Następnie podzielmy pozostałe osiem małych kwadracików na każdej ze ścian na dziewięć jeszcze mniej­ szych kwadracików i znów wywierćmy dziurki, zaczynające się od wszystkich środkowych kwadracików do odpowiednich kwa­ dracików na przeciwnej ścianie i tak dalej z nich ma naturę topologiczną; przyjmują wartości ze zbioru liczb naturalnych (0 dla punktów) i są takie same dla obiek­ tów topologicznie równoważnych. Jako przykład pojęcia wy­ miaru omówimy wymiar pokryciowy. Inne przykłady mogą opierać sie na własnościach, które nie są topologicznymi nie­ zmiennikami. Najważniejszym takim przykładem jest wy­ miar Hausdorffa. Otóż wymiar Hausdorffa dla prostej wy­ nosi 1, podczas gdy dla krzywej Kocha wynosi log4/log3. Oznacza to, że wymiar Hausdorffa zmienił się, mimo iż z to­ pologicznego punktu widzenia krzywa Kocha jest tym sa- 157 2.6. Fraktaie a wymiar mym co linia prosta. Co więcej, log4/log3 = 1,2619... nie jest liczbą całkowitą. Jest to raczej ułamek, co stanowi ty­ pową własność fraktali. Innymi przykładami o wymiarze (pokryciowym) 1 są: wybrzeże wyspy Kocha, trójkąt Sier­ pińskiego, jak również dywan Sierpińskiego. Nawet gąbka Mengera, której podstawowe kroki konstrukcji przedstawio­ no na rysunku 2.42 ma (pokryciowy) wymiar równy 1. Z grubsza rzecz biorąc, trójkąt i dywan Sierpińskiego oraz gąbka Mengera m ają (pokryciowy) wymiar 1, ponieważ za­ wierają fragmenty prostych, a nie zawierają elementów po­ wierzchni czy brył. Zbiór Cantora ma wymiar 0, ponieważ składa się ze zbioru rozproszonych punktów i nie zawiera żadnego odcinka. Zajmiemy się teraz topologicznie niezmienniczym wy­ W ym iar miarem pokryciowym. Pojęcie to opiera się na — przypi­ pokryciow y sywanej Lebesgue’owi — następującej obserwacji. Weźmy krzywą na płaszczyźnie (zob. rysunek 2.43) i spróbujmy pokryć ją kołami o małej średnicy. Sposób, w jaki doko­ naliśmy pokrycia fragmentu lewej części krzywej, różni się zasadniczo od tego, jak zrobiliśmy to w części środkowej, który z kolei różni się od pokrycia prawej części. Na czym polega ta różnica? Otóż w prawej części możemy znaleźć je­ dynie pary kół, które m ają niepuste przecięcie, podczas gdy w części środkowej możemy znaleźć trójki, a w lewej części nawet czwórki kół, mających niepuste przecięcie. P okrycie krzywej Ta oto ważna obserwacja prowadzi do następującej defi­ nicji. Mówimy, że krzywa ma wymiar pokryciowy równy 1, ponieważ możemy ją pokryć kołami o małej średnicy w taki sposób, że nie istnieją trójki czy czwórki kół o niepustym przecięciu, ale jedynie pary. Co więcej, nie istnieje takie pokrycie wystarczająco małymi kołami, dla którego nie ist­ niałyby pary kół o niepustym przecięciu. 158 2. Klasyczne frakt ale i samopodobieństwo P ok rycie p łaszczyzn y R ysunek 2.44: Pokrycie płaszczyzny kulami Obserwacja ta daje się rozszerzyć na obiekty położone w przestrzeni (a nawet na obiekty położone w wyższych wymiarach). Na przykład powierzchnia położona w prze­ strzeni (zob. rysunek 2.44) ma wymiar pokryciowy 2, po­ nieważ możemy pokryć tę powierzchnię kulami o odpowie­ dnio małym promieniu w taki sposób, że nie istnieje czwórka kul o niepustym przecięciu, ale jedynie trójki. Dodatkowo nie istnieje takie pokrycie powierzchni kulami o odpowie­ dnio małej średnicy, w którym istniałyby jedynie pary kul o niepustym przecięciu. Pokrycie wpisane i w ym iar pokryciowy N a tu ra ln e je s t łąc ze n ie w y m ia ru 1 z krzyw ą, w ym iaru 2 z kw adra­ te m , a w y m ia ru 3 z sześcianem . Pojęcie w ym iaru pokryciow ego daje nam je d n ą z m ożliw ości precyzyjnego zapisu naszej in tu ic ji. Jest to jed e n z w ielu sposobów w prow adzenia definicji w ym iaru to p o lo ­ gicznego. Z a jm ijm y się te ra z dw o m a przykład am i, które pozw olą na lepsze zro zu m ien ie pojęcia w ym iaru pokryciow ego. Będą to: krzywa na płaszczyźnie (rysunek 2 .4 3 ) i fra g m e n t pow ierzchni w przestrzeni (rysunek 2 .4 4 ). P rz y jrz y jm y się krzyw ej p o krytej m ałym i kołam i i spróbujm y określić najw iększą liczbę kół pokrycia, m ających niepuste przecięcie. T a liczba nazyw a się rzędem pokrycia. O trz y m u je m y więc w lewej części krzyw ej z rysunku 2 .4 3 rząd pokrycia 4, w środkowej 3, a w pra­ wej 2. N a rysunku 2 .4 4 przedstaw iono pow ierzchnię p o krytą m ałym i ku lam i, a rząd teg o pokrycia wynosi 3. Jesteśm y ju ż bardzo bliscy stw orzenia definicji w ym iaru pokry­ ciow ego. W p ro w a d źm y pojęcie pokrycia w pisanego w dane (d ro b ­ niejszego od d a n eg o ). Pokrycia zbioru X na płaszczyźnie (alb o w p rzestrzeni) są zb io ram i skończenie w ielu otw artych kół o pew ­ 2.6. Fraktale a wymiar nym prom ieniu23, pow iedzm y A = { D \ , . . . , £> /}, takich że ich suma pokrywa X. M ó w ią c ściślej zakładam y, że m am y do czynienia z prze­ strzenią m etryczną zw a rtą X. Skończone pokrycie je s t w te d y skoń­ czoną rodziną otw artych zbiorów , takich że X je s t zaw arty w ich sumie. O tw a rte pokrycie B — { E \ , ... , E r} nazywa się rozdrobnie­ niem pokrycia A — { D i , . . . , . Di } (lu b pokryciem w nie w p is an y m ), jeżeli dla każdego Ei istnieje D j , ta k ie że Ei c Dj. Rzędem o tw ar­ tego pokrycia A nazyw am y m aksym alną liczbę n atu raln ą k, dla której istnieją różne w skaźniki ¿1, . . . , z*., ta k ie że Dil f i Di2 n ... Pi Dih ^ 0. M ożem y tera z pow iedzieć, że o b iekt X m a wymiar pokryciowy n J e że li dla jeg o dow olnego o tw artego pokrycia istnieje pokrycie drob­ niejsze rzędu n + 1, ale nie ma takie g o pokrycia rzędu n. n m oże być tu ta j dow olną liczbą n atu raln ą. Rysunek 2.45: Pokrycie okolicy punktu rozgałęzienia oraz po­ krycie drobniejsze Na rysunku 2 .4 5 pokazano, że pojęcie pokrycia drobniejszego jest bardzo w ażne dla definicji w ym iaru pokryciow ego. W po kry­ ciu obiektu o kształcie litery Y w ystępują trz y koła, których prze­ cięcie jest niepuste (d u że, przeryw ane koła). Istnieje je d n a k pokrycie m niejszym i kołami (koła narysowane linią ciągłą, każde m niejsze koło zawiera się w którym ś z większych kó ł), ta k ie że co najw yżej pary kół m ają niepuste przecięcie. Jest teraz intu icyjnie jasne, że dla każdej skończonej liczby punk­ tó w istnieje takie pokrycie, że jeg o koła nie przecinają się. K rzyw e zaś m ogą mieć pokrycia rzędu 2, ale nie rzędu 1. P ow ierzchnie m ogą m ieć pokrycia rzędu 3 i nie istnieją pokrycia złożone z kul o w ystarczająco m ałym prom ieniu, które by m iały rząd 2. D lateg o te ż w y m ia r p u n któ w wynosi 0, krzyw ych 1, a pow ierzchni 2. 23 „Otwarty” oznacza, że rozważamy koła (lub kule) bez ograni­ czających je okręgów (lub sfer), bądź sumy takich zbiorów. 159 160 2. Klasyczne fraktale i samopodobieństwo O bserw acje nasze przenoszą się na w yższe w ym iary. Co więcej nie je s t istotne, czy ro zw a ża m y krzyw e położone na płaszczyźnie, czy w przestrzeni i czy e le m e n ta m i pokrycia są koła, czy kule. O trz y ­ m a m y ten sam w y m ia r.24 2 .7 . U n iw e r s a ln o ś ć d y w a n u S ie r p iń sk ie g o Do tej pory próbowaliśmy rozbudzić intuicję dotyczącą to­ pologicznego pojęcia wymiaru. Okazało się, że z tego punktu widzenia nie tylko linia prosta, ale również inne krzywe, np. krzywa Kocha, są obiektami jednowymiarowymi. Otóż z punktu widzenia topologii rodzina obiektów jednowymia­ rowych jest niesłychanie bogata i rozległa, zawiera o wiele więcej niż tylko wymyślne obiekty, takie jak na rysunku 2.46. Rysunek 2.46: Ta bardzo skomplikowana na pierwszy rzut oka krzywa nie jest wcale złożonym obiektem jednowymiarowym R o d z in a Jesteśmy już przygotowani, by zrozumieć, o co chodziło o b ie k tó w je d n o - Sierpińskiemu przy tworzeniu swojego dywanu. Chcielibyśw y m ia ro w y c h my stworzyć dom lub hotel dla wszystkich obiektów jedno­ wymiarowych. Dom ten powinien być obiektem doskonałym, zawierającym, w sensie topologicznym, wszystkie możliwe obiekty jednowymiarowe. Oznaczałoby to, że dany obiekt może być zawarty w obiekcie doskonałym niekoniecznie w ta­ kiej dokładnie postaci, w jakiej występuje niezależnie, ale w postaci jednego ze swoich topologicznych mutantów. To tak jakby dany obiekt zrobiony był z gumy i mógł wpaso24 W celu dokładniejszego omówienia pojęcia wymiaru odsyłamy Czy­ telnika do książki Geralda E. Edgara, Measure, Topology and Fractal G eom etry, Springer-Verlag, New York 1990. 2.7. Uniwersalność dywanu Sierpińskiego 161 wywać się w obiekt doskonały. Na przykład pająk o pięciu odnóżach z rysunku 2.47 może pojawić sie w obiekcie do­ skonałym w dowolnej równoważnej formie. P a ją k i to p o lo g ic z n ie ró w n o w ażn e Rysunek 2.47: Wszystkie te pająki o pięciu odnóżach są topo­ logicznie równoważne Z punktu widzenia topologii nie jest ważne, w której dokładnie formie nasz pająk będzie występował w obiek­ cie doskonałym. Jeśli na przykład jedna z jego nóg byłaby tak powyginana jak krzywa Kocha, byłby to wciąż ten sam pająk. Wspaniały wynik, jaki otrzymał Sierpiński25 w roku 1916, pokazuje, że dywan Sierpińskiego jest właśnie takim do­ skonałym obiektem. Możemy w nim umieścić dowolny obiekt jednowymiarowy. Oznacza to również, że w dywanie Sier­ pińskiego znajduje się całe bogactwo własności topologicz­ nych, jakimi mogą być obdarzone obiekty jednowymiarowe. Odkrycie Sierpińskiego możemy ująć w sposób następujący: S tw ierd zen ie. Dywan Sierpińskiego jest przestrzenią uni­ wersalną dla wszystkich z w a r ty c h jednowymiarowych obiek­ tów na płaszczyźnie. Spróbujmy się zastanowić, co powyższe stwierdzenie ozna­ cza. Weźmy kawałek papieru i narysujmy krzywą (tzn. ty25 W. Sierpiński, Sur une courbe cantorienne qui contient une image biunivoquet et continue de toute courbe donnée, C. R. Acad. Paris 162, 629-632 (1916). 26 Zwartość jest wymaganiem technicznym. Możemy przyjąć, że za­ chodzi ono dla dowolnego rysunku na kartce papieru. Na przykład płaskie koło bez swojego brzegu nie byłoby zwarte, tak samo jak li­ nia prosta biegnąca aż do nieskończoności. Dla podzbioru płaszczyzny (albo przestrzeni) X oznacza to, że jest on ograniczony, tzn. zawiera się całkowicie w pewnym dostatecznie dużym kole na płaszczyźnie (albo do­ statecznie dużej kuli w przestrzeni), i że każdy zbieżny ciąg elementów tego zbioru zbiega do pewnego punktu tego zbioru (czyli że zbiór X jest domknięty - przyp. tłum.)- 162 2. Klasyczne fr akt ale i samopodobieństwo powy obiekt jednowymiarowy), który mieści się na kartce (to sprawi, że jest on zwarty). Niech nasz rysunek będzie naprawdę skomplikowany, tak jak tylko można to sobie wyo­ brazić, z wieloma samoprzecięciami. Narysujmy nawet kilka krzywych, jedna na drugiej. Jakkolwiek skomplikowany był­ by nasz rysunek, dywan Sierpińskiego jest górą, ponieważ ja­ kakolwiek komplikacja pojawi się na naszym rysunku, znaj­ duje się ona również w jakimś podzbiorze (części) dywanu Sierpińskiego. Ujmując to bardziej precyzyjnie, możemy znaleźć taki podzbiór dywanu Sierpińskiego, który będzie to­ pologicznie równoważny obiektowi narysowanemu przez nas na kartce. Dywan Sierpińskiego jest naprawdę obiektem do­ skonałym. W ygląda na porządny i regularny, ale jego praw­ dziwa natura wykracza daleko poza to, co możemy zobaczyć. To, co jest dostępne naszym zmysłom, i wytwory naszej wy­ obraźni są w tym wypadku tak różne, jak tylko różne być mogą. Możemy też ująć własności dywanu Sierpińskiego, porównując go do hotelu, który ma odpowiednie pomieszcze­ nia dla wszystkich (jednowymiarowych, zwartych) gatunków zamieszkujących płaszczyznę. Nie wszystko jednak może żyć na płaszczyźnie. Krzywe płaskie i inne K rzyw e m ożna rysować na płaszczyźnie albo w przestrzeni. Pow s ta je pytanie, czy w szystkie krzyw e, ja k ie narysujem y w przestrzeni, m o żem y narysować ta k ż e na płaszczyźnie? W yd a w a ło b y się, że ta k , je d n a k pojaw ia się pew ien problem . P rzy jrzy jm y się na przykład figu­ rze p rzedstaw iającej ósem kę na płaszczyźnie na rysunku 2 .4 8 a. C zy je s t to praw dziw a ósem ka (z je d n y m p u n ktem sam oprze- Okrąg a ósemka Rysunek 2.48: (a) Ósemka nie jest równoważna okręgowi, (b) Skręcony okrąg nie jest równoważny ósemce 2.7. Uniwersalność dywanu Sierpińskiego 163 d ę c ia ), czy tylko w ygląda ja k ósem ka, a je s t rzu tem na płaszczyznę skręconego okręgu położonego w przestrzeni, ja k na rysunku 2 .4 8 b? Jeżeli nie zrobim y dodatkow ych założeń, to m ogą zach odzić oba przy­ padki. Jednakże obie figu ry różnią się jakościow o, ósem ka ma p un kt samoprzecięcia i dzieli płaszczyznę na trz y części, podczas gdy koło dzieli płaszczyznę tylko na dw ie. D la te g o te dw ie figu ry nie po­ w inny być to p ologicznie rów now ażne. K rzyw a na rysunku (b ) je s t z topologicznego pun ktu w idzenia okręgiem i m o żem y ją zanurzyć w płaszczyznę po uprzednim nadaniu je j bardziej regularnego kształtu tak, że o trzym an a figura nie będzie m iała żadnego pu n ktu sam oprze­ cięcia. Woda, gaz i prąd Rysunek 2.49: Trudny problem: czy da się doprow adzić wodę, gaz i prąd do tych trzech dom ów tak, żeby instalacje się nie prze­ cinały na płaszczyźnie? P ełny graf (m ający sam oprzecięcia!) po­ kazano w lew ym górnym rogu Powyższa obserwacja prowadzi nas do pytania, czy każda krzyw a położona w przestrzeni m oże być zanurzona w płaszczyźnie w ta k i sposób, by nie zm ieniły się je j własności to pologiczne. O d p o w ied ź jest negatyw na. O to prosty przykład na poparcie naszej o d p o w ie­ dzi, przedstaw iony na rysunku 2 .4 9 . W y o b ra źm y sobie, że m am y trz y domy, A , B i C, do których trze b a dostarczyć wodę, gaz i elek­ tryczność z miejsc oznaczonych literam i W , G i E, w ta k i sposób, żeby odpow iednie instalacje (narysow ane na płaszczyźnie) nie krzyżow ały się. O kazuje się, że je d y n y sposób na spełnienie teg o w arunku to wyjście w przestrzeń (tz n . przeciągnięcie odpow iednich instalacji na różnych p oziom ach). D latego też, jeżeli chcem y zachow ać topologiczne własności je d ­ nowym iarowych o b iektó w , będziem y zm uszeni do wyjścia w prze­ strzeń (do dodania trzeciego w y m ia ru ). O k azu je się, że każdy je d - 164 2. Klasyczne fraktale i samopodobieństwo now ym ¡arowy o b ie k t m ożna za n u rzy ć w przestrzeni tró jw ym iaro w ej. U ogóln ienie te g o re zu lta tu leży w sam ym cen tru m to p o lo g ii. D zie­ d zin a, która się ty m za jm u je idzie o w iele dalej niż in tu icyjn e rozum ie­ nie, dlaczego szkieletu z rysunku 2 .4 9 nie m ożna zan u rzyć w płasz­ czyźnie. D ostarcza ona n ietryw ialn ych m eto d , któ re uog ólniają się na w yższe w ym iary. O k a zu je się na przykład, że każdy o b iekt d w u w y m ia ­ rowy m oże być za n u rzo n y w przestrzeń pięciow ym iarow ą.27 T e pięć w y m ia ró w je s t p o trzeb n e d lateg o , by uniknąć problem ów podobnych do pow staw ania p u n k tó w sam oprzecięcia, które zm ieniłyby to p o lo ­ giczne własności o b ie ktu . Zauważmy, że grafu z rysunku 2.49 nie można narysować na płaszczyźnie tak, by nie istniały punkty samoprzecięcia. Dlatego też graf ten nie może mieć swojego odpowiednika w dywanie Sierpińskiego. Obserwacja ta prowadzi do pyta­ nia, co jest obiektem uniwersalnym dla wszystkich obiektów jednowymiarowych (tzn. dla tych, co leżą na płaszczyźnie lub w przestrzeni). U n iw e rsa ln o ść Około dziesięciu lat po tym, jak Sierpiński dokonał swog ą b k i M e n g e ra jego odkrycia, m atematyk austriacki Karl Menger rozwiązał powstały problem i znalazł pomieszczenie dla wszystkich obiektów jednowymiarowych. Około roku 1926 dowiódł on następującego faktu:28 S tw ie rd z e n ie . Gąbka Mengera jest uniwersalna dla wszy­ stkich zwartych obiektów jednowymiarowych. Oznacza to mniej więcej tyle, że dla każdego dopuszczalnego obiektu (zwartego, jednowymiarowego) istnieje część gąbki Mengera topologicznie równoważna danemu obiektowi.29 Oznacza to znowu, że jeżeli nasz obiekt byłby zrobiony z gu­ my, to jakaś jego zdeformowana wersja pasowałaby dokładnie do gąbki Mengera. 27 Jest to przypadek szczególny twierdzenia Whitneya o zanurzaniu, które mówi, że każdą rozmaitość gładką wymiaru n można zanurzyć jako podrozmaitość w przestrzeń euklidesową (2n + l)-wymiarową — przyp. tłum. 28 K. Menger, Allgemeine Raume und charakteristische Raume, Zweite Mitteilung: „Uber umfassenste n-dimensionale Mengen”,Proc. Acad. A m sterdam 29, 1125-1128 (1926). Zob. też K. Menger, D im ensionstheorie, Lipsk 1928. 29 Formalnie, dla każdego jednowymiarowego zwartego zbioru A ist­ nieje zwarty podzbiór gąbki Mengera B , który jest homeomorficzny z A. 165 2.7. Uniwersalność dywanu Sierpińskiego Nie możemy przedstawić dowodów zadziwiających rezul­ tatów Mengera czy Sierpińskiego, gdyż sięgają one daleko poza ramy tej książki. Chcielibyśmy jednakże przedstawić pewną ideę tego, jak różnorodne mogą być obiekty jednowy­ miarowe. Zajmijmy się tylko jedną z wielu metod pomiaru złożoności obiektu jednowymiarowego. W szczególności po­ zwoli nam to na rozróżnienie pomiędzy trójkątem a dywa­ nem Sierpińskiego. Podstawowe kroki ich konstrukcji są tak podobne (zob. paragraf 2.2), że może nasunąć się pytanie: czy trójkąt Sierpińskiego jest również uniwersalny? Możemy więc pytać: jak bardzo złożony jest trójkąt Sierpińskiego? Czy jest tak samo złożony jak dywan, czy też może mniej? Jeżeli mniej, to o ile mniej? Czy można polegać na intuicji albo odpowiedzi opartej na rysunku? Odpowiedź jest naprawdę zaskakująca: trójkąt Sierpiń­ skiego jest prościutki w porównaniu z dywanem, choć ich wy­ gląd — jak się wydaje — nie różni się znacznie. Trójkąt Sier­ pińskiego pomieści jedynie kilka (jednowymiarowych, zwar­ tych) gatunków żyjących na płaszczyźnie. Dlatego w rzeczy­ wistości te dwa fraktale niesłychanie się różnią. Przyjrzyjmy się teraz obiektom, takim jak na rysunku 2.50. R ząd ro z g a łę z ie n ia d la p a ją k ó w Rysunek 2.50: Pająki o wzrastającej liczbie ramion Widzimy połączozne odcinki. Można to też opisać jako położone centralnie punkty o różnej liczbie odchodzących ramion. Liczbę tę, nazwiemy rzędem rozgałęzienia w danym punkcie. Jest ona niezmiennikiem topologicznym. Oznacza to, że liczba ta nie zmieni się przy przejściu od obiektu do obiektu topologicznie jemu równoważnego. Możemy więc łatwo stworzyć obiekty o dowolnym z góry zadanym rzędzie rozgałęzienia. Istnieje bardzo pouczający sposób na w yróżnienie jed n ej z w ielu cech złożoności (to p o lo g ic zn e j) o b ie któ w jed n o w ym iaro w ych . Jest to zw iązane z ich rozgałęzianiem i je s t m ierzone rzędem rozgałęzienia,30 30 Zob. A. S. Parchomenko, Was ist eine K urve, VEB Verlag, 1957. Rząd rozgałęzienia 166 2. Klasyczne fraktale i samopodobieństwo Rysunek 2.51: Kilka przykładów skończonego i (przeliczalnie) nieskończonego rzędu rozgałęzienia. Liczby na rysunku oznaczają rzędy rozgałęzienia odpowiednich punktów które to pojęcie w p ro w ad ziliśm y pow yżej. Na rysunku 2 .5 1 pokazano kilka różnych ro d za jó w rozgałęzień. Rząd rozgałęzienia je s t pojęciem lokalnym . M ie rzy on liczbę ra­ m ion schodzących się w punkcie. I ta k dla pu n ktu na prostej liczba ram ion wynosi 2, a dla pu n ktu końcowego 1. W przykładzie (d ) na rysunku 2 .5 1 m a m y jed en p u n kt — oznaczon y oo — z którego w y­ chodzi nieskończenie (p rzeliczaln ie) w iele odcinkó w . D la te g o rząd rozgałęzienia teg o p u n ktu w ynosić będzie oo, podczas gdy dla p u n któw z o d cin kó w (ró żn yc h od końców ) w ynosić on będzie po prostu 2. N a z w ijm y o b ie kty z rysunku 2 .5 1 p ająkam i. W te d y (a ) to pająk z d w o m a, (b ) z trz e m a , (c ) z pięciom a, (d ) z nieskończenie w ielom a o d n ó ża m i. Niech X będzie zb io re m 31 i niech p e X będzie p u n ktem . Rzędem rozgałęzienia zbioru X w punkcie p n a zy w a m y 32 o r d x ( p ) = liczba gałęzi X w punkcie p. Jednym z m ożliw ych sposobów na policzenie odgałęzień je s t wzięcie 31 Formalnie wymagamy, by X był przestrzenią metryczną zwartą. 32 Formalna definicja wygląda następująco. Niech a będzie liczbą kar­ dynalną. W tedy ordx(p) < gdy dla każdego e > 0 istnieje otoczenie U punktu p o średnicy diam(Z7) < e i takie, że moc brzegu U, dU , jest nie większa niż a , card(d/7) < a . Ponadto definiujemy ord*(p) = a, jeżeli ordx(p) < ot oraz dodatkowo istnieje takie eo > 0, że dla do­ wolnego otoczenia U punktu p o średnicy mniejszej niż e, moc brzegu zbioru U jest nie mniejsza niż a, card(d/7) > a. 2.7. Uniwersalność dywanu Sierpińskiego 167 w ystarczająco m ałych kół zaw ierających dany p u n kt i znalezienie liczby przecięć brzegów tych kół ze zbiorem X . Skonstruujm y te ra z p a ją k a -m o n s tru m , którego rząd rozgałęzienia jest równoliczny z co n tin u u m , tzn . liczba je g o rozgałęzień będzie taka sama, ja k liczba p u n któ w w odcinku jed n o stko w ym [0 ,1 ]. M iotełka C antora Rysunek 2.52: Przykład nieprzeliczalnego rzędu rozgałęzienia — m iotełka Cantora Z aczn ijm y naszą konstrukcję, biorąc na płaszczyźnie pojedynczy punkt P o w spółrzędnych ( 1 / 2 , 1 ) (zo b . rysunek 2 .5 2 ), oraz zb ió r C antora C na [0 ,1 ]. N astępnie z każdego pun ktu zbioru C narysujm y odcinek biegnący do pu n ktu P. P rzyp o m n ijm y, że liczebność zbioru C antora je s t taka sam a ja k liczebność odcinka [0 ,1 ]. D la te g o te ż liczba pun któw przecięcia naszego zbioru i brzegu niew ielkiego koła o środku w P będzie m iała ta k ą sam ą liczebność. Z b ió r, któ ry w ten sposób pow stał, nosi nazw ę miotełki Cantora (w lite ra tu rze polskiej obiekt ten nazyw am y miotełką Knastera-Kuratowskiego — przyp. tłum.). K ażda próba graficznego przedstaw ienia m io tełki C an to ra m oże być trochę m yląca. M o że ona sugerować, że istnieje przeliczalnie wiele ram ion, podczas gdy w rzeczywistości je s t ich nieprzeliczalnie wiele. M ożna w ykazać je d n a k , że m iotełka ta ma w y m ia r (p o k ry ­ ciow y) 1, ta k sam o ja k każdy p ająk o k odnóżach. P rzyjrzyjm y się te ra z tró jk ą to w i Sierpińskiego pod ką te m rzędu rozgałęzienia, zob. rysunek 2 .5 3 . Jakiego rodzaju pająki m ożna znaleźć w tym trójkącie? M o żn a w ykazać, że jeżeli p je s t dow olnym punktem tró jk ą ta Sierpińskiego 5 , to 2, 4, jeśli p je s t narożem początkow ego tró jk ą ta , jeśli p je s t pu n ktem styku, 3, jeśli p je s t dow olnym innym p u n ktem . ( Jeżeli p je s t w ierzchołkiem , to dokładnie dw a ram iona prow adzą do tego punktu. Z w ró ć m y uwagę, ja k okręgi o tac za ją ce w ierzchołek 168 2. Klasyczne fraktale i samopodobieństwo (n ie m uszą m ieć środka w punkcie p) przecinają tró jk ą t Sierpińskiego w dw óch p u n ktach . Jeśli p je s t p u n ktem styku, to m ożem y zauw ażyć 4 ram iona w chodzące do teg o p u n ktu . W ty m przypadku m ożem y zaobserw ow ać okręgi, o ta c za ją c e p, przecinające tró jk ą t Sierpińskie­ go w d o kład n ie czterech pu n ktach . Jeżeli zaś p je s t dow olnym innym p u n k te m , to musi za w ierać się w e w n ętrzu nieskończenie wielu m niej­ szych tró jk ą tó w . K ażd y z tych tró jk ą tó w styka się z resztą tró jk ą ta Sierpińskiego w d o kład n ie trzech pu n ktach . D la te g o m ożem y znaleźć coraz m niejsze okręgi, z a w ie r a ją c e j, przecinające tró jk ą t Sierpińskie­ go do kład n ie w trzech p u n ktac h . M o ż e m y skonstruow ać 3 ram iona, k tó re przecho dzą przez te pu n kty i docierają do p. Rysunek 2.53: Rząd rozgałęzienia dla dowolnego punktu trójkąta Sierpińskiego wynosi 2,3 lub 4 U n iw e rsa ln o ść Możemy zauważyć, że trójkąt Sierpińskiego ma punkty d y w a n u o rzędzie rozgałęzienia 2,3 i 4 (zob. rysunek 2.53). Są to S ie rp iń sk ie g o jedyne możliwości. Oznacza to, że nie możemy odszukać pająka z pięcioma (lub więcej) odnóżami!33 Za to dywan Sierpińskiego jest uniwersalny. Dlatego musi zawierać pająki o dowolnym rzędzie rozgałęzienia, musi 33 Jest to ważna cecha. Pouczającym ćwiczeniem może być próba skonstruowania w trójkącie Sierpińskiego pająka o pięciu odnóżach i zrozumienie, gdzie tkwi przeszkoda. 2.7. Uniwersalność dywanu Sierpińskiego Rysunek 2.54: Konstrukcja pająka o sześciu odnóżach, uży­ wająca symetrii i rekursji nawet zawierać (topologiczną) wersję trójkąta Sierpińskie­ go. Spróbujmy więc jako pouczający przykład skonstruować w dywanie Sierpińskiego pająka z pięcioma lub sześcioma no­ gami. Konstrukcję taką pokazano na rysunkach 2.54 i 2.55. Rysunek 2.56 przedstawia pająka dokładnie takiego, jakiego znaleźliśmy w dywanie (po prawej), i jego topologiczny od­ powiednik (po lewej). Podsumujmy nasze rozważania. Omówienie uniwersal­ ności dywanu Sierpińskiego pokazuje, że fraktale m ają moc­ ne i głębokie korzenie w pięknej dziedzinie, jaką jest mate- 169 170 2. Klasyczne fraktale i samopodobieństwo Rysunek 2.55: Dywan Sierpińskiego jest pomieszczeniem dla do­ wolnego obiektu jednowymiarowego: prostej, kwadratu, ósemki, pająka pięcioramiennego, a nawet zdeformowanej wersji trójkąta Sierpińskiego (nie jest ona pokazana — czy potraficie ją odnaleźć?) Rysunek 2.56: Te dwa pająki są topologicznie równoważne 171 2.8. Zbiory Julii matyka, oraz że możemy sparafrazować stare chińskie przy­ słowie34 i powiedzieć, że fraktale to nie tylko piękne obrazki. 2.8. Z b iory J u lii Gaston Julia (1893-1978) miał jedynie 25 lat, gdy w roku 1918 opublikował swoje 199-stronicowe dzieło35. Dzieło to zapewniło mu sławę w ośrodkach matematyki jego czasów. Walcząc jako żołnierz francuski, Julia został ciężko ranny, co spowodowało utratę nosa. Na rysunku 2.57 widzimy jego zdjęcie z około 1920 r. W tym czasie przeszedł kilka bole­ snych operacji, nie zaprzestając jednak pracy naukowej — nawet w szpitalu. Julia został też profesorem Szkoły Poli­ technicznej w Paryżu. G a s to n J u lia Rysunek 2.57: G aston Julia, 1893-1978, jeden z prekursorów nowoczesnej teorii układów dynam icznych Pomimo, że Julia cieszył się światową sławą w latach dwudziestych naszego wieku, jego prace zostały w zasadzie zapomniane do czasu, gdy Mandelbrot pod koniec lat siedemdziesiątych zwrócił na nie uwagę przez swoje niezwy34 Obraz jest wart tysiąca słów. 35 G.Julia, Mémoire sur l’itération des fonctions rationelles, J. Math. Pure Appl. 8, 47-245 (1918). W la ta c h d w u d z ie sty c h p ra c e J u lii b y ły sław ne 172 2. Klasyczne frak tale i samopodobieństwo kle ważne eksperymenty. Mandelbrot został wprowadzony w prace Julii przez swojego wuja Szolema Mandelbrojta, który był profesorem matematyki w Paryżu i następcą Jacąuesa Salomona Hadam arda w słynnym College de France. M andelbrot urodził się w Polsce w roku 1924 i po tym, jak jego rodzina wyemigrowała do Francji w roku 1936, jego wuj poczuł się odpowiedzialny za jego wykształcenie. Około 1945 r. polecił on Mandelbrotowi prace Julii jako arcy­ dzieła i źródła ciekawych problemów. Mandelbrotowi jed­ nak nie przypadły one do gustu. Nie odpowiadały mu język i rodzaj m atematyki, jakie znalazł w pracach Julii. W za­ mian wybrał własną, zupełnie odmienną drogę, która jed­ nak przywiodła go z powrotem do odkryć Julii. Stało to się około roku 1977 po odysei wiodącej przez wiele dzie­ dzin nauki. Z pomocą grafiki komputerowej Mandelbrot pokazał, że prace Julii są źródłem, najpiękniejszych znanych dziś fraktali. Możemy więc chyba powiedzieć, że arcydzieło to pełne było klasycznych fraktali, które czekały na przebu­ dzenie przez pocałunek techniki komputerowej. W pierwszej połowie naszego wieku Julia był naprawdę postacią o świato­ wej sławie. Po to, aby poznać jego osiągnięcia, Hubert Cremer zorganizował seminarium na Uniwersytecie Berlińskim w 1925 r., pod auspicjami Erharda Schmidta i Ludwiga Bieberbacha. Lista uczestników wyglądała niemal jak wy­ ciąg z „Who is who” matematyki tam tych czasów. Byli to m.in. Richard D. Brauer, Heinrich Hopf i K urt Reidemeister. Cremer36 napisał też esej na ten tem at, w którym umieścił pierwszą wizualizację zbioru Julii (zob. rysunek 2.58) S p rz ę ż e n ie Zbiory Julii znajdują się na płaszczyźnie zespolonej i staz w ro tn e d la nowią podstawę do zrozumienia iteracji wielomianów, taró w n a n ia kich jak x 2 + c, albo z 3 + c itp. Dokładne wprowadzenie do k w a d ra to w e g o tego tem atu podamy w rozdziale 12, a na razie założymy, że Czytelnik zna trochę liczby zespolone. Jeśli tak jednak nie jest, to można ograniczyć się do liczb rzeczywistych. Jako przykład rozpatrzmy wielomian x 2 + c. Iterowanie oznacza, że ustalamy liczbę c i wybieramy jakąś wartość dla z, otrzy­ mując X 1 + c. Następnie podstawiamy otrzymaną wartość w miejsce x i znowu wyznaczamy wartość wielomianu z 2 + c, 36 H. Cremer, Über die Iteration rationaler Funktionen, Jahresbe­ richte der D eutschen M athem atischen Vereinigung 33, 185-210 (1925). 173 2.8. Zbiory Julii 908 B u n n Cremes: Wir gehen ron xwei gleichseitigen Dreiecken A Ai At A^ und A A^ A4 A^ mit der Seite a »as, die an der Ecke A^ aneinanderstoften (Fig. 9). Sie bil­ den zusammen den ge­ schlossenen polygonalen P i * "^4 der die Ebene in 3 reiche teilt: 1. Das Innere A A tA i At z ©r 2. Das Innere m*. a a x a a a ^ : ©;. 3. Den Bereich ©^ der den unendlichfernen Punkt enthält vom ganzen polygonalenZugj», begrenzt wird. Be­ von ron and Rysunek 2.58: P ierw szy rysunek Cremera z roku 1925, przed­ staw iający pew ien zbiór Julii i tak dalej. Oznacza to, że dla dowolnie ustalonej wartości c tworzymy ciąg liczb zespolonych x —>x 2~hc —>(x 2 + c)2+c —» ((x2+ c )2+ c )2+ c —> ... Okazuje się, że ciąg ten musi mieć jedną z dwóch następują­ cych własności: • ciąg jest nieograniczony: elementy ciągu opuszczą każdy D ych otom ia okrąg ze środkiem w centrum układu współrzędnych, zbiorów Julii • ciąg jest ograniczony: istnieje okrąg o środku w centrum układu współrzędnych, którego elementy ciągu nigdy nie opuszczą. Zbiór punktów, z których startując otrzymamy pierwszy rodzaj zachowania, nazywamy zbiorem uciekinierów dla da­ nego c, a zbiór punktów, które prowadzą do drugiego rodzaju zachowania, nazywamy zbiorem więźniów dla param etru c. Terminologia ta używana była już w części poświęconej zbio­ rowi Cantora. Oba te zbiory są niepuste. Dla danego c weźmy na przykład x wystarczająco duże, tak żeby x 2 + c było jeszcze większe, większe niż x. Obserwujemy wtedy pierwszy rodzaj zachowania. Dlatego zbiór uciekinierów za­ wiera wszystkie punkty które są bardzo duże. Z dru­ giej strony, jeżeli wybierzemy punkt x, dla którego zachodzi x = x 2 + c, to iteracje będą stacjonarne. Zaczynając od ta­ kiego punktu, otrzymamy ciąg stały Oznacza to, że zbiór więźniów nie może być pusty. 174 2. Klasyczne fraktale i samopodobieństwo K ilka p róbek zbiorów Ju lii R y s u n e k 2 .5 9 : K ilka piew szych zbiorów Julii 175 2.9. Drzewa pitagorejskie Oba zbiory pokrywają pewną część płaszczyzny zespolo- Zbiór Ju lii nej i dodatkowo dopełniają się. Dlatego też granica zbioru więźniów jest jednocześnie granicą zbioru uciekinierów, i ją właśnie nazywamy zbiorem Julii dla danego c (lub raczej x 2+c). Na rysunku 2.59 pokazano kilka przykładów zbiorów Julii, otrzymanych w wyniku eksperymentów komputero­ wych. Czy w zbiorach Julii istnieje samopodobieństwo? Jeżeli dokonamy nawet powierzchownej analizy sytuacji, to może­ my zauważyć, że istnieją pewne powtórzenia w różnej skali. Otóż zbiór Julii może być pokryty kopiami siebie samego, lecz kopie te otrzymywane są za pomocą przekształceń nie­ liniowych. Dlatego też samopodobieństwo zbiorów Julii jest innej natury niż samopodobieństwo trójkąta Sierpińskiego, który składał się z pomniejszonych, lecz poza tym przy­ stających, kopii siebie samego. 2.9. D r z e w a p ita g o r e jsk ie Pitagoras zmarł na początku V wieku p.n.e. Współcześni mu, a później nawet Arystoteles, znali go jako twórcę brac­ twa religijnego w południowych Włoszech, gdzie pitagorejczycy odgrywali w VI wieku p.n.e. rolę polityczną. Łączenie jego imienia z twierdzeniem Pitagorasa jest sprawą stosun­ kowo nową i wątpliwą. W rzeczywistości twierdzenie to było znane na długo przed czasami Pitagorasa. Ważne odkrycie, jakie możemy jemu, a w każdym razie jego szkole, przypisać, dotyczy niewspółmiemości boku i przekątnej w kwadracie. Oznacza to, że stosunek przekątnej do boku w kwadracie nie jest równy stosunkowi żadnych dwóch liczb całkowitych. a 2 + b2 = c2 R y s u n e k 2 .6 0 : T w ierdzenie Pitagorasa: a 2+ 6 2 = c2 176 Niewspółmierność boku i przekątnej w kwadracie 2. Klasyczne fr akt ale i samopodobieństwo O d k ry cie, że stosunek długości p rzekątn ej do długości boku w kwa­ dracie nie rów na się stosunkow i żadnych dw óch liczb całkow itych stw orzyło p o trzeb ę rozszerzenia system u liczbow ego o liczby niewy­ mierne. y/2, długość p rze ką tn e j kw ad ratu jednostkow ego, jes t liczbą n iew ym iern ą. R ozum ow anie, któ re doprow adza nas do te g o w nio­ sku je s t następujące. Z a łó ż m y najp ierw , że y/2 = p/q. M o żem y rów nież założyć, że p i q nie m a ją wspólnego dzielnika. Zachodzi w ięc równość p 2 — 2 ę 2 , co oznacza, że p2 je s t parzyste. Z tego w y n ika, że p te ż musi być parzyste. Niech więc p = 2 r . O trz y m u ­ je m y w te d y p 2 = 2 q2f co oznacza, że 4 r 2 — 2 q2 czyli 2 r 2 = q2, co z kolei prow adzi do w niosku, że q je s t rów nież parzyste. Doszliśm y w ięc do sprzeczności, gdyż założyliśm y, że p i q nie m ają wspólnego d zieln ika. O zn ac za to , że V2 je s t niew ym ierne. D ow ó d, któ ry tu przytoczyliśm y, zn alezio no w d ziesiątej księdze Euklidesa około 300 r.p .n .e . Szukanie pierwiastków kwadratowych stanowiło inspira­ cję dla matematyków do stworzenia pięknych konstrukcji geometrycznych. Jedna z nich pozwala na skonstruowanie sjn dla dowolnej liczby całkowitej n. Możemy nazwać tę konstrukcję spiralą pierwiastków kwadratowych. Jest ona geometryczną pętlą sprzężenia zwrotnego. Rysunek 2.61 tłumaczy ideę tworzenia kolejnych pierwiastków. K on struk cja Konstrukcja, która prowadzi do rodziny drzew pitagodrzew rejskich i związanych z nimi pojęć, ma ścisły związek z kon­ p it agorej skich strukcją spirali pierwiastków kwadratowych. Konstrukcja ta składa się następujących kroków (zob. rysunek 2.62): Krok 1: Narysuj kwadrat. Krok 2: Dołącz trójkąt prostokątny do jednego z boków tak, by bok kwadratu był jednocześnie przeciwprostokątną tego trójkąta (w tym przykładzie trójkąt jest równoramienny). Krok 3: Dołącz dwa kwadraty do wolnych boków trójkąta. Krok 4: Dołącz dwa trójkąty prostokątne. Krok 5: Dołącz cztery kwadraty. Krok 6: Dołącz cztery trójkąty prostokątne. Krok 7: Dołącz osiem kwadratów. 2.9. Drzewa pitagorejskie 177 Spirala pierw iastków kw adratow ych Rysunek 2.61: Konstrukcja spirali pierwiastków kwadrato­ wych. Zaczynamy od trójkąta prostokątnego, którego boki, two­ rzące kąt prosty, mają długość 1. Zatem jego przeciwprostokątna ma długość \/2. Kontynuujemy konstruując następny trójkąt pro­ stokątny tak, że przyprostokątne mają długość 1 i \/2. Przeciw­ prostokątna tego trójkąta ma długość \Z3, i tak dalej K onstrukcja drzew a pitagorejsk iego Rysunek 2,62: Podstawowa idea konstrukcji drzewa pitagorej­ skiego Jeśli już zrozumiemy podstawową zasadę tworzenia drze­ wa, możemy ją w dowolny sposób modyfikować. Na przykład trójkąty prostokątne, które dołączaliśmy w czasie tworzenia drzewa, nie muszą być trójkątam i równoramiennymi. Mogą to być dowolne trójkąty prostokątne. Po dopuszczeniu takiej modyfikacji dysponujemy dodatkowym stopniem swobody. 178 2. Klasyczne fr akt ale i samopodobieństwo Trójkąty prostokątne mogą być dołączane w danej orientacji lub możemy je odwrócić po każdym kroku. Na rysunku 2.63 pokazano dwie takie możliwości. R y s u n e k 2 .6 3 : D w ie konstrukcje, w których użyto trójkątów nierów noram iennych Rysunek 2.64 przedstawia figury powstałe w wyniku ta­ kich konstrukcji, po wykonaniu około 50 kroków. Zadzi­ wiające jest, że zmieniliśmy jedynie orientację trójkątów, a nie ich rozmiar. Otrzymaliśmy dwie bardzo różne figury. W pierwszym przypadku widzimy rodzaj spiralnego liścia, podczas gdy drugi przypomina liść paproci lub choinkę. Za­ uważmy, że w dolnej figurze na rysunku 2.64 możemy wyo­ drębnić główną gałąź, z której w yrastają odgałęzienia w spo­ sób naprzemienny: prawe, lewe, prawe, lewe... Różni się to od tego, co widzimy w drugiej figurze, w której główna gałąź jest wygięta w pałąk i od której gałęzie odrastają tylko w jednym kierunku. Czy można odgadnąć, że obie figury powstały na skutek tej samej zasady sprzężenia zwrotnego? Czy nie wyglądają na pierwszy rzut oka, jakby należały do całkiem różnych rodzin figur? Są one jednak bardzo blisko spokrewnione, co jest oczywiste po przeprowadzeniu ana­ lizy ich procesów konstrukcji. Jest to jeden ze sposobów, w jaki fraktale mogą pomóc we wprowadzeniu nowych na­ rzędzi badawczych do botaniki. Biolog Aristid Lindenmayer (1925-1989) wprowadził pojęcie L-systemów, opierając się na podobnych obserwacjach. Omówimy ten tem at bardziej szczegółowo w rozdziale 8. Zajmijmy sie jeszcze kilkoma przykładami, opartymi na modyfikacjach tych prostych, ale zadziwiających konstruk­ cji. Czy musimy ograniczać się do jednego rodzaju trójką- 2.9. Drzewa pitagorejskie Rysunek 2.64: D w ie konstrukcje przeprowadzone 50 razy każda. Zwróćmy uwagę, że w ielkość trójkątów jest taka sam a w obu z nich 179 2 . Klasyczne frakt ale i samopodobieństwo 180 K afelkow anie okresow e R y s u n e k 2 .6 5 : K afelkow anie okresowe D rzew o p itagorejsk ie p o d o b n e do brokułów R y s u n e k 2 .6 6 : K onstrukcja, w której u ży to trójkątów równo­ ram iennych o kącie rozw artym tów? Zmodyfikujmy trójkąty, jednak zachowajmy pewną regularność. W ten sposób stworzyliśmy możliwość uzyski­ wania nowych form, poczynając od roślinopodobnych, przez mozaiki do ... kto wie czego jeszcze. Na rysunku 2.65 dołączaliśmy trójkąty równoboczne i konstrukcja stała się cykliczna. Jeśli zamiast trójkątów równobocznych weźmiemy trój­ kąty równoramienne o kącie rozwartym, to dostaniemy ko- 2.10. Program na zakończenie rozdziału lejną niespodziankę — figurę przypominającą kształtem bro­ kuły (zob. rysunek 2.66). Konstrukcje takie dostarczają wielu ciekawych problemów. Kiedy konstrukcja doprowa­ dzi do samoprzecięcia figury? W jaki sposób zmniejszają się długości boków trójkątów lub kwadratów podczas wyko­ nywania konstrukcji? Co więcej, nasze konstrukcje dostar­ czyły nam szeregu przykładów pięknych figur samopodobnych, tzn. takich, że każda z nich w czasie konstrukcji dzieli się na dwie główne gałęzie, które znów się dzielą na dwie itd., a każda z tych gałęzi jest pomniejszoną wersją całości. Kończymy już zwiedzanie naszej galerii klasycznych fraktali, chociaż nie wspomnieliśmy jeszcze o wkładzie, jaki do tej dziedziny wnieśli Henri Poincare, Karl Weierstrass, Felix Klein, L. F. Richardson czy A. S. Besicovitch. Oni wszyscy zasługują na to, by poświęcić im więcej miejsca, niż mo­ glibyśmy na to przeznaczyć w naszej książce, odsyłamy więc zainteresowanych do książki M andelbrota.37 2.10. P r o g r a m n a z a k o ń c z e n ie ro zd zia łu : tr ó jk ą t S ie r p iń sk ie g o a a d r e so w a n ie d w ó jk o w e Trójkąt Sierpińskiego jest jednym z głównych bohaterów na­ szej książki. Odgrywa on ważną rolę w wielu rozdziałach. Możemy go skonstruować na wiele różnych sposobów. Naj­ bardziej zaskakującą metodą wydaje się gra w chaos przed­ stawiona w rozdziale 1. Będziemy nią się jeszcze zajmowali w rozdziale 6. Teraz zajmiemy się metodą otrzymania trój­ kąta Sierpińskiego, która jest niezwykle krótka. Właściwie wszystkie potrzebne informacje znajdują się w jednej linii kodu programu, a mianowicie: IF (x AND (y-x)) = 0 THEN PSET (x + 158 - 0.5*y, y + 30) Jest to rzeczywiście bardzo specjalny wiersz. Nie jest łatwo zrozumieć, jak on działa i wyjaśnimy to tylko z grubsza. Później, w rozdziale 9, sekret odkryjemy do końca. Będzie to miało związek z pięknym faktem, związanym z trójkątem Pascala. Przedstawimy tam też pewne uogólnienia, które pozwolą na generowanie nawet bardziej złożonych figur. 37 B. Mandelbrot, The Fractal Geometry o f Nature, Freeman, New York 1982. 181 182 2. Klasyczne fraktale i samopodobieństwo R ysunek 2.67: W ynik program u „Trójkąt Sierpińskiego a adre­ sow anie dw ójkow e” ✓ Spraw dzanie Ściśle rzecz biorąc, program ten nie wykonuje obliczeń adresów dla trójkąta Sierpińskiego, lecz pewien sposób kolorowania dla trójkąta Pascala. Pamiętamy, że odkryliśmy wzór trój­ kąta Sierpińskiego podczas zaznaczania kolorami odpowie­ dnich pól w trójkącie Pascala w zależności od parzystości: biały dla pól z liczbami parzystymi, czarny z nieparzystymi. Załóżmy, że chcielibyśmy obliczyć, jakim kolorem powin­ niśmy pokolorować dane pole. Powstaje pytanie, czy potra­ fimy odgadnąć to bez wykonywania obliczeń dla wszystkich wierszy trójkąta Pascala, leżących ponad polem nas intere­ sującym. Algorytm naszego programu dostarcza odpowiedzi pozytywnej na to pytanie: możemy znaleźć kolor dla danego pola, znając tylko jego współrzędne. Algorytm ten jednak wymaga wykorzystania pewnej liczby narzędzi matematycz­ nych. Opiera się on na dwójkowym kodowaniu współrzęd­ nych. Każde pole jest wyznaczone przez parę (x,y) współ­ rzędnych całkowitych, odpowiadających pewnemu układowi współrzędnych. Zacznijmy od początku układu współrzędnych (0,0), bę­ dącego wierzchołkiem macierzy trójkątnej. Niech współrzęd­ na x biegnie ukośnie w lewo, a y — ukośnie w prawo (zob. rysunek 2.68). W tedy każda para liczb całkowitych (x,j/) odpowiada określonemu położeniu w macierzy. Po to, by wy­ znaczyć kolor (a więc i parzystość) odpowiadający danemu polu, umieśćmy rozwinięcie dwójkowe obu współrzędnych jednej nad drugą i postąpm y według następującej reguły: jeżeli dwie jedynki, jedna nad drugą, występują w której­ kolwiek kolumnie, pole kolorujemy na biało. W przeciw- 2.10. Program na zakończenie rozdziału 183 D w ójkow y układ w spółrzędnych dla trójk ąta P ascala Rysunek 2.68: Dwójkowy system adresowy dla trójkąta Pascala. Zaznaczone są komórki o adresach: A(2,1), B(4, 2) oraz (7(3,4) nym przypadku kolorujemy na czarno. Weźmy na przykład pole oznaczone (7 na rysunku 2.68. Ma ono współrzędne (3,4), które mają reprezentację dwójkową (011,100), a po­ nieważ w żadnej kolumnie nie występują jednocześnie dwie jedynki, pole to powinno być pokolorowane na czarno. Uza­ sadnienie takiego algorytmu wynika z prac Ernesta Eduarda Kummera38 (1810-1893). Zauważmy, że kryterium, jakie tu stosujemy, jest takie samo, jak w paragrafie 5.3. Daje nam to pewną wskazówkę, dlaczego otrzymujemy trójkąt Sierpiń­ skiego, kolorując trójkąt Pascala modulo 2. Zajmijmy się teraz tym, jak w naszym programie wyko­ rzystujemy te informacje. Porównywanie rozwinięć dwójko­ wych odbywa się po prostu za pomocą operacji AND. Jeśli wykonamy tę operację wprost, tak jak w programie „Skośny trójkąt Sierpińskiego”, to otrzymamy pochyloną odmianę znanego motywu. Zauważmy również, że w programie mamy przesunięcie o 30, dotyczące x i y. Jak zatem możemy wy­ generować żądany kształt — taki jak na rysunku 2.67? Po pierwsze musimy porównywać x i y —x. Jest to równoważne zmianie układu współrzędnych na taki jak na rysunku 2.68. Co więcej, musimy przekształcić punkt w następujący sposób: (x+158-0. 5*y, y+30). Oznacza to przesunięcie wierzchołka 38 E.E. Kummer, Über Ergänzungssätze zu den allgemeinen Rezipro­ zitätsgesetzen, Journal fü r die reine und angewandte M athem atik 44, 93-146 (1852), S, Wilson był prawdopodobnie pierwszą osobą, która podała ścisłe wytłumaczenie, dlaczego trójkąt Sierpińskiego pojawia się w trójkącie Pascala, Nie używał on jednak wyniku Kummera. Zob. S. Wilson, Cellular automat a can generate fractals, Discrete Appl. Math. 8, 91-99 (1984). 184 Program w BASIC-u Tytuł 2. Klasyczne fraktale i samopodobieństwo Skośny trójkąt Sierpińskiego Najprostszy możliwy program, który tego dokona DEFINT x, y FOR y = 0 TO 255 FOR x = 0 TO 255 IF (x AND y) = 0 THEN PSET (x+30,y+30) NEXT x NEXT y END Program w BASIC-u Tytuł Trójkąt Sierpińskiego a adresowanie dwójkowe Najprostszy możliwy program, który tego dokona DEFINT x, y FOR y = 0 TO 255 FOR x = 0 TO y IF (x AND (y-x)) = 0 THEN PSET (x+158-.5*y,y + 30) NEXT x NEXT y END trójkąta trochę na prawo i ustawienie go centralnie dla x = 158 (zauważmy, że 158 = 128 + 30). Czy potrafilibyśmy narysować trójkąt pokolorowany od­ wrotnie (wystarczy zmienić tylko jeden znak)? Czy można zmodyfikować program w taki sposób, żeby komenda IF porównywała x i y, ale żeby rezultat był taki sam? Zauważmy, że program rysuje figurę szeroką tylko na 256 pikseli. Jeżeli chcemy to zmienić, to nie powinniśmy zapo­ mnieć o zmienieniu liczby 158, która była szerokością podzie­ loną przez dwa plus 30. Wskazówki dla użytkowników PC Jeżeli u żyw a m y ko m p u tera ko m patyb ilnego z IBM PC i rozdzielczość je g o ekranu wynosi tylko 320 x 200 pikseli, to zo b aczym y tylko pierw ­ sze 200 linii tró jk ą ta Sierpińskiego, generow anego przez nasz program (p o w in n o się zm ie n ić rów nież y+30 na y). A b y zobaczyć .kom pletny" obraz, trze b a za m ien ić liczbę 255 w drugiej linii kodu na 127. Stw o­ rzym y w ten sposób m niejszą wersję, która za to będzie dobrze pa­ sowała do ta k ie g o ek ra n u . R ozdział 3 Granice i sam opodobieństw o Zdaniem Mandelbrota natura splatała matematykom figla. Być może XIX-wiecznym matematykom zbywało na wyobraź­ ni, ale naturze nie. Te same patologiczne struktury stwo­ rzone po to, by móc się wyrwać z ciasnego XIX-wiecznego naturalizmu — jak się okazało — tkwią głęboko w dobrze nam znanych obiektach występujących w swiecie natury. Freeman Dyson1 Dysonowi chodzi tu taj o matematyków, takich jak G. Cantor, D. Hilbert i W. Sierpiński, zaliczanych do grona tych, którzy pomogli wydostać się matematyce z kryzysu powstałego na przełomie wieków. Oni to właśnie stworzyli wspaniałe abstrakcyjne fundamenty, na których mogła roz­ kwitnąć współczesna matematyka. W XX w. matematyka bezsprzecznie uległa znaczącym przemianom. Możemy za­ obserwować ciągły wzrost dominacji podejścia algebraicz­ nego nad geometrycznym. W wiecznym poszukiwaniu praw­ dy absolutnej matematycy ustalili nowe kryteria oceny pop­ rawności wywodu matematycznego. W związku z tym odrzu­ cono wiele akceptowanych niegdyś metod. Coraz bardziej 1 Freeman Dyson, Characterizing Irregularity, Science 200, 677-678 (1978). 186 3. Granice i samopodobieństwo odchodzono od rozumowania opartego na argumentach geo­ metrycznych i wizualnych. Podczas gdy newtonowskie Prin­ cipia Mathematica, kładące podwaliny pod współczesną ma­ tematykę, posługiwały się jeszcze argumentami wizualnymi, obecne metody — jak się wydaje — odrzucają tego typu podejście. Paradoksalne więc może się wydawać, że niektóre konstrukcje stworzone przez Cantora, Hilberta, Sierpińskiego 1 innych po to, by doprowadzić do perfekcji ich niezwykle abstrakcyjne koncepcje, zawierają jednocześnie wskazówki do zrozumienia geometrycznych cech natury. Zarówno zbiór Cantora, jak i krzywa Hilberta oraz trójkąt Sierpińskiego do­ wodzą stopnia komplikacji współczesnej teorii zbiorów, lecz zarazem, jak wskazał M andelbrot, są doskonałym modelem złożoności natury. Znalezienie odpowiedniego abstrakcyjnego, dawno zna­ nego pojęcia granicy było częścią walki o stworzenie solid­ nych podstaw współczesnej matematyki. Pojęcie granicy jest jednym z napotężniejszych i najbardziej podstawowych pojęć występujących w matematyce i w nauce. Jednocześnie pojęcie to jest bardzo trudne dla wielu niematematyków. To niedobrze, szczególnie dlatego, że współcześni matema­ tycy twierdzą — jak się wydaje — że pojęcie to jest try­ wialne. W rzeczywistości stworzenie odpowiedniego mate­ matycznego aparatu do zrozumienia granicy zajęło matema­ tykom tysiące lat. Nie powinniśmy zatem ignorować pro­ blemów niematematyków, ponieważ mogą one być czasem tej samej jakości i tak samo głębokie jak te, które zastana­ wiały wielkich matematyków w przeszłości. Samopodobieństwo natom iast wydaje się pojęciem pro­ stym i zrozumiałym. Nazwa — samopodobieństwo — pra­ wie nie wymaga wyjaśnienia. Wydawałoby się, że pojęcie to używane <j£st od wieków, a tymczasem ma ono jedy­ nie około 25 lat. Świetną zaczerpniętą z natury ilustracją pojęcia samopodobieństwa jest nowa odmiana warzywa po­ wstała ze skrzyżowania kalafiora i brokuł, i nazwana romane­ sco (zob. rysunek 3.1 i kolorową wkładkę). Gdy oglądamy tę roślinę w skali makroskopowej, widzimy pewien kształt. Roślina ta dzieli się na mniejsze części, z których każda wy­ gląda jak pomniejszona całość. Te z kolei dzielą się na małe różyczki, również podobne do całości. Możemy z łatwością dojrzeć trzy takie generacje. Drugie pokolenie części, jak też i następne, jest pomniejszoną kopią poprzedniego pokolenia. Właśnie coś takiego nazywamy samopodobienstwem. 187 R o m a n e sc o Rysunek 3.1: Nowa odmiana warzywa, romanesco — skrzy­ żowanie kalafiora z brokułami ma uderzające cechy samopodobieństwa Przekonamy się, że ścisła dyskusja nad pojęciem samopodobieństwa ma bliski związek z pojęciem granicy i dla­ tego wymaga ostrożności. Obserwacja, jaką możemy uczynić w naturze, jest jednak prosta i bezpośrednia. Jeśli ktoś raz poznał tę podstawową własność, trudno mu będzie space­ rować przez lasy i pola, i nie obserwować roślin i innych tworów natury pod tym kątem. Fraktale stwarzają nowe problemy związane z granicą, ale jednocześnie, i o to nam tu chodzi, dają nową odświe- 188 3. Granice i samopodobieństwo żającą perspektywę rozumienia samego jej pojęcia. Z jednej strony, fraktale mogą stworzyć wizerunek obiektu będącego granicą w procesie sprzężenia zwrotnego, z drugiej nato­ miast, niektóre fraktale są przykładami samopodobieństwa w najczystszej formie. Okazuje sie, że wiele fraktali można całkowicie określić i zdefiniować przez ich własności samo­ podobieństwa. 3-1. P o d o b ie ń s tw o i sk a lo w a n ie C o to je s t Samopodobieństwo jest rozszerzeniem jednego z najbardziej p o d o b ie ń s tw o ? owocnych pojęć geometrii elementarnej: podobieństwa. Dwa obiekty, bez względu na ich wielkość, są podobne, jeżeli m ają taki sam kształt. Odpowiadające sobie kąty muszą być takie same, a odpowiadające sobie odcinki powinny mieć, wszystkie ten sam, współczynnik proporcjonalności. Jeśli na przykład robimy powiększenie fotografii, czynnik powiększe­ nia jest taki sam w obu kierunkach, pionowym i poziomym. Odcinki położone skośnie będą powiększone w tej samej skali. Czynnik powiększania nazywamy współczynnikiem skali, a przekształcenie obiektów — podobieństwem lub skalo­ waniem. Podobieństwa Podobieństw a to przekształcenia dopuszczające jednokładność, obroty i przesunięcia. M o żn a dopuścić te ż odbicie (sym etrię osiow ą), ale w ty m m iejscu p o m in ie m y ta k ą m ożliw ość. O g ran ic zy m y się do podo­ bieństw na płaszczyźnie. P u n k t P o zn ac za m y przez je g o współrzędne, P = (x,y). Z a sto su jm y jed n okładność, ob ró t i przesunięcie do punktu P = (x,y) pew nej fig u ry g eo m etryczn ej. Z a c zn ijm y od operacji skalow ania (je d n o k ład n o śc i) oznaczon ej S. O trz y m a m y nowy punkt P* = ( x \ y f). M o ż e m y to zapisać w zo ram i: X* — s x , y' = sy> gdzie s > 0 je s t w spółczynn ikiem skali. Jeżeli s < 1, nastąpi redukcja, a jeśli s > 1 — pow iększenie obrazu. N astępnie w yko n ajm y obrót R p u n ktu P f = ( x ', yf), w w yniku którego o trz y m a m y pun kt P n ~ x n = cos 6 • x ł — sin 0 • y *, yft = sin 0 * x* + cos 6 * y ł . 189 3.1. Podobieństwo i skalowanie Powyższy w zór opisuje o b ró t pun ktu P f o ką t 9 w kierunku przeciw ­ nym do ruchu w skazów ek zegara (m a te m a ty c zn ie oznacza to kieru­ nek d o d a tn i), dookoła środka układu w spółrzędnych. N a zakończenie zastosujm y przesunięcie T pun ktu P ” o ( Tx,Ty ), dane w zorem xf" = x " + T x, yf" = y" + Ty, w w yniku którego o trz y m a m y p u n kt tem napisać pm = P nf = (xf,f,ynt). M o ż e m y za­ = T (R (p ’)) = T(R(S(P))) albo inaczej W(P) = T(R(S(P))), gdzie m am y P tn = je jed n ym w zorem W(P). W je s t podobieństw em . M o że m y zapisać x,n = s cos 9 *x —s sin 9 *y + Tx, i/" = s sin 9 *a; + s cos 9 *y + Ty. Jeżeli zastosujem y przekształcenie W do w szystkich p u n któ w o b iektu położonego na płaszczyźnie, to o trz y m a m y o b ie kt podobny do w y j­ ściowego. Podobieństwo w dwóch wymiarach Rysunek 3.2: Przekształcenie podobieństwa zostało zastosowane do trójkąta ABC. Czynnik skali wynosi s = 2 , kąt obrotu 9 = 270°, przesunięcie zaś dane jest przez Tx = 0 oraz Ty — 1 Podobieństw o m ożna te ż ściśle zdefiniow ać dla o b ie któ w poło­ żonych w innych w ym iarach, np. dla figu r w trzech czy te ż tylko w jedn ym w ym iarze. W drugim przypadku dysponujem y p u n ktam i x osi liczb rzeczyw istych i podobieństw a m ożem y zapisać po prostu jak o W(x) = sx + s / 0. 190 3. Granice i samopodobieństwo Jeżeli powiększymy fotografię trzykrotnie, to zauważmy, że pole powstałego w ten sposób zdjęcia będzie 3 • 3 = 32 = 9 razy większe niż pole oryginału. Ogólnie: jeżeli rozważamy figurę o polu A i współczynnik skali s, otrzymamy po prze­ kształceniu figurę o polu s • s = s2 razy większym niż pole A oryginału. Oznacza to, że pole powiększonego obiektu jest powiększane o kwadrat współczynnika skali. Skalow anie Co ciekawego możemy zaobserwować przy skalowaniu ob iek tów trój­ obiektów trójwymiarowych? Jeżeli weźmiemy sześcian i po­ w ym iarow ych większymy go w skali 3, będzie on wtedy 3 razy dłuższy, 3 razy szerszy i 3 razy wyższy od oryginału. Każda ze ścian sześcianu zwiększy swoje pole 32 = 9 razy w porównaniu ze ścianą oryginalnego sześcianu. Ponieważ zachodzi to dla każdej ze ścian, więc i całkowite pole sześcianu zwiększy się dziewięciokrotnie. Ogólnie zatem: całkowita powierzchnia powiększonego obiektu zwiększa się względem powierzchni obiektu o danym kształcie o kwadrat współczynnika skali. Jak zmienia się objętość? Powiększony sześcian ma trzy warstwy, każdą złożoną z 3 • 3 = 9 sześcianików. Dlatego też całkowita objętość wynosi 3 • 3 *3 — 33 = 27, czyli jest 27 razy większa od objętości wyjściowego sześcianu. Możemy uogólnić naszą obserwację i powiedzieć, że objętość w po­ większonym obiekcie zwiększa się o czynnik skali podniesiony do trzeciej potęgi. Te proste obserwacje m ają zadziwiające konsekwencje, które stanowiły przedmiot dyskusji przeprowadzonej przez Galileusza (1564-1642) w opublikowanych w roku 1638 Dia­ logach dotyczących dwóch nowych nauk. Otóż Galileusz 2 2 Zacytujmy relację D ’Arcy Thompsona z On Growth and Form ( O wzroście i postaci) (New Edition, Cambridge University Press, 1942, s. 27): „[Galileusz] stwierdził, że gdybyśmy próbowali budować okręty, pałace, czy świątynie ogromnej wielkości, wtedy reje, belki i sworznie przestałyby trzymać. Tak samo Natura nie może pozwolić na wzrost roślin czy zwierząt powyżej pewnej wielkości, przy jednoczesnym za­ chowaniu proporcji i typu materiału, które wystarczały dla [konstruk­ cji] mniejszej struktury. Obiekt rozpadłby się na kawałki pod swoim własnym ciężarem, chyba że zmienilibyśmy jego względne proporcje — bez tego stałby się on niezdarny i monstrualny — albo znaleźlibyśmy nowy budulec, twardszy i mocniejszy niż przedtem. Oba te sposoby są znane zarówno Naturze jak i sztuce, a zastosowania praktyczne — o których się Galileuszowi nie śniło — spotykają nas na każdym kroku w naszych nowoczesnych czasach cementu i stali. 191 3.1. Podobieństwo i skalowanie D I SC OR S1 DIMOSTRAZIONI MA T E M A T I C H E , interno ù due nuoue fcitnZjC Attenenti alia M ecánica & i M ovim enti L ocali; d e l S ig n ar GALILEO GALILEI LINCEO, Filoibfo e Matemático primario del Scrcniífimo Grand Duca di T ofcana. Ce» vna Appendice delcentre digranità cPalcnniSelidi IN gli LEID A , m. d. c . xxxvixi. Appreflo Elíevirii. Rysunek 3.3: Dialogi dotyczące dwóch nowych nauk Galileusza z roku 1638 oceniał maksymalną wysokość, którą może osiągnąć drzewo, na 90 metrów. Gigantyczne sekwoje, które rosną tylko w zachodnej części Stanów Zjednoczonych, a które Galileuszowi nie były znane, osiągają nawet 110 metrów wysokości. A jed­ nak rozumowanie Galileusza było poprawne: najwyższe gi­ gantyczne sekwoje przystosowują się na swój sposób, i tym samym obchodzą ograniczenia modelu. Jakie było jego rozumowanie? Waga drzewa jest propor- 192 3. Granice i samopodobieństwo cjonalna do jego wysokości. Powiększanie drzewa w skali s oznacza, że jego waga zwiększy się o czynnik s3. W tym samym czasie przekrój jego pnia wzrośnie jedynie o czyn­ nik s2. Dlatego ciśnienie wewnątrz pnia wzrośnie o s 3 / s 2~ s. Oznacza to, że jeżeli s przekroczy pewną granicę, to wytrzymałość drewna nie wystarczy do zrównoważenia po­ wstałego ciśnienia .3 Napięcia powstające przy wzroście, a za­ leżne od związku pomiędzy objętością a powierzchnią, wyjaś­ niają, dlaczego nie istnieją góry wyższe niż 10 000 metrów, tłumaczą również różne skutki upadku z tej samej wysokoś­ ci dla różnych istot żywych .4 Na przykład myszy może się nic nie stać po upadku z 10 piętra, podczas gdy człowiek może złamać rękę podczas upadku z wysokości równej jego wzrostowi. Energia, która musi zostać zaabsorbowana, jest proporcjonalna do masy, a więc i do objętości spadającego obiektu. Energia ta może być pochłonięta jedynie poprzez powierzchnię obiektu. Jeśli będziemy zwiększać objętość, a więc i masę, to energia upadku będzie rosła nieproporcjo­ nalnie szybciej niż powierzchnia. W miarę wzrostu objętości rośnie również ryzyko przy upadku z tej samej wysokości. P ow iększanie spirali logarytm iczn ej Rysunek 3.4: Powiększanie spirali logarytmicznej o czynnik daje tę samą spiralę, ale obróconą o kąt 9 3 A oto problem z tym związany. utrzymuje maksymalne obciążenie w\ utrzyma gwóźdź dwa razy większy? 4 Zobacz J. B. S. Haldane, On właściwych rozmiarów), 1928. Jest to gadnieniom skalowania. b Załóżmy, że gwóźdź w ścianie jakie maksymalne obciążenie Being the Right Size (Zalety klasyczny esej poświęcony za­ 193 3.1. Podobieństwo i skalowanie W rozdziale 4 będziemy kontynuować omawianie włas­ P od ob ień stw o ności skalowania. W szczególności zajmiemy się bliżej spira­ i w zrost lami, między innymi spiralą logarytmiczną. Wszyscy chyba am on itów widzieliśmy, jak spirala narysowana na krążku — jak się wy­ daje — rozwija się w nieskończoność, gdy nim kręcimy. Oka­ zuje się, że spirala logarytmiczna zachowuje się wyjątkowo w tym sensie, że powiększenie tej spirali wygląda na jej obrócenie. Rysunek 3.4 ilustruje to ciekawe zjawisko; spirala logarytmiczna to kolejny przykład obiektu samopodobnego. Na rysunku 3.5 z kolei pokazano amonit, który jest dobrym przykładem spirali logarytmicznej występującej w naturze. Możemy powiedzieć, że wzrost amonitów rządzi się prawami podobieństwa. Amonit rośnie w taki sposób, że jego kształt zostaje zachowany. A m on it Rysunek 3.5: Wzrost amonitu następuje zgodnie ze spiralą lo­ garytmiczną Wzrostem większości istot żywych rządzą jednak inne D zieci nie są prawa. Dorosły człowiek nie jest po prostu powiększeniem p od ob n e do dziecka w pewnej skali. Kiedy zastanawiamy się nad podo­ sw oich rodziców bieństwem rodziców i dzieci, nie mówimy wtedy o podo­ bieństwie geometrycznym (w znaczeniu matematycznym)! 194 3. Granice i samopodobieństwo Rysunek 3.6: Czaszka niemowlęcia i czaszka dorosłego nie są podobne, tzn. nie mogą być przeprowadzone na siebie za pomocą jednokladności. Rysunek zaadaptowany z: For AU Practical Purposes, W. H. Freeman, New York 1988 W czasie rozwoju dziecka i przemiany w człowieka dorosłego poszczególne części ciała ulegają powiększeniu, ale każde w innej skali. Oto dwa przykłady: • W stosunku do całego ciała głowa jest u dziecka o wiele większa niż u dorosłego. Nawet proporcje fragmentów twa­ rzy różnią się: u dziecka czubek nosa jest mniej więcej w połowie twarzy, podczas gdy u dorosłego nos kończy się w około 2/3 od dołu. Na rysunku 3.6 pokazano konieczną deformację siatki kwadratowej, odzwierciedlającą zmiany w kształcie głowy ludzkiej podczas przejścia od dziecka do dorosłego. • Z kolei, jeżeli zmierzymy długość ramienia lub wielkość głowy u ludzi w różnym wieku i porównamy z wysokością ciała, to zauważymy, że geometryczne podobieństwo nie zostaje zachowane w czasie rozwoju organizmu. Ramię u noworodka jest długości jednej trzeciej ciała, u dorosłego — około jednej piątej. Na rysunku 3.7 pokazano zmiany w kształcie przy unormowanym wzroście. W z ro s t Jak widzimy, prawa wzrostu są dalekie od praw rządząiz o m e try c z n y cych podobieństwem. Możemy uzyskać wyobrażenie o prai a lo m e try c z n y wach rządzących wzrostem, na przykład wielkości głowy w stosunku do wagi ciała, jeśli wykonamy wykres stosunku tych dwóch wielkości dla różnych okresów życia. W tabeli 195 3.1. Podobieństwo i skalowanie Rysunek 3.7: Zmiany w kształcie ciała pomiędzy 0,5 a 25 latami życia. Wzrost został unormowany do 1 . Rysunek zaadaptowany z: For All Practical Purposes, W. H. Freeman, New York 1988 Wiek w latach 0 1 2 3 5 10 20 25 30 40 Wzrost cm 50 70 79 86 99 127 151 167 169 169 Wielkość głowy cm Iloraz 11 0,22 0 ,21 0,22 0 ,21 15 17 18 19 21 22 23 23 23 0,19 0,17 0,15 0,14 0,14 0,14 Tabela 3.1: Wzrost ciała i wielkość głowy człowieka. W ostat­ niej kolumnie wypisany jest stosunek wielkości głowy do wzro­ stu ciała. Przez pierwsze kilka lat wielkość ta jest prawie stała, a później się zmniejsza, wskazując na przejście od wzrostu izometrycznego do wzrostu alometrycznego D an e w iążące w ielkość głow y ze w zrostem 196 3. Granice i samopodobieństwo 3.1 podaliśmy dane 5 dotyczące konkretnego osobnika. Po za­ znaczeniu wartości ilorazów i wieku na rysunku i połączeniu punktów otrzymaliśmy pewną krzywą, zob. rysunek 3.8. Rysunek 3.8: Wzrost wielkości głowy względem wzrostu ciała na podstawie danych z tabeli 3.1. Na osi poziomej zaznaczono wiek, na osi pionowej — stosunek wielkości głowy do wzrostu ciała Jeżeli wzrost byłby proporcjonalny, tzn. gdyby rządził się prawami podobieństwa, to stosunek tych dwóch wielkości byłby stały w czasie trw ania życia danej osoby. Otrzyma­ libyśmy więc linię poziomą. Wykonanie wykresu może po­ móc nam przetestować założenie o proporcjonalności wzro­ stu. W naszych przykładowych danych taka proporcjonal­ ność nie zachodzi. Możemy wyodrębnić dwie podstawowe fazy: jedną, która odpowiada wczesnemu rozwojowi do wieku około trzech lat i drugą, późniejszą. W pierwszej fazie mo­ żemy zaobserwować wzrost proporcjonalny, zwany też wzro­ stem izometrycznym. Po trzech latach życia człowieka ilo­ raz znacząco spada, co oznacza, że przyrost wagi ciała jest o wiele szybszy, niż wzrost wielkości głowy. Taki wzrost nazywa się wzrostem alometrycznym. W wieku około 30 lat proces rozwoju organizmu kończy się i iloraz jest znowu stały. W następnym rozdziale przeprowadzimy dokładniejszą analizę danych, prowadzącą do sformułowania matematycz­ nych praw rządzących wzrostem. Wzrost alometryczny to jedno z centralnych zagadnień geometrii fraktalnej, o czym przekonamy się już wkrótce. Po zapoznaniu się z podo­ bieństwami i sposobami skalowania powróćmy do głównego tem atu tego rozdziału: co to jest samopodobieństwo? 5 Dane w tej tabeli pochodzą z pracy D ’Arcy Thompsona, On Growth and Form, New Edition, Cambridge University Press, 1942, s. 190. 3.1. Podobieństwo i skalowanie 197 Pojęcie samopodobieństwa wydaje się intuicyjnie zrozu­ S am op odob ień ­ miałe i nie wymaga wielu wyjaśnień. Jednakże matema­ stwo: co to tyczny formalizm dotyczący samopodobieństwa jest trudniej­ jest? szym zadaniem. Na przykład w romanesco, a na dobrą sprawę w każdym obiekcie fizycznym, samopodobieństwo mo­ żemy zaobserwować jedynie na kilku poziomach. Poniżej pewnej skali materia rozpada się na zbiór cząsteczek, ato­ mów, wreszcie — cząstek elementarnych. Gdy osiągniemy taki poziom, nie możemy oczywiście mówić o pomniejszo­ nych kopiach całości. Dodatkowo w obiektach, takich jak np. kalafior, część nigdy nie może być dokładną kopią całości. Musimy więc dopuścić pewne odchylenia od ideału. Dlatego jest już teraz oczywiste, że istnieje kilka matematycznych wersji definicji samopodobieństwa. W każdym razie myślimy o matematycznych fraktalach jako o obiektach mających możliwe do rozpoznania detale na każdym poziomie mikro­ skopowej wielkości - w odróżnieniu od prawdziwych obiek­ tów fizycznych. We fraktalach, których pomniejszone kopie są podobne do całości, ale mających pewne odchylenia od oryginału, mamy do czynienia z samopodobieństwem staty­ stycznym. Zajmiemy się nim w rozdziale 7. Innym przy­ padkiem są różne zniekształcenia pomniejszonych kopii, na przykład lekkie ich pochylenie. W takim przypadku mówimy o samopodobieństwie afinicznym. Aby zilustrować to pojęcie, weźmy krzywą Kocha, którą S am op odob ień ­ poznaliśmy w rozdziale 2 . Czy potrafilibyśmy znaleźć podo­ stw o krzyw ej bieństwa (czyli przekształcenia podobieństwa) dla tej krzy­ K ocha wej? Wydaje się, że Krzywa Kocha składa się z czterech identycznych części. Przyjrzyjmy się jednej z nich, na przyk­ ład tej z lewej strony. Wyobraźmy sobie, że dysponujemy szkłem powiększającym z regulowaną skalą powiększenia i us­ tawmy ją na powiększanie 3-krotne. Przy takim powięk­ szeniu ten mały kawałek wygląda dokładnie tak jak cała krzywa. Co więcej i nasz mały kawałek dzieli się na cztery identyczne części, a każda z nich jest podobna do całej krzy­ wej Kocha. Jeżeli zastosowalibyśmy powiększenie 9-krotne, to znowu każda z czterech mniejszych części przypominałaby całość i tak dalej, nieskończenie wiele razy. Jest to właśnie samopodobieństwo w swojej najczystszej matematycznej po­ staci. 198 3. Granice i samopodobieństwo / R ysunek 3.9: Ćwiartka krzywej Kocha (na górze) została trzy­ krotnie powiększona. Z powodu samopodobieństwa krzywej Ko­ cha w wyniku dostajemy kopię całej krzywej R óżn e rod zaje Jednak nawet w przypadku, gdy kopie całości pojawiają sam op od o- się we wszystkich stadiach i są kopiami dokładnymi, nie b ien stw a zmienionymi w żaden sposób, mogą istnieć różne rodzaje samopodobieństwa. Wyobraźmy sobie na przykład okładkę książki, która przedstawia rękę trzym ającą tę właśnie książkę. Choć może to się wydać zaskakujące, ten niewinnie wy­ glądający opis mówi o dosyć skomplikowanym efekcie. Jeżeli przyjrzymy się lepiej naszej okładce, to zauważymy coraz więcej prostokątnych okładek. Porównajmy to z przykładem wyidealizowanego drzewa o podwójnych rozgałęzieniach, po­ kazanego na rysunku 3.10. Pokazany tam jest również trój­ kąt Sierpińskiego. Wszystkie trzy przykłady są obiektami samopodobnymi: zawierają małe repliki całości. Istnieje jednak znacząca różnica pomiędzy nimi. Spróbujmy znaleźć punkty, w których sąsiedztwie możemy odszukać pomniej­ szone kopie całości na każdym etapie pomniejszenia. 199 3.1. Podobieństwo i skalowanie Trzy różne stru k tu ry sam op od ob n e Rysunek 3.10: Szkic rysunku, który zawiera obraz samego sie­ bie, pokazano po prawej. Drzewo o dwóch gałęziach jest samopodobne na poziomie listków, natomiast trójkąt Sierpińskiego jest samopodobny wszędzie W przypadku projektu okładki książki, kopie koncen­ Sam op odob ień trują się dookoła jednego punktu i jedynie ten punkt ma stw o własność samopodobieństwa. Punkt ten jest granicą, w któ­ w punkcie rej wielkości kopii maleją do zera. Okładka książki jest samopodobna w tym punkcie .6 W przypadku drzewa o podwójnych rozgałęzieniach sy­ Sam oafiniczność tuacja jest całkiem inna. Całe drzewo składa się z pnia i dwóch pomniejszonych kopii całości. Dlatego coraz mniej­ sze kopie koncentrują się przy liściach. Całe drzewo nie jest więc samopodobne, ale samoafiniczne. Pień nie jest podobny do całości, ale może być traktowany jako afiniczny obraz, który został sprasowany do linii. W trójkącie Sierpińskiego, podobnie jak w krzywej Ko­ Ścisłe sam op ocha, możemy znaleźć kopie całości w otoczeniu każdego jego d ob ień stw o punktu, co już wcześniej omówiliśmy. Trójkąt składa się z pomniejszonych, ale dokładnych kopii samego siebie. Jeżeli weźmiemy pod uwagę te różnice, to, mimo iż możemy na­ zwać wszystkie trzy obiekty samopodobny mi, jedynie trójkąt Sierpińskiego i krzywa Kocha są dodatkowo ściśle samopo­ dobne. Również zbiór liści bez pnia i gałęzi jest ściśle sa­ mopodobny. A jaką kategorię przypiszemy kalafiorowi? Ma on naturalną formę obiektu samopodobnego, ale nie ściśle samopodobnego, jest więc krewnym drzewa o podwójnych rozgałęzieniach. 6 Pojęcie samopodobieństwa w punkcie jest podstawowym pojęciem w rozważaniach samopodobieństwa zbioru Mandelbrota (zob. rozdz. 14). 200 3. Granice i samopodobieństwo 3 .2 . C ią g i g e o m e tr y c z n e i k rzy w a K o c h a Takie fraktale, jak krzywa Kocha, trójkąt Sierpińskiego i wie­ le innych, pow stają w wyniku konstrukcji geometrycznej. Ściśle rzecz biorąc, proces konstrukcji nigdy nie powinien się zakończyć. Obiekt otrzymany po skończonej liczbie kroków jest w rzeczywistości wciąż daleki od prawdziwego fraktala. Może on mieć złożoną budową, o stopniu skomplikowania zależącym od tego, jak daleko posunęliśmy się w konstruk­ cji. Fraktale zatem istnieją jedynie jako idealizacja. Właśnie je byśmy otrzymali po „nieskończenie” wielu krokach, Frak­ tale są tak naprawdę obiektami granicznymi i ich istnienie nie jest takie naturalne, jak to by się mogło wydawać. Jest to ważny fakt i dlatego matematyczne podstawy tego typu przejść granicznych są jednym z tematów tego i kilku innych rozdziałów. Granice prowadzą do powstania nowych wielkości, no­ wych obiektów i jakości. Jest to w szczególności prawdą dla fraktali (powrócimy do tego później). Możemy jednak natrafić na pewien problem. Jeżeli chcemy badać granicę ciągu, musimy napierw wiedzieć, że ona istnieje. Weźmy na przykład dwie sumy: oo V—> 1 £ r fc=i V * 1 1 1 i - ł 1 1 + 3 + -" 2 1 1 ż ^ fc 2 - l + 4 + 9 + " ' ; pierwsza jest rozbieżna 7 (tzn. suma jest nieskończona), podczas gdy druga suma zbiega do 7 r 2 / 6 , c o pokazał Euler. Zajmijmy się przez chwilę analizą szeregów geometrycz­ nych. Czy dla danej liczby —1 < q < 1 szereg oo k =0 7 Suma 1 + 1/2 + 1/3 + 1/4 + *** jest nieskończona. Dowód tego faktu przebiega w sposób następujący. Załóżmy, że suma ta ma skończoną wartość, powiedzmy 5. W tedy oczywiście 1 /2 + 1/4 + 1/6 + —* = 5 /2 . A zatem 1 + 1 /3 + 1 /5 + - ■■= 5 —(1 /2 + 1 /4 + 1 /6 + - ■■) = 5 /2 . Ale ponieważ 1 > 1/2, 1/3 > 1/4, 1/5 > 1 /6 ,..., musi być 1 + 1/3 + 1/5H---- > 1/2 + 1/4 + 1 /6 + • • •. Otrzymaliśmy sprzeczność, obie sumy bowiem powinny być równe 5 /2 . Czyli nasze założenie, że 1 + 1 /2 + 1/3 + 1/4 + ■■* = 5 musiało być nieprawdziwe. Zatem skończona granica nie może istnieć. 201 3.2. Ciągi geometryczne i krzywa Kocha ma granicę i jaka ona jest? Aby to sprawdzić, wprowadźmy sumy częściowe Sn = l + q + q2 + q 3 + ... + qn. Otrzymujemy więc S n —qSn = 1 —(/"' 1. oraz jednocześnie Sn —qSn = Sn(l — q). Z równości tych wynika, że - Qn+1 -----■ (3.1) 1 -9 Oznacza to, że im większe jest n, a co za tym idzie im mniej­ sze jest </n+1, Sn staje się coraz bliższe wartości 1 / ( 1 —q). Uzasadniliśmy więc następujący wzór: Sn = oo 1 ^ k =0 ( ^ 3 - 2 ) Powyższe rozważania o granicy mogą być bardzo przydatne8, nawet jeśli wartość granicy 1 / ( 1 — q) nic nam nie mówi. Dzięki nim będziemy mogli zrozumieć pewien problem zwią­ zany z konstrukcją fraktali. Teoretycznie S n będzie się różniło od 1 / ( 1 — q) niezależnie od tego, jak duże n wybierzemy. W praktyce jednak, na przykład w kompu­ terach o skończonej dokładności, obie te wartości będą nierozróżnialne, o ile tylko n jest wystarczająco duże. Szereg geometryczny odpowiada w pewnym stopniu kon­ strukcji podstawowych fraktali. Otóż mamy wyjściowy obiekt, w tym przypadku liczbę 1 , i współczynnik skali, tu ­ taj </. Ważną własnością współczynnika skali jest to, że jest on mniejszy od 1. Następnie rozpoczynamy proces konstruk­ cji. Krok Krok Krok Krok 1: Zacznij od 2 : Pomniejsz 3: Pomniejsz 4: ... 1 1 1 . w skali q i dodaj. w skali q • q i dodaj. 8 Przypomnijmy, na przykład, problem zrozumienia nieskończonych rozwinięć dziesiętnych w rodzaju 0,154399999... Wiemy, że jest ono równe 0,1544, ale dlaczego? No więc, po pierwsze 0,1543999... = 0,1543000...+ 9 -10~5(l-h 10“ 1+ 10_2 + 10” 3+ ...). Teraz możemy zasto­ sować równanie (3.2) dla q = 10-1 i otrzymać 1 + 10-1 + 10-2 + 10“ 3 + ■■■- f . Zatem 9-10“ 5( l + 10"1+ 10“ 2+ 1 0 “ 3+ - *■) = 9*105*10/9, co jest równe 10“ 4. Ostatecznie 0,1543999... = 0,1543000 + 10~4 = 0,1544. P roces konstrukcji szeregu geom etryczn ego 202 3. Granice i samopodobieństwo Ta nieskończona konstrukcja prowadzi do nowej liczby reprezentującej ten proces, a mianowicie do granicy szeregu geometrycznego. K on stru k cja płatka śn iegu K och a 1/3 T T U 3X(l/37) ▲ ru3X(l/3D 1/9 T T U 3X(l/3T) U 12X(l/9 T u 3X(1/3D U 12X ( 1 / 9 7 ’ ) 1/277 T) r u 3X ( 1 / 3 7 ) U 12 X (1 / 9 7 ) U 48 X (1 / 27 7 ) R ysunek 3.11: Płatek śniegu Kocha jest obiektem granicznym procesu konstrukcji. Pole jej wynosi |\/3 a 2 K on stru k cja Płatek śniegu Kocha, którego podstawa konstrukcji po­ płatka śn iegu kazana jest na rysunku 3.11, otrzymano w podobny sposób, K och a lecz zamiast dodawania liczb „dodano” obiekty geometrycz­ ne. „Dodawanie” jest tu taj interpretowane oczywiście jako suma (teoriomnogościowa) zbiorów. Ważne jest, że w każ- 3.2. Ciągi geometryczne i krzywa Kocha dym kroku dodajemy pewną liczbę pomniejszonych kopii zbioru wyjściowego. Krok 1: Wybieramy trójkąt równoboczny T o bokach dłu­ gości a. Krok 2 : Pomniejszamy T w skali 1/3 i doklejamy 3 kopie po­ wstałego trójkąta w sposób pokazany na rysunku. Powstała w ten sposób figura jest otoczona 3 *4 od­ cinkami o długości a/3 każdy. Krok 3: Pomniejszamy T w skali 1/3 * 1/3 i doklejamy 3 • 4 kopie powstałego trójkąta, tak jak na rysunku. Powstała figura jest ograniczona 3 * 4 * 4 odcinkami prostoliniowymi o długości 1/3 *1/3 *a każdy. Krok 4: ... Taka konstrukcja po nieskończenie wielu krokach da nam nowy obiekt geometryczny, płatek śniegu Kocha. W rze­ czywistości analogie pomiędzy tą konstrukcją geometryczną a szeregiem geometrycznym idą znacznie dalej. Postarajm y się znaleźć te związki. Jaka jest powierzchnia płatka śniegu Kocha, obiektu geometrycznego będącego granicą opisanego powyżej procesu? Najpierw spróbujmy obliczyć, jaką powierzchnię doda- P ow ierzchnia jemy w każdym kroku. Powierzchnia trójkąta wyjściowego płatka śniegu T wynosi A \ = A/3/4*a2. W każdym kroku k musimy dodać K ocha powierzchnię n k małych równobocznych trójkątów o boku sk każdy. Czytelnik może bez trudu przekonać się, że n i = 3, n 2 = 3 *4, 713 = 3 *4 • 4,... Otrzymamy w ten sposób wzór n k = 3*4fe_1. Boki małych trójkątów otrzymujemy przez ko­ lejne pomniejszanie boku trójkąta wyjściowego w skali 1/3. Oznacza to, że sk = (1/3)ka. Podsumowując powyższe re­ zultaty, otrzymujemy Ak-\-\ — Aję + n k V 3 2 *sk Innymi słowy, jeżeli rozwiniemy powyższy wzór, otrzymamy 203 204 3. Granice i samopodobieństwo następujący szereg: 4 A *+i - A! + ^ 42 Ąk - i ^ + ¡j + ^ + . . . + ^ j o2. W powyższym wzorze, w nawiasie, znajduje się suma częścio­ wa szeregu geometrycznego 1 + § + | j + | j + ..., który ma granicę = * Oznacza to, że płatek śniegu Kocha, fi­ gura geometryczna będąca granicą tego procesu, ma pole równe f , „ 9 2 A ~ A l + T 2" 5 “ ’ a ponieważ A \ = ^ a 2, otrzymujemy ostatecznie A — - \ / 3 a 2. 5 Nasze rozumowanie prowadzi do stwierdzenia, że w wyniku tego nieskończonego procesu powstaje rzeczywiście nowy obiekt geometryczny. Ścisły dowód tego faktu wymaga jed­ nak znacznie precyzyjniejszego aparatu pojęciowego. Do tego dowodu potrzebny jest język, który pozwoliłby nam mówić o procesie dołączania nowych kształtów w kon­ strukcjach takich, jak wyżej opisana, tak samo, jak możemy mówić o dodawaniu coraz mniejszych liczb w szeregu. Otóż taki język istnieje. Jednym z ważniejszych osiągnięć w to­ pologii było rozszerzenie pojęcia granicy, takiej jaką znamy z operowania na liczbach, na pojęcia abstrakcyjne. Właśnie to, w połączeniu z odległością Hausdorffa, będącą uogól­ nieniem zwyczajnej odległości pomiędzy punktami na od­ ległość pomiędzy dwoma zbiorami punktów, dostarcza ta ­ kiego języka. Dzięki niemu możemy wyrazić dokładną analo­ gię pomiędzy nieskończonym procesem dodawania liczb w szeregu geometrycznym i jego zachowaniem w gra­ nicy, z jednej strony, a nieskończonym dodawaniem coraz mniejszych trójkątów w konstrukcji płatka śniegu Kocha i jego zachowaniem granicznym, z drugiej strony. W pew­ nym sensie nic nowego i ekscytującego się nie dzieje i nie ma nic nowego do zrozumienia. Wszystko to jest po prostu prze­ niesieniem sposobu, w jaki traktujem y szereg geometryczny. W tym sensie płatek śniegu Kocha jest więc geometrycznym przedstawieniem granicy. 3.2. Ciągi geometryczne i krzywa Kocha 205 Przyjrzyjmy się obecnie pewnym specyficznym własnoś­ ciom granic, takim których nie m ają żadne ich skończone przybliżenia. Najważniejszą taką własnością jest samopodobieństwo. Na przykład samopodobieństwo krzywej Kocha przejawia się między innymi w tym, że jest ona zbudowana z czterech identycznych części. Czy nasze figury na papie­ rze są samopodobne? Oczywiście, nie. Z dwóch powodów: jednego natury technicznej, drugiego — matematycznej. G ranice prow adzą do ob iek tów now ych jakościow o Przyczyna techniczna jest oczywista. Czarny atram ent na białym papierze to wiele plamek, które przy dostatecznie dużym powiększeniu wyglądają jak zbiór losowych kropek, a nie jak krzywa Kocha. Zjawisko to możemy nazwać gra­ niczną rozdzielczością i jest ono podobne do problemu repre­ zentacji liczb w komputerze. Jak wiemy, na przykład liczba y/2 nie jest reprezentowana w komputerze jak rzeczywisty \/2, ale jest pewnym przybliżeniem, na przykład 1,414215. Powiększanie obrazu można porównywać do mnożenia przez liczbę większą od 1. Na przykład, jeżeli pomnożymy liczbę y/2 przez \ / 2 i będziemy to powtarzać, to otrzymamy 2 , 2 \ / 2 , 4, 4a/2, 8 , 8 ^ 2 , ... Otrzymamy zatem potęgi dwójki lub potęgi dwójki pomnożone przez \/2. Jeżeli jednak będziemy mnożyć przybliżenie y/2 przez siebie odpowiednio dużą liczbę razy, to choć na początku otrzymamy dobre przybliżenie, wcześniej czy później nasze wyniki numeryczne zaczną się coraz bardziej różnić od wartości teoretycznych. P rob lem n atury technicznej w przedstaw ia­ niu sam op o­ d ob ieństw a Wykonanie doświadczeń z rysowaniem krzywej Kocha na papierze napotyka również problem natury matematycznej. Jedynie obiekt graniczny, a nie żadne z jego pośrednich przy­ bliżeń, ma własność doskonałego samopodobieństwa. Gra­ nicy nie można osiągnąć nawet na żadnym komputerze, po­ dobnie, jak na żadnym komputerze nigdy nie uzyskamy dok­ ładnej i prawdziwej reprezentacji wartości y/2, Do tego trzeba by dysponować nieskończenie wieloma cyframi rozwinięcia. Jedyne możliwe przedstawienia krzywej Kocha są tylko jej przybliżeniami. Rysunki piątego i dziesiątego kroku kon­ strukcji są prawie identyczne. W rzeczywistości różnica jest olbrzymia, ale występuje na poziomie niższym niż rozdziel­ czość urządzenia, jakim się posługujemy (drukarki lub ekra­ nu). Poczynając od pewnego, dostatecznie wysokiego kroku konstrukcji, wszystkie rysunki będą takie same i nie będą się różniły od rysunku krzywej Kocha. Teoretycznie jednak P rob lem natury m atem atyczn ej w przedstaw ia­ niu sam op o­ d ob ieństw a 206 3. Granice i samopodobieństwo te dwa obiekty (tzn. pewien poziom konstrukcji i krzywa Kocha) różnią sie dramatycznie. Na przykład, niezależnie od tego, który poziom wybierzemy, obrzeże powstającego obiektu będzie się składało z małych odcinków prostolinio­ wych. Jeśli więc weźmiemy wystarczający stopień powięk­ szenia, to będziemy mogli dostrzec te odcinki w skali makro­ skopowej. Jeżeli przyjrzymy się przez mikroskop jednemu z kawałków w, powiedzmy, dziesiątym kroku konstrukcji, to przy odpowiednio dobranym współczynniku powiększenia rozpoznamy część, jaka mogła powstać w, powiedzmy, dru­ gim kroku konstrukcji. Inaczej rzecz się ma z obiektem gra­ nicznym, przy każdym powiększeniu dostajemy dokładne ko­ pie krzywej Kocha. Przybliżenie krzywej Kocha, niezależnie od dokładności, nie może również być samopodobne (zob. rysunek 3.12). Otóż krzywa Kocha nie zawiera w sobie żad­ nego odcinka prostoliniowego .9 S am op od ob ień stw o n ie w ystęp u je na skończon ym p oziom ie R ysunek 3.12: Każdy pojedynczy krok konstrukcji krzywej Ko­ cha nie daje jeszcze figury samopodobnej. Tak na przykład, przeskalowanie fragmentu przybliżenia trzeciego poziomu w skali 3 nie da krzywej równej krzywej z poziomu 3 9 Z matematycznego punktu widzenia jest to krzywa ciągła, która nie jest nigdzie różniczkowalna. Została stworzona przez Helge’a von Kocha, aby po prostu dać przykład krzywej o tej własności, zob. H. v. Koch, Une méthode géométrique élémentaire par l’étude de certains questions de la théorie des courbes planes, A c t a M a th . 30, 145-174 (1906). 207 3.2. Ciągi geometryczne i krzywa Kocha Własność krzywej Kocha, jakiej nie m ają żadne jej przy­ bliżenia, polega na tym, że jej długość jest nieskończona (por. paragraf 2.4). Ponieważ krzywa Kocha stanowi jedną trzecią obrzeża płatka śniegu Kocha, obrzeże to ma również nieskończoną długość. Pole płatka śniegu Kocha jest przy tym skończone i jest dobrze określoną liczbą, jak to wi­ dzieliśmy wcześniej. Jest to zgodne z metaforycznym przes­ łaniem Mandelbrota, jakie zawarł w swoim artykule z Science z roku 1967, zatytułowanym How long is the Coast of Britain? (Jaka jest długość wybrzeża Wielkiej Brytanii?). Omó­ wimy powyższe zagadnienie szczegółowo w rozdziale 4. N ow a jakość ob iek tów p ow stałych w granicy P rzyjrzyjm y się znow u szeregom geo m etryczn ym . M o że m y dostrzec interesujący zw iązek z sam opodobieństw em krzyw ej K ocha. Jeżeli zastosujem y zabieg fo rm aln y i p om n ożym y szereg Sam opodobień­ stwo szeregów geom etrycznych oo y ^ q k = l + q + q2 + q 3 + ... fc=0 przez czynnik q, to o trz y m a m y oo ? y y = 9 + < 7 2 + g 3 +<z4k= 0 A stąd następnie oo £ ? fc = k —0 oo 1 + <7E<A (3.3) k~0 Jest to „sam opodobieństw o" szeregów nosi 1 plus przeskalowany cały szereg. krzywej Kocha, sam opodobieństw o je s t chodzi dla żadnego etap u pośredniego. q + q2, to 1 + qS2 = 1 H- q + q2 + qs / geom etrycznych. S um a w y­ Podobnie ja k w przypadku własnością granicy i nie za ­ N a przykład jeśli ¿>2 “ 1 + S2. Powiązaliśmy więc krzywą i płatek śniegu Kocha z szere­ gami geometrycznymi, co uświadomiło nam ciekawą analo­ gię przemawiającą za istnieniem tych fraktali. W następnych dwóch paragrafach przyjrzymy się tym obiektom z innej per­ spektywy, potraktujemy je jako rozwiązania odpowiednich równań. 3. Granice i samopodobieństwo 208 3.3, O saczenie now ego problem u z kilku stron: pi i p ierw iastek kw adratow y z dw óch W pojęciu granicy zawsze było coś tajemniczego i szkoda by było ten fakt przemilczeć. Pozwólmy więc sobie na odejście od tem atu i zobaczmy, jak granice mogą sięgać w nieznane. Granice tworzą i określają nowe liczby i obiekty. Studio­ wanie tych niewiadomych stymulowało rozwój dawnej ma­ tem atyki i doprowadziło do powstania pięknych konstruk­ cji matematycznych. Archimedes obliczał 7r przez kolejne przybliżenia okręgu ciągiem wielokątów. Sumerowie przy­ bliżali >/2 przy użyciu niewiarygodnej procedury matema­ tycznej, którą wiele wieków później odkrył na nowo New­ ton. Byli oni świadomi, że zarówno 7r jak i y/2 nie są zwykłymi liczbami. Piękny związek, zachodzący pomiędzy ciągiem Fibonacciego 1,1, 2,3, 5,8,13,21, 34,55,... i złotym podziałem ^ ( 1 + \/5), przez wiele wieków inspirował do cie­ kawych rozważań zarówno ludzi nauki, jak i artystów. Za­ krawa prawie na ironię, że ostatnio fizyka i matematyka w swoich najbardziej zaawansowanych badaniach pokazują, że niektóre z tych rozważań, które pobudziły na przykład Ke­ plera do szukania harmonii we Wszechświecie, m ają zadzi­ wiające odpowiedniki we współczesnej nauce. Zrozumiano, że w opisie scenariuszy łamania porządku i przejścia do cha­ osu złoty środek charakteryzuje czasami coś w rodzaju jed­ nej z ostatnich barier porządku, zanim zapanuje chaos. Co więcej, liczby Fibonacciego pojawiają się w naturalny sposób we wzorach geometrycznych, które mogą przy tej okazji po­ wstać. W tym paragrafie zajmiemy sie dwiema liczbami, n — 3,14... i y/2 = 1,41..., oraz różnymi ich przybliżeniami. Pod­ czas gdy historia n odbiega w pewnym sensie od fraktali, to drugi przykład będzie miał wiele wspólnego z definiowaniem i przybliżaniem fraktali, czyli z tym, nad czym będziemy pracować w następnych rozdziałach. M etoda A rchim edesa obliczania 7r M e to d a A rchim edesa na znalezienie wartości ir opiera się na w ielokątach forem nych w pisanych w o k rą g i opisanych na nim . Zaprezentu je m y tę m eto d ę przy użyciu współczesnych m etod m atem atycznych, takic h ja k użycie sinusa i tangensa, których oczywiście Archim edes 3.3. Osaczenie nowego problemu z kilku stron nie znał. Zaczniem y od sześciokąta forem nego w pisanego w okrąg. M a on n — 6 boków . K ą t, na którym o p arte je s t pół je g o boku, wynosi 9 = 7 t/6 (zob. rysunek 3 .1 3 ). R y s u n e k 3 .1 3 : W ielokąty forem ne opisane na okręgu i w niego wpisane Długość boku wpisanej figury wynosi 2 r s in # . Długość boku sześciokąta opisanego wynosi 2 rtg 0 . P oniew aż długość okręgu wynosi U = 27rr, m am y 2 r n s in 0 < U < 2rntg6 . Jeżeli podzielim y te nierówności przez 2 r , o trz y m a m y górne i dolne ograniczenia dla ir, n s in # < 7r < ntgd. Dla sześciokąta n = 6, więc o trzy m u je m y 3 < 7r < 3 ,4 6 4 , co nie jest zbyt dokładnym przybliżeniem . M o że m y je d n a k łatw o popraw ić ten w ynik przez podw ojenie liczby n oznaczającej liczbę boków i za­ stąpienie 9 przez 6 / 2, a w rezultacie uzyskam y «2rc sin - -0 < 7r < 2 n tg -e. Li O trzy m u je m y tera z 3 ,1 0 6 < 7r < 3 ,2 1 5 . K olejne p o d w ajanie, tzn . przejście od w ielokąta o 12 bokach do w ielo kąta o 24 bokach, a na­ stępnie 4 8 ,9 6 itd ., m oże dać nam przybliżenia ta k dokładne, ja k tylko chcemy. Po k takich pod w ajających krokach o trzy m u je m y zależność Nie w iadom o dokładnie, w ja k i sposób A rchim edes obliczał sinusy i tangensy. M ożliw e, że w ykorzystyw ał m eto d y iteracyjne o p a rte na wzorach podobnych do 209 210 3. Granice i samopodobieństwo TT 0 sin 6 2 1 + cos 6 i długość Obliczenie długości okręgu, tzn. wyznaczenie wartości 7r, okręgu jest problemem, który stanowił wielkie wyzwanie dla mate­ matyków starożytności. Historia tego problemu ma ponad 4000 lat. W Starym Testamencie występuje n = 3 (zob. Pierwsza Księga Królewska, 7,23). Babilończycy używali 7T — 3,125, a Egipcjanie 10 (około 1700 r.p.n.e.) propono­ wali 7T = 3,1604... Również w Chinach filozofowie i astrono­ mowie byli bardzo zainteresowani znalezieniem przybliżonej wartości 7r. Jedno z najlepszych przybliżeń podał Zu ChongZhi (430-501), który używał wartości 355/113, mającej sie­ dem cyfr poprawnych. W tym czasie Chińczycy handlo­ wali jedwabiem i ich kontakty sięgały aż Rzymu, jednak nie wiemy, czy znane były im wyniki Archimedesa. Ar­ chimedes jako pierwszy (około 260 r.p.n.e.) podał osta­ teczne rozwiązanie problemu. Jego metoda opierała się na wzięciu okręgu o promieniu 1 i przybliżaniu połowy jego ob­ wodu za pomocą ciągu wielokątów foremnych. Właściwie brał on pod uwagę dwa ciągi wielokątów: ciąg foremnych wielokątów wpisanych w okrąg i ciąg wielokątów na nim opisanych. Jego przybliżenie powstało po przeprowadze­ niu kilku kroków konstrukcji, w efekcie otrzymał wartość 3,141031951, która miała już poprawne cztery pierwsze cy­ fry. Mógł on otrzymać nawet większą dokładność, ponieważ jego m etoda była całkowicie słuszna. Inną, bardziej może elegancką metodę, odkrył średnio­ wieczny uczony i filozof Nicolaus Cusanus około roku 1450. Jest ona następnym przykładem układu sprzężenia zwrot­ nego i zapowiedzią subtelnych metod, używanych obecnie do obliczeń wartości 7r za pomocą potężnych komputerów, dających dokładność rzędu milionów cyfr. 10 W rzeczywistości zaproponowali algorytm na obliczanie pola po­ wierzchni koła: należy usunąć 1/9 średnicy, a pozostałe 8/9 podnieść do kwadratu. 211 3.3. Osaczenie nowego problemu z kilku stron A rchim edes rozw ażał ustalony o k rą g i przybliżał jeg o obwód przez ciąg w ielokątów forem nych. W pew nym sensie Cusanus o d w ró c ił to rozum owanie i użył ciągu w ie lo k ą tó w forem nych o ustalonym obw o­ dzie. A dokładnie je g o w ielo k ąty m iały 2n , n = 2 , 3 , 4 , . . . , boków i zawsze m iały obwód rów ny 2. N astępnie obliczył obw ody okręgów , z których jeden był opisany, a drugi w pisany w dany w ie lo k ą t (zob. rysunek 3 .1 4 ). Rysunek 3.14: P oczątkow y okrąg i kwadrat w m etod zie Cusanusa. D la danego w ielokąta forem nego o 2n bokach, których długości sum ują się do obw odu 2, rozważam y okręgi: w pisany i opisany Niech R n (o d p o w ied n io rn ) oznacza prom ień okręgu opisanego (w pisanego) na n -ty m w ielokącie. O trz y m u je m y następujące o g ran i­ czenia: 2 7 rrn < 2 < 2 ttR n lub rów now ażnie 1 1 i1Lnr < 7 r <1rn (3 .4 ) Dla n = 2 m am y kw ad rat o obw odzie 2 (zo b . rysunek 3 .1 4 ) i dlateg o, korzystając z tw ierd zen ia P itagorasa, m ożem y obliczyć R 2 = \ / 2 / 4 oraz 7*2 = 1 /4 . N astępnie Cusanus, posługując się fa k ta m i o partym i na argum entacji geom etrycznej znanej ju ż A rchim edesow i, P ita g o ra ­ sowi i innym , o trzy m a ł następujące zw iązki: 1— Rn vn 7) 5 R j i -\- 1 — V R n C n-fl dla n = 2 , 3 , . . . O k azu je się, że rn < R n dla w szystkich n i że rn w zrasta, podczas gdy R n m aleje w raz ze w zrostem n. D lateg o oba M etoda Cusanusa obliczania 7r 212 3. Granice i samopodobieństwo ciągi mają granice i te granice muszą być równe11. Z równania (3,4) wynika, źe granica ta musi wynosić l/ir. Okazuje się, że metoda Cusanusa daje nam 7r z dokładnością do 10 miejsc po przecinku, jeżeli tylko wykona się n — 18 przebiegów tego układu sprzężenia zwrotnego. W tabeli 3.2 zanotowano pierwszych jedenaście kroków, odpowiadające im przybliżenia 7r i ich błędy. P ierw sze kroki m eto d y C usanusa n 2 3 4 5 6 7 8 9 10 11 ^Tl 0,250000 0,301777 0,314209 0,317287 0,318054 0,318246 0,318294 0,318306 0,318309 0,318310 Rn 0,353553 0,326641 0,320364 0,318822 0,318438 0,318342 0,318318 0,318312 0,318310 0,318310 Pn 3,313708 3,182598 3,151725 3,144118 3,142224 3,141750 3,141632 3,141603 3,141595 3,141593 Błąd 0,172116 0,041005 0,010132 0,002526 0,000631 0,000158 0,000039 0,000010 0,000002 0,000001 Tabela 3.2: Kilka pierwszych kroków metody Cusanusa iteracyjnego obliczania liczby 7r. Przybliżenie pn w czwartej kolumnie jest obliczane ze wzoru pn = 2/(rn + Rn). Błąd pn —7r zmniejsza się w każdym kroku około czterech razy Inne podejścia F. Vieta (1540-1603): do 7r 2 _ V2 \/2 + V2Y 2 + v 2 + \/2 tt ~ ~2 2 2 J. Wallis (1616-1703): 7r 2 “ 2-2 4-4 6-6 F 3 ' 3^5 ’ 5^7 ' 8-8 7^9" J. Gregory (1638-1675) i G. Leibniz (1646-1716): tt 4 ~ _ 2 _ J__ - 3 + 5 _ 7 + 9 - n + 1 3 _ '" 1 1 1 1 (3.5) L. Euler (1707-1783): 11 Gdyby nie były one równe, powiedzmy, R n —> R i r n R ^ z r, wtedy mielibyśmy (r Ą- R ) j 2 / R , co jest niemożliwe. r, ale 3.3. Osaczenie nowego problemu z kilku stron 7T2 1 ~6~ == 12 7r4 22 1 90 == ? i 1 + + 1 + 32 42 1 + ¥ 1 + 34 + 1 + 44 ¿16 1 52 + 1 + 54 + C. F. Gauss (1 7 7 7 -1 8 5 5 ): 7r = 48 arctg ^ + 32 arctg ^ - 2 0 a rc tg ^ . (3 .6 ) S. R am anujan (1 8 8 7 -1 9 2 0 ): I _ ^ 7r V 9801 ^71= U (4 n !) ( 110 3 + 26390n) ( n ! /) 43 9 6 4n \ J. M . Borwein i P. M . Borwein (1 9 8 4 ): 1 " n+1 - V 1 - Xn 1 ■ rT T r^ f ’ Vn + 1 = (1 “F %n+1 ) Vn 10' f 2 X n+ i , ' V0 = ^ • Przy tych założeniach y n d ąży do 1 / 7r w te m p ie kw ad rato w ym . P rzyto czym y jeszcze je d n ą ciekawą własność dotyczącą 7r .12 Licz­ ba całkow ita nazywa się bezkwadmtową, jeżeli nie je s t pod zielna przez kw adrat żadnej liczby pierwszej. Na przykład 15 je s t b ezkw ad rato w a (15 — 3 * 5 ), a 50 nie (5 0 = 2 * 5 2). O zn a c zm y liczbę liczb bezkw adratow ych, zn ajdujących się pom iędzy 1 a n , przez h(n). Niech q(n) = h(n)/n. Z ach o d zi w te d y następująca równość: lim q(n) = Ąz. n—►oo 7T * Liczba 7r, jak żadna inna z liczb niewymiernych, fascy­ Ś w iatow e nowała zarówno wielkich naukowców, jak i amatorów z całego rekordy świata. Przez setki, a nawet tysiące lat odkrywano coraz w obliczan iu 7r więcej cyfr rozwinięcia 7r, używając często bardzo praco­ chłonnych metod. Ten ogromny wysiłek jest nieproporcjo­ nalny do użyteczności wyniku. Trudno byłoby znaleźć za­ stosowania w obliczeniach naukowych, w których potrzebne byłoby więcej niż 20 cyfr rozwinięcia 7r. Mimo to ludzie przesuwają granicę znanych cyfr rozwinięcia 7r dalej i dalej, 12 C. R. Wall, Selected Topics in E lem entary Number Theory, Uni­ versity of South Carolina Press, Columbia 1974, s. 153. 214 3. Granice i samopodobieństwo tak jakby to był sport, np. skok wzwyż, w którym zawo­ dnicy chcą dorównać wynikom wcześniejszym, albo nawet pobić światowy rekord. Jeśli spytamy alpinistów, dlaczego podejmują uciążliwą wspinaczkę na trudno dostępny szczyt, możemy usłyszeć następującą odpowiedź: „ponieważ on tam jest” . Jeśli chodzi o tego typu motywację, to liczba 7r jest jeszcze lepszym celem niż Mount Everest, ponieważ liczba cyfr w rozwinięciu 7r jest nieskończona. Gdy raz osiągnie się światowy rekord, istnieje wciąż powód, by zdobyć jeszcze następne dziesięć, sto czy milion cyfr. L u d o lfin a Przytoczymy kilka przykładów szaleństwa, które trwało przez poprzednie wieki, a i dzisiaj jest kontynuowane przy użyciu komputerów. Holenderski m atematyk Ludolph von Ceulen (1539-1610) poświęcił dużą część swoich prac na obli­ czenie 7r. W roku 1596 ogłosił 10 cyfr 7r i na krótko przed śmiercią udało mu się znaleźć 32, a nawet 35 cyfr, przez ekstremalne wykorzystanie metody Archimedesa. Otóż wpi­ sywał i opisywał w okrąg wielokąty mające 2 62 £3 1 0 18 wierz­ chołków. O statnie trzy cyfry wyryto na jego grobie i dlatego liczbę 7r nazywa się czasem ludolfiną. W zór M achina na W roku 1 7 0 6 John M ac h in o d k ry ł obliczanie 7r przedstaw ienie 7r ja k o granicy. Już elegancki sposób u m o żliw iający przedtem , w roku 1671, Gregory o d krył, że pole pod krzyw ą 1 / ( 1 -f- x 2) od 0 do x wynosi arctgor. R ozw inięcie arcusa tangensa w szereg r3 a rc tg z = x 3 ~,5 5 J1 7 =- + ■•■ / r\ -ł \ (3 -7 ) było bezpośrednim w nioskiem w y n ikają cy m z tego fa k tu . P odsta­ w ia ją c x = 1, o trz y m u je m y ła tw y w zó r na 7 t/4 (zo b . rów nanie (3 .5 ) ). N ies te ty szereg ten zbiega bardzo powoli i d lateg o nie je s t obecnie stosowany. M a c h in o d k ry ł ład n y c h w y t i zm ie n ił szereg Gregora ta k , że po p raw ił zn acznie te m p o je g o zbieżności. W yp ro w ad zen ie tej po­ praw ki je s t łatw e, jeżeli u żyjem y tryg o n o m e tryc zn y ch równoważności . ,■ _! m tg (a ± p) a ± tg /3 = tg ------------ 1 T tg a l g (3 Niech (3 będzie je d n o zn a c zn ie w yzn aczo n ym kątem m niejszym niż 7 t/4 , ta k im że ó.ó. osaczenie nowego prooiemu z szron kuku Jeśli skorzystam y z powyższych równoważności tryg o n o m etryczn ych , dostaniem y t c M 8 P 2 tg < i - 1 - t g 2/3 » 1- i - 5 12 oraz tg 4/? = 2 tg 2/3 _ | 1 — t g 22/3 " 1 - ^ _ 120 “ 119 O statn i w ynik pokazuje, że tg 4/3 « 1, i d lateg o 4/3 « 7 t/4 . T e ra z m ożem y obliczyć tangens różnicy pom iędzy tym i dw om a ką ta m i tg (4 /3 7 r\ _ t g 4/3 1 _ AJ 1 + tg 4/3 120 _ 239 Innym i słowy, 7T 1 4/? — - = arctg 4 0 239 W y lic za ją c 7t/ 4, o trzy m u je m y końcowy w ynik 7T 1 1 — 4 arctg - - arctg 4 05 0 239 W odróżnieniu od wzoru G regory’ego, m usim y tu ta j obliczać wartości dla dwóch szeregów, je d n a k to utru dnienie je s t nieistotne w porów ­ naniu z korzyściam i, ja k ie niesie fa k t, że szeregi te zb ieg ają znacznie szybciej. Na podstaw ie idei M ach in a pow stało w iele w zoró w na 7r w postaci sumy arcusów tangensów , a jed n ym z nich je s t w yrażenie odkryte przez Gaussa (zo b . rów nanie (3 .6 ) ). Po powstaniu rachunku różniczkowego w XVII w. od­ P rob lem y kryto nowe i lepsze metody obliczania ir. Metody te używały z liczb am i... rozwinięcia w szereg arcusa sinusa i arcusa tangensa. Najwy­ godniejszą do obliczeń za pomocą kartki i ołówka okazała się metoda Johna Machina (1680-1752). W tabeli 3.3 przed­ stawiono kolejne wyniki. 13 Obliczenia zwykle trwały kilka miesięcy. Oczywiście, nieuniknione były pomyłki. I tak, gdy Vega policzył swoje 140 cyfr w 1794 r., odkrył błąd na 113 miejscu w wyniku Delaneya. 200 cyfr otrzymanych przez Stassnitzky’ego i Dase’a nie zgadzało się natomiast z wyni13 Nasz opis oparty jest częściowo na książce A History of Pi, na­ pisanej przez Petra Beckmanna, wyd. 2, The Golem Press, Boulder 1971. ¿10 216 Przybliżenia liczby 7r, wykonane odręcznie przy użyciu szeregów 3 . Granice i samopodobieństwo Rok 1700 1706 1717 1794 1824 1844 1847 1853 1855 1873 1945 Nazwisko Sharp Machin Delaney Vega Rutherford Strassnitzky i Dase Clausen Rutherford Richter Shanks Ferguson Liczba cyfr 72 100 127 140 208 200 248 440 500 707 620 Tabela 3.3: Częściowy wykaz światowych rekordów w oblicza­ niu liczby 7T od roku 1700 do momentu, kiedy zaczęto używać komputerów kami Rutherforda. Clausen pokazał, ze błąd krył się w obli­ czeniach Rutheforda. Również rezultat Shanksa był błędny od 527 miejsca. Z tego grona Stassnitzky zasługuje na spe­ cjalną uwagę. Otóż obliczenia przeprowadzał Johann Mar­ tin Zacharias Dase (1824-1861), który miał cudowny dar liczenia. Jego niezwykłe umiejętności obliczeniowe zostały potwierdzone przez renomowanych matematyków. Wyko­ nywał on mnożenie dwóch 8 -cyfrowych liczb w 54 sekundy, 20-cyfrowych w 6 minut, a dwu 100-cyfrowych poniżej 9 godzin — przeprowadzając wszystkie te obliczenia w pa­ mięci! Ludzie w taki sposób utalentowani muszą mieć co najmniej dwie niezwykłe umiejętności: muszą umieć szybko wykonywać operacje arytmetyczne i jednocześnie mieć foto­ graficzną pamięć, zdolną utrwalić ogromną liczbę informacji. W ydaje się jednak, że nie jest im potrzebna niezwykła inte­ ligencja, wręcz przeciwnie — mogłaby ona jedynie przeszka­ dzać. Dase nie stanowił w tym względzie wyjątku. Wszyscy, którzy go znali, zgadzali się z opinią, że poza światem obli­ czeń i liczb był on raczej tępy. Gdy Dase miał 20 lat, Stas­ snitzky wyuczył go arcus tangensowego wzoru na ix podob­ nego do wzoru Machina i w dwa miesiące Dase znalazł 200 poprawnych cyfr. Na tym się nie skończyło. W trzy lata wy­ konał obliczenia logarytmów naturalnych dla pierwszego mi­ liona liczb całkowitych, z dokładnością do siódmego miejsca po przecinku każda, i kontynuował pracę nad tablicą funkcji hiperbolicznych. Zainteresował się nim Gauss i dzięki jego rekomendacji Dase zaczął pracę nad znalezieniem dzielników 3.3. Osaczenie nowego problemu z kilku stron 217 pierwszych liczb pomiędzy 7 000 000 a 10 000 000. Pracę tę sponsorowała Hamburska Akademia Nauk. Dase jednak zmarł ukończywszy ją jedynie w połowie. W roku 1885 F. Lindemannowi udało się udowodnić pod­ ... i kuracja stawowe twierdzenie w dziedzinie liczb przestępnych i jed­ kw adraturą koła nocześnie rozwiązać odwieczny problem: ir jest liczbą prze­ stępną14, a tym samym kwadratura koła jest niemożliwa. Mimo to ludzie wciąż ponawiali próby znalezienia „rozwiąza­ nia” problemu kwadratury koła. Oto jeden z przykładów. W roku 1897 Izba Reprezentantów stanu Indiana, USA, za­ twierdziła projekt ustawy „o wprowadzeniu nowej prawdy matematycznej” , który podawał dwie wartości dla liczby 7r, a więc 3, 2 i 4. Na szczęście senat Indiany odkładał rozpatry­ wanie tego prawa w nieskończoność. W XX w. coraz trudniej było pobić rekord w oblicza­ T echnologiczne niu 7r — do czasu, gdy pojawiły się komputery. Okazało p od ejście do tt się, że stosunkowo łatwo jest tak zaprogramować kompu­ ter, by policzył, na przykład, wzór Machina do tysiąca cyfr. I oczywiście zrobiono to. W tabeli 3.4 zapisano rekordy ustanowione w tej fazie. Do lat siedemdziesiątych obliczenia opierały się na arcus tangensowych szeregach, których używali już przedkomputerowi pionierzy. Kompletną listę pierwszych 100 000 cyfr 7r opublikowali Shanks i Wrench w roku 1962 roku . 15 W ostat­ niej części artykułu autorzy spekulują na tem at otrzyma­ nia miliona cyfr i piszą w podsumowaniu „Trzeba by mieć komputer 10 0 razy szybszy, 10 0 razy bardziej niezawodny i z 10 razy większą pamięcią. Nie istnieje jeszcze taka ma­ szyna. [...] W ciągu najbliższych 5-7 lat takie komputery [...] niewątpliwie się pojawią. W tedy obliczenia 7r z dokładnością do 1000 000 cyfr nie będą stanowiły trudności.” Autorzy okazali się zbyt wielkimi optymistami; upłynęło jeszcze po­ nad 12 lat do czasu, gdy Jean Guilloud i Martine Bouyer sprawdzili te milion cyfr. Prosty zapis metody używającej, na przykład, wzoru Gaussa (3.6) w połączeniu z rozwinięciem w szereg arcusa 14 Liczba x nazywa się algebraiczną, jeżeli jest pierwiastkiem pew­ nego wielomianu o współczynnikach wymiernych. Liczba przestępna to liczba, która nie jest algebraiczna. 15 D. Shanks i J. W. Wrench, Jr., Calculation of 7r to 100,000 Deci­ mals, Math. Comput. 16, 77, 76-99 (1962) . 3 . Granice i samopodobieństwo 218 P rzyb liżen ia liczby 7T za p om ocą k om puterów Rok 1949 1945 1958 1958 1959 1961 1973 1983 1985 1986 1987 1989 Nazwisko Reitwiesner Nicholson et al. Felton Genuys nieopublikowane Shanks, Wrench Guilloud, Bouyer Kanada et al. Gosper Bailey Kanada Kanada Komputer ENIAC NORC Pegasus IBM704 IBM704 IBM7090 CDC7600 Hitachi S-810 Symbolics Cray2 SX 2 HITAC S-820/80 Liczba cyfr 2 037 3 089 10000 10 000 16167 100 000 10 0 0 000 16000 000 17000000 29300000 134 000 000 1073 740000 V Tabela 3.4: Światowe rekordy w obliczaniu 7r na kompute­ rze. Czasy potrzebne do obliczeń leżą w zakresie 5-30 godzin, najkrótszy z nich to 13 minut (1945), najdłuższy zaś (100 godzin) doprowadził do rekordu z 1989 r. tangensa (3.7) stanowi wyzwanie dla każdego ambitnego pro­ gramisty. Jest to świetne ćwiczenie na kursie programistycz­ nym. Próbowaliśmy i my, i doszliśmy do 200 000 cyfr. 16 Niestety zadanie to okazało się trudniejsze, niż się w pierw­ szej chwili wydawało. W czasie pierwszego przebiegu jedynie 60 000 cyfr było poprawnych. Spowodowane to było za mało dokładną kontrolą błędu obliczeń. Jak daleko Powstaje pytanie, jak wiele cyfr można w ogóle otrzymać? m ożem y dojść? Algorytmy opierające się na rozwinięciach arcusa tangensa m ają tę własność, że podwojenie liczby cyfr wymaga obli­ czeń czterokrotnie dłuższych. Obliczenia miliona cyfr, wy­ konane w roku 1973, zabrały około 23 godzin. Jeśli chcie­ libyśmy poprawić dokładność z miliona do, powiedzmy, 128 milionów cyfr, trzeba by siedmiokrotnie podwajać liczbę cyfr (128 = 2 7). I następnie, jeśli chcielibyśmy przeprowadzić te obliczenia na tym samym komputerze, na którym obliczenia dla miliona cyfr trwały 23 godziny, to musielibyśmy siedem razy zwiększać czterokrotnie ten czas, a więc obliczenia mu­ siałyby trwać około 43 lat... Choć komputery stają się coraz szybsze, wyglądało na to, że postęp w tym zakresie zatrzyma się wcześniej czy później. I tak zresztą, o ile możliwe wydaje 16 Program liczył się około 15 godzin na komputerze Macintosh FX, ó/ó. Usaczenie nowego problemu z kilku stron ziy się osiągnięcie paru milionów cyfr, o tyle niemożliwe — setek milionów. Dlatego rekord miliona cyfr zachował się przez 10 lat. Jednak okazało się, że został przygotowany grunt do kolejnego śrubowania wyniku. W roku 1976 nastąpił istotny przełom: odkryto algo­ J eszcze jed en rytmy oparte na zbieżnych kwadratowo procedurach itera- przełom : nowe cyjnych. Takie algorytmy odkryli niezależnie Brent i Sala- algorytm y min .17 Oznacza to, że w każdym przebiegu iteracji liczba prawidłowych cyfr podwajała się. Ostatnio bracia Borwein wypracowali rodzinę metod jeszcze bardziej efektywnych . 18 Wszystkie te nowe algorytmy są bardziej efektywne od wy­ próbowanych metod posługujących się arcusem tangensem, ale tylko dlatego, że wykorzystują nowe osiągnięcia w zu­ pełnie innej dziedzinie — w arytmetyce. Dodanie do siebie dwóch n-cyfrowych liczb wymaga n operacji (trzeba dodać n odpowiednich par cyfr). Jeżeli natomiast wykonujemy mnożenie dwóch n-cyfrowych liczb wprost, to musimy właś­ ciwie wykonać n 2 operacji (trzeba pomnożyć każdą cyfrę przez wszystkie inne i dodać). Tym samym, gdy liczba cyfr n jest rzędu miliona lub więcej, różnica pomiędzy mnożeniem i dodawaniem jest wielka. Dlatego też odkrycie, że złożoność mnożenia jest efektywnie niewiele większa od złożoności do­ dawania jest wprost niewiarygodne: mnożenie może być wy­ konywane prawie tak szybko jak dodawanie ! 19 Kompute­ rowe implementacje tej metody wykorzystują pewne formy szybkiej transformacji Fouriera. Połączenie nowych metod opartych na sprzężeniu zwrotnym z szybkimi algorytmami na mnożenie dużych liczb umożliwiło obliczenia n z dokład­ nością do milionów cyfr. W czasie pisania tej książki rekord 17 R. P. Brent, Fast multiple-precision evaluation of elementary func­ tions, J. Assoc. Comput. M ach. 23, 242-251 (1976). E. Salamin, Computation of tv Using Arithmetic-Geometric Mean, Math. Comput. 30, 135, 565-570 (1976). 18 Zob. książkę J.M. Borweina i P. B. Borweina, Pi and the A G M — A Study in Analytic Number Theory; Wiley, New York 1987. 19 Dokładniej, sposób, w jaki wymagania komputerów rosną wraz ze wzrostem liczby cyfr czynników w mnożeniu, jest nie gorszy niż od­ powiedni (liniowy) wzrost czasu obliczeniowego dla dodawania długich liczb. Zainteresowanego Czytelnika odsyłamy do przeglądowej książki D.Knutha, The A rt o f Com puter Programming, t.2 , Sem inum erical A l­ gorithms, Addison Wesley, 1981, s. 278-299. 220 3. Granice i samopodobieństwo wynosił miliard cyfr ,20 a istnieją duże szanse na otrzyma­ nie dwóch miliardów w najbliższej przyszłości.21 Oczywiście pierwszy milion cyfr jest w takim samym stopniu nieprzy­ datny, jak i następne miliony. Istnieją jednak dwie przyczyny tego wielkiego polowania D w ie p rzyczyn y szukania na cyfry. Pierwsza to przekonanie trwające od dawna, że w artości i r poszczególne cyfry ir, jak i ich pary, trójki itd. m ają jedno­ stajny rozkład. W języku matem atyki oznacza to, że uważa się 7r za liczbę normalną. Dzięki badaniom komputerowym można znaleźć wskazówki potwierdzające to twierdzenie lub mu zaprzeczające. Wiadomo już, że do 29,3 milionów cyfr, które znalazł Bailey, wszystkie testy statystyczne wskazują na to, że 7r jest normalne. To jednak jeszcze nie dowód. Następną przyczyną wykonywania obliczeń 7r jest chęć efek­ tywnego testowania działania komputera. Niektóre fabryki komputerów twierdzą, że wykonują tego typu testy .22 Na­ wet najmniejszy błąd w jakiejkolwiek operacji podczas obli­ czeń niechybnie spowoduje pojawienie się błędnych cyfr po­ cząwszy od jakiegoś miejsca, a tego typu błąd jest łatwy do wychwycenia. C zy 7r zaw iera Ostatnie wysiłki przy obliczaniu 7 r z zastosowaniem za­ jak ieś wansowanych technik stanowiły chyba inspirację dla Carla przesłanie? Sagana do napisania części powieści Contact ,23 w której prze­ prowadza on spekulacje na tem at ukrytego wzoru czy przes­ łania, jakie Bóg mógł umieścić w kolejnych cyfrach 7r. W powieści superkomputer, po wielogodzinnych zmaganiach z liczbami, dokonuje odkrycia: istnieje taki ciąg cyfr w 7r, umieszczony gdzieś daleko w rozwinięciu, że jeśli przetwo- 20 W obliczaniu miliarda cyfr sukces odnieśli Yasumasa Kanada z uni­ wersytetu w Tokio i Gregory Chudnovsky z uniwersytetu Columbia w Nowym Jorku. Ich wyniki są zgodne. 21 Aktualne techniki i algorytmy są przedstawione w: J.M. Borwein, P. B. Borwein i D. H. Bailey, Ramanujan, modular equations, and approximations to pi, or how to compute one billion digits of pi, Am. M ath. Mon. 96, 201-219 (1989). 22 W artykule Shanks a i Wrencha z 1961 r. opisany jest przypadek awarii komputera. W celu poprawienia błędu trzeba było uruchomić program po raz drugi. Tak więc, przynajmniej do 30 lat temu, nie­ zawodność arytmetyki była problemem, który zaprzątał głowę nawet szeregowego użytkownika. 23 Carl Sagan, K o n ta kt, Express Book, Bydgoszcz 1991. 3.3. Osaczenie nowego problemu z kilku stron 221 rżymy go na bity i przedstawimy jako prostokątny obraz, to otrzymamy dobrze znaną figurę — okrąg. W zakończeniu książki czytamy: „W jakiejkolwiek galaktyce mieszkasz, jeśli tylko weź­ miesz obwód okręgu, podzielisz przez średnicę i będziesz mie­ rzył wystarczająco dokładnie, odkryjesz cud — następny okrąg, narysowany w odległości wielu kilometrów od prze­ cinka dziesiętnego. Istnieją następne przesłania. Nieważne jest, jak wyglądasz, z czego jesteś zrobiony, skąd pochodzisz. Jeżeli tylko jesteś mieszkańcem tego świata i masz pewien talent do matematyki, wcześniej czy później odkryjesz to. To tam jest. Kryje się we wszystkim. Nie musisz opuszczać swojej planety, by to znaleźć. W materiale, z jakiego jest zrobiona materia, w naturze tej materii, tak jak w wielkich dziełach sztuki jest tam, niewielkich rozmiarów, podpis arty­ sty. Ponad ludźmi, bogami i demonami [...] istnieje rozum, który antydatuje wszechświat.” Powróćmy do bardziej przyziemnego świata liczb. P a­ miętając, że pojęcie granicy jest bardzo przydatne do szu­ kania liczb niewymiernych, takich jak ir, e czy pierwiastki kwadratowe, przy podejściu teoretycznym bardziej satysfak­ cjonująca byłaby bezpośrednia definicja tych liczb. Może to być definicja uwikłana, podana w formie odpowiedniego równania, które jednocześnie opisuje przybliżenie przez pro­ ces sprzężenia zwrotnego za pomocą iterowania pewnego przekształcenia. Zajmijmy się tym tem atem w pozostałej części niniejszego paragrafu. Przypomnijmy sobie problem niewspółmierności boku y / 2 i niew spółi przekątnej kwadratu: stosunek długości przekątnej do boku m ie rn o ść kwadratu nie jest stosunkiem żadnych dwóch liczb całkowi­ tych .24 Oznacza to, że y / 2 nie jest równe p/q dla żadnych liczb całkowitych p i q. Nie mamy wątpliwości, że przekątna kwadratu istnieje naprawdę, ale czy znaczy to, że y / 2 istnieje jako liczba w jakimś sensie? Stanowiło to kiedyś ważne py­ tanie i chociaż brzmi dzisiaj naiwnie, nie było i nie jest try ­ wialnym problemem. Zastanówmy się, jak można przekonać kogoś (o istnieniu takiej liczby). Nie możemy się spodziewać pomocy od rozwinięcia dziesiętnego, które ciągnie się bez końca w wydawałoby się całkowicie nieuporządkowany spo­ sób. Oto 10 0 pierwszych cyfr w rozwinięciu dziesiętnym y / 2 : 24 Patrz rozdz. 2, s. 176. 222 3. Granice i samopodobieństwo V2 = 1,41421 35623 73095 04880 16887 24209 69807 85696 71875 37694 80731 76679 73799 07324 78462 10703 88503 87534 32764 15727... Istnieje jednak inny sposób na rozwinięcie 'J7!.- Przedsta­ wimy je jako specjalny rodzaj granicy, co sprawi, że y/2 będzie wyglądał prawie tak naturalnie jak liczba całkowita. Ta i kilka innych najpiękniejszych i tajemniczych granic od­ nosi się do łańcuchowego rozwinięcia ułamkowego. U łam ki Zacznijmy od zapisania, w wydawałoby się dziwny sposób, łańcuchow e liczb wymiernych. Oto przykład: 57 1 = 3+ Przyjrzyjmy się krok po kroku, jak możemy otrzymać takie przedstawienie: 57 17 „ 6 1 —3 + ■ — — 3 + -TTf — 3 + ¥6 17 = 3 + ^ 4 - = 3+ — 2 + -f 2 + 6 5 1 + 16 1 2 4 — . l + ± 1 ^ 5 W ten właśnie sposób każdą liczbę wymierną można za­ pisać jako łańcuchowe rozwinięcie ułamkowe. Liczby wy­ mierne m ają skończone rozwinięcie (tzn. proces tworzenia takiego rozwinięcia skończy się po pewnej skończonej liczbie kroków). Nasz przykład możemy zapisać w skrócie | | = [3,2,1,5], Ten sam algorytm możemy zastosować do liczb niewymier­ nych. Jednak w tym przypadku algorytm nigdy się nie za­ trzyma. Liczby niewymierne m ają więc nieskończoną repre­ zentację ułamkową. Zajmijmy się trochę ogólniejszą sytuacją, co pozwoli nam Ł ańcuchow e rozw inięcie jednak powrócić do y/2. Zacznijmy od równania ułam kow e dla x 2 + 2x — 1 = 0 . V2 3.3. Osaczenie nowego problemu z kilku stron Dodatni pierwiastek tego równania wynosi x — ^/2 — 1 < 1 . Zauważmy, że x 2 + 2x — 1 = 0 można też zapisać jako x 2+ + 2 x = 1 lub x (2 + x) = 1 , czy też £ 1 2 + x Jeśli zastąpimy x po prawej stronie przez ------- , to 2 + x x = 2 + x i jeszcze raz dokonując tego samego podstawienia, 1 x 2 + — i i tak dalej. Istnieje zatem nieskończenie wiele powtórzeń cyfry 2 w łańcuchowym rozwinięciu ułamkowym liczby \f2~~ —1 . Oznacza to, że \/2 ma następujące rozwinięcie: x —1 ^ ----------- = l + [2 , 2 , 2 , 2 ,...] . 2+ ó2 + i =---2+ 2+ Ta ciekawa równość wiąże \ / 2 z ciągiem liczbowym [1 , 2 , 2 , 2 , 2 ...], złożonym z cyfr łańcuchowego rozwinięcia ułamkowego \p l. Możemy zapisać \/2 = [1,2, 2,2, 2...] w tym znaczeniu, że cyfry 1 , 2 , 2 , 2 ,... są umiejscowione w ułamku tak, jak wi­ dzieliśmy to powyżej. Możemy też powiedzieć, że jest granicą ciągu [1 ] = 1 , [1 , 2 ] = 1 ,5, [1 , 2 , 2 ] = 1 ,4, [1 , 2 , 2 , 2 ] = 1.416.... A zatem ma bardzo regularne i cykliczne przed­ stawienie w łańcuchowym rozwinięciu ułamkowym, podczas gdy jego rozwinięcie w układzie dziesiętnym wyglada na nie­ uporządkowane. W dodatku nigdy nie będzie ono cykliczne, gdyż w przeciwnym przypadku \[2 byłoby liczbą wymierną. 223 224 3. Granice i samopodobieństwo Łańcuchowe R ozum ow anie, któ re d o kład n iej przedstaw iliśm y dla rozwinięcie -\-2x — 1, m o żem y te ra z p o w tó rzyć dla tro c h ę innego ułamkowe dla x 2 = ax + 1, złotej średniej rów nania x 2+ przypadku: gdzie a je s t liczbą ca łko w itą. Po podzieleniu przez x i d w u kro tn ym podstaw ien iu o trz y m u je m y x — cl 1 + — — a -j- x 1 a H— 1 X i ta k dalej. ułam kow e: 1 \ —a a ^-----1 H----------- r. r a + x D la te g o uzyskam y następujące łańcuchow e rozwinięcie x = [a, a, a , ...]. Jeżeli d o ko n am y p od staw ien ia a — 1, to d o d a tn im pierw iastkiem x 2 — x — 1 = 0 będzie złota średnia x = (1 + y/b)/2\ o trzy m a m y z= ł^ = i + [ M , i > - ] = i + ------ V - • 1 + 1+ D la te g o te ż zło ta średnia ma najprostsze m ożliw e łańcuchow e roz­ w inięcie ułam kow e. P ierw ias tk i rów nań kw adratow ych o całkow itych w spółczynnikach m ają łańcuchow e rozwinięcia ułam kow e, które od pew nego miejsca są cykliczne, np. [2 ,2 , 2 , 3 , 2 , 3 , 2 , 3 , . . . ] czy [ 2 ,1 ,1 , 4 , 1 , 1 , 4 , 1 , 1 , 4 , . . . ] . C h arakterystyczn ą cechą liczb w ym iernych je s t to , że m ają skończone łańcuchow e rozw inięcia ułam kow e. Podsumujmy najważniejsze kwestie w naszych rozważa­ C h arakterystyk a przez rów nania niach dotyczących liczb niewymiernych. Jeżeli dysponowa­ libyśmy jedynie reprezentacją w postaci granicy, tak jak w przypadku dziesiętnego rozwinięcia \ / 2 , nie czulibyśmy się zadowoleni. Mamy na szczęście inne sposoby charaktery­ styki: 1.y/2 ma elementarne łańcuchowe rozwinięcie ułamkowe, [1 , 2 , 2 , 2 ,...]. 2 . V2 jest rozwiązaniem równania x 2 — 2 = 0 . Możemy jeszcze wzbogacić nasze obserwacje. funkcję Rozważmy 225 3.3. Osaczenie nowego problemu z kilku stron której punkty stałe x — N (x). Obliczmy: Dlatego, że punkty stałe funkcji N (x ) to po prostu pier­ wiastki kwadratowe z 2 , możemy podstawić na naszej liście w miejsce x 2 —2 = 0 następujące równanie: Istnieje ważny powód, dla którego wolimy ten wzór określa­ jący punkt stały od x 2 — 2 = 0 : możemy użyć N (x ) do zdefiniowania procesu sprzężenia zwrotnego, x n+\ = N ( x n), n = 0 ,1 ,2 ,... (3.8) Iteracje te zbiegają do pierwiastka z 2, jeżeli tylko wystar­ tujemy od dodatniej wartości początkowej xo > 0 . W pa­ ragrafie 1.3 przeprowadziliśmy dyskusję na ten tem at, a do­ datkową ilustrację przedstawia tabela 3.5 dla xq = 100. n 0 1 2 3 4 5 6 7 8 9 10 11 Poprawne cyfry 100,0000000000000000 50,0100000000000000 25,0249960007998400 12,5524580467459030 6,3558946949311400 3,3352816092804338 1,9674655622311490 1,4920008896897231 1,4162413320389438 1,4142150140500532 1,4142135623738401 1,4142135623730950 0 0 0 0 0 0 1 2 3 6 13 wszystkie Tabela 3.5: Przybliżanie pierwiastka kwadratowego z 2 przy użyciu iterowania xn+i = (xn + 2/xn)/2. Początkowo zgadu­ jemy x0 = 100. Jak tylko wynik jest tego samego rzędu co prawdziwa wartość 1,4142135623730950... iteracje stają się bardzo szybko zbieżne, a liczba poprawnych cyfr dziesiętnych podwaja się w każdym kroku P rzyb liżan ie pierw iastka kw adratow ego z dw óch 3. Granice i samopodobieństwo 226 Możemy zauważyć, że iteracje zbiegają bardzo szybko do y/2, po kilku wstępnych krokach, które sprowadziły x n do obszaru sąsiadującego z pierwiastkiem. Liczba popraw­ nych cyfr rozwinięcia z grubsza podwaja się w każdym kroku. Oczywiście nie jest to przypadek. Metoda, którą się posłuży­ liśmy, jest najczęściej używana do poszukiwań wartości pier­ wiastków kwadratowych i nosi nazwę metody Newtona. Pod­ sumujmy nasze rozważania: 1. Istnieje dobrze zdefiniowana procedura przybliżania war­ tości y/2 — proces sprzężenia zwrotnego zbiegający szybko. 2 . Odpowiadające równanie ma punkt stały które charakteryzuje granicę, \ / 2 . Równanie na punkt stały możemy również powiązać z sy­ metriami. Spróbujmy na przykład obrócić sześciokąt fo­ remny o 60°, czy też znaleźć dla niego odbicie zwierciadlane. Mówimy, że obiekt się nie zmieni pod wpływem jakiejś ope­ racji (przekształcenia), jeżeli po jej zastosowaniu otrzymamy ten sam obiekt. Naszym celem będzie potraktowanie fraktali w podobny sposób, w jaki poradziliśmy sobie z liczbami nie­ wymiernymi, tzn. zastosowanie prostych zasad dotyczących granic, a związanych z równaniem punktu stałego, które cha­ rakteryzuje dany fraktal za pomocą pewnej własności niezmienniczości. 3 .4 . F r a k ta łe ja k o r o z w ią z a n ia ró w n a ń Powróćmy do fraktali i sprawdźmy, czy możemy do nich za­ stosować metodę, której nauczyliśmy się przy zmaganiach z pierwiastkiem kwadratowym z 2. Podstawową obserwacją na tem at krzywej Kocha jest to, że krzywa ta jest granicą pewnego procesu, która ma specjalne własności - i którą 3.4. Frakt ale jako rozwiązania równań 227 możemy scharakteryzować w podobny sposób, jak scharak­ teryzowaliśmy y/2 za pomocą pięknych łańcuchów rozwi­ nięcia ułamkowego. Ale czy istnieje ona naprawdę? Przypo­ mina to pytanie o istnienie liczb niewymiernych. W przy­ padku liczb niewymiernych spokój nasz opierał się na prze­ konaniu o słuszności pewnych związanych z nimi pojęć. Na przykład naszym argumentem było to, że y/2 jest rozwiąza­ niem równania x 2 — 2 = 0 lub x = (x + 2/x)/2 . Podob­ nie, liczba 27r wyraża długość okręgu jednostkowego. Za­ uważmy, że żadna z tych liczb nie jest podana tu jako gra­ nica ciągu — i to zapewne pozwala nam łatwiej zaakcep­ tować ich istnienie! Założenie, że 7r mogłoby ciągle nie być znane w matematyce, jeśli by nie było związane tak pięknie z okręgiem, jest tylko spekulacją. Czy jednak Euler od­ kryłby, że 1 + 1/2 2 + 1/3 2 + 1/4 2 + ... daje nam bardzo specyficzną liczbę (7t2 )/6, którą warto się zająć, jeśli 7r nie wyrażałaby konkretnej wielkości? Potrzebujemy więc dodatkowych danych do zaakcepto­ wania istnienia krzywej Kocha, jak również jej charaktery­ styki, opartej na innych pojęciach i zasadach. Jest to jedna z podstawowych zasad w matematyce. Jeżeli jakiś obiekt czy rezultat daje się zinterpretować z nowego punktu widze­ nia, matematycy uważają, że dokonali jakiegoś postępu — i są zadowoleni. Możemy więc zapytać, czy krzywa Kocha ma własności niezmiennicze? Czy możemy znaleźć opis podobny do opisu V2? Jeden rodzaj niezmienniczości jest oczywisty. Krzywa Kocha ma oś symetrii. Nie jest to jednak własność charakte­ rystyczna jedynie dla krzywej Kocha. Ideałem byłoby zna­ lezienie przekształcenia, czy też przekształceń, które pozo­ stawiałyby krzywą Kocha nie zmienioną. Taki rodzaj prze­ kształcenia można uważać za pewien rodzaj symetrii. Przy­ pomnijmy dyskusję o samopodobieństwie krzywej Kocha, jaką przeprowadziliśmy w paragrafie 3.2, ale teraz spróbujmy to zrobić dokładniej i bardziej precyzyjnie. Na rysunku 3.15 przedstawiono przekształcenie podobieństwa dla krzy­ wej Kocha: najpierw zmniejszamy krzywą Kocha trzykrot­ nie, a następnie powielamy i wytwarzamy cztery kopie, które sklejamy tak, jak pokazano na dole rysunku 3.15. Otrzymu­ jemy w ten sposób krzywą, która, choć wygląda jak oryginał, składa się z czterech kopii. C zy krzyw a K ocha m a w łasności n iezm iennicze? 3 . Granice i samopodobieństwo 228 C ollage K ocha R ysunek 3.15: Krzywa Kocha pozostaje niezmiennicza pod działaniem przekształceń ... , wą Przekształcenie podobieństw a dla krzywej K ocha T a b e la 3 .6 zaw iera szczegóły przekształceń podobieństw a wi do wą dla krzyw ej K o ch a, ta k ja k to pokazano na rysunku 3 .1 5 . Liczba k 1 2 3 4 Czynnik skali s 1/3 1/3 1/3 1/3 Kąt obrotu 0 0° 60° -60° 0° Translacja Tx Ty 0 0 1/3 0 1 /2 V3/6 2/3 0 Tabela 3.6: Przekształcenia podobieństwa dla collage’u Ko­ cha. Przekształcenia działają kolejno jako: jednokładność, obrót, translacja (zob. paragraf 3.1) 3.4. Fraktale jako rozwiązania równań 229 Jeżeli w ykonam y podstaw ienie: cos 60° = c o s(—60°) = sin 60° = —sin (—60°) = to o trzym am y jaw n e w zory przekształceń, ta k ie ja k podano w t a ­ beli 3.7. Przekształcenie wi(x,y) w 2(x,y) W3 ( x , y ) w 4 (x,y) W spółrz. x 5 & * ix - & v 6 y I r + ^3 y 6 6 y b W spółrz. y + i + ' _L ^ k 3 ir x + \y I 2 + \y + b Tabela 3.7: Jawne w yrażenia na przekształcenia p od obieństw a dla collage5!! krzywej K ocha Operację tę, polegającą na dopasowywaniu przekształceń, można opisać jako pojedyncze przekształcenie. Niech k = 1,..., 4, będą czterema przekształceniami podobieństwa, będącymi złożeniem zmniejszania w skali 1/3, z odpowiednią zmianą położenia (obrót i przesunięcie), tak jak to przed­ stawiono na rysunku 3.15. Niech A będzie więc dowolną figurą, a W (A) niech oznacza zbiór (sumę) wszystkich czte­ rech przekształconych kopii W (A) = w\(A) U W2 (A) O ws(A) U wą (A). (3.9) Tak więc W jest przekształceniem figur lub dokładniej — podzbiorów płaszczyzny na figury. Na rysunku 3.16 po­ kazano rezultat działania tego przekształcenia na dowolnej figurze, na przykład na znaku NCTM. Jeżeli porównamy obrazy przekształcenia otrzymane na rysunkach 3.15 i 3.16, to zauważymy, że istnieje podstawowa różnica pomiędzy nimi. W przypadku zastosowania W, danego równaniem (3.9), do krzywej Kocha otrzymujemy z powrotem krzywą Kocha. Jeżeli więc wprowadzimy formalne oznaczenie K na krzywą Kocha, to otrzymujemy ważną równość W( K) = K , wyznaczającą własność niezmienniczą (lub własność punktu stałego), której właśnie szukaliśmy. Oznacza to, że jeżeli po- C harakterystyka za p om ocą rów nania na sam opod ob ień stw o 230 3. Granice i samopodobieństwo R ysunek 3.16: Skrót NCTM nie jest niezmienniczy pod dzia­ łaniem W stawimy problem znalezienia rozwiązania X równania W ( X ) = X , to krzywa Kocha K jest tym rozwiązaniem. Co więcej, równanie to opisuje samopodobieństwo K , ponieważ K = w \(K ) U W2(K) U ws ( K) U wą (K) oznacza, że K jest zbudowana z czterech egzemplarzy podob­ nych do siebie. Scharakteryzowaliśmy więc K przez jej włas­ ność samopodobieństwa. Jeżeli z kolei zastąpimy K po pra­ wej stronie równania zbiorem czterech kopii, to w oczywisty sposób dojdziemy do wniosku, że K składa się z 16 kopii siebie samej itd. Wrócimy jeszcze w tym paragrafie do tej interpretacji samopodobieństwa. Jeżeli zastosujemy to samo przekształcenie W do liter NCTM (tzn. jeżeli X będzie oznaczało „NCTM”), to nie uzyskamy ich z powrotem. Otrzymamy za to jakąś dziwną figurę. Doszliśmy do miejsca, w którym możemy postawić tezę, J ed y n ie krzyw a K och a jest że krzywa Kocha jest być może jedynym niezmiennikiem n iezm ien n ik iem przekształcenia W. Stanowi to tezę ważnego twierdzenia, W które będziemy omawiali w rozdziale 5. Przekształcenie w rodzaju W nosi nazwę operatora Hutchinsona, od nazwi­ ska J. Hutchinsona25, który pierwszy badał własności takich właśnie przekształceń. 25 J. Hutchinson, Fractals and self-similarity, Indiana Univ. J. Math. 3 0 , 7 1 3 -7 4 7 (198 1). rraKtaie jaKo rozwiązania rownan ZOJL Dzięki scharakteryzowaniu krzywej Kocha jako punktu K rzyw a K ocha stałego operatora Hutchinsona możemy przeprowadzić da­ jako granica lej analogię między opisem tej krzywej a obliczaniem \ / 2 (zob. równanie (3.8)). Pozostało wykazanie, że iterowanie operatora W, działającego na początkową konfigurację Aq, prowadzi do powstania ciągu A k+1 = W ( A k), k = 0 , 1 , 2 ,... zbiegającego do granicy, którą jest krzywa Kocha. Tak też się dzieje, a geometryczna argumentacja na rysunku 3.17 sugeruje, że taki samopodobny obiekt istnieje. O biekt graniczny — krzyw a K ocha Rysunek 3.17: Zaczynając od dowolnego kształtu, prostokąta, iteracje operatora Hutchinsona wytwarzają ciąg obrazów, które zbiegają do krzywej Kocha Podsumujmy. 1. Istnieje dobrze zdefiniowana procedura przybliżenia krzy­ wej Kocha przez następujący proces sprzężenia zwrotnego: A M = W ( A k), fc = 0,1,2, ... gdzie A q może być dowolną figurą początkową, a W ozna­ cza operator Hutchinsona W{A) — w \(A ) U W2(A) U ^3(^4) U w±(A) dla krzywej Kocha. 232 3. Granice i samopodobieństwo 2. Odpowiadające jemu równanie na punkt stały, A - W( A) , jednoznacznie charakteryzuje granicę, krzywą Kocha. Jak możemy się przekonać, że to, co widzimy — że W przekształca krzywą Kocha na krzywą Kocha — jest prawdą? Czy możemy zaufać obrazkowi, czy nawet eksperymentowi graficznemu? Otóż powinniśmy traktować to jedynie jako przesłankę. Przecież mogłoby się zdarzyć, że niezauważalnie mały szczegół mógłby różnić W ( K ) i K. Musimy zatem kontynuować nasze rozważania i przekonać się, że ta ważna własność samopodobieństwa istnieje naprawdę, a nie jest je­ dynie eksperymentalnie stworzonym artefaktem. To będzie nasz następny cel. Zajmiemy się najpierw tą własnością na dwóch prostszych przykładach: zbiorze Cantora i trójkącie Sierpińskiego .26 K onstrukcja zbioru C antora R ysunek 3.18: Konstrukcja zbioru Cantora, używająca geome­ trycznego procesu sprzężenia zwrotnego W rozdziale 2 wprowadziliśmy zbiór Cantora jako granicę R ów n an ie dla zbioru C antora geometrycznego procesu sprzężenia zwrotnego (zacznijmy od odcinka jednostkowego, usuńmy zeń otwarty odcinek o dłu­ gości 1/3 o środku w 1/2, następnie usuńmy środkowe części po podziale na trzy równe części pozostałych odcinków itd.). Co więcej, był on opisany jako zbiór takich liczb pomiędzy 0 a 1 , w których rozwinięciu trójkowym nie występuje cyfra 1 . Ta właśnie własność pozwoli nam na sprawdzenie, że zbiór Cantora jest punktem stałym odpowiedniego operatora Hutchinsona W , danego przez dwa przekształcenia 26 Dyskusję matematyczną musimy odłożyć do rozdziału 5, gdzie przyjrzymy się zbieżności obrazów i szczegółom charakteryzacji fraktali przez operatory Hutchinsona. 233 3A. Fraktale jako rozwiązania równań ^ i(^ ) W2 (®) Zatem dla danego zbioru A otrzymujemy W (A) = u>i(A) U ^2(^4)’ Na rysunku 3.19 pokazano, jak przekształcenie to działa na przedział jednostkowy. P rzek ształcen ia zbioru C antora 0 0 1/3 2/3 1 Rysunek 3.19: Przekształcenia podobieństwa dla zbioru Cantora — w\ oraz u>2 Twierdzimy, że zbiór Cantora jest rozwiązaniem równania W { X ) = X, tzn. że zbiór Cantora jest niezmienniczy dla W i że W( C) = c . Już C antor opisał zbiór, nazw any później je g o im ieniem , u żyw ając rozwinięcia trójkow ego liczb. P rzyp o m n ijm y, że każdą liczbę 0 < x < 1 m ożem y rozw inąć w szereg X — Cli * 3 "f- U 2 ' 3 ^ ~h O 3 * 3 ^ ~h CI4 * 3 ^ -h ... , gdzie cyfry a*, należą do zbioru { 0 , 1 , 2 } . M o ż e m y zapisać w te d y x = 0 , a i a 2a 3..., tzn . w spółczynniki 01 , 112^ 3 , .. . są cyfram i rozw inięcia trójkow ego. Z b ió r C antora dany je s t przez C = {x: x = 0 , a i a 2a 3 ..., ak £ { 0 , 2 } } , tzn . są to w szystkie liczby, w których rozw inięciu tró jko w ym nie w y­ stępuje cyfra 1 . U żyw ając te j charakterystyki, m ożem y zyskać przeko­ nanie, że własność niezm ienniczości, która je s t charakterystyczna dla sam opodobieństw a, w ystępuje i tu ta j. Po pierwsze, m usim y zro zu ­ Niezmienniczość C ze względu na W 3 . Granice i samopodobieństwo 234 m ieć, w ja k i sposób w\ i w 2 d z ia ła ją na liczbach trójkow ych; to je d n a k ła tw o w yjaśnić: jeżeli x = 0 , a i a 2a 3 ..., to wi(x) = 0 , 0 a i a 2 ... oraz W2 (x) = 0 , 2 a ! a 2 ... D la te g o , jeżeli ajt G { 0 , 2 } , to cyfry tró jk o w e liczb wi(x) i W2 (x) będą m iały tę sam ą własność, tzn . Wk{C), k = 1 ,2 , je s t rów nież za w a rte w C . C zy je d n a k m ożem y o trz y m a ć w ten sposób w szystkie p u n k ty Cl Jeżeli y G C , tzn. y = 0 , a i a 2a 3 ... oraz G { 0 , 2 } , istnieje ta k ie x G (7, że dokładnie je d n o z przekształceń w * , k = 1 ,2 , będzie m iało własność w * ( a r ) = yW e ź m y po prostu x = 0, a 2a 3 ... Jeśli a i = 0, to w yb ieram y w\, w p rzeciw nym przypadku w y b ie ra m y w 2 . O s ta te czn ie daje to nam równość W(C) = C \ Niezmienniczość wyjaśnia samopodobieństwo. Zacznijmy N iezm ien n iczość i sam o­ od równości p od ob ień stw o C = w 1( C ) U w 2(C), która mówi, że C składa się z dwóch takich samych kopii siebie samego — pomniejszonych trzykrotnie. Otrzymujemy zatem C = wi ( wi ( C) U W2 (C)) U W2 {W\(C) U W2 {C))y co prowadzi do c = Wi ( wi ( C) ) UWi ( w2( C) ) UW2( w\ ( C) ) UW2( w2( C) ) , tzn. C składa się z czterech kopii siebie samego, pomniej­ szonych w skali 1/9, i tak dalej. Oznacza to, że możemy odszukać coraz mniejsze części w (7, będące pomniejszonymi kopiami C. Przeanalizujmy teraz w podobny sposób trójkąt Sierpiń­ skiego. Zaczniemy znowu od jego opisu przy użyciu granicy, tak jak zrobił to Sierpiński w 1916 r. Zacznijmy od trójkąta. Może to być dowolny trójkąt, Trójkąt S ierpiń sk iego lecz z przyczyn, które za chwilę staną się jasne, weźmiemy jako granica trójkąt prostokątny T, o dwóch bokach o długości 1. Na­ stępnie weźmy środki jego boków. W yznaczają one trójkąt środkowy, który usuwamy. Pozostają nam więc trzy trójkąty podobne i dla każdego z nich wyznaczamy środki jego boków, usuwamy środkowe trójkąty; pozostaje nam dziewięć mniej­ szych trójkątów , i tak dalej (zob. rysunek 3.20). Trójkąt Sierpińskiego również jest samopodobny. Aby opisać tę cechę, wyobraźmy sobie, że leży on na płaszczyźnie 235 3.4. Fraktale jako rozwiązania równań Trójkąt Sierpińskiego raz jeszcze (0 . 1) (0.0) (1 .0) Rysunek 3.20: Konstrukcja trójkąta Sierpińskiego jako granicy. Pokazane są etapy od 0 do 3 w taki sposób, że jego wierzchołki znajdują się w punk­ tach (0,0), (1,0) i (0,1). Następnie wprowadźmy trzy prze­ kształcenia podobieństwa 10 1 , 102 , 103 . Każde z tych prze­ kształceń można przedstawić jako jednokładność o skali 1 / 2 , złożone z przesunięciem w taki sposób, że w i( 0 , 0 ) = (0 , 0 ), w2 ( 1 . 0 ) = ( 1 , 0 ), U>3 (0 , 1 ) = (0 , 1 ). Jeśli S oznacza trójkąt Sierpińskiego, to twierdzimy, że S ~ w\(S) U W2 (5) U 103 (5 ). (3.10) Jeżeli więc wprowadzimy operator Hutchinsona W (A) = w\ (A) U 102 (A) U ^ 3 (A), gdzie A jest dowolną figurą na płaszczyźnie, to W( S ) = 5, tzn. trójkąt Sierpińskiego jest niezmienniczy pod działaniem W, lub, że jest on rozwiązaniem równania W ( X ) = X. N iezm ien n iczość trójk ąta Sierpińskiego 236 3. Granice i samopodobieństwo Oznacza to również, że trójkąt Sierpińskiego można roz­ bić na 3, 9 lub 27 (ogólnie 3k) trójkątów, które są poO Q mniejszonymi kopiami całości w skali 1 / 2 , ( 1 / 2 ) lub ( 1 / 2 ) (ogólnie: ( l / 2 ) fe). Jeśli więc tylko udowodnimy poprawność równania (3.10), to w pełni zrozumiemy samopodobieństwo trójkąta Sierpińskiego. Binarny opis K o n stru kcja g eo m etryczn a sugeruje, że 5 spełnia rów nanie S = trójkąta Wi(S)Uw2(S)Uws{S)', m im o to w o lim y podać porządny dowód. P ro­ Sierpińskiego ces usuwania tró jk ą tó w pokazan y na rysunku 3 .2 0 je s t rów now ażny i niezmienniczość system atyczn em u usuwaniu pew nych obszarów płaszczyzny. Jeżeli S pod działaniem {x,y) je s t p u n ktem o nieujem nych w spółrzędnych oraz x + y < 1, W to ( x , y ) je s t p u n ktem leżącym w e w n ą trz tró jk ą ta o w ierzchołkach ( 0 , 0 ) , ( 1 , 0 ) i ( 0 , 1 ) . Jeżeli w e źm iem y dow olny p u n kt (x , y), należący do teg o tró jk ą ta , to m o żem y w następujący sposób sprawdzić, czy należy on do tró jk ą ta Sierpińskiego. Z a p is zm y dw ó jkow e rozw inięcie obu współrzędnych x = 0, a ia 2a 3..., V = 0, 616263- , gdzie ak e { 0 , 1 } , gdzie bk G { 0 , 1 } . P u n k t (x,y) należy do tró jk ą ta Sierpińskiego w ted y i tylko wtedy, gdy żadne dw ie o d p o w iad ając e sobie cyfry w rozw inięciu, ak i bk, nie są rów nocześnie rów ne 1. O zn ac za to , że jeżeli ak = 1, to bk = 0 oraz o d w ro tn ie , jeśli bk = 1, to koniecznie ak = 0 i zachodzi to dla w szystkich k = 1 , 2 , 3 , . . . O pis ten dokładnie w ypro w adzim y w rozdziale 5, p a ra g ra f 5.3 . P u n k t z nie należy do tró jk ą ta Sierpińskiego, jeżeli jeg o w spółrzęd­ ne x i y m a ją w rozw inięciu dw ó jko w ym ta k ą parę cyfr, że ak = 1 1 bk = 1. W y d a w a ło b y się, że pow stanie problem z pew nym i punk­ ta m i, ta k im i ja k na przykład x = ( 1 / 2 , 1 / 2 ) . Jest to punkt, który n ie w ą tp liw ie należy do tró jk ą ta Sierpińskiego, chociaż w ydaw ałoby się, że p o n iew aż je g o w spółrzędne są rów ne, więc w rozwinięciu x i y istnieje para o d p o w iad ając yc h sobie cyfr ak i bk, które są obie rów ne 1. Z a u w a żm y je d n a k , że 0 ,5 m a dwa rów nopraw ne rozwinięcia dw ójkow e, je d n o 0 , 5 = 0 ,1 0 0 0 ..., a drugie 0, 5 = 0 ,0 1 1 1 ... Jeśli dla w spółrzędnej x w y b ierzem y pierwsze, a dla y — drugie rozw inięcie, to okazuje się, że p u n k t ten należy do 5 , zgodnie z charakterystyką tró jk ą ta Sierpińskiego. Posługując się binarną ch arakterystyką tró jk ą ta Sierpińskiego, m o­ żem y obecn ie w ykazać, że w zó r H utchinsona S = Wi(S) U W2 {S) U ws(S) je s t popraw ny. W y s ta rc zy zrozum ieć, ja k w k działa na p un kt (x , y) należący do S. D op racow anie szczegółów je s t tu żm udne, choć 237 3.4. Frakt ale jako rozwiązania równań Przekształcenie wi(x,y) w2{x,y) w3(x,y) Współrz. x 0 , 0aia 2 a3... 0 , la ia 2 a3... 0 , 0aia 2 a3... Współrz. y 0 , 0 &i&2&3... 0 , 0 fci&2&3... 0 , l&i&2&3... Tabela 3.8: Jawne postacie przekształceń podobieństwa dla trój­ kąta Sierpińskiego. W tabeli tej punkt z = (x, y) jest podany jako rozwinięcia x = 0 , a i a 2a 3 ... oraz y = 0 ,& i& 2&3 *** jednocześnie podobne do trójko w eg o opisu zbioru C an tora z rozdziału 2. W tabeli 3 .8 obliczono trz y punkty, na które p u n kt (x,y) prze­ chodzi przy przekształceniach wi,W 2 i w 3 . Zauw ażm y, że p un kty tró jk ą ta Sierpińskiego m ożna zgrupow ać w trz y zbiory, zależnie od pierwszych cyfr rozw inięcia dw ójkow ego x i y. Pierw szy je s t złożony z punktów , dla których ai = bi = 0, dla pun ktu drugiego a\ = 1 i bi — 0, a dla trzeciego a± = 0 i &i = 1. Istnieją trz y punkty, któ re są zaw arte w dwóch takich kategoriach, a m ianow icie ( 1 / 2 , 0 ) , ( 0 , 1 / 2 ) i ( 1 / 2 , 1 / 2 ) . N ie stanow i to je d n a k przeszkody w w yciągnięciu na­ stępującego wniosku. G dy posłużym y się pow yższą ta b e lą , staje się oczyw iste, że wi(S) je s t równy pierw szem u z tych zbiorów , w 2 ( 5 ) — drugiem u, a u>3 (S ) — trzeciem u . D la te g o te ż o trz y m u je m y W(S) = t u i( S ) U w2(S) U w 3 ( S ). Zajmując się krzywą Kocha, zbiorem Cantora, czy trój­ kątem Sierpińskiego, stwierdziliśmy, że każdy z tych podsta­ wowych fraktali można otrzymać jako granicę pewnego pro­ cesu. Jednocześnie jednak dysponujemy ich charakterystyką za pomocą punktu stałego operatora Hutchinsona, który jest złożeniem odpowiednich przekształceń samopodobieństwa. Daje nam to wiele. W pierwszym rzędzie wyjaśnia znaczenie samopodobieństwa. Ale nie tylko — operator Hutchinsona dostarcza nam alternatywnego sposobu opisu, przydatnego przy omawianiu istnienia krzywej Kocha, zbioru Cantora, czy trójkąta Sierpińskiego. Możemy wykazać, że każdy z wprowadzonych wcześniej Jed n ozn aczn a przez nas operatorów Hutchinsona wyznacza w sposób jed­ identyfikacja noznaczny obiekt na płaszczyźnie (w przypadku krzywej Ko­ ob iek tów cha czy trójkąta Sierpińskiego) i na prostej (zbiór Cantora), który pozostawia nie zmieniony. Oznacza to, że jeżeli W jest odpowiednim operatorem Hutchinsona, to rozwiązanie równania W ( X ) = X będzie automatycznie krzywą Kocha, 238 3. Granice i samopodobieństwo K afelkow anie kw adratu i trójk ąta Rysunek 3.21: Rozbicie kwadratu na cztery mniejsze kwadraty a trójkąta na dwa mniejsze trójkąty podobne zbiorem Cantora lub trójkątem Sierpińskiego. Mamy za­ tem równanie charakterystyczne dla każdego z tych fraktali. Oczywiście równania te nie są jednoznaczne. Przy­ pomnijmy, że także y/2 można scharakteryzować na kilka sposobów. To samo mamy tu taj. Jest to tem at dający in­ teresujące możliwości. Zajmiemy się nim w rozdziale 8 . Ist­ nieje również opis tradycyjnych obiektów geometrycznych w terminach samopodobieństwa. Weźmy na przykład kwa­ drat lub trójkąt. Na rysunku 3.21 przedstawiono, w jaki sposób obiekty te można podzielić na figury samopodobne. Możemy zatem rozumieć fraktale, takie jak trójkąt Sierpiń­ skiego, jako należące do tej samej rodziny obiektów co tra­ dycyjne figury geometryczne. Są one rozwiązaniami równań tego samego typu. Po przyjęciu takiego punktu widzenia możemy traktować fraktale jako rozszerzenie tradycyjnej ge­ ometrii, tak samo, jak liczby niewymierne można postrzegać jako rozszerzenie liczb wymiernych otrzymane za pomocą rozwiązania odpowiednich równań. Samopodobień­ stwo w szeregu operatorów Hutchinsona Posługując się o p e ra to re m H utchinsona, m o żem y przeprow adzić ana­ logię z szeregam i g e o m etry czn ym i. Z a c z n ijm y od tró jk ą ta T obrysu części p łatka śniegu K ocha (zo b . rysunek 3 .2 2 ). Z a s to s u jm y te ra z o p e ra to r H utchinsona do T i d o d ajm y w yn ik do T . W szeregu g e o m e try c zn y m o dp ow ied nio zaczęlibyśm y od liczby 1 i pierw szy krok polegałby na przeskalow aniu te j liczby o czynnik q i następnie na do d an iu w yn iku . T u ta j po pierw szym kroku o trzy m u ­ je m y T U W( T) = T U Wi(T) U w2(T) U w3(T) U w4(T). D o d aliś m y z a te m czte ry tró jk ą ty . W następnym kroku znow u d ziałam y o p e ra to re m H u tch in so n a W na naszą konfigurację T U W(T) i o trzy ­ m u je m y w yn ik T U W(T) U W 2(T). 239 3.5. Samopodobieństwo siatkowe Rysunek 3.22: Konfiguracja początkowa (po lewej) i pierwsze dwa kroki konstrukcji części płatka śniegu Kocha jako analogia do szeregu geometrycznego W 2(T) oznacza tu ta j p ow tórzo ne działanie W , tzn . W(W(T)); daje to zbiór 16 tró jk ą tó w określonych przez W i ( w i ( T ) ) , w 1(w 2(T)), w 1(w 3(T)), w4(w3{T)), w 4(w 4(T)). Po następnym kroku o trzy m u je m y T U W(T) U W 2{T) U W 3(T). Posługując się analogią do szeregu geom etrycznego, m ożem y naw et zapisać obiekt będący granicą te j konstrukcji ja k o oo U w k (T i fc= 0 gdzie przyjęliśm y um ow ę W°(T) = T . 3.5. S a m o p o d o b ie ń stw o siatk ow e: u c h w y c e n ie g ra n ic y Rozważaliśmy fraktale jako obiekty otrzymane w wyniku przechodzenia do granicy i zauważyliśmy, że dopiero obiekt graniczny (a nie żaden ze stanów pośrednich) ma cechę samopodobieństwa. Doszliśmy nawet do wniosku, że to właśnie obiekt graniczny jest wyznaczony przez własności samopo- 240 3. Granice i samopodobieństwo dobieństwa. Mimo że samopodobieństwo jest pojęciem intu­ icyjnie zrozumiałym, to jednak jego formalny opis jest bar­ dzo abstrakcyjny. Spróbujemy zatem obecnie znaleźć bar­ dziej poręczny sposób jego opisu. Zrobimy to przy użyciu metody zwanej samopodobieństwem siatkowym. Samopodobieństwo siatkowe nie wprowadza nowej wer­ sji czy modyfikacji pojęcia samopodobieństwa, a, jest tylko metodą, która pozwala nam uchwycić własności samopo­ dobieństwa w obiekcie granicznym. Wyjaśnimy tę metodę, posługując się przykładem trójkąta Sierpińskiego. Pojedyncze kroki konstrukcji trójkąta Sierpińskiego (zob. na przykład rysunek 3.20) wcale nie dają obiektów samopodobnych. W ystarczy porównać liczbę fragmentów w całości i wycinku trójkąta. Z drugiej strony, jeśli przyjrzymy się trójkątowi Sierpińskiego, jesteśmy skłonni uwierzyć, że wi­ dzimy obiekt samopodobny. W rzeczywistości tak nie jest. Każda wizualizacja trójkąta Sierpińskiego, wydrukowana na papierze, czy wyświetlona na ekranie komputera, jest tylko skończonym przybliżeniem i dlatego nie jest samopodobna w ścisłym znaczeniu tego pojęcia. Możemy też powiedzieć, że to, co widzimy, jest samopodobne tylko z pewną dokład­ nością. Siatkowe samopodobieństwo opiera się na tej obser­ wacji. Przyglądamy się systematycznie obiektowi na różnych stopniach rozdzielczości i staram y się zdefiniować samopodo­ bieństwo jedynie dla tej rozdzielczości. P rzy b liżen ie na p oziom ie pikseli R ysunek 3.23: Trójkąt Sierpińskiego rozdzielczości. W yobraźm y sobie siatkę ekranie kom putera. P ik sele jarzą się, Sierpińskiego. Po prawej rysunek, który bliżeniu w przypadku skończonej reprezentującą piksele na jeżeli dotyka ich trójkąt pow stałby przy tym przy­ Na rysunku 3.23 pokazany jest trójkąt Sierpińskiego na­ rysowany na niezbyt precyzyjnej siatce. Wyobraźmy sobie, że siatka ta przedstawia piksele pewnego ekranu kompu- Rycina 1 : Dendrytyczne kryształy stilbenu (używanego w niektórych detergentach) w świetle spolaryzowanym (© Manfred Kage, Institut für wissenschaftliche Fotografie) Rycina 2 : Układ krwio­ nośny nerki dziecka: żylny i tętniczy, (© Manfred Kage, Institut für wissen­ schaftliche Fotografie) Rycina 3: Brokuły romanesco Rycina 4: Wadi Hadramaut, zdjęcie z Gemini IV (© Dr. Yerenberg KG) Rycina 5: Brokuły romanesco — po­ większenie A R ycina 6 : Fraktalna imitacja gór­ skiego krajobrazu i niebo Mandelbrota (© R.F. Voss) R ycina 7: Fraktalna imitacja gór­ skiego krajobrazu (po lewej u góry), negatyw krajobrazu, doliny zamie­ niono w góry, a góry w doliny (po lewej na dole), negatyw krajobrazu przedstawionego na rycinie 6 zamie­ niony w chmury (na dole po prawej) (© R.F.Yoss) Rycina 8 : Fraktalne wybrzeże pojawiające się na nowo po (© R.F. Voss) Rycina 9: Fraktalne kratery na Księżycu (©R.F. Voss) 6 powiększeniach Rycina 10: „Punkt Zabriskiego” — fraktalna imitacja mirażu (© K. Musgrave, C. Kolb, B.B. Mandelbrot) R ycina 11 : „Karolina” — fraktalna imitacja (© K. Musgrave) Rycina 13: „Ein kleines Nachtlicht” — fraktalna imitacja, obraz stereoskopowy. Należy patrzeć na lewy obraz okiem prawym, a na prawy — lewym (© K. Musgrave, C. Kolb, B.B. Mandelbrot) Rycina 14: Swit nad Himalajami, zdjęcie z Gemini IV (© Dr. Yehrenberg KG) 3.5. Samopodobieństwo siatkowe tera o (bardzo) małej rozdzielczości. Przedstawienie trójkąta Sierpińskiego na tym ekranie polegałoby na rozświetleniu tych pikseli, które miałyby jakieś punkty wspólne z „praw­ dziwym” trójkątem Sierpińskiego. Na rysunku po prawej stronie przedstawiono to, co ujrzelibyśmy przy oglądaniu trójkąta na ekranie o tak małej rozdzielczości. Nazywamy to pikselowym (lub siatkowym) przybliżeniem odpowiadającym danej siatce. Doprawdy trudno jest rozpoznać tu „praw­ dziwy” obiekt. W ten sposób jednak przedstawiliśmy zasadę przybliżania i jest ona oczywiście taka sama dla dowolnego przybliżenia o skończonej dokładności. Przyjrzyjmy się teraz przybliżeniu pikselami skończonych kroków konstrukcji trójkąta Sierpińskiego. Na rysunku 3.24 pokazano kolejne kroki konstrukcji narysowane na siatkach różnych rozmiarów. Przybliżenie tych obiektów pikselami zaznaczone jest kratkami zacieniowanymi na szaro. Spójrzmy najpierw na siatkę o największych oczkach. Jeśli porównamy przybliżenia różnych poziomów konstrukcji, to zauważymy, że siatka ta jest za rzadka, by wykryć różnice pomiędzy nimi. Wszystkie przybliżenia pikselami są takie same. Przyjrzyjmy się teraz siatce średniej wielkości. Możemy zauważyć, że siatka ta wykrywa różnicę pomiędzy krokiem 1 a 2 (jest jeden piksel, który je różni). Wszystkie następne przybliżenia wykonane przy użyciu tej siatki wyglądają już jednak tak samo. Przyjrzymy się na zakończenie siatce o naj­ mniejszych oczkach, a więc o największej rozdzielczości, za­ uważymy, że przestaje ona wykrywać różnice począwszy od trzeciego kroku. Możemy więc sformułować ogólną regułę: każda siatka przestaje dostrzegać różnice, ale na coraz to wyższych etapach konstrukcji. Oznacza to właśnie, że pro­ ces ma granicę — proces ma granicę, jeśli siatka o dowolnej rozdzielczości przestaje wyłapywać różnice. Spróbujmy zatem przeprowadzić test na samopodobień- T estow anie stwo w tym właśnie rozumieniu. Ścisłe samopodobieństwo sam opodotrókąta Sierpińskiego oznacza, że jeśli weźmiemy jeden z jego b ień stw a podtrójkątów jako wycinek, np. lewy dolny główny trójkąt, i jeśli powiększymy go dwukrotnie, to otrzymamy z powro­ tem trójkąt Sierpińskiego. Spójrzmy znowu na pośrednie stadia konstrukcji i porównajmy cały trójkąt z jego dolną lewą częścią powiększoną w skali 2 . Na rysunku 3.25 przed­ stawiono takie porównanie dla dość grubej siatki. Tak jak przedtem, przybliżenie pikselami dla danej siatki zaznaczono 241 242 3. Granice i samopodobieństwo krok 1 i k ▼ krok 2 ■ fi f I I krok 3 m i i f i n nrrwWww' r %mr y mw v m'f w ▼ ar t ir if m f m1 ’ w krok 4 t t u AA AJ ajl ĄAA . K iJ A 'A ar ▼m m ▼m w vmmv w\m mr 'mr mw w w ir ir w '■ r ▼T T V V T f T l T V V T T T 1 R ysunek 3.24: Kroki konstrukcji trójkąta Sierpińskiego i ich przybliżenie pikselowe. Zaobserwujmy, w jaki sposób poszczególne siatki przestają wychwytywać różnice pomiędzy krokami kon­ strukcji k w ad ratam i zacieniowanym i n a szaro. Jeżeli porów nam y przybliżenie pikselam i w kroku 1 całej figury i jej części, nie w idzim y różnicy. Tak sam o dla w szystkich kroków konstruk- 3.5. Samopodobieństwo siatkowe 243 P orów nanie kroków konstrukcji — siatka o grubych oczkach Rysunek 3.25: Porównanie przybliżenia pikselowego kolejnych kroków konstrukcji trójkąta Sierpińskiego (po lewej) i jego części (po prawej). Dla tej rozdzielczości siatki są one identyczne cji. Oznacza to, że dla tej siatki całość i powiększona część całości są identyczne. Powtórzmy ten eksperyment z siatką o większej rozdzielczości (zob. rysunek 3.26). Siatka ta wy­ chwytuje różnicę pomiędzy całą figurą a wycinkiem tylko w kroku 1. Dla następnych kroków przybliżenie pikselami części i całej figury jest znów takie samo. Przejdźmy do je­ szcze większej rozdzielczości (por. rysunek 3.27). Tak jak 244 P orów n an ie kroków konstrukcji — siatka o średnich oczkach 3. Granice i samopodobieństwo cała figura IV fragment J Ü I M M II R ysunek 3.26: Porównanie przybliżenia pikselowego kolejnych kroków konstrukcji trójkąta Sierpińskiego (po lewej) i jego części (po prawej). Siatka wychwytuje różnicę w kroku 1 dla poprzedniej siatki, możemy od razu wychwycić różnice w przybliżeniu pikselami całej figury i jej części w kroku 1 . Następnie siatka wychwytuje różnice w kroku 2. Również i tu dla wszystkich następnych kroków konstrukcji przy­ bliżenie całej figury i powiększonej części są dokładnie takie same. Jaka jest tu taj ogólna zasada? Dla każdego skończonego '¿Ąb 3.5. Samopodobieństwo siatkowe P orów n an ie kroków konstrukcji siatka o drobnych oczkach Rysunek 3.27: Porównanie przybliżenia pikselowego kolejnych kroków konstrukcji trójkąta Sierpińskiego (po lewej) i jego części (po prawej). Siatka wychwytuje różnicę w krokach 1 i 2 kroku konstrukcji trójkąta Sierpińskiego cała figura i jej część różnią się i ta różnica jest dostrzegalna dla przybliżenia pi­ kselami, jeśli tylko rozdzielczość jest dostatecznie duża. Z drugiej jednak strony, niezależnie od tego, jak duża byłaby rozdzielczość danej siatki, przestanie ona wychwytywać róż­ nice pomiędzy całą figurą i powiększonym wycinkiem w pew- 246 3. Granice i samopodobieństwo nym kroku konstrukcji: wszystkie następne kroki konstrukcji wydają się takie same. Praktyczna Dotarliśmy zatem do praktycznej charakterystyki ścisłego charakterystyka samopodobieństwa. Możemy badać tę własność względem samopodo- siatek, spośród których możemy wybierać tak drobne, jak bieństwa tylko chcemy. Jeżeli obiekt jest samopodobny, to dla każdej siatki i wystarczająco wysokiego kroku konstrukcji obiektu granicznego przybliżenie pikselami całej figury i powiększo­ nego fragmentu będą się wydawały takie same. Zakończmy ten paragraf uwagą na tem at wyboru siatek w naszym przykładzie. Można zauważyć, że siatki i trójkąty są bardzo dokładnie dopasowane. W szczególności powięk­ szenie fragmentu jest umieszczone na siatce dokładnie tak samo jak cała figura. Wyobraźmy sobie, że byłoby inaczej (tzn. że figura byłaby lekko przesunięta). Okazałoby się wtedy, że zacieniowane byłyby inne kwadraty i przybliżenie pikselami byłoby trochę inne. Wówczas nie moglibyśmy porównać wprost przybliżenia pikselami całej figury i po­ większonego fragmentu. Oznacza to, że samopodobieństwo siatkowe jest niesłychanie wrażliwe na odpowiedni (dopa­ sowany) wybór siatek. Jeżeli wszystkie wybory są odpo­ wiednie, to pojęcie siatkowego samopodobieństwa pozwoli nam dobrze uchwycić to, co jest istotne w dochodzeniu do granicy. Na ogół jednak (tzn. by w rzeczywistości zadecy­ dować, czy dana konstrukcja prowadzi do samopodobnych obiektów, czy nie) nie jest ono przydatne w praktyce. W roz­ dziale 4 zajmiemy się sposobami wyznaczania wymiaru fraktalnego obiektu. Poznamy wtedy pokrewne pojęcie, wymiar pudełkowy. Pojęcie to okaże się bardzo przydatne w praktyce i nie powinno być mylone z samopodobieństwem siatkowym. 3 .6 . P r o g r a m n a z a k o ń c z e n ie ro zd zia łu : krzyw a K o ch a Krzywa Kocha była głównym przykładem używanym w tym rozdziale. Program do tego rozdziału korzysta z rekursywnej definicji jej konstrukcji. Zaczynamy od linii prostej. W pierwszym kroku konstrukcji zastępujemy tę linię czte­ rema odpowiednio położonymi odcinkami. W kroku dru­ gim każdy z odcinków znowu zastępujemy czterema nowymi odcinkami itd. Dlatego w pierwszym kroku mamy 4 od­ cinki, w drugim 16 (potem 64, 256,1024, 4096,...). Po to, by 3.6. Program na zakończenie rozdziału 247 uniknąć przechowywania tych wszystkich odcinków (czy też ich końców) w pamięci komputera, ustawiliśmy odpowiednio rekursję tej procedury. O b ra z n a e k ra n ie — k rz y w a K o c h a Załóżmy, że chcemy otrzymać krok 2 konstrukcji. Czy oznacza to, że najpierw należy znaleźć wszystkie 4 odcinki z kroku 1, a potem wszystkie 16 odcinków z kroku 2? Na szczęście tak nie jest. Przyjrzyjmy się pierwszemu krokowi konstrukcji. Otóż 4 odcinki, które otrzymujemy z odcinka początkowego, obliczone są kolejno: lewy, środkowy lewy, środkowy prawy, prawy. Gdy tylko wyliczymy lewy odcinek, stosujemy do niego znowu procedurę zastępowania i otrzy­ mujemy odcinki z kroku 2. Ponownie kolejno znajdujemy końce odcinków i wtedy od razu rysujemy znalezione od­ cinki. Zaraz po wykonaniu 4 rysunków kroku 2, wracamy i zajmujemy się następnym odcinkiem kroku 1 (środkowym lewym). Procedura zastępowania stosowana jest teraz do niego, i tak dalej. Zauważmy, że w ten sposób musimy trzymać w pamięci najwyżej jeden odcinek z każdego kroku rekursji. Jak można to wykonać w BASIC-u? Przechowujemy w pamięci odcinki dla każdego kroku, a właściwie współ­ rzędne ich końców: x lew y (), ylewyO dla współrzędnych lewego końca i xprawy ( ) , yprawyO dla prawego. Wskaźnik tych wektorów odpowiada krokowi rekursji. Zauważmy, że dla wygody liczymy tu kroki rekursji w odwrotnej kolejnoś­ ci.27 Przyjrzyjmy się szczegółom programu. Zanim zacznie on 27 Oznacza to, że nie liczymy 1 ,2 ,3 ,..., a potem pokazujemy liczbę kroków n, lecz zaczynamy od poziom = N w początkowej linii pro­ gramu, a potem odliczamy w odwrotnej kolejności, aż do poziom = 1 i pojawiają się znalezione odcinki. 248 Program w BASIC-u Tytuł 3. Granice i samopodobieństwo K rzyw a K ocha Rekursywny program, który ją narysuje DIM xlewy(10), xprawy(10), ylewy(lO), yprawy(lO) INPUT ,,Poprawka dla wierzchołka (0.29):J,,r poziom = 5 xlewy(poziom) = 30 xprawy(poziom) = 30+300 ylewy(poziom) = 190 yprawy(poziom) = 190 GOSUB 100 END REM RYSOWANIE PROSTEJ NA NAJNIŻSZYM POZIOMIE REKURSJI 100 IF poziom > 1 GOTO 200 LINE (xlewy(1),ylewy(1)) - (xprawy(1),yprawy(1)) GOTO 300 REM ROZGAŁĘZIENIE NA NIZSZE POZIOMY 200 poziom = poziom - 1 REM LEWA GALAZ xlewy(poziom) = xlewy(poziom+l) ylewy(poziom) = ylewy(poziom+1) xprawy(poziom) = .333*xprawy(poziom+1) + .667*xlewy(poziom+1) yprawy(poziom) = .333*yprawy(poziom+1) + .667*ylewy(poziom+1) GOSUB 100 REM ŚRODKOWA LEWA GALAZ xlewy(poziom) = xprawy(poziom) ylewy(poziom) = yprawy(poziom) xprawy(poziom) = .5*xprawy(poziom+1) + .5*xlewy(poziom+1) -r*(ylewy(poziom+1)-yprawy(poziom+1)) yprawy(poziom) = .5*yprawy(poziom+1) + .5*ylewy(poziom+1) +r*(xlewy(poziom+1)-xprawy(poziom+1)) GOSUB 100 REM ŚRODKOWA PRAWA GALAZ xlewy(poziom) = xprawy(poziom) ylewy(poziom) - yprawy(poziom) xprawy(poziom) = .667*xprawy(poziom+1) + .333*xlewy(poziom+1) yprawy(poziom) = .667*yprawy(poziom+1) + .333*ylewy(poziom+1) GOSUB 100 REM PRAWA GALAZ xlewy(poziom) = xprawy(poziom) ylewy(poziom) = yprawy(poziom) xprawy(poziom) = xprawy(poziom+1) yprawy(poziom) = yprawy(poziom+1) GOSUB 100 poziom = poziom +1 300 RETURN 3.6. Program na zakończenie rozdziału liczyć, pyta o param etr r. Na razie wprowadźmy 0, 29. Po­ czątkowy odcinek jest szeroki na 300 pikseli. Zauważmy, że wybrany został poziom = 5. Zobaczymy zatem czwarty krok konstrukcji (dla poziom = 1 dostalibyśmy linię po­ czątkową, tzn. krok 0). Można zmienić tę liczbę tak, by otrzymać różne poziomy konstrukcji krzywej Kocha. Na­ stępnie zaczynamy rekursję (robimy skok do linii o etykiecie 100 ). W części rekursji sprawdzamy najpierw, czy zachodzi poziom = 1 . Jeżeli tak jest, to rysujemy odcinek. Jeżeli nie — przygotowujemy następny poziom rekursji (w linii 2 0 0 ) i dzielimy obecny odcinek. Najpierw obliczamy lewą część i przechodzimy na następny poziom rekursji (robi to polece­ nie G0SUB 100), następnie środkowy lewy, środkowy prawy i w końcu prawy odcinek. Na końcu rekursji wracamy do poprzedniego poziomu. Program zostanie zakończony, jeżeli powrócimy do poziomu wyjściowego (END znajdujące się po pierwszej komendzie G0SUB 100 kończy program). Możemy również modyfikować kształt krzywej. Najpro­ stszy sposób, w jaki możemy to zrobić, to zmienić wprowa­ dzaną wartość param etru r (pomiędzy 0 a 1). Przesunie to wierzchołek krzywej. Można także zmienić obliczenia wy­ konywane w programie. Czemuż by nie spróbować policzyć krzywej 3/2? Wymaga to dołączenia obliczeń czterech do­ datkowych odcinków w części rekursyjnej programu. 249 R ozdział 4 D ługość, pole pow ierzchni i wym iar: pom iar złożoności i skalowanie Natura wykazuje nie tyle wyższy stopień, co całkowicie inny poziom złożoności. Różnorodność zakresów skal, występują­ cych w kształtach spotykanych w naturze, jest praktycznie nieograniczona. Benoit B. M andelbrot1 Geometria w naturalny sposób miała zawsze dwa uzupeł­ niające się aspekty odgrywające bardzo ważne role. Z jednej strony zajmowano się analizą wzorów i kształtów, a z drugiej strony ich mierzeniem. Niewspółmierność boku i przekątnej kw adratu była początkowo problemem związanym z pomia­ rem długości, a później okazało się, że zagadnienie to prowa­ dzi wprost do abstrakcyjnego problemu dotyczącego wpro­ wadzania liczb niewymiernych. Próby znalezienia długości obwodu okręgu doprowadziły do odkrycia tajemniczej liczby 7r. Pomiar obszaru pomiędzy krzywymi w dużym stopniu pobudził rozwój rachunku różniczkowego. 1 Benoit B. Mandelbrot, The Fractal Geometry of Naturę, Freeman, 1982. 251 Dzisiaj pomiar długości, powierzchni i objętości — jak się wydaje — nie stanowi trudności, co najwyżej natury technicznej. W zasadzie uważa się, że problemy związane z pomiarem zostały dawno rozwiązane. Przyzwyczailiśmy się myśleć, że wszystko co widzimy można zmierzyć, jeżeli tylko będziemy tego naprawdę chcieli. Może co najwyżej trzeba będzie posłużyć się odpowiednimi tablicami. Mandelbrot przytacza ciekawy problem związany z pomiarem. Dotyczy on długości granicy pomiędzy Portugalią a Hiszpa­ nią. Encyklopedia hiszpańska podaje 991 km, podczas gdy portugalska — 1220 km. K tóra z tych wartości jest pra­ widłowa? Jeżeli będziemy szukali długości wybrzeża Wielkiej Brytanii w różnych źródłach, to znowu natrafimy na różne wartości. Będą one się wahały pomiędzy 7200 km a 8000 km .2 Dlaczego tak się dzieje? W ydaje się, że wpadliśmy na trop jakiegoś ciekawego problemu. Właśnie to jest tema­ tem artykułu Mandelbrota z 1967 r .3 How long is the coast of Britain? (Jak długie jest wybrzeże Wielkiej Brytanii?). Jesteśmy skłonni przypisać występujące różnice w podawa­ nych wartościach brakoróbstwu lub niedokładnym pomia­ rom. Chyba każdy z nas widział, jak geodeci używają bar­ dzo precyzyjnych urządzeń optycznych do pomiarów gruntu. Czy to możliwe, żeby się mylili? Kto popełnił tu błąd, a kto ma rację? Jak możemy się o tym przekonać ? 4 i czy dzi­ siaj, kiedy pomiary dokonywane są przez satelity z wielką dokładnością, możliwą dzięki używaniu laserów, mamy bar­ dziej wiarygodne wyniki? Okazuje się, że nie i nigdy takimi nie będą. 2 Encyclopedia A m ericana, New York 1958, podaje: „Wielka Bry­ tania ma linię brzegową o długości 4650 mil = 7440 km.” Collier’s Encyclopedia, London 1986, natomiast podaje: „Całkowita długość li­ nii brzegowej Wielkiej Brytanii wynosi trochę mniej niż 5000 mil — 8000 km.” 3 B. B. Mandelbrot, How long is the coast of Britain? Statistical self-similarity and fractional dimension, Science 155, 636-638 (1967). 4 Podajemy kilka sposobów uzyskania odpowiedzi: (1) Zapytać wszystkich ludzi w Wielkiej Brytanii i wziąć średnią z ich odpowiedzi. (2) Sprawdzić w encyklopediach. (3) Wziąć bardzo dokładną mapę Wielkiej Brytanii i zmierzyć długość wybrzeża przy użyciu cyrkla. (4) Wziąć bardzo dokładną mapę Wielkiej Brytanii i cienką nitkę, dopa­ sować ją do wybrzeża a następnie zmierzyć długość nitki. (5) Samemu przejść wzdłuż wybrzeża Wielkiej Brytanii i policzyć kroki. 252 4. Długość, pole powierzchni i wymiar Spróbujemy pokazać, że w praktyce typowe wybrzeże nie m a sensownej długości! Stwierdzenie to wydaje się niepraw­ dopodobne, a co najmniej sprzeczne z intuicją. Obiekt taki jak wyspa, o dobrze określonej powierzchni, powinien mieć określoną długość brzegu. Jeżeli mierzymy obwód kolistego przedmiotu, to nie ot­ rzymamy 7TgJ, gdzie d jest jego średnicą, lecz tylko pewne przybliżenie tej wartości. Niedokładność wyniku nie mar­ twi nas. Gdy potrzebujemy dokładniejszego wyniku, wtedy po prostu zwiększamy dokładność pomiaru. Pomiar wy­ maga jednostek, takich jak kilometry, metry, centymetry itd., będących wyidealizowanymi fragmentami linii prostej. Obrys okręgu nie jest prostoliniowy, a mimo to nie ma w ąt­ pliwości co do tego, że obiekt ten ma określoną długość i że możemy ją zmierzyć z dowolną precyzją. Wydawałoby się, że obiekty, które mieszczą się na kartce papieru, powinny mieć skończoną długość. Jest to jednak błędne przekona­ nie. Zwykle mierzymy długość jedynie wtedy, gdy wyniki pomiaru m ają jakiś sens lub znaczenie praktyczne. Linie wybrzeży (i fr akt ale) są w pewnym sensie wyjątkami od tej reguły; istnieją też inne. 4 .1 . S p ir a le o sk o ń c z o n e j i n ie sk o ń c z o n e j d łu g o ś c i Jedną z klas obiektów, których długość wymyka się pomia­ rowi, są spirale. Spirale mieszczą się na kartce papieru i są nieskończone. Czy jednak m ają one nieskończoną długość? Jest to bardzo subtelny problem. W niektórych przypadkach odpowiedź jest twierdząca, a w innych nie. Spirale od wieków fascynowały matematyków. Archimedes (287-212 p.n.e.) napisał trak tat o spiralach, a jedna z nich została nawet nazwana jego imieniem. Spirala Archimedesa jest dobrym modelem rowka na płycie gramofo­ nowej lub krawędzi zwiniętego dywanu. Cechą charaktery­ styczną spirali Archimedesa jest to, że odległość pomiędzy zwojami jest wszędzie taka sama. Matematyczny model ta ­ kiej spirali jest łatwy do opisania, jeżeli tylko przejdziemy do współrzędnych biegunowych: punkt na płaszczyźnie będzie wtedy wyznaczony przez dwie liczby (r, </>), gdzie r jest od- 4.1. Spirale o skończonej i nieskończonej długości 253 W sp ółrzęd n e biegunow e Rysunek 4.1: Współrzędne biegunowe punktu, którego współ­ rzędnymi kartezjańskimi są (x,y), to (r, <fi), gdzie r = \ / x 2 + y2 jest odległością od początku układu współrzędnych (promieniem wodzącym), a <fijest kątem między r i dodatnią półosią x. A zatem x = r cos (fi i y —r sin (fi Spirala A rch im ed esa Rysunek 4.2: Spirala Archimedesa. Posuwając się wzdłuż spi­ rali krokami o stałym kącie środkowym a, dostajemy ciąg aryt­ metyczny promieni wodzących: r i , r 2 ,... ległością od środka układu współrzędnych (promieniem wo­ dzącym), a (fi jest kątem pomiędzy promieniem a dodatnią półosią x, mierzonym w radianach, tzn. 0 < (fi < 2rr. Przy tym opisie spirala Archimedesa (widziana ze swo­ jego środka) może być wyznaczona przez równanie r = q4>, gdzie (fi jest dowolną liczbą nieujemną. W szczególności (fi = 2n oznacza jeden obrót, (fi = 47T dwa obroty itd. Rysowanie 254 4. Długość, pole powierzchni i wymiar Rysunek 4.3: Spirala logarytmiczna. Posuwając się wzdłuż spi­ rali krokami o stałym kącie środkowym a, dostajemy ciąg geome­ tryczny promieni wodzących: r i , r 2 , ... spirali zaczynamy od jej środka. W czasie gdy <p wykona jeden pełny obrót (tzn. wzrośnie o 27r), promień wzrośnie o 2irq — stałą odległość pomiędzy kolejnymi zwojami. Jeżeli podstawimy za r logarytm naturalny lnr, to otrzy­ mamy wyrażenie na spiralę logarytmiczną: ln r = q<f>, lub równoważnie r == eQi^. Jeżeli q > 0 i (j> rośnie bez ograniczeń, to spirala dąży do nieskończoności. Jeżeli q = 0, to otrzymamy okrąg. Jeżeli zaś q < 0, to otrzymamy spiralę, która zwija się do środka układu współrzędnych, w miarę jak <ft dąży do nie­ skończoności. Istnieją związki pomiędzy tą spiralą a sze­ regiem geometrycznym oraz fraktalami. Jest ona w pew­ nym sensie samopodobna, co stanowiło inspirację zarówno dla matematyków, ludzi nauki, jak i artystów. Wielki matematyk szwajcarski Jacob Bernoulli (16541705) poświęcił spirali logarytmicznej trak tat zatytułowany Spira Mirabilis ( Cudowna spirala). Był pod tak wielkim wrażeniem jej samopodobieństwa, że chciał, żeby napis Ba­ dem Mutata Resurgo (niezależnie od zmian — przekrój ten sam) został wyryty na jego grobie, który znajduje się w ka­ tedrze w Bazylei. 4.1. Spirale o skończonej i nieskończonej długości 255 Spirala czy nie spirala? Rysunek 4.4: „Spirala” Nicholasa Wade’a. Reprodukcja za zgodą artysty. Przedrukowane z: Nicholas Wade, The Art and Science of Visual Illusions, Routledge & Kegan Paul, London 1982 A oto sposób, w ja k i spirala Archim edesa zw iązan a je s t z szeregiem arytm etycznym : w y b ieram y dow olny k ą t, pow iedzm y a, oraz punkty na spirali, których prom ienie w od zące m ają długości ... a ko­ lejne kąty m iędzy nim i są równe a . O k azu je się, że ciąg r\ je s t w te d y ciągiem arytm etyczn ym , tzn . różnica pom iędzy kolejnym i w y ra zam i jest stała. O znacza to, że —r 2 = r2 — r\ i ta k dalej. Rzeczywiście, jeżeli ri = a 0 i ? gdzie a je s t pew ną stałą, to r<i = a(<f>i + a) oraz 7*3 = a(<f)i + 2 a ). A za te m r2 = (r*i + t*3 )/2 , czyli każdy prom ień je s t średnią arytm etyczn ą prom ieni z nim sąsiadujących. Jeżeli zastąp im y średnią arytm etyczn ą r 2 — (ri + r^)/2 średnią geom etryczną r 2 = y/riri, to o trz y m a m y inną klasyczną spiralę, słynną spiralę logarytm iczną. P rzy jrzy jm y się tem u bliżej. Podnosząc do kw adratu rów nanie na średnią geom etryczną, o trz y m u je m y r\ — r i r 3, lub rów now ażnie r\ r2 r2 r3 Spirale, średnia arytmetyczna i średnia geometryczna 256 4. Długość, pole powierzchni i wymiar Jeżeli z lo g a ry tm u je m y obie strony, to o trz y m a m y ln 7*3 — ln 7*2 — ln r2 — ln 7*1, O zn ac za to , że lo g a ry tm y kolejnych prom ieni tw o rzą ciąg a rytm e­ ty c z n y S tą d d o s ta jem y ln r — q<p, w z ó r na spiralę logarytm iczną. P ro m ien ie r* spirali lo g arytm iczn ej tw o rzą ciąg geom etryczny. K olejne ilo razy n _T2 _ r 3 _T4 _ r2 r3 7*4 7*5 d a ją nam stałą , p o w ied zm y a. M o ż e m y za te m zapisać, dla dow olnego w skaźnika n , rn rn+ 1 = a oraz _ n+1 ija _ r w_ i _ a a 2 _ an S am op od ob ień Jaką to niezwykłą własność podziwiał Bernoulli? Za­ stw o spirali uważył on, że jednokładne przekształcanie spirali względem logarytm iczn ej jej środka daje ten sam efekt co obracanie spirali o pewien kąt. Rzeczywiście, jeżeli obracamy spiralę logarytmiczną r = eq<^ o pewien kąt xp zgodnie z ruchem wskazówek ze­ gara, to otrzymujemy nową spiralę r — r((j>) = eq^ ^ \ Ponieważ e q(4>+i>) _ e q<t>e Qip^ obrót o ip jest tym samym, co jednokładność ze współczyn­ nikiem s — eq^ . Jaka jest więc długość spirali? Przyjrzyjmy się spirali, której konstrukcja powoduje, że obliczenia są łatwe. Co cie­ kawsze, będziemy mieli w tym przypadku do czynienia z no­ wym przykładem geometrycznego sprzężenia zwrotnego. Zajmijmy się budową nieskończonego wielokąta. Naj­ K on stru k cja spiral pierw wybierzmy malejący ciąg a\, a 2 , a 3 , ... liczb dodatnich. w ielokąt nych Niech ai będzie długością odcinka początkowego. Konstruk­ cja przebiega w następujący sposób: narysujmy a\ pionowo 257 4.1. Spirale o skończonej i nieskończonej długości Spirala w ielok ątn a fl2 11 a -2 ac5 al *5 *3 4 1\ *3 Rysunek 4 .5 : Pierw sze kroki konstrukcji spirali w ielokątnej z dołu do góry. Na końcu skręćmy w prawo i znów narysujmy a\ (od lewej do prawej). Przedłużmy ten odcinek o <2 2 , a na­ stępnie znów wykonajmy skręt w prawo i znów powtórzmy odcinek długości a 2 (od góry do dołu). Na końcu dodajmy odcinek długości <23 . Postępujmy tak dalej, posługując się tą samą zasadą. Na rysunku 4.5 pokazane są pierwsze kroki takiej konstrukcji. Jaka jest długość otrzymanej spirali wielokątnej? Każdy z odcinków a p o ja w ia się podczas jej konstrukcji dwukrot­ nie, dlatego też długość spirali jest dwa razy większa od sumy wszystkich a^, tzn. jest równa 2 (ai + <22 + (Z3 + ...). Wybierzmy teraz pewne szczególne wartości dla a*. Niech q będzie dowolną liczbą dodatnią. Jeżeli weźmiemy = qk~1, to całkowita długość będzie równa 2 ^ — sumie sze­ regu geometrycznego. Jeżeli q < 1, to graniczna długość 5 wynosi 2 / ( 1 — q). Dlatego też taka spirala wielokątna ma skończoną długość. Jeżelibyśmy jednak wzięli a*. — l / k , to otrzymamy sze­ reg, o którym wiadomo, że nie ma granicy .6 Oznacza to, że odpowiadająca mu spirala wielokątna jest nieskończenie długa, mimo że mieści się na ograniczonym obszarze! Na ry5 Przypomnijmy, że granicą szeregu geometrycznego 1 4- q + q 2 + q3 + g4 + ■*■jest 1/(1 - q), o ile tylko \q\ < l. 6 Suma 1 + 1/2 + 1/3 + 1/4 H jest nieskończona (zob. przypis na stronie 200). Spirala o nieskończonej d łu gości na ograniczonym obszarze 258 4. Długość, pole powierzchni i wymiar Skończona i nieskończona spirala w ielok ątn a R ysunek 4.6: Skończona i nieskończona spirala wielokątna. Dla spirali po lewej stronie = l / k (czyli jej długość jest nie­ skończona). Dla spirali po stronie prawej mamy —i?*1' 1, gdzie q = 0,95, czyli jest wartością trochę mniejszą od jedynki (tzn. spirala ma skończoną długość) Gładka spirala w ielok ątn a R ysunek 4.7: Konstrukcja gładkiej spirali wielokątnej sunku 4.6 pokazano oba przypadki. Czy możemy zobaczyć, która z tych spiral jest nieskończona, a która skończona? Powyższa konstrukcja spirali wielokątnej może być po­ mocna przy konstrukcji spirali gładkiej. Zauważmy, że wie­ lokąty były budowane z kątów prostych, o ramionach jedna­ kowej długości równej a Każdy z nich obejmuje dokładnie ćwiartkę okręgu o promieniu a&. Odpowiednie połączenie tych fragmentów daje gładką spiralę. Jaka jest długość tej gładkiej spirali? Ponieważ długości promieni kolejnych okręgów wynoszą a&, długości odpowie­ dnich łuków okręgów wynoszą Sk = 27ra*;/4 = (7r / 2 )afc. 259 4.1. Spirale o skończonej i nieskończonej długości Otrzymujemy zatem oo oc długość = '¿T sk = g afc> k=l k= 1 która jest skończona dla a^ (jeśli q < 1 ) i nie­ skończona w przypadku a = 1/fc. Na rysunku 4.8 pokazano obie spirale. Spirala gładka nieskończona i spirala gładka skończona Rysunek 4.8: Konstrukcję gładkiej spirali z rysunku 4.7 zasto­ sowano do spiral wielokątnych z rysunku 4.6: a* = 1/fc (po lewej) oraz dk = i*“ 1, przy q = 0,95 (po prawej). I znów spirala po lewej stronie ma długość nieskończoną, podczas gdy spirala po prawej stronie ma długość skończoną I znowu jest zadziwiające, jak niewiele nasza intuicja może nam pomóc w „zobaczeniu” , która z tych spiral ma skończoną, a która nieskończoną długość. Innymi słowy fakt, że krzywa mieści się na kartce nic nam nie mówi o tym, czy jej długość jest skończona czy też nie. Fraktale dodają nowy wymiar temu problemowi. Jeżeli zastosujem y konstrukcję spirali w ielo k ątn ej z = l/gk \ gdzie g = (1 + \ / 5 ) / 2 je s t zło tą średnią, to o trz y m a m y słynną zło tą spiralę. M o żem y obliczyć je j długość: - i T = _ 2 ^ = 22 = 3 + 1- - 9 V 5i g- 1 * W ykorzystaliśm y tu ta j fa k t, że g spełnia rów nanie g2 — g — 1 = 0 (czyli g - 1 = l/g). Z ło tą spiralę m ożna rów nież o trzym a ć w w yniku innej ciekawej konstrukcji. Z a c zn ijm y od prostokąta o bokach a i i a\ + gdzie a\ = 1 i d 2 — l / g (tz n . a\/o,<i = g). P ro sto k ąt m ożem y rozbić na: kw adrat o boku 0,2 i m niejszy p rostokąt o bokach i « 3 , i ta k dalej. Złota spirala 260 4. Długośćj pole powierzchni i wymiar (zo b . rysunek 4 .9 ). Zau w ażm y, że zachodzi 52 = Jds_ = a3 Ol - a2 =y 9 _ I = 1 - l/g = 9 . l/g W przypadku ogólnym m a m y a ^ /a fc + i = <7, lub rów now ażnie a& = l / g k _ 1 . D ługość w pisanej gładkiej spirali jes t równa ~g2 — f ( 3 + \/5). 4 .2 . P o m ia r k r z y w y c h fra k ta ln y c h i p raw a p o tę g o w e Obliczenia długości różnego rodzaju spiral — skończonych albo nieskończonych — opierają się na odpowiednich wzo­ rach matematycznych. Wykazanie, że krzywa Kocha i ob­ rzeże płatka śniegu Kocha m ają nieskończoną długość (zro­ biliśmy to w rozdziale 2 ) opierało się na precyzyjnym opi­ sie konstrukcji tych fraktali. Obie te metody na obliczanie długości zawodzą, gdy zajmiemy się fraktalami występują­ cymi w naturze, jak np. liniami brzegowymi. Nie istnieje wzór, który by opisywał wybrzeże Wielkiej Brytanii, jak również nie istnieje określony proces konstrukcji wybrzeża. Kształt wyspy jest z jednej strony rezultatem niezliczonych lat aktywności tektonicznej Ziemi, a z drugiej — wciąż pos­ tępującej erozji i powstawania osadów. Jedynym sposobem poznania długości wybrzeża jest jej pomiar. W praktyce 4. z. romiar Krzywycn iraKtamycn i prawa potęgowe zoi mierzymy wybrzeże na mapie Wielkiej Brytanii, a nie w na­ turze. Bierzemy cyrkiel i rozstawiamy go na daną szerokość. Na przykład dla mapy w skali 1:1000 000 i rozstawienia cyr­ kla równego 5 cm odpowiednia odległość w naturze wynosi 5 000000 cm, czyli 50 km. Następnie uważnie odmierzamy cyrklem długość wybrzeża, licząc kroki cyrkla. Na rysunku 4.10 przedstawione jest wielokątne przybliżenie wybrzeża Wielkiej Brytanii. Wierzchołki wielokąta z założenia znaj­ dują się na wybrzeżu, a jego boki m ają stałą długość i od­ powiadają danemu rozstawieniu cyrkla. Przeprowadziliśmy takie pomiary dla czterech różnych rozstawień cyrkla . 7 R ozstaw ienie cyrkla km 500 100 54 17 D ługość km 2600 3800 5770 8640 P om iar długości linii brzegow ej W ielkiej B rytan ii Tabela 4,1: D ługość w ybrzeża W ielkiej B rytanii, zm ierzona na podstaw ie map o różnych podziałkach i dla różnego rozstaw ienia cyrkla Ten pracochłonny eksperyment dostarcza nam niespo­ dzianek. Przy mniejszym rozstawieniu cyrkla wielokąt jest lepiej dopasowany do linii wybrzeża i — niespodziewanie — otrzymujemy większy wynik. W szczególności wzdłuż wybrzeża Szkocji znajduje się duża liczba zatoczek różnej wielkości. Podczas gdy dla jednego rozstawienia cyrkla mniej­ sze z nich nie są jeszcze brane pod uwagę, to już dla na­ stępnego, mniejszego, liczą się, a zatoczki jeszcze mniejsze nie są wychwytywane przez to rozstawienie itd. M niejsze rozstaw ien ie cyrkla daje w iększe w artości Porównajmy to zjawisko z doświadczalnym pomiarem M ierzen ie długości okręgu. Weźmy okrąg o średnicy 1000 km, tak że okręgu jego długość będzie tego samego rzędu wielkości co wybrzeże Wielkiej Brytanii. Nie musimy przechodzić przez proces zliczania cyrklem kroków dookoła okręgu. Skorzystamy za to z klasycznej metody Archimedesa, dzięki której możemy 7 W: H.-O. Peitgen, H. Jürgens, D. Saupe, C. Zahlten, F r a c ta ls — A n A n i m a t e d D i s c u s s i o n , Video film, Freeman, New York 1990. Ukazał się on także w języku niemieckim jako F r a k ta le in F i l m e n u n d G e s p r ä c h e n , Spektrum der Wissenschaften Videothek, Heidelberg 1990. 4, Długość, pole powierzchni i wymiar 262 R ysunek 4.10: Przybliżanie wybrzeża Wielkiej Brytanii za po­ mocą wielokątów P om iar okręgu Liczba boków 6 12 24 48 96 192 Rozstawienie cyrkla km 500,00 258,82 130,53 65,40 32,72 16,36 Długość km 3000 3106 3133 3139 3141 3141 Tabela 4.2: Przybliżanie obwodu okręgu o promieniu 500 km, przy użyciu wpisanych wielokątów foremnych. Dane w tabelce otrzymano przy użyciu wzoru Archimedesa, s. 208 przewidzieć, jaki będzie wynik tego pomiaru (zob. s. 208 i tabela 4.2). Dla porównania wyników zaznaczymy pomiary na wykresie. Ponieważ jednak rozstawienia cyrkla różnią się znacznie i przyjmują wartości znajdujące się w zakresie od kilku do kilkuset kilometrów, więc wykonanie wykresu długości jako funkcji rozstawienia cyrkla jest trudne. W ta­ kich sytuacjach posługujemy się zazwyczaj wykresem loga- 4.z. r o m ia r K rzy w y cn ira K ia m y c n i p ra w a pozęgow e zoo rytmów tych wartości. Na osi poziomej odkładamy logarytm odwrotności rozstawienia cyrkla (1/rozstawienie). Bierzemy tutaj logarytmy o podstawie 1 0 , nie jest to jednak istotne. Musimy też wprowadzić jednostki długości u i rozstawienia cyrkla s. Przyjmijmy tu taj jednostki: u = 0,951 ~ 1000 km, s = 1~ km. 10 0 0 Oznacza to, że s — 0,1 odpowiada s ~ 100 km itd. Co więcej, chcielibyśmy interpretować l / s jako miarą dokład­ ności pomiaru. Jeżeli sje st małe, to l / s jest duże. Nasz wy­ kres logarytmiczny będzie wskazywał, jak całkowita długość (log(u)) zmienia się wraz ze wzrostem dokładności pomiaru (log(l/s)). Na rysunku 4.11 pokazano wynik pomiarów dla wybrzeża Wielkiej Brytanii. log(w) 4,0 -3,8 W yk res logarytm iczn y dla w ybrzeża W ielkiej B rytan ii i dla okręgu 3,6 -3,4 i log(l/j) -2,7 r -2,3 i -1,9 -1,5 r T-----1---7*7*-1,1 Rysunek 4.11: Wykres logarytmiczny wyników pomiarów dłu­ gości linii brzegowej Wielkiej Brytanii i okręgu o promieniu 1000 km. u — długość w jednostkach 100 km, s — ustawienie cyrkla w jednostkach 1000 km. Jako wskaźnika dokładności pomiaru używamy log(l/s) zamiast log(s) Możemy zaobserwować ciekawe zjawisko. Punkty na na­ D opasow yw anie szym wykresie znajdują się z grubsza na liniach prostych. linii prostej do Jednym z zagadnienień statystyki matematycznej jest pro­ zbioru punktów blem zdefiniowania linii prostej tak, by najlepiej pasowała do punktów na wykresie'. Oczywiście nie możemy się spo­ dziewać, że przy tego typu pomiarach punkty wypadną dok- 264 4. Długość, pole powierzchni i wymiar ładnie na prostej. Możemy jednak zminimalizować odchyle­ nie tej prostej od naszego zbioru punktów. Prowadzi to do szeroko stosowanej metody najmniejszych kwadratów. W na­ szym przypadku dla okręgu otrzymamy prostą poziomą, a dla wybrzeża Wielkiej Brytanii — prostą o nachyleniu (współczynniku kierunkowym) d « 0, 3. Przypuśćmy, że chcemy na podstawie tych danych prze­ widzieć rezultat przy przejściu do większej precyzji pomiaru, tzn. gdy użyjemy mniejszego rozstawienia cyrkla s. W tym celu przedłużamy proste w prawo. Dla okręgu przy takim postępowaniu rezultat prawie się nie zmieni, ponieważ prosta mu odpowiadająca jest pozioma. Oznacza to, że okrąg ma skończoną długość. Jednak dla wybrzeża w miarę zmniej­ szania rozstawienia cyrkla długość ta będzie wzrastała. Oznaczmy przez b rzędną punktu przecięcia prostej, przy­ bliżającej nasz zbiór punktów z osią pionową. A zatem i) jest równe logarytmowi długości, zmierzonej cyrklem o rozsta­ wieniu 5 = 1 , odpowiadającym 1000 km. Związek pomiędzy u a rozstawieniem s może być wyrażony przez 8 logii = dlog - + 6 . s (4.1) Równanie (4.1) określa, w jaki sposób zmienia się długość w zależności od rozstawienia cyrkla, jeżeli założymy, że wy­ kres logarytmów pomiarów tworzy linię prostą. W tym przy­ padku dwie stałe, d i £>, charakteryzują prawo wzrostu. Na­ chylenie prostej, d, jest bardzo ważne przy określaniu wy­ miaru fraktalnego mierzonego obiektu. Zajmiemy się tym w następnym paragrafie. P raw a potęgowe N ie chcielibyśm y za k ła d a ć , że C zy te ln ik sp o tk ał się ju ż z w ykresam i lo g a ry tm iczn ym i. W y ja ś n ijm y więc, na czym one polegają. W e źm y ja k ie ś dane eksp erym en ta ln e z fizyki. A by badać sw obodny spadek ciał, m o żem y upuszczać ja k iś przed m io t z różnych poziom ów w y­ sokiej w ieży czy budynku (oczyw iście przy zachow aniu koniecznej o strożn ości). P rzy użyciu stopera m ożem y m ierzyć czas potrzebny 8 Przypomnijmy, że linię prostą we współrzędnych x i y można zapisać jako y = dx + b, gdzie d jest jej współczynnikiem kierunko­ wym (nachyleniem), a b — rzędną punktu przecięcia tej prostej z osią y . W szczególności dla dowolnej pary punktów (x \ , y \ ) oraz (£ 2 , 2/2 ), leżących na tej prostej, d = ( 2/2 — y i ) / ( x 2 — £ 1 ). 4,2. Pomiar krzywych fraktalnych i prawa potęgowe przedm iotow i na dotarcie do Z iem i. Jeżeli przyjm iem y, że różnice pom iędzy kolejnym i poziom am i wynoszą 4 m etry, to d o staniem y na­ stępującą tab elę w yników . W ysokość m 4 8 12 16 20 24 28 32 h Czas spadania s 0,9 1,3 1,6 1,8 2,0 2,2 2,4 2,6 t lo g /i lo g i 0,60 0,90 1,08 1,20 1,30 1,38 1,45 1,51 - 0 ,0 5 0,11 0,20 0,26 0,30 0,34 0,38 0,41 Tabela 4.3: Czas spadania a w ysokość spadku sw obodnego. O statnie dwie kolum ny zawierają logarytm y danych (o p o d sta ­ wie 10). Dane wyjściowe i dane logarytm iczne przedstaw iono na rysunku 4.12 Na rysunku 4 .1 2 dane te przedstaw iono graficznie. O czyw iście zaznaczone punkty nie leżą na linii prostej (krzyw a u g ó ry). D lateg o zw iązek pom iędzy wysokością a czasem spadania nie je s t liniowy. W y ­ kres logarytm ów tych sam ych danych eksperym entalnych w skazuje na istnienie prawa, rządzącego zw iązkiem pom iędzy wysokością a cza­ sem spadania. Relacja ta w yraża się prawem potęgowym następującej postaci: t — chd, (4-2) Prawo tego typu nazyw a się prawem potęgow ym , gdyż t zm ienia się tak, ja k gdyby było potęgą h. Pow staje problem spraw dzenia te j hi­ potezy oraz w yznaczenia wartości stałych c i d, Na p o c zą te k załóżm y, że równanie (4 .2 ) jest praw dziw e. Z lo g a ry tm u jm y obie je g o strony przy podstaw ie9 10. O trz y m a m y log t = dlog h+ log c. Innym i słowy, jeżeli będziem y zaznaczać na w ykresie wartości lo g i oraz lo g h zam iast t i h, to pow inniśm y o trzy m a ć linię prostą o na­ chyleniu d, przecinającą oś pionową w punkcie o rzędnej b = lo g c , czyli c = 10b, T a k pow stał w ykres na rysunku 4 .1 2 u dołu. A zatem jeżeli pom iary na w ykresie lo g arytm iczn ym leżą w za­ sadzie na linii prostej, to ma sens poszukiw anie prawa potęgow ego, rządzącego zw iązkiem pom iędzy zm ien n ym i. Co więcej, z w ykresu lo9 Możemy oczywiście użyć logarytmów o dowolnej podstawie. 266 4. Długość, pole powierzchni i wymiar log (t) R ysunek 4.12: Dane z tabeli 4.3 zaznaczone na wykresie po­ kazują zależność między czasem spadania a wysokością. U góry dane przedstawiono w jednostkach liniowych, czego wynikiem jest krzywa przypominająca parabolę. U dołu mamy wykres logaryt­ miczny, narysowany na podstawie tych samych danych. Wydaje się, że punkty leżą na linii prostej g a ry tm iczn eg o m o żem y o d c zy ta ć potęg ę d — nachylenie otrzym an ej prostej. W naszym p rzykład zie rysujem y linię prostą na w ykresie log a ry tm ó w i o d c z y tu je m y je j nachylenie d oraz w artość rzędnej punktu je j przecięcia z osią pionową: d = 0,48, logc = —0,33. A z a te m będzie c= i o - 0 ’33 i praw em potęgow ym w yzn aczo n ym z pom iarów t = 0,47/i0,48. (4 .3 ) 267 4.2. Pomiar krzywych fraktalnych i prawa potęgowe M o żem y przy okazji zauw ażyć, że zgadza się ono z praw am i ruchu N ew ton a, które m ów i, że odległość przebyta przez spadające ciało je s t wprost proporcjonalna do kw ad ratu czasu spadania. D okładniej * - 1* gdzie g w 9 ,8 1 m /s 2 je s t stałą g raw itac ji. R o zw iązu ją c to rów nanie ze względu na o trz y m u je m y i = ^ U o , 4 5 2 / i 0’5, co jest bliskie naszego re zu lta tu em pirycznego z rów nania (4 .3 ). Wiek Wzrost ciała w latach 0 1 2 3 5 10 20 25 30 40 cm Wielkość głowy cm Logarytm wzrostu ciała Logarytm wielkości głowy 50 70 79 86 99 127 151 167 169 169 11 15 17 18 19 21 22 23 23 23 1,70 1,85 1,90 1 ,9 3 2 ,0 0 2 ,1 0 2 ,1 8 2 ,2 2 2 ,2 3 2 ,2 3 1 ,0 4 1,1 8 1,23 1,2 6 1,28 1,32 1 ,3 4 1,3 6 1,3 6 1 ,3 6 D ane w iążące w ielkość głow y ze w zrostem ciała Tabela 4.4: Wzrost i wielkość ciała danej osoby. Po prawej logarytmy tych samych danych Kiedy zajm ow aliśm y się w zrostem alo m etryczn ym w rozdziale 3, na­ potkaliśm y ciekawy przykład prawa potęgow ego. P rzyp o m n ijm y, że porów nyw aliśm y wielkość głow y w okresie rozw oju człow ieka od nie­ m owlęcia do dziecka, a potem dalej do dorosłego. Zauw ażyliśm y, że istnieją dw ie fazy. Jedna do w ieku trzech lat, a druga do zakończenia procesu w zrostu. U ży w a ją c podejścia stosującego prawa potęgow e i wykresy logarytm iczne, spróbujem y znaleźć prawo potęgow e dla w zrostu w fazie alo m etryczn ej. W ty m celu jeszcze raz za jm ijm y się analizą danych z tab e li 3 .1 i rozszerzm y je o o d p o w iad ając e im logarytm y (zob. tab ela 4 .4 ). Prawo potęgowe dla wzrostu alometrycznego 4. Długość, połe powierzchni i wymiar 268 Wykres zależności wielkości głowy od wzrostu ciała log(rozmiar głowy) Rysunek 4.13: Wykres logarytmiczny zależności wielkości głowy od wzrostu ciała W y k re s na rysunku 4 .1 3 p o tw ierd za istnienie dw óch stadiów w zra­ stania m ierzon ej osoby. M o ż e m y znaleźć dw ie różne proste pasujące do naszych danych. P ierw sza o dp ow iad a okresowi do trzech lat, a druga pozostałym d a n ym . N achylenie pierwszej prostej je s t w przy­ bliżeniu rów ne jed e n . O d p o w iad a to jed n ako w em u tem pu w zro ­ stu w ielkości głow y i wysokości. T e dw ie wielkości są więc propor­ cjonalne; w zro s t ta k i n a zy w am y izo m e tryc zn y m . D ruga prosta ma o w iele m niejsze nachylenie, około 1 /3 . O trz y m u je m y prawo potęgowe m ów iące, że w ielkość głow y pow inna być proporcjonalna do pierw ia­ stka trzecieg o stopnia z wysokości ciała. Lub — przedstaw iając to o d w ro tn ie — o trzy m u je m y , że wysokość zm ienia się ja k trzecia potęga w ielkości głow y w ysokość ciała oc (w ielkość g łow y) . C iało rośnie o w iele szybciej niż głowa; m ó w im y w ięc o wzroście alom e try c zn y m . O czyw iście nasze rozw ażania nie są pow ażnym i w yni­ kam i nauko w ym i. P o m ia ry d o tyczyły jed n ej tylko osoby, i to w dużych odstępach czasu. Co w ięcej, osoba ta urodziła się w X IX w . D la ­ te g o te ż przedstaw ione tu prawo w zrostu praw dopodobnie nie jest ani dokładn e, ani typow e. P o d su m u jm y nasze ro zw ażan ia. Jeżeli x i y , dane eksperym en­ ta ln e , p rzy jm u ją w artości o różnych rzędach wielkości, to m ożna się spodziew ać, że są one zw ią za n e pew nym prawem potęgow ym w y ra ża ją c y m y ja k o fu n kc ję zm iennej x. Spraw dzenie ta k ie j hipotezy polega na naniesieniu na w ykres lo g a ry tm ó w po m iaró w i sprawdze­ niu, czy pu n kty te u k ła d a ją się w zd łu ż linii prostej. Jeżeli ta k jes t, to m o żem y o d c zy ta ć potęg ę w ystępującą w praw ie potęgow ym ja k o nachylenie te j prostej. 269 4.2. Pomiar krzywych fraktalnych i prawa potęgowe Rysunek 4.11 potwierdza przypuszczenie, że istnieje pra­ wo potęgowe (tzn. że równanie (4.1) jest prawdziwe). Mo­ żemy więc wyciągnąć wniosek, że (u długość, s — rozsta­ wienie cyrkla) u= • (4.4) Dla wybrzeża Wielkiej Brytanii dostalibyśmy w takim razie d & 0,3. Wynik tej analizy graficznej sugeruje, że zmie­ rzona długość wybrzeża u rośnie wprost proporcjonalnie do wzrostu dokładności l / s podniesionej do potęgi 0,3 1 Omówimy teraz różne aspekty związku (4.4), Natych­ M apy o coraz miastową jego konsekwencją jest to, że długość rośnie do w iększej liczbie nieskończoności jak l / s d, jeśli tylko s —> 0. Czy jednak rze­ szczegółów czywiście możemy dążyć z rozstawieniem cyrkla s do zera? Możemy to zrobić, musimy jednak zachować pewną ostroż­ ność. Jeżeli pozwolimy rozstawieniu cyrkla zmniejszać się do zera, nie zmieniając przy tym używanej mapy Wielkiej Bry­ tanii, to prawo (4.4) przestanie obowiązywać, ze względu na skończoną rozdzielczość mapy. W tym przypadku mierzona długość będzie dążyła do pewnej granicy. Prawo potęgowe i konsekwencje z niego płynące są prawdziwe jedynie w przy­ padku, gdy posługujemy się zmniejszającymi się rozstawie­ niami cyrkla, jednocześnie używając map o coraz większej liczbie szczegółów. Oznacza to, że prawo potęgowe charakte­ ryzuje złożoność wybrzeża Wielkiej Brytanii w pewnym za­ kresie skal, opisując, jak szybko wzrasta długość, jeżeli mie­ rzymy ją z coraz większą precyzją. W pewnym momencie ta ­ kie pomiary przestaną mieć sens, ponieważ skończą nam się mapy i będziemy musieli zacząć mierzyć wybrzeże w naturze i borykać się z problemami dotyczącymi rozpoznania, gdzie się kończy, a gdzie zaczyna linia wybrzeża, kiedy przeprowa­ dzać pomiary (w czasie przypływu czy odpływu), co począć z deltami rzek itd. Zadanie stanie się absurdalne. Mimo to możemy powiedzieć, że praktycznie wybrzeżu Wielkiej Brytanii nie możemy przypisać skończonej długości. Jedyną informacją, jaką dysponujemy, jest to, że jego długość zacho­ wuje się zgodnie z powyższym prawem potęgowym w pew­ nym zakresie skal pomiaru i że to zachowanie jest dla niego charakterystyczne. 270 4. Długość, pole powierzchni i wymiar C h arakterys­ Co rozumiemy przez określenie „charakterystyczne”? Ro­ ty czn e prawa zumiemy przez to, że liczby związane z prawem potęgowym p otęgow e najprawdopodobniej będą się różniły, jeśli będziemy porówny­ wać wybrzeże Wielkiej Brytanii z wybrzeżem Norwegii czy Kalifornii. Będzie to również prawdą, jeżeli przeprowadzimy podobny eksperyment z granicami państw, na przykład z gra­ nicą pomiędzy Portugalią a Hiszpanią. Możemy teraz także zrozumieć, dlaczego encyklopedia portugalska podała więk­ szą długość niż hiszpańska. Ponieważ Portugalia jest o wiele mniejsza od Hiszpanii, wydaje się prawdopodobne, że mapa, jakiej używano w Portugalii do pomiaru długości wspólnej granicy miała o wiele więcej szczegółów — była w o wiele mniejszej skali — niż ta użyta w Hiszpanii. Podobne rozumowanie tłumaczy różnice w wynikach po­ miarów 10 wybrzeża Wielkiej Brytanii. P om iary granicy stanu U ta h Rozstawienie km 500 100 50 20 Długość km 1450 1780 1860 1890 Tabela 4.5: Długość granicy stanu Utah wyznaczona na pod­ stawie map o różnych skalach i przy różnych rozstawieniach cyrkla P om iar stanu Przyjrzyjmy się granicy stanu Utah, jednego z 50 stanów U ta h w USA. Na rysunku 4.14 pokazano mało dokładną mapę Utah. Granica U tah 11 jest zbliżona do odcinków linii pro­ stej. W tabeli 4.5 zebraliśmy kilka wyników pomiarów doko­ nanych przy użyciu map o różnych skalach. Jeżeli przedsta­ wimy te pomiary na wykresie logarytmicznym, to poznamy rządzące nimi prawo potęgowe. W oczywisty sposób pro­ stą najlepiej pasującą do tych punktów jest prosta pozioma. 10 Pierwsze pomiary tego rodzaju pochodzą od brytyjskiego nau­ kowca R. L. Richardsona z jego pracy The problem of contiguity: an appendix of statistics of deadly quarrels, Gen. System s Yearbook 6, 139-187 (1961). 11 Lubimy Utah z wielu przyczyn. Jedną z nich jest to, że zostaliśmy zapoznani z teorią fraktali w trakcie pobytu w Salt Lake City w roku akademickim 1982/83. To właśnie tutaj, na Wydziałach Matematyki i Informatyki Uniwersytetu Utah, przeprowadziliśmy nasze pierwsze graficzne eksperymenty komputerowe, dotyczące fraktali. 271 4.2. Pomiar krzywych fraktalnych i prawa potęgowe Rysunek 4.14: Zachodnie stany Stanów Zjednoczonych log(w) 3,4 3,0 log(l/j) ---------- 1 -2,8 i i------1 -2,4 i ■■ -2,0 - 1,6 - 1,2 Rysunek 4.15: Reprezentacja logarytmiczna pomiaru granicy stanu Utah. u — długość, mierzona w kilometrach, s — rozsta­ wienie cyrkla, mierzone kilometrach 272 4. Długość, pole powierzchni i wymiar Oznacza to, że granica U tah podlega prawu potęgowemu z wykładnikiem d = 0 , tak samo jak okrąg, czyli że granica ta ma skończoną długość. M ie rz e n ie Postarajm y się zrozumieć wagę i znaczenie podlegania k rzy w ej K o c h a prawu potęgowemu w sytuacji czysto matematycznej. Przy­ pomnijmy sobie płatek śniegu Kocha z rozdziału 3. Płatek śniegu Kocha ma brzeg złożony z trzech krzywych Kocha. Jak pamiętamy, każdą krzywą Kocha można podzielić na cztery samopodobne fragmenty, trzykrotnie pomniejszone kopie całości. Jest zatem naturalne, że będziemy rozważać rozstawie­ nia cyrkla, będące postaci 1/3, 1/32, 1/33, ..., 1/3*. Na­ suwają się oczywiście dwa sposoby wykorzystania tych roz­ stawień cyrkla: jeden niemożliwy do praktycznego wykona­ nia, a drugi prowadzący do oczywistego rozwiązania pro­ blemu. Jest technicznie niemożliwe ustawienie cyrkla na 1/3 4 = 0,012345679012... Zamiast tego można by zachować stałe rozstawienie cyrkla, jednocześnie wykonując kolejne powiększenia, 1 , 3 ,32, 33, ... -krotne. Byłoby to jednak zwykłą stratą czasu. Z konstrukcji krzywej Kocha wiemy dokładnie, ile będą wynosiły kolejne pomiary, a więc: 4/3 dla rozsta­ wienia cyrkla s — 1/3, 16/9 dla s — 1/9,..., (4/3)fc dla s = 1/3*. R ysunek 4.16: Pomiar długości krzywej Kocha za pomocą róż­ nych skal Przedstawmy teraz te pomiary na wykresie logarytmicz­ nym (rysunek 4.17). Ponieważ możemy dowolnie wybrać podstawę logarytmów, którymi się posługujemy, więc uży- 273 4.3. Wymiar fraktalny W yk res logarytm iczn y dla krzyw ej K ocha Rysunek 4.17: Wykres logarytmiczny dla krzywej Kocha. Na osiach zaznaczono log3 (u) i log3 (l/s) jemy logarytmów o podstawie 3. Dla ustawienia cyrkla s = 1/3* otrzymamy długość u = (4/3)*, czyli lo g 3 ~ = k oraz lo S3 u = k lo §3 Wykorzystując oba równania naraz, dostajemy poszuki­ wane prawo potęgowe lo g 3 u = d lo g 3 —, s gdzie 4 d = log3 - w 0,2619. o Liczba ta jest mniejsza od wartości d w 0,36, jaką otrzy­ maliśmy dla wybrzeża Wielkiej Brytanii. Oznacza to, że wy­ brzeże Wielkiej Brytanii jest nawet bardziej pozałamywane niż obrzeże płatka śniegu Kocha. 4 .3 . W y m ia r fra k ta ln y Usiłując zmierzyć długość wybrzeża Wielkiej Brytanii, prze­ konaliśmy się, że pytanie o długość — podobnie jak pyta­ nie o powierzchnię czy objętość — może być czasami źle postawione. Krzywe, powierzchnie czy bryły mogą mieć tak złożoną budowę, że wykonanie pomiaru w tradycyjny sposób może nie mieć sensu. Istnieje jednakże sposób po­ miaru stopnia złożoności przez ocenę tego, jak szybko wzra­ stają długość, powierzchnia, czy objętość, jeśli pomiar doko­ nywany jest z coraz większą dokładnością. Podstawową za­ 274 4. Długość, pole powierzchni i wymiar sadą jest założenie, że dwie wielkości — długość, powierzch­ nia czy objętość z jednej strony, a stopień dokładności z dru­ giej — nie zmieniają się w sposób dowolny. Są one związane prawem, które pozwala nam wyznaczyć jedną wartość na podstawie drugiej. Prawo, które wydaje się tu odpowiednie, jak to wcześniej wyjaśniliśmy, jest to prawo potęgowe o po­ staci y oc x d. Prawo to okazuje się również przydatne przy omawia­ P o jęcie w ym iaru niu pojęcia wymiaru. Wymiar nie jest pojęciem łatwym do zrozumienia. Na przełomie wieków jednym z głównych problemów matematyki było stwierdzenie, co to jest wy­ miar i jakie są jego własności (zob. rozdział 2). Od tam ­ tej pory sytuacja pogorszyła się jeszcze, gdyż matematycy podali z dziesięć różnych definicji wymiaru: wymiar topolo­ giczny, wymiar Hausdorffa, wymiar fraktalny, wymiar samopodobieństwa, wymiar pudełkowy, wymiar pojemnościowy, wymiar informacyjny, wymiar euklidesowy i wiele innych. Wszystkie one są ze sobą powiązane. Niektóre z nich mają sens w pewnych warunkach, podczas gdy w innych bar­ dziej przydatne są definicje alternatywne. Czasami wszyst­ kie m ają sens i się pokrywają. W innych przypadkach, mimo że kilka z nich ma sens, mogą prowadzić do różnych wartości. Szczegóły dotyczące wymiaru mogą stanowić problem na­ wet dla zawodowego m atem atyka.12 Pokrótce omówimy trzy z nich: • wymiar samopodobieństwa, • wymiar cyrklowy, • wymiar pudełkowy. Wszystkie one stanowią szczególne przypadki wymiaru fraktalnego13 M andelbrota, wywodzącego się z podstawowej pracy Hausdorffa14 z roku 1919. Z tych trzech wymiarów 12 Czytelnikowi, który chciałby zapoznać się lepiej z tym tematem, polecamy dwa dobre źródła: K. Falconer, Fractal Geometry, M athematical Foundations and Applications, Wiley, New York 1990 oraz J. D. Farmer, E. Ott, J. A. Yorke, The dimension of chaotic attractors, Physica 7 D , 153-180 (1983). 13 Słowo „fraktal” pochodzi od łacińskiego frangere, co oznacza „łamać”. 14 Hausdorff (1868-1942) był matematykiem na uniwersytecie w Bonn. Był Żydem i wspólnie z żoną popełnili samobójstwo, kiedy dowiedzieli się, że tydzień później mają być wywiezieni do obozu koncentracyjnego. 275 4.3. Wymiar fraktalny Felix H a u s d o rff Rysunek 4.18: Felix Hausdorff, 1868-1942 najwięcej zastosowań ma wymiar pudełkowy. Zajmiemy się nim w następnym paragrafie. W poprzednim rozdziale omawialiśmy pojęcie samopodo- O b ie k ty bieństwa. Przypomnijmy jego najważniejsze punkty. Obiekt s a m o p o d o b n e nazywa się (ściśle) samopodobny, jeżeli może być podzie­ lony na dowolnie małe części, z których każda jest wier­ nym pomniejszeniem całości. Ważną cechą jest to, że te małe fragmenty można otrzymać z całego obiektu przez prze­ kształcenie podobieństwa. Najlepszym sposobem wyobraża­ nia sobie działania tego typu przekształceń jest analogia do fotokopiarki, która ma możliwość pomniejszania. Jeżeli weź­ miemy na przykład krzywą Kocha, włożymy ją do kopiarki, nastawiając współczynnik pomniejszania na 1/3 i odbijemy cztery kopie, to będziemy mogli tak skleić te kopie, by znów otrzymać krzywą Kocha. Następnie, jeżeli skopiujemy każdą z czterech kopii, ze współczynnikiem redukcji 1/3, cztery razy (tzn. stworzymy 16 kopii pomniejszonych dziewięciokrotnie w stosunku do oryginału), to te 16 kopii znowu możemy złożyć tak, by odtworzyć oryginał. Jeżeli dyspono­ walibyśmy idealną kopiarką, to proces ten mógłby być po­ wtarzany w nieskończoność. I znowu ważne jest, że redukcje są podobieństwami. Błędem byłoby sądzić, że jeżeli obiekt jest samopodobny, 276 4. Długość, pole powierzchni i wymiar to jest on fraktalem. Weźmy na przykład odcinek, kwa­ drat lub sześcian. Każdy z nich może być rozbity na mniejsze fragmenty otrzymane w wyniku przekształceń podobieństwa (zob. rysunek 4.19). Obiekty te jednak nie są fraktalami. R ysunek 4.19: sześcianu Samopodobieństwo linii prostej, kwadratu, W s p ó łc z y n n ik i Widzimy, że współczynnik redukcji dla krzywej wynosi skali m o g ą b y ć 1/3, co oczywiście zostało wybrane dowolnie. Moglibyśmy ściśle z w ią z a n e równie dobrze wybrać 1/2, 1/7, czy 1/356. Właśnie na tym z fig u rą polega różnica między tymi figurami a strukturam i fraktalnymi. Współczynniki redukcji dla fraktali — o ile ist­ nieją — są ściśle określone i zależne od danej figury. Na przykład dla krzywej Kocha współczynnikami pomniejsza­ nia mogą być jedynie 1/3, 1/9, 1/27 itd. Cechą wspólną wszystkich ściśle samopodobnych obiektów — fraktalnych lub nie — jest istnienie relacji pomiędzy współczynnikiem redukcji (współczynnikiem skali) a liczbą pomniejszonych fragmentów, na które rozpada się obiekt (zob. tabela 4.6). Jasne jest, że dla prostej, kwadratu i sześcianu istnieje proste prawo wiążące liczbę części a i współczynnik redukcji s. Jest to prawo dane wzorem °= (4-5) gdzie D — 1 dla prostej, D — 2 dla kwadratu i D = 3 dla sześcianu. Oznacza to, że wykładnik w prawie potęgowym odpowiada dokładnie liczbom, które znamy jako (topolo- 4.3. W y m ia r łra k ta ln y Obiekt Liczba części Współczynnik redukcji prosta prosta prosta kwadrat kwadrat kwadrat 3 6 173 9 = 32 36 = 62 29929 = 1732 1/173 1/3 1/6 1/173 sześcian sześcian sześcian 27 = 33 216 = 63 5177717 = 1733 1/3 1/6 1/173 krzywa Kocha krzywa Kocha krzywa Kocha 1 /3 1 /6 4 16 4 /C 1/3 1/9 1/3* Tabela 4.6: Liczba części a czynnik skali dla czterech obiektów giczne) wymiary prostej, kwadratu i sześcianu. Jednak jeżeli przyjrzymy się krzywej Kocha, to związek a = 4 z 5 = 1/3 i a = 16 z s = 1/9 nie będzie już taki oczywisty. Biorąc za wskazówkę związki zachodzące dla prostej, kwa­ dratu i sześcianu możemy spróbować jeszcze raz. Przypuść­ my, że równanie (4.5) jest mimo wszystko prawdziwe. Ozna­ cza to, że 4 — 3^, i jeżeli zlogarytmujemy obie strony, to otrzymamy log 4 = D log 3 lub równoważnie D= ^ w 1,2619. log 3 Czy otrzymamy jednak tę samą wartość, jeżeli weźmiemy mniejsze fragmenty, na przykład dla współczynnika redukcji 1/9? Aby to sprawdzić, załóżmy, że 16 = 9^, czyli log 16 = L>log9, skąd otrzymujemy log4^ log32 21og4 2 log 3 W ogólnym przypadku _ log 4fc log 3k ’ log4 log 3 ^ ’ 278 4. Długość, pole powierzchni i wymiar co prowadzi do równości D = log 4 / log 3. Otrzymujemy stąd, że prawo potęgowe, opisujące zależność liczby frag­ mentów od współczynnika redukcji, daje nam tę samą liczbę D , niezależnie od stopnia pomniejszania. Właśnie tę liczbę D, znajdującą się pomiędzy 1 a 2, nazywamy wymiarem samopodobieństwa krzywej Kocha. Ogólniej, dla dowolnego obiektu samopodobnego istnieje W ym iar sam op od ob ień stw a związek pomiędzy współczynnikiem redukcji s a liczbą części a, na które obiekt może być podzielony; jest nim 1 lub równoważnie log l / s ' D nazywamy wymiarem samopodobieństwa. W sytuacjach gdy jest potrzebne rozróżnienie, będziemy używali symbolu D s dla wymiaru samopodobieństwa w celu uniknięcia pomył­ ki z innymi wersjami wymiaru fraktalnego. Dla prostej, kwa­ dratu i sześcianu otrzymujemy wymiary samopodobieństwa równe odpowiednio 1, 2 i 3 — czego oczekiwaliśmy. Dla krzywej Kocha D « 1,2619. Jest to liczba, z której częścią ułamkową spotkaliśmy się już przy mierzeniu długości krzy­ wej Kocha w ostatnim paragrafie. Część ułamkowa 0,2619 jest dokładnie równa wykładnikowi występującemu w prawie potęgowym, które opisywało mierzoną długość w zależności od rozstawienia cyrkla! Zanim omówimy ten wynik ze szcze­ gółami, zajmijmy się jeszcze kilkoma znanymi obiektami samopodobnymi i obliczmy dla nich wymiar samopodobień­ stwa. Na rysunku 4.20 pokazano trójkąt i dywan Sierpiń­ skiego oraz zbiór Cantora. W tabeli 4.7 porównano liczby samopodobnych fragmentów z odpowiadającymi im współ­ czynnikami redukcji. Jaki jest związek pomiędzy prawem potęgowym, rządzą­ W ym iar sam op od ob ień stw a cym wartością mierzonej długości w zależności od ustawienia i pom iar cyrkla, a wymiarem samopodobieństwa krzywej fraktalnej? d łu gości Okazuje się, że odpowiedź jest bardzo prosta, a mianowicie D g = 1 + d, gdzie d, jak przedtem, odpowiada nachyleniu wykresu logarytmów długości u w zależności od logarytmu dokładności 279 4.3. Wymiar fraktalny Obiekt zbiór Cantora trójkąt Sierpińskiego dywan Sierpińskiego Tabela 4.7: fraktałnych Skala s 1/3fc \/2 k l/3 fc Części a 2k 3k Sk Wymiar Ds log 2 / log 3 « 0,6309 log 3 / log 2 ps 1,5850 log 8 / log 3 w 1,8928 Inne w ym iary Wymiar samopodobieństwa dla innych obiektów Jeszcze trzy fr akt ale 2 fragmenty pomniejszone dwukrotnie Rysunek 4.20: Trójkąt Sierpińskiego, dywan Sierpińskiego i zbiór Cantora pokazane są wraz ze swoimi częściami składowymi — pomniejszonymi kopiami całości I / 5 , tzn. u = c /s d. Zobaczmy, dlaczego tak jest. Naj­ pierw uprośćmy nasze obliczenia przez dobranie odpowie­ dnich jednostek pomiarów długości tak, że stała c w prawie 280 4. Długość, pole powierzchni i wymiar potęgowym będzie jednością: u = ^. (4.6) Logarytmując obie strony, otrzymujemy logu — d lo g - , (4.7) s gdzie u jest długością odpowiadającą rozstawieniu cyrkla s. Z drugiej strony dysponujemy prawem potęgowym a = 1/ s D, gdzie a oznacza liczbę fragmentów składających się na samopodobny fraktal o współczynniku skali s. Po zlogarytmowaniu otrzymujemy log a = -D s lo g - . (4.8) s Przyjrzyjmy się związkowi pomiędzy długością u a liczbą fragmentów a. Jeżeli współczynnik skali s = 1, to wy­ nikiem pomiaru będzie u = 1. Wynika to z konstrukcji: w równaniu (4.6) ustaliliśmy jednostki w taki sposób, że u ~ 1, gdy s = 1. Dlatego, gdy dokonujemy pomiaru dla in­ nego współczynnika skali s, takiego, dla którego cały obiekt składa się z a kopii o wielkości s każda, wtedy całkowita długość równa jest iloczynowi a i s , u = as. Pozwala nam to na następujący wniosek. Biorąc logarytmy obu stron, dostajemy log u = log a + log s. W równaniu tym możemy podstawić za logarytmy logu i log a wartości występujące w równaniach (4.7) i (4.8), co doprowadza do dlog - = D s log - + log s. s s Ponieważ log l / s = —logs, otrzymujemy —dlog s = —D s logs + logs. Po podzieleniu obu stron przez log s i uporządkowaniu wy­ razów dochodzimy do Do ~ 1 + d. 4.3. Wymiar fraktalny Powyższe rozważania prowadzą do wniosku, że wymiar samopodobieństwa może być obliczany na dwa równoważne sposoby: • Opierając się na samopodobieństwie geometrycznym, zna­ leźć prawo potęgowe opisujące zależność pomiędzy liczbą fragmentów a a odwrotnością współczynnika redukcji l / s . Wykładnik D s występujący w tym prawie jest wymiarem samopodobieństwa. • Wykonać pomiary długości przy użyciu cyrkla i znaleźć prawo potęgowe wiążące długość z l / s , gdzie s jest roz­ stawieniem cyrkla. Wykładnik d występujący w tym pra­ wie powiększony o 1 jest wymiarem samopodobieństwa, D s — 1 + d. Związki te dostarczają motywacji dla uogólnienia wy­ miaru, opisanego w drugim punkcie, na kształty, które nie są krzywymi samopodobnymi, takimi jak na przykład linie brzegowe. Zdefiniujmy więc wymiar cyrklowy (zwany też wymiarem podziałkowym czy linijkowym) jako Dc — 1 d, gdzie d oznacza nachylenie wykresu logarytmów mierzonej długości u w zależności od dokładności pomiaru l / s . Po­ nieważ d & 0,36 dla wybrzeża Wielkiej Brytanii, możemy powiedzieć, że fraktalny (cyrklowy) wymiar tego wybrzeża wynosi około 1,36. W ymiar fraktalny granicy stanu U tah jest oczywiście równy 1,0, tyle samo co wymiar fraktalny prostej. Podamy teraz inny przykład krzywej samopodobnej, krzy- M ie rz e n ie w ą3/2. Konstrukcja jej rozpoczyna się od odcinka o długości k rzy w ej 3 /2 1. W pierwszym kroku zastępujemy ten odcinek generato­ rem, krzywą złożoną z 8 odcinków o długości 1/4 każdy (zob. rysunek 4.21). Oznacza to, że krzywa ta ma długość 8/4, a więc jej długość została podwojona. W następnym kroku pomniejszamy tę krzywą czterokrotnie i zastępujemy każdy odcinek długości 1/4, występujący w pierwszym kroku kon­ strukcji, tą pomniejszoną krzywą. Po drugim kroku mamy 82 odcinków, każdy o długości 1/42, tak więc całkowita długość wynosi teraz 82/4 2 = 22. W następnym kroku pomniejszamy generator w skali 1/42 i zastępujemy każdy z odcinków o długości 1/42, występujący w kroku 2, tym pomniejszonym generatorem itd. Długość 281 282 4. Długość, pole powierzchni i wymiar K rzyw a 3 /2 : dw a kroki R ysunek 4.21: Pierwsze dwa kroki zastępowania w konstrukcji krzywej 3/2 krzywej podwaja się w każdym kroku konstrukcji (czyli w kro­ ku k długość ta wynosi 2fe). Liczba odcinków wzrasta ośmio­ krotnie w każdym kroku (czyli w fc-tym kroku mamy 8k od­ cinków o długości l / 4 fc każdy). Jeżeli zaznaczymy te dane na wykresie logarytmicznym (najlepiej jeżeli użyjemy logarytmów o podstawie 4), to otrzymamy wykres taki jak na rysunku 4.22. Pom iar krzyw ej 3 /2 R ysunek 4.22: Długość a odwrotność skali dla krzywej 3/2. Na wykresie przedstawione są wykresy logarytmów o podstawie 4. Otrzymujemy prostą o nachyleniu 1/2 Nachylenie prostej interpolującej te dane wynosi d = 0,5. Możemy też otrzymać ten wynik bezpośrednio. Długość obliczona dla s = 1/4* wynosi 2fc, co wyraża się następującym prawem potęgowym: 4.3. Wymiar fraktalny z wykładnikiem d — 0,5. Dlatego też wymiar cyrklowy i wy­ miar samopodobieństwa są równe D = l + d = l,5 , co uza­ sadnia nazwę krzywa 3/2. Zakończymy ten paragraf fascynującymi rozważaniami, Fraktalna opartymi na artykule M. Sernetza i in.15 z roku 1985, a do­ natura tyczącymi fraktalnej natury organizmów. Artykuł ten doty­ organizm ów czy tempa metabolizmu dla różnych zwierząt (np. szczurów, psów i koni) i jego związku z masą ich ciała. Tempo metabo­ lizmu mierzone jest w dżulach na sekundę, a masa w kilogra­ mach. Ponieważ masa ciała jest proporcjonalna do objętości, a objętość zmienia się jak r 3, gdzie r jest współczynnikiem proporcjonalności, wydawałoby się, że tempo metabolizmu powinno być proporcjonalne do masy ciała (czyli do r 3). Rysunek 4.23 pokazuje jednak, że wykładnik w otrzyma­ nym prawie potęgowym różni się znacznie od oczekiwanej wartości 1. Nachylenie prostej, dopasowanej do punktów ekspery­ mentalnych, wynosi w przybliżeniu 0, 75. Innymi słowy, je­ żeli m oznacza tempo metabolizmu, a w — masę ciała, to log m — a log w + log c, gdzie logc jest rzędną punktu przecięcia prostej z osią pio­ nową. Otrzymujemy stąd m — cwa . Ponieważ w cx r 3, otrzymujemy m oc r 3a, gdzie 3a & 2, 25. Oznacza to, że nasze przypuszczenie, zgodnie z którym tempo metabolizmu powinno być proporcjonalne do masy czy objętości, jest błędne. Zmienia się ono tak, jak fraktalna powierzchnia o wymiarze D f = 2,25. Jak możemy to wyjaśnić? Istnieje przypuszczenie, że powyżej przedsta­ wione prawo zmiany tempa metabolizmu odzwierciedla fakt, iż organizmy stanowią w pewnym sensie bardzo posplataną powierzchnię, a nie są litym ciałem. Jeżeli pójdziemy dalej za tym rozumowaniem — może nawet trochę za daleko — 15 Z: M. Sernetz, B. Gelleri, F. Hofman, The Organism as a Biore­ actor, Interpretation of the Reduction Law of Metabolism in Terms of Heterogeneous Catalysis and Fractal Stucture, J. Theor. Biol. 117, 209-230 (1985). 283 284 4. Długość, pole powierzchni i wymiar T em po m etab olizm u jako prawo p otęgow e log(przemiana materii) log(masa ciała) R ysunek 4.23: Prędkość przemiany materii, przedstawiona we współrzędnych logarytmicznych, ukazuje podstawową prędkość przemiany materii jako funkcję potęgową masy ciała będziemy mogli powiedzieć, że zwierzęta, w tym także ludzie, wyglądają jak trójwymiarowe obiekty, lecz są w swej budo­ wie o wiele bliższe powierzchni fraktalnych. I rzeczywiście, jeżeli zajrzymy pod skórę, to znajdziemy najróżniejsze sy­ stemy (np. tętniczy i żylny układ krwionośny w nerce), które stanowią dobry przykład powierzchni fraktalnych ze swoim zadziwiającym rozgałęzianiem naczyń (zob. kolorowa wkładka). Z fizjologicznego punktu widzenia jest niemalże oczywiste, że wydolność nerki jest blisko związana z po­ wierzchnią jej kanalików i naczyń krwionośnych. Jest oczy­ wiste, że objętość tego systemu naczyń jest skończona — mieści się przecież w nerce! Jednocześnie jego powierzchnia jest praktycznie nieskończona, a dokonanie odpowiedniego pomiaru będzie polegało, podobnie jak dla linii brzegowej, na wyznaczeniu, jak mierzona powierzchnia rośnie w zależności od zwiększającej się dokładności pomiaru. Prowadzi to do wymiaru fraktalnego, który charakteryzuje pewne cechy stop­ nia złożoności rozgałęziania tego typu systemów. Ta licz­ bowa charakterystyka może potencjalnie stać się nowym i obiecującym narzędziem dla fizjologii. Na przykład za­ dawano pytania w rodzaju: jakie są różnice pomiędzy syste- 4.4. Wymiar pudełkowy 285 Rysunek 4.24: Odlewy układu żył i układu tętnic w nerce ko­ nia jako przykłady struktur fraktalnych w organizmach żywych, W naturalnej sytuacji oba te systemy wpasowują się dokładnie je­ den w drugi, a przy tym są tylko „negatywem” nerki. Pozostała wolna przestrzeń między naczyniami odpowiada tkance nerki (zob. też kolorowe ryciny) mami różnych zwierząt? lub, czy zajdzie znacząca zmiana w wymiarze fraktalnym Dy, jeżeli będziemy go mierzyć dla systemów z pewnymi wadami? 4.4. W y m ia r p u d e łk o w y W tym paragrafie będziemy zajmowali się trzecią i ostat­ nią wersją wymiaru fraktalnego Mandelbrota: wymiarem pudełkowym. Pojęcie to jest związane z wymiarem samopodobieństwa. W pewnych sytuacjach daje ono takie same wartości liczbowe jak wymiar samopodobieństwa, a w innych odmienne. Jak dotąd pokazaliśmy, w jaki sposób charakteryzować S tr u k tu r y niesastruktury, które m ają pewne specjalne własności, takie jak m o p o d o b n e samopodobieństwo, czy też struktury, takie jak linia brze­ gowa, dla których możemy używać cyrkla o różnych rozsta­ wieniach. Co jednak możemy zrobić, jeżeli struktura nie jest 286 4. Długość, pole powierzchni i wymiar D ziw n y fraktal R ysunek 4.25: Dziwna struktura wykazująca pewne własności skalowania wcale samopodobna i jest tak zwariowana jak na przykład ta na rysunku 4.25? W takim przypadku nie istnieje krzywa, którą moglibyś­ my mierzyć przy użyciu cyrkla; nie występuje także samopodobieństwo, chociaż możemy zaobserwować pewne własności z nim związane. Na przykład „chmura” w prawym dolnym rogu wygląda trochę jak duża chmura występująca w górnej części. W ymiar pudełkowy umożliwia nam systematyczny pomiar, który można zastosować do dowolnej struktury na płaszczyźnie i łatwo zaadaptować do struktur występujących w przestrzeni trójwymiarowej. Pomiar ten opiera się na podobnej zasadzie co pomiar długości wybrzeża. Umieszczamy naszą strukturę na regularnej siatce o wiel­ kości oczek s i po prostu zliczamy „pudełka” siatki (uży­ wamy w tym miejscu określenia „pudełko” z powodu nasu­ wającego się skojarzenia dla przypadku trójwymiarowego — przyp. tłum.), które zawierają fragmenty struktury. Otrzy­ mamy w ten sposób liczbę, powiedzmy N . W oczywisty sposób liczba ta będzie zależała od tego, jak wybraliśmy s. Dlatego zależność tę zapisujemy jako N(s). Teraz zmniej­ szamy stopniowo 5 i znajdujemy odpowiadające im liczby N(s). Następnie wykonamy wykres logarytmów (a dokład­ niej: zaznaczymy na wykresie logarytmy wyników, log N(s), w odniesieniu do lo g (l/s)). 287 4A. Wymiar pudełkowy Zliczanie p u d ełek i =1/12 N(s) = 52 Rysunek 4.26: Zliczanie pudełek dla dziwnej struktury z po­ przedniego rysunku Teraz spróbujemy dopasować do naniesionych na wykres W ym iar punktów linię prostą i zmierzyć jej nachylenie D &. Liczba pudełkow y ta to właśnie wymiar pudełkowy, kolejna wersja wymiaru fraktalnego Mandelbrota. Rysunek 4.26 stanowi ilustrację tej procedury dla dwóch pomiarów. Znajdujemy nachylenie otrzymanej prostej, które tym razem jest równe D &= 1,45. Dla celów praktycznych często jest wygodnie rozpatrywać ciąg siatek, których wielkość oczek zmniejsza się dwukrot­ nie przy przejściu od jednej siatki do następnej. Przy takim podejściu każde pudełko siatki dzieli się na cztery mniej­ sze pudełka, każde wielkości połowy poprzedniego. Kiedy używamy takiego typu siatki do zliczania pudełek dla fraktala, dostajemy ciąg N( 2 ~k) , k = 0 ,1 ,2 ,... Przyjęliśmy tu ­ taj, że dla siatki o największych oczkach s = 2° = 1. Nachy­ lenie prostej, łączącej jedne dane z następnymi na wykresie logarytmicznym, jest następujące: logiV(2-(fc+1)) - logAT(2-fc) _ JV(2“ (fc+1)) log 2fc+x - log 2fc “ ° g2 N( 2 ~ k) ' 288 4. Długość, pole powierzchni i wymiar W wyrażeniu występującym po prawej stronie równania uży­ liśmy logarytmów o podstawie 2, podczas gdy po lewej wy­ stępują logarytmy o dowolnej podstawie. A zatem wynik jest logarytmem o podstawie 2 czynnika, o jaki wzrasta liczba zliczonych pudełek przy przejściu od jednej siatki do na­ stępnej. Ten współczynnik kierunkowy będzie więc oszaco­ waniem wymiaru pudełkowego dla danego fraktala. Oznacza to, że jeżeli liczba zliczonych pudełek przy przejściu z jed­ nej siatki do następnej wzrasta o czynnik 2^, podczas gdy wielkość pudełek zmniejsza się o połowę, to wymiar fraktalny wynosi D. R ysunek 4.27: Pierwsze dwa kroki konstrukcji krzywej z samoprzecięciami W ym iar sam oDobrym ćwiczeniem jest eksperymentalne sprawdzenie, p o d o b ień stw a że wymiar pudełkowy D^ krzywej Kocha i krzywej 3/2 jest i p u d ełk ow y nie taki sam jak odpowiedni wymiar samopodobieństwa i cyrsą ty m sam ym kłowy. Zauważmy jednak, że wymiar pudełkowy na płasz­ czyźnie nigdy nie przekroczy wartości 2. Niemniej jednak wymiar samopodobieństwa D s krzywej płaskiej może z ła­ twością być od niej większy. By się o tym przekonać, wystar­ czy skonstruować przykład, w którym współczynnik redukcji wynosi s = 1/3, a liczba fragmentów w kroku odtwarzania 289 4.4. Wymiar pudełkowy wynosi a > 9 (zob. rysunek 4.27). Otrzymamy wtedy D = b g a > 2 log(l/s) Powodem tej niezgodności jest to, że krzywa generowana na rysunku 4.27 ma części zachodzące na siebie, a które z za­ sady są liczone tylko raz w metodzie zliczania pudełek, lecz z odpowiednią krotnością podczas znajdowania wymiaru samopodobieństwa. Dla tej krzywej mamy 5 = 1/3 oraz a = 13 i dlatego jej wymiar samopodobieństwa wynosi D * = log 3 ~ 2’335Wymiar pudełkowy jest jednym z naczęściej stosowanych Z alety w ym iaru w różnych dziedzinach nauki. Przyczyna jego dominacji pudełkow ego tkwi w prostocie i automatyzacji dokonywanych obliczeń. Możemy wprost liczyć pudełka i na bieżąco wyznaczać odpo­ wiednie wielkości pozwalające na obliczenie wymiaru. Pro­ gram ten można stosować dla kształtów mających cechy sa­ mopodobieństwa lub nie. Co więcej, obiekty te mogą być za­ nurzone w przestrzenie o wyższym wymiarze. Na przykład, jeżeli zajmiemy się obiektami, które znajdują się w zwykłej przestrzeni trójwymiarowej, to pudełka nie będą płaskie, lecz będą prawdziwymi pudełkami trójwymiarowymi, mającymi wysokość, szerokość i głębokość. Ale pojęcie to można rów­ nież zastosować do fraktali, takich jak zbiór Cantora, który jest podzbiorem odcinka jednostkowego. W tym przypadku pudełkami będą małe odcinki. Posłużmy się jeszcze raz klasycznym przykładem wybrzeża Wielkiej Brytanii. Na rysunku 4.28 przedstawiony jest zarys tego wybrzeża pokrytego dwiema siatkami. Jeżeli znormalizujemy szerokość siatki, przyjmując ją jako 1, to wielkość oczek wyniesie odpowiednio 1/24 i 1/32. Zliczanie pudełek przecinających linię brzegową daje nam odpowie­ dnio 194 i 283 (kto chce, niech sprawdzi). Posługując się tymi danymi, możemy łatwo wyznaczyć wymiar pudełkowy. Po naniesieniu danych na wykres logarytmiczny otrzymamy współczynnik kierunkowy prostej łączącej te dwa punkty log283- l o g 194 , 2 ,4 5 - 2 ,2 9 log 32 - log 24 ~ 1 ,5 1 - 1 ,3 8 ~ ’ ' W ym iar pudełkow y w ybrzeża W ielkiej B ry ta n ii 4. Długość, pole powierzchni i wymiar 290 ' ^ P T '' fV % > i ¿1 .5 £ X A S V a t-1 - - . / w^ $ >u , K s ~7 i bi f t i u 0 __ ~ h O J <> — f J j l •¿i ii] % { 1 < * -r 1 int*- ■»-f <; P fi V* [ & { i 'i!r \p --T \ i W > ,J J i / UA u. h V 7 < t f l J 3 r*r" S V / r .r-' , / w J r JC s ł “ \ 3 r a “ \ j </ . 4 t “Vi" - — Mr- /-ri - - i l, 1 E L 1 S, - t t* t = >-----— - V £ '= 4 * r V 1 r - t V J J _ 2! , *, .. i t — V - 4 Fi 3 - J . .— 1 \ t T i * - d r «i “ $*— > / ; f—■ - f r* / ~r — \y — r' rf i j f/ t ł < - ł- — - V - f J * r"l r* / Z 7^1 i f. i z ^ a ~ Ui " r ■K £ - '“v J R ysunek 4.28: Policzmy wszystkie pudełka, które przecinają (lub nawet tylko dotykają) wybrzeża Wielkiej Brytanii, wliczając Irlandię Zgadza to się z naszym poprzednim rezultatem otrzymanym jako wymiar cyrklowy. O graniczen ia Pojęcie wymiaru fraktalnego inspirowało naukowców do d la w ym iarów podejmowania nowych badań i formułowania fascynujących fraktalnych przypuszczeń. Rzeczywiście, przez jakiś czas wydawało się, że wymiary fraktalne mogą pozwolić nam na odkrycie no­ wego porządku w świecie złożonych zjawisk i struktur. Oka­ zało się jednak, że istnieją pewne poważne ograniczenia. Po pierwsze, istnieje wiele różnych wymiarów o różnych war­ tościach. Możemy również łatwo sobie wyobrazić, że dana struktura mogłaby być „mieszaniną” różnych fraktali, każ­ dego o innym wymiarze pudełkowym. W takim przypadku wymiar całości będzie po prostu równy wymiarowi składnika (składników) o największym wymiarze. Oznacza to, że otrzy­ m ana liczba nie będzie charakteryzować całej struktury. W takim wypadku chcielibyśmy otrzymać coś w rodzaju spektrum liczbowego, które zawierałoby informację o rozkła­ dzie wymiaru fraktalnego dla danej struktury. Zadanie zna- 4.4. Wymiar pudełkowy 291 lezienia odpowiedniej charakterystyki zostało podjęte i jest kontynuowane jako badanie muliifraktali.16 Historia wymiaru fraktalnego sięga pracy Hausdorffa z 1918 r.17 A jednak definicja tego, co później zostało na­ zwane wymiarem Hausdorffa, nie jest przydatna w praktyce, ponieważ jest bardzo trudna do zastosowania w przypadku nawet elementarnych przykładów, a niemal niemożliwa do sprawdzenia dla danych eksperymentalnych. Ma jednak duże znaczenie w teorii, czego ślad będziemy mogli dostrzec w do­ datku do tomu II, zajmującym się miarami multifraktalnymi. W celu dokładniejszego poznania różnych koncep­ cji wymiarów związanych z wymiarami fraktalnymi i ich wzajemnych relacji polecamy książki Geralda A. Edgara18 i Kennetha Falconera19. Zakończymy ten paragraf defini­ cją wymiaru Hausdorffa, która zawiera wiele technicznych szczegółów, oraz związkiem wymiaru Hausdorffa z wymia­ rem pudełkowym. O gran iczym y się do definicji w ym iaru H ausdorffa dla zbiorów A za­ wartych w przestrzeni euklidesowej R n = { x \ x ~ ( x i , ..., x n ) yXi £ R } dla pewnej liczby natu raln ej n. B y sform ułow ać definicję, trzeb a w prow adzić pew ne oznaczenia. Po pierwsze w p ro w ad zam y funkcję odległości d(x,y), oznaczającą odległość euklidesową p u n któ w x i y w R n, n d(x,y) = \i=1 16 Zob. B. B. Mandelbrot, An introduction to multifractal distribu­ tion functions, w: Fluctuations and P attern Form ation, H. E. Stanley i N, Ostrowsky (red.), Kluwer Academic, Dordrecht 1988, J. Feder, Fractals, Plenum Press, New York 1988. K. Falconer, Fractal Geometry, Mathematical Foundations and Applications, Wiley, New York 1990, 17 F. Hausdorff, Dimension und äußeres Maß, M ath. Ann. 79, 157— 179 (1918). 18 G. A. Edgar, Measure, Topology and Fractal Geometry, SpringerVerlag, New York 1990. 19 K. Falconer, Fractal Geometry, M athematical Foundations and A p ­ plications, John Wiley & Sons, Chichester 1990. Definicja w ym iaru Hausdorffa 292 4. Długość, pole powierzchni i wymiar N astępnie d e fin iu je m y kres dolny (in fim u m ) i kres górny (suprem um ) podzbioru X prostej rzeczyw istej: in f{a ; € su p {x € X} = X} najw iększe dolne ograniczenie X , = najm niejsze górne ograniczenie X. O zn acza to , że jeśli a = i n f { x € X } , to a < a; dla w szystkich x € X i dla dow olnego e > 0 istnieje x G X takie , że x —a < e. Podobnie b = su p {x e X } oznacza, że b > x dla w szystkich x E X i dla dow olnego e > 0 istnieje x e X ta k ie , że b — x < c. Posługując się tym i pojęciam i, m o żem y zdefiniow ać średnicę podzbioru U zaw artego w R n d iam (U) = s u p { d ( x , 2/) | x,y Gi/} . O s ta tn ią d efin icją, której p otrzeb ujem y, je s t definicja pokrycia otw ar­ te g o podzbioru A zaw arteg o w R n . P o d zb ió r U zaw arty w R n na­ zyw a się otw arty, je że li dla dow olnego x £ U istnieje kula Be(x) = {y £ R n | d(x,y) < e} o prom ieniu e > 0, o środku w punkcie zaw arta całkow icie w U. R odzina zb io rów otw artych { t Ą , Us, ■■•} nazyw a się (p rze lic za ln y m ) pokryciem o tw arty m zbioru A, jeżeli oo A c \ J U t. 1—1 M o ż e m y ju ż zd efin io w ać w y m ia r Hausdorffa zbioru A. będą d o d a tn im i liczb am i rzeczyw istym i. D efin iu jem y hs(A) d iam (Ui) = in f <i i=o Niech { C /i, C/2, ...} otw arte pokrycie zbioru A ta k ie , że diam (U{) < s i £ e A za te m in fim u m brane je s t po w szystkich otw artych pokryciach zbioru A, dla których zbiory pokryw ające Ui m ają średnicę m niej­ szą od €. D la każdego ta k ie g o pokrycia bierzem y średnice otw ar­ tych zb io rów do niego należących i po podniesieniu do s -te j potęgi sum ujem y. S u m a, ja k ą o trzym a m y, m oże być skończona albo nie­ skończona. W m iarę zm n iejszania £ klasa dopuszczalnych pokryć m aleje. D la te g o te ż in fim u m rośnie w m iarę ja k £ —►0 dąży do granicy, która m oże być nieskończonością albo skończoną liczbą rze­ czyw istą. O z n a c za m y hs(A) — lim hse(A). G ranica hs(A) nazyw ana je s t s-wymiarową miarą Hausdorffa zbioru A. W szczególności w ynika stąd , że s-w ym iarow a m iara Hausdorffa zbioru pustego w ynosi 0, oraz że hs(A) < hs(B), jeżeli tylko A c B. Co w ięcej, / i 1 ( A ) je s t długością krzyw ej gładkiej A; h2(A) jest polem pow ierzchni gładkiej A z dokładnością do czynnika 7t/4; h3(A) 4.4. Wymiar pudełkowy 293 je s t objętością tró jw ym iaro w ej gładkiej rozm aitości A z dokładnością do czynnika 4 7 t/3 . Inna w ażna własność je s t następująca. Jeżeli / : A —» R n spełnia w arunek H óldera dla dow olnych par p u n któ w x,y e A, czyli d{f{x),f(y)) < c(d(x,y))a dla pewnych stałych c > 0 i a > 0, to hs/a( f ( A )) < cs/ahs(A). Na przykład jeśli / je s t podobieństw em o w spółczynniku zm niejszania 0 < c < 1, to / spełnia w arun ek Hóldera z a = 1 (w aru n ek H óldera z a ~ 1 nazywa się w arunkiem Lipschitza — przyp. tłum.) oraz hs(f(A)) < cshs(A). Co więcej, H ausdorff dow iódł, że dla dow olnego zbioru A praw dziwa je s t następująca zależność: istnieje taka liczba Dh {A)%że — / 00 n [/i)=\ 0 hs( dla s < Z ) # ( A ) , dla s > Dh (A). Liczbę tę nazyw am y wymiarem Hausdorff a, czyli Dff(A) — in f { s | h s(A) = 0 } = s u p {5 | hs(A ) = oo}. Jeżeli s —Dh(A), to hs(A) m oże być rów ne zeru, nieskończoności lub jakiejś dod atniej liczbie rzeczyw istej. N a zakończenie zb ierzem y kilka podstawowych własności w ym iaru HausdorfFa: (1 ) (2 ) (3 ) (4 ) (5 ) Jeśli A c R n, to DH ( A ) < n . Jeśli A c B, to Dh (A) < DH(B). Jeśli ^4 jest zbiorem przeliczalnym , to D H(A) = 0. Jeśli ^4 c R n oraz Dh(A) < 1, to A je s t całkow icie niespójny. Niech Coo oznacza zbiór C an to ra. W te d y D f i i C ^ ) = log 2 / log 3. Podam y tera z heurystyczny dowód własności (5 ) przy założeniu, że 0 < hs(C0o) < o o dla s = Dh{Coo). Zauw ażm y, że C oo składa się z dwóch części: Cl — Coo H [ 0 ,1 /3 ] , oraz Cp = C ^ D [ 2 /3 ,1 ] . O bie są podobne do całości i trzy k ro tn ie pom niejszone. S tąd o trz y m u je m y Aa(Coo) = hs{CL) + hs{Cp) = Ćt fi Ca t ) + ĆłfiCoo). Podzielm y obie strony przez hs(Coo) ^ 0. O trz y m a m y 1 = 2cs lub te ż s — log 2 / log 3. Jeśli mamy do czynienia z konkretnymi przykładami, to okazuje się, że istnieją pewne trudności w obliczaniu wy­ miaru HausdorfFa. Wprowadzenie wymiaru pudełkowego jest w pewnym sensie próbą ominięcia tych trudności. 294 4. Długość, pole powierzchni i wymiar W ym iar H ausdorffa a w ym iar pudełkowy Podstaw ow ą tru d n o ścią w obliczaniu w y m ia ru Hausdorffa je s t osza­ cow anie d ia m (Ui)s. Wymiar pudełkowy upraszcza sprawę, po­ zw alając zastąp ić w y ra zy d iam (Ui)s w y ra za m i 6S. Form alna defini­ cja w ym iaru pudełkow ego D b dow olnego ograniczonego podzbioru A przestrzeni R n je s t następująca. Niech N$(A) oznacza najm niejszą liczbę zb io rów o średnicy co najw yżej 6, p o kryw ającą A .20 O trz y m u ­ je m y w te d y „ r log N S(A) D b = lim — — , 5-+oo log 1 /0 o ile granica istnieje. Istnieje kilka rów now ażnych definicji D b(A). Na przykład m ożem y brać pod uwagę p o d zia ł R n przez siatkę o wielkości oczek 6. D o ­ stan ie m y sześcienne pudełka o boku 6, w y p ełn iają ce przestrzeń R n . Niech N f6 oznacza liczbę pudełek przecinających A. O trz y m u je m y następującą równość: D tiA ). lim ! « , ó-o log 1/6 przy zało żen iu , że granica istnieje. O zn ac za to , że N$ a 6~s dla m ałych 6, gdzie s = D b(A). M o ż e m y to zapisać dokładniej ja k o N s (A)Sa - > ( i ? i ! 3 ^ < n 4! ' \ 0 dla s > D b{A). Jednak N S(A)6S = in f {Ui, ^ 2, . . . } skończone pokrycie, ta k ie , że d iam (Ui) < 6 M o ż e m y to porów n ać z definicją w ym iaru H ausdorffa — je d y n ą róż­ nicą je s t zastąp ien ie d iam U^ w yrazem 6S. Niestety nie jest tak, że wymiar Hausdorffa i wymiar pudełkowy zawsze się pokrywają.21 Na przykład możemy pokazać, że D b(A) = n dla dowolnego gęstego podzbioru R n. Oznacza to w szczególności, że wymiar pudełkowy zbioru 20 Ponieważ A jest ograniczony, możemy zawsze zakładać, że pokrycie to jest skończone. 21 Czytelnika chcącego zapoznać się ze szczegółami odsyłamy do książki K. Falconera, Fractal Geometry, M athem atical Foundations and Applications, John W iley Sc Sons, Chichester 1990. 4.5. Fraktale brzegowe: diabelskie schody i krzywa Pean a 295 liczb wymiernych na odcinku [0,1] jest równy 1, podczas gdy wymiar Hausdorffa tego (przeliczalnego) zbioru jest równy 0, Następnym ciekawym przykładem jest zbiór A — {0,1/2, 1 / 3 , 1 / 4 , Zbiór ten ma ułamkowy wymiar pudełkowy, który wynosi dokładnie Db(A) = 1/2. Widzimy więc, że jeżeli wymiar pudełkowy nie jest liczbą całkowitą, to nie możemy ślepo zakładać, że zbiór ten ma własności fraktalne. Prawdą jednak jest, że wymiar Hausdorffa i wy­ miar pudełkowy zgadzają się dla dużej klasy zbiorów, wśród których znajdują się w szczególności takie klasyczne zbiory jak zbiór Cantora, trójkąt i dywan Sierpińskiego oraz wiele innych, o czym powiemy na zakończenie rozdziału 5. 4.5. F rak tale b rzegow e: d ia b e lsk ie s c h o d y i k rzy w a P e a n a Fraktale omawiane do tej pory w bieżącym rozdziale miały niecałkowity wymiar fraktalny. Nie wszystkie jednak frak­ tale są tego typu. Chcielibyśmy poszerzyć naszą wiedzę o dwa przykłady fascynujących fraktali, będących przypad­ kami szczególnymi. Pierwszy przykład to tzw. diabelskie schody będące krzywą fraktalną o wymiarze równym 1,0. Drugi przykład to krzywa Peana o wymiarze równym 2,0. D iab elsk ie schody: konstrukcja ■ krok 1 i i krok 2 krok 3 R y sunek 4.29: K olum now a konstrukcja diabelskich schodów Pierwszy z tych obiektów, diabelskie schody, jest ściśle D iab elsk ie związany ze zbiorem Cantora i jego konstrukcją. Zaczynamy schody od kwadratu o boku długości 1. Następnie zaczynamy kon­ struować zbiór Cantora na dolnym jego brzegu (tzn. kolejno 296 4. Długość, pole powierzchni i wymiar R ysunek 4.30: Kompletne diabelskie schody usuwamy środkowe części trzecie, tak jak przedtem). Nad każdą usuwaną środkową częścią trzecią długości l / 3 fc usta­ wiamy prostokąt o podstawie 1/3*4 odpowiedniej wysokości. Przyjrzyjmy się konstrukcji na rysunku 4.29. W pierwszym kroku ponad środkową częścią stawiamy prostokąt o pod­ stawie będącej odcinkiem [1/3,2/3], o wysokości 1/2. W na­ stępnym kroku wznosimy dwie kolumny, jedną o wysokości 1/4 nad odcinkiem [1/9, 2/9], a drugą o wysokości 3/4 nad odcinkiem [7/9,8/9]. W trzecim kroku stawiamy cztery pro­ stokąty o wysokościach 1/8, 3/8, 5/8, 7/8, a w k -tym kroku stawiamy 2fc_1 prostokątów o wysokościach l / 2 fc, 3/2fc,..., (2k — l ) / 2 k odpowiednio. W granicy otrzymamy obiekt zwany diabelskimi schodami Na rysunku 4.30 pokazano jego przybliżony obraz otrzymany przy użyciu komputera. Może­ my zobaczyć coś jakby wznoszące się z lewa na prawo schody o nieskończonej liczbie stopni, których wysokość staje się nie­ skończenie mała. W miarę procesu konstrukcji dostajemy dwie części: górną białą i dolną czarną. W granicy będą one symetryczne. Biała część będzie dokładną kopią części czar­ nej. Oznacza to, że część białą można otrzymać z czarnej przez obrót o 180°. W tym rozumieniu krzywa graniczna dzieli kwadrat fraktalnie na dwie połówki. Jako natychmia­ stowy wniosek otrzymujemy, że pole powierzchni czarnych schodów jest równe połowie pola powierzchni kwadratu po­ czątkowego. 4.5. Fraktale brzegowe: diabelskie schody i krzywa Peana 297 P rzyjrzyjm y się jeszcze raz rysunkowi 4 .2 9 . W id zim y , że dwa w ąskie prostokąty o szerokości 1 / 9 w drugim kroku tw orzą jeden prostokąt o wysokości 1. Podobnie cztery prostokąty o szerokości 1 /2 7 w kroku 3 tworzą dwa prostokąty o wysokości 1 i ta k dalej. O znacza to , że jeśli przeniesiemy prostokąty z prawej części kw adratu na lewą i pod zie­ lim y środkowy prostokąt na dwa oraz ustaw im y jeg o części jed n a nad drugą, to o trzym a m y figurę, która w granicy w ypełni połow ę kw adratu (zob. rysunek 4 .3 1 ). 1 I 1 krok 1 I 11 krok 2 krok 3 R y s u n e k 4 .3 1 : Pole pow ierzchni pod diabelskim i schodam i jest równe 1 /2 W przypadku diabelskich schodów m ożem y spraw dzić nasze ro­ zum ow anie algebraicznie. Jeżeli będziem y łączyć prostokąty ta k , ja k na rysunku 4 .3 1 , to całkow ite pole schodów A m ożna w yrazić w na­ stępujący sposób przy użyciu szeregu geom etrycznego: 1 8 3 + 8 5 + 8 7\ + 8 + " ' lub + 3^ + Sum a szeregu geom etrycznego w nawiasie wynosi 3. O trz y m u je m y więc „ 1 3 1 A = 6 + 9 “ 2' Zajm ijm y się teraz następnym i pytaniam i: jaka jest n a­ tu ra brzegu diabelskich schodów i jak a jest jego długość? Przybliżenie brzegu schodów łam aną daje nam w oczywisty sposób następujące fakty: • brzeg jest krzywą bez luk, • długość krzywej wynosi dokładnie 2! P o le p o w i e r z c h n i d i a b e l s k ic h schodów 298 4. Długość, pole powierzchni i wymiar Otrzymaliśmy zatem zaskakujący rezultat. Skonstruo­ waliśmy krzywą, która jest fraktalna, a która jednocześnie ma skończoną długość. Innymi słowy, współczynnik kierun­ kowy prostej, d, na wykresie logarytmów długości w zależ­ ności od odwrotności współczynnika redukcji wynosi d — 0 i dlatego wymiar fraktalny powinien równać się D — d + 1 = 1! Wynik ten jest ważny, gdyż pokazuje, że istnieją krzywe o skończonej długości, które chcielibyśmy uważać za fraktale. Co więcej, na pierwszy rzut oka wydawałoby się, że diabelskie schody są samopodobne, ale tak nie jest. Można by też się zapytać, dlaczego takie krzywe nazywane są fraktalnymi? Rozumowanie, które uzasadnia użycie terminu „ fra k ta r, w tym przypadku jest oparte na fakcie, że dia­ belskie schody są wykresem bardzo dziwnej funkcji, funkcji która jest wszędzie stała, z wyjątkiem punktów znajdujących się w zbiorze Cantora. krok 1 krok 2 krok 3 Rysunek 4.32: Wielokątowa konstrukcja diabelskich schodów Konstrukcja diabelskich schodów przy użyciu wielokątów W śledzeniu konstrukcji m oże być po m o cn e porów nanie rysunków 4 .2 9 i 4 .3 2 . N a rysunku 4 .3 2 w każd ym kroku konstruujem y w ielo kąt, poruszając się je d y n ie w kierunku po zio m ym i pionow ym . Z a czyn a m y zaw sze w lew ym dolnym rogu i poruszam y się poziom o do m om entu zetknięcia się z bokiem prostokąta. W tym m om encie w spinam y się po piono w ym boku aż do m o m e n tu osiągnięcia w ierzchołka. N a ­ stępnie zn ow u poruszam y się p o zio m o i znow u zd obyw am y następny pro sto kąt. Na je g o w ierzchołku znow u poruszam y się poziom o i po­ w ta rz a m y te czynności aż do m o m e n tu osiągnięcia prawego górnego rogu. K rzy w a , ja k a pow stanie w ten sposób, m a długość 2, poniew aż po zsum ow aniu w szystkich poziom ych o d cinkó w o trzy m a m y długość 1. P od obnie, jeżeli zsu m u jem y w szystkie pionowe odcinki, też o trz y ­ m a m y 1. 299 4.5. Fraktale brzegowe: diabelskie schody i krzywa Peana Sam oafiniczność R ysunek 4.33: Samoafiniczność diabelskich schodów Diabelskie schody nie są samopodobne. Wyjaśnijmy to D iab elsk ie (zob. rysunek 4.33). Diabelskie schody można rozbić na sch od y są sześć identycznych części. Część 1 otrzymano z całych scho­ sam oafiniczne dów, pomniejszonych trzykrotnie w kierunku poziomym, a dwukrotnie w kierunku pionowym (a zatem współczynniki zmniejszania w różnych kierunkach nie są takie same). Dla­ tego też obiekt ten nie jest samopodobny. Dla przekształce­ nia podobieństwa występującego w definicji samopodobieństwa te dwa czynniki powinny być takie same. Część 6 jest dokładnie taka sama jak część 1. Co więcej, prostokąt o bo­ kach długości 1/3 i 1/2 mieści w sobie dokładną kopię części 1, jak również kopię tej części obróconą o 180 stopni. Opisuje to części 2, 3, 4 i 5. Przekształcenie zwężające, pomniej­ szające w różnej skali w kierunku poziomym i pionowym jest szczególnym przypadkiem przekształcenia afinicznego. Obiekty, które są zbudowane z afinicznych kopii całości, nazywają się samoafiniczne. Przykładem takiego obiektu są właśnie diabelskie schody. Diabelskie schody mogą wydawać się czysto matematycz­ D iab elsk ie nym wymysłem. M ają one jednak bardzo ważne zastosowa­ sch ody w fizyce nie w fizyce.22 Przeanalizujmy problem, który tak naprawdę nie jest problemem fizycznym, chociaż ma fizyczne zabarwie­ nie, a w którym diabelskie schody pojawią się w naturalny sposób. 22 P.Bak, The devil’s staircase, Phys. Today 39, 38-45 (1986). 300 4. Długość, pole powierzchni i wymiar Ścim anie R y s u n e k 4.34: Gęstość pokazana jest jako wysokość w kolejnych pokoleniach sztabek Zmodyfikujmy zbiór Cantora (zob. rysunek 4.34). Obiek­ tem początkowym nie jest tu jednak odcinek, a sztabka o gęstości ro = 1. Zakładamy, że możemy tę sztabkę do­ wolnie ściskać i rozciągać. Początkowa sztabka ma długość /o = 1 i dlatego jej masa wynosi rao = 1. Przecinamy na­ stępnie sztabkę w połowie i otrzymujemy dwa identyczne kawałki o równych masach wynoszących m i = = 1/2. Następnie rozpłaszczamy je tak, że szerokość każdej zmniej- 4.5. Fraktale brzegowe: diabelskie schody i krzywa Peana sza się do Zi = 1/3, ale bez zmiany grubości sztabki. Po­ nieważ masa jest zachowana, więc gęstość każdego kawałka musi wzrosnąć do r\ — m \ / l \ = 3/2. Powtarzając ten proces, otrzymujemy w n-tej generacji N — 2n sztabek, każda o długości ln = l / 3 n i masie m n — l / 2 n . Mandelbrot nazwał ten proces ścinaniem, ponieważ masa, po­ czątkowo jednorodnie rozłożona, w trakcie procesu gromadzi się w wielu mniejszych obszarach o dużej gęstości. Gęstość każdego z mniejszych obszarów wynosi rn = m n/ l n. Na ry­ sunku 4.34 gęstość w każdym kroku przedstawiona jest jako wysokość. Załóżmy teraz, że proces ścinania zastosowano nieskoń­ czenie wiele razy, a otrzymaną strukturę położono na od­ cinku jednostkowym. Możemy zatem zapytać, jaka jest masa M( x) struktury powstałej na odcinku od 0 do x ?23 Masa nie zmienia się w lukach w materiale, a jedynie wzrasta sko­ kowo o infinitezymalnie małe wielkości w punktach zbioru Cantora. Okazuje się, że wykres funkcji M( x ) to właśnie diabelskie schody. Krzywa, będąca brzegiem diabelskich schodów, ma wy­ K rzyw a P ean a miar fraktalny równy D = 1, a ponieważ nie jest zwykłą krzywą, stanowi przykład krańcowy. Przyjrzyjmy się teraz przykładom, będącym inną skrajnością, krzywym o wymia­ rze fraktalnym D — 2. Pierwszą tego rodzaju krzywą od­ krył G. Peano w roku 1890. Jego przykład wywołał wiele wątpliwości na tem at dopuszczalnych i niedopuszczalnych definicji krzywych i, co jest z tym związane, na tem at pojęcia wymiaru. Krzywą Peana wprowadziliśmy już w rozdziale 2, zob. rysunek 2.36. Przypomnijmy, że podczas konstrukcji zastępujemy odcinki generatorem — krzywą złożoną z 9 od­ cinków o długości równej jednej trzeciej długości wyjściowej każdy. Ponieważ współczynnik jednokładności jest równy 1/3, więc dokonujemy pomiarów długości krzywej przy s = 1/3*/ k = 0,1,2,..., gdzie s jest rozstawieniem cyrkla. Prowadzi to do całkowitej długości u — (9/3)* = 3*. Możemy za­ uważyć, że jeżeli prawo potęgowe jest postaci u = c * l / s d, to c = 1, ponieważ dla 5 = 1 otrzymujemy u — 1. Na pod­ 23 Możemy zapisać to formalnie jako M ( x ) = dm( t ) . 302 4. Długość, pole powierzchni i wymiar stawie zależności logu = d lo g l/s możemy również dostać następującą równość: _ log u ___ log 3k _ k _ ^ log l / s log3fc k Oznacza to, że D = 1 + d — 2 (tzn. że krzywa Peana ma wy­ miar fraktalny 2). Wynika to z własności wypełniania prze­ strzeni przez krzywą Peana, którą zajmowaliśmy się w roz­ dziale 2. 4 .6 . P r o g r a m n a z a k o ń c z e n ie ro zd zia łu : zb ió r C a n to r a i d ia b e ls k ie s c h o d y Diabelskie schody są fraktalem granicznym. Z jednej strony jest to krzywa o całkowitym wymiarze fraktalnym, a z dru­ giej jest ona blisko związana ze zbiorem Cantora. Z pro­ gramu, jaki przedstawimy, będzie to wynikało w oczywisty sposób. Jeżeli ustawimy param etr d i a b e l = l , to otrzymamy schody, jeśli zaś d iab el= 0 , to zostanie narysowany zbiór Cantora. Przypomnijmy, że klasyczny zbiór Cantora otrzymujemy przez zastosowanie bardzo prostej reguły: mamy odcinek, z którego usuwamy środkową część trzecią, a z pozostałych dwóch części usuwamy ich części środkowe itd. Nasz pro­ gram pozwala na określenie, jaka część będzie usuwana. Na początku program zadaje użytkownikowi pytanie o wielkość usuwanej części. Jeśli wprowadzimy 0 — nic nie będzie usuwane, jeśli wprowadzimy 1 — usunięte zostanie wszy­ stko, a jeśli 0,333... — powstanie klasyczny zbiór Cantora. W przypadku schodów param etr ten określa środkową część, w której krzywa biegnie poziomo. W tym przypadku 0,333... daje klasyczną konstrukcję, 0 — przekątną, a 1 — poziomą linię prostą. Proponujemy wypróbować te i inne (własne) wartości param etru. Przyjrzyjmy się teraz programowi. Obliczenia związane z różnymi krokami zbioru Cantora (lub schodów) są bardzo podobne do programu w rozdziale 3 (używamy tej samej rekursywnej strategii zastępowania linii). I znowu zmienna poziom oznacza głębokość rekursji. Jeżeli zmienimy wartość początkową tej zmiennej, to zobaczymy inne kroki procesu konstrukcji. Załóżmy najpierw, że diabel= 0, by dokonać 4.0. Program na zaKonczeme rozdziału D iab elsk ie schody na ekranie k om putera Rysunek 4.35: Wynik programu „Zbiór Cantora i diabelskie schody” obliczeń dla zbioru Cantora. W tym przypadku program za­ cznie od narysowania poziomej linii początkowej. Następnie oblicza wymiar fraktalny (wymiar samopodobieństwa) zbioru Cantora i drukuje ten wynik. Teraz zaczyna się rekursywna zamiana prostej (GOSUB 100). W swej części rekursywnej program sprawdza najpierw, czy znajdujemy się na najniższym poziomie. Jeśli tak, to rysuje po prostu linię prostą. W przeciwnym przypadku oblicza lewą część nowej figury i przechodzi do następnego poziomu rekursji (GOSUB 100). Po wyznaczeniu i narysowa­ niu lewej części następują obliczenia dla części prawej. Za­ uważmy, że ponieważ diabeł = 0, wszystkie współrzędne y (ylewy i yprawy) m ają tę samą wartość lewy + 0,5*w. Otrzymujemy zatem poziome ułożenie punktów (czy odcin­ ków) reprezentujące stopnie konstrukcji zbioru Cantora. Zajmijmy się teraz przypadkiem, gdy diabeł = 1. Po­ czątkowy odcinek jest teraz przekątną. W pierwszym kroku rekursywnego zastępowania odcinek ten jest zastępowany dwoma ukośnie położonymi odcinkami, połączonymi odcin­ kiem poziomym. W następnych krokach rekursji ukośne od­ cinki są zastępowanie rekursywnie w ten sam sposób. W pro­ gramie poziome połączenie jest rysowane zawsze, gdy za­ czyna się kolejne rekursywne zastępowanie części prawej (IF diabeł THEN LINE . ..). Oznacza to, że w przypadku kon­ strukcji zbioru Cantora w każdym kroku otrzymujemy po­ ziome odcinki dążące w miarę wzrostu liczby kroków do 304 4. Długość, pole powierzchni i wymiar Program w BASIC-u Tytuł Zbiór Cantora i diabelskie schody Rysunek zbioru Cantora i diabelskich schodów DIM xlewy(10), ylewy(lO), xprawy(10), yprawy(lO) INPUT ,,usuwana czesc (0 - 1): 13, r poziom = 7 diabeł = 0 lewy = 30 w = 300 xlewy(poziom) - lewy xprawy(poziom) = lewy + w ylewy(poziom) = lewy + .5*(l+diabel)*w yprawy(poziom) = lewy + .5*(l-diabel)*w REM OBLICZENIE WYMIARU IF r < 1 THEN d = L0G(2)/L0G(2/(l-r)) ELSE d = 0 PRINT ,,Wymiar zbioru Cantora,ł, d G0SUB 100 END REM 100 RYSOWANIE PROSTEJ NA NAJNIŻSZYM POZIOMIE REKURSJI IF poziom > 1 GOTO 200 LINE (xlewy(l),ylewy(1)) - (xprawy(1),yprawy(1)) GOTO 300 REM 200 ROZGAŁĘZIENIE NA NIZSZE POZIOMY poziom = poziom -1 REM LEWA GALAZ xlewy(poziom) = xlewy(poziom+1) ylewy(poziom) = ylewy(poziom+1) xprawy(poziom) = .5*((1-r)*xprawy(poziom+1) + (l+r)*xlewy(poziom+1)) yprawy(poziom) = .5*(yprawy(poziom+1) + ylewy(poziom+1)) GOSUB 100 REM PRAWA GALAZ xlewy(poziom) = .5*((l+r)*xprawy(poziom+1) + (1-r)*xlewy(poziom+1); ylewy(poziom) = .5*(yprawy(poziom+1) + ylewy(poziom+1)) IF diabeł THEN LINE (xlewy(poziom),ylewy(poziom)) - (xprawy(poziom),yprawy(poziom)) xprawy(poziom) = xprawy(poziom+l) yprawy(poziom) = yprawy(poziom+l) GOSUB 100 poziom = poziom + 1 300 RETURN zbioru Cantora. W przypadku konstrukcji diabelskich scho­ dów odcinki, będące przybliżeniami zbioru Cantora, stają się ukośne i przerwy pomiędzy nimi zapełniane są liniami pozio- 4.6. Program na zakończenie rozdziału mymi. Można to zobaczyć, jeżeli zamienimy obliczenia dol­ nych poziomów (ustawimy poziom = 1 ,2 ,3 ,...) pomiędzy zbiorem Cantora a schodami. Zauważmy, że tak jak i w poprzednich programach mo­ żemy dostosować położenie i wielkość rysunku przez zmianę wartości zmiennych lewy i w. 305 R ozdział 5 K odow anie obrazów Geometria fraktalna spowoduje, ze zobaczysz świat innymi oczyma. W dalszej lekturze kryje się niebezpieczeństwo. Mo­ żesz utracić swój nabyty w dzieciństwie sposób patrzenia na świat. Inne wydadzą Ci się chmury, lasy, galaktyki, liście, pióra, skały, góry, wzory na wodzie, dywanach, murach i wie­ le innych rzeczy. I już nigdy nie będą te same. Michael F. Barnsley1 Do tej pory zajmowaliśmy się dwoma biegunami geome­ trii fraktalnej. Badaliśmy takie dziwolągi, jak zbiór Can­ tora, krzywa Kocha czy trójkąt Sierpińskiego; usiłowaliśmy przekonać Czytelnika, że wśród naturalnie występujących struktur i wzorów istnieje wiele takich, które możemy na­ zwać fraktalnymi. Fraktalne są na przykład linie brzegowe, układy naczyń krwionośnych, kalafiory. Omawialiśmy ich wspólne cechy — samopodobieństwo, własności skali oraz wymiar fraktalny, właściwe zarówno naturalnym strukturom jak i matematycznym dziwolągom. Nie zbadaliśmy jednak jeszcze, czy łączy je jakieś wspólne pokrewieństwo. Może ka­ lafior jest tylko „m utantem ” trójkąta Sierpińskiego, a liść pa­ proci to „niesforna” krzywa Kocha. Nasuwa się pytanie, czy 1 Michael F. Barnsley, Fractals Everywhere, Academic Press, 1988. 307 istnieje sposób opisu, w którym kształty występujące w na­ turze, np. kalafior, i sztuczne konstrukcje, takie jak trójkąt Sierpińskiego, byłyby blisko ze sobą związane. W rozdzia­ le tym opiszemy metody matematyczne umożliwiające taki właśnie integrujący je opis. Wszystko zaczęło się od książki Mandelbrota The Practal Geometry of Naturę (Fraktalna ge­ ometria przyrody) oraz od pięknego artykułu australijskiego matematyka Hutchinsona2. Natomiast Barnsley i Berger po­ szli dalej; dzięki nim sposób opisu wprowadzony przez Hutchinsona — jak się wydaje — stwarza bardzo obiecujące podstawy, które być może da się wykorzystać do kodowania obrazu.3 Możemy uważać geometrię fraktalną za nowy język G eom etria w obrębie matematyki. Tak jak słowa w języku polskim fraktalna jako mogą być rozłożone na podstawowe składniki, jakimi są li- język tery, a w chińskim na znaki, tak samo język geometrii fraktalnej umożliwia nam rozłożenie wzorów i kształtów, wystę­ pujących w naturze, na podstawowe proste jednostki. Z nich możemy następnie tworzyć „słowa” i „zdania” dobrze opisujące te twory. Słowo „paproć” składa się z sześciu liter i w bardzo zwar­ tej formie przekazuje pewną treść. Wyobraźmy sobie dwóch ludzi rozmawiających przez telefon. Jeden z nich opowiada o spacerze po ogrodzie botanicznym, w czasie którego podzi­ wiał rosnące tam paprocie. Jego rozmówca rozumie go do­ skonale. W czasie gdy słowo „paproć” jest przenoszone po drucie, bardzo złożona informacja zostaje przekazywana w niezwykle zwartej formie. Zauważmy, że „paproć” ozna2 J. Hutchinson, Fractals and self- similarity, Indiana J . Math. 30, 713-747 (1981). Pewne z idei można odnaleźć we wcześniejszej pracy R. F. Williamsa, Compositions of contractions, B o i Soc. Brasil M at. 2, 55-59 (1971). 3 M.F. Barnsley, V. Ervin, D. Hardin i J. Lancaster, Solution of an inverse problem for fractals and other sets, Proc. Nat. Acad. Sci. 83, 1975-1977 (1986); M. Berger, Encoding images through transition probabilities, Math. Comp. Model. 11, 575-577 (1988); Napisany też został artykuł przeglądowy: E. R. Vrscay, Iterated functions systems: Theory, applications and the inverse problem, Proceedings o f the N A T O Advanced Study Insitute on Fractal Geometry, lipiec 1989. Kluwer Aca­ demic Publishers, 1991; Obiecujące podejście pojawia się w nowszym artykule A. E. Jacquina, Image coding based on fractal theory of ite­ rated contractive image transformations, IE E E Trans.Signal Process., marzec 1992. 308 5. Kodowanie obrazów cza również abstrakcyjne pojęcie paproci, a nie tylko tę jedną podziwianą w ogrodzie. Do opisu tej jednej, szczególnej pa­ proci w taki sposób, by rozmówca mógł przekazać swój za­ chwyt, jedno słowo nie wystarczy. Powinniśmy zdawać sobie sprawę, że język jest bardzo abstrakcyjny. A co więcej, ist­ nieje hierarchia poziomów abstrakcji, na przykład w ciągu: drzewo, drzewo liściaste, dąb, dąb kalifornijski... Omówimy tu taj jedno z podstawowych narzeczy geome­ trii fraktalnej, tak jakby była ona językiem. Podstawowymi jej składnikami są proste przekształcenia, a słowami — pro­ ste algorytmy. Dla opisu tych przekształceń oraz związanych z nimi algorytmów wprowadziliśmy w paragrafie 1.2 schemat kopiarki wielokrotnie redukującej (KW R)4, którego będzie­ my wielokrotnie używać w tym rozdziale. 5 .1 . S c h e m a t k o p ia rk i w ie lo k r o tn ie red u k u jącej K W R = IF S Przypominijmy w skrócie główne założenia KWR, kopiarki wielokrotnie redukującej. Urządzenie to umożliwia nam opis tego, co w matematyce znane jest pod nazwą determini­ stycznego systemu iteracyjnego (deterministic iterated function system, IFS). Od tego miejsca będziemy używali obu tych określeń wymiennie; do niektórych problemów bardziej użyteczny jest abstrakcyjny schemat maszyny, do innych, bardziej formalnych — matematyczne pojęcie IFS. Przyj­ rzyjmy się ilustracjom 1.11 i 1.12, zamieszczonym w pierw­ szym rozdziale tej książki. Przedstawiona tam kopiarka ot­ rzymuje na wejściu obraz do przetworzenia. Wyposażona jest ona w kilka niezależnych systemów soczewek, z których każdy pomniejsza obraz początkowy i umieszcza go gdzieś w obrazie na wyjściu. A oto param etry kopiarki: Param etr 1: liczba systemów soczewek, Param etr 2: współczynnik pomniejszania, osobny dla każde­ go systemu soczewek, Param etr 3: ustawienie systemów soczewek przy tworzeniu obrazu na wyjściu. Podstawową zasadą jest sprzężenie zwrotne; obraz po przetworzeniu przez kopiarkę jest przetwarzany ponownie 4 Podobny schemat był używany przez Barnsleya w jego populary­ zacji systemów iteracyjnych (IFS, iterated function system s), które są matematycznym zapisem działania KWR. 5.1. Schemat K W R jako obraz wejściowy. Proces ten jest powtarzany wielo­ krotnie. Jeśli mamy do czynienia z kopiarką o jednym tylko systemie soczewek, to rezultat takiego procesu jest niezbyt ciekawy (pozostanie tylko jeden punkt, co pokazano na ry­ sunku 1.11). Ten banalny eksperyment okazuje się jednak niesłychanie ekscytujący i dający wielkie możliwości, jeśli używamy wielu systemów soczewek. Co więcej, możemy rozważać przekształcenia, które nie są zwykłym pomniejsza­ niem (to znaczy przekształcenia ogólniejsze od podobieństw). Wyobraźmy sobie, że zbudowano taką maszynę i że ktoś pragnie wykraść jej sekret — plan jej konstrukcji. Ile po­ trzeba czasu i wysiłku, aby wydobyć całą potrzebną informa­ cję? Okazuje się, że niewiele. Wystarczy, że taki szpieg użyje naszej kopiarki jeden jedyny raz i skopiuje dowolny obraz.5 Na podstawie jednokrotnego przebiegu da się odkryć geome­ tryczne reguły rządzące tym urządzeniem. Przyjrzyjmy się rezultatom, jakie otrzymamy puszczając je w ruch. Zajmijmy się KW R z trzema systemami soczewek, z któ­ K W R dla rych każdy jest ustawiony tak, by pomniejszać w skali 1/2. trójk ąta Po pomniejszeniu trzy kopie są ustawiane na planie trójkąta S ierpińskiego równobocznego. Na rysunku 5.1 pokazano wynik trzykrot­ nego kopiowania różnych obrazów początkowych. W części (a) kopiujemy koło i posługujemy się cieniowaniem, by śledzić działanie poszczególnych systemów soczewek. W części (b) użyliśmy prawdziwie „dowolnego” obrazu. Zauważmy, że już po kilku powtórzeniach kopiarka, czy raczej proces, jeśli posłużymy się bardziej abstrakcyjnym pojęciem, wytwarza obrazy coraz bardziej przypominające trójkąt Sierpińskiego. W części (c) zaczynamy od trójkąta Sierpińskiego i możemy zauważyć, że kolejne kopiowanie niczego nie zmienia. Po­ mniejszenie i nowe ułożenie kopii daje nam dokładnie obraz początkowy. Jest to oczywiście spowodowane własnością samopodobieństwa, jaką wykazuje trójkąt Sierpińskiego. Podsumujmy wyniki tego pierwszego eksperymentu. Nie­ A trak tor dla zależnie od obrazu początkowego, po wielokrotnym przetwo­ K W R rzeniu go przez KW R otrzymamy ciąg obrazów, które — jak się wydaje — dążą do tego samego obrazu końcowego. Nazywamy go atraktorem maszyny czy też procesu. Co 5 W tym cela możemy użyć prawie dowolnego obrazu. Wyjątek stanowią kształty, wykazujące pewne symetrie. Szczegóły omawiamy poniżej. 309 5. Kodowanie obrazów 310 K W R dla trójkąta S ierpińskiego • • • • m oo m o mm©o •• •• • • • • • • •••••••• druga kopia trzecia kopia O o o O (a) • obraz • pierwsza kopia (b) • • * »* * w » w*» w w »w »w 9^ 9^ obraz * * » * 9^ pierwsza kopia druga kopia pierwsza kopia druga kopia trzecia kopia (c) obraz trzecia kopia R ysunek 5.1: Trzy iteracje KWR dla trzech różnych obrazów początkowych więcej, jeśli zaczniemy kopiować ten właśnie obraz, nic się nie zmieni. Mówimy wtedy, że atraktor jest lewostronnie nie­ zmienniczy albo też stały. Do ilustracji tego pojęcia można posłużyć się porównaniem powyższego eksperymentu z eks­ perymentem fizycznym, w którym obserwujemy ruch żelaz­ nej kulki w naczyniu (rysunek 5.2, po lewej). Zobaczmy, jak kulka ta będzie się zachowywała, jeśli będziemy puszczać ją swobodnie z różnych miejsc naczynia: zawsze wyląduje na jego dnie, w punkcie spoczynku. Jeśli jednak kulka od początku leży na dnie, nic się nie zmieni — pozostanie tam gdzie była. Naczynie odpowiada naszej kopiarce. Różne położenia początkowe kulki odpowiadają różnym obrazom początko­ wym. Obserwacja drogi, jaką porusza się kulka, odpowiada wielokrotnemu kopiowaniu obrazu wyjściowego, a punkt spo­ czynku kulki odpowiada obrazowi końcowemu. To, że ruch kulki jest procesem ciągłym, podczas gdy kopiarka przetwa­ rza obraz skokowo w czasie, nie stanowi tu istotnej różnicy. Kulka w naczyniu jest modelem układu dynamicznego z dok­ ładnie jednym atraktorem . Na rysunku 5.2 po prawej stro- 5.1. Schemat K W R 311 N a c z y n ia Rysunek 5 .2 : N aczyn ia o jednym i dwóch zagłębieniach (punk­ tach przyciągających) nie przedstawiono sytuację, w której występują dwa różne atraktory. W tym przypadku ostateczne położenie zależy od punktu, z którego wystartowaliśmy. Czy KWR przypomina naczynie z jednym, czy z dwoma zagłębieniami? Jak odpowiedź na to pytanie zależy od po­ czątkowego ustawienia parametrów kopiarki? Inaczej mó­ wiąc — czy jest możliwe, że przy pewnym ustawieniu pa­ rametrów KWR ma tylko jeden atraktor, podczas gdy przy innym ma ona wiele atraktorów? Takie właśnie pytania po­ jawiają się we współczesnej matematyce. Dotyczą one pod­ stawowych problemów teorii układów dynamicznych, która umożliwia analizę chaosu deterministycznego, jak również zagadnień związanych z generowaniem fraktali. Istnieją dwa sposoby poszukiwania odpowiedzi na po­ wyższe pytanie. Jeśli dopisze nam szczęście, to może odkry­ jemy ogólną zasadę matematyczną opisującą nasz problem. Jeśli nam to się nie uda, możemy spróbować wymyślić nową teorię albo — jeśli to okaże się na razie za trudne — możemy przeprowadzić szczegółowo zaplanowane eksperymenty do­ starczające nam dodatkowych danych o problemie. Jest oczywiste, że w wielu przypadkach eksperymenty nie będą wystarczające. Czasami po prostu wiemy za mało. Jeśli dla wszystkich pozycji wyjściowych, jakich użyjemy w ekspery­ mencie, zawsze wylądujemy w tej samej końcowej pozycji, to co wtedy da się powiedzieć o „kształcie naczynia” ? Niewiele, gdyż możemy mieć do czynienia z wieloma „zagłębieniami” , a tak naprawdę mogło się zdarzyć, że początkowe pozycje nie były brane wystarczająco dowolnie. Innymi słowy odkrycie, iż nasza KWR — jak się wy­ daje — zawsze zdąża do tego samego obrazu końcowego, jest pięknym faktem eksperymentalnym, który jednak wy­ maga uzasadnienia teoretycznego. Okazuje się, że używając pewnych ogólnych zasad matematyki i wyników Felixa Haus- E k s p e ry m e n t p o trz e b u je za p le c z a te o re ty c z n e g o 312 5. Kodowanie obrazów dorffa i Stefana Banacha, możemy pokazać, iż dowolna KWR doprowadza do jednoznacznego obrazu końcowego, swojego atraktora. Ów obraz końcowy jest niezmienniczy pod działa­ niem odpowiadającej mu KWR. Dowód tego faktu zawdzię­ czamy Hutchinsonowi. Stanowi on piękny i ważny wkład do teorii fraktali. „Dowolna KW R” oznacza, że liczba oraz ustawienie systemów soczewek mogą być ustalone dowolnie. Jedyną własnością, jaką KW R musi spełniać, by rezultat Hutchinsona był prawdziwy, jest to, aby każdy system so­ czewek pomniejszał obraz początkowy. 5.2. Składanie p rostych przekształceń Konstrukcja kopiarki wielokrotnie redukującej oparta jest na zbiorze kontrakcji. Kontrakcją nazywamy przekształcenie, które zmniejsza odległość pomiędzy punktami. Rzecz jasna podobieństwa opisujące pomniejszanie za pomocą systemów soczewek są kontrakcjami. Są nimi również przekształcenia, których współczynniki redukcji są różne w różnych kierun­ kach. Na przykład przekształcenie, dla którego jeden współ­ czynnik redukcji (w kierunku poziomym) wynosi powiedzmy P rzek szta łcen ia d op u szczaln e R ysunek 5.3: Dla naszej KWR dopuszczalne są przekształcenia złożone z: pomniejszania, pochylania, odbicia symetrycznego, obrotu i przesunięcia (nie pokazane) óió b.2. Składanie prostych przekształceń 1/3, podczas gdy drugi (w kierunku pionowym) wynosi po­ wiedzmy 1/2, jest też kontrakcją (zob. na przykład diabel­ skie schody z paragrafu 4.5). Zauważmy, ze przekształcenia podobieństwa nie zmieniają kątów (tzn. są przekształceniami konforemnymi — przyp. tłum.), podczas gdy kontrakcje w ogólności mogą je zmieniać. Możemy również rozpatrywać przekształcenia podobień- P rz e k s z ta łc e n ia stwa złożone z pochylaniem i/lub obrotem, i/lub odbiciem, d la K W R Na rysunku 5.3 pokane są niektóre dopuszczalne „systemy soczewek” dla naszej KWR. W języku matematyki przek­ ształcenia takie nazywają się przekształceniami afinicznymi płaszczyzny. System y soczewek dla naszej K W R m ożna opisać za p om o cą przekształceń afinicznych płaszczyzny. Na płaszczyźnie ustalam y układ współrzędnych, oś x (o d cię ty ch ) i oś y (rzę d n y ch ). W tym układzie współrzędnych każdem u punktow i P odp ow iad a para liczb (x,y), co zapisujem y ja k o P = (x,y). D zięki ta k ie m u przedstaw ieniu m ożem y punkty dodaw ać, ja k rów nież m nożyć je przez liczby rzeczyw iste (p u n kty tra k tu je m y ja k o w ektory zaczepione w p o c zą tk u układu współrzędnych — przyp. tłum.). Jeżeli Pi = ( £ 1, 3/ 1), a Ą = Przekształcenia afiniczne ( £ 2, 2/ 2), to Pi + Pi = (£1 + £ 2 , 2/1 + 2/2 ) oraz sP = {sx,sy). Przekształceniem liniowym nazyw am y ta k ie przekształcenie F , które każdem u punktow i płaszczyzny P przyporządkow uje p u n kt F(P) w taki sposób, że Sum a i mnożenie przez skalar Rysunek 5.4: (Po lewej) Dodawanie dwóch punktów: (xi,2/i) + (£2 , 2/2 ) = (£1 + £ 2 , 2/1 + 2/2 )* (Po prawej) Mnożenie punktu przez skalar: s(x,y) — (sx,sy) 314 5. Kodowanie obrazów F (P 1 + P 2) = F (P 1) + F(P 2) dla dow olnych p u n k tó w P i i P% oraz F(sP) = sF(P ) dla dow olnej liczby rzeczyw istej s i dow olnego pu n ktu P Przekształcenie liniow e płaszczyzny m ożna przedstaw ić w danym układzie współrzędnych za po m o cą m acierzy przy czym je że li P = (x,y) oraz F(P) = (u, u), to u = ax + by, v = cx + dy. O zn ac za to , że przekształcenie liniowe je s t w yznaczone za pom ocą czterech w spółrzędnych a , 6, c oraz d. Istnieją te ż inne reprezenta­ cje przekształceń liniow ych, bardziej przyd atn e do an alizy kontrakcji. W ty m celu zap iszm y wyrazy m acierzy ja k o / rcoscf) r sin <f) —ssimft \ s cos J * P rzed staw ien ie ta k ie je s t zaw sze m ożliw e. W y s ta rc zy położyć r = y/ a2 + c2 oraz ó = arccos . —- :, y/a2 + c2 aby o trz y m a ć r i <(>, W p o d obny sposób m ożna przedstaw ić s i Przy ta k im przedstaw ieniu ła tw ie j nam je s t analizow ać jedn okładności, ob­ roty i o db icia. R o zw ażm y następujące przypadki: • s = r , O < r < l i 0 = ^ w yzn acza przekształcenie, które pom n iej­ sza r -k r o tn ie i jed n o cześn ie obraca o k ą t <p przeciw nie do ruchu w skazów ek zegara (jeżeli < f>= 0 , to przekształcenie je s t po prostu je d n o k ła d n o ś c ią ). • s = r, 0 < r < 1, < f> = tt \ ip — 0 w yzn acza przekształcenie, któ re pom niejsza r- kro tn ie oraz jedn ocześnie o d b ija sym etrycznie w zględem osi y . • r — a i s — 6, 0 < a < 1, 0 < 6 < 1 oraz *ip = 0 — 0 w yznacza przekształcenie, k tó re pom niejsza a razy w kierunku osi ¿c i 6 razy w kierunku osi y. O .ć . O A lć lU ć tlilC p r u s c y LII p i Z L A S Z L ć i l L L I l o± o • r — s > O oraz < j>= definiuje podobieństw o dane przez o brót o kąt ^ i jednokładność o skali r . są to przekształcenia liniowe złożone z translacjam i. Innym i słowy, jeśli F je s t przekształceniem liniow ym , a Q punktem , to przekształcenie w ( P ) ~ F ( P ) + Q, gdzie P je s t dow olnym pun ktem płaszczyzny, je s t przekształceniem afinicznym . Przekształcenia te p o zw alają nam opisać ko ntrakcje oraz um ieszcza­ nie obrazu w w ybranym miejscu płaszczyzny (to zn aczy przesunięcie o Q ). Poniew aż F je s t w yznaczone przez m acierz, a Q przez parę współrzędnych, pow iedzm y ( e , / ) , przekształcenie afiniczne je s t w y­ znaczone przez sześć liczb P r z e k s z ta łc e n ia a fin ic z n e e \ ( a b \ c Jeśli P = d (x, y) u = ax v f = cx ) ' i w(P) = (u, u), + by + e, + dy + /. to M ożna to te ż przedstaw ić w postaci, której będziem y czasam i używ ać w dalszej części: w (x , y) = (ax + by + e , c x + d y + /). Przekształcenie afiniczne Rysunek 5.5: Przekształcenie afiniczne, wyznaczone przez sześć liczb a, 6, c, d, e i / , w działaniu na dwa punkty: Pi = (1,0) i Ą - (0,1) W analizie iteracyjnego system u funkcji bardzo w ażne je s t bada­ nie obiektów , które są lew ostronnie niezm iennicze pod je g o działan iem . Teraz, gdy dysponujem y przekształceniem afinicznym w , m ożem y po­ szukiwać pun któw , któ re są lew ostronnie niezm iennicze ze względu na w . Jest to zadanie zw ią za n e z rozw iązyw aniem układu rów nań 316 5. Kodowanie obrazów liniow ych. Rzeczyw iście, rów nanie układ dw óch rów nań liniow ych w(P) = P m ożem y zapisać jak o x — ax + by + e, y = cx + dy + f. R o zw iąza n ie teg o układu istnieje i je s t jed n o zn aczn e, gdy w yznacznik (a — l ) ( d —1) —bc^= 0. P u n k t P = (xyy) n azyw am y p u n ktem stałym dla w. Jego w spółrzędne w y ra ża ją się następująco: -e (d -l)+ 6 / (o —l)(d —1) —6c’ X _ ^ - / ( a - 1) + ce (a —l)(d —1) —bc' K rok pierw szy: Zwykle już pierwsze zastosowanie KW R do danego obra­ plan konstrukcji zu wyjawi nam jej wewnętrzne afiniczne kontrakcje. Możemy K W R je nazwać planem konstrukcji kopiarki. Zauważmy, że mu­ simy uważać przy wyborze tego pierwszego obrazu — powi­ nien on być wystarczająco skomplikowany, aby jednoznacz­ nie wyznaczył przekształcenia. Mogłoby się bowiem zda­ rzyć, że moglibyśmy nie wykryć niektórych obrotów i odbić lustrzanych. Na rysunku 5.6 przedstawiono sytuacje, które mogą nas zmylić. Pierwsze dwie figury w oczywisty sposób nie nadają się do wykrywania planów konstrukcji kopiarki. W tym rozdziale do tego celu używamy zazwyczaj kwadratu jednostkowego [0,1] x [0,1] z literą „L” wpisaną w lewym górnym rogu. Systemy soczewek dla KW R są opisane za pomocą zbioru przekształceń afinicznych wi, W2 -,..., u j . Dla danego obrazu początkowego A najpierw otrzymujemy pomniejszone afinicznie egzemplarze W2 (A ) , ..., w n(A ). Następnie ko­ piarka składa te kopie razem, by wytworzyć obraz końcowy W (A) : W (A) = u)i(A) U u)2(A) U ... U w n (A). W jest nazywane operatorem Hutchinsona. Wielokrotne S y stem y iteracyjn e (IF S ) przekształcanie za pomocą KW R odpowiada pętli sprzężenia zwrotnego, co z kolei prowadzi do iterowania operatora W. Stanowi to sedno deterministycznego systemu iteracyjnego (IFS). Wychodząc od pewnego początkowego obrazu A$, 5.2. Składanie prostych przekształceń ó l( obrót i obrót, odbicie i zmniejszenie zmniejszenie O dkryw anie planu konstrukcji P Rysunek 5.6: Obrazy w pierwszych dwóch rzędach nie pozwalają na dokładne określenie przekształceń otrzymujemy kolejno A \ = W ( A q), A<i = W ( A \ ) i tak dalej. Rysunki 5.7 oraz 5.8 ilustrują tę konstrukcję. Pokazana jest na nich KWR jako system sprzężenia zwrotnego oraz plan konstrukcji kopiarki dla trójkąta Sierpińskiego, składającej się z trzech przekształceń. Rysunek 5.7: Działanie KWR jako pętli sprzężenia zwrotnego Niech wy , . .. , wn będą ko n trakcjam i płaszczyzny (d o kła d n a a naliza kontrakcji przeprow adzona będzie w dalszej części). Z d e fin u jm y teraz nowe przekształcenie — o p erato r H utchinsona — w sposób i o p erato r H utchinsona IF S 318 5. K o d o w a n ie o b ra zó w P ierw szy plan konstrukcji KWR R ysunek 5.8: Plan konstrukcji dla KWR z wykorzystaniem kwadratu jednostkowego z naniesioną literą „L” w górnym lewym rogu obrazu wyjściowego. Obraz początkowy pokazany jest w celu określenia wzajemnego położenia obrazów końcowych następujący: niech A będzie dow olnym podzbiorem płaszczyzny.6 M o ż e m y m yśleć o A ja k o o pew n ym obrazie. Przekształcenie zbioru A polega na zastosow aniu N kontrakcji i um ieszczeniu uzyskanych ko­ pii w odp ow ied nich m iejscach. Form alnie przekształcenie to m ożem y opisać następująco: W(A) = wi(A) U W2 (A) U ... U (5.1) O p e ra to r H utch in so n a pozw ala opisać działanie K W R w postaci ukła­ du dynam icznego: o d p o w iad ając eg o je j system u iteracyjnego. Niech A q będzie zbiorem (o b ra ze m ) p o c zą tk o w y m . P rzez w ielo kro tn e sto­ sowanie te g o sam ego przekształcenia W o trzy m u je m y ciąg zbiorów 4fc+ i = W ( A k ) , k = 0 ,1 ,2 ,... W ten sposób IFS w y tw a rza ciąg obrazów , dążący w granicy do obrazu końcowego Aoo nazyw anego a tra k to re m danego IFS (czy od­ p o w iad ającej m u K W R ). Jest on lew ostronnie niezm ienniczy pod dzia łan iem IFS. O zn ac za to , że W (A 00) = A 00. M ó w im y , że A oo je s t p u n k te m stałym przekształcenia W. W ja k i sposób w y ra zić to , że An dąży do A oo? Jak sprecyzować pojęcie 6 Formalnie dopuszczamy dowolny zwarty podzbiór płaszczyzny A Zwartość oznacza, że A jest domknięty i że A zawiera wszystkie swoje punkty graniczne, czyli że dla każdego ciągu elementów A wszystkie jego punkty skupienia należą do A. Otwarte koło jednostkowe, złożone z punktów płaszczyzny leżących w odległości mniejszej niż 1 od po­ czątku układu współrzędnych, nie jest zbiorem zwartym. Jednak do­ mknięte koło jednostkowe, złożone z punktów, których odległość od początku układu nie przekracza 1, jest zbiorem zwartym. 5.2. Składanie prostych przekształceń kontrakcji? Czy Aoo je s t jed y n y m a tra k to re m dla W ? O dp ow iedzi na te pytania znajdą się w dalszej części tego rozdziału. Co się stanie, jeśli zmienimy przekształcenia, czyli jeśli zmienimy param etry kopiarki (to znaczy liczbę soczewek albo ich współczynniki redukcji, lub też jeśli kopie rozmieści­ my w inny sposób)? Na rysunkach przedstawiliśmy rezultaty działania IFS przy różnych ustawieniach parametrów. Plan konstrukcji jest przedstawiony osobno: linią przerywaną za­ znaczony jest obraz początkowy, a linią ciągłą wielokąty od­ powiadające poszczególnym kontrakcjom. W tabeli 5.2 znajdują się param etry odpowiadających im przekształceń afinicznych. Można ich użyć w programie na zakończenie tego rozdziału do reprodukcji przedstawionych tutaj figur. Naszym pierwszym przykładem jest niewielka modyfi­ kacja IFS generującego trójkąt Sierpińskiego (rysunek 5.9). Składa się ona z trzech przekształceń pomniejszających w skali 1/2 i umieszczających kopie w sposób pokazany na schemacie. O dm iana trójk ąta Sierpińskiego Rysunek 5.9: System iteracyjny o trzech przekształceniach podo­ bieństwa; współczynnik zmniejszania wynosi 1/2 Wydawałoby się, że wszystkie IFS, składające się z trzech przekształceń pomniejszających w skali 1/2, wytworzą coś podobnego do trójkąta Sierpińskiego. Jest to jednak dalekie od prawdy. Na rysunku 5.10 pokazano przykład działania IFS, który różni się od wyjściowego tylko dodatkowymi obro­ tami. Dolne prawe przekształcenie obraca kopię o 90 stopni w kierunku zgodnym z ruchem wskazówek zegara, podczas 320 5. Kodowanie obrazów gdy dolne lewe obraca kopię też o 90 stopni, ale w przeciw­ nym kierunku. W rezultacie otrzymujemy obiekt zdecydo­ wanie różny od trójkata Sierpińskiego, nazywany bliźniaczą choinką. B liźn iacza choinka Ł CF3 c=£] Rysunek 5.10: Inny system iteracyjny, również złożony z trzech przekształceń podobieństwa o skali 1/2 Sm ok o potrójnej sym etrii R ysunek 5.11: Białą linię narysowano jedynie w celu pokazania, w jaki sposób figurę tę można rozbić na trzy części podobne do całości Będziemy teraz zmieniać również współczynniki redukcji przekształceń. Na rysunku 5.11 dla wszystkich trzech prze­ kształceń wybraliśmy współczynnik 5 = 1/ \/3. Dodaliśmy ponadto obrót o 90 stopni zgodnie z ruchem wskazówek ze­ gara. W wyniku otrzymaliśmy dwuwymiarowy obiekt z fraktalnym brzegiem, pewnego rodzaju smoka z trzema osiami symetrii. Jest on niezmienniczy przy obrotach o 120 stopni. 321 5.2. Składanie prostych przekształceń Mogłoby być dobrym ćwiczeniem znalezienie wymiaru samopodobieństwa tego atraktora przy użyciu technik z po­ przedniego rozdziału. Labirynt C antora Rysunek 5.12: System iteracyjny o trzech przekształceniach, z których tylko jedno jest podobieństw em . A traktor jest zw iązany ze zbiorem Cantora Jak dotychczas, korzystaliśmy tylko z przekształceń bę­ dących podobieństwami. Na rysunku 5.12 tylko jedno z prze­ kształceń jest podobieństwem (ze współczynnikiem redukcji 1/3), natomiast drugie jest obrotem złożonym z trzykrot­ nym pomniejszaniem w kierunku poziomym, a w trzecim występuje dodatkowo odbicie. W rezultacie otrzymujemy rodzaj labiryntu, co uzasadnia wprowadzenie nazwy labirynt Cantora. Zbiór Cantora jest wpleciony w każdy szczegół tej konstrukcji. Wszystkie punkty iloczynu kartezjańskiego dwóch zbiorów Cantora są tu taj w pewien systematyczny sposób połączone. Ostatni przykład IFS o trzech przekształceniach przed­ stawiono na rysunku 5.13. Przekształcenia m ają różne współ­ czynniki pomniejszania w kierunkach poziomym i pionowym, dwa używają obrotów, a jedno nawet pochylania. Wynik wydaje się znajomy: zgrabna gałązka. Przyjrzyjmy się teraz dwóm przykładom przekształceń o więcej niż trzech kontrakcjach (rysunki 5.14 i 5.15). We wszystkich rozważanych przekształceniach występują jedy­ nie podobieństwa i translacje. Jedno z przekształceń na ry­ sunku 5.14 składa się również z obrotu. Jednak już te zadzi­ wiająco proste konstrukcje tworzą złożone i piękne struktury przypominające swym kształtem kryształki lodu. Na koniec zamknijmy naszą małą galerię zaskakująco rea- 322 5. Kodowanie obrazów IFS dla gałązki R ysunek 5.13: IFS o trzech przekształceniach afinicznych (bez podobieństw) K ryształek o czterech prze­ k ształcen iach K ryształek o pięciu p rze­ k ształcen iach R ysunek 5.15: IFS o pięciu przekształceniach podobieństwa. Zwróćmy uwagę na krzywe Kocha widoczne w atraktorze 5.2. Składanie prostych przekształceń 323 Rysunek 5.16: A traktor dla K W R o pięciu przekształceniach m oże przypom inać naw et drzewo (atraktor jest pow iększony dw u­ krotnie w stosunku do wielkości planu konstrukcji) Trójkąt, kw adrat i koło Rysunek 5.17: pom ocą IFS Sposób kodow ania trójkąta, kw adratu i koła za 324 5. Kodowanie obrazów listycznym rysunkiem drzewa. Czy możecie sobie wyobrazić, że nawet ten obraz jest atraktorem prostego IFS? Jest on za­ kodowany przez pięć tylko przekształceń afinicznych. W tym przypadku jedynie jedno z nich jest podobieństwem. Ten re­ zultat w sposób bardzo przekonujący pokazuje przydatność IFS do rysowania fraktalnych obrazków. G eom etria fraktalna jest rozszerzen iem klasycznej geom etrii Co jest obrazem końcowym (atraktorem) dowolnie za­ projektowanej KW R? Czy jest to zawsze fraktal? Z pewnoś­ cią nie. Wiele obiektów klasycznej geometrii można również otrzymać jako atraktory IFS. Często jednak ten sposób re­ prezentacji nie wnosi wiele nowego ani nie jest prostszy od klasycznej definicji. Na rysunku 5.17 pokazujemy, jak można otrzymać kwadrat i trójkąt jako atraktory dla pewnych IFS. Jednak już reprezentacja koła przy użyciu IFS pozostawia wiele do życzenia. Możliwe są jedynie jego przybliżenia. 5 .3 . IF S i k la s y c z n e fra k ta le Przy użyciu IFS konstrukcja klasycznych fraktali staje się bardziej przejrzysta. Można je otrzymać jako atrak­ tory odpowiednich systemów iteracyjnych. Oznacza to też, że problem ich istnienia, który omawialiśmy w rozdziale 3 (przeprowadziliśmy szczegółową dyskusję dla krzywej Ko­ cha), można obecnie ostatecznie rozwiązać pokazując, że dla danego IFS istnieje jednoznaczny atraktor. Zrobimy to w tym rozdziale. Dodatkową zaletą systemów iteracyjnych jest to, że pozwalają one na lepsze zrozumienie teorioliczbowego opisu niektórych klasycznych fraktali, takich jak zbiór Cantora, czy trójkąt Sierpińskiego. Zbiór C antora Pamiętacie zapewne charakterystykę zbioru Cantora za pomocą systemu trójkowego. Jest on zbiorem punktów z przedziału jednostkowego, których rozwinięcie trójkowe nie zawiera cyfry 1 (zob. rozdział 2). Przyjrzyjmy się teraz IFS o trzech przekształceniach: , N 1 «>o(a0 = 3^> / X 1 wn x ) " 3 X+ 1 3 , ’ X 1 W2(x >= 3 X + 2 3 ’ Zauważmy, że ten system używa tylko jednej zmiennej (to znaczy działa na odcinku, a nie na płaszczyźnie). Rysunek 5.18 pokazuje pierwsze kroki jego iterowania (przy użyciu przedziału jednostkowego jako obrazu począt­ kowego). A traktorem tej kopiarki jest oczywiście odcinek d.ó . ozo ir s i Klasyczne iraKiaie krok 0 kroki w2W krok 2 i---------- i............. i---------- f............. i............. \..............i---------- k..............i----------- 1 w0(w0(/)) W^W^J)) w0(w2(D) Wj(w0(/)) W jiW ji/)) W ^w^l)) w2{w0{I)) w2(H'2(/>) Rysunek 5 .1 8 : Pierw sze kroki iterow ania trójkowego IFS. Jeżeli w ykluczym y u ą , to atraktorem będzie zbiór Cantora jednostkowy (jest on po prostu cały czas przekształcany z po­ wrotem na siebie). Cóż jednak się stanie, jeśli użyjemy tylko dwóch przekształceń: w q i W ydaje się jasne, że w tym przypadku atraktorem będzie zbiór Cantora (iteracje będą odpowiadały krokom w jego klasycznej konstrukcji; kolejno odrzucane będą środkowe części trzecie). Zauważmy, że w\ przekształca odcinek jednostkowy na odcinek [1/3, 2/3], to znaczy na punkty, których rozwinięcie trójkowe przebiega od 0,1 do 0,1222 . .. — 0,12. Oznacza to, że kiedykolwiek użyjemy w\ przy iterowaniu naszego IFS, otrzymamy punkt, którego rozwinięcie trójkowe zawiera cy­ frę 1. Inaczej mówiąc, opuszczanie wszystkiego, co pochodzi od wi, doprowadza do trójkowego opisu zbioru Cantora. Zajmijmy się teraz trójkątem Sierpińskiego (czy też ra- T ró jk ą t czej jego odmianą pokazaną na rysunku 5.9). Rozważamy S ie rp iń sk ie g o IFS, który składa się z czterech podobieństw, przekształca­ jących kwadrat jednostkowy Q na jego cztery przystające ćwiartki (zob. rysunek 5.19). Dla wygody oznaczmy te przekształcenia w postaci dwój­ kowej (to znaczy 00, 01, 10 i 11 zamiast 0, 1, 2, 3) : wm{x,y) = ( \ x , \ y ) , mo{x,y) = {\x + w0i(x ,y ) = ( \ x , \ y + ±), \y), w u (x,y) = { \ x + \ y + \). Połączenie tych czterech podobieństw w jeden IFS da nam jako atraktor kwadrat jednostkowy. Rysunek 5.20 pokazuje pierwszą iterację tego systemu. Zauważmy, że używamy binarnych współrzędnych do oznaczania mniejszych kwad­ ratów, generowanych w każdym kroku. W każdym kroku nasz IFS powiększa czterokrotnie liczbę małych kwadratów. 326 5. Kodowanie obrazów C ztery kontrakcje R ysunek 5.19: Kontrakcje przekształcające kwadrat jednost­ kowy na cztery przystające mniejsze kwadraty P ierw sze kroki W01 0 w oo 11 w w w 10 w w ,V 01 Kb ( K l > w oo( V W11 M'oo> V W10) w W10 00 o w wJ 00 w łV 01 10 11 R ysunek 5.20: Pierwsze dwa kroki IFS. Zauważmy, że ma­ łe kwadraciki można oznaczać za pomocą dwójkowego układu współrzędnych Dwójkowy układ współrzędnych jest bardzo wygodny do pro­ wadzenia ich rejestru. Zobaczmy na przykład, co się dzieje w pierwszym kroku. Przekształcenie u/oi przekształca kwadrat jednostkowy Q na mniejszy kwadrat u>oi (Q ) o współrzędnych (0,1), w n (Q) jest mniejszym kwadratem o współrzędnych (1,1) i tak dalej. W drugim kroku możemy odszukać na przykład kwadrat (10,11), którym jest w h ( w q i ( Q ) ) ( c o oznacza, że najpierw stosujemy do Q przekształcenie woi, a następnie w\\ do otrzymanego obrazu). Rozważmy następny przykład: ^ 10 ( ^ 0 0 (^ 11 (Q))) da nam w rezultacie kwadracik z trze- o.o. i r o i Klasyczne iraKiaw ciego kroku, (101,001). Czy już widać, w jaki sposób ozna­ czamy małe kwadraciki? Jeżeli składaliśmy przekształcenia wio(«>oo(wii(Q))), bierzemy pierwsze cyfry oznaczające przekształcenia i ustawiamy je od lewej do prawej, co daje 101. Otrzymujemy w ten sposób dwójkową współrzędną x otrzymanego kwadracika. Następnie bierzemy drugie cyfry z oznaczeń przekształceń i ustawiamy je również od lewej do prawej. Otrzymujemy 001, co daje nam współrzędną y. Wiemy już, że atraktor IFS, składającego się z prze­ kształceń wqo, wq\ oraz w \ q, jest trójkątem Sierpińskiego. Można to również opisać następująco: jeśli w kwadracie jednostkowym opuścimy wszystko, co pochodzi od w \ \ , to również otrzymamy trójkąt Sierpińskiego. Teraz widzimy, że opłacało się wprowadzić kodowanie dwójkowe. Dla dowol­ nego kroku k mamy małych kwadracików, które możemy oznaczać za pomocą dwójkowych współrzędnych (każda ma k cyfr). Jak możemy sprawdzić, czy w wytworzeniu ja­ kiegoś kwadracika za pomocą IFS było użyte przekształcenie ^ n ? Weźmy obie współrzędne wyznaczające dany kwa­ dracik i ustawmy je jedną nad drugą. Na przykład dla (100111, 010000) oraz (100111, 001100) otrzymujemy 100111 010000 NIE 100111 001100 TAK Jeżeli odnajdziemy cyfrę 1 na tej samej pozycji w obu współ­ rzędnych, oznaczać to będzie, że w\i było używane, w prze­ ciwnym razie nie było. Dlatego też omijanie tego typu kwa­ dracików w każdym kroku iteracji pozwoli nam otrzymać trójkąt Sierpińskiego z kwadratu jednostkowego.7 Opis ten jest utrzymany w tym samym duchu co trójkowy opis zbioru Cantora. Co więcej, zauważmy, że właśnie stworzyliśmy na­ rzędzie do analizy geometrycznych wzorów pojawiających się w trójkącie Pascala. Nasze kryterium pomijania odpo­ wiada dokładnie teorioliczbowemu kryterium Kummera dla parzystych współczynników dwumianu Newtona, którego używaliśmy w programie na zakończenie rozdziału 2. W rozdziale 9 poświęcimy więcej miejsca temu intrygującemu związkowi. 7 To tłumaczy dwójkową reprezentację trójkąta Sierpińskiego, której używaliśmy w rozdziale 3, s. 236, przy omawianiu samopodobieństwa. oz t 328 5. Kodowanie obrazów D yw an Dywan Sierpińskiego ma bardzo podobny opis teorioS ie rp iń sk ie g o liczbowy. Zacznijmy po prostu od kwadratu jednostkowego i podzielmy go na dziewięć przystających kwadracików. Ja­ ko odpowiedniego IFS użyjemy przekształceń przeprowadza­ jących kwadrat jednostkowy na te kwadraciki, tak jak poka­ zano na rysunku 5.21 (znowu nie dopuszczamy obrotów czy lustrzanych odbić). D ziew ięć k o n tra k c ji W02 wn W22 woi WH " ii "oo % W20 0 1 2 R ysunek 5.21: Kontrakcje przekształcają kwadrat jednost­ kowy na dziewięć przystających mniejszych kwadratów, które można w sposób wygodny opisać przy użyciu trójkowego układu współrzędnych Tym razem oznaczamy przekształcenia przy użyciu liczb trójkowych, tzn. u/oo, woi, Wo2> w io,..., W22- Zgodnie z tą konwencją każdy kwadracik w A;-tym kroku jest oznaczany za pomocą pary trójkowych współrzędnych (mających k cyfr). Przechodząc do granicy, każdy punkt kwadratu jednostko­ wego można opisać za pomocą pary nieskończonych ciągów trójkowych, jak na przykład ( 011201 ..., 210201 ...). Aby otrzymać dywan Sierpińskiego, wykluczamy wszystko, co pochodzi od przekształcenia w n . Oznacza to, że zostają tylko te punkty z kw adratu jednostkowego, które spełniają następujące warunki: w przedstawieniu punktu za pomocą pary współrzędnych trójkowych nie pojawia sie cyfra 1, albo jeśli na jednej ze współrzędnych pojawia się cyfra 1, to w tym samym miejscu na drugiej współrzędnej nie ma jedynki. Na przykład zatrzymujemy punkt o współrzędnych (110, 001). Również punkt (2012, 1010) należy do dywanu, ponieważ £>,3. i t s i klasyczne iraktale punkt ten można również zapisać jako (2020, 1010). Wy­ rzucamy zaś punkty takie jak (2010, 1010). Zauważmy, że przy tym opisie dywan Sierpińskiego jest w pewnym sensie logicznym rozszerzeniem zbioru Cantora na płaszczyznę. W książce tej przedstawiliśmy galerię klasycznych fraktali. Do galerii tej przez długi czas nic naprawdę nowego nie przybyło. Dopiero niedawno B. Mandelbrot otworzył sze­ roko drzwi do wielu nowych sal w tej galerii i dodał kilka nie starzejących się arcydzieł — jak na przykład zbiór Mandelbrota. Zostały również skonstruowane, czy też odkryte, dwie nowe struktury, które stanowiły stymulację dla współczes­ nych prac badawczych. Pierwsza z nich to dziwny atraktor, odkryty w roku 1962 przez E. Lorenza, pracującego w MIT, a druga to paprotka Bamsleya. Zbiór Mandelbrota, atrak­ tor Lorenza i paprotka Barnsleya każde otworzyły nowe, od­ dzielne działy w galerii matematycznych dziwolągów. Wśród nich paprotka Barnsleya jest najbliższa tematyki tego roz­ działu. Barnsley zakodował obraz, przedstawiony na rysunku 5.23, za pomocą czterech tylko systemów soczewek. Na ry­ sunku 5.22 pokazano plan konstrukcji odpowiadającej mu KWR, Jako obrazu początkowego użyliśmy prostokąta. Za­ uważmy, że kontrakcja numer 3 zawiera również lustrzane odbicie. Kontrakcja numer 4 nie jest podobieństwem: prze­ prowadza prostokąt na odcinek. A traktor tej KW R nie będzie w ściśle matematycznym znaczeniu samopodobny. ó 'l\) 5. Kodowanie obrazów 330 Paprotka B arn sleya R ysunek 5.23: Paprotka Barnsleya jest generowana za pomocą KWR o czterech soczewkach Oryginalne przekształcenia Barnsleya podajemy w tabeli 5.18 jak również, przy użyciu nieco innych oznaczeń, w tabeli 5.2. Wpływ odkrycia Barnsleya na rozwój geometrii fraktalnej polegał na tym, że potrafił on stworzyć bardzo reali­ stycznie wyglądającą paprotkę, która jednak należy do tej 8 M. F. Barnsley, Fractal Modeling of Real World Images,w: The Science o f Fractal Im ages, H.-O. Peitgen i D. Saupe (red.), SpringerVerlag, New York 1988, s. 241. 5.3. 1F$ 1 klasyczne fraktale 1 2 3 4 Translacje e / 0,0 T6 0,0 1,6 0,0 0,44 0,0 0,0 551 O broty 0 -2 ,5 49 120 0 <t> -2 ,5 49 -5 0 0 Zm niejszanie r s 0,85 0,85 0,34 0,3 0,3 0,37 0,0 0,16 P rzek ształcen ia dla paprotki B arnsleya T a b e la 5 .1 : P rzekształcenia dla paprotki Barnsleya. K ąty są podane w stopniach P rzek ształcen ie krzyw ej K ocha na paprotkę R y s u n e k 5 .2 4 : W ychodząc od param etrów dla krzywej K ocha, przechodzim y w sp osób ciągły do tych dla paprotki, przeprowa­ dzając tym sam ym jeden fraktal w drugi samej kategorii co trójkąt Sierpińskiego, krzywa Kocha czy zbiór Cantora. Oznacza to, że kategoria ta zawiera nie tylko matematyczne dziwolągi, które wydają się dalekie od na­ tury. Dopuszcza ona też takie struktury, które są pokrewne kształtom, występującym w naturze. Możemy je otrzymać przez niewielką modyfikację konstrukcji „matematycznych potworków”. W pewnym sensie kopiarka generująca pa­ protkę powstaje przez „potrząśnięcie” KWR dla krzywej Kocha. W rezultacie systemy soczewek zmieniają zarówno swoje położenia, jak również współczynniki redukcji (zob. rysunek 5.24). Zajmiemy się obecnie innym aspektem pojęcia KWR. Przesłanie związane z przedstawieniem paproci jest bardzo 332 5. Kodowanie obrazów sugestywne. Obraz paproci jest niesłychanie złożony i skom­ plikowany oraz — jak się wydaje — zawiera wiele informacji. Jednakże, co wynika z rysunku 5.22, ilość informacji w nim zawarta jest z punktu widzenia IFS niewielka. Dzięki tej ob­ serwacji nasuwa się pomysł, by użyć IFS jako narzędzia do kodowania obrazu i jego kompresji. 5 .4 . K o d o w a n ie o b r a z u p r z y u ż y c iu s y s te m ó w ite r a c y jn y c h Każdy z obrazów w naszej galerii otrzymano przy użyciu bardzo prostego urządzenia, którego plan budowy możemy odtworzyć już po pierwszej iteracji. Ile różnych obrazów możemy wyprodukować w ten sposób? Odpowiedź jest oczy­ wista — nieskończenie wiele. Każda liczba i wybór socze­ wek oraz sposób ich rozmieszczenia definiują nowy obraz. Możemy więc myśleć o planie budowy KW R (to znaczy o zbiorze przekształceń, które opisują IFS) jako o planie konstrukcji (czy też kodowania) danego obrazu. Rysunek 5.25 ilustruje tę interpretację przy użyciu stuktury przypo­ minającej gałązkę. A oto te przekształcenia: 1 2 3 K odow an ie obrazu p rzy d u żym w sp ółczyn n ik u kom presji a -0,467 0,387 0,441 b 0,02 0,43 -0,091 c 0,113 0,43 -0,009 d 0,015 -0,387 -0,322 e 0,4 0,256 0,421 f 0,4 0,522 0,505 Powyższy przykład ma bardzo duży współczynnik kom­ presji, Załóżmy, że posiadany obraz jest dany jako macierz n x m, składająca się z czarnych i białych pikseli (punktów na ekranie komputera). Oznacza to, że do reprezentacji tego obrazu bez żadnego kodowania potrzebujemy n x m bitów informacji. Plan konstrukcji gałązki przewiduje trzy systemy soczewek, z których każdy jest opisany za pomocą sześciu liczb rzeczywistych. Liczba rzeczywista jest repre­ zentowana w komputerze przez s bitów (zwykle s = 32). A zatem plan konstrukcji gałązki zużywa tylko 18s bitów. Współczynnikiem kompresji obrazu będzie więc nm/18s. Za­ łóżmy, że n = m — 1000 oraz s = 32. Otrzymamy więc stosunkowo duży współczynnik kompresji, rzędu 1700. 5A. Kodowanie obrazu przy użyciu IFS P lan konstrukcji gałązki Rysunek 5.25: Plan konstrukcji gałązki: kodowanie za pomocą trzech przekształceń Pozornie złożoną konstrukcję gałązki przedstawiono w bardzo prosty sposób. Widzimy więc, że pewne skompli­ kowane struktury są w rzeczywistości bardzo proste, jeżeli rozpatrzymy je z punktu widzenia KWR. Ta niezwykła kon­ kluzja może doprowadzić do obalenia wielu podstawowych zasad w dziedzinie kompresji obrazu i percepcji wzrokowej. Tak na przykład pewne szkoły opisują funkcjonowanie ludz­ kiego mózgu podczas percepcji wzrokowej przez porównanie go do działania komputerów i algorytmów opisujących dzia­ łanie komputera. Istnieją modele, które próbują wyjaśniać, w jaki sposób człowiek rozróżnia obiekty, takie jak trójkąt równoboczny i nierównoboczny. W tym kontekście musimy przyznać, że mózg ma niesłychaną moc obliczeniową, po­ nieważ potrafi w ułamku sekundy rozróżniać obiekty tak złożone jak dąb i brzoza. Nasza analiza obrazów i ich planów konstrukcji za pomocą KWR pozwala nam na uwagę, że być może dąb jest skomplikowanym obiektem tylko z punktu wi­ dzenia klasycznej geometrii. Wydaje się, że ogólne pojęcie dębu ma bardzo zwarty odpowiednik w mózgu człowieka. Geometria fraktalna oferuje nowy i dający wiele możliwości sposób opisu dla problemów kodowania obrazów. Możemy więc rozważać możliwość, że nasz mózg używa sposobów ko­ dowania podobnych do tych, jakich używamy do opisu fraktali. Podsumujmy, czego dowiedzieliśmy się do tej pory. W pro­ wadziliśmy pewnego rodzaju urządzenie, które nazwaliśmy KWR (kopiarką wielokrotnie redukującą), a które jest w isto­ cie układem systemów soczewek, pomniejszających obraz wyjściowy. Nasza KW R generuje układ dynamiczny, który N ow y sp osób sp ojrzen ia na p ercep cję obrazów 334 5. Kodowanie obrazów z kolei nazwaliśmy IFS. Oznacza to, że jeśli nasze urządzenie będzie działało w pętli sprzężenia zwrotnego, to otrzymamy ciąg obrazów Aq, A \, A 2 , ..., gdzie Ao jest dowolnym obra­ zem początkowym* Ciąg ten będzie zbliżał się do obrazu końcowego, A 0G, który nie zależy od obrazu początkowego A0. Jeżeli wybierzemy A 00 jako obraz początkowy, to nie będą zachodziły żadne zmiany (to znaczy IFS pozostawi A ^ nie zmienione). Mówimy wtedy, że A 00 jest punktem stałym IFS albo też, że Aoo jest atraktorem tego układu dynamicz­ nego. W tym sensie możemy utożsamiać IFS z jego atrak­ torem. Opis matematyczny systemów soczewek dany jest przez zbiór przekształceń afinicznych, z których każde jest wyznaczone przez sześć liczb rzeczywistych. Liczby te mogą być interpretowane jako kod odpowiadający końcowemu obrazowi A ^ . Dekodowanie odbywa się przez kopiowanie do­ wolnego obrazu początkowego. Po pewnym czasie wyłoni się zakodowany obraz A ^ . P r o b le m Czasami jednak dekodowanie obrazu przy użyciu IFS d e k o d o w a n ia może przedstawiać poważny problem. Weźmy na przykład paprotkę Barnsleya. Na rysunku 5.26 pokazano pierwsze kroki IFS; jest oczywiste, że nawet po 10 krokach będziemy daleko od jej ostatecznego obrazu. Nasuwa się wiec ogólne pytanie: po ilu iteracjach zbliżymy się wystarczająco blisko R ysunek 5.26: Kroki piąty i dziesiąty działania kopiarki odpo­ wiadającej paprotce 5.4. Kodowanie obrazu przy użyciu IFS 335 do końcowego obrazu? Żeby odpowiedzieć na to pytanie, trzeba najpierw sprecyzować, co rozumiemy pod pojęciem wystarczająco blisko. Rozsądne wydają się dwa kryteria. Pierwsze wymaga, aby dwie kolejne iteracje zmieniały tak mało w obrazie, by zmiana była mniejsza niż graficzna rozdzielczość ekranu. Kryterium to jest wygodne dla pro­ blemów obliczeniowych. Podobną zasadą kierujemy się przy obliczaniu pierwiastka kwadratowego: otrzymana liczba jest przyjmowana za jego wartość, jeżeli kolejne iteracje nie zmie­ niają już jej pierwszych dziesięciu cyfr. Drugie kryterium jest wygodniejsze i pozwala również na oszacowanie a priori liczby iteracji. Można je wyprowadzić z następującej ana­ lizy najgorszego przypadku. Przypomnijmy, że początkowy obraz może być zupełnie dowolny, załóżmy jednak, że po­ krywa on atraktor w całości. Weźmy na przykład wystar­ czająco duży prostokąt. Ponieważ końcowy obraz nie zależy od obrazu początkowego, powtarzamy iteracje dopóty, do­ póki będzie można rozpoznać pomniejszone wersje począt­ kowego obrazu. Taką właśnie sytuację mamy na rysunku 5.26. Widać, że nawet po dziesięciu iteracjach ten układ dynamiczny jest daleki od obrazu końcowego, jego atraktora. Jest to spowodowane tym, że przekształcenie numer 1 pomniejsza tylko o około 85%. Dlatego też, jeżeli chcemy pomniejszyć początkowy kwadrat do wielkości nie przekra­ czającej wielkości punktu ekranu — czyli do momentu, gdy prostokąt przestanie być dostrzegalny — to musimy przepro­ wadzić co najmniej N iteracji. Liczbę N można oszacować w sposób następujący. Załóżmy, że wyjściowy prostokąt jest narysowany na ekranie o wielkości 10 0 0 x 10 0 0 pikseli i że pokrywa 500 x 200 pikseli. W tedy N jest w przybliżeniu rozwiązaniem równania 500-0,85^ = 1. Stąd otrzymujemy N ~ 39. Jeśli chcielibyśmy przedstawić graficznie N iteracji IFS, musielibyśmy wykonać obliczenia i narysować 4 W+ 1 M = 1 + 4 + 42 + 43 H _ i 1- 4 ^ = ----- -----O prostokątów. Dla N = 39 oznacza to, że trzeba wyliczyć niesłychanie dużą ich liczbę M I-ii 4 ^^ 1024. Jeżeli nawet założymy, że dysponujemy komputerem, który przeprowa- 336 5. Kodowanie obrazów dzi obliczenia i narysuje półtora miliona prostokątów na se­ kundę, to i tak na końcowy obraz musielibyśmy czekać 1018 sekund, czyli więcej niż 1010 lat. Jest to czas porównywalny z wiekiem Wszechświata. Powyższy przykład może nam dać przedsmak problemów związanych z dekodowaniem. W roz­ dziale 6 poznamy jednak bardzo prostą i dającą wiele moż­ liwości metodę dekodowania. Umożliwia ona otrzymanie dobrego przybliżenia obrazu końcowego na ekranie kompu­ tera już w kilka sekund. Zmodyfikujemy również powyższy nieefektywny algorytm w taki sposób, że będziemy mogli otrzymać obraz paprotki (i innych atraktorów) z dokładnoś­ cią, jaką tu taj postulowaliśmy, ale za to w rozsądnym czasie. P r o b le m Aby użyć IFS do kodowania obrazu, trzeba najpierw rozo d w ro tn y : wiązać podstawowy problem: jak dla danego obrazu skonk o d o w a n ie struować odpowiednią KWR. Jest to problem poszukiwania przekształcenia odwrotnego: kodowanie jest odwrotnością dekodowania. Oczywiście nie możemy oczekiwać, że zawsze będziemy mogli skonstruować KWR, która pozwoli nam ot­ rzymać dany obraz bez zniekształceń. Powinno być jednak możliwe otrzymanie dobrego przybliżenia. Jak pokażemy poniżej, możemy konstruować takie przybliżenie z dowolną dokładnością. Załóżmy, że mamy dany czarno-biały obraz przedsta­ wiony na ekranie o rozdzielczości n x m pikseli. Obraz taki można dokładnie odtworzyć za pomocą KW R skonstruowa­ nej w następujący sposób. Zakładamy, że dla każdego czar­ nego piksela tego obrazu istnieje system soczewek, który pomniejsza obraz wyjściowy do tego właśnie punktu. Po pojedynczym przebiegu, wychodząc od dowolnego obrazu, urządzenie nasze wytworzy pierwotny obraz. Oczywiście nie jest to efektywny sposób kodowania obrazu, gdyż dla każdego czarnego piksela musimy zatrzymywać w pamięci osobne przekształcenie afiniczne. Powyższe rozumowanie wykazuje, że teoretycznie jest możliwe otrzymanie dowolnie dobrego przybliżenia danego obrazu. Dlatego też głównym problemem jest skonstruowanie lepszej KWR, takiej która nie używałaby tak wielu przekształceń afinicznych, a jedno­ cześnie wytwarzałaby wystarczająco dokładne przybliżenie. Okazuje się, że wiąże się z tym szereg problemów: (1) Jak możemy określić jakość przybliżenia? Jak określamy różnice pomiędzy obrazami? (2) Jak wyznaczyć odpowiednie przekształcenia? ¿>.4. Aodowa/ne oDrazu przy użyciu ir s óó( (3) Jak zminimalizować liczbę koniecznych przekształceń afinicznych? (4) Jaką klasę obrazów możemy brać pod uwagę przy tym podejściu? Powyższe problemy są porównywalne z trudnościami, jakim musieli sprostać naukowcy, budujący podstawy teorii nazy­ wanej dzisiaj analizą fourierowską. Obecnie analiza fourie­ rowska jest standardowym narzędziem z niezliczoną liczbą zastosowań. Jedno z nich jest związane z kodowaniem, ana­ lizą i przetwarzaniem sygnału dźwiękowego. Całkowite roz­ winięcie tej teorii zajęło jednak kilka setek lat; rozwiązanie związanych z tym problemów wymagało zaangażowania naj­ tęższych matematycznych umysłów. W porównaniu z nią teoria fraktalnego kodowania obrazu jest jeszcze w powija­ kach. Podejście to istnieje nie dłużej niż dziesięć lat i — jak się wydaje — obiecuje zbudowanie całkiem nowego sposobu analizy i syntezy obrazów. Podczas gdy niektórzy widzą w tym przełom, inni uważa­ ją, że fraktale w ogólności, a fraktale w kodowaniu obrazów w szczególności, są tylko przelotną modą bez przyszłości. Nie powinny nas dziwić te rozbieżności w ocenie. Tak działo się zawsze. Kiedy dawni giganci nauki robili milowe kroki, wielu współczesnych ich nie doceniało. Mimo to Galileusz, Kopernik, Kepler, Darwin, Mendel, Einstein oraz inni wielcy uczeni nie będą zapomnieni tak długo, jak długo nauka coś znaczy dla ludzkości, o ich ślepych krytykach zaś nikt nie pa­ mięta. Wierzymy, że geometria fraktali jest jednym z wiel­ kich osiągnięć nauki i to niezależnie od tego, czy zastoso­ wanie fraktali umożliwi znalezienie najlepszych praktycznie ram dla kodowania obrazów. W każdym razie idee, jakie wy­ rosną z tego nowego podejścia, będą miały zasadniczy wpływ na sposób, w jaki traktujem y obrazy. D źw ięk i obraz są dw om a najw ażniejszym i sygnałam i d o cierającym i do naszych zm ysłów ze św iata zew nętrznego. P o m ag ają zrozum ieć otaczający nas św iat. Pod pew nym i w zględam i sygnały te są do siebie podobne, a pod innym i różnią się znacznie. P odstaw ow y m o­ del fizyczny dla św iatła i dźw ięku je s t ten sam: m ianow icie m odel falowy. Jednakże dźw ięk trw a w czasie. D źw ięk zaczyna się w pew ­ nym m om encie, a kończy w innym , istniejąc pom iędzy swym po­ czątkiem a końcem , obrazy nato m iast są statyczn e. O pis za pom o cą fal stosuje się rów nież do prom ieniow ania cieplnego. D zięki pracom Kodowanie i dekodowanie dźwięku 338 5. Kodowanie obrazów Eulera, B ernoulliego, L a g ra n g e’a i w ielkiego francuskiego uczonego Fouriera (1 7 6 8 -1 8 3 0 ) fale, niezależnie od stopnia ich kom plikacji, m ają wspólny, piękny opis m atem atyczn y. Leży to u podstaw sze­ regów Fouriera. N ajw a żn ie js zy m , w y d aje się, osiągnięciem Fouriera je s t je g o w kład do teorii rozchodzenia się ciep ła9 , w której szeroko zastosow ał teo rię szeregów , noszących te ra z je g o im ię. Szeregi Fo­ uriera p o zw a la ją nam na opis d źw iękó w przy użyciu pojęcia oscy­ lacji. D źw ię k o trz y m u je m y ja k o złożenie czystych to n ó w w postaci a,ksin(kujkt + Ok), gdzie dk je s t a m p litu d ą , a Uk — częstotliwością podstaw ow ą. C ud ow ną właściw ością szeregów Fouriera jes t to , że po­ zw alają one naw et na opis czegoś ta k złożonego ja k dźw ięk skrzypiec. D la każdego to n u istnieje je g o an aliza fourierow ska, która pozwala nam na w y zn a czen ie w spółczynn ików dk i a;*., zaró w no m atem a ty cz­ nie, ja k te ż e k sp erym en ta ln ie . O dszu kan ie tych w spółczynników jest problem em o d w ro tn y m dla dźw ięku . C zym harm oniki są dla dźw ięku, ty m system y soczew ek w K W R są dla obrazów . Złożenie czystych harm o n ik w u kład zie d źw iękó w od p o w iad a ustaw ieniu system ów so­ czew ek w K W R . 5 .5 . P o d s ta w a IF S : z a sa d a p r z e k s z ta łc e n ia z w ę ż a ją c e g o Problem kodowania obrazu doprowadził nas do jednego z centralnych pytań: w jaki sposób możemy porównywać ob­ razy, jak mierzyć odległość między nimi? Są to główne pro­ blemy dotyczące zagadnień systemów iteracyjnych. Bez od­ powiedzi na to pytanie nie będziemy mogli precyzyjnie wy­ znaczyć parametrów, przy jakich nasze urządzenie wytwo­ rzy graniczny obraz. Felix Hausdorff, którego już wspomi­ naliśmy jako twórcę matematycznych podstaw pojęcia wy­ miaru fraktalnego, zaproponował definicję odległości, która nosi obecnie jego imię — odległości Hausdorffa. Wprowa­ dzenie odległości Hausdorffa h ( A ,B ) ma dwie ważne kon­ sekwencje. Po pierwsze, możemy teraz w bardzo precyzyj­ nym sensie powiedzieć, że ciąg Ak ma granicę A 00 ' A 00 9 Fourier był przyjacielem Napoleona i towarzyszył mu w wyprawie do Egiptu w roku 1798, gdzie zdobył dziwne przekonanie, że gorąco pustynne najlepiej służy zdrowiu. Zgodnie z tym przekonaniem opatulał się ciepło — niczym mumia — i przegrzewał pomieszczenia, w których mieszkał. 5.5. Zasada przekształcenia zwężającego 339 jest granicą ciągu A q, A 2 ,..., jeżeli odległość Hausdorffa hlAoo^Ak) zmierza do zera przy k dążącym do nie­ skończoności. Po drugie, może dla naszych rozważań waż­ niejsze, Hutchinson pokazał, że operator W , który opisuje łączenie kopii obrazu W (A) = wi(A) U W2 (A) U ... U w n (A), jest kontrakcją ze względu na odległość Hausdorffa. Oznacza to, że istnieje stała c, gdzie 0 < c < 1, taka że h ( W ( A ) ,W ( B ) ) < ch(A, B) dla wszystkich (zwartych) zbiorów A i B na płaszczyźnie. Hutchinson wiedział, jak do dowodu tej podstawowej włas­ ności użyć jednej z najpiękniejszych i najważniejszych za­ sad w matematyce — zasady przekształcenia zwężającego. Ma ona długą historię, a swoje ostateczne sformułowanie zawdzięcza wielkiemu polskiemu matematykowi, Stefanowi Banachowi (1892-1945). Jeśli praca i osiągnięcia matematyków mogłyby być obję­ te prawem patentowym, to zasada przekształcenia zwężają­ cego byłaby jedną z przynoszących najwięcej zysków, zarów­ no teraz jak i w przyszłości. Banach, przechodząc na wysoki stopień abstrakcji, zrozumiał, że wiele szczególnych przy­ padków, przewijających się w pracach wcześniejszych m ate­ matyków, można objąć jedną genialną regułą. Jego wynik jest obecnie twierdzeniem, dotyczącym topologii przestrzeni metrycznych, dziedziny będącej podstawą współczesnej ma­ tematyki, a która jest wykładana dopiero na poziomie szkół wyższych. Postarajmy się wytłumaczyć przystępnie istotę zasady Banacha. Odległość Hausdorffa w yznacza odległość zbiorów . Jest ona o p arta na idei odległości pom iędzy p u n ktam i, któ rą poniżej w yjaśnim y. O g ó lnie rzecz biorąc, odległość pom iędzy p u n ktam i w przestrzeni X m ożna m ierzyć za pom ocą funkcji d : X x X —►R. R oznacza tu ta j zbiór liczb rzeczyw istych, a funkcja d ma następujące własności: (1) d(x,y) (2) d(x, y) (3 ) d{x,y) (4 ) d(x, y) > 0, = 0 w ted y i tylko w tedy, gdy x = y, = d(y, x), < d(x, z) + d(z, y) (nierów ność tró jk ą ta ), Pom iar odległości: przestrzeń m etryczna 340 5. Kodowanie obrazów R ysunek 5.27: Trzy metody mierzenia odległości na płaszczyźnie (odległość miasta, odległość euklidesowa, odległość w metryce ma­ ksimum) i odpowiadające im sfery jednostkowe (zbiory punktów, które leżą w odległości 1 od początku układu współrzędnych) praw d ziw e dla dow olnych x ,y ,z G X. Funkcja o pow yższych własnoś­ ciach nazyw a się metryką. P rzestrzeń w yposażona w m etry kę nazywa się przestrzenią metryczną. O to kilka przykład ów (zo b . rysunek 5 .2 7 ): ( 1 ) D la liczb rzeczyw istych m o żem y przyjąć, że d(x,y) = \ x - y\. (2 ) D la p u n k tó w płaszczyzny niow ać wielkość P = (x,y), Q = (u,v) m o żem y zdefi­ di(P, Q) = \ / ( x - u ) 2 + ( y ~ v ) 2. Jest to metryka euklidesowa. ( 3 ) Inną m e try k ą na płaszczyźnie je s t doo(P, Q) - max {|x - it|, \y - v|}. Jest to metryka maksimum. ( 4 ) N astęp n ą m e try k ą przedstaw ioną na rysunku 5 .2 7 je s t miasta dana przez metryka d\(P,Q) = \x —u\ + \y —v\. M e try k a ta nazyw ana je s t m e try k ą m iasta, gdyż w mieście, aby. 5.5. Zasada przekształcenia zwężającego przedostać się od pun ktu P do Q , m ożna poruszać się jed y n ie po ulicach; ta k te ż liczona je s t odległość. Po ustaleniu m etryki w przestrzeni X m ożem y za cząć rozw ażać granice ciągów. Niech x o , x i , X 2, ... będzie ciągiem p u n któ w prze­ strzeni X , n atom iast a pew nym elem entem X. W te d y a nazyw am y granicą tego ciągu, jeżeli je s t spełniony w arunek lim d(xjfc, a) = 0. O znacza to, że dla dow olnego e > 0 m ożem y znaleźć p u n kt x n z ciągu ta k i, że w szystkie pun kty następne zn ajd u ją się w odległości mniejszej niż e od pun ktu a : d(xfc, a) < e, k > n. M ó w im y w tedy, że ciąg zbiega do a. C zasam i chcielibyśm y badać zbieżność ciągu bez uprzedniej znajom ości je g o granicy. Jest to m ożliwe jed n ak że tylko w przestrzeniach m ających pew ną d o d a t­ kową własność (je st nią zupełność przestrzeni m etry czn yc h ). M o że m y w tedy analizow ać zbieżność, biorąc pod uwagę tylko odległości po­ między pun ktam i ciągu. Przestrzeń X nazyw am y przestrzenią metryczną zupełną, jeżeli każdy ciąg C auchy'ego m a granicę należącą do X. O zn acza to co następuje. Niech xq , x i , X 2, ... będzie ciągiem w X. C iąg ten nazy­ w am y ciągiem C au ch y’ego, jeżeli dla każdego e > 0 m o żem y znaleźć pun kt x m ciągu, ta k i że każde dw a pun kty dalej położone w ciągu oddalone są od siebie o nie więcej niż e : d(xi,xj) < e, i,j > m. W te d y granica istnieje i należy do X . Z ilu s tru jm y to pojęcie dw om a przykładam i: (1 ) Z b ió r liczb w ym iernych nie je s t zupełny. Istnieją ciągi C a u c h y ’ego liczb w ym iernych, dla których granice istnieją, ale nie są liczbam i w ym iernym i. A o to przykład takie g o ciągu. E lem enty je g o zadane są w zorem k= 1 Ten ciąg liczb w ym iernych d ą ży do niew ym iernej granicy 7r 2/ 6 . (2 ) Płaszczyzna R 2 je s t zupełną przestrzenią m etryczn ą ze względu na każdą z m etryk d\, d2 oraz doo. 342 5. Kodowanie obrazów Środow isko dla W rozdziale 1 dowiedzieliśmy się, że wiele rozmaitych zasad y procesów dynamicznych można rozpatrzyć z punktu widze­ p rzek ształcen ia nia systemu sprzężenia zwrotnego. Wychodząc od zdarze­ zw ężającego nia początkowego ao, które jest wybierane z pewnego zbioru zdarzeń dopuszczalnych, generowany jest ciąg zdarzeń ao, ai, a 2 , ... W miarę upływu czasu (w miarę wzrostu n) ciąg może ewoluować na wiele sposobów. Głównym zadaniem teorii układów dynamicznych jest przewidywanie zachowania ukła­ du w długim czasie. Często zachowanie to nie będzie zależało od wyboru początkowego ao- Jest to właściwe miejsce do za­ stosowania zasady przekształcenia zwężającego. Może nam ona umożliwić przewidywanie zachowania się systemu. Mu­ simy pamiętać jednak o różnorodności zachowań mogących wystąpić w systemie sprzężenia zwrotnego. Mogą być one zarówno nieuporządkowane, jak też mogą poddawać się pew­ nym regułom. W ydaje się oczywiste, że naszą zasadę będzie można stosować tylko do pewnej wybranej podklasy tych sy­ stemów. Ustalmy dwie własności charakteryzujące tę podklasę: (1) P rzestrzeń . Elementami przestrzeni mogą być liczby, obrazy, przekształcenia itd. (oznaczać je będziemy a n), byle tylko należały do zbioru, w którym możemy zmie­ rzyć odległość. Na przykład odległością pomiędzy x i y może być d(x,y). Dodatkowo przestrzeń powinna być w pewnym sensie nasycona. Oznacza to tutaj, że jeżeli rozważać będziemy jakiś ciąg i spełniać on będzie pe­ wien warunek określający istnienie granicy, to granica istnieje i należeć będzie do tej przestrzeni. (Oznacza to, że chcemy, żeby nasza przestrzeń była przestrzenią me­ tryczną zupetną). (2) P rzek szta łcen ie. Ciąg obiektów jest otrzymywany przy użyciu pewnego przekształcenia / . Oznacza to, że dla do­ wolnego początkowego elementu ao generowany jest ciąg ao, a i, ¿¿2 ,... w sposób następujący: an+i = / ( a n), n = 0 ,1 ,2 ,... Zakładamy dodatkowo, że / jest kontrakcją, to znaczy że dla dowolnej pary punktów w przestrzeni, po­ wiedzmy x i y, odległość pomiędzy ich obrazami f ( x ) i f ( y ) jest zawsze ściśle mniejsza niż odległość pomiędzy 10 Technicznie oznacza to, że stałą i 0 < c < 1. < cd( x)y ) ) gdzie c jest 5.5. Zasada przekształcenia zwężającego 343 Dla tak opisanej podklasy systemów sprzężenia zwrot­ K onsekw encje nego zasada przekształcenia zwężającego ma następujące zasady ważne konsekwencje: p rzekształcenia (1) A tra k to r. Dla dowolnego punktu startu układu sprzę­ zw ężającego żenia zwrotnego an+i = f ( a n) możemy przewidzieć jego ewolucję w czasie. Istnieje punkt a ^ (granica układu sprzężenia zwrotnego), do której system będzie zdążał. Granica ta jest zawsze taka sama, niezależnie od punktu startu, aoo jest nazywane jedynym atraktorem układu sprzężenia zwrotnego. (2) N iezm ienniczość. Układ sprzężenia zwrotnego zawsze pozostawia nie zmienione. Oznacza to, że jeżeli wy­ startujemy od aooi to zawsze otrzymamy a oq. Q>oo jest punktem stałym dla / , czyli /(aoo) — (3) Oszacowanie. Możemy przewidzieć, jak szybko układ sprzężenia zwrotnego zbliża się do aoo, jeżeli w ystartu­ jemy z punktu ao* Wystarczy, że będziemy znali jeden przebieg dla punktu początkowego. Oznacza to, że wy­ starczy zmierzyć odległość pomiędzy ao i ai = /(ao), a będziemy mogli wywnioskować, i nie pomylić się przy tym zbytnio, po ilu przebiegach system zbliży się do aoo tak blisko, jak byśmy sobie życzyli. Co więcej, możemy oszacować odległość pomiędzy ao i aoo. Przekształcenie / je s t przekształceniem zwężającym ( kontrakcją) w przestrzeni m etrycznej X , jeżeli istnieje taka stała c, 0 < c < 1, że dla wszystkich p u n któ w x, y przestrzeni X m am y d(f(x),f(y)) < c d(x,y). Stałą c nazyw ać będziem y współczynnikiem zwężania (kontrakcji) dla / . Niech ao, a i , a 2, .. . będzie ciągiem p u n któ w zupełnej prze­ strzeni m etrycznej, otrzym an ych ja k o an+i = f( a n). P raw d ziw e są następujące stw ierdzenia : (1 ) Istnieje jed n o zn aczn ie w yznaczony a tra k to r a^ (2 ) aoo je s t niezm iennicze, /(a o o ) = a ^ . (3 ) M o żn a oszacować a priori odległość pom iędzy (¿(a^aoo) ^ c d(ao,a\ ) / (1 = lim an. n —>oo an a a tra k to re m , c). W yjaś n im y tera z, skąd w zięło się oszacow anie w punkcie (3 ). Z własności przekształcenia / o trz y m u je m y d(f(a0)î a o o ) —d ( / ( a o ) , /(ao o )) ^ cd{ao , aoo)’ A trak to r dla przekształcenia zwężającego 344 5. Kodowanie obrazów Jeżeli zasto su jem y nierów ność tró jk ą ta do p u n k tó w ao, aoo, / ( a o ) ( = a 1) ) to o trz y m a m y d (a o ,a o o ) < d(a0, f ( a 0)) + d (f(a 0) ) ^OO ) < d ( o 0 , / ( a o ) ) + « ¿ ( a 0 , ao o ), co d a je nam d(a0, f ( a 0)) _ d(a0,ai) 1 G t ^ ć lO ł ^ o o ) — 1 —c 1 — 1 —c i podobnie i/ \ d(fln, d \ & n : &oo / _ Z 1 - d C ( a — n, ^n+l) : 1 ~ C dla w szystkich n — 0 , 1 , 2 , . . . O s ta te c zn ie prow adzi to do ciągu nie­ równości d(an, an+i) cd(an—i,a n) ^ C d { ( X n —2 ) ^ n —1 ) < ... < cnd(ao, ai) i do końcow ego w yn iku cn ^oo) — Z 1 —c P ozw ala nam to na w yzn aczen ie n takieg o , by an zn ajdow ało się w zad an ej odległości od a ^ . Zajmiemy się teraz analizą działania IFS oraz jego opi­ sem przy użyciu zasady przekształcenia zwężającego. Za­ nim zaczniemy, zdefiniujmy odległość pomiędzy dwoma ob­ razami. Aby sprawę uprościć, będziemy brali pod uwagę tylko obrazy czarno-białe. W języku matematycznym przez „obraz” rozumiemy zwarty podzbiór11 płaszczyzny. O d leg ło ść Dla danego obrazu A możemy zdefiniować jego otoczeH a u s d o rffa nie epsilonowe, A £j jako zbiór A wraz ze zbiorem punktów płaszczyzny, których odległość od A nie przekracza e (zob. 11 Zwartość podzbioru X płaszczyzny oznacza, że jest on ograniczony, tzn. zawiera się całkowicie w pewnym dostatecznie dużym kole na płaszczyźnie, oraz że każdy zbieżny ciąg punktów z tego zbioru zbiega do punktu do niego należącego. 345 5.5. Zasada przekształcenia zwężającego O toczen ie ep silonow e Rysunek 5.28: Otoczenie epsilonowe zbioru A na płaszczyźnie rysunek 5.28). Hausdorff mierzył odległość pomiędzy dwoma (zwartymi) podzbiorami płaszczyzny, używając ich otoczeń epsilonowych. Formalnie możemy ją oznaczyć jako h ( A y5 ) , a obliczamy ją tak: próbujemy dopasować e w taki sposób, aby A znajdowało się wewnątrz otoczenia epsilonowego 5 , oraz na odwrót: B wewnątrz otoczenia epsilonowego A. Jeżeli weźmiemy e wystarczająco duże, będzie to możliwe. Odległość Hausdorffa h ( A , B ) jest równa najmniejszemu ta ­ kiemu epsilonowi, dla którego otoczenie epsilonowe A e za­ wiera i?, oraz jednocześnie B £ zawiera A. Z definiujem y te ra z odległość Hausorffa w sposób ścisły. Niech X będzie zupełną przestrzenią m etryczn ą z m etry ką d. D la dow olnego zw artego podzbioru A przestrzeni X i e > 0 d e fin iu jem y o to czen ie epsilonowe A w sposób następujący: Ae = {z e X | d(x, y) < e dla pew nego y G A}. Dla dowolnej pary A , B zw artych p od zbiorów X odległość Hausdorffa określona je s t ja k następuje: h(A, B) = inf{e | A C B e oraz B c Ae}. Już Hausdorff zauw ażył, że przestrzeń zw artych pod zbiorów X w ra z z w prow adzoną w yżej odległością je s t rów nież zu pełną przestrzenią m etryczną. O znacza to , że w przestrzeni w szystkich zw artych pod­ zbiorów zupełnej przestrzeni X ma sens rozw ażanie zasady prze­ kształcenia zw ężającego. Zgodnie z tą definicją h(A, B) = 0, jeżeli A jest równe B. Jest prawdą również, że jeżeli A i B są pojedynczymi punk­ tami, to h (A ,B ) jest po prostu ich odległością w zwykłym Definicja odległości H ausdorffa 346 5. Kodowanie obrazów Rysunek 5.29; Aby otrzymać odległość Hausdorffa między dwoma zbiorami A i B na płaszczyźnie, obliczamy a£ = inf{e|R C A£} (rysunki po lewej stronie) oraz b£ = inf{e|A C Be} (ry­ sunki po prawej stronie). B mieści się w a£-otoczeniu zbioru A, a A mieści się w 6e-otoczeniu zbioru B . Odległość Hausdorffa jest równa maksimum tych dwóch wielkości, h(A^B) — max{a£,&£}. Zbiorami A i B są kolejno: dwa punkty (górny wiersz), koło i od­ cinek prostoliniowy (drugi wiersz), koło i duży kwadrat (trzeci wiersz, w tym przypadku b£ = 0) oraz dwa przecinające się koła (dolny wiersz) sensie. Rysunek 5.29 jest ilustracją tego faktu, jak również podaje kilka przykładów, pozwalających oswoić się z poję­ ciem odległości Hausdorffa. 5.5. Zasada przekształcenia zwężającego Powróćmy do momentu, w którym znalazł się Hutchinson O perator H u tch in son a po zdefiniowaniu operatora W za pomocą W (A) = w\(A) U W2 (A) U ... U w n (A). Przekształcenia Wi, i — 1 ,..., iV, są kontrakcjami ze współ­ czynnikami zwężania c*. Hutchinson pokazał, że W jest rów­ nież przekształceniem zwężającym, jednakże względem od­ ległości Hausdorffa. Możemy więc zastosować zasadę prze­ kształcenia zwężającego do kolejnych iteracji operatora Hutchinsona W. Oznacza to, że od jakiego byśmy obrazu A q nie wystartowali z naszym IFS, to otrzymamy ciąg Ak+i = W (Ak), k = 0 ,1 ,2 ,..., który będzie zdążał do wyróżnionego obrazu Aoo, atraktora dla IFS. Co wiecej, ten wyróżniony obraz jest niezmienniczy dla W: WiAoc) = Aoo. To rozwiązuje centralny problem rozdziału 3. Krzywa Ko­ cha, trójkąt Sierpińskiego itd. wydają się dobrze określonymi zbiorami na płaszczyźnie. Są one opisane przez pewne, wy­ dawałoby się zbieżne, procesy, iteracje odpowiadających im operatorów Hutchinsona. Nie mogliśmy jednak dowieść, że fr akt ale te rzeczywiście istnieją, a nie są tylko złudzeniem. Mogłoby się bowiem zdarzyć, że mamy do czynienia ze sprzecznością, tak jak w tej historii o golibrodzie, który goli wszystkich mężczyzn, którzy sami się nie golą — oczy­ wista sprzeczność. Teraz, dzięki obserwacjom Hutchinsona i definicji Hausdorffa, możemy mieć pewność, że graniczne obiekty z przedziwnymi własnościami samopodobieństwa na­ prawdę istnieją. Zasada przekształcenia zwężającego daje nam coś więcej. Otóż jeśli znamy współczynnik zwężania c dla operatora Hutchinsona W, to możemy ocenić, jak szybko IFS wytwo­ rzy ostateczny obraz. Wystarczy jeden raz zastosować ope­ rator Hutchinsona do A q. Ponieważ współczynnik kontrak­ cji dla W jest równy największemu spośród tych dla Wi, czyli c — max{ci}, efektywność IFS będzie wyznaczona przez przekształcenie o największym współczynniku ściągania. To właśnie stanowi teoretyczne zaplecze naszych eksperymentów pokazanych na rysunku 5.1 i kodowania obrazów za pomocą IFS. 34Y 348 5. Kodowanie obrazów W łasność zwężania dla o p erato ra H utchinsona H utchinson zastosow ał zasadę przekształcenia zw ężającego do operato ra W . Podejście to w y m ag a , aby przestrzeń, w której W działa, była przestrzenią zu p ełn ą. Zupełność przestrzeni złożonej ze zw artych po d zb io ró w płaszczyzny euklidesow ej, która sam a je s t zupełna, była w ykazan a ju ż przez H ausdorffa. W ys ta rc zyło w ięc dowieść, że ope­ rato r H u tchinsona W je s t przekształceniem zw ęża jąc ym . A by zilu­ strow ać ideę dow odu, ro zp a trzm y przykład z dw om a przekształceniam i zw ężającym i W\ i w2f o w spółczynnikach zw ężania równych odp ow ie­ dnio c i, C2 < 1. W e ź m y dwa dow olne zw arte podzbiory płaszczyzny A oraz B. Pokażem y, że odległość H ausdorffa h(W(A),W(B)) po­ m iędzy W(A) = w 1(A ) U w 2(B) oraz W(B) = w 1(B )U w 2(B) je s t ściśle m niejsza od odległości h(A, B) pom iędzy A i J5. R ysunek 5.30: Zasada zwężania dla operatora Hutchinsona Rysunek 5 .3 0 m ożna p o trakto w a ć ja k o ilu strację następującego rozum o w ania. N iech odległością H ausdorffa pom iędzy A i B będzie e, czyli h(A,B) = e. W te d y B zaw iera się w epsilonow ym otoczeniu A, B C Ae. Po zastosow aniu przekształceń w\ oraz w<z o trzym u je m y wi(B) C wi(Ae) Z własności oraz w2{B) C w2{A£). zw ężania dla tych dwóch przekształceń w ynika, że wi(Ae} C (cie)-o to czen ie w\(A), 5.5. Zasada przekształcenia zwężającego 349 w 2 ( A £) C (c 2£ )-o to c ze n ie w2(A). Podstaw iając c — max{ci,c2} o trzym a m y, że zaró w no W\{B) ja k i W2 {B) są zaw arte w (c e )-o to c ze n iu zbioru wi(A) KJw2{A). Podob­ nie otrzym am y, że zaró w no w i ( A ) ja k i w2{A) są zaw arte w (ce)otoczeniu zbioru w\{B)Uw2(B). O znacza to, że odległość Hausdorffa h(W(A), W(B)) je s t m niejsza niż cs. W y n ik a stąd , że o p e ra to r H u tchinsona W je s t przekształceniem zw ężającym ze w spółczynnikiem kontrakcji c < 1. D la te g o te ż przekształcenie najm niej po m n iejszające określa w spółczynnik ko ntrakcji dla całego IFS. Dotychczasowe rozważania uprawniają nas do stwierdze­ nia, że wyniki naszych eksperymentów nie są spowodowane szczęśliwym czy przypadkowym doborem parametrów, lecz dają się wyjaśnić w ramach zasady przekształcenia zwęża­ jącego. Praca Hutchinsona daje podstawę do rozpoczęcia nowej dyskusji o obrazach i ich kodowaniu. Ale — jak wi­ dzieliśmy — pozostaje do rozwiązania wiele poważnych pro­ blemów, jak na przykład problem dekodowania. Paprotka może zostać zakodowana za pomocą IFS, ale nie wiemy je­ szcze, jak możemy otrzymać dany obraz (tzn. jak zdekodować paprotkę). W pewnym sensie oznacza to, że obrazy mogą zostać zamknięte w bardzo małych pudełeczkach tak, że stają się niewidzialne, ale nie znamy jeszcze sposobu, by wydostać je z powrotem na światło dzienne. Potrzebujemy teraz jakiegoś artysty, który przyjdzie i rozwikła nasze kody. To będzie tematem następnego rozdziału. Musimy jednak zdawać sobie sprawę, że nie rozwiązaliśmy do końca pro­ blemu, jak zakodować dany obraz. W idzieliśm y, że a tra k to r prostego IFS , którego przekształcenia są podobieństw am i, je s t sam opodobny. W ty m przypadku m ożem y obliczyć w ym iar sam opodobieństw a, jeżeli dod atkow o założym y, że N kontrakcji w i , ... m a następującą własność: w ^ A ^ ) n Wk(Aoo) = 0, dla z, k takich, że i k. Ten typ a tra k to ra nazywa się całkow icie niespójnym . M ałe kopie a tra k to ra nie zach o d zą na siebie. Jeśli d o d a t­ kowo założym y, że podobieństw a m ają ten sam w spółczynnik zm n ie j­ szania c, 0 < c < 1, to w ym ia r sam opodobieństw a D s — d a tra k to ra Aoo m ożem y w yliczyć z równości N c d = 1. O zn acza to , że Wymiar fraktalny atraktorów IFS 5. Kodowanie obrazów 350 Co w ięcej, m o że m y w ykazać, że w y m ia r sam opodobieństw a jes t w tym przypadku rów ny w ym iaro w i pudełkow em u. Jeżeli m a m y N pod obień stw ze w spółczynnikam i redukcji o d p o ­ w ied nio ró w n ym i c i, C2, . . . , c ; v , to — j ak p okazał H utchinson — nadal m o żem y w yzn aczyć w y m ia r fra k ta ln y Ds = d , rozw iązując rów nanie ci "b c2 “b ’ *' T c5v = 1 (p rz y p a d e k szczególny, gdy c i = C2 = ... = c jv ). O czyw iście na ogó ł nie m ożna ro zw ią zać teg o rów nania w zględem d od ręki. Trzeba w te d y użyć m eto d num erycznych. Z a ło że n ie, że a tra k to r pow inien być całkow icie niespójny m ożna tro c h ę o s ła b ić .12 A le kiedy m a m y do czynienia z sytu acją, że po­ m niejszone atra k to ry , składające sie na obraz końcowy, zach odzą na siebie w is to tn y sposób, w te d y pojaw ia się problem . Aby lepiej to zro zu m ieć, w e źm y pod uwagę k w a d ra t jed n o stko w y i różne IFS go generujące. Jeżeli na przykład w e źm iem y IFS pokazan y na rysunku 3 .2 9 , c zte ry podobieństw a o w spółczynnikach kontrakcji rów nych 1 /2 i kw adracikach stykających się b o kam i, to pow yższe rów nanie dopro­ w adzi nas do popraw nego w yniku D s = 2. Jeśli je d n a k pokryjem y k w a d ra t za po m o cą czterech kontrakcji o w spółczynniku zw ężania, pow iedzm y, 3 / 4 (w y s tą p ią więc isto tn e zazęb ien ia), to rów nanie na­ sze da nam D s > 2! 5 .6 . W y b ó r o d p o w ie d n ie j m e tr y k i W ostatniej części wspomnieliśmy o kilku możliwych defini­ cjach odległości pomiędzy punktam i płaszczyzny. Odległość Hausdorffa pomiędzy obrazami zależy również od wyboru tej odległości. Nie powinien nas zatem dziwić fakt, że zasada przekształcenia zwężającego zależy w istotny sposób od tego wyboru. P ojęcie Jak już wspomnieliśmy wcześniej, odległość pomiędzy zależn ości od punktam i płaszczyzny może być mierzona na wiele sposobów, w yboru Na przykład jeśli P i Q są dwoma punktami płaszczyzny, od ległości to odległość między nimi można wyznaczyć za pomocą od­ ległości euklidesowej (jest to długość odcinka łączącego te 12 Zob. J. Hutchinson, Fractals and self-similarity, Indiana Univ. J. M ath. 30, 713-747 (1981), oraz G. Edgar, Measure, Topology and Fractal Geometry, Springer-Verlag, New York 1990. 5.6. Wybór odpowiedniej metryki 351 dwa punkty), odległości miejskiej (jest to suma długości dwu prostopadłych odcinków, poziomego i pionowego, łączących P i Q), albo odległości maksimum (rysunek 5.27). Są to tylko trzy z wielu możliwych definicji. Przyjrzyjmy się kołom jednostkowym wyznaczonym przez te metryki, to znaczy zbiorom punktów, których odległość od środka układu współ­ rzędnych jest mniejsza lub równa jeden. Oczywiście kształty te zależą od metryki. Dla metryki euklidesowej otrzymamy zwyczajne koło jednostkowe, a dla metryki maksimum kwa­ drat. Ale ważniejszy dla naszych rozważań jest fakt, że to, czy przekształcenie jest czy nie jest przekształceniem zwężającym zależy również od wyboru metryki. W ydaje się sprzeczne z intuicją, że przekształcenie może być zwężające w przypadku jednej metryki i nie być zwężające w przy­ padku innej. Należy zdawać sobie sprawę, że w szystko zależy od w yboru m e try k i. D ane przekształcenie m oże być zw ężające przy w yborze jed n ej m etryk i, podczas gdy przy w yborze innej nie. Jako przykład w e źm y przekształcenie w dane przez m acierz 0 ,5 5 0 ,5 5 -0 ,5 5 0 ,5 5 która definiuje obrót o 4 5 ° ze w spółczynnikiem redukcji 0, 5 5^2 « 0 ,7 7 8 , bez przesunięcia, w je s t przekształceniem zw ężającym w m e­ tryce d2, ale nie w m etryce di czy doc. Aby udow odnić pow yższe stw ierdzenie, najp ierw ustalm y p u n kt P — ( 0 ,0 ) i rozw ażm y p u n kty Q w ybierane dla każdej m etryki z osob­ na. Zauw ażm y, że przekształcenie nie zm ienia położenia środka układu współrzędnych ( w (P ) — P). Niech dla m etryki d\ p u n kt Q = ( 1 ,0 ) . Q je s t przekształcane na W(Q) = ( 0 ,5 5 ,0 ,5 5 ), O trz y m u je m y d1(w(P),w(Q)) = 0 ,5 5 + 0 ,5 5 - 1,1 > 1,0 = dx(P , Q). O znacza to, że w m etryce dx przekształcenie w nie zm niejsza o d ­ ległości pom iędzy P i Q , a więc w nie je s t przekształceniem zw ęża­ jąc ym . Dla m etryki d 00 bierzem y Q = ( 1 ,1 ) . Jest on przekształcany na w(Q) = (0 , 1 ,1 ). O zn acza to , że doo(w(P), w(Q)) = m a x (0 , 1 ,1 ) = 1,1. w nie jest przekształceniem zw ężającym rów nież w m etryce doo- M etryka określa własność zwężania: przykład 352 5. Kodowanie obrazów W końcu p rze an a lizu jm y sytu ację dla m etryki euklidesowej. Aby pokazać, że w je s t przekształceniem zw ęża jąc ym , m usim y sprawdzić w aru n ek zw ężania dla dow olnych p u n k tó w P = (x,y) i Q = (u,v). P rzy p o m n ijm y , że d2(P,Q) = V ( x ~ u)2 + (y - v)2P u n k ty P iQ po przekształceniu będą w yg ląd ały następująco: w(P) = = w>(Q) = = (0, 55x — 0,55y, 0, 55x + 0,55y) 0,55 ( x - y , x + y), (0,55u — 0 ,55v, 0 ,55u + 0,55z;) 0,55 (w — u + u), a odległość po m ięd zy nim i będzie w y ra ża ła się przez d2( w ( P ) w(Q)) =___________________________ = o, 55y j ( ( a r - y) - (u - v))2 + ((a; 4- y) - (u + v))2 = 0,55((® - y )2 + (x + y)2 - 2(x - y)(u - v) —2(x + y)(u + v) 4- (w —v)2 + (u + i;)2)1/2 = 0 ,55^/2(x2 + y2) —2(2xu + 2yv) + 2(w2 -f v2j = 0 ,55v/2((x - w)2 + (y - v)2) = 0 ,5 5 v ^ d 2 (P ,Q ). O trz y m u je m y stąd c = 0 , w 0 ,7 7 8 < 1, co oznacza, że w jest p rzekształceniem zw ęża jąc ym w m etryce g?2- W sp ó łczyn n ikiem reduk­ cji je s t tu c . Weźmy dla przykładu podobieństwo, które jest złożeniem obrotu o 45° i zmniejszania w skali w przybliżeniu równej 0,778. Rysunek 5.31 ilustruje, jak przekształcenie to zmie­ nia koła jednostkowe13 dla różnych metryk. W każdej z tych metryk koła są pomniejszane, ale tylko w metryce euklideso­ wej koło jednostkowe po przekształceniu znajduje się nadal w kole jednostkowym. W innych przypadkach obraz i koło jednostkowe wyjściowe tylko częściowo nachodzą na siebie. Oznacza to, że w tych metrykach przekształcenie nie jest zwężające. 13 Koła jednostkowe są to zbiory punktów, leżące w odległości nie przekraczającej 1 od początku układu współrzędnych. A zatem zależą one od tego, której metryki używamy. Tak na przykład, kołem jednost­ kowym w metryce euklidesowej jest zwykłe koło na płaszczyźnie, pod­ czas gdy dla metryki maksimum jest nim kwadrat jednostkowy (zob. rysunki 5.31 i 5.33). ¿).0. óbó W y b ó r o d p o w ie d n ie j m e tr y k i u<*> \ / \ W łasn ość zw ężania a m etryka Rysunek 5.31: P rzekształcenie, które obraca o 45°, a następnie zm niejsza w skali 0 ,7 7 8 , jest kontrakcją w m etryce euklidesowej (pośrodku), ale nie jest kontrakcją w m etryce m iasta (po lewej) ani w m etryce m aksim um (po prawej) K odow anie kw adratu Rysunek 5.32: K odow anie kw adratu przy użyciu jed yn ie dw óch przekształceń. K luczow y jest obrót o 90°; bez niego nasze prze­ kształcenia nie byłyby kontrakcjam i Jeśli oparlibyśmy się tylko na powyższym przykładzie, to moglibyśmy dojść do wniosku, że metryka euklidesowa jest tą specjalną metryką, która wychwytuje własności zwężające przekształceń nawet wtedy, kiedy inne metryki zawodzą. Nie jest to jednak prawdą. Weźmy na przykład przekształcenie, które składa się z obrotu o 90° oraz zmniejszania pierwszej współrzędnej w skali 0,5, to znaczy (x,y) -> (-0 ,5 y ,x ). Jeśli do tego przekształcenia dodamy odpowiednie przesu­ nięcie, to otrzymamy sposób na zakodowanie kwadratu (zob. rysunek 5.32). Można łatwo sprawdzić, że kwadrat jest punktem stałym dla operatora Hutchinsona, odpowiadają­ cego temu przekształceniu. Przekształcenie to jednak nie jest kontrakcją w metryce euklidesowej ¿ 2 (punkt (1,0) jest obracany na punkt (0,1), a skalowanie nie ma nań wpływu). Co więcej, nie jest to także przekształcenie zwężające w me- M etryka euklidesow a nie zaw sze jest trafnym w yb orem 354 5. Kodowanie obrazów R ysunek 5.33: P rzek ształcen ie, które obraca o 90° i zm niejsza dw ukrotnie w kierunku osi nie jest kontrakcją ani w m etryce euklidesow ej, ani w m etryce m iasta, ani w m etryce m aksim um (u góry). Jest on o jednak kontrakcją w zględem m etryki, która kładzie różne w agi w kierunkach x i y. P rzykładem m oże być me­ tryka d (P , Q ) — m a x { l,2 5 |x — u |, |y — u |}. N a rysunku przedsta­ w iono zbiory jednostkow e (pośrodku) i ich obrazy pod działaniem w(x,y) = ( - 0 ,5 y ,a r ) (po prawej) tryce m iasta di, ani w metryce maksimum d ^ . Okazuje się, że nie jest wcale jasne, czy kwadrat jest atraktorem dla IFS złożonego z tych przekształceń. Możemy znaleźć rozwiązanie tego problemu, ponieważ istnieją metryki, dla których przekształcenia te są przek­ ształceniami zwężającymi (zob. rysunek 5.33). Aby taką metrykę wyznaczyć, trzeba wykorzystać następującą obser­ wację. Odległość powinna być wyznaczana różnie dla kie­ runku osi x i kierunku osi y. Dzięki temu koło jednostkowe w tej metryce będzie prostokątem, w którym zawierać się będzie jego przekształcony obraz. Z asada Jeżeli chcemy stosować zasadę przekształcenia zwężająp rz e k s z ta łc e n ia cego, to może być dla nas ważne, w jakiej metryce działa z w ę żająceg o dane przekształcenie. W szczególności część trzecia zasady, a IF S która przewiduje, jak szybko iteracje IFS przybliżają się do atraktora, jest zależna od jakości metryki. Im mniejszy jest czynnik redukcji, tym szybsza jest zbieżność IFS, a prze­ cież czynnik redukcji jest bardzo wrażliwy na zmianę me- 355 5.7. Składanie obrazów samopodobnych tryki. Jak istotny jest wybór odpowiedniej metryki, będzie widoczne w kontekście problemu odwrotnego, o którym wspo­ mnieliśmy w paragrafie 5.4. 5.7. S k ła d a n ie o b r a z ó w sa m o p o d o b n y c h Istnieje kilka metod automatycznego rozwiązywania prob­ lemu znajdowania przekształcenia odwrotnego, ale żadna z nich nie obroniła się jako ta najlepsza. Dlatego właśnie omówimy kilka metod. Niektóre z nich są wynikiem po­ mysłów Barnsleya z wczesnych lat osiemdziesiątych. Po­ mysły te jednak nie prowadzą (jeszcze) do automatycznych algorytmów. Otrzymane algorytmy nadają się raczej do bu­ dowy programów interakcyjnych z inteligentnym użytkow­ nikiem. Przypomnijmy, że plan konstrukcji KW R można ot­ rzymać już z pierwszej wykonanej przez nią kopii. Ko­ pia jest złożeniem przekształconych obrazów. Jeśli zastosu­ jemy KWR do obrazu wyjściowego, nazwijmy go obrazemcelem, to pierwsza kopia wyznaczy również dokładność przy­ bliżenia. Jeśli kopia jest identyczna z oryginałem, to od­ powiadający jej IFS koduje obraz w sposób idealny. Jeśli odległość obrazu przetworzonego od oryginału jest mała, to dzięki zasadzie przekształcenia zwężającego możemy wnio­ skować, że atraktor IFS niewiele różni się od obrazu wyjś­ ciowego, który będzie w tym przypadku obrazem-celem. Ry­ sunek 5.34 ilustruje nasze rozważania dla trójkąta Sierpiń­ skiego. A trak tor IFS i plan konstrukcji KWR Te własności pozwalają nam na znalezienie kodu dla da­ K odow anie nego obrazu-celu, a w szczególności dla obrazów mających obrazów wyraźne cechy samopodobieństwa, jak na przykład paprotka. sam opod ob n ych Po krótkim treningu jest już łatwo rozpoznawać afiniczne ko­ pie całości. Na przykład w paprotce na rysunku 5.35 część R (1) jest trochę pomniejszoną, lekko obróconą wersją całej paprotki. Ta obserwacja prowadzi do odnalezienia pierw­ szego przekształcenia afinicznego, w i. To samo możemy za­ stosować do kopii R W i R ^ \ Nawet dolna część łodygi (część R ^ ) jest kopią całości. Kopia ta jest jednak zdegenerowana w tym sensie, że przekształcenie z nią związane jest skalo­ waniem z czynnikiem 0 w jednym z kierunków. Znaczy to, że paprotka przekształcona przez wą zamienia się w odci- 356 5. Kodowanie obrazów T estow anie sp osob ów łaczen ia R ysunek 5.34: Zastosow anie trzech K W R do trójkąta Sierpiń­ skiego. U góry: w łaściw a K W R pozostaw ia obraz nie zmieniony. Pośrodku: rozsądne przybliżenie. U dołu: złe przybliżenie nek. Przekształcenia, które otrzymamy, zakodują nam całą paprotkę, gdyż części R ^ - R ^ pokrywają ją całą. K odow anie Potrzebujemy więc procedury, która generowałaby zbiór w sy ste m ie przekształceń tak, by suma przekształconych obrazów-celów interak cyjn ym pokrywała obraz-cel tak dokładnie, jak tylko możliwe. Aby zilustrować, jak może to być przeprowadzone przez program interakcyjny, weźmy za przykład liść. Na początku obraz liścia jest wprowadzany do komputera przy użyciu skanera. Następnie kontur liścia można wyodrębnić z obrazu liścia za pomocą standardowych narzędzi przetwarzania obrazów. Otrzymamy w rezultacie wielokąt, który możemy szybko otrzymać i natychmiast wyświetlić na ekranie komputera. Co więcej, szybko można otrzymać i wyświetlić również prze­ kształcenia afiniczne. Przy użyciu interakcyjnych urządzeń, takich jak mysz czy klawiatura komputera, można łatwo wy­ znaczyć sześć param etrów definiujących przekształcenie afi­ niczne. Równocześnie komputer wyświetla na ekranie prze- o./. dKtaaanie oorazow samopoaoonycn oo i S posób łączenia p rzekształceń dla paprotki & m obraz wyjściowy schemat konstrukcji R ysun ek 5.35: Ta paprotka jest niewielką modyfikacją orygi­ nalnej paprotki Barnsleya, która umożliwia łatwiejszy rozkład na samopodobne części R ^ \ R ^2\ R ^3\ R ^ kształconą kopię wyjściowego wielokąta. Naszym celem jest znalezienie przekształcenia, które wytwarza kopię dobrze pa­ sującą do pewnej części liścia. Następnie procedurę tę po­ wtarzamy. Użytkownik próbuje dopasować następne prze­ kształcenie afiniczne, jeśli oczywiście poprzednie nie dopro­ wadziło do pokrycia całego liścia. Kontynuując to postępo­ wanie, dojdziemy do sytuacji, gdy cały liść będzie pokryty małymi i być może trochę zdeformowanymi kopiami samego siebie. Na rysunku 5.36 pokazano kilka pośrednich kroków, które mogą pojawić się przy planowaniu przekształceń liścia. 358 5. Kodowanie obrazów Sposób łączen ia p rzek ształceń dla liścia R ysunek 5.36: Kolejne kroki projektowania liścia. U góry: skanowany obraz prawdziwego liścia oraz przybliżający go wie­ lokąt. U dołu: sposób łączenia 7 przetworzonych obrazów wie­ lokąta i atraktor odpowiadającego mu IFS Zasada przekształcenia zwężającego i sposób łączenia obrazów Z a sto su jm y zasadę przekształcenia zw ężającego ze s. 343 do analizy re z u lta tó w o trzym a n yc h na rysunku 5 .3 4 , O szacow anie a priori dla ciągu ao, a i , generow anego przez przekształcenie zw ężające / pew nej przestrzeni m etryczn ej, z a tra k to re m prowadzi do nierówności ^oo) ^ cn 1 — C c je s t w spółczynn ikiem redukcji dla / , n a to m ia s t a ^ + i = 0,1,2,... k= ooy o . f . D K in a a m e o o m z o w S c u n o p o a o u i l y c n O znacza to w szczególności, że d(a0,a oo) < --------- d{a0, f { a 0)). l —c (5 .2 ) A zatem pojedynczy przebieg funkcji, jeśli sta rtu je m y od pun ktu ao, daje nam oszacowanie odległości pun ktu ao od a tra k to ra a ^ w m e­ tryce d. S próbujm y te ra z przeanalizow ać ten re zu lta t, używ ając ope­ ratora Hutchinsona W oraz odległości H ausdorffa h. Niech c będzie w spółczynnikiem redukcji dla W i niech P będzie dow olnym obrazem początkow ym (form alnie: zw artym podzbiorem płaszczyzny). C hcie­ libyśmy określić, na ile dobrze o p erato r H utchinsona zako d u je dany obraz P . M o żem y to o trzy m a ć z nierówności (5 .2 ). Rzeczywiście, nierówność tę m ożna te ra z zapisać w następujący sposób: h f t A n ) < - d _ h(P,W (P)) 1 —c (5 .3 ) gdzie Aoo je s t a tra k to re m IFS danego przez W. O zn acza to , że jakość kodowania, m ierzona przez odległość H ausdorffa pom iędzy P i będzie w yznaczona przez jednorazow e zastosow anie o p erato ra H u t­ chinsona do P. Jest ona kontrolow ana przez h(P, W ( P ) ) .14 Jeśli złożenia obrazów przekształceń dadzą obraz nie­ wiele różniący się od liścia, to dzięki zasadzie przekształcenia zwężającego będziemy mogli powiedzieć, że atraktor IFS rów­ nież niewiele będzie się różnił od liścia. Przy wyborze przek­ ształceń przybliżających liść powinniśmy pamiętać również o efektywności kodowania. Oznacza to, że chcielibyśmy użyć jak najmniejszej liczby tych przekształceń. Definicja opty­ malnego rozwiązania problemu musi zatem zawierać kom­ promis pomiędzy jakością przybliżenia a efektywnością. Zna­ lezienie sposobu automatycznego kodowania obrazu-celu jest ciągle jeszcze wyzwaniem dla badaczy. Dopasowywanie przekształceń jest tylko jednym przykła­ dem spośród wielu problemów matematycznych, które nazy­ wamy problemami optymalizacji. Takie problemy często są łatwe do sformułowania, ale bardzo trudne do rozwiązania, nawet przy użyciu zaawansowanej technologii komputerowej oraz złożonych algorytmów matematycznych. 14 Barnsley nazywa równanie (5.3) „twierdzeniem o sposobach łączenia (collage’u) dla systemów iteracyjnych”. 360 5. Kodowanie obrazów Problem optymalizacji dla znajdowania przekszalceń O szacow anie a priori w yn ikające z zasady przekształcenia zw ęża­ jąc eg o M ^4») < h(p ’w (p )) dostarcza następującego problem u o p tym a lizac ji. Załóżm y, że m am y dany obraz P , k tó ry ch cem y zakodow ać przez IFS, używ ając nie więcej niż N przekształceń. T rze b a w yznaczyć te przekształcenia. K ażdy zb ió r N przekształceń w i , ... d efin iu je o p e ra to r H utchinsona W. M o ż e m y d o d atko w o założyć, że w spółczynniki redukcji dla tych prze­ kształceń są m niejsze lub rów ne od jakieg o ś ustalonego przez nas c < 1. P rzy pow yższych założeniach m a m y zn aleźć W, które m ini­ m alizu je odległość H au sdo rffa h(P,W(P)), by zg odnie z pow yższą nierów nością pop raw ić jakość p rzy b liże n ia .15 Z łożoność Standardowym przykładem tej klasy problemów jest ob liczen iow a problem komiwojażera. Problem ten można sformalizować w następujący sposób. Wybierzmy pewną liczbę miejscowości (na przykład wszystkie miejscowości Polski mające więcej niż 500 mieszkańców) i określmy najkrótszą drogę, jaką sprze­ dawca musi przebyć, by odwiedzić wszystkie te miasta. Wy­ dawałoby się, że problem tak prosto sformułowany nie po­ winien być trudny do rozwiązania przy użyciu komputera. Praw da jest jednak taka, że komputery stają się całkowicie nieprzydatne w momencie, gdy liczba miejscowości prze­ kroczy parę setek. Problemy tego rodzaju nazywają się obliczeniowo złożonymi i uważa się obecnie, że są one nie­ zmiennie odporne na szybkie rozwiązania i że zawsze ta ­ kimi pozostaną. Przykłady tego typu niosą przesłanie, że proste problemy nie zawsze m ają proste rozwiązania i że ocean m atem atyki aż roi się od takich stworów. Niestety nie jest jeszcze jasne, czy wyszukiwanie przekształceń do ko­ dowania obrazów może być matematycznie sformalizowane w sposób, który unikałby dużej złożoności obliczeniowej. Co­ kolwiek się wydarzy, wydaje się już jasne, że złożoność obli­ czeniowa dla niektórych obrazów będzie bardzo duża, pod­ czas gdy dla innych mała. Możemy zgadywać, że obrazy 15 Problem wyznaczania odległości Hausdorffa dla obrazów binar­ nych jest omawiany w pracy: R. Shonkwiller, An image algorithm for computing the Hausdorff distance efficiently in linear time, Info. Proc. Lett. 30, 87-89 (1989). 5.8. Złamanie zasady samopodobieństwa zdominowane przez samopodobieństwo mogą być łatwe do analizy. To jedno wystarczy, żeby nadal badać tę dziedzinę, gdyż samopodobieństwo zdaje się charakteryzować wiele po­ jawiających się w naturze kształtów i wzorów. Nasze rozważania prowadzą do kilku innych problemów, które są blisko związane z obecnymi badaniami naukowymi. Chcielibyśmy o nich chociaż krótko wspomnieć. 5.8. Z łam an ie z a sa d y s a m o p o d o b ie ń s tw a (i s a m o a fin ic z n o śc i), c z y li K W R p o łą c z o n e w sieć Jeżeli tworzymy obraz stosując KWR, to otrzymujemy w kon­ sekwencji strukturę mającą powtórzenia w coraz mniejszej skali. W przypadku gdy wszystkie przekształcenia zwią­ zane z KWR są podobieństwami z takimi samymi współ­ czynnikami redukcji (na przykład dla trójkąta Sierpińskie­ go), atraktor KWR nazywamy ściśle samopodobnym. Jeśli współczynniki redukcji są różne, atraktor nazywamy samo­ podobnym. W przypadku kiedy przekształcenia nie są podo­ bieństwami, a tylko przekształceniami afinicznymi (np. dia­ belskie schody), atraktor nazywamy samoafinicznym. Przy tworzeniu obrazów przez IFS otrzymujemy więc obrazy samopodobne lub samoafiniczne. Jak już zauważy­ liśmy, IFS można używać do przybliżania obrazów, które nie są ani samopodobne, ani samoafiniczne. Możemy otrzymać przybliżenie o dowolnej dokładności. Jednakże małe części otrzymanego atraktora będą wykazywały cechy samopodo­ bieństwa. W ostatniej części tego rozdziału wprowadzimy uogólnienie idei IFS tak, że będzie można usunąć to ograni­ czenie.16 16 Podobne pomysły można znaleźć w: M. F. Barnsley, J, H. Elton i D. P. Hardin, Recurrent iterated functions systems, C onstr. Approx. 5, 3-31 (1989); M. Berger, Encoding images through transition pro­ babilities, Math. Comp. Model. 11, 575-577 (1988); R. D. Mauldin i S. C. Williams, Hausdorff dimension in graph directed constructions, Trans. Am. Math. Soc. 309, 811-829 (1988); G. Edgar, Measure, Topology and Fractal Geometry, Springer-Verlag, New York 1990. Idee tego typu po raz pierwszy pojawiły się w: T. Bedford, Dynamics and dimension for fractal recurrent sets, J. London Math. Soc. 33, 89-100 (1986). 361 362 5. Kodowanie obrazów D w ie paprotki R ysunek 5.37: Dwie paprotki różniące się od paprotki Barnsleya. W obu egzemplarzach ułożenie liści na łodydze głównej jest różne od ułożenia mniejszych listków na gałązkach bocznych. W tej skali nie widzimy różnicy pomiędzy nimi, jednak powiększenia na następnych rysunkach ukazują istotne różnice Na rysunku 5.37 przedstawiono dwie paprocie, które P ap rocie bez sam op od o- bardzo przypom inają paprotkę Barnsleya, ale istnieje między b ień stw a nimi pewna istotna różnica. Przy bliższej obserwacji możemy zauważyć, że sposób ułożenia mniejszych liści różni się od sposobu ułożenia liści głównych. Oznacza to, że główne liście nie są już pomniejszonymi kopiami całości, czyli że paprocie te nie są już ani samopodobne, ani samoafiniczne. Mimo to wykazują one pewne cechy samopodobieństwa. Jakie są to cechy i jak można te paprocie zakodować? Odpowiedź na to pytanie zawiedzie nas do KW R połączonych w sieć, nazywanych hierarchicznymi IFS. Jeśli przyjrzyjmy się powiększeniu jednego z głównych liści każdej z paproci (zob. rysunek 5.38), to ujrzymy pewną strukturę hierarchiczną. Możemy w ten sposób odkryć różne rodzaje hierarchii w sposobie ułożenia listków. Położenie trzecich z kolei liści, licząc od największych — głównych, jest inne. Paproć po lewej stronie ma wszystkie liście, oprócz największych, położone naprzeciwko siebie, podczas gdy w paproci po prawej położenie zmienia się z poziomu na poziom. Na jednym poziomie liście ułożone są naprzeciwko 363 5.8. Złamanie zasady samopodobieństwa P ow iększen ia dolnego praw ego liścia paprotki Rysunek 5.38: Po lewej: pow iększenia paprotki znajdującej się po lewej stronie na rysunku 5.37 ukazują hierarchię typu (a): w szystkie m niejsze listki są położone jeden naprzeciwko drugiego. Po prawej: pow iększenie paprotki znajdującej się po prawej stro­ nie ukazuje hierarchię typu (b): m niejsze listki m ają strukturę naprzem ienną siebie, na następnym zaś na przemian. Te typy hierarchii będziemy dla ułatwienia nazywać odpowiednio typami (a) i (b). Staje się widoczne, że kodowanie za pomocą IFS wykra­ cza poza problem kodowania obrazu. Zrozumienie za po­ mocą IFS własności hierarchicznego samopodobieństwa na przykład w roślinach, otwiera możliwości dla matematycz­ nego opisu taksonomii w botanice. Zobaczymy później, że samopodobne struktury mogą być nawet przemieszane. Rozszerzymy możliwości KW R przez dopuszczenie łą­ K W R w sieci czenia kilku KWR w sieć. Pokażemy, jak dwie KWR połą­ czone w sieć mogą doprowadzić do powstania paproci, która nie jest samopodobna. Dla przejrzystości wywodu rozpa­ trzmy najpierw paproć bez łodygi. 5. Kodowanie obrazów 364 K opiarka dla p aprotki Rysunek 5.39: U kład sprzężenia zw rotnego dla paprotki Barn- sleya (bez łodygi) Skupmy naszą uwagę na paproci o typie podporządkowa­ nia (a) z rysunku 5.38. Możemy wyodrębnić dwie podsta­ wowe struktury: (1) całą paproć i (2) jeden z jej głównych liści, powiedzmy prawy dolny (zob. rysunek 5.40). Liść ten jest samopodobny, czy też raczej samoafiniczny. Wszystkie mniejsze liście są pomniejszonymi kopiami ory­ ginału. Cała paproć składa się z kopii tych liści, ale nie jest po prostu powiększoną wersją żadnego z nich. Wynika to z różnego rozłożenia liści głównych i mniejszych listków. P od staw ow a stru k tu ra Rysunek 5.40: P od ział paprotki o typie podporządkow ania (a) na p od staw ow e struktury: cała paprotka i jeden z jej głów nych liści ą.tf. Zi&manie zasady samopodobieństwa Rysunek 5.41: Ta sieć, złożona z dw óch kopiarek, generuje paprotkę o sposobie ułożenia listków danym przez typ (a). Po prawej stronie pokazany jest graf odpow iadającego IFS Stanowi to podstawową różnicę pomiędzy samoafiniczną pa­ protką Barnsleya a tą właśnie ze złamaną zasadą samoafiniczności. Właśnie z powodu tej różnicy paproci tej nie da się wy­ generować przy użyciu zwykłej KWR. Okazuje się jednak, że gdy połączymy dwie KWR w sieć, tak jak to jest pokazane na rysunku 5.41, osiągniemy nasz cel. Jedno z urządzeń (dolne) wytwarza jedynie główny liść. Działa ono tak samo jak to do produkcji paprotki Barnsleya (dla uproszczenia nie bierzemy pod uwagę łodygi). Składa się ono z trzech przekształceń: jedno przekształca cały liść w lewy dolny listek, drugie — w lewy górny, a trzecie prze­ kształca cały liść na wszystkie te listki, które nie zostały pokryte przez wcześniejsze przekształcenia. Następne urządzenie (górne) wytwarza całą paproć. Znaj­ dują się tu dwa wejścia i dwa wyjścia. W jednym przypadku mamy do czynienia z pętlą. W drugim, górnym, wejście jest obsługiwane przez wyjście urządzenia dolnego. Urządzenie 366 5. Kodowanie obrado w to używa również trzech przekształceń, jednak każde z nich przekształca tylko jeden obraz wejściowy. Dwa z nich (w 2 i W3 na rysunku) przekształcają obraz otrzymany w dol­ nej KWR. Umieszczają one prawy i lewy dolny listek na właściwych miejscach. O statnie przekształcenie (oznaczone na rysunku przez w\) przetwarza obraz wyjściowy z górnego urządzenia, tzn. przekształca całą paproć w jej górną część (część bez dwóch dolnych listków). Obrazy otrzymane przez te trzy przekształcenia są łączone przy przesyłaniu do wyjścia urządzenia górnego. Oznaczone jest to znakiem „U” — sumy teoriomnogościowej. Podobnie postępowaliśmy w przypadku KW R dla paprotki Barnsleya. Postępując zgodnie z powyż­ szym opisem, wygenerujemy paprotkę o rozmieszczeniu li­ stków w typie hierarchii (a). Jeżeli chcemy otrzymać paprotkę o typie hierarchii (b), Zm iana w p ołączen iu musimy jeszcze bardziej skomplikować połączenia pomiędzy w ejść dwoma KWR. W tego typu paproci pomniejszone kopie ca­ łości pojawiają się w częściach głównych liści, które same nie są wcale kopiami całości. Możemy łatwo otrzymać taką paproć, jeżeli dokonamy połączeń, takich jak na rysunku 5.42. Jedyną zmianą w stosunku do sieci dla paproci o typie hierarchii (a) jest dodanie jednego wejścia w dolnej KWR. Obraz na tym wejściu (który w granicy daje całą paproć) będzie przekształcany tak, aby w granicy dać dwa dolne liście. Jak działa ta sieć? Bierzemy po prostu dowolny obraz początkowy, na przykład trójkąt, i dajemy go do kopiowania dwóm urządzeniom. Urządzenia te przekształcają obrazy wejściowe zgodnie ze swoimi planami działania, zaznaczo­ nymi na rysunku strzałkami. Otrzymujemy w ten sposób dwa wyjściowe obrazy: jeden dla liścia i jeden dla całej pa­ proci. Obrazy te następnie służą jako obrazy na wejściu, tak jak to zaznaczono na połączeniu samosprzężenia. Podczas iterowania tego procesu możemy zaobserwować, jak KWR, odpowiedzialna za wytwarzanie liścia, wytwarza dolny prawy listek i jak KWR, odpowiedzialna za produkcję całej paproci, wytwarza odpowiednio zbudowaną paproć. Zasada Możemy zapytać, czy to, że w wyniku działania wyżej p rzek ształcen ia opisanej konstrukcji otrzymujemy pożądany rezultat, jest zw ężającego czystym przypadkiem? Otóż nie. Omawialiśmy poprzednio znow u działa zasadę przekształcenia zwężającego. Okazuje się, że dla ta ­ kiej sieci możemy również zastosować tę zasadę. Jest to 0.5. ¿tamame zasady samopoaooiensiwa R y s u n e k 5 .4 2 : Ta sieć, złożona z dw óch kopiarek, generuje drugą paprotkę o sposobie ułożenia listków typu (b) kolejny przykład użycia naszego abstrakcyjnego podejścia. Możemy wywnioskować, że dla tej sieci istnieje dokładnie jeden obraz graniczny, jej atraktor. Ten obraz graniczny jest niezależny od obrazu, z jakiego startujemy. Oznacza to w szczególności, że połączone w sieć urządzenia kodują niesamopodobne paprocie, przy tym ich hierarchiczne po­ łączenia jakoś wyłapują cechy samopodobieństwa. W rze­ czywistości takie sieci świetnie nadają się do opisu tego ro­ dzaju samopodobieństwa i umożliwiają tworzenie bogatej klasy atraktorów. Wyobraźmy sobie, że zmieniliśmy nie­ znacznie tylko współczynnik kontrakcji i położenie jednego systemu soczewek. W rezultacie otrzymujemy cały nowy wszechświat możliwych struktur. Jednakże każda z nich wykazywać będzie takie same własności samopodobieństwa. I w ten oto sposób dotarliśmy do początku nowej i bar­ dzo obiecującej teorii, która umożliwi rozszyfrowanie, być może, wszelkiego rodzaju cech samopodobieństwa. M ate­ matyczny opis KWR działających w sieci jest tem atem po­ zostałej części tego rozdziału. ÓOi 368 Formalizm hierarchicznego IFS 5. Kodowanie obrazów Z a jm ijm y się rozszerzeniem pojęcia operato ra H utchinsona dla sieci K W R . W y m a g a to w prow adzenia m acierzy. Niech a 11 di rn a \2 A = 1 ^m 2 będzie m acierzą (m x m) • ■• o ®mm elem en tach a\3 i niech ih \ b= \ °m / będzie w e kto re m . W te d y c = A b je s t w ekto rem o m składowych c*, gdzie rn — ^ * W p ro w a d ź m y pojęcie zw ią za n e ze zw ykłym i m acierzam i, hierarchiczne IFS (o d p o w ia d a ją c e sieciom K W R ). Jest ono dane przez m acierz ( M x M) i W 11 ^ WM: WM M / gdzie każde je s t o p e ra to re m H utchinsona (tz n . je s t w yzn a­ czone przez skończoną liczbę przekształceń zw ęża jąc ych ). O trz y m u ­ je m y w ten sposób operator Hutchinsona w postaci macierzowej W , d zia ła ją c y na w e kto rze B złożonym z M obrazów B = \ Bm / przy czym każde Bi je s t zw arty m podzbiorem płaszczyzny R 2. W y ­ n ikiem działan ia W ( B ) je s t w e k to r C o M składowych Ci M Ci = U WijiBj). J= 1 W y g o d n ie je s t przyjąć, że o p e ra to r H utchinsona m oże być ta k że o p e ra to re m „p u s ty m ” , — 0. T u ta j sym bol zbioru pustego 0 o .o . zjicLiimuw zasau y ouy tnauupuuuuwii& iwći będzie grał podobną rolę ja k zero w arytm etyce: o p e ra to r 0 prze­ kształca dow olny zbiór na zbiór pusty (to zn aczy dla dow olnego zbioru B m am y $(B) — 0 ). Następnie m ożem y dokonać naturalnego utożsam ienia. Sieć K W R m ożna przedstaw ić w postaci grafu złożonego z w ierzch o łkó w oraz skierowanych kraw ędzi. W yjściu każdej K W R odp ow iad a w ierzchołek, a każdem u wejściu kraw ędź skierowana. G rafy te , przedstaw ione obok sieci K W R , reprezentują w sposób czytelny i zw ięzły hierarchie IFS (przyjrzyjm y się na przykład paprotce bez cechy sam opodobieństw a oraz paprotce Sierpińskiego). w7 u wg u w9 Rysunek 5.43: Sieć złożona z trzech kopiarek, generująca pa­ protkę złożoną z pomniejszonych trójkątów Sierpińskiego 370 5. Kodowanie obrazów Z au w ażm y, że kraw ędź skierow ana, łącząca w ierzchołek j z w ierz­ ch ołkiem i o d p o w iad a te m u , że obraz w yjściow y j je s t przekształcany zg odnie z o d p o w ied n im o p erato rem H utchinsona (tz n . z ty m , który działa na ty m w ejściu), a następnie przekazyw any do w ierzchołka i. N a wyjściu o trz y m u je m y sum ę w szystkich przekształconych obrazów , któ re zo stały do teg o w ierzchołka przekazane. T e ra z m ożem y zdefi­ niować W ^ . Jeżeli istnieje kraw ędź skierow ana od w ierzchołka j do w ierzchołka z, to Wij je s t w yzn aczo n e przez odpow iedni o perato r H u tch in so n a. W przeciw nym przypadku kładziem y W\j — 0. D la p rzyp ad kó w , któ re rozw ażam y, o trz y m a m y dla pap ro tki ty p u (a ), w = ( Wi \ U>5 U W q W2 U W$ Wą dla pap ro tki typu (b ), oraz w 2 U W3 Wą 0 dla pap ro tki Sierpińskiego. Z w ró ć m y uwagę, że użyliśm y tu ta j skró­ conej fo rm y zapisu o p e ra to ra H utchinsona. Na przykład jeśli prze­ kształcam y dow olny zb ió r B przy użyciu W2 U W 3 , to napiszem y W2 u Ws(B) — W2 (B) U W3(B). D zięki tym d efinicjom m ożem y te ra z opisać fo rm aln ie iteracje hie­ rarchicznego IF S . Niech A q będzie w ekto rem p o czątko w ym złożonym z obrazów . P rzekształcen ie d efin iu je ciąg w ekto ró w o M współrzęd­ nych Ajfc+i = W(Afc), A: = 0, 1, 2... O k a z u je się, że ciąg ten rów nież m a granicę Ax>> któ rą nazyw am y a tra k to re m hierarchicznego IFS. D ow ó d teg o fa k tu w ynika z zasady przekształcenia zw ężającego. Z a c z y n a m y od płaszczyzny w yposażonej w m etry kę zu pełną. W yn ika stąd , że przestrzeń zw artych p o d zb io ró w płaszczyzny z odległością H ausdorffa je s t rów nież p rzestrzenią zu p ełn ą. N astępnie bierzem y M -k r o tn y iloczyn kartezjański te j przestrzeni i oznaczam y go przez H. W przestrzeni H istnieje n a tu raln a m etryka d maxł pochodząca od odległości H ausdorffa: je że li A i B są e le m en tam i H , to kładziem y u . cj. ¿j i c u i j l c l u i c tj i _L Z/aoauj' oojiiupuuuL /iciioii wa ^ m a x ( A , B ) — m a x { h ( A ^ , B ^ ) |i — 1 , . . . A / } , gdzie Ai i Bi o znaczają składowe A i B , a h(Ai^Bi) oznacza ich odległość Hausdorffa. W p ro s t z definicji w ynika, że: • H je s t rów nież zu pełną przestrzenią m etryczn ą, • W : H ^ H je s t przekształceniem zw ężającym . By udowodnić zupełność, m usim y do d atko w o założyć, że ite ra ­ cje W n m acierzy o p e ra to ró w H utchm sona nie składają się w yłącznie z o p erato rów pustych 0. Z powyższych rozw ażań w ynika, że zasada przekształcenia zw ężającego ze w szystkim i swoim i konsekw encjam i m oże być tu stosowana, podobnie ja k dla zw yczajnych o p e ra to ró w H utchinsona. Paprotka Sierpińskiego Rysunek 5.44: Paprotka Sierpińskiego i jeden z jej głównych liści Na zakończenie tego rozdziału użyjemy KW R połączo- Paprotka nych w sieć, aby otrzymać dość dziwną paprotkę, którą na- S ierpińskiego zwiemy paprotką Sierpińskiego. Jest to paprotka o typie podporządkowania (a), w której listki zastąpione są małymi kopiami trójkąta Sierpińskiego. Sieć składa się z trzech KWR. Dwie pierwsze są odpowiedzialne, tak jak przedtem, za struk­ turę paprotki, podczas gdy trzecia zajmuje się wytwarzaniem trójkąta Sierpińskiego, który następnie jest dostarczany do 372 5 . Kodowanie obrazów R ysunek 5.45: Dolna kopiarka generuje prostą, która jest na­ stępnie przetwarzana przez górną kopiarkę w celu uzyskania łodygi paprotki jednej z dwóch pierwszych kopiarek. Eksperyment genero­ wania paprotki Sierpińskiego pokazuje, że połączone w sieć KW R są dogodnym narzędziem do analizy i kodowania hie­ rarchicznie zbudowanych obiektów, wykazujących cechy samopodobieństwa. Ponadto nadają się one do łączenia fraktali. Ł od yga p ap rotki Kiedy wprowadzaliśmy pojęcie paprotki Barnsleya przy B arn sleya użyciu KWR, zaobserwowaliśmy, że nie jest ona ściśle samopodobna. Problem stanowiła przede wszystkim łodyga. W tym przypadku łodygę otrzymaliśmy ze zdegenerowanej afinicznie (tzn. zredukowanej do odcinka) kopii całej pa­ protki. W przypadku KW R problem ten znajduje swoje wyjaśnienie. Plan sieci pokazany na rysunku 5.45 składa się z dwóch KWR. Górne urządzenie wytwarza listki, a dolne łodygę. Oznacza to więc, że paprotka Barnsleya jest w zasa­ dzie złożeniem dwóch (ściśle) samopodobnych obiektów.17 17 Dokładniej mówiąc, paprotka bez łodygi jest samoafiniczna, a nie samopodobna, ponieważ przekształcenia wytwarzające liście są podo­ bieństwami tylko w przybliżeniu. 5.9. Program na zakończenie rozdziału Różnorodność struktur, jakie możemy otrzymać składa­ jąc w sieć KWR, jest niewyobrażalna. Zastosowanie sieci KWR prezentujemy w rozdziale 9 do rozwiązania problemu, który był przez długi czas problemem otwartym, a mianowi­ cie do rozszyfrowania wzorów pojawiających się w trójkącie Pascala przy analizie podzielności współczynników dwumia­ nu Newtona przez potęgi liczb pierwszych. 5.9. P r o g r a m n a z a k o ń c z e n ie rozd zia łu : ite r o w a n ie K W R Wyobraźmy sobie interakcyjny program komputerowy, który ma za zadanie projektowanie kopiarek wielokrotnie redu­ kujących. Dzięki takiemu programowi można wybierać i zmieniać przekształcenia i natychmiast obserwować na ekra­ nie komputera, jak zmieniają się odpowiednie atraktory. Ba­ wiąc się w ten sposób, możemy poznać efekt działania róż­ nych przekształceń afinicznych. Program tu pokazany nie spełnia wszystkich oczekiwań, jakie można przed tego typu programem stawiać, ale jest krótki i na tyle dobry, by wy­ generować większość obrazów omówionych w tym rozdziale. Poniżej podajemy tabelę parametrów do wyznaczania prze­ kształceń afinicznych. Rysunek 5.46: Wynik działania programu „Iterowanie KWR” (po lewej, poziom = 5). Prawy obraz jest otrzymywany po zmia­ nie parametrów dla rysunku 5.13 zgodnie z tabelą 5.2 373 374 5. Kodowanie obrazów Program podany tu taj ma param etry ustawione tak, by generować trójkąt Sierpińskiego lub różne poziomy jego kon­ strukcji. Używamy wielokrotnych powtórzeń przekształceń wyznaczających KWR. Na samym początku zostaniemy za­ pytani, ile iteracji m a być wykonanych. Chodzi o poziom konstrukcji, który chcemy zobaczyć. Podobnie jak w poprze­ dnich rozdziałach, będziemy używali struktury rekursywnej, aby uniknąć przechowywania w pamięci tysięcy trójkątów. Wartość „1” oznacza poziom = 1 (tzn. nie przeprowadzać żadnej iteracji KW R) i ujrzymy obraz początkowy, Obra­ zem początkowym jest tu trójkąt. Dlatego też na wszystkich poziomach iteracji występują obrazy trójkątów. Wybór ta ­ kiego prostego obrazu początkowego powoduje, że program jest krótki i szybki. Nie powinna być problemem zmiana programu w ten sposób, by wyjściowym obrazem był kwa­ drat czy też inna figura. Pozostawiamy to Czytelnikowi. Przyjrzyjmy się programowi. Na początku znajduje się specyfikacja obrazu początkowego — trójkąta. Następnie ustalamy wartości param etrów przekształceń: a ( l ) , a (2 ) , a (3 ) , ... f (1) , f (2) , f (3) . Zauważmy, że nie ustaliliśmy wartości ani dla b () , ani dla c ( ) , a to dlatego, że będą one zerami. Ominęliśmy je, by program był krótszy. Jeśli ze­ chcemy zmienić przekształcenia, to prawdopodobnie trzeba będzie te param etry dopisać. Zauważmy, że występują one od razu w drugiej linii deklaracji DIM. Jeżeli wprowadzamy więcej przekształceń, nie wolno nam zapomnieć o odpowie­ dniej zmianie wymiarów w deklaracji DIM. Następnie zaczyna się rekursja (jak zwykle GOSUB 100) od sprawdzenia, na którym poziomie jesteśmy. Jeżeli znaj­ dujemy się na poziomie najniższym, to narysowany będzie nieprzekształcony trójkąt. W przeciwnym przypadku (ety­ kieta 200) wchodzimy na następny poziom rekursji. Wy­ bieramy najpierw przekształcenie p rz e k s z t = 1. Jak tylko część ta się zakończy i wszystkie przekształcane wielokrot­ nie trójkąty przy p rz e k s z t = 1 zostaną narysowane, wtedy startuje następna część z p rz e k s z t = 2, a jako ostatnia część dla p rz e k s z t = 3. To kończy część rekursywną pro­ gramu. Jeśli uprzednio zmienialiśmy liczbę przekształceń, tu taj również powinniśmy rozszerzyć program. Zauważmy, że kiedykolwiek zaczynamy rekursję dla no­ wego przekształcenia, najpierw przekształcenie to przekształ­ ca istniejący trójkąt (etykieta 50). Również w tym miejscu 375 5.9. Frogram na zakończenie rozdziału a b Rys. 5.9 0,500 0,000 0,500 0,000 0,500 0,000 Rys. 5.10 0,000 --0,500 0,000 0,500 0,500 0,000 Rys. 5.11 0,000 0,577 0,000 0,577 0,000 0,577 Rys. 5.12 0,336 0,000 0,000 0,333 0,000 --0,333 Rys. 5.13 0,387 0,430 0,441 --0,091 -0,468 0,020 Rys. 5.14 0,255 0,000 0,255 0,000 0,255 0,000 0,370 --0,642 Rys. 5.15 0,382 0,000 0,382 0,000 0,000 0,382 0,382 0,000 0,382 0,000 Rys. 5.16 0,195 --0,488 0,462 0,414 -0,058 --0,070 -0,035 0,070 -0,637 0,000 Rys. 5.23 0,849 0,037 0,197 --0,226 -0,150 0,283 0,000 0,000 c d e f 0,000 0,000 0,000 0,500 0,500 0,500 0,0000 0,5000 0,0000 0,0000 0,0000 0,5000 0,500 -0,500 0,000 -0,000 0,000 0,500 0,5000 0,5000 0,2500 0,0000 0,5000 0,5000 -0,577 -0,577 -0,577 0,000 0,000 0,000 0,0951 0,4413 0,0952 0,5893 0,7893 0,9893 0,000 1,000 1,000 0,335 0,000 0,000 0,0662 0,1333 0,0666 0,1333 0,0000 0,0000 0,430 -0,009 -0,113 -0,387 -0,322 0,015 0,2560 0,4219 0,4000 0,5220 0,5059 0,4000 0,000 0,000 0,000 0,642 0,255 0,255 0,255 0,370 0,3726 0,1146 0,6306 0,6356 0,6714 0,2232 0,2232 -0,0061 0,000 0,000 0,000 0,000 0,000 0,382 0,382 0,382 0,382 0,382 0,3072 0,6033 0,0139 0,1253 0,4920 0,6190 0,4044 0,4044 0,0595 0,0595 0,344 -0,252 0,453 -0,469 0,000 0,443 0,361 -0,111 -0,022 0,501 0,4431 0,2511 0,5976 0,4884 0,8562 0,2452 0,5692 0,0969 0,5069 0,2513 -0,037 0,226 0,260 0,000 0,849 0,197 0,237 0,160 0,075 0,400 0,575 0,500 0,1830 0,0490 -0,0840 0,0000 Tabela 5.2: Tabela parametrów dla przekształceń z bieżącego rozdziału Tabela parametrów 376 5. Kodowanie obrazów Program w BASIC-u Tytuł Iterow anie K W R Wielokrotnie redukujące kopiowanie trójkąta Sierpińskiego DIM xlewy(10),xprawy(10),xgorny(10),ylewy(10),yprawy(10),ygorny(10) DIM a(3), b(3), c(3), d(3), e(3), f(3) INPUT ,,Wprowadź poziom: )} poziom lewy = 30 w = 300 wl = w + lewy xlewy(poziom) = 0 ylewy(poziom) ~ 0 xprawy(poziom) = w yprawy(poziom) = 0 xgorny(poziom) = .5*w ygorny(poziom) = w a(l) = .5 : a(2) = .5 : a(3) = .5 d(l) = .5 : d(2) = .5 : d(3) = .5 e(l) = 0 : e(2) = 0.5*w : e(3) = 0.25*w f(l) = 0 : f (2) = 0 : f(3) = .5*w GOSUB 100 END REM 50 PRZEKSZTAŁCANIE TROJKATA xlewy(poziom) = a(przekszt)*xlewy(poziom+l) + ylewy(poziom) = d(przekszt)*ylewy(poziom+l) + xprawy(poziom) = a(przekszt)*xprawy(poziom+1) yprawy(poziom) = d(przekszt)*yprawy(poziom+1) xgorny(poziom) - a(przekszt)*xgorny(poziom+1) ygorny(poziom) = d(przekszt)*ygorny(poziom+1) REM 100 RYSOWANIE TROJKATA NA NAJNIŻSZYM POZIOMIE IF poziom > 1 GOTO 200 LINE (lewy+xlewy(1),wl-ylewy(1)) - (lewy+xprawy(1),wl-yprawy(1)) LINE - (lewy+xgorny(1),wl-ygorny(1)) LINE - (lewy+xlewy(1),wl-ylewy(1)) GOTO 300 REM 200 ROZGAŁĘZIENIE NA NIZSZE POZIOMY poziom = poziom - 1 przekszt - 1 GOSUB 50 przekszt = 2 GOSUB 50 przekszt = 3 GOSUB 50 poziom = poziom + 1 300 RETURN e(przekszt) f(przekszt) + e(przekszt) + f(przekszt) + e(przekszt) + f(przekszt) 5.9. Program na zakończenie rozdziału program dla zwięzłości nie zawiera parametrów b () albo c (). Jeżeli chcemy użyć ogólniejszych przekształceń, mu­ simy przeprowadzić zmiany, takie jak na przykład: a(przekszt)*xpraw y(poziom + l)+ b (p rzek szt)* y p raw y (p o zio m + l)+ e(p rzek szt) c (p rz e k s z t) *xprawy(poziom*1)+ d(przekszt)*yprawy(poziom*1)*f(przekszt) Zauważmy na koniec, że param etry występujące w tabeli 5.2 są ustalone dla obrazów znajdujących się w obszarze [0,1] x [0,1]. Nasz program pokazuje obrazy w obszarze [0, w] x [0, w] i dlatego części odpowiedzialne za przesunięcie e () i f () dla przekształceń muszą być przeskalowane w zależności od w. Nie powinniśmy o tym zapomnieć podczas zmieniania pa­ rametrów. Na przykład dla paprotki z rysunku 5.23 przyj­ miemy e ( l) = 0,075*w f (1) = 0 , 183*w i tak dalej. 377 R ozdział 6 Gra w chaos: jak losow ość tworzy d eterm in istyczn e k ształty Chaos jest partyturą, na której zapisana jest rzeczywistość. Henry Miller Nic w naturze nie jest przypadkowe... Rzeczy wydają się lo­ sowe tylko przez niepełność naszej wiedzy. Spinoza Nasze rozumienie losowości, zwłaszcza w odniesieniu do obra­ zów, można wyrazić słowami, że obiekty czy kształty, które powstały w sposób losowy, powinny wyglądać mniej lub bar­ dziej dowolnie. W ydaje się nam na ogół, że jeśli nawet mają one pewną charakterystyczną strukturę, to prawdopodobnie nie będzie ona dla nas interesująca. Dobrym przykładem mogą być tu gwoździe, które wysypały się z pudełka na stół. Browna Przyjrzyjmy się następującemu przykładowi. Małe czą­ stki ciała stałego, zawieszone w cieczy, można obserwować pod mikroskopem i ruch ich wydaje się nieregularny i zmien­ ny. Jest to tzw. ruch Brownax, który jest powodowany 1 Odkrycia tego dokonał botanik Robert Brown około roku 1827. 379 losowymi zderzeniami z cząstkami cieczy, znajdującymi się w sąsiedztwie. Stanowi on dobry przykład tego, czego ocze­ kujemy od ruchu sterowanego losowo. Opiszmy krok po kroku ruch takiej cząstki. Zacznijmy od punktu na płasz­ czyźnie. Wybieramy losowo kierunek, przechodzimy w tym kie­ runku kawałek i zatrzymujemy się. Wybieramy losowo na­ stępny kierunek, przemieszczamy się znów kawałek i znowu zatrzymujemy się, i tak dalej. Czy naprawdę musimy kon­ tynuować eksperyment, by wyczuć, jaki wyłoni się z tego kształt? Jak będzie on wyglądał po stu, tysiącu, czy nawet więcej krokach? W ydaje się, że przewidzenie jego charakte­ rystycznych cech nie powinno sprawiać problemu: spodzie­ wamy się, że pojawiać się będą mniej więcej takie same wzory, jedynie trochę gęściej. W każdym razie nie wydaje się, żeby łączenie losowości z generowaniem obrazu miało być szczególnie owocne. Spró­ bujmy jednak zająć się przykładem, który — jak się na pierwszy rzut oka wydaje — należy do tej kategorii. Co więcej, naśladując Barnsleya2, wprowadzimy całą rodzinę gier, które być może zmienią naszą intuicję na tem at lo­ sowości. Oto pierwsza gra tego typu. Potrzebujemy kostki do gry Gra w chaos o sześciu ściankach, ponumerowanych cyframi 1, 2, 3. Zwy­ czajna kostka oznaczona jest cyframi od 1 do 6. Możemy ją 2 M.F. Barnsley, Fractal modelling of real world images, w: The Science o f Fractal Im ages, H.-O. Peitgen i D. Saupe (red.), SpringerVerlag, New York 1988. 380 6. Gra w chaos łatwo dostosować do naszych potrzeb — musimy po prostu utożsamić pary cyfr występujących na normalnej kostce, na przykład 6 z 1, 5 z 2, a 4 z 3. Taka kostka będzie naszym generatorem liczb losowych, przyjmującym jedynie wartości 1, 2 lub 3. Liczby losowe, które pojawią się w czasie trwa­ nia gry, na przykład 2, 3, 2, 2, 1, 2, 3, 2, 3, 1..., będą sterowały procesem. Proces, którym się zajmiemy, będzie opisany przez trzy proste reguły. Do opisu tych reguł mu­ simy najpierw przygotować planszę do gry. Na rysunku 6.1 jest ona narysowana: trzy punkty bazowe oznaczone cyframi 1, 2 i 3 tworzą trójkąt. R ysunek 6.2: Sześć pierwszych kroków naszej gry. Punkty wiodące są połączone odcinkami prostoliniowymi Jesteśmy już gotowi do rozpoczęcia gry. Reguły wyjaś­ nimy w jej trakcie. Na początku wybieramy dowolny punkt na planszy i zaznaczamy go maleńką kropką. Jest to nasz bieżący punkt gry, punkt wiodący. Oznaczmy go przez zq, by móc później się do niego odwoływać. Następnie rzucamy kostką. Przypuśćmy, że wypadło 2. Wyznaczamy następny punkt wiodący zi, który będzie leżał dokładnie w połowie między punktem wiodącym zq a punktem bazowym ozna­ czonym cyfrą 2. Jest to pierwszy krok gry. Teraz łatwo jest odgadnąć, na czym polegają dwie pozostałe reguły naszej gry. Załóżmy, że graliśmy już k razy. Otrzymaliśmy zatem punkty z i , ..., Zk- Rzućmy kostką. Jeśli otrzymaliśmy cyfrę n, to następny punkt wiodący, z\~+1 , będzie leżał dokładnie w połowie pomiędzy punktem z\~ a punktem bazowym ozna­ czonym cyfrą n. Na rysunku 6.2 przedstawiono kilka kroków takiej gry. Wyznaczenie kolejności punktów jest ułatwione dzięki połączeniu następujących po sobie punktów odcin- 381 kami. Powstaje kształt, który wydaje się tak samo niecie­ kawy i bezładny jak ten, który powstał w wyniku losowego błądzenia na płaszczyźnie. Taka obserwacja jest jednak bar­ dzo daleka od prawdy. Na rysunku 6.3 pominęliśmy odcinki łączące punkty i zostawiliśmy jedynie punkty wiodące. Gra jest powtarzana (a) k — 100 razy, (b) k — 500 razy, (c) k = 1000 razy, (d) k = 10000 razy. ...i n astęp n e p u nkty w iodące Rysunek 6,3: Gra w chaos po 100 krokach (a), 500 krokach (b), 1000 krokach (c) oraz 10000 krokach (d). Zaznaczone są jedynie punkty wiodące, bez linii łączących. (Zauważmy, że pojawiło się kilka punktów, które w sposób oczywisty nie należą do trójkąta Sierpińskiego.) Pierwsze wrażenie, jakie wywołuje rysunek 6.3, to scep­ tycyzm. Właśnie ujrzeliśmy, jak proces losowy wytworzył trójkąt Sierpińskiego. Jest to zadziwiające, ponieważ trójkąt Sierpińskiego był dla nas wzorem uporządkowania. Innymi słowy zobaczyliśmy właśnie, jak losowość może stworzyć cał­ kowicie deterministyczny kształt. Jeżeli prześledzilibyśmy ten proces krok po kroku, to nie moglibyśmy przewidzieć, gdzie znajdzie się następny punkt wiodący, ponieważ będzie zależeć to od losowego wyniku rzutu kostką. Mimo to wzór, jaki tworzą wszystkie punkty gry, jest całkowicie przewidy­ walny. Stanowi to interesujący związek pomiędzy losowością a fraktalami deterministycznymi. Losowość tw orzy k ształty d eterm in i­ styczn e 382 6. Gra w chaos Nasuwa się tu kilka pytań dotyczących tego związku. Na przykład: jak możemy wyjaśnić powstawanie małych pla­ mek, które możemy dostrzec po dokładnym przyjrzeniu się rysunkowi 6.3, a które definitywnie nie należą do trójkąta Sierpińskiego? Lub co się stanie, jeśli użyjemy innej kostki, na przykład takiej, która jest bardziej lub mniej niesyme­ tryczna? Możemy też zapytać: czy sam proces pozosta­ wia jakiś ślad na powstałym obiekcie, albo: czy powstanie trójkąta Sierpińskiego jest spowodowane jakąś specjalną jego własnością? oraz: czy istnieją odmiany gry w chaos, które tworzą jakieś inne — może nawet dowolne — fraktale? 6 .1 . K o p ia rk a s p r z ę ż o n a z r u le tk ą Czytelnik domyśla się już prawdopodobnie, że istnieje wiele odmian gry w chaos, generujących wiele różnych fraktali. W szczególności wszystkie figury, którymi zajmowaliśmy się w ostatnim rozdziale, powstałe przy użyciu kopiarek wielo­ krotnie redukujących, można otrzymać jako wynik gry w cha­ os o dopowiednio dobranych regułach. Właśnie takimi grami będziemy się zajmowali w tym paragrafie. Losowe Podstawową regułą w opisanej powyżej grze w chaos przek ształcen ia jest wyznaczenie nowego punktu gry Zk+i przez wybranie afiniczne środka odcinka pomiędzy ostatnim punktem wiodącym Zk a losowo wybranym punktem bazowym, oznaczonym liczbą ze zbioru {1,2,3}. Każdy z tych punktów można opisać jako obraz ostatniego punktu wiodącego pod działaniem jed­ nego z trzech przekształceń tci, W2 lub w$. Co to za prze­ kształcenia? Możemy dokonać ciekawej obserwacji: są to te same przekształcenia (afiniczne), którymi zajmowaliśmy się w związku z trójkątem Sierpińskiego w rozdziale 5. Trak­ towaliśmy je tam jako matematyczny opis odpowiednich sy­ stemów soczewek w kopiarce. Tutaj każde przekształcenie wn jest po prostu przekształceniem podobieństwa o skali 1/2 i środku w punkcie oznaczonym liczbą n. Wynika stąd, że wn pozostawia nie zmieniony n-ty punkt bazowy. W języku reguł gry: jeżeli punktem wiodącym jest punkt oznaczony liczbą n i jeżeli w rzucie kostką wypadnie liczba n, to na­ stępny punkt gry pozostanie w punkcie bazowym. Jak się o tym przekonamy, wygodnie jest zaczynać grę w chaos od jednego z tych stałych punktów. 6.1, Kopiarka sprzężona z ruletką Nasza pierwsza gra w chaos generuje tró jk ą t Sierpińskiego. S próbu j­ m y w yprow adzić fo rm a ln y opis przekształceń, któ re są używ ane w te j grze. W tym celu w p ro w ad zam y układ współrzędnych o osiach x i y. Przypuśćm y, że pun kty bazow e m ają współrzędne Pi ~ 383 Gra w chaos i przekształcenia IFS dla trójkąta Sierpińskiego P2 = («2 ,^ 2 )) P3 —(«3>^3)‘ Bieżący p u n kt gry to zk = (xfc,2/fc), azdarzenie losowe to liczba n ( 1 ,2 lub 3 ). N astępnym pu n ktem w iodącym je s t za te m zk+ 1 = w n(zk) = (xk+i,yk+i), gdzie 2^"n’ V k + 1 = \ y k + |& n- Przekształcenie afiniczne m ożna zapisać w postaci m acierzy ja k o (ten sposób oznaczania zo stał w prow adzony w poprzednim ro zd ziale) ( I 02a„ \ V0 I )' Zauw ażm y, że poniew aż wn (Pn) = P n , pu n kty bazow e są p u n k ta m i stałym i. M o że m y za te m grać w chaos w edług następującego algo­ rytm u: Przygotow anie: W y b ie ra m y dow olny p u n kt na płaszczyźnie, zq. Iteracja: Dla k = 0 , 1 , 2 , . . . p rzy jm u je m y 2fc+1 = wSk(zk), gdzie sk je s t w ybraną losowo (z jed n ak o w ym praw ­ do p o dob ieństw em ) liczbą ze zbioru { 1 , 2 , 3 } ; za zn a­ czam y zk+i. Innym i słowy, liczby sk są zapisem w yb o ró w losowych, re zu lta tó w rzutów kostką w kolejnych krokach. Ciąg s o ,s i,S 2i - - orsz p u n kt początkow y z$ stanow ią ko m pletny opis danego przebiegu gry. W skrócie m ożem y oznaczyć ten ciąg przez (sk). Form alnie ( s k ) je s t ciągiem losowym o w yrazach z „ a lfa b e tu ” { 1 , 2 , 3 } . Zauważmy, że pojęcie KWR (lub IFS) jest ściśle deter­ K W R i L K W R ministyczne. Opiszemy teraz modyfikację naszej kopiarki, odpowiadającą grze w chaos: przekształcenia nie będą sto­ sowane do figur, a jedynie do pojedynczych punktów. Co więcej, nie stosujemy wszystkich systemów soczewek jed- 384 6. Gra w chaos nocześnie. Zamiast tego w każdym kroku wybieramy lo­ sowo (z pewnym prawdopodobieństwem) jeden z nich i prze­ kształcamy za jego pomocą poprzedni wynik. Kopiarka na­ tom iast nie poprzestaje na stworzeniu obrazu pojedynczego punktu, ale zapamiętuje wszystkie wygenerowane wcześniej punkty. Wszystkie te punkty składają się na ostateczny obraz tworzony przez naszą maszynę. Tak opisane urzą­ dzenie nazwiemy kopiarką wielokrotnie redukującą sprzężoną z ruletką albo losową kopiarką wielokrotnie redukującą (LKWR). Działanie urządzenia odpowiada przeprowadzaniu gry w chaos. Jaka jest relacja między KW R a jej losowym odpowie­ dnikiem? Poznaliśmy już odpowiedź w przypadku trójkąta Sierpińskiego. Jej losowy odpowiednik, LKWR, również ge­ neruje trójkąt Sierpińskiego. Okazuje się, że jest to zasada ogólna: końcowy obraz KW R (atraktor jej IFS) może po­ wstać przy użyciu odpowiadającej jej losowej LKWR, która jest z kolei tym samym, co przeprowadzenie gry w chaos z odpowiednimi regułami. R ysunek 6.4: (LKWR) Losowe system y iteracyjne: form alny opis LKW R Pokazaliśm y, Wl' Kopiarka wielokrotnie redukująca z ruletką że K W R je s t w yznaczona przez N afinicznych kontrakcji W2 P ojedyn czy krok kopiow ania m ożna opisać za pom o cą operatora H u tchinsona W (A) — wi(A) U *• *U wat(^4.)W y c h o d z ą c od dow olnego obrazu początkow ego A q, ciąg pow sta- 6.1. Kopiarka sprzężona z ruletką 385 jących obrazów Ai = W {A q), A 2 = f F ( A i ) , . . . d ąży do je d n o ­ znacznego atra kto ra Aoo, obrazu końcowego m aszyny. O dp ow iedn ia L K W R dana jest przez te sam e ko ntrakcje Wi,W2,.:<>WN i przez (d o d a tn ie ) praw dopodobieństw a PuP2 , - i P n > 0 takie, że N ¿ p , = 1. i= 1 Opisany pow yżej schem at nosi nazwę losowego systemu iteracyjnego, podczas gdy o d p o w iad ająca mu K W R je s t deterministycznym systemem iteracyjn ym . Niech « 1, 52^ 3 , .. . będzie ciągiem liczb w y­ branych niezależnie ze zbioru { 1 , 2, .. . N } , z praw dopodobieństw am i Pk dla zdarzenia Si = k. Załóżm y, że zq je s t p u n ktem stałym jed n eg o z tych przekształceń (n p . wi(zq) = zq). W te d y (1 ) W szystkie punkty ciągu z0, z\ = ti>S l(z o ), ^2 = wS2(zi),... należą do a tra k to ra A ^ . ( 2) Ciąg z0) zi>¿2 , je s t prawie na pew no gęsty w A ^ . Pierwsze tw ierd zenie w ynika natychm iast z fa k tu niezm ienniczości a tra kto ra. D rugim za jm ie m y się w następnym paragrafie. T a k więc K W R i odp ow iad ająca je j L K W R kodują ten sam obraz A ^ — m ożem y o trzym a ć a tra k to r, g rając w chaos przy użyciu o d p o w ie­ dniej maszyny. O gran iczenie „praw ie na pew no" w drugim stw ier­ dzeniu jest ograniczeniem czysto tech n iczn ym . Teoretycznie m oże się zdarzyć na przykład, że m im o iż ciąg s\, « 2, ••• je s t losowy, to jego wszystkie w yrazy będą ta k ie same. O d p o w iad a to sytuacji w y rzu ­ cenia kostką cyfry „ 1" nieskończenie w iele razy pod rząd, co m oże się teoretycznie zdarzyć naw et w przypadku idealnie sym etrycznej ko­ stki. W ta k im przypadku gra w chaos nie doprow adzi do w ypełnienia atrakto ra. Jednak praw dopodobieństw o takie g o nietypow ego zd arze­ nia jest zerowe. Dzięki grze w chaos znaleźliśmy zatem nowe podejście N ow e p o d e jśc ie do problemu dekodowania obrazów. Przypomnijmy problem do p ro b le m u złożoności obliczeniowej, który pojawił się, gdy próbowaliśmy d e k o d o w a n ia otrzymać paprotkę Barnsleya za pomocą bezpośredniego iterowania IFS. W rozdziale 5 oszacowaliśmy, że dla kompu­ tera wykonującego obliczenia i rysunki z prędkością miliona 386 6. Gra w chaos prostokątów na sekundę potrzebowalibyśmy około 1010 lat. Jeżeli przejdziemy do opisu paprotki za pomocą gry w cha­ os, to sytuacja radykalnie się zmieni. W takim przypadku śledzimy ruchy jednego tylko punktu. Jest to łatwe zada­ nie dla komputera, nawet jeśli będziemy wykonywać miliony iteracji. Zagrajmy więc w grę w chaos z LKWR wyzna­ czoną przez cztery przekształcenia w i , ..., wą ^ generujące pa­ protkę. Zakładamy, że prawdopodobieństwa dla wszystkich przekształceń są jednakowe (tak jak w naszej pierwszej grze w chaos). Zacznijmy od punktu wybierzmy losowo prze­ kształcenie — powiedzmy — i znajdźmy obraz punktu zo pod działaniem tego przekształcenia. Otrzymujemy kolejny P a p r o tk a - r>i - , . ; '*■ -, . ^T. v; ' , V<4*- •>»Vÿ m ■»w V j,- s £ *<<■. : •? i *<«•■ . / (a) (b) R ysunek 6.5: 100 000 punktów wiodących gry w chaos. Po lewej stronie: LKWR z równymi prawdopodobieństwami dla wszystkich kontrakcji. Po prawej stronie: dostrojona LKWR. W tym przy­ padku prawdopodobieństwa wyboru różnych przekształceń nie są takie same 387 6.1. Kopiarka sprzężona z ruletką punkt wiodący z\ = ^ 2 (^ 0 )? P ° czym losowo wybieramy ko­ lejne przekształcenie i tak dalej. Paprotka z lewej strony rysunku 6.5, otrzymana po 100000 iteracjach, może nas roz­ czarować. Widoczne jej braki odpowiadają trudnościom w jej otrzymaniu przy bezpośrednim stosowaniu KWR. Po­ wtarzanie gry w chaos nawet miliony razy nie doprowadzi do zadowalającego rezultatu. Jak zatem możemy otrzymać paprotkę taką, jaka znaj­ duje się po prawej stronie rysunku 6.5? Jest ona również wynikiem gry w chaos, a powstała „jedynie’1 po 100000 iteracjach. Na czym zatem polega różnica? Otóż w tym przypadku posłużyliśmy się odpowiednio „dostrojoną” ru­ letką3, w której prawdopodobieństwa nie są jednakowe, lecz są odpowiednio dobrane dla poszczególnych przekształceń. Jakość obrazu paprotki po prawej stronie jest zadowalająca i stanowi przekonujący dowód potencjalnych możliwości tkwiących w grze w chaos, do dekodowania obrazów zakodo­ wanych przy użyciu IFS. Jak jednak są wybierane prawdopo­ dobieństwa, i dlaczego odpowiednie ich dobranie przyspiesza proces dekodowania z 1010 lat do kilku sekund? A w ogóle, dlaczego gra w chaos daje takie rezultaty? M ożem y przeprow adzać grę w chaos rów nież dia kopiarek połączonych w sieć, tzn . dla hierarchicznych IFS. Z form aln ego pun ktu w idzenia hierarchiczny IFS dany je s t przez m acierz o p e ra to ró w H utchinsona, działających na M płaszczyznach f Wn ... W 1M \ w = > \ WMl * •• W m M / gdzie każde Wik je s t op erato rem H utchinsona, p rzekształcającym podzbiory fc-tej płaszczyzny w ¿-tą.4Jest tu ta j istotn e, że niektóre Wijfc m ogą być o p erato ram i 0, tzn . o p e ra to ra m i p rzekształcającym i dowolny zbiór w zbiór pusty, 0. P rzyp o m n ijm y, ja k przebiega gra w chaos dla operatora H utchinsona danego przez N kontrakcji w \ , . . . , Potrzebne nam są praw dopodobieństw a i p u n kt po­ czątkow y xo* N astępnie tw o rzym y ciąg x i , X 2, . . . , którego kolejne w yrazy dane są w zorem Xn+1 = Win(xn), n = 0,1,2,..., 3 Jak dostroić ruletkę opowiemy w paragrafie 6.3. 4 Zob. część techniczną na s. 368. G ra w chaos dla IFS połączonych w sieć 6. Gra w chaos 388 przy czym w skaźnik i n — m G je s t w ybierany losowo z praw d opod obieństw em p m . Gra w chaos dla m acierzy o p erato rów H utchinsona generuje ciąg we ktorów X o , X i , X 2, .. . , których skła­ d ow ym i są pod zbiory płaszczyzny. X n + i pow staje przez zastosowa­ nie losowo w ybranych kontrakcji z W do składow ych w ektora X n . W celu uniknięcia operow ania w ielo m a w skaźnikam i opiszem y po­ je d y n c zy krok, posługując się oznaczeniem X = X n i Y = X n+ i . Składow e w e k to ró w o znaczać będziem y odp ow ied nio przez . . . , xm i 2/i) ,Vm- Losowy w yb ó r kontrakcji z W m ożna opisać w dwóch krokach. D la każdego wiersza i m acierzy W losujem y d w u k ro t­ nie. K ro k 1: Z ¿-tego w iersza m acierzy W w y b ieram y op erato r H u tch in ­ sona Wik (n ie m oże to być o p e ra to r 0 ). Załóżm y, że operator ten je s t d any przez N ko n trakcji, K ro k 2: W y b ie ra m y losowo je d n ą ko n trakcję spośród w i >... ,w n, po­ w ied zm y w m . Po to , by w yzn aczyć ż-tą składow ą yi w ektora Y , stosujem y do k-te j składow ej w ekto ra X losowo w yb ran ą ko ntrakcję w m (w cho­ dzącą w skład o p erato ra H utchinsona Wik). W y z n a c za m y zatem yk = wm (xk)‘ Po to , by o trzy m a ć składowe w ektora Y = X n + i , ko­ lejno stosujem y o d p o w ied n ie (losowo w y b ieran e ) ko ntrakcje do skła­ dow ych w ekto ra X = X n , zg odnie ze w skaźnikam i oznaczającym i ko lu m ny w m acierzy o p e ra to ró w H utchinsona W . Losowanie odbyw a się zg odnie z zad an ym i z góry praw dopodo­ bień stw am i. Pow yższy opis losowej ite ra cji nasuwa n atu raln y sposób w y zn a czan ia praw d opod obieństw dla obu z pow yżej opisanych kroków . D la kroku 1 w y b ieram y z osobna praw dopodobieństw a Pik dla każdego o p e ra to ra H utchinsona w ystępującego w W , ta k że sum a praw dopo­ dob ieństw w każdym wierszu będzie w ynosiła 1, Pi i + + P%m = 1) i — 1) i gdzie Pik = o, jeżeli Wik = 0- T a k ie d ob ranie p raw d opod obieństw za p e w n ia, że nigdy nie zosta­ nie w y b ra n y o p e ra to r 0. Z a łó żm y następnie, że Wik w yznaczony je s t przez ko n trakcje . . . , wn. D la każdej kontrakcji Wj w ybie­ ram y praw d opod obieństw a p i , ... ,pw w ta k i sposób, że pj > 0 oraz Pi + * * ■+ P n = 1. P raw d o p o d o b ień stw o w ybrania w m wynosi p m , je że li założym y, że o p e ra to r H utchinsona Wik zo stał uprzednio w y­ brany w kroku 1. U .J .. ± \ . U J J i a , l F l CL ¿ j K ^Z i K J U C L Zj 1 U1CŁ-I\.cj. LKW R i KW R Rysunek 6 .6 : Pięć pierw szych iteracji K W R dla trójk ąta Sier­ pińskiego, zaczynających się od pojedyn czego punktu (górnego wierzchołka trójkąta). P un kty pow stałe w w yniku gry w chaos zaczynającej się od tego sam ego punktu są zaznaczone czarnym i kółkami Zanim zajmiemy się problemem efektywności, przedy­ skutujmy, jak to się dzieje, że gra w chaos wypełnia atraktor IFS. Z rozdziału 5 wynika, że jeżeli zaczniemy iterować IFS od dowolnego obrazu początkowego to otrzymamy ciąg obrazów dążących do atraktora A ^ . Jako obraz początkowy możemy równie dobrze wybrać pojedyn­ czy punkt. Niech Aq = {^o}- Załóżmy, że IFS jest wyzna­ czony przez N przekształceń afinicznych. Po pierwszej ite­ racji otrzymamy obraz złożony z N punktów, a dokładniej A i = { w i ( z o ) , w 2( z o ) , ... , w N ( z 0)}. Po drugiej iteracji otrzymujemy N 2 punktów i tak dalej. Oczywiście punkty te znajdą się dowolnie blisko atraktora i po pewnym czasie dadzą nam dokładne jego przybliżenie. Gra w chaos rozpoczęta od punktu zo jest bardzo podob­ na do iterowania IFS z tym samym punktem początkowym. Wygeneruje ona ciąg punktów zi, Z2 , ..., gdzie k-ty punkt zk należy do fc-tego obrazu powstałego w trakcie iterowania IFS. Dlatego też punkty z & znajdują się coraz bliżej atrak­ tora. Jeżeli zq od razu należy do obrazu końcowego, to wszy­ stkie punkty wiodące będą również punktami tego obrazu. Łatwo jest znaleźć punkty, które na pewno należą do atrak­ tora. Takimi punktami są punkty stałe przekształceń afinicz­ nych, opisujących ten proces. Punkt zq jest punktem stałym, D laczego gra w chaos daje p ożąd an e rezu ltaty 390 6. Gra w chaos jeżeli zo = Wk(zo) dla pewnego (lub pewnych) k — 1, ..., AT.5 Teraz już możemy wyjaśnić pochodzenie kropek leżących poza trójkątem Sierpińskiego na rys. 6.3. W tam tym przy­ padku punkt początkowy nie należał do trójkąta Sierpiń­ skiego. Dlatego też pierwsze przebiegi gry w chaos wygene­ rowały punkty leżące wprawdzie blisko trójkąta Sierpińskie­ go, lecz ciągle od niego rozróżnialne. Różnica ta oczywiście zmniejszy się już po kilku iteracjach. Aby w pełni zrozumieć powodzenie gry w chaos, trzeba jeszcze pokazać, że ciąg powstałych punktów znajdzie się dowolnie blisko każdego punktu atraktora. Zajmiemy się tym w następnym paragrafie. 6 .2 . A d r e sy : a n a liz a g r y w c h a o s W celu przeprowadzenia analizy gry w chaos potrzebujemy odpowiedniego formalnego języka, który pozwoliłby nam opi­ sać punkty atraktora IFS, jak również położenia poruszają­ cego się punktu wiodącego. Język ten będzie oparty na pew­ nej metodzie adresowania, którą rozwiniemy posługując się przykładem trójkąta Sierpińskiego. m etr decym etr \v-VvsX W \\V-N\’ ■ !\-\ centym etr milim etr .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . M I I I M , . ............ ....... M - L - l l l - l l i L I L L . M I M I I I i 1 I I L U J . ! iLM l i i . jJj.J_LLj.lil ! ¡ Ul i m i J R ysunek 6.7: Znajdywanie 357 za pomocą drzewa dziesiętnego na linijce metrycznej U k ła d Podstawowa zasada, na jakiej oparta jest taka metoda m e try c z n y ja k o adresowania, pochodzi sprzed paru tysięcy lat. Dziesiętny IF S system liczbowy, dla którego położenie cyfry w zapisie liczby 5 Porównaj akapit o przekształceniach afinicznych na s. 313. U.4. / l l i r e s y : ć t iJ Ć tiiZ ć t g i y W C J J ć tU * ma dobrze określone znaczenie, jest właściwym układem od­ niesienia do wyjaśnienia używanego przez nas sposobu ad­ resowania i idei kryjącej się za grą w chaos. Przyjrzyjmy się systemowi dziesiętnemu na rzeczywistym przykładzie: me­ trowej linijce z podziałką decymetrową, centymetrową i mi­ limetrową. Jeżeli podajemy trzycyfrową liczbę, na przykład 357, to rozumiemy, że chodzi tu o 357 część z 1000 mm. Jeżeli odczytamy cyfry znajdujące się w tej liczbie od le­ wej strony do prawej, to zgodnie z ich wartościami możemy odnaleźć odpowiednią ścieżkę na drzewie dziesiętnym (zob. rysunek 6.7) i po trzech krokach znajdziemy się w miejscu 357. W naszych rozważaniach nad grą w chaos jest istotne, że możemy w inny sposób dotrzeć do położenia oznaczonego 357 — czytając cyfry od prawej strony do lewej. Otrzy­ mamy w ten sposób dziesiętną K W R . Dziesiętna KW R jest to IFS składający się z dziesięciu kontrakcji (przekształceń podobieństwa) wq, w \, ... danych wzorami x /c “ *(*) = 10 + i o ’ = Oznacza to, że Wk pomniejsza metrową linijkę do fc-tego de­ cymetra. Działanie dziesiętnej KWR wyznacza dobrze nam znany dziesiętny system metryczny na linijce.6 Zacznijmy od jednostki długości jednego metra. Pierw­ szy krok dziesiętnej KW R wyznacza na niej wszystkie od­ cinki decymetrowe. Następny krok generuje wszystkie centy­ metry itd. Tak opisany system dziesiętny — wraz ze swoimi starożytnymi kuzynami, którym jest np. system szesnast­ kowy — jest prawdopodobnie najstarszą KWR. Przeczytajmy zatem 357 od prawej strony do lewej, inter­ pretując cyfry jako kontrakcje. Zaczynając od jednostki me­ trowej zastosujmy najpierw przekształcenie u>7 , które prze­ niesie nas do jednostki decymetrowej zaczynającej się od 7 (zob. rysunek 6.8). Zastosujmy następnie ws — znaj­ dziemy się w 57. centymetrze. Na zakończenie dopro­ wadzi nas do 357. milimetra. Dlatego odczytywanie liczby od prawej strony do lewej i interpretowanie cyfr zgodnie z ich położeniem jest tym samym, co odczytywanie od le- 6 A oto ćwiczenie: czy można skonstruować KWR dla układu brytyjsko-amerykańskiego, odnoszącego mile do stóp i cali? Oi7 -L 392 6. Gra w chaos 0 1 2 3 4 5 6 7 8 9 w5( w 7 ) lllllllll MINIEN lllllllll lllllllll lllllllll mmli lllllllll lllllllll lllllllll lllllllll 0 1 2 3i 4 5 6 7 Ô 9 W3( w5( w7)) lllllllll lllllllll lllllllll 1 1 1 1 1I NI lllllllll lllllllll lllllllll lllllllll LLLimil lllllllll 0 1 2 3 4 5 6 7 8 9 R ysunek 6.8: Znajdywanie 357 przy zastosowaniu kontrakcji dziesiętnej KWR wej strony do prawej i interpretowanie ich jako dziesiętnych kontrakcji. G ra w ch ao s Zagramy teraz w chaos na metrowej linijce. Najpierw n a lin ijc e wygenerujmy losowy ciąg cyfr z {0,..., 9}. Zaczniemy od do­ wolnego punktu wiodącego (jego położenie dane jest w mi­ limetrach) i będziemy się przemieszczać do następnych po­ łożeń zgodnie z tym losowym ciągiem. Gra zakończy się sukcesem, jeżeli odwiedzimy wszystkie możliwe położenia wyrażone w milimetrach. Przyjrzyjmy się następującemu ciągowi losowemu: ...765016357, zapisanemu dla wygody od prawej do lewej. Po trzecim kroku gry docieramy do położenia 357 danego w milime­ trach. Następną losową cyfrą jest 6. Które z położeń da­ nych w milimetrach punkt wiodący odwiedzi w następnej ko­ lejności? Oczywiście 635! Początkowa cyfra 7 jest więc nie­ istotna: niezależnie od tego, jaka to liczba, punkt wiodący znajdzie się w czwartym kroku w położeniu oznaczonym 635. Następnie punkt gry znajdzie się w milimetrze 163, potem 016 i tak dalej. Oznacza to, że przebieg gry w chaos przypo­ mina przesuwanie po losowym ciągu, w kierunku od prawej do lewej, okienka obejmującego jednorazowo trzy cyfry. Kiedy odwiedzimy wszystkie możliwe położenia wyrażone 6.2. Adresy: analiza gry w chaos D ziesiętn a gra w chaos Rysunek 6.9: Trzycyfrowe okienko przesuwające się wzdłuż ciągu ...0119765016357 pozwala znaleźć położenie, podane w milime­ trach w milimetrach? Stanie się tak, kiedy w przesuwalnym okien­ ku ukażą się wszystkie możliwe trzycyfrowe kombinacje. Czy jest to prawdopodobne w przypadku ciągu otrzymanego przy użyciu generatora liczb losowych? Odpowiedź brzmi „tak” , ponieważ jest to jedna z podstawowych cech komputerowego generatora liczb losowych. Jest to niewyszukany sposób na otrzymanie wszystkich możliwych trzycyfrowych adresów. Nadawać się do tego będzie nawet taki generator liczb lo­ sowych, który słabo wypada w testach statystycznych, jeżeli tylko generuje wszystkie kombinacje trzycyfrowe.7 Przyjrzyjmy się teraz, jak możemy przenieść to rozumo­ wanie na przypadek trójkąta Sierpińskiego, paprotki i innych fraktali. Wiemy, że w trójkącie Sierpińskiego istnieje dobrze określona hierarchia. Na najwyższym poziomie (poziom 0) istnieje jeden trójkąt. Na następnym (poziom 1) istnieją trzy. Na poziomie 2 jest ich już dziewięć. Następnie 27, 81, 243 itd. Na Ar-tym poziomie istnieje więc 3k trójkątów. Każdy z nich jest kopią całego trójkąta, pomniejszoną 2k razy (zob. rysunek 2.15). Dla trójkącików ze wszystkich pokoleń występujących A d resy w trójkącie Sierpińskiego potrzebujemy jakiejś metody adre­ w trójkącie sowania czy oznaczania. Postąpimy podobnie jak przy two- 7 Barnsley tłumaczy powodzenie gry w chaos, odwołując się do wy­ ników z teorii ergodycznej (M.F. Barnsley, Fractals Everywhere, Aca­ demic Press, 1988). Jest to matematycznie poprawne, ale bezużyteczne w praktyce. Nasuwają się dwa pytania: po pierwsze, dlaczego odpowie­ dnio dostrojona gra w chaos tak dobrze tworzy obraz na ekranie kom­ putera? Po drugie, dlaczego gra w chaos generuje ciągi wypełniające atraktor w sposób gęsty? Nie jest to to samo pytanie! Teoria ergodyczna wyjaśnia jedynie drugi problem, ale nie potrafi wykluczyć możliwości, że obraz pojawi się dopiero po 1011 latach. W rzeczywi­ stości mogłoby to się zdarzyć, o ile rzeczywiście komputery potrafiłyby funkcjonować tak długo. 394 6. Gra w chaos rżeniu nazwisk w pewnych językach germańskich, np. Helga i Helgason, John i Johnson czy Nils i Nilsen. Będziemy używać liczb zamiast imion: poziom 1 1 2 3 poziom 2 11 12 13 21 22 23 31 32 33 poziom 3 111 112 113 121 122 123 131 132 133 211 212 213 221 222 223 231 232 233 311312 313 321 322 323 331 332 333 Niestety, jeśli będziemy chcieli zapisać więcej niż kilka początkowych poziomów, to szybko zabraknie nam miejsca. Jednak chyba już jest jasna reguła, jaką się posługujemy. Reguła ta polega na oznaczaniu zgodnie z porządkiem leksykograficznym, takim jak w książce telefonicznej, czy zgodnie z miejscem cyfry w systemie liczbowym. Cyfry 1, 2 i 3 można interperetować jako hierarchię trójkątów lub hierarchię wy­ stępującą w drzewie (zob. rysunek 6.10). Dla trójkątów: • 1 oznacza lewy dolny trójkąt, • 2 oznacza dolny prawy trójkąt, • 3 oznacza górny trójkąt. T ró jk ą t Przy tej interpretacji adres 13213 oznacza, że trójkąt, o a d re s ie 13213 który nas interesuje, znajduje się na piątym poziomie kon­ strukcji. Adres 13213 mówi nam, gdzie dokładnie możemy D rz e w a a d reso w e R ysunek 6.10: Drzewo Sierpińskiego (po lewej), drzewo symbo­ liczne (po prawej) b.‘¿. Adresy: analiza gry w chaos go znaleźć. Przeczytajmy ten adres. Odczytujemy go od lewej strony do prawej, dokładnie tak jak liczbę w syste­ mie dziesiętnym. Oznacza to, że miejsca w zapisie dzie­ siętnym liczby odpowiadają poziomom konstrukcji. Zaczy­ namy od lewego dolnego trójkąta na pierwszym poziomie. W tym trójkącie znajdujemy górny trójkąt z drugiego po­ ziomu, a następnie w nim szukamy dolnego prawego trójkąta z trzeciego poziomu. Znajdujemy się teraz w trójkąciku o ad­ resie 132 (zob. rysunek 6.11). W nim musimy odszukać dolny lewy trójkącik z czwartego poziomu, a na zakończenie znajdziemy się w górnym trójkąciku w nim zawartym. Ozna­ cza to, że poruszamy się po gałęziach drzewa Sierpińskiego z rysunku 6.10, aż do piątej generacji. A d re sy tró jk ą tó w Rysunek 6.11: Znajdowanie małego trójkącika o adresie 132 w trójkącie Sierpińskiego przy użyciu zstępującego ciągu trójkątów Podsumujmy i sformalizujmy nasze obserwacje. Adres trójkącika to skończony ciąg liczb całkowitych S1 S2 —s/b gdzie każde $i jest cyfrą ze zbioru {1,2,3}. Wskaźnik k może być dowolnie duży. Oznacza on poziom konstrukcji trójkąta Sierpińskiego. Przy przejściu z poziomu na poziom trójkąty maleją dwukrotnie, więc współczynnik redukcji na poziomie fc-tym wynosi 1/2*. Wybierzmy teraz punkt z trójkąta Sierpińskiego. Jak A d re s p u n k tu możemy wyznaczyć jego adres? W tym celu musimy powta­ rzać adresowanie trójkącików, biorąc coraz mniejsze trójkąty zawierające dany punkt. Dlatego też możemy przypisać każdemu punktowi trójkąta Sierpińskiego z zstępujący ciąg trójkątów D o ,D i,D 2 ,... W ciągu tym znajduje się po jed­ nym trójkącie z każdego poziomu i są one wybierane tak, że Dk + 1 znajduje się w trójkącie Dk oraz że punkt z należy do wszystkich D dla fc = 0 ,1 ,2 ,... Temu ciągowi trójkątów odpowiada ciąg liczb całkowitych si, $2 , ••• 396 6. Gra w chaos adres(£>i) adres(i?2) adres (Z>3) — s\ = = s i s 2ss Wydłużanie ciągu adresowego odpowiada umiejscawia­ niu z w coraz mniejszych trójkątach (tzn. z coraz większą precyzją). Przypom ina to znajdowanie z coraz większą dok­ ładnością położenia na linijce. Dlatego też nieskończenie wiele wyrazów wyznacza z precyzyjnie: a d re s^ ) = S1 S2 S3 ... (6.1) C zy ta n ie od Ważne jest, abyśmy pamiętali, jak odczytywać adresy. lewej do prawej Adres powinien być czytany od strony lewej do prawej i może być interpretowany jako zstępujący ciąg trójkątów. Miejsce cyfry w ciągu oznacza poziom konstrukcji. W tym miejscu należy wspomnieć, że nasz sposób adre­ P u n k ty styk u w trójk ącie sowania punktów w trójkącie Sierpińskiego nie zawsze pro­ S ierpińsk iego wadzi do jednoznaczności adresu. Mamy na myśli to, że ist­ nieją punkty z dwoma dopuszczalnymi adresami, podobnie jak 0,499 i 0, 5 w systemie dziesiętnym. Zajmijmy się przez chwilę tym faktem. Konstruując trójkąt Sierpińskiego, wi­ dzieliśmy, że w pierwszym kroku dostajemy trzy trójkąty, a każde dwa z nich stykają się wierzchołkami. W następnym kroku mamy już dziewięć trójkątów i każda sąsiadująca para tych trójkątów ma wspólny wierzchołek. Jakie są adresy punktów, w których trójkąty się stykają? Przyjrzyjmy się przykładowi (zob. rysunek 6.12). Punkt, w którym trójkąty oznaczone cyframi 1 i 3 się stykają ma adres 1333..., lecz również 3111... Podobnie punkt, w którym stykają się trójA dres p u n k tu R ysunek 6.12: Punkt o adresie 13222... Zauważmy, że punkt ten mógłby też zostać zlokalizowany za pomocą adresu 12333... 397 6.2. Adresy: analiza gry w chaos kąty oznaczone 13 i 12, ma dwa różne adresy: mianowicie 13222... i 12333... Ogólnie punkt, w którym stykają się dwa trójkąty, musi mieć adres postaci adres(^) = si...sfcn7ł2fł2^2**lub adres(z) = s\...Skr 2 r \ r \ r \ ..., gdzie 5^, rx, r 2 są ze zbioru {1,2, 3}, a r\ i V2 są różne. Takie punkty nazywają się punktami styku. Cechuje je posiadanie bliźniaczych adresów (zob. rysunek 6.13). P u n k ty styku Rysunek 6.13: Punkt styku o podwójnym adresie 1333... oraz 3111... Konstrukcja trójkąta Sierpińskiego może sprawiać wra­ żenie, że oprócz trzech wierzchołków wszystkie jego punkty są punktami styku. Otóż tak nie jest. Adresy pomogą nam przeprowadzić rozumowanie, które wyjaśni ten pro­ blem. Jeżeli wszystkie punkty trójkąta Sierpińskiego byłyby 398 6. Gra w chaos punktam i styku, to mogłyby zostać scharakteryzowane przez bliźniacze adresy, tak jak wyżej. Jednak większość adresów, jakie możemy sobie wyobrazić, nie jest tej szczególnej po­ staci (np. adres(z) = 5 15 2 5 3 ..., gdzie każda cyfra jest wybrana losowo). Oznacza to, że większość punktów nie jest punktam i styku. Rozbudujmy nieco szerzej formalizm związany z adre­ P rzestrzeń adresów sami. W tym celu wprowadźmy nowy obiekt ]C3, przestrzeń adresów. Element cr tej przestrzeni jest nieskończonym cią­ giem a = 5 x5 2 ..., którego elementy 5 * należą do zbioru { 1 , 2 , 3}. Każdy element a tej przestrzeni wyznacza punkt z na­ leżący do trójkąta Sierpińskiego. Może jednak się zdarzyć, że różne elementy tej przestrzeni będą odpowiadać temu sa­ memu punktowi, pewnemu punktowi styku. A d resy dla zbioru C antora R ysunek 6.14: Adresy dla zbioru Cantora. Punkt A ma adres 11222..., punkt B zaś — adres 212111... Przyjrzyjmy się teraz, jak pojęcie adresów można za­ A d resy dla zbioru C antora stosować do innego przykładu fraktala, do zbioru Cantora C. Do adresowania używamy tu taj jedynie dwóch cyfr: 1 i 2. Wszystkie nieskończone ciągi o wyrazach przyjmujących jedynie wartości 1 i 2 tworzą przestrzeń adresów porównamy zbiór Cantora z trójkątem Sierpińskiego, to mo­ żemy zauważyć ważną różnicę. Każdy punkt zbioru Can­ tora ma tylko jeden adres, a każdemu adresowi odpowiada dokładnie jeden punkt. Tym samym adresy punktów zbioru Cantora są jednoznaczne — możemy utożsamić 1 W przypadku ^ 3 i trójkąta Sierpińskiego takie utożsamienie nie jest możliwe, ponieważ istnieją punkty o dwóch różnych adresach. Każdy fraktal, będący atraktorem IFS, ma właściwą so­ A d resy d la atrak torów IFS bie przestrzeń adresów. Możemy to sprecyzować następująco. Jeżeli IFS dany jest przez N kontrakcji tu i,..., w n , to każdy 6.2. Adresy: analiza gry w chaos punkt z należący do atraktora A <*, ma adres w przestrzeni adresowej będącej przestrzenią wszystkich nieskończo­ nych ciągów S1 S2 S3 — 0 wyrazach ze zbioru {1, 2,... , W}. Weźmy na przykład punkt 2 leżący na atraktorze A ^ ja­ kiegoś IFS, który składa się ze zbioru N kontrakcji u>i,..., Przekształcając za pomocą tych kontrakcji, otrzymamy jego pokrycie (wyjaśniliśmy to już w rozdziale 5): Aqo = (A 00) U *■* U wj\j(A ^ ). Wybrany przez nas punkt >2: należy z pewnością do co naj­ mniej jednego zbioru z tego pokrycia, powiedzmy do W k ( A o o ) . Wyznaczyliśmy w ten sposób pierwszą część adresu punktu z, a mianowicie s i = k . Zbiór w ^ A o o ) jest następnie dzie­ lony na N (niekoniecznie rozłącznych) podzbiorów W k ( A 00 ) = W k i w i i A o o ) U .. . U w N ( A o o ) ) = = W k i w i i A o o ) ) U . .. U W k i w N i A o c ) ) . Wybrany przez nas punkt znajduje się w co najmniej jed­ nym z tych podzbiorów, powiedzmy w Wft ( w i ( A 00) ) . Wy­ znacza to drugi symbol adresu punktu z, mianowicie S2 = L Zauważmy, że mogą istnieć różne możliwości wyboru 5 2 , i wtedy też mielibyśmy kilka różnych adresów dla jed­ nego punktu. Znajdowanie kolejnych cyfr adresu można po­ wtarzać w nieskończoność. Większa liczba cyfr w adresie pozwala z coraz lepszym przybliżeniem wyznaczyć punkt 2 , ponieważ kolejne zbiory stają się coraz mniejsze, zgo­ dnie z własnością przekształceń zwężających wchodzących w skład IFS. Podobnie jak w przypadku trójkąta Sierpińskiego, dosta­ jemy zstępujący ciąg podzbiorów D pochodzących z kolej­ nych poziomów konstrukcji atraktora i zawierających dany punkt. Jeżeli <j ~ siS2**- oznacza adres punktu z, to zbiory te są postaci D k = w S l ( w 32( . . . w Sk( A 0O) ) ) . Dla skrócenia zapisu możemy pominąć nawiasy i otrzymamy W k (w i(A o o )) = WhWliAoo) oraz Dfc — ^ 3 1 ^ 5 2 ' " ^ S k ( A o o ) * 399 400 6. Gra w chaos C zy ta n ie od Chcemy zwrócić uwagę, że w pewnym sensie odczyty­ prawej stron y waliśmy ciąg 5x^2...Sfc od prawej strony do lewej, ponieważ do lewej najpierw działaliśmy przekształceniem w Sk na A oo, następnie na otrzymany wynik przekształceniem w 3 k _ 1 itd., a dopiero na końcu działaliśmy przekształceniem w 3l. Przyjrzyjmy się przykładowi. Na rysunku 6.15 pokazano, jak można otrzymać trójkąt o adresie 213 przez działanie W2 (wi(w$(S))) Możemy to opisać tak: góra (3) lewego (1) w prawym (2) trójkąciku (zwróćmy uwagę na odpowienią kolejność). Pro­ sta obserwacja, że adresy tego samego punktu można od­ czytywać od lewej strony do prawej jak też od prawej do lewej (w zależności od kontekstu), pomoże nam zrozumieć, dlaczego gra w chaos daje pożądane rezultaty. In terp retacja adresów R ysunek 6.15: kontrakcji Odczytywanie adresu wspak przy stosowaniu Jed n ozn aczn e Załóżmy, że istnieje jednoznaczna odpowiedniość pomię­ czy dzy punktam i A ^ a punktam i w XIiv* Oznacza to, że dla n iejed n ozn aczn e każdego punktu z atraktora A ^ istnieje tylko jeden adres. A traktor nazywamy wtedy całkowicie niespójnym. Na ry­ sunku 6.16 pokazano atraktory dla trzech IFS: pierwszy jest całkowicie niespójny, w drugim znajdują się punkty styku, a w trzecim pewne fragmenty zachodzą na siebie. W tym ostatnim przypadku trudno jest podać adres punktu jedy­ nie na podstawie rysunku. Jednakże zawsze da się znaleźć punkt odpowiadający danemu adresowi. Poznaliśmy metodę adresowania punktów atraktora IFS. Spróbujemy jej użyć do zrozumienia, dlaczego gra w cha­ os daje pożądane rezutalty i w jaki sposób generuje atrak­ tor. Posłużymy się znowu przykładem trójkąta Sierpińskie­ go, a następnie zastanowimy się, jak możemy rozszerzyć na­ szą metodę na przypadek ogólny. 0.z. Æaresy: analiza gry w cnaos 4U1 Trzy przypadki A A A AA AA A A AA AA A A AA AA A A A AA A A AA AA A A AA AA A A A A. A A A A AA AA A AA A A AAAA A AA A AA AAAA ¿ k & i Rysunek 6.16: Trzy atraktory IFS: pierwszy jest całkowicie niespójny, drugi ma jedynie punkty styku, natomiast części trze­ ciego zachodzą na siebie (plany konstrukcji KWR przedstawiono w zmniejszeniu) Zacznijmy od kilku prostych obserwacji. Załóżmy, że mamy do czynienia z doskonałą kostką, tzn. każda z cyfr 1, 2 i 3 będzie pojawiać się z tą samą statystyczną częstością. Jeżeli oznaczymy przez pk prawdopodobieństwo wypadnięcia liczby A;, k = 1,2,3, to p\ = p2 = Ps = 1/3. Zagrajmy teraz w grę w chaos, posługując się taką do­ skonałą kostką. Zakładamy, że punkt wiodący należy do trójkąta Sierpińskiego, lecz nie znamy jego dokładnego poło­ żenia. Trójkąt Sierpińskiego można rozbić na trzy zbiory na pierwszym poziomie, na dziewięć na drugim i na 3k na &-tym Gra w chaos z rów nym i p raw dopod o­ bień stw am i 402 6. Gra w chaos P ra w d o p o d o ­ b ień stw a R ysunek 6.17: Prawdopodobieństwo tego, że po jednej iteracji punkt wiodący trafi do wybranego zbioru z pierwszego poziomu, wynosi 1/3. Dla zbioru z drugiego poziomu, po dwóch iteracjach, prawdopodobieństwo wynosi 1/9 poziomie (wszystkie te zbiory są trójkątam i). Wybierzmy jeden z tych zbiorów, powiedzmy jeden ze zbiorów pierw­ szego poziomu. Jakie jest prawdopodobieństwo, że następny punkt zn-(_i będzie leżał w tym trójkąciku? Oczywiście praw­ dopodobieństwo będzie równe 1/3 niezależnie od tego, gdzie znajduje się zn, ani od tego, gdzie znajdowały się ¿n-i> z n - 2 — Wybierzmy teraz pewien zbiór z drugiego poziomu. I zno­ wu zakładamy, że nic nie wiemy o położeniu zn oprócz tego, że zn należy do trójkąta Sierpińskiego. Jeżeli chcemy, by punkt wiodący trafił do wybranego zbioru D z poziomu drugiego, musimy najpierw wyznaczyć dwa kolejne punkty z n + 1 i zn+2 . Jakie jest prawdopodobieństwo, że z n+ 2 będzie należał do D ? Oczywiście 1/9. Oznacza to, że jeśli wybie­ rzemy zbiór z k-tego podziału, to prawdopodobieństwo, że gra w chaos wygeneruje po k przebiegach punkt zn+ki który będzie się znajdował w wynosi l / 3 fc. Powtórzmy nasze rozumowanie, posługując się kontrak­ cjami w\)W 2 i W3 . Każda z w\,W 2 i W3 zostaje wybrana z prawdopodobieństwem 1/3. Oznacza to, że każda para WiWk jest losowana z prawdopodobieństwem 1/9 i ogólnie: każde z możliwych 3 k złożeń kontrakcji w SlwS2 ...wSk, gdzie Si jest elementem zbioru {1,2,3}, jest wybierane z prawdo­ podobieństwem l / 3 fc. Teraz możemy wyjaśnić, dlaczego gra w chaos wytwarza ciąg punktów, który po pewnym czasie wypełni cały trójkąt Sierpińskiego przy dowolnej rozdzielczości. Gra w chaos z matematycznego punktu widzenia tworzy następujący ciąg punktów: O.z. A d r e s y ; analiza gry w chaos zq = punkt startu (początkowy punkt gry) ¿1 = w Si ( zq ) z2 = wS2u;5l(zo) = wSfc...u;52u;Sl(^o), 4U0 gdzie ciąg zdarzeń si, $2, ••• i 5fc jest wybrany losowo. Ostatni punkt należy do trójkącika D fc-tej generacji, o adresie SfcS*._i...S2 Si . Wybierzmy z trójkąta Sierpińskiego punkt próbny P . Chcielibyśmy znaleźć jakiś argument na rzecz tego, że jeżeli będziemy grali w chaos wystarczająco długo, to otrzymamy punkty leżące dowolnie blisko punktu P . W tym celu wy­ starczy, by punkt wiodący znalazł się w odległości od P nie większej niż pewne małe i. Załóżmy, że średnicą trójkąta Sierpińskiego jest d. Z tego założenia wynika, że trójkąciki na m -tym poziomie trójkąta Sierpińskiego m ają średnicę d j 3m. Oznacza to, że możemy wybrać m tak duże, że d /3 m < s. Następnie możemy wybrać z m-tej generacji trójkąt D, zawierający punkt P. W tedy każdy punkt z D będzie znaj­ dował się w odległości co najwyżej e od P. Trójkąt D jest oznaczony adresem adres(D) = t \ t 2 ^~tm, U € {1; 2, 3}. Przyjrzyjmy się teraz długiemu przebiegowi gry w chaos. Za­ piszmy otrzymany ciąg w odwrotnej kolejności, ..., s*., ..., «2) si< Kończymy grę w momencie, gdy w ciągu ..., s&, ..., 52, si natrafimy na blok długości m pokrywający się z Weźmy na przykład ... , Sfc, ... , Sj~|_m+i, ¿i, 12, ... , tfjij Sj, ... , S2, Si. Jeżeli punkt Zj należy do trójkąta Sierpińskiego, to wt i - 'wtm(zj) będzie znajdował się w D. Oznacza to, że pozo­ staje jedynie wykazanie, że ciąg na pewno się pojawi w czasie trwania gry. Prawdopodobieństwo, że sekwencja m liczb odpowiada ciągowi t f a —tm wynosi l / 3 m. Można za­ tem udowodnić (używając lematu Borela-Cantelli — przyp. tłum.), że jeżeli gramy w chaos, posługując się doskonałą ko­ stką, to prędzej czy później otrzymamy taki ciąg, a co za tym idzie punkt leżący w trój kąciku D, czyli tak blisko punktu próbnego P, jak tego chcieliśmy. P u n k ty w iodące zn ajd ą się blisko każdego pun ktu trójk ąta Sierpińskiego 404 6. Gra w chaos G ra w chaos generuje a tra k to r IF S P u n k ty pow stałe w grze w chaos p o kryją w sposób gęsty tró jk ą t Sierpińskiego. O bserw acja ta je s t praw dziw a rów nież dla dow olnego a tra k tó ra IFS . P rze d s ta w im y p o kró tce rozum ow anie, które uzasa­ dni to uogólnienie. Niech IFS będzie w yzn aczo n y przez N ko ntr­ akcji w i , . . . , w n i niech A ^ będzie jeg o a tra k to re m . A tra k to r ten je s t niezm ienniczy ze w zględu na o p e ra to r H utchinsona H ( X ) = w i(X )U * ■• U % ( I ) . O d p o w ied n i losowy IFS w yznaczony jes t przez ko n trakcje Wi, k tó ry m o d p o w ia d a ją praw dopodobieństw a pi (ja k zw y­ kle pi > 0 i pi H \~p n = 1 )■ P ozostaje nam w ykazać, że przepro­ w a d za ją c grę w chaos o takic h p a ram etrach , zn ajd zie m y się dowolnie blisko dow olnego p u n ktu P a tra k to ra A ^ . S próbu jm y więc otrzym ać p u n k t leżący nie dalej niż s od P. Niech adres P będzie następującej postaci: a d re s (P ) = gdzie ti e , l , . . . , A / \ Punkt P je s t więc zaw arty w e w szystkich zbiorach ■ rA^rri') Am = Ult1Wt2 ---Wtm(A), 771=1,2,... O trz y m u je m y A i D A2 D A 3 D ’ • *, gdzie średnica A m m aleje do zera, w m iarę ja k m rośnie. Jeżeli zn am y czyn niki ko n trakcji c i , . . . , c ; y przekształceń w i , . . . , to m ożem y w yzaczyć średnice tych zbiorów . Z definicji w spółczynnika redukcji dla ko n trakcji dow olny zb ió r B o średnicy d ia m ( P ) po przekształceniu przez Wi m a średnicę pom niejszoną o czynnik c* < 1: d ia m (iU i(i? )) < C{ d ia m ( P ) . M o ż e m y za te m zn aleźć ograniczenie górne średnicy A m, a m ianow i­ cie: d ia m ( A m ) = d ia m (w x • • ■w tm (A x > )) < ct l ci2 • • • c im _ 1cim d ia r n (A 00). P on iew aż w szystkie w spółczynniki redukcji są m niejsze od 1, to przez w yb ran ie o d p o w ied n io dużej liczby przekształceń m ożem y uczynić tę średnicę m niejszą niż e. W s zys tk ie pun kty o adresach rozpoczy­ nających się sekw encją położone są w odległości nie większej niż e od ustalonego wcześniej P. W czasie trw a n ia naszej gry m usim y więc n a tra fić na sekw encję P raw d opod obieństw o, że dana mw yrazow a sekw encja je s t w łaśnie tym ciąg iem , je s t iloczynem praw­ d o p o d o b ień stw ptxPt2 * * *P im . a więc je s t niezerowe. O znacza to, że Adresy: analiza gry w chaos startu jąc z dow olnego pun ktu blisko punktu P. 4U0 kiedyś zn ajd zie m y się dow olnie Jak dotąd analizowaliśmy grę w chaos z matematycznego G ra w chaos punktu widzenia. Spróbujmy teraz przenieść się do świata n a e k ra n ie konkretów (tzn. zająć się taką odmianą gry w chaos, która k o m p u te r a jest bliższa gry w chaos na ekranie komputera). Piksele ekranu komputera tworzą prostokątną macierz. Możemy je oznaczać za pomocą współrzędnych (np. piksel numer 5 w wierszu numer 12). Możemy posłużyć się również takim systemem adresów, jaki opisaliśmy w tym rozdziale. 1 3 0 2 11 13 31 33 10 12 30 32 01 03 21 23 00 02 20 22 Rysunek 6.18: Adresy dla macierzy prostokątnej Podzielmy najpierw ekran na 4 ćwiartki i przypiszmy im adresy od 0 do 3, tak jak to jest pokazane na rysunku 6.18. Następnie podzielmy każdą z ćwiartek na cztery równe części, z których każdą możemy oznaczyć dwucyfrowym ad­ resem. W ten sposób trzycyfrowymi adresami możemy ozna­ czyć piksele na ekranie o wymiarach 8 na 8 pikseli, a czte­ rocyfrowymi na ekranie 16 na 16 pikseli (ogólnie: adresami n-cyfrowymi możemy oznaczyć piksele na ekranie o wymia­ rach 2 n na 2 n). Załóżmy, że mamy ekran 8 na 8 . Jak możemy odnaleźć piksel o adresie 301? Odczytujemy adres od strony lewej do prawej i podążamy za zstępującym ciągiem kwadratów, który ostatecznie ustala współrzędne położenia piksela jako (4,5) — zob. rysunek 6.19. Następnie wyznaczmy cztery kontrakcje wo,wi,W 2 i W3 , podobnie jak w paragrafie 5.3 (tzn. przekształcenie przekształca cały ekran w ćwiartkę ¿), tak by pozostawały w zgodzie z naszym systemem ad­ resów. Jeżeli kwadrat Q reprezentuje cały ekran, to ciąg w 3 (Q) d w 3 (w0 (Q)) D W 3(w oO i(<3))) 6. Gra w chaos 406 W sp ółrzęd n e na ekranie i adresy ~3\ Chaos PC Rysunek 6.19: Adresowanie pikseli: piksel P, o współrzędnych (4,5) na ekranie, ma adres 301... D roga do piksela 212 R ysunek 6.20: Pierwsze kroki gry w chaos, doprowadzające do piksela 212 jest ciągiem scentrowanych prostokątów otaczających piksel P na rysunku 6.19. W paragrafie 5.3 zaprezentowaliśmy, co się stanie, jeżeli opuścimy przekształcenie W3 , umieszczające cały ekran w pra­ wym górnym rogu. W rezultacie otrzymujemy jedynie te pi­ ksele, których adresy nie zawierają cyfry 3. Pokazaliśmy, że IFS wyznaczony przez kontrakcje wo, uą, W2 generuje trójkąt Sierpińskiego tak, jak na rysunku 5.9 (w naszym przykładzie przybliżenie 8 na 8 pikseli). Przyjrzyjmy się teraz, jak to się dzieje, że gra w chaos dopuszczająca jedynie kontrakcje wq,wi i W2 generuje piksele o adresach nie zawierających cyfry 3. Rozważmy znowu wybrane losowo cyfry ...01211210010212. Jeśli zaczyniemy od dowolnego punktu na ekranie, to pierw­ szy ruch gry przeniesie nas do ćwiartki oznaczonej cyfrą o.ó. uoszrajanie ruiezKi 4Ui 2, drugi do kwadratu o adresie 1 2 , a trzeci do piksela 2 1 2 (zob. rysunek 6.20). Następnie przeszlibyśmy do adresu 0 2 1 2 (kwadratu będącego elementem podziału piksela 0 2 1 ), o ile dysponowalibyśmy 4-cyfrowymi adresami. Ustaliliśmy jednak wyjściowo, że posługujemy się ekranem 8 na 8 pikseli, a więc dysponujemy jedynie adresami 3-cyfrowymi. Odrzu­ camy cyfrę 2, czwartą w adresie. Następnie znajdziemy się w pikselu o adresie 102, potem 010 i tak dalej. To co otrzy­ mamy będzie podobne do przesuwania okienka z miejscem na dokładnie trzy cyfry nad naszym przykładowym ciągiem liczb losowych. Zaznaczamy wszystkie te piksele, których adresy się pojawiają. Gra w chaos tym razem zakończy się sukcesem, jeżeli w ciągu cyfr kierujących danym przebiegiem gry znajdą się wszystkie możliwe kombinacje cyfr 0 , 1 i 2 . Ciąg cyfr, ja­ kim się posługujemy, nie musi być losowy — wystarczy, że pojawią się w nim wszystkie możliwe adresy. Co więcej, efektywność danego przebiegu gry będzie zależała od tego, jak szybko wyczerpiemy wszystkie możliwe kombinacje. Sta­ nowi to klucz do gry w chaos. I nie ma to nic wspólnego, jak czasem twierdzi literatura naukowa, z ważnymi twier­ dzeniami matematyki dotyczącymi np. teorii ergodycznej.8 6 .3. D o str a ja n ie ru le tk i Nasze omówienie kopiarki wielokrotnie redukującej sprzę­ żonej z ruletką oparte było na założeniu, że kostka, jakiej używaliśmy w grze w chaos, była doskonała i że prawdopo­ dobieństwa wylosowania poszczególnych przekształceń były równe. Jak wpłynie na końcowy rezultat gry zmiana tych prawdopodobieństw? Zajmijmy się tym problemem w sposób trochę bardziej Ile p u n k tó w ścisły dla trójkątów D powstałych na m-tym poziomie trój- tra fi d o d an eg o kąta Sierpińskiego. Gramy zatem n razy, co daje nam punkty tr ó jk ą ta ? ^l) 5 Zn- Powstaje pytanie, jak wiele z tych punktów trafi do D l Oznaczmy liczbę takich trafień przez h (z\ , ..., zn \ D). 8 Po raz pierwszy zauważył to Gerald S. Goodman, zob. G.S. Goodman, A probabilist looks at the chaos game, F R A C T A L 90 — cf Proceedings o f the 1 IF IP Conference on Fractals, Lizbona} czerwiec 1990 (H.-O. Peitgen, J.M. Henriques, L.F. Penedo, red.), Elsevier, Am­ sterdam 1991. 408 6. Gra w chaos Jeżeli dysponujemy doskonałą kostką do gry, to oczekiwać będziemy, że w trakcie wystarczająco długiej gry każdy z ma­ łych trójkątów m-tego poziomu trafiony będzie tyle samo razy. A dokładnie możemy to wyrazić w taki sposób, że względna częstość punktów spośród które znajdą się w D, staje się ,w miarę wzrostu liczby wszystkich punktów (zwiększania n), coraz bliższa l / 3 m. Zauważmy, że na mtym poziomie istnieje 3m trójkątów, które powinny być tra­ fiane z jednakowym prawdopodobieństwem. Możemy to wy­ razić za pomocą wzoru lim n— o n = 1 3m (6,2) Oznacza to, że zliczanie częstości wpadania do D generuje miarę p(D), która jest dokładnie taka sama jak prawdopo­ dobieństwo przypisane D w naszych wcześniejszych rozwa­ żaniach. Przedstawiamy tabelę, w której zapisano poszczególne liczby trafień w dany trójkąt z drugiej generacji dla 1000 punktów, jak to przykładowo pokazano na rysunku 6.21. Dla wielokrotnych powtórzeń każdy z trójkątów powinien zawierać 11,1% wszystkich punktów. adres 11 12 13 21 22 23 31 32 33 ilość 103 122 105 107 112 117 108 108 118 procentowo 10,3 12,2 10,5 10,7 11,2 11,7 10,8 10,8 11,8 Zmieńmy teraz trochę warunki. Załóżmy, że nasza kostka jest niesymetryczna. Oznacza to, że prawdopodobieństwa: pi na wypadnięcie 1, P2 na wypadnięcie 2 oraz p% na wypa­ dnięcie 3 nie są już jednakowe. Musi być pi + P2 + Ps — 1; niech na przykład p\ = 0, 5,^2 = 0,3, a p% — 0,2. Zanim zastanowimy się, jak zmieni się gra w chaos przy takich wa­ runkach, wyjaśnijmy, jak można otrzymać kostkę o takim rozłożeniu prawdopodobieństw. 4uy 0.3. dostrajanie ruietici 1000 p u n któw dla idealnej kostki Rysunek 6.21: 1000 punktów w iodących, w przypadku gdy w szystkie przekształcenia m ają jednakowe praw dopodobieństw a Symulację obciążonej kostki będziemy przeprowadzać Sym ulacja oczywiście na komputerze, posługując się liczbami losowymi obciążonej z generatora liczb losowych. Zazwyczaj, niezależnie od al­ kostki gorytmu, który był używany do tworzenia liczb losowych, są one dostępne w postaci znormalizowanej (tzn. przyj­ mują wartości pomiędzy 0 i 1) i rozłożone jednostajnie. Rozkład jednostajny oznacza, że prawdopodobieństwo zna­ lezienia liczby losowej w przedziale [a, 6], gdzie 0 < a < b < 1, jest równe b —a. Tak więc, jeżeli podzielimy przedział [0,1] na 100 równych części: [0,00, 0,01], [0,01, 0,02] i tak dalej, to możemy oczekiwać, że w ciągu długiego trwania procesu w każdym z tych odcinków znajdzie się 1% wszyst­ kich otrzymanych liczb losowych. Spróbujm y sform alizow ać nasze obserw acje na te m a t generatorów liczb losowych. G enerator liczb losowych dostarcza ciągu liczb zaw artych w odcinku [0 ,1 ] podzielonym na N m niejszych przedziałów [0 ,1 ] = [ a ;o ,x i)U [ x i, x 2) U • ■• U [ x ^ _ i , X i v ] , gdzie 0 = X q < X± < * • * < X p f - i < x n = 1. O znaczm y k -ty przedział przez /& . Po w yw ołaniu n razy liczb loso­ wych o trzy m a m y n , ..., rn i m ożem y policzyć liczbę trafień w prze­ dział /*.. O zn aczm y tę wielkość przez h (ri , . .. , r n ;/fc ). D la dobrego D ostrajanie generatorów liczb losowych 6. Gra w chaos 410 generatora liczb losowych żąd am y, by h(r \ , . . . , r n ; / * ) zależało je ­ dynie od długości Ik i żeby było rów ne w łaśnie tej długości. M o żem y to zapisać fo rm a ln ie ja k o ^ ( r i , ..., v n \ /fc) f f f \ l lm ---------------------------- = długosc(ifc) = x k - ajfc-i. t Ji n —>-oo Zau w ażm y, że m o żem y o d w ró cić tę relację i obliczyć długość danego przedziału, zliczając liczby losowe, któ re do niego w p a d n ą ! P rzy oka­ zji chcem y w spom nieć, że istnieje cała klasa m etod num erycznych opartych na p o d obnym w yko rzystan iu liczb losowych, które daje się zastosow ać do różnych p roblem ó w . N ie dziw i chyba fa k t, że m etody te nazyw ają się metodami Monte Carlo. P rzy k ła d e m , ja k i tu m o żem y przytoczyć, je s t problem postaw iony w 1 7 7 7 r. przez Georgesa L.L. C o m te de B uffo na (1 7 0 7 -1 7 8 8 ). C hciał on zn aleźć p raw d opod obieństw o zd arzenia polegającego na ty m , że igła rzucona na poliniow aną kartkę papieru przetnie jed n ą z linii. Po znalezieniu te g o praw dopodobieństw a okazało się, że w y­ nik je s t ściśle zw ią za n y z liczbą 7r = 3 ,1 4 1 5 9 2 ... Jeżeli odległość d pom iędzy prostym i je s t w iększa od długości igły Z, to m ożna łatw o w ykazać, że p raw d opod obieństw o P tego, że igła tra fi na prostą jest rów ne 21/dn. P ierre S im on Laplace ( 1 7 4 9 - 1 8 2 7 ) d o strzegł w tej in­ te rp re ta c ji zu p ełn ie now y sposób obliczania n. W y s ta rc zy w ykonać pew ną liczbę rzu tó w igłą i zliczyć przecięcia. Liczba tych przecięć (p o podzieleniu przez liczbę w szystkich rzu tó w ) da nam przybliżenie praw d opod obieństw a P i um ożliw i obliczenie ir = 2 1/dP.9 P ow róćm y do problem u d o strajan ia gry w chaos. M o żem y o trz y ­ m ać dow olnie dostro jo n y g en erato r liczb losowych (kostkę o N bokach i N odp ow ied nich praw d o p o d o b ień stw ach ) w następujący sposób: dla w ybranych p raw d o p o d o b ień stw pk, k = 1 , . . . , N, d efin iu jem y h = [0,pi) h = [ p i , P i + p 2) h = In = [ p i + P 2 + * * * + P f c - l ) P l + P 2 + * ł - +PJb) [ P i + P2 H------------ k P n - u !]• Za i-ty m razem zo staje w ybrane zd arzenie k y je że li losowa liczba r* zn a jd u je się w przedziale h - 9 Oczywiście ten sposób obliczania liczby 7r jest mało efektywny. Możemy wykazać na przykład, że prawdopodobieństwo uzyskania pięciu poprawnych cyfr dziesiętnych w 3400 rzutach wynosi mniej niż 1,5%. o.ó. uostrajam e ruieiKi ¿±JLJL Z takim generatorem liczb losowych łatwo symulować ob­ ciążoną kostkę. Dla prawdopodobieństw pi,P2 i Ps definiu­ jemy trzy przedziały: h = [0,pi), h = [P i,P i+ P 2 ) oraz I 3 = [pi + p 2 ,l\- Zauważmy, że długość I jest równa p Dlatego jeżeli wy­ bierzemy liczbę k wtedy, gdy liczba losowa będzie należała do przedziału /*., to k będzie losowane z prawdopodobieństwem Pk. Na przykład jeżeli p\ = 0,5, P2 — 0, 3 i ps = 0, 2, to / x = [0,0,5), J2 = [0,5, 0,8) oraz J3 = [0,8,1], Przyjrzyjmy się, jaki wpływ na punkty pojawiające się Gra w chaos w grze ma wybór prawdopodobieństw. Na rysunku 6.22 po- z ob ciążoną kazano 1000 i 10 000 punktów gry. Po długim czasie dosta- kostką niemy znowu trójkąt Sierpińskiego, a dodatkowo powstaje pewien wzór związany z rozkładem punktów wiodących. Zno­ wu zachodzi podobieństwo między całością wzoru a jego mniejszymi częściami. . j ....... , : v. .* * £ 2 +.^ Rysunek 6.22: 1000 (po lewej stronie) i 10 000 (po prawej stro­ nie) punktów wiodących, kiedy prawdopodobieństwo wyboru w\ wynosi 50%, W2 — 30%, zaś — 20% Jednak gęstość punktów jest tym razem różna dla różnych trójkątów podziału. Spróbujmy oszacować prawdopodobień­ stwa rządzące pojawianiem się punktów w trójkątach na różnych poziomach trójkąta Sierpińskiego. Dla trzech trój­ kątów powstałych w pierwszym kroku odpowiedź jest prosta. Rysunek 6.23 ilustruje to, co otrzymamy. Jeżeli przejdziemy na następny poziom i będziemy mieli do czynienia z dziewięcioma trójkątam i, to musimy wziąć pod uwagę, jak każdy z nich powstał, tzn. jakich prze­ kształceń wS2 wSlJ gdzie si,S2 £ {1,2,3}, trzeba było użyć, P u n k ty uzyskane za p om ocą obciążonej kostki 412 6. Gra w chaos P ra w d o p o d o ­ b ień stw a — p oziom 1 R ysunek 6.23: Prawdopodobieństwa przypisane trójkątom na poziomie pierwszym by z wyjściowego trójkąta otrzymać dany trójkąt drugiej ge­ neracji* Ta właśnie informacja jest zawarta w adresie. Jeżeli więc D jest jednym z takich trójkątów o adresie S2 S1 , to prawdopodobieństwo trafienia weń po dwóch iteracjach wy­ nosi pS2Psi * Na rysunku 6.24 przedstawiono rezultat takiego określania prawdopodobieństw. P ra w d o p o d o ­ b ień stw a — p oziom 2 adresy prawdopodobieństwa R ysunek 6.24: Adresy i odpowiadające im prawdopodobieństwa przypisane trójkątom na drugim poziomie Wartości otrzymanych prawdopodobieństw wahają się od 0,04 do 0,25. Dolny lewy trójkąt trafiano prawie sześć razy częściej niż ten znajdujący się na górze. Zliczając punk­ ty w odpowiednich trójkątach podziału, porównamy nasze oszacowania z obrazem powstałym na rysunku 6.22. O stat­ nia kolumna poniższej tabeli przedstawia oczekiwane wyniki w procentach. o.ó. no uosirajam e rmeiKi adres ilość p ro c e n to w o 11 12 13 21 22 23 31 32 33 238 139 108 146 91 64 101 72 41 2 3 ,8 % 1 3 ,9 % 1 0 ,8 % 1 4 ,6 % 9 ,1 % 6 ,4 % 1 0 ,1 % 7 ,2 % 4 ,1 % o c z e k iw a n a częstość 25% 15% 10% 15% 9% 6% 10% 6% 4% Generalna zasada polega na tym, że jeśli wybieramy na fc-tym poziomie trójkąt D o adresie adres(D) = siS 2 ---Sk, to prawdopodobieństwo, że zostanie on trafiony po k itera­ cjach jest równe iloczynowi p Sl ** Możemy sprawdzić, czy dobrze wybraliśmy prawdopodo­ bieństwa, podobnie jak wcześniej, przez znalezienie względ­ nej częstości w każdym z trójkątów powstałych w A;-tym kroku i odniesienie jej do h ( z i , . . . , z n ;D) lim ------------------- = p si • • •pSn. n — >00 n (6.3) Podobnie jak przedtem h{z\^ ..., zn\ D ) oznacza liczbę trafień w D w pierwszych n przebiegach gry, czyli przez punkty z 1 ,..., zn* Liczba ta jest odpowiedzialna za rozkład gęstości punktów w obrazie otrzymanym jako wynik naszej gry w chaos. Ma to wpływ na: (1) Sposób projektowania efektywnego schematu dekodowa­ nia IFS. (2) Rozszerzenie pojęcia IFS z kodowania obrazów czarno-białych do kodowania obrazów kolorowych. Zajmiemy się tym później (zob. s. 417). Widzieliśmy, że nawet obciążenie kostki nie przeszkodzi w tym, by w grze w chaos po pewnym czasie powstał trójkąt Sierpińskiego. Czas potrzebny na jego powstanie zależy od doboru prawdopodobieństw. Zgodnie z równaniem (6.3) w niektórych częściach trójkąta Sierpińskiego względna liczba trafień może być bardzo mała, choć zawsze większa od S ym etryczn a kostka jest n ajlep sza dla trójk ąta Sierpińskiego... 414 6. Gra w chaos zera, podczas gdy w innych bardzo duża. Jeśli chcemy osią­ gnąć jak najlepszą efektywność, to powinniśmy dbać o to, by ustalane przez nas prawdopodobieństwa były jednakowe. Czy jednak taka zasada jest słuszna dla wszystkich atraktorów IFS? M alutk i listek p aprotk i Wi (Wi (H’3(F))) Wi(w3(/0) w,(F) R ysunek 6.25: Opis jednego z malutkich listków paprotki Barnsleya ... ale nie dla Przypomnijmy sobie problemy, jakim musieliśmy sprop aprotk i stać podczas prób generowania paprotki Barnsleya przy uży­ ciu gry w chaos. Jeśli posługiwaliśmy się równymi prawdo­ podobieństwami dla wszystkich przekształceń, to długo nie mogliśmy dostrzec oczekiwanego kształtu. Aby zrozumieć to zjawisko, wybierzmy jakiś mały listek T na szczycie pa­ o.o. 'ilu u o s z r a ja m e rm e iK i protki (zob. rysunek 6.25). Możemy oznaczyć ten listek przez kombinacje kontrakcji w \ , ..., wą : T = w\w\ *• • wiWa(F), (6.4) gdzie F oznacza całą paprotkę, a liczba wszystkich prze­ kształceń wynosi k. Dlatego listkowi T odpowiada jeden ze zbiorów poziomu k o adresie adres(T) = 11...13, przy czym 1 powtarza się k — 1 razy. Prawdopodobieństwo trafienia w T p o i : iteracjach wynosi więc q = p i k~lp 3 . Ustalmy k = 15. Oznacza to, że T jest 15. listkiem z pra­ wej strony paprotki. Podział paprotki na 15. poziomie ozna­ cza, że dysponujemy 415 « 109 zbiorami i że T jest jednym z nich. Jeżeli weźmiemy jednakowe prawdopodobieństwa P k = O, 25, A : = 1, 2,3,4, to prawdopodobieństwo, że ujrzymy tam punkt wynosi q = 0,2515 w 0,931 • 10“ 9! Praktycznie prawdopodobieństwo to wynosi zero. Dlatego też paprotka z lewej strony na rysunku 6.5 ma wiele braków. Generowa­ nie w ten sposób stu czy dwustu tysięcy punktów gry, by przedstawić 109 zbiorów, nie ma sensu. Jeżeli jednak weźmiemy relatywnie duże prawdopodo­ Z m ienianie bieństwo wylosowania w\ i małe wylosowania W2 ,W3 ,wą, p raw dopodo­ to możemy poprawić prawdopodobieństwo q = p \Ąps przez b ień stw wzięcie różnych prawdopodobieństw pi. Na przykład jeśli Pi — 0 ,85, a p^ — 0 ,05, to otrzymamy w przybliżeniu q « 0,00514. Wystarczy 10 000 przebiegów gry w chaos, by oczeki­ wana liczba punktów w naszym listku T wyniosła 50. Odpo­ wiednio modyfikując prawdopodobieństwa jesteśmy w stanie zmienić szansę pojawienia się po k iteracjach punktu w T z praktycznie nie istniejącej na bardzo dużą. Oznacza to, że za pomocą odpowiednio wyważonej kostki możemy stworzyć taki rozkład 104 punktów w 109 zbiorach, że da on zadowa­ lający sposób na dekodowanie obrazu paprotki. D obór najlepszych praw dopodobieństw je s t tru d n y m i jeszcze nie rozw iązanym problem m a tem a ty czn ym . M o ż e m y sform ułow ać ten problem następująco. Niech e będzie zadaną z góry dokładnością przybliżenia. O znacza to , że dla każdego punktu a tra k to ra w jeg o bliskim otoczeniu, w odległości nie większej niż e, leży co najm niej Przepis na wybór praw dopodo­ bieństw 6. Gra w chaos 416 jed e n p u n k t generow any przez grę w chaos. Czyli odległość Hausdorffa pom iędzy a tra k to re m i je g o przybliżeniem wynosi co najw yżej e. P ro b lem o p ty m a liza c ji polega na dopasow aniu praw dopodobieństw Ph ••• i Pn w ta k i sposób, by oczekiw an a liczba pow tórzeń gry w chaos p o trzeb n a do osiągnięcia te g o przybliżenia była m inim alna. M im o że problem nie je s t jeszcze rozw iązany, to istnieją pew ne heurystyczne m e to d y w yboru „d o b ryc h ” praw dopodobieństw . P rzed­ s taw im y je d n ą z nich. Z o stała ona spopularyzow ana przez B arnsleya10. W o s ta tn im paragrafie p rzed staw im y ulepszenie te j m etody. Z a jm ijm y się IFS z N przekształceniam i i załóżm y, że je g o a tra k to r je s t całkow icie niespójny. Jeżeli a tra k to r11 ozn a­ czy m y przez A , to przekształcone o b razy w \ ( A ) , . . . , stworzą rozłączne pokrycie a tra k tó ra . T a k ie m ałe afiniczne kopie atra któ ra n a zy w am y atraktorletkami Jeżeli w trak cie gry w chaos w ygeneru­ je m y n p u n k tó w , to m o że m y zap ytać o rozm ieszczenie tych p un któw w poszczególnych N a tra k to rle tk a c h . P rzydzielenie każdej a tra k to rletce ta k ie j sam ej liczby p u n któ w , tz n . n /iV , doprow adzi do pow sta­ nia zb io ru , któ ry je s t w m iarę je d n o s ta jn ie rozłożony w tró jk ą c ie Sier­ pińskiego. T a k je d n a k nie będzie w przypadku IFS generującego pa­ protkę B arnsleya. Z a jm ijm y się te ra z epsilonow ym otoczeniem a tra k to ra A e , czyli zbiorem p u n k tó w odległych od niego o nie więcej niż e. O trz y m a m y w te d y następującą zależność: A c w i ( A e ) U * • • U w a K A ,) C A e . D la m ałych e > 0 zbiory W i ( A £ ) są bliskim i przybliżeniam i a tra k to rletek. O k re ś lm y liczbę p u n któ w , któ re m ają w paść do z-tej a tra k to rletki zg o d n ie z p ro centow ym udziałem zbioru wi(Ae) w pow ierzchni A €} 2 Po to , by uzyskać rozkład jed n oro dny, liczba p u n któ w w każdej z a tra k to rle te k pow inna być proporcjonalna do odpow iedniej po­ w ierzchni przy założeniu, że a tra k to rle tk i nie zach o d zą na siebie zna­ cząco. Z algebry liniowej w iad o m o , że czyn nik, o ja k i zm ienia się po­ w ierzch n ia przy przekształceniu afin iczn ym , je s t w artością bezw zględ­ ną w yzn aczn ika liniowej części przekształcenia. D lateg o , jeżeli zapi­ szem y i- t e przekształcenie ja k o Wi(z) = A{Z + i = to pow ierzchn ia o to czen ia epsilonow ego ¿-tej a tra k to rle tk i wyniesie w przybliżeniu 10 M. F. Barnsley, Fractals Everywhere, Academic Press, 1988. 11 Dla uproszczenia zapisu pomijamy indeks oo w symbolu atraktora. 12 Potrzebujemy powyższej konstrukcji, używającej epsilonowego otoczenia atraktora, ponieważ mogą istnieć kłopoty z rozsądnym określeniem pola powierzchni atraktora. Na przykład pole powierzchni trójkąta Sierpińskiego równe jest zeru. o.j. jjoszrajame ruieiKi / id et^ i | det^il + ***+ | det^4iv| Pi = t ; . r “i-------------- ;— r? , AT 1 — 1, ---, /V. pom nożone przez pow ierzchnię otoczen ia epsiłonowego całego a tra k tora. D latego te ż chcielibyśm y dostać w i-te j a tra k to rle tc e n p i pun­ któw gry w chaos. M o ż e m y to osiągnąć, jeżeli w yb ierzem y praw do­ podobieństwa zgodnie z pow yższym w zorem . Ten przepis na w ybór praw dopodobieństw je s t dobry rów nież w przypadku, gdy części a tra k to ra tro c h ę na siebie zach odzą. M u ­ simy jed n ak być ostrożni w tedy, gdy części a tra k to ra znacząco za­ chodzą na siebie lub gdy jed n o z przekształceń ma w yzn aczn ik rów ny zeru. W przypadku zerow ania się w yznacznika praw dopodobieństw o wybrania przekształcenia w edług pow yższego schem atu wynosi zero, a więc dane przekształcenie nie byłoby nigdy w ybrane. P rzykład em ta ­ kiego przekształcenia m oże być łodyga paprotki Barnsleya. M o ż e m y w takim przypadku przypisać te m u praw dopodobieństw u pew ną m ałą wartość, np. 6 — 0 ,0 1 . Zap iszm y to form aln ie następująco: Pi = max(i, |detAi|) r;----------------------------------------------, . %— 1 , , iV, £ fc= i max(<5, | d e t j4fe|) gdzie 6 > 0 je s t jak ąś m ałą stałą. Dotychczas omawialiśmy jedynie obrazy biało-czarne O brazy i ich kodowanie za pomocą IFS, jak również ich dekodowa­ cieniow ane nie przy użyciu gry w chaos. Zobaczyliśmy, że prawdopodo­ i kolorow e bieństwa pi dają nam bezpośrednią kontrolę nad rozkładem punktów wiodących w odpowiednich częściach atraktora. Obserwacja ta stanowi dobrą motywację, żeby posunąć się 0 jeden krok dalej. Załóżmy teraz, że mamy obraz o zróż­ nicowanym nasyceniu barwy. Dzielimy ten obraz na piksele 1 otrzymujemy w ten sposób macierz o rrt wierszach i n ko­ lumnach. Każdy z pikseli Pij jest nośnikiem jednostki in­ formacji o stopniu nasycenia barwy o wartości Q ij leżącej gdzieś pomiędzy 0 a 1. Wartość 1 odpowiada kolorowi czar­ nemu, wartość 0 — białemu. Chcielibyśmy stworzyć sche­ mat kodowania i dekodowania takiego obrazu. W tym celu weźmy IFS złożony z kontrakcji w \ , ... o prawdopodo­ bieństwach p i ,..., ■Przyjrzyjmy się statystyce gry w chaos dotyczącej piksela Pij : 418 6. Gra w chaos Oznacza to, że prowadzimy grę w chaos z ustalonymi praw­ dopodobieństwami i zliczamy względną liczbę trafień R i j w piksel Pij. Jeżeli liczby Q ij są proporcjonalne do R i j w każdym pikselu (z tą samą stalą proporcjonalności a), QiJ — CtRij, i — 1, , 777-, j 1, ... , 77, to dany rozkład nasycenia barwy Q ij odpowiada znormali­ zowanym krotnościom R%j. Powyższe kodowanie nie określa stopnia jasności obrazu13, która może być wyregulowana później. Kod dla obrazu składa sie po prostu z niezbędnych przekształceń i odpowiadających im prawdopodobieństw { w i , . . . , w N }, {p i , . . . , P n }, gdzie każda z kontrakcji potrzebuje do swojego opisu sześciu liczb rzeczywistych. Oznacza to, że obraz cieniowany będzie zakodowany w I N liczbach rzeczywistych. Co więcej, gra w chaos może zostać użyta do przetworzenia tej informacji z powrotem na obraz. Zastanowimy się teraz, jak znając rozkład nasycenia bar­ wy Q i j , znaleźć przekształcenia { w i,... , w n } i odpowiednie prawdopodobieństwa { p i,... ,P n } i tak aby h ( z \ , . . . , z n ; Pi j) lim ----------------k—>oo K ocQi j , (6.5) gdzie „oc” oznacza proporcjonalność. Jest to problem od­ wrotny dla obrazów o zróżnicowanym nasyceniu barwy. Stąd już tylko mały krok do analizy obrazów kolorowych. Każdy obraz kolorowy można uważać za obraz złożony z trzech składników: czerwonego, zielonego i niebieskiego. Jest to właśnie technika RGB tworzenia obrazu kolorowego na ekra­ nie telewizora. Każdy ze składników można rzecz jasna zin­ terpretować jako obraz o zróżnicowanym nasyceniu barwy w połączeniu z odpowiednią informacją o kolorze — czerwo­ nym, zielonym albo niebieskim. 13 A zatem obraz, który jest równomiernie biały ma taki sam kod jak obraz, który jest równomiernie czarny lub równomiernie szary. 4iy ö.ö. JJostrajanie ruletki S form u łu jm y te ra z problem o d w ro tn y w sposób, któ ry jeszcze raz pozwoli na skorzystanie z tw ierd zenia o odw zorow aniu zw ężającym , om aw ianego w rozdziale 5 .14 A by zap o czątko w ać an alizę teoretyczną problemu odw rotnego, zau w ażm y najp ierw , że liczby Q ij oznaczają w istocie, jak a część p u n k tó w z gry w chaos tra fia w piksel P i j . Liczby te pochodzą od pew nej m iary ¿t, której nośnik je s t naszym atraktorem ; są one m ianow icie rów ne fi(Pij). M iara fi je s t m iarą borelowską i je s t ona niezm iennicza pod działaniem operatora Mar­ kowa M(v), zdefiniow anego w sposób następujący. Niech X będzie dużym kw adratem na płaszczyźnie, zaw ierającym Aoo, a tra k to r na­ szego IFS, v zaś — m iarą (borelow ską) na X . O p e ra to r M je s t w te d y zdefiniow any przez M(v) = Piiiw^ 1 + P 2 ^ 2 _1 H F O znacza to, że M( v) definiuje na X nową zn o rm alizo w an ą m iarę borelowską. Jej w artość na danym podzbiorze B je s t w yznaczana w sposób następujący: najp ierw bierzem y część przeciw obrazu w~1(B) zaw artą w X , następnie w artość v na ty m zbiorze, w końcu m nożym y przez praw dopodobieństw a pi, a w yniki sum ujem y. T a k zdefiniow any o p erato r M arko w a okazuje się ko ntrakcją w przestrzeni znorm alizow anych m iar borelowskich na X , w yposażonych w m etrykę H utchinsona15 gdzie suprem um je s t w zię te po w szystkich funkcjach / : X —> R o własności |f(x) —f(y)\ < d(x,y) (d(x:y) oznacza odległość na płaszczyźnie). M o żn a tu ta j zastosować tw ierd zen ie o odw zorow aniu zw ężającym , poniew aż przestrzeń znorm alizow anych m iar (b o relo w ­ skich) je s t w te j m etryce zupełna. A za te m istnieje jed n o zn aczn ie w yznaczony pun kt stały fi o peratora M arkow a M , M( f i ) = fi. Jest to właśnie m iara, której poszukujem y, kiedy próbujem y znaleźć roz­ w iązanie problem u o d w ro tn eg o dla obrazu o zróżnicow anym nasyce­ niu barwy. Jeżeli chcielibyśm y dokładniej om ów ić to zagadnienie, to znaleźlibyśm y się w cen tru m bieżących prac badaw czych. 14 Charakter tego paragrafu jest bardziej formalny i wymaga zna­ jomości pojęć z teorii miary. Czytelnik bez dostatecznego przygoto­ wania matematycznego może go opuścić bez szkody dla zrozumienia pozostałej części tekstu. 15 J. Hutchinson, Fractals and self-similarity, Indiana Univ. J. Math. 30, 713-747 (1981). P roblem odw rotny i m iara niezm iennicza 420 6. Gra w chaos 6 .4 . K ło p o ty z g e n e r a to r a m i liczb lo so w y c h Ktokolwiek rozważa zastosowanie metod arytmetyki do two­ rzenia liczb losowych jest w stanie grzechu. John von Neumann (1951) Gra w chaos rozgrywana na komputerze nie może obejść się bez generatora liczb losowych. Do tej pory nie rozwijaliśmy tego tem atu szerzej, mówiliśmy jedynie, w jaki sposób otrzy­ mywać liczby losowe o zadanym rozkładzie przy użyciu liczb o rozkładzie jednostajnym , dostarczonych przez komputer. W komputerze liczby losowe nie są tak naprawdę losowe: otrzymywane są metodami deterministycznymi, opartymi na zasadzie sprzężenia zwrotnego. Tak więc otrzymywane liczby tylko sprawiają wrażenie losowości, a w istocie są one całkowicie powtarzalne przy ponownym puszczeniu tego sa­ mego programu. Z tego powodu liczby losowe produkowane przez komputer nazywają się liczbami pseudolosowymi. Ist­ nieje wiele metod, których można użyć do generowania liczb losowych, a które często wcale nie są oczywiste dla progra­ misty. Z tego powodu własności statystyczne liczb dostar­ czanych przez maszynę są zazwyczaj nieznane, poza jedną — liczby te powinny mieć rozkład jednostajny. W tym pa­ ragrafie pokażemy, że gra w chaos wymaga znacznie więcej niż tylko nieskomplikowanego rozkładu jednostajnego. Wy­ magania te są w sposób naturalny spełnione, gdy używamy doskonałej kostki. L iczby losow e W pierwszym rozdziale badaliśmy chaos powstający przy z ró w n a n ia iterowaniu prostych funkcji kwadratowych. Wydawałoby się lo g isty czn eg o możliwe użycie do generowania liczb losowych równania lo­ gistycznego Xk+1 = 4xfe(l - x k). (6.6) W istocie podejście to zostało zaproponowane już przez Sta­ nisława M. Ulama i Johna von Neumanna, interesujących się projektowaniem algorytmów liczb losowych, które mogłyby być uruchomione na pierwszym komputerze elektronicznym ENIAC. Iteracje równania (6.6) dają liczby w zakresie od 0 do 1. Podzielmy ten odcinek na trzy równe pododcinki [0,1/3), [1/3, 2/3) oraz [2/3,1]. Każda z generowanych liczb należy do jednego z tych pododcinków. Następnie przepro- 421 6'.4. Kłopoty z generatorami liczb losowych wadźmy grę w chaos dla trójkąta Sierpińskiego, używając tego „generatora liczb losowych” . Rysunek 6.26 pokazuje wynik uzyskany po 1000 iteracjach. Trójkąt Sierpińskiego z rów nania logistyczn ego I R y s u n e k 6 .2 6 : P ierw sza próba w ygenerow ania trójk ąta Sier­ pińskiego przy użyciu generatora liczb losow ych opartego na równaniu logistycznym Wynik wydaje się dziwny, gdyż pokazuje się jedynie tro- Trójkąt chę wybranych fragmentów trójkąta Sierpińskiego.16 Mimo Sierpińskiego że wszystkie punkty leżą w trójkącie, widać, że brakuje lwiej nie p ow stał jego części. Dłuższe, czy nawet dużo dłuższe iterowanie nic nie pomoże. Przypominając sobie ostatni paragraf, jesteśmy skłonni przypuszczać, że może to prawdopodobieństwa nie zostały wybrane prawidłowo. Aby sprawdzić tę hipotezę, wykonajmy histogram17 dla 10000 obliczonych liczb losowych. 16 Zagadnienie to opisał łan Stewart w pracy: Order within the chaos game? Dynamics Newsletter 3, 2 & 3, 4-9 (1989). Stewart tak kończy swój artykuł: „Nie mam pojęcia dlaczego te wyniki się pojawiają [...] Czy zjawiska te można wytłumaczyć? [...]” Nasze argumenty umożliwią jedynie powierzchowne zrozumienie. Zostały one opracowane przez na­ szych studentów E. Langego i B, Sucker w ramach pracy semestralnej do wstępnego wykładu geometrii fraktalnej. 17 Ważne jest, żeby obliczenia histogramu zostały przeprowadzone w podwójnej precyzji. W przeciwnym wypadku jest wielce prawdo­ podobne, że iteracje równania logistycznego wpadną w cykl okresowy o małym okresie (może nawet mniejszym niż 1000), a zatem otrzyma­ libyśmy histogram, będący numerycznym artefaktem. Omawianie tego faktu i zagadnienie histogramów będą kontynuowane w rozdziale 10. 422 6. Gra w chaos odcinek [0,1/3) [1/3,2/3) [2/3,1) ilość 3910 2229 3861 procentowo 39% 22% 39% Wynik ukazuje znaczące odchylenia od optymalnych częs­ tości 1/3 (33,3%) dla każdego z odcinków. Aby jeszcze raz zbadać sposób, w jaki wybieraliśmy przekształcenia afiniczne na podstawie liczb losowych, musimy dokonać dokładniejszej analizy empirycznej. Podzielmy odcinek jednostkowy na 20 małych pododcinków o długości 0,05 każdy i policzmy dla 100000 iteracji odpowiadające im częstości. Na podstawie wyników w tabeli dzielimy odcinek jedno­ P raw idłow e dopasow anie stkowy na trzy pododcinki [0,1/4), [1/4,3/4) oraz [3/4,1]. praw dop od o­ Teraz iteracje równania logistycznego — jak się wydaje — b ień stw dają taką samą liczbę powtórzeń w każdym z odcinków. Podejście to daje generator liczb losowych o trzech możliwych wynikach, 1, 2 i 3, z równymi prawdopodobieństwami 1/3 każdy. Używając tego schematu, znów rozegramy grę w cha­ os, mając nadzieję, że tym razem da ona dość prędko kom­ pletny trójkąt Sierpińskiego. Cóż, rys. 6.27 pokazuje re­ zultat. Mamy prawo być rozczarowani, wynik jest jeszcze gorszy niż przedtem! Hipoteza, że kłopoty zostały spowodowane nieprawidłowo wybranymi prawdopodobieństwami, okazała się oczywiście fałszywa. Aby dotrzeć do sedna sprawy, musimy jeszcze Trójkąt Sierpińskiego z rów nania logistyczn ego II R ysunek 6.27: Inna próba wygenerowania trójkąta Sierpińskie­ go. Używaliśmy „poprawionego” generatora liczb losowych, opar­ tego na równaniu logistycznym 6.4. Kłopoty z generatorami liczb losowych odcinek [0,00, 0,05) [0,05, 0,10) [0,10, 0,15) [0,15, 0,20) [0,25, [0,30, [0,35, [0,40, [0,45, [0,50, [0,55, [0,60, [0,65, [0,70, [0,75, [0,80, [0,85, [0,90, [0,95, 0,30) 0,35) 0,40) 0,45) 0,50) 0,55) 0,60) 0,65) 0,70) 0,75) 0,80) 0,85) 0,90) 0,95) 1,00) ilość 14403 6145 4812 3809 423 odcinek ilość [0,00, 0,25) 33425 [0,25, 0,75) 33287 [0,75, 1,00) 33288 3487 3389 3303 3244 3097 3240 3251 3196 3459 3621 3882 4164 4821 6012 14409 Tabela 6.1: Statystyka 100000 iteracji funkcji kwadratowej raz zastanowić się, jakie własności generatora liczb losowych są potrzebne, żeby gra w chaos dawała pożądane rezultaty. Przypomnijmy, że kluczem do zrozumienia działania gry był system adresowania. Dla każdego punktu atraktora istniał adres składający się z nieskończonego ciągu cyfr spośród {1,2,3}. Gra w chaos stworzy punkt leżący blisko niego, jeżeli generuje wszystkie możliwe skończone adresy z od­ powiednimi prawdopodobieństwami. Przypominając sobie kiepskie wyniki ostatnich dwóch eksperymentów, musimy zdać sobie sprawę, że nie byliśmy w stanie wygenerować większości adresów. Próbując poprawić rezultat iterowania równania (6.6), wybraliśmy odcinki [0,1/4), [1/4,3/4) oraz [3/4,1]. W ten sposób zapewniliśmy sobie, że adresy zaczynające się od 1, 2 i 3 będą się pojawiać z takimi sa­ mymi częstościami. A co z adresami zaczynającymi się od 11, 12, 13 i tak dalej? Spróbujmy dociec, które z adresów się nie pojawiają, przez powtórzenie ostatniego eksperymentu i zaznaczenie wyników na sieci o adresach trzycyfrowych. 424 6. Gra w chaos P ow tórzen ie z adresam i R y s u n e k 6.28: Powtórzenie ostatniego eksperymentu. Wpisano adresy „tłustych” punktów Możemy odkryć, że niektóre kombinacje trzycyfrowe w ad­ K tó re adresy się nie p ojaw iają? resach nigdy się nie pojawiają, a mianowicie 222, 221, 223, 212, 231, 233, 122, 121, 123, 322,... Innymi słowy, pojawia się tylko osiem następujących adresów trzycyfrowych: 111, 113, 132, 211, 213, 232, 321, 323. Doszliśmy już tak daleko, że powinniśmy potrafić wy­ jaśnić te artefakty na podstawie konstrukcji liczb losowych, opartej na równaniu logistycznym. Rysunek 6.29 przedsta­ wia iterację graficzną dla 4 x ( l—x). Na obu osiach zaznaczone są trzy odcinki: [0,1/4), [1/4, 3/4) i [3/4,1]. Po przyjrzeniu się wykresowi staje się jasne, dlaczego pewne kombinacje liczb losowych są niemożliwe. Jeżeli zaczniemy od punktu z pierwszego pododcinka [0,1/4), to punkt następny będzie na pewno leżał albo znów w pierwszym pododcinku [0,1/4), albo w drugim pododcinku [1/4,3/4). Tak więc kombinacja 13 nigdy się nie pojawi. Kontynuując stwierdzamy, że liczba z drugiego pododcinka [1/4,3/4) będzie przekształcona na liczbę z trzeciego pododcinka [3/4,1], a wszystkie liczby z trzeciego wpadną po jednej iteracji do pierwszego albo do drugiego.18 Czyżby oznaczało to, że kombinacje 13,21,22 18 Istnieje jeden wyjątek od tej zasady, mianowicie punkt 3/4. Punkt ten pozostaje stały, tzn. 4 - | ' ( l ~ f ) = § - Jest to nieistotne dla naszych rozważań. b.4. Kłopoty z generatorami liczb losowych 4Z0 L ogistyczna parabola R ysunek 6.29: Iteracja graficzna dla 4 x ( l — x ) . Zaznaczyliśm y obszary używ ane przez generator liczb losow ych oraz 33 nie są w ogóle możliwe? Ostrożnie! Tak, na naszej cyfrowej, komputerowej kostce do gry „3” nie może wypaść bezpośrednio po „1”. Tłumaczy się to w języku adresów na ciąg odwrotny 31! Zmiana kolejności bierze się stąd, że ad­ resy są odczytywane od strony lewej do prawej, natomiast rozgrywki gry w chaos od prawej do lewej. Sprawdziliśmy więc, że gra w chaos rozgrywana z naszym generatorem liczb losowych nie będzie w stanie wyprodukować punktów, które mają w swoim ciągu adresowym któryś z następujących dwu­ cyfrowych ciągów: 31, 12, 22 oraz 33. Dokładnie to zaob­ serwowaliśmy w naszym eksperymencie. Oczywiście możemy teraz rozszerzyć powyższy sposób analizy na przypadek, który obejmie nasze poprzednie po­ dejście do równania logistycznego (z odcinkami [0,1/3), [1/3, 2/3) oraz [2/3,1]). Możliwe adresy są trochę inne, ale w istocie niemożliwość powstania trójkąta Sierpińskiego wy­ nika z tego samego źródła: nie każdy skończony ciąg współ­ czynników pododcinka może się pojawić. Innymi słowy, zda­ rzenia te (pojawianie się poszczególnych współczynników 1, 2 i 3) nie są niezależne. 426 Modelowanie atraktora dla hierarchicznego I F S , sterowanego funkcją kwadratową 6. Gra w chaos Istnieje za d z iw ia ją c y zw ią ze k pom iędzy prow adzeniem gry w chaos, u żyw ającej funkcji kw ad rato w ej Xk+i = 4xk(l —Xk ) 1 rów nanie ( 6 . 6), a hierarchicznym i IF S . P o tw ierd za to raz jeszcze znaczenie w prow adzenia hierarchicznego IFS ja k o nowego narzędzia m atem atyczneg o. S tero w an ie grą w chaos za p o m o cą funkcji kw adratow ej i odpow iednio dopasow anych praw d opod obieństw , ta k ja k na rysunku 6 .2 7, oznacza, że przekształcenie nie m oże być poprzedzane przez w\, W2 przez W2 j przez W2 , ^3 zaś przez w 3 . Lub te ż, zapisując w inny sposób, m ożliw a je s t je d y n ie kolejność w 1 p o tem wi, w 1 p otem w 2 5 w 2 p o tem W3 , W3 p o tem ’ wi, p o tem W2 - Rysunek 6.30: Graf dla hierarchicznego IFS odpowiadającego grze w chaos opartej na „liczbach losowych” uzyskanych przy użyciu równania logistycznego Zb u d o w a n ie IFS w sposób w skazan y przez g ra f na rysunku 6 .3 0 prow adzi do d o kład n ie teg o sam ego w yn iku . R ozw ażm y najpierw w ierzch o łki 1 , 2 i 3 oraz ich połączenia przez kraw ędzie skierowane. M ó w ią c nieściśle, p o łączenia te opisują „następne m ożliw e przekształ­ cenie". C zy te ln ik m oże spraw dzić, że przekształcenie Wi m oże być zastosow ane tylko w p o rządku ta k im , ja k w łaśnie om ów iony. O d p o ­ w ia d a ją c ą m acierzą dla o p erato ra H utchinsona będzie 0.4. Kłopoty z generatorami liczo losowych ( w\ w _ Wi 0 \ Uą 0 0 ws 0 ^ 0 W2 0 0 102 IO3 0 / A tra k to r pojawi się w czw artej części składowej (ja k pokazano na ry­ sunku 6 .3 0 ). Powyższe rozważania pokazują, że generator liczb loso­ Niezależne wych, którego tu taj potrzebujemy, powinien spełniać pewien powtórzenia ważny warunek. Zakładaliśmy go milcząco przy grze w cha­ os, ale jak dotąd nie został on jeszcze sformułowany w sposób jawny. Kolejne rzuty kostką, czy też wyniki z komputera, muszą być wzajemnie niezależne. Bez tego założenia jest możliwe, że nawet jeżeli trzy rezultaty 1, 2 oraz 3 poja­ wiają się z takimi samymi częstościami, to może się pojawić ciąg zdarzeń, podlegający znacznym ograniczeniom. Może się zdarzyć, że szansa wypadnięcia „3” wyniesie 100%, jeżeli poprzednim wynikiem było „2” , albo 0%, jeżeli poprzednie doświadczenie dało „1” lub „3” . Właściwy sposób rozgry­ wania gry w chaos wymaga takiej kostki, dla której praw­ dopodobieństwo wypadnięcia „3” będzie stałe, nie zależąc od wyniku poprzedniego rzutu (ani żadnego z rzutów po­ przedzających). Prawdziwa nieobciążona kostka o sześciu ściankach ma tę własność w sposób naturalny. Prawdopo­ dobieństwo uzyskania „1”, a potem „2” wynosi 1/36 nie­ zależnie od wszystkich poprzednich wyników. O becnie generatory liczb losowych używ ane w kom puterach naj­ częściej oparte są na m odyfikacji liniowej metody kongruentnej } 9 Przy ustalonym zakresie m i wartości początkow ej 0 < ro < m , następne liczby oblicza się zgodnie ze w zorem nt+ i = (ark + c) m od m , przy czym param etry a i c są liczbam i n atu raln ym i m niejszym i niż m . Liczba m je s t zw ykle w ybierana ja k o odpow iednia potęga 2, pasująca do długości słowa w konkretnej m aszynie. M e to d a ta w ytw arza liczby całkow ite w zakresie od 0 do m — 1. K ażda z liczb je s t całkow icie zde19 Metoda ta została wprowadzona w roku 1949, zob. D.H. Lehmer,Proc. 2nd Sym posium on Large Scale Digital Calculating M achi­ nery, Harvard University Press, Cambridge 1951. Liniowy generator kongruentny 428 6. Gra w chaos te rm in o w an a przez swojego pop rzedn ika, zgodnie z pow yższym w zo­ rem . Jednakże w szystkie ciągi liczb pseudolosowych, tw orzone w ten sposób, m uszą być okresowe. W arto ści w spółczynników a i c m ożna w yb rać w ta k i sposób, żeby okres ten był m aksym alny z m ożliwych i rów ny ra . Z pow odu okresowości, któ ra je s t w budow ana w kon­ strukcję, ciągi liczb losowych generow ane w ta k i sposób nie m ogą być napraw dę losowe. Losowość m ożna rozum ieć na różne sposoby, istnieje w iele te s tó w statystycznych: test częstości, test przebiegu (run test), te s t zderzenia ( collision test), test spektralny, żeby w y­ m ienić tylko kilka z n ic h .20 Na zakończenie zwróćmy uwagę na fakt, że w grze w cha­ os rozgrywanej na komputerze jest istotne, żeby opierać się na generatorze liczb losowych, który zapewnia niezależność wszystkich wytwarzanych przez siebie liczb. Tylko w ten sposób będziemy mogli wygenerować punkty o wszystkich niezbędnych adresach. Większość generatorów liczb loso­ wych będących standardowym wyposażeniem współczesnych komputerów spełnia tę własność dostatecznie dobrze. Nie jest to jednak prawdą dla wszystkich używanych genera­ torów. Zilustrujemy to zagadnienie na dwóch przykładach. Są nimi generator środka kwadratu (middle square genera­ tor) i generator Fibonacciego, powstałe w latach pięćdziesią­ tych. P ierw szy Przed zaistnieniem komputerów ludzie, którzy z takich gen erator liczb czy innych powodów potrzebowali liczb losowych, musieli losow ych rzucać kostką, losować karty z talii czy też, później, używać przyrządów mechanicznych. Publikowano tablice liczb loso­ wych. W roku 1927 na przykład L. H. C. Tippet stworzył tablicę 40000 liczb „wybranych losowo z danych spisu po­ wszechnego” . W roku 1946 John von Neumann jako pierw­ szy zaproponował, by liczby losowe mogły być wyliczane przez maszynę przy użyciu pewnego deterministycznego al­ gorytmu, tzw. generatora środka kwadratu, w tej metodzie jako zarodek dana jest pewna n-cyfrowa liczba dziesiętna W artość tę podnosimy do kwadratu, a jej środkowe n cyfr wybieramy jako kolejną liczbę, r\. Następnie należy podnieść r\ do kwadratu i wybrać środkowe n cyfr — otrzymujemy 20 Zobacz wprowadzenie w tematykę generowania liczb losowych w: D.E, Knuth, The A rt o f C om puter Programming, t. 2, Sem inum erical A lgorithm s, wyd.2, Addison-Wesley, Reading, Massachusetts 1981. 4^y 6'.4. Kłopoty z generatorami liczb losowych G enerator środka kw adratu R ysunek 6.31: Przy użyciu generatora środka kwadratu do wy­ tworzenia liczb losowych trójkąt Sierpińskiego też się nie pojawia (punkty są wytłuszczone) G enerator F ibon acciego R ysunek 6.32: Użycie generatora Fibonacciego do generowania liczb losowych też nie daje trójkąta Sierpińskiego r 2 — i tak dalej. Zakres tak otrzymanych liczb zmienia się od 0 do 10™ —1, a przez unormowanie wyników dostaniemy liczby rozłożone w przedziale jednostkowym [0,1], czego wy­ magamy od znormalizowanych liczb losowych. Pokazano jednak, że generator środka kwadratu jest kiepskim źródłem liczb losowych, mimo że dla niektórych wybieranych cyfr i pewnych wartości zarodków możemy otrzymać długie ciągi liczb, które zdadzą wszelkie testy na losowość. Rysunek 6.31 przedstawia naszą próbę otrzymania trójkąta Sierpińskiego przy użyciu tego generatora liczb losowych. Generator Fibonacciego jest najprawdopodobniej naj- W zór drugiego prostszą metodą drugiego rzędu dla liczb losowych. Każda rzędu z liczb jest obliczana nie tylko na podstawie swojego bez­ 430 6. Gra w chaos pośredniego poprzednika, ale na podstawie dwóch liczb ją poprzedzających. Procedura ta wyraża się wzorem r% = { n -1 + n - 2 ) mod m. Na rysunku 6.32 ustaliliśmy m = 218. Wynik jest dość zaskakującym fraktalem — ale daleko mu do kompletnego trójkąta Sierpińskiego. 6 .5 . M e t o d y o z m ie n n e j lic z b ie ite r a c ji W tym i poprzednim rozdziałach pokazaliśmy, jak zakodować pewne fraktale jako atraktory IFS. Omawialiśmy dwie rów­ noważne metody wprowadzania tego atraktora — algorytm deterministyczny (np. iteracje KWR) oraz metodę probabi­ listyczną, grę w chaos. Niestety każde z podejść ma swoje ograniczenia. Algorytm deterministyczny zachowuje się mar­ nie, gdy współczynniki kontrakcji dla przekształceń afinicznych różnią się znacznie, tak jak np. w przypadku pa­ protki Barnsleya. Z drugiej strony przebieg gry w chaos silnie zależy od wyboru prawdopodobieństw, a jak na razie podaliśmy jedynie metodę praktyczną ich wybierania (zob. s. 415). W istocie rzeczy algorytmu, który poniżej omówimy, moż­ na użyć do deterministycznego wyprowadzenia atraktora w sposób pozwalający uniknąć niedogodności iterowania zwykłej KW R.21 W wielu przypadkach ten algorytm jest podejściem lepszym niż metody probabilistyczne. Może on w szczególności wyznaczać atraktor z precyzją zadaną z góry, podczas gdy m etoda probabilistyczna nie daje nam takiej możliwości. W metodzie probabilistycznej brakuje kryte­ rium, które określiłoby czas trw ania gry w chaos, potrzebny do osiągnięcia zadanej precyzji. Z drugiej strony gra w chaos 0 dobrze dobranych param etrach jest niezwykle efektywna 1 bardzo prędko pozwala na wgląd w globalną postać atrak­ tora. 21 Szczegóły zostały opublikowane w artykule: Rendering methods for iterated function systems, autorstwa D. Heptinga, P. Prusinkiewicza i S. Saupego, w: F R A C T A L 9 0 — P r o c e e d in g s o f th e 1 s t I F I P C o n fe r e n c e o n F r a c ta ls , L i s b o n , J u n e 6 -8 , 1 9 9 0 (H.-O. Peitgen, J. M. Henriques, 1. F. Penedo, red.), Elsevier, Amsterdam 1991. 6'.5. Metody o zmiennej liczbie iteracji 451 Omówmy najpierw problem przybliżania atraktora IFS, P ok rycia Aoo> przy danych kontrakcjach w i, ... z zadaną z góry atraktora dokładnością s. Szukamy pokrycia atraktora przez zbiory 0 średnicy mniejszej niż e. Takie pokrycie może powstać jako wynik iterowania operatora Hutchinsona. Zaczynając z do­ wolnego zbioru A, który zawiera atraktor (A ^ C A), po pierwszej iteracji dostajemy pokrycie przez N zbiorów, Aoo c wi (A) u *• • U w n (A ), po drugiej iteracji przez N 2 zbiorów, Aoo C io iio i( A ) U i0 2 io i(A ) U * • *U w n w n (A) 1 tak dalej. Wszystkie przekształcenia Wk są kontrakcjami. A zatem po pewnej liczbie iteracji, powiedzmy m, średnica każdego spośród N M pokrywających zbiorów postaci wslwS2 • *• wSrn(^ ) będzie mniejsza niż e. Niemniej jednak już z przykładu pa­ protki Barnsleya wiemy, że liczba tych zbiorów N M może być astronomicznie duża, wykluczając jakiekolwiek prak­ tyczne obliczenia przy użyciu komputera. Zauważmy, że średnica większości z N M zbiorów osta­ D ob ry p om ysł tecznego pokrycia jest znacznie mniejsza, niż to konieczne. A zatem byłoby znakomitym usprawnieniem, gdybyśmy po­ trafili zatrzymać iteracje w momencie dostosowanym do wiel­ kości zbiorów wSl • • • w Sfc(A) w krokach pośrednich (dla k = Dla jasności sytuacji omówmy następujący prosty przyk­ P ro sty przykład ład poglądowy. Rozważmy układ składający się jedynie z dwóch przekształceń ( \ = x wi(x) 2x 1 W2{X) = y + określonych na zbiorze liczb rzeczywistych. Zauważmy, że współczynnik kontrakcji dla w\ wynosi a dla W2 jest on równy Istnieje silny związek między tymi przekształce­ niami a przekształceniami22 prowadzącymi do zbioru Can22 Przypomnijmy, że są nimi w\ ( x ) — | oraz W2 {x) = ^ s. 233). | (zob. 432 6. Gra w chaos tora. A jednak atraktorem dla tego układu nie jest zbiór Cantora; nie jest to nawet fraktal, a po prostu odcinek jed­ nostkowy I = [0,1]. Stanie się to jasne, jeżeli zauważymy, że odcinek pozostaje nie zmieniony pod działaniem stowarzy­ szonego operatora Hutchinsona w 1(I) = [1,1/3], w2(I) = [1/3,1], czyli H ( I ) = w i ( I ) \ J w 2(I) = [0,1] = I- Znając charakterystykę atraktora IFS jako zbioru niezmien­ niczego dla operatora Hutchinsona, możemy wnioskować, że odcinek jednostkowy jest istotnie atraktorem powyższego prostego układu. Spróbujmy pokryć atraktor zbiorami, których wielkość M eto d a o zm iennej nie przekracza e = 1/3. Jeżeli zaczniemy od I = [0,1], to po liczb ie iteracji pierwszej iteracji otrzymamy zbiory w \{I) = [0,1/3] oraz p o raz p ierw szy W2 CO = [1/3,1], których (łącznie) powinniśmy użyć jako punktu wyjścia dla następnej iteracji. Ale ponieważ pierw­ szy z tych odcinków, w>i(/), ma już żądaną długość, konty­ nuujemy iterowanie tylko dla drugiego z nich, w2(/) (zob. rysunek 6.33), co daje Wiw2(l) = wi [1/3,1] - [1/9,1/3], w2w2(I) = w2 [ 1 /3 ,1 ] - [ 5 /9 ,1 ] . Wielkość pierwszego z tych dwóch zbiorów jest mniejsza niż £, ale drugiego jeszcze nie. A zatem dla [5/9,1] jeszcze raz powtarzamy naszą procedurę , otrzymując w iw 2w2(I) - Wi [5/9,1] = [5/27,1/3], w2w2w2(I) = w2 [5/9,1] = [19/27,1]. Wielkości tych odcinków wynoszą odpowiednio 4/27 i 8/27, i są obie mniejsze niż e = 1/3. Doszliśmy więc do końca i oczekujemy, że tak otrzymany zbiór małych od­ cinków będzie pokrywać atraktor. Jednak sprawdzając bez­ pośrednio, otrzymujemy 6\5. Metody o zmiennej liczbie iteracji 433 [ 0 , 1/3] U [ 1 / 9 , 1 / 3 ] U [ 5 / 2 7 , 1 / 3 ] U [1 9 /2 7 ,1 ] = [ 0 , 1/3] U [1 9 /2 7 ,1 ] ^ [ O , 1]. Widzimy, że cały czas brakuje pewnych fragmentów odcinka jednostkowego (zob. rysunek 6.33). Innymi słowy, jeżeli po prostu odrzucimy pewne części iteracji IFS, to nie dosta­ niemy oczekiwanego rezultatu. D ziałanie K W R o zm iennej liczbie iteracji Rysunek 6.33: O bcinanie iteracji operatora H utchinsona tylko do tych zbiorów, których średnica jest m niejsza od pewnej zadanej tolerancji, doprowadza w końcu do p ow stan ia zbiorów żądanej wielkości. Zazwyczaj nie pokryw ają one jednak całego atraktora A lgorytm o zm iennej liczbie iteracji Rysunek 6.34: P odział hierarchiczny w prow adzony przy oka­ zji om awiania adresów daje w łaściw ą pod staw ę dla algorytm u o zmiennej liczbie iteracji Potrzebujemy innego, subtelniejszego sposobu dzielenia odcinka na coraz mniejsze części. Na rysunku 6.34 poka­ zano strategię wykonywania kolejnych podziałów, idealnie dopasowaną do naszego przykładu. Daje ona zbiory w i(I), W2 Wi(I)i W2 W2 Wi(I) oraz W2 W2 W2 ( I ); długość każdego z nich Popraw na m eto d a o zm iennej liczbie iteracji 434 6. Gra w chaos jest zadanej wielkości, ich suma zaś pokrywa odcinek L Ale jak otrzymać taki sposób podziału? Staranniej badając ry­ sunek 6.34, zauważamy, że pokazuje on taką samą metodę podziału hierarchicznego, jak ta używana dla mechanizmu adresowania atraktora. Rysunek 6.35 przedstawia odpo­ wiadające jej drzewo adresowe. Gałęzie drzewa są różnej długości, a węzły jednego poziomu nie znajdują się na tej samej wysokości. Współrzędna wysokości reprezentuje wiel­ kość, do której odcinek jednostkowy jest zmniejszany po za­ stosowaniu odpowiedniej kontrakcji. Tak więc ta metoda polega na odcinaniu tych gałęzi drzewa adresowego, które przekraczają wysokość 1/3. Drzewo adresowe dla algorytmu o zmiennej liczbie iteracji R ysunek 6.35: Odcinamy te gałęzie drzewa adresowego odpo­ wiadającego rysunkowi 6.34, dla których współczynnik zwężania odpowiednich złożonych kontrakcji osiąga wartość 1/3. W drzewie po prawej stronie odcięto gałęzie przy współczynniku zwężania równym 1/6, co daje pokrycie odcinka o większej rozdzielczości (szerokości kolumn na rysunku nie mają znaczenia; nie są dosto­ sowane do wielkości odpowiadających im atraktorletek) Mówiąc formalnie, po pierwszym kroku dostajemy na­ stępujące rozbicie atraktora: A qq — W\ (Aoo) U ***U U>jv(^oo)ł (6* 0 W kroku następnym dzielimy każdy ze zbiorów w^Aoo) zgo­ dnie z WkiAoc) = wk (w1(Aca)) U • • • U wk (wN {Aoo)). W trzecim kroku rozbijamy każdy ze zbiorów Wk(wi(A0o)) na WkWiiAoo) = WkWiW^Aoo) U - ” U WkWiWfifiAoo). 6.5. Metody o zmiennej liczbie iteracji Oznacza to, że w n-tym kroku każdy podzbiór atraktora o adresie s \ . . . s n ^ i jest dzielony na mniejsze podzbiory o ad­ resach S i ., . s n —1 1, S i .. . s n —\2 , 1 S i . . oS^- i -AT. Te podzbiory Aoo to atraktorletki opisane wcześniej na stro­ nie 416. Jeżeli kiedykolwiek dochodzimy do atraktorletki, której średnica jest mniejsza niż s, to ją zachowujemy. Wszy­ stkie pozostałe atraktorletki muszą być dzielone dalej. W na­ szym przypadku proces wygenerował atraktorletki o adre­ sach 1 , 2 1 , 2 2 1 oraz 2 2 2 . Opierając się na tym pomyśle, możemy efektywnie obli­ czać przybliżenia atraktora A ^ . Wybieramy po prostu po jednym punkcie z każdej końcowej atraktorletki. Z konstruk­ cji tej otrzymujemy, że dla każdego punktu atraktora istnieje punkt w naszym zbiorze wybranych punktów, odległy od niego o nie więcej niż s. Zademonstrujmy tę procedurę na wprowadzonym wyżej przykładzie. Wiemy, że yo = 0 jest punktem z A ^ (0 jest punktem stałym dla w \). Pozwala nam to wyznaczyć punkty w atraktorletkach: yi = m {0 ) = o, y2 = w2wi(0) = w2 (0) = 1/3, j/3 = w2w2w i(0 ) = w2 (1/3) = 5/9, 2/4 = w2w2w2(0) = w2w2 (1/3) = w2 (5/9) = 19/27. Ponieważ wielkość odpowiadających im atraktorletek jest nie większa niż e, dostajemy przybliżenie i oczywiście żaden z punktów w A ^ nie leży w odległości większej niż e = 1/3 od wszystkich punktów z A e. Porównajmy to z prostą iteracją IFS zaczynającą się od punktu stałego 0. Osiągnięcie pożądanej precyzji wy­ magałoby trzech kompletnych kroków. A zatem w A ^ otrzy­ malibyśmy osiem punktów zamiast czterech, co podwoiłoby ilość pracy. Musimy zauważyć, że „współczynnik nieefek­ tywności” jest zazwyczaj dużo większy. 435 436 6. Gra w chaos Działanie IFS a m etoda o zmiennej liczbie iteracji R ysunek 6.36: Porównanie dwóch metod tworzenia atraktora IFS. (a) Iteracje operatora Hutchinsona (zaczynające się od punktu) dla całkowitej liczby m = 9 iteracji, co daje Ni = 49 = 262 144 punkty, (b) Metoda o zmiennej liczbie iteracji, używająca N 2 = 198 341 punktów Mówiąc krótko, algorytm o zmiennej liczbie iteracji dzieli Porównywanie algorytmów: rekursywnie atraktorletkę tak długo, aż średnice otrzyma­ przykład nych zbiorów będą mniejsze bądź równe zadanej liczbie e. z paprotką Z końcowego zbioru atraktorletek wybieramy po jednym re­ prezentancie. Punkty te pokrywają atraktor z dokładnością e. Na rysunku 6.36 porównano dwie różne metody w za­ stosowaniu do paprotki Barnsleya. Ponieważ współczynniki kontrakcji przekształceń różnią się znacznie między sobą, cy­ kle KW R dają bardzo nierówny rozkład punktów atraktora. Algorytm o zmiennej liczbie iteracji usuwa tę niedogodność, co wyraźnie widać na rysunku. M etoda o zm iennej liczbie iteracji M e to d a o zm iennej liczbie iteracji pozw ala nam obliczać przybliżenia A e zbioru A 00 z za d a n ą z góry dokładnością e, ta k więc odległość H au sd o rffa23 d n ( A e, A ^ ) je s t m niejsza bądź równa e. A za te m wszy­ stkie p u n kty A e leżą w odległości co najw yżej e od p u n któ w Aoo i od­ w ro tn ie . P a trzy m y te ra z na w \ , w^, i ob liczam y współczynniki ko n trakcji tych przekształceń. O zn a c zm y je przez p(wk)- W szystkie 23 Zobacz definicję odległości Hausdorffa w rozdz. 5. I/, u . irjLUl/UUJ^ W IL^iClUJl przekształcenia W k , któ re spełniają w arunek p(wjfc) < e /d ia m ( A 0O) ? m ożna odrzucić z dalszych pod ziałów , gdyż o d p o w iad ając e im a tra k torletki m ają średnicę m niejszą niż e. D la pozostałych prze­ kształceń kontynuujem y proces na drugim poziom ie \ o bliczam y w spół­ czynniki kontrakcji dla złożonych przekształceń p ( w k w i ) , p ( w k w 2 ) , . . . , p ( w k w N ). Pow tarzam y te ra z naszą procedurę, tj. o d rzu cam y te złożenia, których współczynnik kontrakcji je s t m niejszy lub rów ny £ / d i a m ( A 00), konty­ nuujem y n atom iast dla pozostałych przekształceń, ro zw a ża ją c przek­ ształcenia złożone z trzech elem en tó w , i ta k dalej. O gólnie, procedurę m ożem y opisać ja k następuje. Po osiągnięciu złożenia o dostatecznie m ałym w spółczynniku kontrakcji zn ajdujem y a tra k to rle tk ę o adresie S 1 S2 • ■• sm , wielkości d \ a m ( w S l w S2 ■■■w Sm( A r x ) ) < e, czyli to o co nam chodziło. Jeżeli w spółczynnik ko ntrakcji złożenia w si ' ' ' w sTn je s t ciągle za duży, tzn . większy niż e /d ia m (^ 4 oc), to kontynuujem y i rozw ażam y N złożeń z następnego poziom u, w S l w S2 - - W SmW i W S l W S2 ■" W SmW2 w S l w S2 ■- w Srnw N . W ten sposób konstruujem y złożenia przekształceń, które spełniają Niech S będzie zbiorem adresów odpow iednich a tra k to rle te k , Dla dowolnego punktu xo € Aoo (n p . dla dow olnego pun ktu stałego przekształcenia w i ) odległość HausdorfFa m iędzy zbiorem Ae = {x : x = w Sl ■■■wSm(x0), (s i , ...sm) e S} a atrakto rem jest ograniczona przez e, tj. ¿ ¡ j ( A e , A x ) < e. K oń czy to podstawow y opis m eto d y o zm iennej liczbie iteracji. D la celów praktycznych m etodę m ożna jeszcze bardziej przyspie­ szyć przez w ykorzystanie fa k tu , że a tra k to r m oże być przedstaw iony tylko ze skończoną rozdzielczością (e k ra n u ). B ęd ziem y elim inow ać z dalszych rozw ażań obrazy pu n któ w , w ielo kro tn ie tra fia ją c y c h w ten U I 438 6. Gra w chaos sam piksel.24 M a to zasadnicze znaczenie w przypadkach a tra k to ró w zach odzących na siebie, poniew aż alg o rytm o zm iennej liczbie iteracji nie w y c h w y tu je ta k ie g o zachow ania. P ozostaje obliczenie albo oszacow anie w spółczynn ików kontrakcji p ( w Sl • • ■w Stti). P rze d s ta w ia m y tu ta j trz y m e to d y o różnej złożoności obliczeniow ej i o różnej jakości oszacowań. W e w szystkich trzech przypadkach odległość je s t m ierzona przy użyciu m etryki euklidesow ej. Piew sza i najprostsza z m etod opiera się na własności p { w \ w 2) < p(wi)p(w 2 ) i szacuje w spółczynnik ko n trakcji złożonego przekształ­ cenia afinicznego w Sl • * • w Srn przez iloczyn pojedynczych współczyn­ nikó w ko n trakcji. A za te m , p ( w Sl ■■■WSm) < p { w Sl) ■■■p ( w Sm). N iestety, w zó r ten d aje zb yt grube oszacow anie rzeczyw istej wartości w spółczynnika kontrakcji przekształcenia złożonego. D la przykładu ro zw a żm y dwa następujące przekształcenia afiniczne: w\{x,y) = (0,Ola;, 0,99y), W2 (x,y) = ( 0 , 99x, O .O lj/). Poniew aż p ( w i ) = p { w 2 ) = 0 ,9 9 , o trz y m u je m y p { w \ ) p { w 2 ) = 9 9 2/ / 1 0 0 0 0 . Z drugiej strony, W1 W2 { x , y ) — ( 0 ,0 0 9 9 x , 0 ,0 0 9 9 y ) i p ( w i W 2 ) = 0 ,0 0 9 9 . Czyli użycie iloczynu p { w \ ) p ( w 2 ) zaw yżyło rzeczyw istą w artość p(wiW2 ) 99 razy. A lte rn a ty w n a m eto d a szacow ania w spółczynnika kontrakcji w y­ korzystuje następującą w łasność.25 W sp ó łc zy n n ik kontrakcji prze­ kształcenia afinicznego w(x, y) ~ (ax + by + e,cx + dy + /) spełnia nierówność p(w) < 2max{|a|, |6|, |c|, \d\}. W w yżej ro zw ażan ym przykład zie w y n ik ten d aje górne ograniczenie w spółczynnika ko n trakcji przekształcenia złożonego przez 0 ,0 1 9 8 ; jest ono dużo lepsze, ale ciągle zaw yżone aż d w u kro tn ie . T rzecia m eto d a je s t bardziej kosztow na obliczeniow o niż dw ie po­ 24 Zobacz S. Dubuc i A, Elqortobi, Approximations of fractal sets, J . C om put. Appl. M ath. 29, 79-89 (1990). 25 Zobacz G.H. Golub i C. F. van Loan, M atrix C om putations, wyd.2, Johns Hopkins, Baltimore 1989, s. 57. o.o. rneioay o zmiennej uczoie izeracji przednie, daje je d n a k dokładne w artości. W yk o rzys tu je ona własność, że w spółczynnik ko ntrakcji przekształcenia afinicznego w (z) — A z + B (gdzie A oznacza m acierz, B zaś — w ektor kolu m now y) m ożna przedstawić ja k o pierw iastek kw ad rato w y z najw iększej wartości w łas­ nej m acierzy A T A ( A T oznacza m acierz tran sp o n o w a n ą) p(w) — y m a x { |A i| : w artość własna A T A } . W z ó r ten jest praw dziw y dla przekształceń afinicznych w przestrze­ niach o dow olnym w y m ia rze n . W przypadku d w u w ym iarow ym (n = 2 ), gdzie przy w yznaczaniu p( w) m usim y obliczyć dwa pierw iastki kw adratow e, a dokładnie gdzie p — a 2 + b2 + c2 -f d 2 q — (ad — be)2. Poniew aż je d n a k nie interesuje nas dokładny w spółczynnik kontrakcji, a tylko dobre jego ograniczenie, m ożem y zastąp ić obliczanie pierw ia­ stka kw adratow ego dobrą stablicow aną procedurą, co znacznie przy­ spieszy m etodę. Jak stw ierdziliśm y na p o c zą tk u , odległość w powyższych roz­ ważaniach m ierzym y przy użyciu m etryki euklidesowej. M oglibyśm y równie dobrze używać innej m etryki. N a przykład dla m etryki m a­ ksim um doo (zob. s. 3 4 0 ) w spółczynnik ko ntrakcji m ożna prościej wyliczyć ze w zoru Poo{w) = m a x {|a | + |6|, \c\ + |d |}, gdzie współczynniki a , . . . , d są elem en tam i m acierzy A , ta k ja k w yżej. Metoda o zmiennej liczbie iteracji podaje nam listę pun­ któw przybliżających atraktor A ^ z zadaną dokładnością. Kiedy punkty te potraktujem y jako środki malutkich kółe­ czek, dadzą nam one pokrycie A ^ . Niech 440 6. Gra w chaos D e(y) = {x e R 2 : \\x - y II < s} będzie zbiorem punktów na płaszczyźnie, które leżą w od­ ległości nie większej niż e od punktu y. W tedy w naszym prostym jednowymiarowym przykła­ dzie zbiór C£ - De(0) U D £ (1/3) U D£ (5/9) U D e (19/27) pokrywałby atraktor (tzn. Aoo C C£) i wszystkie punkty z C£ leżałyby w odległości co najwyżej e — 1/3 od Aqq. Na rysunku 6.37 pokazano takie pokrycia dla paprotki. O szacow anie Gra w chaos potrzebuje zbioru prawdopodobieństw p*., p raw d op od o­ k = 1 ,..., W, określających, które z przekształceń w i,... , w n b ień stw dla gry powinno być użyte w każdym kroku algorytmu. Tak jak było w chaos już pokazane, dobór tych prawdopodobieństw nie jest wcale trywialny. M etoda o zmiennej liczbie iteracji wyznacza inny sposób przypisania wartości tym prawdopodobieństwom. Dzielimy P ok rycia paprotki R ysunek 6.37: Algorytm o zmiennej liczbie iteracji może dać obrazy o różnej dokładności, zależnie od wyboru e — dopuszczal­ nej tolerancji dla odległości Hausdorffa. Dla powyższych wy­ kresów używano trzech różnych wartości: e — 0,5, 0,1, 0,015. Każdy z punktów został zaznaczony jako malutkie kółeczko o od­ powiednim promieniu tak, by atraktor na pewno zawierał się w obrazie t>.b. Metody o zmiennej liczbie iteracji 441 G ra w chaos różne praw do­ p od ob ień stw a Rysunek 6.38: Gra w chaos używająca Ni = 198 541 punktów. (a) Użyte tutaj prawdopodobieństwa to 0,85, 0,07, 0,07 i 0,01. (b) Ulepszone prawdopodobieństwa to 0, 73, 0,13, 0,11 i 0, 03 punkty zaznaczone w wyniku metody o zmiennej liczbie ite­ racji na N podzbiorów, do każdego z nich wkładając punkty należące do odpowiedniej atraktorletki w ^A o o ).'26 Względna liczba punktów w każdym podzbiorze określa odpowiadającą jej wartość prawdopodobieństwa. Na przykład dla paprotki otrzymujemy liczby 0, 73 , 0,13,0,11, 0,03.27 Jeżeli użyjemy ich jako prawdopodobieństw dla gry w chaos, to dostaniemy obraz o punktach rozłożonych bardziej równomiernie, niż w obrazie stworzonym przy użyciu gry w chaos z prawdopo­ dobieństwami pochodzącymi ze wzoru na stronie 415 (zob. rysunek 6.38). 26 Określenie ich nie jest dokładne, atraktorletki Wfc(^4oo) bowiem mogą w pierwszym kroku zachodzić na siebie. Algorytm uznaje punkt reprezentujący atraktorletkę w Slw S2 • *• w 8m (Aoo) za należący do 1 (Aoo) ■ 27 Prawdopodobieństwa te nie powinny być traktowane jako bez­ względne, ich wartości bowiem w pewnym stopniu zależą od rozdziel­ czości obrazu. Jeżeli zmienimy rozdzielczość, inne wagi mogą być lepsze. 442 6. Gra w chaos 6 .6 . P r o g r a m n a z a k o ń c z e n ie ro zd zia łu : g ra w c h a o s d la p a p r o tk i Pokazaliśmy, że gra w chaos jest eleganckim sposobem wy­ znaczenia atraktora dla danej kopiarki wielokrotnie redu­ kującej. Program stosuje ten pomysł w praktyce. Można go użyć do eksperymentowania z jakąkolwiek KWR z rozdziału 5. Należy wykorzystać param etry z tabeli 5.2 i zmienić przekształcenia w programie zgodnie z podanymi tam war­ tościami. W krótce na ekranie będzie rósł nowy fraktal. Program został ułożony tak, by powstała paprotka jak na rysunku 6.39. Należy zauważyć, że jego param etry nie były wymienione w tabeli 5.2. Prawdopodobieństwa otrzy­ mano przy użyciu wyznaczników, co opisano na s. 415. Jeżeli chcielibyśmy użyć innych przekształceń, to powinniśmy sko­ rzystać z tego samego sposobu obliczania prawdopodo­ bieństw. C h aotyczn a paprotka R ysunek 6.39: Wynik programu „Gra w chaos” Rzućmy teraz okiem na program. Na początku musimy podać liczbę iteracji dla gry w chaos. Następnie ustalane są: szerokość obrazu i param etry części translacyjnych prze­ kształceń. Przypomnijmy, że w programie z rozdziału 5 musiały one być dopasowane do w. Nie musimy od razu ustalać wszystkich parametrów przekształceń. W tym pro­ gramie są one określane dopiero w momencie, w którym przekształcenia działają na punkt wiodący. Następnie obliczamy punkt stały pierwszego przekształ­ cenia, p rz e k s z t 1. Punkt ten należy do atraktora i będzie­ my go używać jako punktu początkowego dla gry w chaos. 6.6. Program na zakończenie rozdziału Program w BASIC-u Tytuł G ra w chaos Gra w chaos dla liścia paprotki INPUT ,,Liczba iteracji (5000):;’, imax lewy = 30 w = 300 wl = w + lewy el = .5*w : e2 = .57*w : e3 = .408*w : e4 = .1075*w fl = 0*w : f2 = - .036*w : f3 = .0893*w : f4 = .27*w REM PUNKT STAŁY DLA PRZEKSZTAŁCENIA 1 x = el y = 0 FOR i = 1 TO imax r = RND REM przekształcenie 1 (łodyga) 50 IF r > .02 GOTO 100 xn = 0*x + 0*y +el yn = 0*x + .27*y +fl GOTO 400 100 200 300 REM przekształcenie 2 (prawy lisc) IF r > .17 GOTO 200 xn = -.139*x + .263*y + e2 yn = ,246*x + ,224*y + f2 GOTO 400 REM przekształcenie 3 (lewy lisc) IF r > .3 GOTO 300 xn = .17*x - .215*y +e3 yn = .222*x +.176*y +f3 GOTO 400 REM przekształcenie 4 (górna czesc paprotki) xn * .781*x + ,034*y +e4 yn = -.032*x + .739*y +f4 REM RYSOWANIE PUNKTU WIODĄCEGO 400 PSET (xn+lewy,wl-yn) x = xn y = yn NEXT i END Wyznaczyć go łatwo: x = e l ,y = 0 . Jeżeli zmienimy przek­ ształcenia, to musimy także zmienić te dwa podstawienia, zgodnie ze wzorami na stronie 316. Jeżeli nie zrobimy tego poprawnie, to na ekranie pojawią się dodatkowe punkty, nie należące do atraktora. Nic gorszego nie może się stać, więc nie jest to tak bardzo ważne. Część iteracyjna pro- 443 444 6. Gra w chaos gramu zaczyna się od linii (FOR i= l TO imax). Najpierw obliczana jest losowa liczba x, leżąca pomiędzy 0 a 1 . Jeżeli x jest mniejsze niż (albo równe) 0 , 0 2 (czyli z prawdopo­ dobieństwem 2 %), to do punktu wiodącego stosujemy prze­ kształcenie p rz e k s z t 1 . Jest on następnie rysowany (przy etykiecie 400) i przechodzimy do następnej iteracji. Jeżeli nasza liczba losowa jest mniejsza niż (albo równa) 0,17 (tj. z prawdopodobieństwem 0,17 —0,02 — 15%), to stosujemy przekształcenie p rz e k s z t 2 . Jeżeli nie, to stosujemy prze­ kształcenie p rz e k s z t 3 (z prawdopodobieństwem 13%) albo p rz e k s z t 4 (z prawdopodobieństwem 70%). Jeżeli chcielibyśmy zmienić przekształcenia zgodnie z ta­ belą 5.2 (albo wypróbować własne pomysły), to możemy wpisywać stałe reprezentujące param etry a , b , c id bez­ pośrednio do komend dotyczących przekształcania punktu wiodącego. Spróbujmy na przykład stworzyć smoka z ry­ sunku 5.11. Przypomnijmy, że xn = a * x + b * y + e y n = c * x + d * y + f a zatem pierwszym przekształceniem będzie (por. 5.2) tabela xn = 0.000 * x + 0.577 * y + e l yn = -0 .5 7 7 * x + 0.000 * y + f l na początku programu zaś ustalamy e l = 0.0951 * w f l = 0.5893 * w ponieważ param etry e oraz f muszą być mnożone przez w. Załóżmy, że obliczyliśmy prawdopodobieństwa pi~p^ dla przekształceń od p rz e k s z t 1 do p rz e k s z t 4. Kładziemy T\ — pi, V2 — P2 + n oraz r$ —p^ + r*i- Są to właśnie liczby, które powinny być wstawione do komend zaczynających się od IF , wybierających odpowiednie przekształcenie (ri przy etykiecie 50, V2 przy etykiecie 100 i 7*3 przy etykiecie 200), R ozdział 7 K ształty nieregularne: losowość w konstrukcjach fraktalnych Dlaczego geometria jest często opisywana jako „zim na” i „sucha”? Jednym z powodów jest niemożność opisania ksztattu chmury, wzgórza, brzegu morskiego, czy drzewa. Chmury nie są sferami, linie brzegowe nie są okręgami, a ko­ ra nie jest gładka. Nawet błyskawica nie porusza się po linii prostej. [...] Istnienie tych wzorów wzywa nas do studio­ wania kształtów, które nie interesują Euklidesa jako „ bez­ kształtne”, do badania morfologii tego co „amorficzne”. Benoit B. M andelbrot1 Samopodobieństwo wydaje się jedną z podstawowych zasad konstrukcji geometrycznych natury. Przez miliony lat ewo­ lucja kształtowała organizmy w taki sposób, by przetrwały te najlepiej przystosowane. W przypadku budowy wielu roślin, jak również narządów zwierzęcych, doprowadziło to do po­ wstania rozgałęzionych struktur fraktalnych. Przykładem może być budowa gałęzi drzewa, która pozwala liściom za­ trzymywać maksymalną ilość światła słonecznego. Układ 1 Benoit B. Mandelbrot, The Fractal Geometry o f Nature, Freeman, 1982, s . l . 446 7. Losowość w konstrukcjach fraktalnych naczyń krwionośnych w płucach jest tak rozgałęziony, aby mogła zostać zasymilowana maksymalna ilość tlenu. Mimo że samopodobieństwo w tych obiektach nie jest ścisłe, mo­ żemy na różnych poziomach dostrzec części składowe rozga­ łęzionej struktury. W wielu przypadkach również świat materii nieożywionej wykazuje pewne cechy fraktalne. Pojedyncze wzgórze na przykład może wyglądać jak całe pasmo górskie, do którego należy. Rozkład kraterów na Księżycu pozostaje w zgodności z pewną zależnością potęgową, podobną do tej, jaką wi­ dzieliśmy we fraktalach. Rzeki, linie brzegowe i chmury dostarczają kolejnych przykładów. Niemniej jednak zna­ lezienie hierarchicznych cegiełek, z których są zbudowane zarówno obiekty nieożywione, jak i materia organiczna, jest w zasadzie niemożliwe. Nie ma w nich oczywistego samopodobieństwa, chociaż obiekty te, oglądane są w powiększeniu, wyglądają w zasadzie tak samo. Później wprowadzimy po­ jęcie samopodobieństwa w sensie statystycznym. Tak więc w wielu naturalnych kształtach, pomimo ich nieregularności, można odkryć pewne zależności potęgowe. Jedną z konsekwencji — co było omawiane w rozdziale 4 — jest niemożność przypisania tym naturalnym kształtom wielkości, takich jak długość czy pole powierzchni. Nie ist­ nieje prosta odpowiedź na pytanie: „Jaka jest długość linii brzegowej Wielkiej Brytanii?” . Ktoś może otrzymać 5000 mil jako wynik swojego pomiaru tej linii brzegowej, ale ktoś inny, dysponujący lepszą (dokładniejszą) techniką pomiaru, mógłby równie dobrze otrzymać wynik znacznie większy niż 5000 mil. Właściwym pytaniem powinno być: na ile nieregu­ larna, do jakiego stopnia powyginana jest ta linia brzegowa, albo: jaki jest jej wymiar fraktalny? W tym rozdziale zaj­ miemy się ponownie tym problemem. Podamy metody gene­ rowania modeli wybrzeży (i innych kształtów) o z góry zada­ nym wymiarze fraktalnym. Ktoś mógłby zaproponować, by obrys płatka śniegu Kocha posłużył za model linii brzegowej pewnej wyspy. A jednak, mimo że takie krzywe ściśle samopodobne m ają postulowaną niezmienniczość przy skalowaniu i zadany wymiar fraktalny, to nie mogą być uważane za rea­ listyczne modele linii brzegowej. Powodem tego jest brak losowości. Aby modelować linie brzegowe, potrzebujemy krzy­ wych, których wygląd zmienia się po powiększeniu, ale które mimo to ciągle są podobne do oryginału. Innymi słowy, pa­ trząc na powiększoną wersję linii brzegowej, nie powinniśmy i . i . w prowadzenie iosow osci ao iraKzau aezermmiszycznycn w i być w stanie odróżnić jej od pierwowzoru. Powinniśmy ją raczej uważać za inną część tej samej linii brzegowej nary­ sowanej w nie zmienionej skali. Zaczynamy naszą dyskusję w tym właśnie punkcie, wpro­ wadzając pewien element losowości2 do pierwotnie deter­ ministycznych klasycznych fraktali. Prowadzi to do mo­ deli fizycznych, tzw. modeli perkolacji, mających szero­ kie zastosowania od rozpadu jąder atomowych po formo­ wanie skupisk galaktyk. Eksperymentem, w którego wy­ niku otrzymujemy losowe fraktalne struktury dendrytyczne średniej wielkości — użytecznym do prezentacji praktycz­ nej w sali lekcyjnej — jest proces osadzania elektrolitycz­ nego, omawiany w paragrafie 7.2. Matematyczny model pro­ cesu osadzania oparty jest na ruchu Browna cząstek, który daje się bez wielkiego trudu modelować za pomocą kom­ putera. Własności skali ruchu Browna i pewne jego ważne uogólnienie (ułamkowy ruch Browna) są tem atem trzeciego paragrafu. Dzięki niemu możemy symulować na kompute­ rze krajobrazy fraktalne i linie brzegowe. Przykłady takich symulacji pokazane są w ostatnim paragrafie i na kolorowej wkładce. 7.1. W p r o w a d z e n ie lo so w o śc i d o fra k ta li d e te r m in isty c z n y c h Wprowadzenie elementu losowości do klasycznego determi­ nistycznego fraktala jest pierwszym i najprostszym podej­ ściem, które umożliwi wygenerowanie realistycznych, „na­ turalnych” kształtów. Rozważać będziemy krzywą Kocha i trójkąt Sierpińskiego. Metoda wprowadzająca losowość do konstrukcji płatka śniegu Kocha wymaga jedynie bardzo małej modyfikacji kla­ sycznej konstrukcji. Odcinek linii prostej będzie zastępowa­ ny, tak jak przedtem, łamaną złożoną z czterech odcinków, każdy o długości równej jednej trzeciej długości pierwot­ nego odcinka. Również kształt generatora pozostaje taki sam. Niemniej jednak w każdym kroku zastępowania do­ puszczamy dwie orientacje: załamanie może być skierowane albo w lewo, albo w prawo (zob. rysunek 7.1). 2 Wprowadzanie losowości do rozgałęzionych struktur otrzymanych z KWR wygodniej jest omawiać w kontekście następnego rozdziału. W prow adzenie losow ości do konstrukcji płatka śniegu K ocha 448 7. Losowość w konstrukcjach fraktalnych D w ie m ożliw ości zastęp ow an ia Rysunek 7.1: Dwa możliwe sposoby przeprowadzenia kroku za­ stępowania w konstrukcji Kocha L osow a krzyw a K ocha Rysunek 7.2: Jedna z możliwych realizacji losowej krzywej Ko­ cha. Krok zastępowania jest taki sam jak w oryginalnej konstruk­ cji Kocha, z jednym wyjątkiem: dopuszczamy dwie orientacje ge­ neratora Przy każdym kroku zastępowania wybieramy jedną z tych orientacji w sposób losowy. Wynik nazwiemy losową krzywą Kocha. Połączenie trzech różnych wersji losowej krzywej Ko- 7.1. Wprowadzenie losowości do fraktali deterministycznych 449 cha w taki sposób, że ich końce stykają się ze sobą, two­ rzy losowy płatek śniegu Kocha. W trakcie tego procesu pewne własności płatka śniegu Kocha zostaną zachowane. Na przykład wymiar fraktalny tej nowej krzywej będzie taki sam (około 1,26). Ale jej wygląd zewnętrzny jest zupełnie inny; przypomina ona raczej zarys wyspy niż pierwotną krzy­ wą płatka śniegu (zob. rysunki 7.2 i 7.3). Przy użyciu tych samych metod zastosowanych do krzywej 3/2 możemy skon­ struować coś w rodzaju wyspy (zob. rysunki 7.4 i 7.5). W tym przypadku wymiar krzywej będzie większy, równy dokładnie 1, 5. Rysunek 7.3: Ten losowy płatek śniegu Kocha powstał w wyniku zlepienia trzech różnych wersji losowej krzywej Kocha W powyższych dwóch przykładach losowych fraktali losowe decyzje muszą być podejmowane w trakcie procesu konstrukcji. Przy każdej z tych decyzji należało wybrać jedną z dwóch losowych możliwości. Teraz podamy przykład, w którym losować będziemy liczbę z odcinka; losowy trójkąt Sierpińskiego. Proces konstrukcji przebiega tak samo jak przedtem. Tak więc w każdym kroku trójkąt jest dzielony na cztery mniejsze trójkąty, z których środkowy jest usu­ wany. Jednakże przy podziale dopuszczamy teraz trójkąty, które nie są równoboczne. Na każdym boku trójkąta, który ma zostać podzielony, wybieramy w sposób losowy jeden punkt, a trzy uzyskane punkty łączymy. Otrzymujemy w ten sposób cztery mniejsze trójkąty. Środkowy z tych trójkątów D w a sp osob y w prow adzania losow ości do konstrukcji trójk ąta Sierpińskiego 450 7. Losowość w konstrukcjach fraktalnych W prow adzenie losow ości do krzywej 3 /2 Rysunek 7.4: Stadium początkowe i generator dla krzywej 3/2 z wprowadzoną losowością Rysunek 7.5: Połączenie czterech różnych wersji losowej krzywej 3/2 tworzy wyspę, której linia brzegowa ma wymiar 1,5 Z m odyfikow any trójkąt Sierpińskiego 1 Rysunek 7.6: Punkty podziału na brzegach są wybrane losowo. Rysunek przedstawia czwarty etap konstrukcji /.z. rerKoiacja: iraniaw i poza,ry w losowycn lasacn 4U1 usuwamy, po czym procedurę powtarzamy (zob. rysunek 7.6). Omówimy teraz pewną modyfikację trójkąta Sierpińskie­ go. Doprowadzi nas to bezpośrednio do tem atu następnego paragrafu, do zjawiska fizycznego o wielu zastosowaniach: perkolacji3. Używamy ponownie standardowego podziału na trójkąty równoboczne. Jedną z łatwych modyfikacji jest po prostu usuwanie losowo wybranego trójkąta. A zatem można usunąć środkowy trójkąt, ale równie dobrze wybrać i usunąć można inny z nich, zob. rysunek 7.7. Zm odyfikow any trójkąt Sierpińskiego 2 Rysunek 7.7: W każdym kroku zastępowania mały trójkąt, który zostanie usunięty, jest wybierany losowo. Zaczernione trójkąty pochodzą z piątego etapu konstrukcji Na rysunku możemy dostrzec małe i duże grona, złożone z połączonych trójkątów. Grono definiujemy tutaj jako zbiór czarnych trójkątów, które stykają się swoimi krawędziami, a które są całkowicie otoczone przez białe trójkąty.4 7.2. P erk olacja: fra k ta le i p o ż a r y w lo so w y c h lasach Posuńmy nasze rozumowanie o jeden krok dalej. Rozważmy trójkątną sieć o pewnej średnicy i zajmijmy się każdym trój­ kątem z osobna. Trójkąt jest usuwany lub nie zależnie od pewnego zdarzenia losowego, które zachodzi z ustalonym 3 Słowo „perkolacja” pochodzi od słów łacińskich: „per” (przez) i „colare” (płynąć). Połączenia trójkątów samymi wierzchołkami nie są tu brane pod uwagę. 452 7. Losowość w konstrukcjach fraktalnych Z m o d y fikowany trójkąt Sierpiń skiego 3 R ysunek 7.8: Małe trójkąty z piątego etapu konstrukcji są usu­ wane z prawdopodobieństwem p. Cztery wartości p to (od lewego górnego trójkąta do dolnego prawego): 0,3, 0,45, 0,55, 0,7. Na pierwszych dwóch rysunkach (p = 0,3 i p = 0,45) współistnieje wiele małych gron. Na rysunkach dla p = 0,55 i p = 0, 7 istnieje jedno duże grono główne i kilka małych oderwanych gron prawdopodobieństwem 0,0 < p < 1,0. Kształt otrzyma­ nej struktury zależy znacząco od wybranego prawdopodo­ bieństwa p . Oczywiście dla p — 0 nie otrzymujemy niczego, podczas gdy dla p = 1 wypełniony zostanie cały trójkąt. Dla pośrednich wartości p obiekt ma pewną gęstość5, która wzra­ sta wraz z p. Początkowo, dla małych wartości p, dostajemy tylko trochę rozrzuconych plamek. Dla większych wartości prawdopodobieństwa plamki robią się coraz większe, aż w końcu dla pewnej wartości krytycznej p —pc plamki skle­ ja ją się w jedną dużą nieregularną całość. Dalszy wzrost prawdopodobieństwa powoduje tylko pogrubianie grona. Kiedy struktura zmienia się ze zbioru wielu rozłącznych Per kolacja — p rzep ływ sta je części w zasadniczo jeden duży konglomerat, mówimy, że się m ożliw y zachodzi zjawisko perkolacji Nazwa ta pochodzi od in­ terpretacji wypełnionych części jako otwartych kanalików. 5 Formalnie, średnia gęstość jest równa p. 7.2. Perkolacja: frakt ale i pożary w losowych lasach 4M Załóżmy, że cała dwuwymiarowa płaszczyzna jest podzie­ lona regularną siatką takich kanalików, które są albo otwarte (z prawdopodobieństwem p), albo zamknięte (z prawdopo­ dobieństwem 1 —p). Wybierzmy losowo jeden z otwartych kanalików i spróbujmy w tym punkcie wstrzyknąć ciecz. Co się stanie? Jeżeli struktura znajduje się „poniżej progu perkolacji” , tj. jeżeli prawdopodobieństwo p jest mniejsze niż pc, to oczekujemy, że ten kanalik będzie częścią stosun­ kowo małego grona otwartych kanalików. Przez grono ro­ zumiemy zbiór połączonych otwartych kanalików, które są całkowicie otoczone przez kanaliki zamknięte. Oznacza to, że poniżej wartości progowej będziemy mogli wstrzyknąć tylko pewną skończoną ilość cieczy zanim grono się całkowicie wypełni, i ani kropli więcej. Jeżeli p znajduje się powyżej wartości progowej, to z dużym prawdopobieństwem (pra­ wie na pewno — przyp. tłum.) odpowiadające mu grono będzie nieskończenie duże. Przykład praktyczny to woda przesączająca się przez drobiny kawy i spływająca do dzban­ ka jako napar. Najciekawsze zjawiska zachodzą podczas zwiększania się prawdopodobieństwa od pewnej wartości po­ niżej wartości progowej do wartości powyżej p c . Tak na przyklad prawdopodobieństwo, że kanalik wybrany losowo na­ prawdę należy do grona maksymalnej wielkości, zmienia się przy p — p c z zera na wartość dodatnią. Co więcej, dokładnie dla wartości progowej pc maksymalne grono jest fraktalem! Jego wymiar można wyznaczyć doświadczalnie, a w pewnych przypadkach także analitycznie.6 Zjawisko perkolacji można zilustrować na przykładzie pożarów lasów. Węzły w skupiskach odpowiadają drzewom w lesie, ogień zaś nie może przedostawać się przez przerwy pomiędzy drzewami. A zatem pytanie, czy las znajduje się poniżej czy powyżej wartości progowej, dla której następuje perkolacja, jest zasadnicze. W pierwszym przypadku drzewa są względnie rzadko rozrzucone i tylko mała część wszyst­ kich drzew się spali, podczas gdy w drugim przypadku pożar spustoszy prawie cały las. Omówmy ten model trochę ob­ szerniej. Dla uproszczenia załóżmy, że las nie jest lasem naturalnym i że drzewa zostały zasadzone w wierszach i ko­ lumnach pewnej sieci kwadratowej. Kiedy wszystkie węzły 6 Przyjemnym wprowadzeniem do tego tematu dla niespecjalistów jest książka Dietricha Stauffera, Introduction to Percolation Theory, Taylor & Francis, London 1985. G roźne pożary lasów pow yżej w artości progowej 7. Losowość w konstrukcjach fraktalnych 454 tej sieci są zajęte przez drzewa, sytuacja jest jasna — pożar rozpoczęty gdziekolwiek rozszerzy się na cały las (chyba, że zostanie zakłócony przez silne wiatry albo strażaków, czego nie bierzemy pod uwagę w tym modelu). A zatem rozpatrzymy ciekawszy przypadek, kiedy każdy węzeł sieci ?f§_ 9 9 9 9 9 . f f U t f f t 2 -9 9 9 -9 -9 - -1 -9 9 9 -9 -9 __ 9 9 9 9 - 9 9 - — 4 4 4 4 - 4 4 2 __ 9 9 9 9 - 9 - 1 __9 9 9 9 - 9 2 9 9 9 9 9 1 - 4 4 — 4 4 4 -. 3 9 9 9 9 9 9 - 9 9 1 S 9 9 9 9 9 -9 9 . 9 9 -9 9 9 -9 9 -9 9 -9 9 9 -9 9 a .9999 .99 . 1 - 9 9 9 9 - 9 9 - . -9 9 9 9 -9 -9 9 -9 9 9 9 -9 -9 9 ____ 9 9 — 9 9 ____ 9 9 — 9 9 kroki krok 0 -9 9 9 -9 9 9 9 9 ^ .- 9 9 9 - 9 - 9 - + - 4 4 4 - 4 - 4 ę ę ę ę ęę 9#99 9 9 . __ 3 9 9 9 -9 . + 1&44 9 ^ 2 __ 9 9 9 - JL-- i.-L--- JMMP-^ ^ 1 2 9 - 9 9 . ,m-l+++J$-44. - ^ - 9 . 9 9 - 9 9 -+ + -!$ 9 -9 9 ^ - 2 2 9 9 - 9 9 - -l l 1 $ 9 - 9 9 - . -9 2 9 9 -9 -9 9 „31 2 9 -9 -9 9 ____ 9 9 — 9 9 ____ 9 9 — 9 9 krok 6 krok 5 - 2 ^ - 9 9 9 9 9 - I jl-l- 9 9 9 9 9 -L—L-L-L-9-9-. JL-- L-L-L_^ ------ ^ ^ . - 9 9 - ___L-L-L-L_-i 3 --L-L-L-L / _____L^L^L-L-2- -L _A-— A._i-_i-_i_ £4 JL-L-L i Ł-L-L-- ¿3. -++-+^L +- ^ 9 ^ - ^ ^ - 9 9 - .JL-- L-L-L— L—.i-i-^^-9 -9 9 -^^ -9 -9 9 _______ ^ 2 — 9 9 ____ — A .Jl__ 9 9 krok 11 krok 10 - ^ ^ - 9 . 2 2 ^ 2 _L-L-L_Ql-L-L-L. + ___ L-L-L— i ----- L--- -L—LJ.J.-#___ ___L++—L----- LJ--L. - JL_iL-A-— i- _L .. 999 99999 + -4 4 4 -4 -4 ę ę ę ę ę ę — 91 9 9 - 9 9 . 9999 99 . i 9 +__ 9 9 9 9 - 9 - ^ __ 9 9 9 9 - 9 999 + -4 4 — 4 4 4 - ^ - 2 9 __ 999 _L 1 2 + 1& 4444-44 ^ ^ J .3 9 9 9 -9 9 . -a— l-l2 2 9 9 —99. _3 9 - 9 9 9 - 9 9 1 2 9 9 9 -9 9 . , / ę ę ę ę ę 9999- 99+ -9 9 9 9 -9 9 -9 9 9 9 -9 -9 9 . -9 9 9 9 -9 -9 9 ____ 9 9 — 9 9 ____ 9 9 — 9 9 _______ krok 4 krok 3 krok 2 - 9 9 9 - 9 9 9 9 9 - f f S L M M * . 921 9 9 9 9 9 + - 9 S 9 - 9 - 9 - ^ .- 2 1 2 - 9 - 9 - -l- 2 - l2 - 9 - 9 l2 - 9 9 _ 2+ 12 9 9 . 99 +___ l1&9—9 — ^ ___ ^ 2 2 - 9 - ^__ -l-l-l2 - 9 + ++ 3JM . -l—. . — ¿a.j~ -L_LL---- l2 2 ++^^++1-44. ._i—. i . —99. Jl++++++-+ + -+ 1 S -9 9 - l-u— l-l.1 -9 9 - ^ - ^ - 9 9 + -^ + l$ -9 9 9 -h -1 + 1 2 -9 -9 9 t l ^ l - 9 - i i . ____ 9 9 — 9 9 ____ 2 9 — 9 9 ____ 2 2 — 9 9 krok 8 krok 9 krok 7 __ L-L-L_99999. -+ + + -4 4 4 S 4 - l^ - 9 9 2 2 2 +- +-L+.__9_3_ +—+++—i -- L-. +_LAJ._^ ---L_ ___L+++- # ! - . +__ LJL++-- L-_i—i---L++_L3 __ L.—i----- L-L-L___ 1_L. __ L+___ L++ ___L_A +-++++.-9$-. -L—L-L-L-L-22- + - + + + + - ! + - ^ + j.^ - 9 - 9 9 . - ul-l-l-l- 9 - 2 9 . - j . -j ^ - 9 - I S . _____ L+— 9 9 _______ ^ — 9 9 _______ ++— $ 4 krok 14 krok 13 krok 12 ---- L-L-L___ L++-L +. ^ __ L 9 drzewo + . - J -- L+ -L -— L płonące drzewo + ++ -+ + + . __ i_JL _A ._AA.----- L+ __ L-L_L-L-L---L _jL ---- 1—Ł------Ł_X_L-----L.-L. + __ A.+ + -L__ il_iL_ -L___ L-L-L-L_i_i.--_L-L-L-L_9 ---L-L _L-L-LJ_i __L_A> ---- i—1—L + _. i ___ L+ _________ L+ — 1 S krok 15 krok 16 kroklT^^ wypalone drzewo A. pieniek Rysunek 7.9: W tym ciągu rysunków pokazano 17 kroków roz­ przestrzeniania się pożaru lasu symulowanego na sieci 10 x 10. Drzewa zostały początkowo umieszczone w węzłach sieci z praw­ dopodobieństwem 0,6 i podpalone po jednej (lewej) stronie sieci (krok 0). Po 17 krokach las jest martwy; przeżyło tylko pojedyn­ cze drzewo. A U ia L j a . ii c iii t / a i u i vy iw u u yv i i la o c tw i jest zajęty przez drzewo z ustalonym prawdopodobieństwem p < 1. Z płonącego drzewa ogień może się przerzucić tylko na drzewa bezpośrednio z nim sąsiadujące. W sieci drzewa znajdują się w czterech miejcach: po bokach, powyżej i poni­ żej płonącego drzewa. W żargonie fizycznym miejsca te na­ zywają się „najbliższymi sąsiadami” . W kwadracie o L 2 miejscach rozmieszczamy drzewa zgodnie z wybranym praw­ dopodobieństwem p i podpalamy. Przyjmijmy, że podpa­ liliśmy te drzewa, które zostały zasadzone wzdłuż lewego boku kwadratu. W tym prostym modelu możemy symu­ lować, jak ogień się rozszerza. Posuwamy się w dyskretnych krokach czasowych. W każdym kroku płonące drzewo pod­ pala te sąsiadujące drzewa, które się jeszcze nie palą. Po wypaleniu się drzewo pozostawia pieniek, który od tego mo­ mentu przestaje się liczyć. Rzecz jasna, tego typu model perkolacji nie pomoże wiele w zwalczaniu czy analizowaniu prawdziwych pożarów lasów. Jest on wszakże bardzo do­ brym przykładem poglądowym wprowadzającym nas w tę tematykę. Jak długo trwa taki pożar? Jeżeli drzewa są bardzo Lasy w punkcie rzadko rozrzucone — z powodu niewielkiego prawdopodo- perkolacji palą bieństwa p — pożar nie ma wiele materiału do spalenia się najdłużej i zamiera bardzo szybko, pozostawiając większość lasu nie­ tkniętą. Z drugiej strony, jeżeli las jest bardzo gęsty (p jest duże), to ma niewielką szansę przeżycia. Praktycznie cały las zostanie zniszczony. Co więcej, stanie się to raczej szybko; w nie więcej niż L krokach ogień przemknie przez cały kwadrat, nie zostawiając prawie niczego poza poczer­ niałymi pieńkami. Musi istnieć pewna pośrednia wartość prawdopodobieństwa, która prowadzi do maksymalnego cza­ su trwania pożaru lasu. Rysunek 7.10 przedstawia zależność trwania pożaru lasu od jego gęstości. Na diagramie widać ostry wierzchołek w pobliżu wartości prawdopodobieństwa 0,6 : jest to wartość progowa dla per­ kolacji. Wierzchołek ten jest istotnie bardzo stromy: jeżeli zwiększamy wielkość lasu, tj. liczbę L wierszy i kolumn, to amplituda7 wierzchołka wzrasta nieograniczenie. W języku matematycznym powiemy, że w momencie perkolacji istnieje osobliwość. Prawdopodobieństwo odpowiadające perkola7 Amplituda będzie wzrastać szybciej niż szerokość lasu L , ale nie tak szybko jak pole powierzchni L 2. 456 7. Losowość w konstrukcjach fraktalnych C zas trw an ia pożaru lasu / R ysunek 7.10: Średni czas trwania pożarów lasów, symulowa­ nych na sieciach kwadratowych o 20 rzędach (krzywa dolna), 100 rzędach (krzywa środkowa) i 500 rzędach (krzywa górna). Dla każdego z punktów wykresu symulację przeprowadzono 1000 razy i uśredniono. Im większą sieć wybrano, tym wyraźniejszy na wy­ kresie czasu trwania pożaru jest wierzchołek w pobliżu wartości progowej perkolacji (p « 0,60) cji bardzo starannie zmierzono eksperymentalnie, za jego wartość przyjęto pc & 0,5928. Należałoby teraz przeanalizować własności skali dla czasu trw ania pożaru. Jak długo ogień będzie się palił, jeżeli wiel­ kość sieci rośnie nieograniczenie? Są tu taj trzy zupełnie różne przypadki odpowiadające kolejno p < pc, p = pc i p > pc. Na progu perkolacji możemy dostrzec zależność zgodną z prawem potęgowym o niecałkowitym wykładniku — dowód istnienia struktury fraktalnej. Wielkością, którą dogłębnie przestudiowano, jest wiel­ M ak sym aln a w ielkość kość maksymalnego grona (skupiska). Jest ona ściśle zwią­ skupiska drzew zana z czasem trw ania pożaru. Oznaczmy przez M (L ) liczbę drzew w największym gronie dla sieci o średnicy L. Wiel­ kość grona będzie zmieniać się wraz z L, co uwzględniliśmy /.z. jT W A oićŁ u/żi: n c i i i i ć t i c i p u z c tiy w lu a u w y c u la a a cu ± o t przy zapisie. Wygodniejsza dla nas będzie znormalizowana miara maksymalnego grona. Jest ona dana przez prawdo­ podobieństwo tego, że węzeł sieci, wybrany losowo, należy do maksymalnego grona. Oznaczymy je przez P l (p )• Zależy ono od prawdopodobieństwa p oraz (w mniejszym stopniu) od rozmiaru sieci L. W celu oszacowania P l {p ) możemy uśrednić względną wielkość grona M ( L ) / L 2 względem wielu realizacji losowego lasu. Przy coraz większych sieciach za­ leżność od L zmniejsza się. Innymi słowy będziemy badać granicę Poo(p) = lim P l (p ). L—^oc Dla niewielkich wartości p prawdopodobieństwa P l ( p ) są za_ niedbywalne, a w granicy przy L — ►oo dążą do zera. Ale istnieje wartość krytyczna — właśnie wartość progowa pc — powyżej której Poo(p) szybko wzrasta. Innymi słowy, jeżeli p jest większe od wartości progowej, to maksymalne grono jest nieskończone i składa się z prawie wszystkich węzłów sieci, natomiast przy p < pc prawdopodobieństwo tego, że losowo wybrane miejsce należy do maksymalnego grona, jest zaniedbywalne. Dla wartości progowej prawdopodobieństwa wartość P rzejście fazowe Pl {p ) gwałtownie wzrasta. W rzeczywistości, dla p trochę dla w artości większego niż pc prawdopodobieństwo Poo{p) zmienia się8 progowej jak funkcja potęgowa z wykładnikiem (3 = ^ P o o ip ) OC (P - P c y3- W języku naszego symulowanego pożaru lasu możemy rów­ noważnie rozważać względną część wypalonych drzew po zakończeniu pożaru (zob. rysunek 7.11). Blisko wartości krytycznej pc następuje jej ostry wzrost, który staje się le­ piej widoczny dla sieci o większej liczbie wierszy. Efekt ten jest również nazywany przejściem fazowym, tak samo jak podobne zjawiska w fizyce. Na przykład przy ogrzewaniu wody przejście fazowe od cieczy do gazu zachodzi przy 100 stopniach Celsjusza.9 8 Symbol „oc” oznacza „proporcjonalny do”. 9 W warunkach normalnych. 458 7. Losowość w konstrukcjach fraktalnych P rzejście fazowe w m om en cie perkolacji R ysunek 7.11: Wykres pokazuje prawdopodobieństwo tego, że symulowany pożar osiągnie węzeł, w którym rośnie drzewo. Od­ powiada on danym z rysunku 7.10. Wielkości sieci (liczby rzędów) są równe 20, 100 i 500. Poniżej wartości progowej prawdopodo­ bieństwo tego, że konkretne drzewo zostanie spalone maleje do zera wzraz ze wzrostem wielkości sieci. Powyżej wartości progowej względna część drzew spalonych wzrasta asymptotycznie zgodnie z pewną funkcją potęgową Z obserwacji tej możemy wyciągnąć pewne wnioski co Fraktal zw any p rogow ym do wielkości maksymalnego grona: jeżeli p > pc, to dodat­ skupiskiem nie prawdopodobieństwo Poo(p) implikuje, że wielkość grona perkolacji zmienia sie jak L 2. Z drugiej strony dla p < p c możemy wy­ sunąć hipotezę, że prawdziwa jest pewna zależność potęgo­ wa, czyli że wielkość ta jest proporcjonalna do L D dla pew­ nego D < 2. Wskazywałoby to na fraktalną strukturę ma­ ksymalnego grona. Jednakże będzie to prawdziwe tylko dla jedynej, specjalnej wartości p, mianowicie dokładnie dla war­ tości progowej p = pc. Fraktalne grono dla wartości progowej jest często nazywane progowym skupiskiem perkolacji (incipient percolation cluster). Jego wymiar został zmierzony i .z . r c r u o i a c j a : n c t K i a w i p o ż a r y w l o s o w y c u l a s a c n *±oy i jest równy D & 1,89. Dla wartości poniżej p c wielkość maksymalnego grona zachowuje się tylko jak log(L). Analiza, jaką przeprowadziliśmy, nie stanowi całej praw- Inne asp ek ty dy o perkolacji. Istnieją na przykład inne sieci. Możemy roz- zjawiska patrywać sieci trójwymiarowe czy nawet cz ter owy miarowe, perkolacji Możemy także wprowadzić inne relacje sąsiedztwa. Istnieje też wiele wielkości, którymi warto się zainteresować, a róż­ nych od pc, D czy POG(p). Taką wielkością jest na przykład długość korelacji (correlation length) £. Jest ona zdefinio­ wana jako średnia odległość pomiędzy dwoma węzłami na­ leżącymi do tego samego grona. Kiedy p zbliża sie do p c od dołu, długość korelacji £ rośnie przekraczając wszystkie granice. Wzrost ten znów opisuje się funkcją potęgową £ OC \ p - p c\—V o wykładniku v równym 4/3 dla sieci dwuwymiarowych. Długość korelacji jest istotna przy symulacjach numerycz­ nych. Dopóki średnica sieci L jest mniejsza niż długość ko­ relacji, wszystkie grona wyglądają jak fraktale o tym samym wymiarze. Dopiero gdy średnica sieci jest dostatecznie duża (L £), jest możliwe stwierdzenie, że dla p < p c wszystkie grona są w istocie skończone i m ają wymiar zero. Należy zwrócić uwagę, że wartość progowa pc zależy od P ew n e stałe są wyboru konkretnego modelu, np. od typu sieci i od rela- uniw ersalne cji sąsiedztwa w jej węzłach. Jednakże wykładniki poja­ wiające się w prawach potęgowych, opisujących zachowanie wielkości, takich jak długość korelacji w pobliżu progu perko­ lacji, nie zależą od tego wyboru. A zatem wielkości charak­ teryzujące ten typ zachowania, takie jak wykładniki u i £, czy wymiar fraktalny grona, nazywane są uniwersalnymi Wartości wielu stałych, na przykład pc w 0,5928 i D & ■ 1,89, są jednak tylko przybliżeniami otrzymanymi w wy­ niku złożonych obliczeń komputerowych. Pasjonującym za­ gadnieniem jest wyprowadzenie metod dokładnego oblicza­ nia tych stałych. Nie możemy w tym miejscu wchodzić w szczegóły — wiele problemów, jeszcze otwartych, jest te­ matem aktywnych badań. Na zakończenie tego paragrafu powróćmy do sieci trój- W racam y kątnej, od której zaczynaliśmy, a dla której motywacja po- od sieci chodziła od trójkąta Sierpińskiego. W tym przypadku też kw adratow ych możemy zdefiniować analogiczne wartości: M (L), Pl(p) do trójkątnych 460 7. Losowość w konstrukcjach fraktalnych i Poo{p)* Pierwsze numeryczne oszacowania z roku 1960 wska­ zywały, że wartością progową perkolacji jest około 0,5. A po­ tem minęło około 20 lat zanim pierwszy nieścisły argument zastąpiono pełnym dowodem matematycznym faktu, że p c jest równe właśnie 0, 5. Co więcej zostało pokazane, że wy­ miar fraktalny progowego skupiska perkolacji równy jest 91 (porównaj rysunek 7.12). Jest to mniej więcej taka sama wartość jak ta, którą uzyskano numerycznie dla kwadra­ towej. A zatem postawiono hipotezę, że jest to poprawny wymiar progowego skupiska perkolacji dla wszystkich sieci dwuwymiarowych. W ym iar fraktalny progow ego skupiska perkolacji R ysunek 7.12: Wymiar fraktalny D progowego skupiska per­ kolacji w sieci trójkątnej został wyznaczony na podstawie wykresu logarytmicznego, przedstawiającego zależność wielkości grona M(L) od wielkości sieci L. Wartość progowa perkolacji wynosi pc = 0, 5. Nachylenie linii prostej interpolującej wyniki potwier­ dza wartość teoretyczną D = | | (rysunek zaadaptowany z książki D. Stauffera, Introduction to Percolation Theory. Taylor & Fran­ cis, 1985) i.z. rermiacja: iraKtaie i pożary w iosowycn iasacn ¿ŁOI R enorm alizacja w ęzłów w sieci trójkątnej Rysunek 7.13: Trzy sąsiadujące ze sobą komórki łączą się w jeden superwęzeł. Superwęzeł jest zajęty, jeżeli dwa albo trzy z małych węzłów są zajęte. Superwęzły tworzą nową sieć trójkątną, która jest obrócona o 90 stopni w stosunku do sieci wyjściowej. Pomniejszenie zamyka jeden cykl renormalizacji (zob. przykłady na rysunku 7.15) Zamiast analizować dowód rezultatu, że p c — 0,5, może­ Technika my postarać się o inny interesujący argument, który otwiera renorm alizacji drogę nowej metodzie analizowania fraktali, a o którym nie mówiliśmy do tej pory: renormalizację. Jednym z kluczy do zrozumienia fraktali jest ich samopodobieństwo, które poja­ wia się przy odpowiednim powiększaniu badanego obiektu. Czy istnieje podobny sposób rozumienia progowego fraktalnego skupiska per kolacji? Odpowiedź jest twierdząca i nie jest to wcale trudne do zbadania, przynajmniej dla sieci trójkątnej. Twierdzimy, że pomniejszona kopia skupiska wy­ gląda, ze statystycznego punktu widzenia, tak samo jak pier­ wowzór. Ale jak możemy porównywać obie kopie? W tym celu systematycznie zastępujemy węzły sieci odpowiadają­ cymi im superwęzłami. W sieci trójkątnej naturalne jest połączenie trzech sąsiadujących węzłów w jeden superwęzeł. Ten superwęzeł dziedziczy informację po swoich trzech po­ przednikach — mianowicie informację, czy jest zajęty, czy nie. Najnaturalniejszą zasadą dla tego procesu jest zasada większości; jeżeli co najmniej dwa z trzech pierwotnych węz­ łów są zajęte, to — i tylko w tym przypadku — superwęzeł jest zajęty. Rysunek 7.13 ilustruje tę procedurę, jak również geometryczne rozmieszczenie węzłów. Superwęzły z kolei tworzą nową sieć trójkątną, której wielkość możemy teraz pomniejszyć, co pozwoli na porównanie z siecią wyjściową. Koncentracja węzłów zajętych dla zrenormalizowanej sieci — nazwijmy ją pf — nie będzie w ogólnym przypadku taka 462 7. Losowość w konstrukcjach fraktalnych sama jak dla wyjściowej sieci. Na przykład gdy p jest nie­ wielkie, w sieci znajduje się tylko trochę izolowanych węzłów zajętych, których większość zniknie w procesie renormalizacji; a zatem pl < p. Na drugim końcu skali, kiedy p jest duże, będzie się tworzyć znacznie więcej superwęzłów, co spo­ woduje wypełnienie luk pozostawionych w pierwotnej sieci, czyli p! > p . Jedynie dla wartości progowej możemy spodzie­ wać się podobieństwa. W tedy zrenormalizowane supergrono powinno być takie samo jak poprzednio, innymi słowy10 p'=pW tym przypadku mamy szczęście: możemy obliczyć, dla jakiej wartości prawdopodobieństwa p zachodzi powyższa równość! Superwęzeł będzie zajęty, jeżeli trzy pierwotne węzły będą zajęte, albo gdy dokładnie jeden pierwotny węzeł nie będzie zajęty. Prawdopodobieństwo tego, że węzeł jest zajęty, wynosi p. A zatem pierwszy przypadek zachodzi z prawdopodobieństwem p3. W drugim z przypadków praw­ dopodobieństwem tego, że dany węzeł jest zajęty podczas gdy inne dwa nie są, jest p2(l —p). Są trzy takie możliwości. Sumując otrzymujemy p' = p3 + 3p2(l - p ) jako prawdopodobieństwo tego, że superwęzeł będzie zajęty. Jesteśmy już prawie u celu. Dla jakiego p mamy p f — p? W celu uzyskania odpowiedzi musimy rozwiązać równanie p = p3 + 3p2(l - p ) albo, równoważnie, p3 + Sp2(l - p) — p = 0. Łatwo sprawdzić, że p3 + 3p2(l - p ) - p = - 2 p{p - 0 ,5)(p - 1). A zatem istnieją trzy rozwiązania, p = 0, p — 0,5 oraz p — 1. Spośród tych trzech rozwiązań dwa nie są intere­ sujące, mianowicie p — 0 i p = 1. Las bez drzew (p = 0) 10 Widzimy tutaj godną uwagi interpretację samopodobieństwa, w języku punktu stałego procedury renormalizacyjnej. Te pomysły z teorii renormalizacji okazały się wyjątkowo owocne w teorii zjawisk krytycznych w fizyce statystycznej. {.z. jrerKoiacja: iramaie i pożary w iosowycn iasacn ¿400 renormalizuje się do lasu bez drzew, co nikogo nie dziwi. Podobnie las nasycony (p = 1) nie zmienia się podczas renormalizacji. Natomiast trzecie rozwiązanie, p = 0,5, jest tym, którego szukamy. Odpowiada ono nietrywialnej kon­ figuracji, tzn. lasowi o takiej strukturze, która po renormalizacji jest wciąż statystycznie taka sama. Superwęzły są zajęte z takim samym prawdopodobieństwem 0,5 jak węzły pierwotnej sieci. Na tym właśnie polega oczekiwane samopodobieństwo dla wartości progowej param etru p. Tak więc elementarny argument renormalizacyjny pozwolił łatwo wy­ kazać, że pc — 0,5, co pozostaje w zgodności z jego rzeczy­ wistą wartością. Dla wartości progowej renormalizacja niczego nie zmie­ nia, nawet gdy zostanie zastosowana wielokrotnie. Własność ta nie jest prawdziwa dla żadnej innej wartości prawdopodo­ bieństwa 0 < p < 1. Do zbadania efektu wielokrotnej renormalizacji trzeba rozważać coś na kształt sprzężenia zwrot­ nego, które wiąże prawdopodobieństwa tego, że węzeł jest zajęty przed renormalizacją i po niej. A zatem musimy rozważać iteracje wielomianu trzeciego stopnia p -> p 3 + 3p2(l - p ) . Możemy ułatwić sobie ich analizę przez wykonanie odpowie­ dniego diagramu (zob. rysunek 7.14). Od razu widać, co się P rzek ształcen ie renorm alizacji Rysunek 7.14: Graficzne iteracje przekształcenia renormalizacji sieci trójkątnej p — ► p3 + 3p2(l —p) 464 7. Losowość w konstrukcjach fraktalnych dzieje. Startując z początkowego prawdopodobieństwa po < < 0,5, iteracje zbiegają do 0, podczas gdy początkowe praw­ dopodobieństwo po > 0, 5 doprowadza do granicy równej 1. Jedynie dla wartości krytycznej pc = 0, 5 otrzymujemy dy­ namikę różną od dwóch powyższych, mianowicie punkt stały. R e n o rm a liz a c ja Przez zastosowanie metody renormalizacji możemy ja k o n a rz ę d z ie sprawdzić, czy dana sieć znajduje się poniżej czy powyżej b a d a w c z e wartości progowej. Przeprowadźmy procedurę renormaliza­ cji kilkakrotnie. Jeżeli obraz zbiega do konfiguracji pustej (bez zajętych węzłów), to param etr p odpowiada sieci znaj­ dującej się poniżej wartości progowej. Jeżeli po długim cza­ sie wszystkie węzły wydają się zajęte, to pierwotna sieć znaj­ duje się powyżej wartości progowej. Metodę tę zilustrowano na rysunku 7.15. Na pierwszy rzut oka nie jest wcale ja­ sne, która z trzech konfiguracji w najwyższym rzędzie jest poniżej, a która powyżej progu perkolacji. Renormalizacja ujawnia tę informację już po trzech krokach. Sieć trójkątna jest przypadkiem szczególnym. Zastoso­ wanie tej techniki do innych sieci pozwala oczekiwać jedynie przybliżeń wartości pc. Jest godne uwagi, w jaki sposób ten pomysł doprowadził do nowego podejścia do bardzo trud­ nego problemu wyznaczenia parametrów perkolacji. Zasadę renormalizacji wprowadził w roku 1966 fizyk Leo P. Kadanoff w związku ze zjawiskami krytycznymi w innej dziedzinie fi­ zyki teoretycznej. Renormalizacja doprowadziła w końcu do wyników ilościowych i pozwoliła wyjaśnić w sposób zadowa­ lający pewien mechanizm przejść fazowych. Mimo wszystko droga od pomysłu renormalizacji do jej konkretnej, ostatecz­ nej postaci była tak ulotna, że Kadanoff jej nie znalazł. Do­ piero Ken G. Wilson z Uniwersytetu Cornella w roku 1970 pokonał trudności i rozwinął metodę renormalizacji w taki sposób, że stała się ona narzędziem, które sprawdziło się w niezliczonych zastosowaniach. Około dziesięciu lat później za swoją pracę został uhonorowany nagrodą Nobla. To, co się dzieje dla wartości progowej perkolacji, czy też ogólniej dla punktu stałego renormalizacji, ma swój od­ powiednik w konstrukcjach fraktalnych. Przypomnijmy na przykład konstrukcję krzywej Kocha, gdzie przedmiot badań musi być zmniejszany w każdym kroku konstrukcji o czyn­ nik s = J. Jeżeli zmniejszalibyśmy o czynnik s < to w granicy otrzymalibyśmy tylko punkt. Z drugiej strony, zmniejszanie w każdym kroku o czynnik s > | doprowadza i .¿ 1 . i CI iYL/lCtCJ C L. 11 C LJ\ Id iC 1 ¡ J U / j C II \ W lU a U W J L .ll ICtDClCil Rysunek 7.15: Trzy kroki renormalizacji dla trzech danych kon­ figuracji (w rzędzie górnym). Od lewej do prawej prawdopodo­ bieństwa wynoszą p = 0, 35 < pc, p —0, 5 = ps i p = 0, 65 > pc 466 7. Losowość w konstrukcjach fraktalnych do nieograniczonego wzrostu. Jedynie jeżeli pomniejszamy w każdym kroku dokładnie trzykrotnie, to dostaniemy inte­ resujący obiekt graniczny, wykazujący własność samopodobieństwa. W większości przypadków poza konstrukcją krzy­ wej Kocha wcale nie jest jasne, w jakiej „prawidłowej” skali należy pomniejszać.11 Perkolacja jest szeroko stosowanym modelem i ma zasto­ sowanie do wielu zjawisk obserwowanych w naturze i w na­ ukach technicznych. Przykładem może być formowanie się cieniutkich warstewek złota na amorficznym podłożu, gdzie badany param etr odpowiada dostarczonej ilości złota.12 Dla wartości progowej perkolacji warstewka metalu umożliwi przepływ prądu. Z drugiej strony perkolacja ma zastoso­ wanie także w zjawiskach tego rozmiaru, co powstawanie galaktyk czy nawet gromad galaktyk. 7 .3 . L o so w e fr a k ta le w e k s p e r y m e n c ie la b o r a to r y jn y m Istnieje bardzo wiele struktur fraktalnych, które można ob­ serwować w naturze i eksperymentach laboratoryjnych.13 W tym paragrafie skupimy się na jednym wyjątkowo inte­ resującym przykładzie — agregacji. G rona p o w sta ją ce w w ynik u agregacji m ałych cząstek Badania nad zlepianiem małych cząsteczek w wielkie grona (makrocząstki), między innymi w chemii polimerów, inżynierii materiałowej i immunologii, trw ają od długiego czasu. O statnio im petu tym badaniom dodały pojęcia po­ chodzące z geometrii fraktalnej.14 W tym paragrafie przed­ stawimy tylko jeden eksperyment tego rodzaju, opisany przez Mitsugu M atsushitę, a dotyczący procesu osadzania elektrolitycznego, prowadzącego do powstania krzyształu dendrytycznego (o strukturze drzewopodobnej). Ma on tę 11 Zobacz F.M.Dekking, Recurrent Sets, Adv. Math. 44, 78-104 (1982). 12 Zobacz R. Voss, Fractals in Nature, w: The Science of Fractal Im ages, H.-O. Peitgen i D. Saupe (red.), Springer-Verlag, 1988, s. 3637. 13 E.Guyon i H.E.Stanley (red.), Fractal Form s, Elsevier/NorthHolland and Palais de la Decouverte, 1991. 14 Zobacz The Fractal Approach to Heterogeneous Chemistry: Surfa­ ces, Colloids, P olym ers, D. Avnir (red.), Wiley, Chichester 1989 i Ag­ gregation and G elation, F.Family i D.P.Landau (red.), North-Holland, Amsterdam 1984. 467 7.3. Losowe fraktale w eksperymencie laboratoryjnym zaletę, że aparatura do jego realizacji jest nieduża i łatwa do zbudowania, a niezbędne odczynniki chemiczne są łatwo dostępne i nie są niebezpieczne.15 Całe doświadczenie zaj­ muje tylko około 20 minut. Co więcej, może być przeprowa­ dzone bezpośrednio w sali lekcyjnej. Przebieg doświadczenia można sfilmować i odtworzyć przy użyciu sprzętu video, a na­ wet pokazać na żywo przy użyciu tradycyjnego rzutnika.16 Z a c y tu jm y opis dośw iadczenia bezpośrednio z artykułu M a ts u s h ity :17 „ O sadzanie elektro lityczn e od daw na było je d n y m z najlepiej znanych zjawisk w chem ii zjaw isk agregacji. D opiero o statn io przyciągnęło ono uwagę z zupełnie innego pun ktu w idzenia — z pun ktu w idzenia ge­ om etrii frak ta ln ej. W praktyce procesy osadzania elektrolityczneg o mogą być bardzo skom plikow ane, a pow stające osady m ogą mieć różnorodną i złożoną stru kturę. Jednakże, jeżeli proces osadzania m etalu jest kontrolow any przez pojedynczy proces, np. przez dyfuzję, to zazw yczaj osady w ykazu ją s tru k tu ry statystycznie proste, sam opodobne, tj. fraktaln e. W eksperym encie tym m etaliczn y cynk pod postacią znaną ja k o „listki m etalicznego cynku” rósł w sposób dw uw ym iarow y. P rocedura doświadczalna, której użyto do ich w yhodow ania była następująca: płytkę Pet r iego o średnicy około 20 cm i głębokości około 10 cm w ypełniono 2 m olam i w odnego roztworu Z n S 04 (o głębokości około 4 cm ), a następnie w arstw ą octanu n -b u ty lu [C H 3 C O O (C H 2) 3 C H 3]. M iędzy nimi w ytw orzyła się pow ierzchnia styku (rysunek 7 .1 6 ). C zu­ bek węglowej katody (w k ła d do ołów ka o średnicy około 0 ,5 m m ) starannie w ypolerow ano ta k , by był płaski w płaszczyźnie prostopadłej do swojej osi. K ato d ę następnie um ieszczono w centrum płytki Petriego w taki sposób, że jej płaski czubek zn alazł się d okładn ie na powierzchni styku (rysunek 7 .1 6 ). O sadzanie elektro lityczn e zostało zapoczątkow ane przez przyłożenie prądu stałego pom iędzy w ęglową katodę a cynkową anodę w kształcie pierścienia, o średnicy około 17 15 Rzecz jasna, po zakończeniu doświadczenia musimy z zachowa­ niem odpowiedniej ostrożności usunąć zużyte płyny (nie wylewać ich do zlewu). Ponadto pomieszczenie, w którym przeprowadzane będzie doświadczenie, musi mieć dobrą wentylację. 16 Światło rzutnika wpływa jednak na przebieg doświadczenia, które udaje się najlepiej w stałej temperaturze (tworzą się duże listki meta­ licznego cynku). Radzimy zatem wyłączyć rzutnik na większość czasu. Najlepiej jest filmować eksperyment kamerą video i obraz natychmiast pokazywać na monitorze. 17 M.Matsushita, Experimental Observation of Aggregations, w: The Fractal Approach to Heterogeneous Chemistry: Surfaces, Colloids, P o­ lymers, D. Avnir (red.), Wiley, Chichester 1989, Osadzanie elektrolityczne o stru k tu rze dendrytycznej 7. Losowość w konstrukcjach fraktalnych 468 Przygotow anie eksperym entu katoda węglowa \ anoda cynkowa octan n-butylu roztwór cynku R ysunek 7.16: W płytce Petriego roztwór siarczku cynku jest pokryty cienką warstwą octanu n-butylu R ysunek 7.17: Ten krzyształ dendrytyczny powstał już po 15 minutach trwania eksperymentu, przeprowadzonego przez Petera Platha z Uniwersytetu w Bremie. Rysunek przedstawia mniej więcej oryginalną wielkość. Kryształ dendrytyczny metalicznego cynku wygląda bardzo atrakcyjnie cm, szerokości około 2,5 cm i grubości około 3 mm, umieszczoną w płytce Petriego. Listek metalicznego cynku rósł dwuwymiarowo na powierzchni styku dwóch cieczy, poczynając od brzegu płaskiego wierzchołka katody, w kierunku zewnętrznej anody. Miał on strukturę t.ó. juosowe iraKiaie w eKsperymencie laoorazoryjnym wy nieskończenie się rozgałęziającą (rysunek 7 .1 7 ). Jeżeli w ierzchołek ka­ to d y byłby zaokrąglony albo zan u rzo n y w roztw orze Z n S C U , to osad w zrastałby w roztw orze tró jw y m ia ro w o . Z a zw y czaj listki cynku do­ rastają do wielkości około 10 cm ju ż po około 10 m inutach stałego napięcia wartości około 5 w o ltó w . T e m p e ra tu ra układu utrzym yw an a była na stałym poziom ie, a je j w artość była bliska te m p e ra tu ry poko­ jow ej. B adanie s tru k tu r frak ta ln yc h uzyskiwanych osadów i ich zm ian m orfologicznych ma w ielkie znaczenie praktyczne. P rzedstaw ion e tu ­ ta j eksperym enty osadzania elektrolityczneg o są oczyw iście w ażne dla pewnych procesów, takic h ja k m igracja m etalu na podłożu szklanym czy ceram icznym , lub dla osadzania się cynku na katodach w różnego rodzaju bateriach. W obu przypadkach w zrost osadów je s t głów nym czynnikiem ogran iczającym żyw otność części elektronicznych i b ate­ rii.” Modelowanie matematyczne osadzania elektrolitycznego listków metalicznego cynku oparte jest na podstawowym pojęciu: ruchu Browna. Ruch Browna związany jest z niere­ gularnym poruszaniem się małych cząstek ciała stałego za­ wieszonych w cieczy. Ruchy te mogą być zaobserwowane jedynie pod mikroskopem. Wkrótce po odkryciu takich ru­ chów cząsteczek pyłku sądzono, że ich przyczyna jest na­ tury biologicznej. Jednakże około roku 1826 botanik Ro­ bert Brown zdał sobie sprawę, że właściwe wytłumaczenie było natury fizycznej, a nie biologicznej. Efekt ten jest spo­ wodowany bardzo delikatnymi zderzeniami z otaczającymi cząstkami. W eksperymencie elektrolitycznym jony cynku wędrują losowo w roztworze, aż w końcu zostają złapane przez przyciągającą węglową katodę. Dołączanie jonów cyn­ ku zachodzi z największym prawdopodobieństwem tam, gdzie gęstość linii pola jest największa. Dzieje się to na po­ wierzchni styku pomiędzy roztworem a octanem, w szcze­ gólności na wierzchołkach dendrytu. Wyprowadzimy bar­ dzo prostą metodę symulacji komputerowej takiego ruchu Browna, która również pozwoli nam przeprowadzić symula­ cję powyższego eksperymentu. Symulacja agregacji cząstek limitowanej dyfuzją (DLA, zang. diffusion limited aggregation), oparta na ruchu Browna cząstek, nie jest tru d n a.18 Umieśćmy gdzieś, powiedzmy w początku dwuwymiarowego układu współrzędnych, jeden 18 Model tutaj przedstawiany pochodzi z prac T. A. W ittena i L. M. Sandera, Phys. Rev. Lett. 47, 1400-1403 (1981) i Phys. Rev. B 2 7 , 5686-5697 (1983). S y m u la c ja a g re g a c ji lim ito w a n ej d y fu z ją (D L A ) 470 7. Losowość w konstrukcjach fraktalnych zarodek krystalizacji dendrytu (jedną cząstkę). Cząstka ta nie może się poruszać. Następnie ustalamy, że proces będzie przebiegał w obszarze kołowym, otaczającym ten zarodek. Promień tego obszaru może być równy 100 lub 500 średnicom cząstek. Na brzegu obszaru wypuszczamy swobodną cząstkę i pozwalamy jej poruszać się w sposób losowy. Podczas jej ruchu mogą zdarzyć się dwie rzeczy. Albo cząstka opuści nasz obszar — w tym przypadku zapominamy o niej i wy­ puszczamy nową cząstkę w losowym punkcie brzegowym ob­ szaru — albo cząstka zostaje w obszarze tak długo, aż zbliży się do zarodka. W tym drugim przypadku przyczepi się do niego i także stanie się zarodkiem (co zachodzi z pewnym prawdopodobieństwem). Postępowanie to jest następnie po­ wtarzane, i daje w efekcie rosnące grono połączonych cząs­ tek, które bardzo przypomina kryształy dendrytyczne pow­ stające w wyniku DLA przy osadzaniu elektrolitycznym, (zob. rysunek 7.18). W yn ik i sym ulacji R ysunek 7.18: Wynik symulacji numerycznej DLA, opartej na ruchu Browna pojedynczej cząstki Obliczenia praktyczne są zazwyczaj oparte na kwadrato­ wej sieci złożonej z pikseli, (zob. rysunek 7.19). Swobodna cząstka może w jednym kroku przejść do jednego z czterech sąsiednich pikseli. Dla dużego grona proces ten może trwać bardzo długo i musimy stosować różne tricki, żeby go przy­ spieszyć. Na przykład, możemy pozwolić cząstce przemie­ szczać się o więcej niż jeden piksel w każdym kroku. Jest to 471 7.3. Losowe fraktale w eksperymencie laboratoryjnym S y m u la c ja e k s p e ry m e n tu o s a d z a n ia elek­ tro lity c z n e g o Rysunek 7.19: Symulowany dwuwymiarowy ruch Browna jest używany jako model trajektorii jonów cynku w cieczy. Cząstki przemieszczają się od piksela do piksela, aż w końcu „przycze­ piają się” do istniejącego dendrytu możliwe, jeżeli nasza cząstka znajduje się względnie daleko od grona. Mówiąc precyzyjniej, odległość, na ja k ą cząstka może skoczyć, jest ograniczona przez jej odległość od po­ wstającego grona. Na podstaw ie zapisów przebiegu zarówno prawdziwego P ro b le m y eksperym entu elektrolitycznego jak i sym ulacji kom putero­ wej, możemy zadać wiele interesujących pytań. 1. Jaki jest w ym iar fraktalny kryształu dendrytycznego? 2. Rzecz jasn a gęstość cząsteczek m aleje wraz ze w zrostem odległości od centrum d en drytu. Czy istnieje m atem a­ tyczna zależność (w postaci funkcji potęgowej) pom iędzy gęstością a odległością? 3. Czy napięcie pom iędzy pierścieniową an o d ą a węglową ka­ to d ą w doświadczeniu wpływa na w ym iar fraktalny kry­ ształu? Jeżeli tak , to jak m ożna uwzględnić to w dośw iad­ czeniu? 4. W jaki sposób natężenie przepływ ającego prąd u jest zwią­ zane z wielkością pow stającego dendrytu? Znaleziono odpowiedzi na niektóre z powyższych pytań, ale badanie agregacji wciąż nie doprowadziło do zadowa­ lających wyników .19 Na przykład w ym iar fraktalny wie19 Zobacz artykuł przeglądowy H. Eugene’a Stanleya i P aula Meakina, M ultifractal phenom ena in physics and chemistry, Naturę 335, 405-409 (1988). 472 7. Losowość w konstrukcjach fraktalnych lokrotnie mierzono w eksperymentach i symulacjach; oba podejścia dały tę samą wartość 1, 7. Kiedy struktury dendrytyczne w zrastają w trzech wymiarach zamiast w dwóch, wy­ miar fraktalny wynosi około 2,4—2, 5. Badano także zależność między rozmiarem a napięciem prądu (zob. rysunek 7.20). Zależność w ym iaru fraktalnego od p rzyłożon ego napięcia wym iar fraktalny D 1,9 • * . 1,8 • •* •* v . •** ••• I 1,7 ............* ..... • 1,6 - * I 1,5 - ■ ■ 2 4 ■ ■ 6 T 8 l 10 , 12 14 przyłożone napięcie (w woltach) R ysunek 7.20: Wykres pokazuje wyniki eksperymentalne wią­ żące wymiar fraktalny DLA z przyłożonym napięciem. Wydaje się, że dla niskich napięć wymiar jest stały Następnie istnieje napięcie krytyczne, powyżej którego wymiar gwałtownie rośnie M atematyczny model agregacji limitowanej dyfuzją moż­ na rozszerzać i udoskonalać. W arte badania jest na przykład prawdopodobieństwo zlepiania, wspomniane jakiś czas temu, które określa, czy jon znajdujący się blisko dendrytu przy­ lepia się do niego, czy też wędruje dalej. Pozwala to na zmiany w strukturach powstających w małej skali. Im mniej­ sze prawdopodobieństwo przyklejenia się, tym dalej w zagłę­ bienia dendrytu mogą wnikać cząstki, pogrubiając dendryt i tworząc strukturę podobną do mchu.20 Badano pewne interesujące rozszerzenia prostego mo­ R ozszerzen ia m o d elu D L A delu dla DLA. Zamiast śledzić ruch pojedynczej cząstki, 20 Jednakże dla większych skal wielkości struktura dendrytyczna otrzymana przy małym prawdopodobieństwie zlepiania wcale nie wy­ gląda na „grubą”. Wymiar fraktalny, mierzony w dużej skali, nie zależy od prawdopodobieństwa zlepiania. 7.4. Symulacja ruchu Browna możemy równocześnie rozważać wiele cząstek.21 Ponadto, równoważnie, możemy pozwolić drzewiastemu gronu poru­ szać się i wyłapywać przy tym cząstki, które znajdą się w są­ siedztwie. Istnieje inny model DLA, pozornie nie związany z powyższym modelem. Zamiast śledzić cząstki rozwiązu­ jemy równanie, które odzwierciedla jednoczesny ruch nies­ kończenie wielu cząstek. A zatem zamiast pojedynczych cząstek rozważamy pewną ciągłą funkcję gęstości. Równanie rządzące potencjałem elektrostatycznym jest równaniem róż­ niczkowym cząstkowym, znanym jako równanie Laplace’a. Agregacja zachodzi wzdłuż brzegu dendrytu, gdzie gradient potencjału jest największy. Czasami więc fraktale, takie jak skupiska DLA, są nazywane fraktalami Laplace’a. W mo­ delu tym łatwo jest wprowadzić param etr kontrolujący jego wymiar. 22 Zjawiska podobne do omawianej tu taj agregacji poja­ wiają się we wszystkich skalach wielkości: w rozkładzie ga­ laktyk jak i w mikrokosmosie. Obok agregacji limitowanej dyfuzją i per kolacji, o których już mówiliśmy, częściowa li­ sta zjawisk z tym związanych musi zawierać molekularne powierzchnie fraktalne, lepki przepływ w ośrodkach porowa­ tych oraz chmury lub obszary opadu deszczu.23 7.4. S y m u la cja ru ch u B r o w n a Ruch Browna jest nie tylko ważną częścią modelu agrega­ cji limitowanej dyfuzją, ale może służyć także za podstawę dla wielu innych modeli naturalnych kształtów fraktalnych, takich jak na przykład krajobraz. Aby badać te modele, musimy lepiej zrozumieć ruch Browna i jego uogólnienia. W tym i następnym paragrafie przyjrzymy się dokładniej ruchowi Browna i metodom jego symulacji. Zanim sformułujemy rezultaty i ich uogólnienia, uproś­ cimy model i będziemy rozważać ruch Browna dla jednej 21 Zobacz R.F, Voss i M. Tomkiewicz, Computer Simulation of Den­ dritic Electrodeposition, J. Electrochem. Soc. 132, 2, 371-375 (1985). 22 Zobacz L.Pietronero, C. Evertz, A.B. Siebesma, Fractal and multufractal structures in kinetic phenomena, w: Stochastic Processes in Physics and Engineering, S.Albeverio, P.Blanchard, M. Hazewinkel, L.Streit (red.), D. Reidel Publ. Co., 1988, s. 253-278, 23 Te i inne zjawiska są omawiane z fizycznego punktu widzenia w książce Fractals napisanej przez J. Federa, Plenum Press, New York 1988. 473 474 7. Losowość w konstrukcjach fraktalnych tylko zmiennej przestrzennej. Tym samym ruch cząstek zo­ staje ograniczony do prostej. Maleńkie oddziaływania mo­ lekularne wpływają na cząstkę jedynie z prawa albo z lewa, powodując jednostkowe przemieszczenie w jednym z tych kierunków. Czy możemy w jakikolwiek sposób przewidzieć, jakie będzie całkowite przemieszczenie po pewnej liczbie kro­ ków, powiedzmy, po n krokach? Jeżeli tak, to będziemy mogli również symulować ruch Browna dla dłuższych prze­ działów czasu, obniżając tym samym koszt symulacji. Rozwiążmy ten problem, nie jest on trudny. Przede Średnie p rzem ieszczen ie wszystkim musimy zdać sobie sprawę, że nie ma sensu pytać kw adratow e o całkowite oczekiwane przemieszczenie, tzn. przemieszcze­ nie cząstek uśrednione względem wielu prób. Byłoby ono równe zeru, ponieważ wszystkie jednostkowe przemieszcze­ nia poszczególnych cząstek są równe +1 lub —1, każde z praw­ dopodobieństwem równym 0,5. A zatem, średnio biorąc, całkowite przemieszczenie musi być równe zeru. Zamiast nich rozważamy kwadraty przemieszczeń, liczby nieujemne. Średnia z kwadratów przemieszczeń, zwana średnim prze­ mieszczeniem kwadratowym, mówi nam, jak bardzo cząstki rozprzestrzeniły się (w danej liczbie kroków). Wynikiem tego obliczenia jest n, liczba kroków. A zatem im więcej kroków, tym dalej rozprzestrzenią się cząstki. Co więcej, uj­ rzeliśmy tę relację ilościowo — średnio biorąc, kwadrat prze­ mieszczenia jest równy liczbie kroków. W yznaczenie średniego przemieszczenia kwadratowego A b y obliczyć średnie przem ieszczenie kw adratow e, przez di, ¿2 , ..., o zn ac zm y n przem ieszczeń jed n o stko w ych . R o zw ażam y wielkość n dn n (di + ¿2 + *■*+ dn)2 = 'y ^ dkdi k = l 1=1 (je s t to k w a d ra t sum y n przem ieszczeń je d n o s tk o w y c h ). Ł atw o jest przeanalizow ać poszczególne składniki sum y po prawej stronie, dkdi. K ażd e z di rów ny je s t + 1 alb o —1 z ta k im sam ym praw dopodo­ bieństw em 0 ,5 , a co w ięcej, czynniki te są niezależne, gdy k ^ L W y n ik a stąd, że przy obliczan iu iloczynu m ożliw e są cztery przy­ padki, w szystkie jed n ak o w o praw dopodobne, ja k zostało to wypisane w ta b e li. dk di dkdi 1 1 -1 -1 1 -1 1 -1 1 -1 -1 1 Prawdopodobieństwo 0,25 0,25 0,25 0,25 7.4. Symulacja ruchu Browna A zatem iloczyny są ta k że równe + 1 lub — 1 z ty m sam ym praw ­ dopodobieństw em 0 ,5 , a w artość oczekiw ana takie g o iloczynu dla k / l je s t zero. O czyw iście w artość iloczynów dkdk je s t zaw sze równa + 1 , dla w szystkich k = 1 , . . . , n . W y n ik je s t jasny: w artość oczekiw ana kw adratu całkow itego przem ieszczenia je s t równa liczbie kroków, n. Usuńmy teraz założenie, że małe przemieszczenia m ają długość pełnej jednostki. Jeżeli rozważamy krótszą jedno­ stkę długości, to musimy zmodyfikować wynik: oczekiwane kwadratowe przemieszczenie jest proporcjonalne do różnicy czasu t. Stała proporcjonalności zależy od liczby kroków w odcinku czasu t i od długości pojedynczego przemieszcze­ nia. Jest to fundamentalna własność ruchu Browna, praw­ dziwa też w przestrzeniach o wymiarze dwa lub więcej. Dotychczas dowiedzieliśmy się, że całkowite przemieszcze­ nie w danym czasie t jest średnio równe zeru i że wartość oczekiwana kwadratu przemieszczenia jest proporcjonalna do t. Co więcej można powiedzieć o rozkładzie przemieszczeń po czasie t? Innymi słowy, jeżeli rozważamy ruch Browna (albo ruch Browna symulowany przez komputer) w równych przedziałach czasowych długości i, to jaki jest rozkład war­ tości pomiarów przemieszczeń? W tabeli 7.1 wypisaliśmy wyniki takiego eksperymentu, którego wykres widzimy na rysunku 7.21. Kształt tej krzywej jest większości z nas dobrze znany. Jest to wykres odpowiadający rozkładowi, który jest zwykle nazywany24 rozkładem Gaussa albo rozkładem krzywej dzwo­ nowej. Przykładem mogą być odchylenia we wzroście ludzi z dużej grupy albo odchylenia w wielu pomiarach długości pewnego (niefraktalnego) obiektu. Czasami rozkład Gaussa jest używany jako model dla próbki statystycznie popraw­ nej — co nie zawsze ma pożadane konsekwencje praktyczne. Na przykład stopnie ze sprawdzianów są często wystawiane tak, by ich fluktuacje względem średniej pasowały do zada­ nej krzywej dzwonowej. W przypadku krańcowym może to spowodować, że w każdej klasie — niezależnie od tego, jak zdolni są uczniowie — kilku uczniów zawsze wypadnie źle, ponieważ tego wymaga rozkład Gaussa. 24 W podręcznikach rachunku prawdopodobieństwa rozkład ten jest zwykle nazywany rozkładem norm alnym — przyp. tłum. 475 7. Losowość w konstrukcjach fraktalnych 476 Jed n ow ym iarow y ruch B row n a D 0 2 4 6 8 10 12 14 16 18 20 22 24 ilość 828 815 718 648 547 478 383 335 233 171 116 66 42 D ilość -2 -4 -6 -8 -10 -12 -14 -16 -18 -20 -22 -24 767 746 648 547 453 421 315 234 185 94 60 44 D 26 28 30 32 34 36 38 40 42 44 46 48 50 ilość 21 17 6 1 2 0 0 2 1 0 0 0 0 D -26 -28 -30 -32 -34 -36 -38 -40 -42 -44 -46 -48 -50 ilość 28 9 10 7 1 0 0 1 0 0 0 0 0 Tabela 7.1: 10000 przyrostów symulowanego ruchu Browna w regularnych odstępach czasu. Każdy przyrost jest rozumiany jako suma stu niezależnych przemieszczeń jednostkowych. Są one następnie sumowane, a ich suma jest zapisywana jako całkowite przemieszczenie D w czasie ¿, który odpowiada n = 100 krokom. Należy zauważyć, że sumy te muszą być liczbami parzystymi, gdyż D = a —6, gdzie a-l-6 = 100, a i b zaś oznaczają, ile razy nastąpiło dodatnie bądź ujemne przemieszczenie jednostkowe. A zatem b = / 100 —a, natomiast D — 2a —100 i jest liczbą parzystą. Średnie kwadratowe przemieszczenie równe jest 99,82 i jest bardzo bliskie teoretycznie oczekiwanej liczby 100 W racając do wyników powyższego eksperymentu, doty­ czącego ruchu Browna w jednym wymiarze, zwracamy uwagę iż to nie przypadek ani nie dopasowywanie „na siłę” wy­ ników przez jakiegoś miłośnika statystyki sprawiły, że wyniki tak dobrze zgadzają się z rozkładem gaussowskim. W isto­ cie rozkład Gaussa pojawia się we wszystkich przypadkach, kiedy niezależne i podobne (tzn. jednakowo rozłożone) zda­ rzenia losowe są dodawane albo uśredniane. Ten fakt jest treścią ważnego twierdzenia matematycznego zwanego cen­ tralnym twierdzeniem g ra n ic zn y m i Tak więc jednowymia­ rowy ruch Browna jest teraz kompletnie scharakteryzowany. Przemieszczenie po czasie t jest tzw. zmienną losową o roz­ kładzie Gaussa, który jest wyznaczony przez średnią równą zeru i średnie kwadratowe przemieszczenie proporcjonalne 25 Można je znaleźć w dowolnym podręczniku rachunku prawdopo­ dobieństwa albo statystyki. 7.4. Symulacja ruchu tirowna 4YY S tatystyk a sym ulacji jed n o ­ w ym iarow ego ruchu B row na Rysunek 7.21: Dane z tabeli 7.1 obrazujące 100 000 rzutów sześciu kostek zebrano na wykresie. Rozkład jest w przybliżeniu gaussowski do przyrostu czasu t . Próbki z takiego rozkładu gaussow­ skiego, gdy średnia kwadratowa jest znormalizowana do jed­ ności, nazywają się (znormalizowanymi) gaussowskimi licz­ bami losowymi. Z powyższych obserwacji jasno wynika, że takie gaussow­ G aussow skie skie liczby losowe mogą być punktem wyjścia dla symulacji liczby losow e ruchu Browna. Liczby te są równoważne przemieszczeniom, odpowiadającym pewnemu przedziałowi czasu. Jeżeli po­ trzebne nam są przemieszczenia w innym przedziale czasu, np. dwukrotnie dłuższym, to po prostu pomnożymy gaus­ sowskie liczby losowe przez odpowiedni czynnik — w tym przypadku y/2. Istnieją dokładne metody26 sprawnego wy­ znaczania gaussowskich liczb losowych. Dla naszych celów wystarczy rozważać jedynie prostą metodę, opartą na wspo­ mnianym wyżej centralnym twierdzeniu granicznym. Możemy nawet skonstruować gaussowską liczbę losową, używając rzutów kostką. Początkowo stworzy to liczby lo­ sowe z listy 1,2,3,4, 5,6, gdzie każdej z nich przypisujemy jednakowe prawdopodobieństwo równe Rozkład ten jest zwany rozkładem jednostajnym zmiennej losowej. Na więk­ szości komputerów są dostępne takie liczby losowe z o wiele większego zakresu, zwykle 1, 2 ,..., A, gdzie A = 215 —1 albo 26 Na przykład metoda Boxa-Mullera, zob. W. H. Press, B. P. Flan­ nery, S. A, Teukolski, W. T. Vetterling, Numerical Recipes, Cambridge University Press, 1986, s.202. 7. Losowość w konstrukcjach fraktalnych 478 100 000 rzu tów sześciom a kostkam i suma oczek 1 2 3 4 5 6 7 8 9 ilość 0 0 0 0 0 4 15 48 110 suma oczek 10 11 12 13 14 15 16 17 18 ilość 249 538 1033 1573 2541 3574 4836 6051 7527 suma oczek 19 20 21 22 23 24 25 26 27 ilość 8503 8961 9268 9127 8238 7314 5985 4894 3621 suma oczek 28 29 30 31 32 33 34 35 36 ilość 2449 1608 960 549 255 110 39 17 3 Tabela 7.2: Rzucono 100 000 razy sześcioma kostkami. Oczka z sześciu kostek dodano, a ich statystykę pokazano w tabeli nawet A = 231 —1. Jeżeli podzielimy wynik przez A, to otrzy­ mamy liczbę z przedziału od 0 do 1. Prawdopodobieństwo, że wynik takiej procedury leży na przykład między 0,25 a 0, 75, jest równe 50% albo 0,50.27 Ogólniej, prawdopodobieństwo tego, że liczba losowa leży między a i b jest równe b — a, gdzie a i b są wybrane tak, żeby 0 < a < b < 1. Aby symulować gaussowskie zmienne losowe, weźmy po prostu dowolną liczbę kostek — powiedzmy 6 — i rzućmy nimi. Wynik zdefiniujemy jako sumę wyników na wszystkich ko­ stkach, która jest liczbą między 6 a 36. Powtórzmy te rzuty wiele razy i zapiszmy, ile razy otrzymaliśmy każdą z liczb spomiędzy 6 a 36 (zob. tabela 7.2 i rysunek 7.22). Rozkład ma charakterystyczny kształt dzwonu. W isto­ cie, z centralnego twierdzenia wynika, że powyższy ekspe­ ryment jest przybliżeniem dla rozkładu Gaussa. Co więcej jakość tego przybliżenia poprawia się wraz z liczbą kostek, którymi rzucamy. Dla celów praktycznych warto znormalizować wyniki za­ nim użyjemy ich do konstrukcji fraktalnej. Jednym z po­ wodów takiego postępowania jest to, że wyniki nie dają rozkładu gaussowskiego scentrowanego wokół zera28. Na przykład są one zawsze dodatnie, a wartość oczekiwana, będąca średnią ze wszystkich wyników, zależy od liczby uży2' W wielu programach dzielenie to wykonywane jest automatycz­ nie i liczby losowe są od razu jednostajnie rozłożone na odcinku jednostkowym. 28 To znaczy o średniej zero — przyp. thim. /.4. s y m u la c ja ru cn u n r o w n a P rzyb liżon y rozkład G aussa otrzym an y przez rzucanie kostkam i 10000 9000 8000 7000 6000 5000 4000 3000 2000 - 1000 - 0 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 Rysunek 7.22: P rzedstaw ienie danych z tab eli 7.2 obrazujących wielokrotny rzut sześciom a kostkam i. R ozkład jest w przybliżeniu gaussowski wanych kostek. Możemy łatwo otrzymać przepis na nor­ malizację używając elementarnego rachunku prawdopodo­ bieństwa, ale w tym miejscu tylko sformułujemy końcowe wzory. Zdefiniujmy A ograniczenie górne naszego generatora liczb loso­ wych, który może dać liczby 0 ,1 ,..., A (jak wyżej) n liczba używanych kostek Y j,..., Yn wynik jednego rzutu n kostek. Przybliżająca gaussowska zmienna losowa dana jest przez D = \ J - ( Y i + Y2 + --- + Yn) - y / t o i , A V Ti kiedy A i n są duże. Jest ona znormalizowana w taki sposób, żeby wartość oczekiwana wynosiła zero, a wariancja29 była bliska jedności. Wzór ten można bardzo łatwo wprowadzić do komputera. Dla naszych celów wystarcza mała liczba n, np. n = 3. W tym przypadku wzór upraszcza się do D = j 4iy (Y1 + Y2 + Y3) - 3. 29 Wariancja jest to średnie kwadratowe odchylenie od wartości ocze­ kiwanej. W naszym przypadku wariancja równa jedności powoduje, że około 68,27% wszystkich wyników D co do wielkości jest mniej­ szych niż 1, 94,45% zaś jest mniejszych niż 2, a 99, 73% jest mniejszych niż 3. 7. Losowość w konstrukcjach fraktalnych 480 W szczególnym przypadku sześciu kostek bierzemy pod uwa­ gę, że wyniki rzutu kostką zmieniają się od 1 (nie od 0) do stosunkowo niewielkiego maksimum, 6. Używając dokładnej wartości wariancji, otrzymujemy D = J Ę ( Y 1 + .-. + Y6 - 2 l ) . Następująca tabela przedstawia konwersję sumy oczek na kostkach (od 6 do 36) na znormalizowane przybliżone gaus­ sowskie liczby losowe. N orm alizacja rzu tu sześciu kostek suma oczek 1 2 3 4 5 6 7 8 9 -3,59 -3,35 -3,11 -2,87 suma oczek 10 11 12 13 14 15 16 17 18 -2,63 -2,39 -2,15 -1,91 -1,67 -1,43 -1,20 -0,96 -0,72 suma suma oczek oczek 19 -0,48 28 -0,24 20 29 21 0,00 30 0,24 31 22 0,48 32 23 24 0,72 33 34 25 0,96 1,20 35 26 1,43 36 27 1,67 1,91 2,15 2,39 2,63 2,87 3,11 3,35 3,59 Tabela 7.3: Tabela przedstawia konwersję sumy oczek na przy­ bliżoną znormalizowaną gaussowską liczbę losową N a stęp n y krok: sum ow anie n iezależnych gaussow skich liczb losow ych Powyższych gaussowskich liczb losowych można użyć do symulowania ruchu Browna w jednym wymiarze. Posuwaj­ my się w kierunku czasu t w równych małych odstępach ót. W każdym przedziale czasowym o długości 6t gromadzimy wpływ wszystkich molekuł, które wpadły na naszą cząstkę i spowodowały pewne całkowite jej przemieszczenie, pra­ widłowo modelowane jako gaussowska liczba losowa. Usta­ lamy, że w chwili początkowej cząstka znajduje się w miej­ scu 0, co zapisujemy w skrócie jako X(0) = 0. Po kroku czasowym Ót patrzymy na naszą (znormalizowaną) losową liczbę gaussowską, wynik nazywamy D\, a położenie cząstki zmieniamy na X(ót) = D\. Po dwóch krokach otrzymujemy inne przemieszczenie — liczbę D 2 otrzymaną przez ponowne odwołanie się do naszego generatora liczb losowych. Nowe położenie jest sumą X(2St) = X{ót) + D 2 = D 1 + D 2. 481 7.4. Symulacja ruchu Browna Postępując dalej analogicznie, sumujemy nasze gaussowskie liczby losowe według wzoru X(kSt) — Di + D 2 + *• • + Djęj k = 1,2,3 ,... Wynik przedstawiono na rysunku 7.23. R uch B row na jako su m a gaussow skich zm iennych losow ych Rysunek 7.23: Zsumowanie niezależnych gaussowskich zmien­ nych losowych (górna krzywa) daje pewien, nie najlepszy, model ruchu Browna w jednym wymiarze (dolna krzywa). Położenie cząstki X(t) zaznaczono na osi pionowej, czas zaś zmienia się w kierunku poziomym. Cząstka porusza się w górę i w dół w sposób nieskorelowany, tzn. jeżeli nabiera ona wysokości w pew­ nym momencie, to szansa kontynuacji i szansa zmiany tej tenden­ cji są identyczne (50 : 50) Jeżeli chcemy znać jedynie przybliżenia co drugi krok, X(26t), X( 46t ) , ..., możemy skrócić obliczenia. Wiemy bo­ wiem, że średnie kwadratowe przemieszczenie dla podwo­ jonych różnic czasowych jest również dwukrotnie większe. A zatem wystarczy pomnożyć gaussowskie liczby losowe przez a/2- Oznacza to, że X(2k6t) ~ y/2(D\ + D 2 + • • *+ 7)^), k = 1, 2, 3,... 482 7. Losowość w konstrukcjach fraktalnych P rzem ieszczan ie środka odcinka Rysunek 7.24: Pierwsze dwa kroki metody przemieszczania środka odcinka, omówionej w tekście M eto d a rów now ażna: losow e p rzem ieszczan ie środka odcinka Innym — bezpośrednim i najbardziej popularnym — sposobem tworzenia ruchu Browna jest tzw. metoda loso­ wego przemieszczania środka odcinka (random midpoint displacement method).30 Ma ona liczne zalety w porównaniu z m etodą sumowania białego szumu, z których najważniejszą jest możliwość jej uogólnienia na przypadek wielowymia­ rowy, używany na przykład przy modelowaniu funkcji wy­ sokości (pól wysokości) krajobrazów.31 Jeżeli mamy wyznaczyć proces X( t ) dla czasów t po­ między 0 a 1, zaczynamy od przyjęcia X (0) = 0, a X ( l ) jako gaussowskiej liczby losowej. Następnie konstruujemy X ( ^ ) jako średnią z X( 0) i X (l), czyli ^(X (0) + X (l)) plus poprawka D\. Czytelnik może zobaczyć wyniki tego i na­ stępnego kroku na rysunku 7.24. Ta poprawka D\ jest gaus­ sowską liczbą losową, którą należy pomnożyć przez współ­ czynnik skali Następnie redukujemy współczynnik skali o \/2 i otrzy­ mujemy po czym dzielimy odcinki od 0 do ^ i od ^ do 1. Przyjmujemy, że X ( |) jest równy wartości średniej ^(X (0) + X (^)) plus poprawka £>2 ) która jest gaussowską liczbą losową pomnożoną przez bieżący współczynnik skali ^g. Analogiczny wzór zachodzi dla X ( |) , tj. 30 Metoda ta została wprowadzona w artykule A. Fourniera, D. Fussela i L. Carpentera, Computer rendering of stochastic models, Comm un. AC M , 25, 371-384 (1982) . 31 Inną zaletą jest to, że możemy przepisać wartości A (t) dla różnych czasów t , a następnie obliczyć wartości pośrednie za pomocą losowego przemieszczania środka odcinka. W tym rozumieniu metodę tę można interpretować jako interpolację fraktalną. YA. symulacja ruchu tsrowna I(!) = £ (il± M + i 2 , gdzie D2 jest losową poprawką obliczoną tak samo jak po­ przednio. W trzecim kroku postępujemy w taki sam sposób: zmniej­ szamy współczynnik skali y/2 razy i otrzymujemy Po­ tem kładziemy X ( l ) = l ( X ( 0 ) + X ( l ) ) + D 3, X d ) = U ^ ( l ) + X ( l ) ) + D 3, X ( f ) = I ( X ( i ) + X ( f ) ) + A j, * ( I ) = § (* (!) + * (!))+ £ > 3 . W każdym ze wzorów D% jest obliczana jako gaussowska zmienna losowa (w każdym wzorze jest ona inna), pomnożo­ na przez bieżący współczynnik skali ^ = . W kolejnym kroku obliczamy X( t ) dla i — ••• >i i ’ ożywając współczyn­ nika skali pomniejszonego znów y/2 razy. Następnie powta­ rzamy powyższe postępowanie, co zilustrowano na rysunku 7.25. Jeżeli ruch Brow na ma zostać w yznaczony dla czasów t pom iędzy 0 a 1, najpierw ustalam y J f ( 0 ) = 0 i w y b ieram y X ( l ) ja k o gaus­ sowską liczbę losową o średniej 0 i w ariancji (średniej kw ad rato w e j) równej D 2 (X( 1 )) = a 2 . W te d y rów nież D 2 ( X ( 1 ) — X ( 0 ) ) = a 2 1 oczekujem y, że D 2 ( X ( t 2 ) - X ( t 1)) = \t2 - t 1 \a2 (7 .1 ) dla 0 < i i < t 2 < 1. K ład ziem y X ( | ) równe średniej z X ( 0 ) i A ( l ) plus pewna gaussowska losowa popraw ka D i o średniej 0 i w ariancji A 2V W te d y X ( i ) = i ( X ( l ) - X ( 0 ) ) + D 1, zatem X(~) —X ( 0 ) ma w artość średnią rów ną zeru i to sam o zacho­ dzi dla X ( l ) - X ( | ) . Co więcej, żeby zależność ( 7 .1 ) była praw dziw a, m usim y zażądać, aby D 2 ( X ( i ) - X ( 0 ) ) = \ D 2 ( X( 1) - X ( 0 ) ) + A ! 2 = ¡ a 2. A zatem musi być spełniona zależność Analiza metody losowego przemieszczania środka odcinka 484 7. Losowość w konstrukcjach fraktalnych Rysunek 7.25: Ruch Browna otrzymany przez przemieszcza­ nie środka odcinka. Rysunek przedstawia osiem kroków przy­ bliżających ruch Browna, używających 3, 5 , 9 , , 257 punktów podziału W następnym kroku postępujem y w ta k i sam sposób, przyjm u jąc X ( i ) - X ( 0 ) = i(X (0) + X( i ) ) + JD2. Z a o b s e rw u jm y zn ó w , że przyrosty X, w ty m przypadku X { \ ) — —X ( | ) oraz X ( | ) — ^ ( 0 ) , są gaussowskie i m ają średnią rów ną zeru. A za te m m usim y w ybrać w arian cję A 2 zm iennej losowej D 2 w ta k i sposób, żeby D \ X { \ ) - X ( 0 ) ) = \ D 2{ X{ i ) - X ( 0 ) ) + A l = ¡ a 2, czyli Al = X . T o sam o rozum o w anie stosujem y dla X ( | ) i p o w ta rza m y je dla coraz drobniejszych p o d ziałó w , o trz y m u ją c a 2 __ n 2 2n+1 ja k o w y ra żen ie na w arian cję przem ieszczenia D n. T a k więc dla prze­ d zia łó w czasu 8 t d o d a je m y o d p o w iad ając e im zm ienne losowe o w a­ riancji 2_(n+1)<r2, proporcjonalnej do St , czego się spodziewaliśm y. 7.4. Symulacja ruchu Browna 485 T rajektoria ruchu B row na na p łaszczyźnie Rysunek 7.26: Powyżej przedstawiona jest trajektoria ruchu Browna cząstki. Część trajektorii wzięta w ramkę (powiększona w lewej górnej części rysunku) ujawnia niezmienniczość skali czy też samopodobieństwo: mniejsza część wygląda tak samo jak całość Po skonstruowaniu ruchu Browna w jednym wymiarze uogólnienie tej konstrukcji dla przypadku dwuwymiarowego jest łatwym zadaniem. Nie wymagamy więcej niż to, żeby małe zderzenia z naszą cząstką były ograniczone do dwóch tylko kierunków: uderzenia z lewej albo uderzenia z prawej. Teraz kierunek wybieramy dowolnie jako k ąt 32 pomiędzy ze­ rem a 180 stopniami, w radianach pomiędzy 0 a n. Wszy­ stkie kąty są jednakowo prawdopodobne, czyli dla potrzeb symulacji wystarczy zmienna losowa o rozkładzie jednostaj­ nym. Reasumując, przemieszczenie cząstki jest obliczane przez wybór kierunku w sposób wyżej określony i wybór wielkości przemieszczenia jak przedtem — jako znormali­ zowanej gaussowskiej zmiennej losowej.33 Zapis graficzny ruchu cząstki poddanej ruchowi Browna wygląda tak, jak oczekiwaliśmy, jak bardzo chaotyczny ślad (rysunek 7.26). Trajektoria cząstki nie jest w żaden sposób 32 Nie musimy rozważać większych kątów, przemieszczenia bowiem mogą być dodatnie albo ujemne. 33 Zwracamy uwagę, że do modelowania pól wysokości krajo­ brazu, wspomnianych wcześniej (zob. paragraf 7.6), używa się innego uogólnienia ruchu Browna. W prow adzenie kolejnego stop n ia sw ob od y 486 7. Losowość w konstrukcjach fraktalnych regularna, pewne obszary płaszczyzny są wypełnione przez nią w sposób gęsty. W rzeczywistości wymiar fraktalny tej trajektorii wynosi dwa. Powiększenie fragmentu drogi wyja­ wia samopodobieństwo ruchu. W ygląda ono bowiem tak samo jak cała krzywa. Oczywiście to podobieństwo jest prawdziwe jedynie w sensie statystycznym. 7 .5 . W ła s n o ś c i sk ali i u ła m k o w y ru ch B r o w n a C zym jest n iezm ien n iczość skali w ykresu jed n ow ym iaro­ w ego ruchu Brow na? Powróćmy teraz do jednowymiarowego ruchu Browna i omówmy te cechy podobieństwa modelu, które pozwalają nam mówić o nim jako o fraktalu. Z konstrukcji — a także z jednego rzutu oka na wykres z rysunku 7.23 — widać, że nie możemy oczekiwać zwykłego podobieństwa, przy czym w celu otrzym ania pierwotnego wykresu zmieniamy liniowo czas i am plitudę (być może z różnymi współczynnikami pro­ porcjonalności). Oczywiście takie dokładne „afiniczne sa­ mopodobieństwo” nie jest możliwe — z powodu losowości mechanizmu generującego. Mimo to na rysunku 7.27 pró­ bowaliśmy konstruować przeskalowane kopie pierwowzoru. Rysunek 7.27: W tym eksperymencie skalujemy lewą połowę próbki jednowymiarowego ruchu Browna w kierunku poziomym, zachowując pierwotną amplitudę. Pokazane są wyniki sześciu ta­ kich kroków, krzywa górna jest krzywą pierwotną. Zauważmy, w jaki sposób przy przechodzeniu do kolejnej krzywej przesuwane są wierzchołki. Na każdym z wykresów połowa danych z poprze­ dniej krzywej znika, co spowodowane jest obcinaniem wykresu na prawym końcu (.o. vviasnosci SKau i utamKowy rucn nrowna Powiększaliśmy dwukrotnie w kierunku poziomym, pozosta­ wiając amplitudę nie zmienioną. Zauważmy, że krzywe nie są wcale podobne do siebie, dolne krzywe — gdzie rozciągnę­ liśmy czas o czynnik 2, 4, 8 ,..., 64 — m ają znacznie mniejsze wahanie. Na następnym rysunku powtarzamy eksperyment z tym samym współczynnkiem, równym dwa w obu kierunkach — poziomym i pionowym. Powiększamy dwukrotnie w kie­ runku poziomym i jednocześnie mnożymy amplitudę przez dwa. Zmienia to znacząco krzywe, jak pokazano na rysunku 7.28. Tym razem dolne krzywe m ają znacznie zwiększone tak wahanie jak i amplitudę; wykres wygląda dużo bardziej chaotycznie. R uch B row na p on ow n ie przeskalow any w niew łaściw y sposób Rysunek 7.28: Eksperyment analogiczny jak na rys. Współczynniki skali w poziomie i w pionie są równe 2 7.27. Z tych obserwacji możemy wywnioskować, że pomiędzy dwoma współczynnikami powiększania: 1 (rysunek 7.27) oraz 2 (rysunek 7.28) powinien istnieć pewien charakterys­ tyczny współczynnik skali r, dla którego krzywe powinny być wizualnie takie same, tzn. jeżeli zmienimy czas o czyn­ nik 2 , a amplitudę o czynnik r, to nie powinniśmy dostrzec uderzających różnic natury ogólnej, nawet jeżeli wielokrot­ 488 7. Losowość w konstrukcjach fraktalnych nie powtórzymy tę procedurę redukcji. Można wyznaczyć r m etodą prób i błędów. Łatwiej jednak będzie dedukcyjnie otrzymać, że r powinno być równe y/2. Wynika to bezpoś­ rednio z przeanalizowania średnich kwadratowych przemie­ szczeń A 2 dla ruchu Browna, które są proporcjonalne do przyrostu czasu t, A 2 oc t. Rozważmy przeskalowaną funkcję losową m = ( i ) , tzn. wykres X, rozciągnięty w kierunku czasu a razy, o am­ plitudzie powiększonej r razy. Przemieszczenia zmiennej Y w czasie t są takie, jak dla zmiennej X pomnożonej przez r, w czasie t / a . A zatem przemieszczenia kwadratowe są pro­ porcjonalne do r 2t/a . By zapewnić tę samą stalą proporcjo­ nalności jak w pierwotnym ruchu Browna, musimy po prostu wymagać, żeby r 2/a — 1 lub, równoważnie, r = y/a. Kiedy zastępujemy t przez t / 2 , tzn. kiedy rozciągamy wykres dwu­ krotnie, jak na rysunkach, mamy a = 2, a zatem r = v/2* P opraw nie przeskalow any ruch B row na Rysunek 7.29: Eksperyment analogiczny jak na rysunku 7.27. Współczynnik skali w poziomie jest równy 2, a współczynnik skali w pionie — tym razem poprawny — jest równy r — \/2 . Krzywe są statystycznie równoważne, obrazując własność skali dla ruchu Browna. Obszary zacieniowane mają ten sam kształt w różnych skalach /.£>. wtasnosci skali i ułamkowy ruch tirów na 4»y Ostatni rysunek z tej serii (rysunek 7.29) ilustruje po­ wyższy wynik. Krzywe wyglądają mniej więcej tak samo. W rzeczywistości one są takie same, w każdym razie ze statystycznego punktu widzenia. Przeanalizowanie wartości średniej, wariancji, momentów i tak dalej, daje takie same własności statystyczne przeskalowanych krzywych. To właś­ nie jest niezmienniczość skali dla ruchu Browna. W rozważaniach o niezmienniczości skali pokazaliśmy, że dla zwyczajnego ruchu Browna musimy powiększyć ampli­ tudę o czynnik y/2, jeżeli czas (kierunek poziomy) jest po­ większany o czynnik 2 . Powiększanie amplitudy o inne czyn­ niki, takie jak 1 czy 2 , zilustrowano na rysunkach 7.27 i 7.28. Nastąpiły zmiany we własnościach statystycznych wykresów. Możemy zadać następne logiczne pytanie: jak wyglądałaby krzywa, jeżeli miałaby niezmienniczość skali przy pionowym przeskalowaniu o pewien, dowolnie wybrany, współczynnik pomiędzy 1 a 2? W istocie takie krzywe istnieją i są nazy­ wane ułamkowymi ruchami Browna. Na rysunkach 7.30 i 7.31 pokazano przykłady dla współ­ czynników 2 0,2 — 1,148... oraz 20,8 — 1,741... W ogólnym przypadku ułamkowy ruch Browna jest scharakteryzowany przez wykładnik, który pojawia się we współczynniku skali (0,2 albo 0,8 na wymienionych rysunkach, 0,5 dla zwy­ czajnego ruchu Browna). Wykładnik ten, zwykle oznaczany przez i/, nazywa się wykładnikiem Hursta, od nazwiska Hursta, hydrologa, który wspólnie z Mandelbrotem przeprowa­ dził jedne z pierwszych badań nad własnościami skali dla fluktuacji rzecznych. Właściwy zakres tego param etru zmie­ nia się od wartości 0 , odpowiadającej bardzo nieregular­ nym losowym krzywym fraktalnym, do wartości 1 odpo­ wiadającej losowym krzywym wyglądającym raczej gładko. W istocie istnieje bezpośredni związek pomiędzy H a wy­ miarem fraktalnym wykresu losowego fraktala. Związek ten będzie wyjaśniony w następnym paragrafie. C zy m ożliw e są inne w spółczyn nik i skali? Zw yczajny ruch B row na je s t procesem losowym X ( t ) o przyrostach gaussowskich oraz U ł a m k o w y ruch Browna i samopodobieństwo statystyczne D 2( X ( t 2) - X ( t 1)) <x 1t 2 - h \ 2H, gdzie H = 1. Uogólnienie teg o procesu dla 0 < H < 1 nazywa się u ła m ko w ym ru c h em B ro w n a . M ó w im y, że przyrosty X są s ta ty ­ sty czn ie sam opodobne z p a ra m etre m H. R ozu m iem y przez to , że 490 7. Losowość w konstrukcjach fraktalnych U łam k ow y ruch B row n a 1 R ysunek 7.30: Poprawnie przeskalowany ułamkowy ruch Brow­ na. Współczynnik skali w kierunku pionowym wynosi 20,2 — 1,148... Krzywe są znacznie bardziej nieregularne niż dla zwykłego ruchu Browna U łam k ow y ruch B row n a 2 R ysunek 7.31: Poprawnie przeskalowany ułamkowy ruch Brow­ na. Współczynnik skali w kierunku pionowym wynosi 20,8 = 1,741... Krzywe są znacznie gładsze niż te odpowiadające zwy­ czajnemu ruchowi Browna (zob. rysunek 7.29) 4U1 /.o. wtasnosci sKau i utamkowy rucn n równa X(t ) - X{to) oraz są statystycznie nieodróżnialne, tzn . m ają ta k ie sam e d ystryb u an ty łączne dla każdego to oraz r > 0. D la w ygody u stalm y to = 0 oraz X(to) = 0. W te d y dw ie zm ienne losowe X (t ) oraz X(rt) -jj- są w sposób oczyw isty statystycznie nieodróżnialne. A za te m „p rzy­ spieszony" ułam kow y ruch Brow na X( rt ) będzie poprawnie przeskalowany, jeżeli pod zielim y jeg o a m p litu d ę przez r H . Pomimo że jest to teoretycznie możliwe, nie jest łatwo otrzymać ułamkowy ruch Browna jako wynik sumowania białego szumu, metody opisanej po raz pierwszy na stro­ nie 482 i zilustrowanej na rysunku 7.23. Jednak mała zmiana w metodzie losowego przemieszczania środka odcinka może dać przybliżenia ułamkowego ruchu Browna. W celu otrzy­ mania losowego fraktala o zadanym wykładniku H ursta 0 < < H < 1 musimy ustalić jedynie początkowy współczynnik skali losowych poprawek jako y / l — 2 2 H ~ 2, w kolejnych kro­ kach współczynnik ten musi być zmniejszany ^ razy. W tym paragrafie wyprowadzimy prosty wzór na wymiar Zw iązek m iędzy fraktalny wykresu fraktala losowego. Wykres ten jest linią H a w ym iarem narysowaną w dwóch wymiarach. A zatem jego wymiar po­ D winien wynosić co najmniej 1 , ale nie powinien przekraczać 2 . W istocie dokładną wartością wymiaru fraktalnego wy­ kresu losowego fraktala o wykładniku Hursta H będzie D = 2 - H. Tak więc otrzymamy pełny możliwy zakres wymiarów fraktalnych, gdy H będzie się zmieniało od 0 do 1, co odpowiadać będzie zmniejszaniu się D od 2 do 1. Zastosujm y m etodę pudełkow ą do oszacowania w ym iaru frak ta ln eg o wykresu frak ta la losowego A ( t ) . P rzyp o m n ijm y, że w szystkie w łas­ ności statystyczne tego wykresu pozostają nie zm ienione, jeżeli za­ stąpim y X(t) przez X(2t)/2H. Załóżm y, że pokryliśm y w ykres X(t), dla t od 0 do 1, N m ałym i pudełkam i o boku długości r. T e ra z rozw ażm y pudełka o połow ę m niejsze, wielkości r/2. Z niezm ien- Wymiar pudełkowy dla wykresu ułamkowego ruchu Browna 7. Losowość w konstrukcjach fraktalnych 492 niczości skali dla fra k ta la oczekujem y, że obraz X(t ) dla pierwszej połow y odcinka od 0 do 1 / 2 pow inien być 1 / 2 ^ razy m niejszy od obrazu X( t ) dla całego odcinka. O czyw iście to sam o pow inno być praw dą dla drugiej połow y od cin ka, od 1 /2 do 1. D la każdej połowy będziem y p o trzeb o w ali 2 N / 2 H pudełek m niejszej wielkości r / 2 . D la obu o d c in k ó w razem będziem y za te m potrzeb ow ali 2 2~HN m niej­ szych pudełek. Jeżeli przeprow adzim y to sam o rozum ow anie dla każdej ćw ia rtki odcinka, to znow u okaże się, że liczbę pudełek m usim y po m n o żyć przez 2 2 - H , czyli będziem y potrzeb ow ać ( 2 2~ H ) 2 pudełek wielkości r / 4 . W ogólnym przypadku dostajem y ( 2 2 ~H)kN pudełek wielkości U ży w a ją c w zoru granicznego dla w y m ia ru pudełkowego, po niedługich rachunkach m o żem y obliczyć, że D = ,im tos [(2»-»)*y] = 2 _ H k->o o Jo g ~ W y n ik ten p o zo staje w zg odzie z rozw ażaniam i w rozdz. 4, s. 288, gdzie pokazaliśm y, że w y m ia r fra k ta ln y je s t rów ny D , o ile przy dzie­ leniu w ielkości pudełek przez 2 ich liczba zw iększa się 2 D razy. W ty m m iejscu je d n a k m usim y dodać słowo przestrogi. N ie m o żem y zap o m n ieć, że pow yższe* w yprow adzenie ustala w sposób niejaw ny zw ią ze k skali pom iędzy am p litu d a m i a zm ie n n ą czasową, które w rzeczyw istości nie są p o w iązane w żaden n a tu raln y sposób. A z a te m w y n ik tych rach unków , w y m ia r fraktaln y, m oże zależeć od te j relacji skali. Jest to szczególnie w yraźne, jeżeli próbow alibyśm y oszacow ać w y m ia r na pod staw ie po m iaró w długości.34 Ułamkowe ruchy Browna można podzielić na trzy zupeł1 1 1 nie różne kategorie: H ^ 2 > H — ^ oraz H > Przypadek H = ^ to zwykły ruch Browna, który ma niezależne przyro­ sty, tzn. X (ć2) ~ ^ ( ¿ i) oraz X( t s ) - X (ć2) przy t\ < t2 < < ¿3 są niezależne w sensie rachunku prawdopodobieństwa, w szczególności ich korelacja wynosi 0. Dla H > | przyro­ sty te są dodatnio skorelowane, tzn. jeżeli wykres X rośnie przy pewnym to, to kontynuuje tę tendencję dla t > t0. Przy H < ^ prawdziwa jest własność przeciwna. Skorelowanie jest ujemne, krzywe zaś oscylują bardziej chaotycznie. 34 Więcej szczegółów można znaleźć w: R. Voss, Fractals in Nature, z: The Science o f Fractal Im ages, H.-O. Peitgen i D. Saupe (red.), Springer-Verlag, New York 1988, s. 63-64 oraz B.B. Mandelbrot, Selfaffine fractals and fractal dimension, P hys. Scr. 32, 257-260 (1985). 7.6. Fraktalne krajobrazy 493 7.6. F ra k ta ln e k r a jo b r a z y Następnym dużym krokiem naprzód jest odejście od przy­ padku jednowymiarowego i generowanie powierzchni, a nie krzywych. Pierwszy sposób będzie oparty na triangulacji. Podamy opis powierzchni jako pola wysokości nad węzłami trójkątnej sieci, takiej jak pokazana na rysunku 7.32. Sieć trójk ątn a Rysunek 7.32: Pow ierzchnia fraktalna jest zbudow ana nad sie­ cią trójkątną. Ponad każdym punktem w ęzłow ym określam y jej wysokość Algorytm działa podobnie do metody przemieszczania punktu środkowego w jednym wymiarze. Zaczynamy od dużego trójkąta podstawowego i losowych wartości wysokości w jego trzech wierzchołkach. Następnie trójkąt ten dzie­ limy na trzy małe trójkąty. Wprowadzamy w ten sposób trzy nowe punkty węzłowe, w których wysokość jest po­ czątkowo uzyskiwana przez interpolację wysokości w dwóch punktach sąsiadujących (dwóch wierzchołkach pierwotnego dużego trójkąta), a później modyfikowana w losowy sposób. W następnym kroku otrzymujemy dziewięć mniejszych trój­ kątów, nad którymi wysokość będzie znów wyznaczana przez interpolację i poprawkę. Losowa poprawka, konieczna w każ­ dym kroku, musi być dokonywana taką samą metodą jak w zwykłym algorytmie przemieszczania środka odcinka. W każdym kroku musimy zmniejszać współczynnik skali (dla gaussowskiej liczby losowej) 1 /2 ^ razy. Procedurę tę oraz perspektywiczny obraz pierwszego przybliżenia otrzymywa­ nej powierzchni ilustruje rysunek 7.33. R ozszerzen ie do dw óch w ym iarów oparte na sieci trójkątów Zaprogramowanie konstrukcji powierzchni fraktalnej sta­ M eto d a je się trochę prostsze, jeżeli zastąpimy trójkąty kwadratami. w y kor zy st uj ąca Przejście od jednej sieci kwadratowej do następnej, dwukrot­ kw adraty nie gęstszej, odbywa się w dwóch krokach (zob. rysunek 7.34). Najpierw obliczamy wysokości dla środków wszyst- 494 7. Losowość w konstrukcjach P ow ierzch n ia fraktalna o p o d sta w ie trójkątnej -k w ysokość Rysunek 7.33: Konstrukcja fraktalna używająca triangulacji S ieć kw adratow a Rysunek 7.34: Rysunek ukazuje dwa kroki zagęszczania dla algorytmu, generującego powierzchnie fraktalne metodą przemie­ szczania środka /.D. fraktalne krajobrazy 4UD kich kwadratów przez interpolację czterech sąsiadujących punktów plus odpowiednia losowa poprawka. W drugim kroku obliczamy pozostałe punkty pośrednie. Zauważmy, że punkty te m ają również czterech sąsiadów (poza punktam i na brzegu kwadratu), w których wysokość znamy po prze­ prowadzeniu pierwszego kroku. Następnie znów używamy interpolacji wysokości w tych czterech sąsiednich punktach, a wynik poprawiamy przez losowe przemieszczenie. Ze szcze­ gólną uwagą musimy traktować punkty na brzegu pierwot­ nego kwadratu, gdzie podczas interpolacji bierzemy pod uwa­ gę tylko trzy sąsiednie punkty. Musimy również trochę zmo­ dyfikować zmniejszanie współczynników skali. Ponieważ dla dwukrotnego zmniejszenia wielkości sieci potrzebujemy dwóch kroków, powinniśmy w każdym z nich zmniejszać współczynnik skali nie 1 /2 ^ razy, ale ^ 1 / 2 H razy. Przyk­ ładowy wynik działania tego algorytmu przedstawiono na rysunku 7.35. Zauważmy, że wymiar fraktalny wykresów naszych funk­ cji jest wyznaczony, tak jak w przypadku krzywych, przez parametr H. Wykresy są powierzchniami w przestrzeni trój­ wymiarowej, a zatem ich wymiar fraktalny jest równy co najmniej 2, ale nie więcej niż 3. Istnieje wiele udoskonaleń tego algorytmu. Przybliżenie U doskonalenia prawdziwie brownowskiej powierzchni można udoskonalić i rozszerzenia przez dodawanie „szumu” nie tylko w nowych węzłach pow­ stających w każdym kroku, ale we wszystkich węzłach bie­ żącej sieci. Nazwano to losowymi kolejnymi dodatkami (ran­ dom successive additions). Inny algorytm opiera się na spek­ tralnym opisie fraktala. W tym przypadku funkcja zostaje rozłożona na sumę wielu funkcji sinus i cosinus o coraz więk­ szych częstotliwościach i malejących am plitudach.35 Bieżące badania skupiają się nad lokalnymi własnościami fraktali. Życzylibyśmy sobie, żeby wymiar fraktalny zależał od po­ łożenia. Na przykład „doliny” krajobrazów fraktalnych po­ winny być gładsze niż wysokie szczyty górskie. Rzecz ja­ sna komputerowa graficzna reprezentacja otrzymanych kra­ jobrazów, w tym usuwanie ukrytych powierzchni, może być bardzo wyszukana, modele zaś odpowiedniego oświetlania 35 Wiele innych algorytmów omówiono w pierwszych dwóch roz­ działach The Science o f Fractal Im ages, H.-O. Peitgen i D. Saupe (red.), Springer-Verlag, New York 1988. 7. Losowość w konstrukcjach fraktalnych 496 Rysunek 7.35: K rajobraz fraktalny i odp ow iadająca mu m apa top ograficzn a M etod ę przem ieszczania środka zastosow ano dia sieci z 64 na 64 kw adratów . U jem ne w artości w ysokości zigno­ rowano, tak więc otrzym any krajobraz w ygląda jak pofałdowana, g ó rzy sta w ysp a Y.b. tra k t aine krajobrazy 4yy i cieniowania mogłyby dostarczyć materiału do całej nowej książki.36 W tym końcowym paragrafie powracamy do jednego z podstawowych pytań, mianowicie w jaki sposób można stworzyć imitację linii brzegowej. Można to zrobić na wiele sposobów. Najpierw podamy jeden, prosty sposób. Jest to bezpośrednie uogólnienie techniki przemieszczania środka odcinka w jednym wymiarze (por. rysunek 7.36). Zaczy­ namy od niespecjalnie dokładnego przybliżenia linii brzego­ wej wyspy. Przybliżenie to można na przykład wykonać ręcznie przez narysowanie kilku punktów wyznaczających wielokąt domknięty. Każdy z boków tego wielokąta jest po­ tem po prostu dzielony przez przemieszczenie jego punktu środkowego w kierunku prostopadłym do tego boku, na od­ ległość wyznaczoną przez generator gaussowskich liczb loso­ wych, pomnożoną przez współczynnik skali, tak jak w zwyk­ łym algorytmie przemieszczania środka odcinka. A zatem w tym kroku podwajamy liczbę krawędzi wielokąta. Możemy później powtórzyć ten sam krok z nowymi bokami drobniej­ szego wielokąta, dla liczb losowych, używając współczynni­ ka skali, który powinien zostać zmieniony 1/ 2H razy. P a­ rametr H , jak przedtem z pomiędzy 0 i 1, określa stopień pozałamywania, czyli wymiar fraktalny otrzymanej krzywej: im większe ii, tym gładsza krzywa. M etoda ta ma jednak trzy słabe punkty. 1. Krzywa graniczna może mieć samoprzecięcia. 2. Blisko głównej linii brzegowej nie mogą powstać wyspy. 3. Własności statystyczne algorytmów nie określają fraktali matematycznie „czystych”, tj. statystycznie otrzymywane krzywe nie są wszędzie takie same. Przynajmniej pierwsze dwa z powyższych problemów można pokonać przy użyciu pewnego subtelniejszego algo­ rytmu. Jego podstawą jest kompletny krajobraz fraktalny, który można wyznaczyć jakąkolwiek metodą, np. opisaną powyżej metodą wykorzystującą kwadraty. Wybieramy pew­ ną wartość pośrednią wysokości jako „poziom morza” , jak na rysunku 7.35. Naszym zadaniem jest teraz odtworzenie odpowiadającej danemu fraktalowi linii brzegowej. Najłatwiejszym sposobem zrobienia tego jest przeprowa36 Zobacz np. R. Hall, Illum ination and Color in Com puter Genera­ ted Machinery, Springer-Verlag, New York 1988. O trzym yw anie fraktalnych linii brzegow ych z fraktalnych krajobrazów 498 7. Losowość w konstrukcjach fraktalnych P ro ste generow anie w ybrzeża fraktalnego Rysunek 7.36: G enerow anie fraktalnej linii brzegowej m etod ą kolejnych losow ych przem ieszczeń środka odcinka dzenie drobnego podziału naszego pierwotnego trójkąta czy kwadratu, aby stworzyć tyle punktów, ile chcemy mieć na rysunku, np. 513 na 513 punktów do przedstawienia na ekranie monitora graficznego. 513 jest dobrą liczbą, gdyż 513 = 29 + 1, a zatem pojawi się ona naturalnie przy proce­ sie podziału kwadratu. Następnie przebiegane są stopniowo wszystkie wartości wysokości, w tym przypadku będzie ich około ćwierć miliona. Kropka zostaje narysowana w odpo­ wiednim miejscu ekranu, jeżeli odpowiadająca mu wartość wysokości przekracza wybrany poziom morza. Wymiar fraktalny linii brzegowej jest kontrolowany za pomocą parame­ tru ii, który był używany przy tworzeniu krajobrazu. Jest on równy D = 2 — ii, tyle samo co wymiar fraktalny dla ułamkowego ruchu Browna. Fałszyw e Jeżeli mamy kolorowy monitor, to możemy bardzo szyb­ dw uw ym iarow e ko, używając krajobrazów fraktalnych, wygenerować rea­ chm ury listycznie wyglądające chmury. Rozważmy taki krajobraz wygenerowany dla pewnej rozdzielczości około 513 na 513 punktów, jak wyżej. Każdy piksel ma przypisaną wartość wysokości, którą teraz interpretujemy jako nasycenie ko­ loru. Bardzo wysokie wierzchołki krajobrazu odpowiadają kolorowi białemu, pośrednie wartości wysokości — niebie­ skawemu, a niziny — niebieskiemu. Jest to bardzo łatwe do przeprowadzenia przy użyciu tak zwanej mapy koloru, która w większości kart graficznych jest po prostu wbudo­ wana. Przedstawienie widoku z lotu ptaka, przy zachowaniu jednoznacznej odpowiedniości pikseli i węzłów sieci, pokaże nam bardzo ładny obłok. Param etr H fraktala, który kon­ troluje wymiar fraktalny, może być zmieniany tak, jak chce tego osoba oglądająca. Jedynym problemem, związanym z tym podejściem, jest to, że model chmury jest w rzeczy- 7.7. Program na zakończenie rozdziału 499 wistości dwuwymiarowy. Nasz obiekt nie ma grubości i nie jest możliwe obejrzenie go z boku. Koncepcję fraktala można rozszerzyć. Możemy wyprodukować losowe funkcje fraktalne oparte nie na prostej czy kwadracie, ale na kostce. Funkcja określa wtedy wartości liczbowe dla wszystkich punktów wewnątrz kostki. Wartość tę można zinterpretować jako wielkość fizyczną, taką jak np. temperatura, ciśnienie, czy też gęstość pary wodnej. Ob­ szar zawierający te punkty kostki, w których gęstość pary wodnej przekracza daną wartość progową, można rozumieć jako chmurę. Możemy pójść nawet o krok dalej. Chmury są fraktalne nie tylko w swojej geometrii, ale także w czasie. A zatem możemy wprowadzić czwarty wymiar i zinterpre­ tować losowe fraktale dla czterech zmiennych jako chmury, które zmieniają się w czasie, tym samym pozwalając na ani­ mację chmur i podobnych im kształtów.37 7.7. P r o g r a m n a z a k o ń c z e n ie ro zd zia łu : lo so w e p r z e m ie sz c z a n ie śro d k a o d c in k a Rozdział ten zawiera wiele losowych fraktali, które symu­ lują struktury kształtów występujących w naturze. Spośród tych przykładów najbardziej uderzające są fraktalne kra­ jobrazy. W społeczności grafików komputerowych tworze­ nie takich symulacji stało się bardzo popularne, a tem at ten jest ważną częścią rozdziałów o „zjawiskach natural­ nych” w większości obecnie wydawanych podręczników gra­ fiki komputerowej. Przedstawienie szczegółów technicznych takich symulacji przekracza zakres tej książki. Nieco mniej ambitnie przedstawimy jedynie program dla przekroju kra­ jobrazu fraktalnego, doprowadzający do panoramy poprzez wykres jednowymiarowego ruchu Browna. Centralnym założeniem tego modelu jest proporcjonal­ ność różnic wysokości nad dwoma punktami do pierwiastka kwadratowego z ich odległości w kierunku poziomym. Stałą proporcjonalności kontroluje sam użytkownik, pozwalając na globalne skalowanie wysokości panoramy. Program wychodzi od dwóch odcinków prostoliniowych, tworzących wykres funkcji zębatej. Odcinki są następnie re37 Metodę tę użyto w początkowej scenie filmu: Fraktale. A nim acje, eksperymenty i wywiady z E. Lorenzem i B. B. M andelbrotem, PW N, Warszawa 1995. A n im a c ja p ra w d z iw y c h c h m u r tró jw y m ia ro w y c h 7. Losowość w konstrukcjach fraktalnych 500 Obraz losow ego p rzem ieszczan ia środka odcinka R ysunek 7.37: W ynik programu „Krajobraz Brow na” kursywnie dzielone, a w ich środku jest dodawane losowe przemieszczenie. Przy starcie programu wprowadzamy do niego współczynnik skali. Liczba ta powinna leżeć pomiędzy 0 a 1. Dla małych współczynników skali dostajemy krzywą o niewielkich tylko wahaniach wysokości. Po określeniu licz­ by rekursywnych zastępowań (poziom = 7) i położenia okienka (zmienne lewy oraz w) obliczamy lewą część funkcji zębatej, odpowiednie końce odcinka zaś są zapisywane w ma­ cierzy. Przeprowadzana jest następnie rekursywna proce­ dura (etykiety od 100 do 300), najpierw dla lewej, następnie dla prawej części funkcji zębatej. Obliczenie współrzędnej y punktu środkowego stanowi sedno tej procedury. Przemie­ szczenie jest podawane jako iloczyn trzech wielkości: • losowej liczby x (obliczanej jako RND + RND + RND -1 ,5 , pewne przybliżenie zmiennej losowej gaussowskiej scentrowanej w zerze), • współczynnika skali s (pomnożonego przez 20, żeby pa­ sował do wielkości okienka na ekranie; przy zmianie wiel­ kości okienka w należy zmienić proporcjonalnie czynnik 2°), • pierwiastka kwadratowego z różnicy współrzędnych x (od­ ciętych) końców bieżącego odcinka (zapewniającej brownowską własność charakterystyczną procesu). Program ten daje panoramę bez cieniowania, takiego jak na rysunku 7.37. Jeżeli chcielibyśmy dodać zacieniowanie, to musimy zastąpić linię LINE (x lew y (l) ,y le w y (l))-(x p r a w y (l) ,ypraw y(l)) następującymi liniami: Program w B A SIC -u T ytuł Krajobraz Browna Krajobraz Brow na otrzym any przy użyciu losow ego przem ieszczania środka odcinka DIM xlewy(10), xprawy(10), ylewy(lO), yprawy(lO) INPUT ,.Skalowanie (0-1):” , s poziom = 7 lewy - 30 w = 300 REM KRZYWA POCZĄTKOWĄ MA KSZTAŁT KAPELUSZA xlewy(poziom) = lewy xprawy(poziom) = .5*w+lewy ylewy(poziom) = w+lewy yprawy(poziom) = (1-s)*w+lewy GOSUB 100 xlewy(poziom) = xprawy(poziom) xprawy(poziom) = w+lewy ylewy(poziom) = yprawy(poziom) yprawy(poziom) = w+lewy GOSUB 100 END REM 100 RYSOWANIE PROSTEJ NA NAJNIŻSZYM POZIOMIE IF poziom > 1 GOTO 200 LINE (xlewy(l),ylewy(l)) - (xprawy(1),yprawy(1)) GOTO 300 REM 200 ROZGAŁĘZIENIE NA NIZSZY POZIOM poziom = poziom - 1 REM LEWA GALAZ, R*D JEST PRZEMIESZCZENIEM xlewy(poziom) = xlewy(poziom+1) ylewy(poziom) = ylewy(poziom+1) xprawy(poziom) = .5*xprawy(poziom+1) + .5*xlewy(poziom+1) d = s*20*SQR(xprawy(poziom) - xlewy(poziom)) r = RND + RND + RND - 1.5 yprawy(poziom) = .5*yprawy(poziom+1) + .5*ylewy(poziom+1) + r*d GOSUB 100 REM PRAWA GALAZ xlewy(poziom) = xprawy(poziom) ylewy(poziom) = yprawy(poziom) xprawy(poziom) = xprawy(poziom+1) yprawy(poziom) = yprawy(poziom+1) GOSUB 100 poziom = poziom + 1 300 RETURN 502 7. Losowość w konstrukcjach fraktalnych FOR i = x le w y (l) TO xprawy(l) STEP .999 y = (yprawy( 1 ) * ( i -x lew y ( 1 ) ) +ylewy(1)* (xprawy( 1 ) —i ) ) / (xprawy( 1 ) -x lew y (1 )) LINE (i,lew y+w ) - ( i , y) NEXT i D odatek Om ówienie fraktalnej kompresji obrazów 1 Yuval Fischer2 Prawda jest zbyt złożona, by dawała się obejrzeć inaczej, niż w przybliżeniu. John von Neumann Fraktalna kompresja obrazu — schemat używający prze­ kształceń fraktalnych do kodowania obrazów — ostatnimi czasy przyciągała uwagę wielu. Zainteresowanie tą dziedziną zostało rozbudzone głównie za sprawą Michaela Barnsleya, który uważa, że skomercjalizował ten sposób postępowania. Pomimo że metoda ta zyskała szeroką popularność, nie było na jej tem at wielu publikacji naukowych. Większość z do­ stępnych artykułów nie zawierała żadnego opisu wyników działania algorytmów. Nawet książka Barnsleya, która oma- 1 Praca częściowo sponsorowana przez kontrakt ONR N00014-91-C0177. Dodatkowo finansowana przez San Diego Supercomputing Cen­ ter oraz Institute for Non-Linear Science, University of California, San Diego. 2 San Diego Supercomputing Facility, University of California, San Diego, La Jolla, CA 92093. 504 Dodatek . Omówienie fraktalnej kompresji obrazów wia zagadnienie fraktalnej kompresji obrazów w całej roz­ ciągłości, jest więcej niż lakoniczna, kiedy przychodzi do pre­ cyzowania pojęć związanych z kompresją obrazu. Pierwszym opublikowanym schematem była praca dok­ torska A. Jacquina, studenta Barnsleya, który wcześniej już publikował łącznie z Barnsleyem prace na tem aty pokrewne, nie wyjawiając jednak sedna używanych przez siebie algo­ rytmów. Badania na ten tem at prowadził również autor niniejszego tekstu, we współpracy z R. D. Bossem i E. W. Jakobsem,3 jak również z Benem Bielefeldern4. W tym do­ datku omówimy kilka sposobów kodowania obrazów w po­ staci transform at fraktalnych. Opierają się one na wspo­ mnianych wyżej badaniach. C zym je st „Fraktalność” kompresji obrazów może przejawiać się na „fraktalna wiele różnych sposobów. Po pierwsze, obraz jest zapisykom presja wany jako zbiór przekształceń, które są bardzo podobne do ob razu” ? myślowego schematu KWR. Ma to wiele następstw. Zdekodowany obraz ma szczegóły w każdej skali, tak samo jak paprotka Barnsleya. Co więcej, jeżeli przeskalujemy prze­ kształcenia z systemu iteracyjnego odpowiadającego paprot­ ce Barnsleya (na przykład jeżeli pomnożymy wszystko przez 2), to atraktor również zostanie przeskalowany (też o czynnik 2). W tym sensie zdekodowany obraz nie ma swego rozmiaru charakterystycznego, może zostać zdekodowany jako obraz dowolnego rozmiaru. Dodatkowe szczegóły, potrzebne do de­ kodowania obiektów większych rozmiarów, są automatycznie generowane przez przekształcenia kodujące. Można by się zastanawiać (na szczęście niezbyt długo), czy te szczegóły są „rzeczywiste” , tzn. czy dekodowanie obrazu pewnej osoby w coraz większym rozmiarze doprowadzi w końcu do tego, że zobaczymy komórki skóry albo nawet atomy? Odpo­ wiedz jest oczywiście negatywna. Szczegóły zdekodowanego obrazu nie są związane ze szczegółami naprawdę występują­ cymi wtedy, kiedy obraz był zapisywany w postaci cyfrowej. Pochodzą one od przekształceń kodujących, które potrafią dobrze kodować tylko części dużej wielkości. Niemniej jed­ nak w pewnych przypadkach szczegóły są realistyczne nawet w małych powiększeniach, co może być użyteczną cechą na­ szej metody. Na przykład rys. D .l pokazuje szczegół fraktalnego zakodowania Lenny, obok powiększenia oryginału. 3 Z Naval Ocean Systems Center, San Diego. 4 Ze State University of New York, Stony Brook. ouo Rysunek D .l: Część kapelusza Lenny, zdekodow ana w cztero­ krotnie większym pow iększeniu (po lewej) oraz obraz oryginalny powiększony czterokrotnie (po prawej). N a praw ym rysunku w i­ doczna jest pikselizacja Cały oryginalny obraz jest przedstawiony na rys. D.4 (po lewej), jest to słynny już obraz Lenny, powszechnie używany w literaturze na tem at kompresji obrazu. Powiększenie ory­ ginału ukazuje pikselizację: krateczki, które składają się na obraz dadzą się wyraźnie odróżnić. Jest to spowodowane czterokrotnym powiększeniem. Obraz zdekodowany nie wy­ kazuje pikselizacji, szczegóły bowiem są kreowane we wszy­ stkich skalach wielkości. Obraz jest zapisywany w komputerze jako zbiór wartości odpowiadających nasyceniu szarości (albo koloru) w każdym punkcie (pikselu) obrazu. Typowo używanych jest 8 bitów dla obrazów czarno-białych, co daje 28 = 256 możliwych poziomów szarości dla każdego piksela. Doprowadza to do stopniowania szarości, wystarczającego na to, by obrazy mo­ nochromatyczne zapisane w ten sposób wyglądały dobrze. Niemniej jednak gęstość pikseli w obrazie musi być dosta­ tecznie duża, by nie było widać poszczególnych pikseli. Tym samym nawet dla niewielkich obrazów potrzebne są duże liczby pikseli, a zatem wymagana jest duża ilość pamięci. Jednak oko ludzkie nie zauważa pewnych typów straty in­ formacji, a więc jest możliwe magazynowanie pewnego przy­ bliżenia obrazu jako zbioru transformat, które używają C zem u n a z y w a m y to fr a k ta ln ą „ k o m p re s ją ” o b ra z u ? 506 Dodatek . Omówienie fraktalnej kompresji obrazów znacznie mniej pamięci komputerowej, niż było potrzebne do zapisania oryginalnego obrazu. Tak na przykład cieniowaną odmianę trójkąta Sierpiń­ skiego z rysunku D.2 można odtworzyć z jedynie 132 bitów pamięci przy użyciu tego samego mechanizmu dekodującego, który wygenerował inne zakodowane obrazy w tym dodatku. Ponieważ obraz ten jest samopodobny, może zostać zakodo­ wany w sposób bardzo zwięzły — jako pewien zbiór prze­ kształceń. Na tym polega idea schematu fraktalnej kompre­ sji obrazu opisanego poniżej. C ieniow ana odm iana trójk ąta Sierpińskiego Rysunek D .2 : C ieniow ana od m ian a trójkąta Sierpińskiego Standardowe metody kompresji obrazu można oceniać na podstawie ich współczynnika kompresji: stosunku ilości pamięci, potrzebnej do zapisania nieprzetworzonego obrazu jako zbioru pikseli, do ilości pamięci potrzebnej do zapisania reprezentacji obrazu w postaci skompresowanej. Współczyn­ nik kompresji dla schematu fraktalnego jest trudny do zmie­ rzenia, ponieważ obraz można zdekodować w dowolnej skali. Jeżeli zdekodowalibyśmy szarą wersję trójkąta Sierpińskiego powiększoną dwukrotnie w stosunku do oryginału, to mo­ glibyśmy twierdzić, że współczynnik kompresji wzrósł czte­ rokrotnie, gdyż do zapisania zdekompresowanego obrazu po­ trzeba czterokrotnie więcej pikseli. Innym przykładem może być obraz na rysunku D .l. Jest to część kompresji w sto- U.L. OćUilUpULlUUieilSbWU UU1ĆIZUW OU I sunku 5,7:1 pełnego obrazu Lenny. Gdyby został on zdekodowany w czterokrotnym powiększeniu, wtedy pełny zdekodowany obraz zawierałby 16 razy więcej pikseli, a zatem jego współczynnik kompresji wyniósłby 91,2 : 1. Może wydawać się, że oszukujemy Czytelnika; jednak ponieważ czterokrot­ nie większy obraz ma szczegóły w dowolnej skali wielkości, nasze rozumowanie jest poprawne. D . l . S a m o p o d o b ie ń stw o o b r a z ó w Obrazy, które będziemy kodować, różnią się od obrazów omawianych w innych częściach tej książki. Wcześniej, kiedy mówiliśmy „obraz”, mieliśmy na myśli zbiór, który można przedstawić jako czarny rysunek na białej płaszczyźnie, gdzie miejsca czarne odpowiadały punktom tego zbioru. Tutaj „obraz” oznacza obiekt wyglądający jak czarno-biała foto­ grafia. G raf w ygenerow any z obrazu Lenny Aby omawiać kompresję obrazu, potrzebny jest jego ma- O brazy jako tematyczny model. Na rysunku D.3 pokazano wykres pew- w ykresy funkcji nej specjalnej funkcji z = f{x>y)- Wykres ten powstał przy 508 Dodatek. Omówienie fraktalnej kompresji obrazów użyciu obrazu Lenny (zob. rys. D.4), wzniesienie wykresu nad punktem (x,y) odpowiada natężeniu szarości w od­ powiednim pikselu; kolor biały odpowiada położeniu wyso­ kiemu, a czarny — niskiemu. Jest to nasz model obrazu, z tym małym wyjątkiem, że wykres na rysunku D.3 powstał z połączenia punktów w przestrzeni, położonych nad punk­ tam i sieci 64 x 64, a w ogólności zakładamy, że wysokość można zaznaczyć nad każdym punktem płaszczyzny (x,y) i to w sposób niezależny jedna od drugiej. Innymi słowy, nasz model obrazu ma nieskończoną rozdzielczość. A zatem kiedy chcemy odwołać się do pojęcia obrazu, mamy na myśli pewną funkcję /(x ,y ) , która podaje poziom (natężenia) szarości w każdym punkcie (x,y). Kiedy mamy do czynienia z obrazami o skończonej rozdzielczości, jakimi są na przykład obrazy zapisane w postaci cyfrowej w pamięci komputera, musimy albo uśredniać funkcję /(rr, y) względem pikseli, albo zakładać, że funkcja f ( x , y ) ma w każdym z pi­ kseli stałą wartość. N or malizowanie wykresów obrazów D la uproszczenia zakładam y, że m am y do czynienia z obrazam i kw a­ d rato w y m i wielkości 1. W y m a g a m y , by {x,y) £ I 2 = {(u,v) I 0 < u, v < 1 } oraz by f(x, y) £ I = [0 ,1 ]. Poniew aż będziem y chcieli sto­ sować zasadę przekształcenia zw ężającego, przestrzeń obrazów musi być przestrzenią m etryczn ą zu pełną. W y m a g a m y też, żeby / była fu n kcją m ierzaln ą. Jest to w ym ag an ie form aln e, które nas specjalnie nie ogranicza, każda bow iem funkcja kaw ałkam i ciągła jes t m ierzalna i m ożem y przyjąć, że dow olny n a tu raln y obraz odpow iada właśnie ta ­ kiej funkcji. Chcielibyśmy umieć mierzyć odległość pomiędzy obra­ M etryka w p rzestrzen i zami. Wprowadzimy więc metrykę na przestrzeni obrazów. obrazów Istnieje wiele metryk do wyboru, ale najprostsza w użyciu jest metryka supremum S(f, g) = sup If ( x , y ) - g{x, y)\. (x,y)el2 Metryka ta wyszukuje to położenie (#,y), w którym funkcje / i g różnią się najbardziej. Wartość różnicy / i g w tym punkcie jest ich odległością. Istnieją inne możliwe wybory modelu obrazu i inne moż­ liwe metryki. Tak samo jak przedtem, wybór metryki okreś- 5Uy U. 1. bamopodobieństwo obrazów d Rysunek D.4: Oryginalny obraz Lenny wielkości 256x256 pikseli (po lewej) i pewne jego samopodobne części (po prawej) la, czy przekształcenia są ściągające, czy nie. Szczegóły te są istotne, ale wykraczają poza zakres tego dodatku. Typowy obraz twarzy, jak na przykład ten z rysunku D.4 (po lewej) nie wykazuje takich cech samopodobieństwa, jakie można odnaleźć na przykład w trójkącie Sierpińskiego, Wydaje się, że obraz ten nie zawiera afinicznych przekształceń siebie samego. Ale w istocie obraz ten wykazuje inny rodzaj samopodobieństwa. Rysunek D.4 (po prawej) po­ kazuje przykładowe części obrazu Lenny, które są podobne w różnych skalach: część jej ramienia zachodzi na obszar, który wygląda prawie tak samo, a część odbicia w lustrze jej kapelusza jest podobna (po przekształceniu) do części kape­ lusza. Różnicą w stosunku do rodzaju samopodobieństwa obecnego w paprotkach i trójkątach jest to, że obraz nie jest złożony z kopii całego siebie (po odpowiednim prze­ kształceniu afinicznym), a składa się z kopii (odpowiednio przekształconych) części samego siebie. Części te nie są identycznymi kopiami siebie po przekształceniu afinicznym, a więc musimy dopuścić pewien błąd w naszym przedstawia­ niu obrazu jako zbioru przekształceń. Oznacza to, że obraz, zakodowany jako zbiór przekształceń, nie będzie wierną ko­ pią obrazu oryginalnego, a tylko pewym jego przybliżeniem. Na zakończenie zastanówmy się, jakie obrazy mogą wy­ kazywać taki rodzaj lokalnego samopodobieństwa. Wyniki O brazy natu raln e nie są dokładnie sam opod ob n e 510 Dodatek. Omówienie fraktalnej kompresji obrazów eksperymentalne sugerują, że większość obrazów, które mo­ żemy zobaczyć, można skompresować przy użyciu tego typu samopodobieństwa, np. obrazy drzew, twarzy, domów, gór, chmur itd. Istnienie takiego lokalnego samopodobieństwa i możliwość jego algorytmicznego wyszukiwania są dwoma odrębnymi zagadnieniami. W tym miejscu zajmiemy się dru­ gim z nich. D .2 . P e w n a s p e c ja ln a K W R K o p ia rk i W tej części omówimy pewne rozszerzenie schematu kopiarki p o d z ie lo n e wielokrotnie redukującej, którego następnie użyjemy do ko­ dowania i dekodowania obrazów o zmiennym odcieniu szaroś­ ci. Tak jak przedtem, urządzenie jest charakteryzowane przez kilka parametrów: Param etr 1: liczba systemów soczewek, Param etr 2: ustawienie współczynnika redukcji, osobno dla każdego systemu soczewek, Param etr 3: ustawienie systemów soczewek przy składaniu kopii w całość. Te param etry są częścią definicji KW R z rozdziału 5; dodajemy do nich dwie następujące możliwości: Param etr 4: ustawienie kontrastu i jasności dla każdego sy­ stemu soczewek, Param etr 5: przesłona, która dla każdej soczewki z osobna odsłania część oryginału do skopiowania. Te dodatkowe możliwości wystarczają do kodowania obrazów o zmiennym odcieniu szarości. O statni z parametrów jest nowym, ważnym udoskonaleniem: dzieli on obraz na części, z których każda będzie przekształcana oddzielnie. Z tego powodu nazywać będziemy tę KW R podzieloną kopiarką wielokrotnie redukującą (PKW R). Przez rozbijanie obrazu na części możemy teraz zakodować wiele kształtów, które byłoby bardzo trudno zakodować przy użyciu zwykłej KWR (czy systemu iteracyjnego funkcji). Omówmy w skrócie, co się stanie, kiedy przetworzymy obraz oryginalny, używając naszego nowego urządzenia. Każ­ da z soczewek wybiera część oryginału, oznaczaną dalej przez Di) i przekształca tę część (przekształcając też kontrast i ja­ sność) na część wytwarzanej kopii, którą oznaczamy przez R i . D i będziemy nazywać dziedzinami, R i zaś — przeciw- u . z. r e w im s p e c ja ln a j\ w n tJ-L J. dziedzinami. Odpowiednie przekształcenie oznaczamy przez Rozbicie pozostaje domyślne przy tym oznaczeniu, a więc możemy używać prawie takich samych oznaczeń, jak przed­ tem. Przy danym obrazie / jeden krok kopiowania przez ma­ szynę o N soczewkach można zapisać jako W ( f ) = w i ( f ) U w 2 ( / ) U * ** U Tak jak przedtem, urządzenie pracuje w pętli sprzężenia zwrotnego: obraz końcowy kroku pierw­ szego staje się obrazem początkowym dla kroku drugiego i tak dalej. Rozważmy PKW R o 8 soczewkach, narysowaną na ry- P K W R dla sunku D.5. Na rysunku zaznaczone są dwa obszary, je- m uszki den oznaczany przez D\ = = £>3 = Dą) a drugi przez £>5 — Ds = Dy = £)g. Są to części rozbicia oryginału, które będą następnie kopiowane przez 8 soczewek. Soczewki prze­ kształcają każdą dziedzinę Di na odpowiednią przeciwdziedzinę Ą , zmniejszając ją przy tym dwukrotnie (współczynnik redukcji wynosi więc 1 / 2 ). Dla uproszczenia zakładamy, że kontrast i jasność nie są w tym przykładzie zmieniane. Na rysunku D .6 przedstawiono trzy iteracje PKW R dla trzech Rysunek D.6: początkow ych Trzy iteracje PKWR dla trzech różnych obrazów 512 Dodatek. Omówienie fraktalnej kompresji obrazów różnych obrazów początkowych. Atraktorem dla tego sy­ stemu jest obraz w kształcie muszki, pokazany na ry­ sunku (c). Przykład ten ukazuje użyteczność PKW R. Przez odpo­ wiednie rozbicie oryginału, który miał zostać skopiowany, zakodowanie obrazu muszki stało się bardzo proste (bystry Czytelnik zauważy, że obraz ten można zakodować również przy użyciu IFS). P K W R = P IF S M atematyczny odpowiednik PKW R nazwiemy podzielo­ nym systemem iteracyjnym funkcji (PIFS). PIFS ma pewne cechy wspólne z kopiarkami połączonymi w sieć i powracalnymi systemami iteracyjnymi Barnsleya, ale wcale nie jest z nimi identyczny. Nie powiedzieliśmy jeszcze, jakie typy przekształceń bę­ dziemy dopuszczać. Formalnie rzecz biorąc, PKW R (czy też PIFS) może składać się z zupełnie dowolnych przekształceń. Jednakże dla uproszczenia sytuacji, jak również dla umożli­ wienia zwartego zapisu końcowego PIFS (dla uzyskania wy­ sokiego stopnia kompresji), ograniczamy się do przekształceń Wi postaci X Wi y di — 0 0 fH Ci 0 z 0 " Ci " X " y z Si _ + fi (D.l) Ol Wygodnie będzie zapisać Vi{x,y) = di bi Ci di X _ y + . Ci /» . fi . Ponieważ obraz jest modelowany jako funkcja f { x , y ), mo­ żemy zapisać działanie Wi na obraz / jako Wi(f) = Wi{x,y, f ( x , y ) ) . Przy tym podejściu określa, w jaki sposób ele­ menty rozbicia (dziedziny) oryginału są przekształcane na kopie (przeciwdziedziny), a oraz Oi określają ich kontrast i jasność. Nie wolno zapominać, że każde jest ograniczone do D{ x 7, czyli że w i działa jedynie na tę część obrazu, która leży ponad dziedziną D{. Oznacza to, że Vi(Di) — R i . Ponieważ chcemy, by W ( /) było obrazem, musimy żądać, by URi = I 2 oraz by Ri HR j = 0, jeżeli i ^ j. A zatem, jeżeli stosujemy W do jakiegoś obrazu, otrzymujemy pewną jed­ noznaczną wartość powyżej każdego punktu z kwadratu 72. Działanie kopiarki w pętli odpowiada iterowaniu operatora D.2. few na specjalna K W K 013 Hutchinsona W . Wychodzimy od obrazu początkowego /o, a potem iterujemy: h = W ( f Q), h = W ( f i) = W ( W ( f Q)) i tak dalej, n-tą iterację będziemy oznaczać przez f n — W n( f o). Kiedy W będzie miało przyciągający punkt stały? Na P u n k ty stałe dla mocy zasady przekształcenia zwężającego wystarczy, by W P IF S było kontrakcją. Ponieważ wybraliśmy taką metrykę, która jest czuła tylko na to, co dzieje się w kierunku z, nie musimy nakładać warunków kontrakcji w kierunku x ani y. Prze­ kształcenie W będzie kontrakcją, jeżeli wszystkie Si < 1. W rzeczywistości zasadę przekształcenia zwężającego można zastosować do pewnej iteracji W m, a zatem wystarcza, by W m było zwężające dla pewnego m. Prowadzi to do nieco zdumiewającego rezultatu, że nie musimy nakładać żadnego specjalnego warunku na S{. W praktyce najbezpieczniej jest, by Si < 1, co zapewnia własność ściągania. Ale ekspery­ menty pokazują, że równie bezpieczna jest wartość Si < 1,2 i że w tym ostatnim przypadku kodowanie jest nawet trochę lepsze. Jeżeli W nie jest ściągające, ale W m jest (dla pewnego P rzek ształcen ia m), to W będziemy nazywać ostatecznie ściągającym. Po­ o sta teczn ie winniśmy teraz omówić, jak jest możliwe, by własność zwę­ ściągające żania zachodziła dla pewnej iteracji przekształcenia W, ale nie dla W. Przekształcenie W składa się z sumy (teoriomnogościowej) przekształceń Wi działających na rozłączne części obrazu. Iteracja przekształcenia, W m, składa się z su­ my składowych postaci Ponieważ iloczyn ograniczeń współczynników ściągania ogra­ nicza współczynnik ściągania złożenia, składowe te mogą być kontrakcjami, gdy każda z nich zawiera pewne w*., które ściąga dostatecznie mocno. A zatem W będzie ostatecz­ nie ściągające (w metryce supremum), jeżeli zawiera dosta­ tecznie dużo „mieszania” , tak że ściągające przekształcenia Wi będą w końcu dominowały nad tymi, które rozciągają. W praktyce dla danego PIFS warunek ten można łatwo sprawdzić. Przypuśćmy, że wszystkie Si < 1. Oznacza to, że w prze­ biegu PKW R kontrast zawsze ulega redukcji. Wydawać się może, że w tym przypadku końcowy atraktor będzie jakąś 514 Dodatek. Omówienie fraktalnej kompresji obrazów rozmytą, nieostrą szarością. Tak jednak nie jest, kontrast bowiem jest tworzony na przejściu między przeciwdziedzinami mającymi różne stopnie jasności o^. Czy zatem kon­ trast w atraktorze zmienia się jedynie przy przechodzeniu między różnymi R i? Nie: jeżeli przekształcenia V{ będą kontr­ akcjami, to miejsca, w których kontrast zmienia się pomiędzy częściami Ri, będą się rozprzestrzeniać w coraz mniejszej skali. Tak właśnie w atraktorze powstają szczegóły. Jest to jeden z powodów, dla których żądamy, by przekształcenia Vi były kontrakcjami. Wiemy już, jak zdekodować obraz, który został zako­ dowany jako PIFS czy też jako PKW R. Zacznijmy od do­ wolnego obrazu początkowego i stosujmy wielokrotnie W — tak długo, aż dostaniemy punkt stały foo. Będziemy używać oznaczenia Hutchinsona i zapiszemy = |Wj. Dekodowa­ nie jest łatwe, a tym, co nas naprawdę interesuje, jest ko­ dowanie. W celu zakodowania obrazu musimy wyznaczyć Ri^Di oraz jak również N , liczbę przekształceń, które chcemy stosować. Dekodowanie za pomocą odwracania macierzy Jeżeli d eko d u jem y obraz, używ ając ¡terow ania, bierzem y początkow e /o i w y zn a c za m y f n = W ( f n~i). M o że m y to ta k ż e zapisać jako f n{ x , y ) = sif n_ i { v l 1 {x,y)) + ou gdzie i je s t w y zn a czan e z zależności (x,y) £ Ri. Przypuśćm y, że m am y do czynienia z obrazem o rozdzielczości M x M . O braz można zapisać ja k o w e kto r kolum nowy, pow yższe rów nanie przybiera w tedy postać fn = S f n - i + O , gdzie S je s t m acierzą kw ad rato w ą M 2 x M 2 o elem entach s*, które kodują przekształcenia Vi, n a to m ia st O je s t w ektorem kolum now ym , zaw ierającym w artości p o ziom ów jasności 0 {. W te d y n fn = S nf 0 + Y , S J- 1O, a jeżeli każde si < c < 1, to pierw szy składnik je s t w granicy równy 0 (w aru n ek Si < c < 1 m ożna opuścić, jeżeli W je s t ostatecznie ściąg ające). Jeżeli I ~ S je s t m acierzą o d w ra ca ln ą , to oo /oo = ^ 5 j -0 ^ 0 - ( J - 5 ) - 10 , u .ó>ivoaowaiize oorazow 010 gdzie I jest m acierzą identycznościow ą. Bielefeld zw ró c ił uwagę, że w przypadku, gdy w każdym pikselu w artość f n(x,y) zależy tylko od jednej (alb o kilku) wartości f n^ i ( v ~ 1 (x, y ) ) , m acierz ta zaw iera wiele zer i m ożna ją ła tw o odw rócić. D .3 . K o d o w a n ie o b r a z ó w Przypuśćmy, że chcielibyśmy zakodować pewnien dany obraz /. Oznacza to, że chcemy znaleźć zbiór przekształceń w i, takich, że W — IJ^Li wi oraz f ~ 1^1* Chcemy więc, by / było punktem stałym dla operatora Hutchinsona W. Tak samo jak w przypadku IFS, równanie na punkt stały f = w ( f ) = W i ( f ) U w2(/) U • • • U wN (f) sugeruje, w jaki sposób możemy tego dokonać. Szukamy rozbicia / na części, do których następnie zastosujemy prze­ kształcenia Wi i z powrotem dostaniemy / . Nie możemy li­ czyć, że procedura ta będzie zawsze pracować, ponieważ z reguły obrazy nie są zbudowane z części, które można nietrywialnie przekształcić tak, by dokładnie pasowały gdzie indziej w obrazie. Możemy mieć natomiast nadzieję na zna­ lezienie innego rodzaju obrazu / ' = \W\, gdzie jest małe. Innymi słowy szukamy przekształcenia W, którego punkt stały / ' = \W\ jest bliski /, czy też, mówiąc opisowo, wygląda podobnie do /. W tym przypadku f * f ' * W ( f ' ) K W ( f ) = Wl (f ) U w2(f ) u ... U wN (f). A zatem wystarczy przybliżać części obrazu za pomocą prze­ kształconych części. Dokonujemy tego, minimalizując wiel­ kości S (/n(flixM )), i = l , . . . , N. (D.2) Znalezienie części Ri (i odpowiadających im dziedzin Di) stanowi sedno problemu. Następujący przykład może sugerować, jak możemy to P rosty przykład robić. Przypuśćmy, że mamy do czynienia z obrazem 256 x dla ilustracji 256 pikseli, o 8 bitach na piksel. Niech i?i, i?2> • • • >R 1024 będą nie zachodzącymi na siebie kwadracikami 8 x 8 , pokry­ wającymi kwadrat [0,255] x [0,255]. Niech D będzie zbio- 516 Dodatek. Omówienie fraktalnej kompresji obrazów rem wszystkich kwadracików 16 x 16. Zbiór D składa się z 241 ♦241 = 58 081 kwadracików. Dla każdego Ri szukamy takiego kwadracika Ą G D , który minimalizuje równanie (D.2). Mówimy, że dziedzina ta pokrywa przeciwdziedzinę. Każdy z małych kwadracików można przekształcić na 8 spo­ sobów na wybrany inny mały kwadracik, a więc oznacza to porównywanie 8 *58 081 = 464648 kwadracików. Ponadto każdy z kwadracików w D zawiera czterokrotnie więcej pi­ kseli niż Ri, czyli musimy albo dokonać wyboru (wybieramy 1 z każdych podkwadracików 2 x 2 w Di), albo uśrednić podkwadraciki 2 x 2 , kiedy minimalizujemy równanie (D.2). Zminimalizowanie równania (D.2) oznacza dwie rzeczy. Po pierwsze, znalezienie dobrego wyboru Di (czyli tej części obrazu, która najbardziej przypomina część powyżej Ri). Po drugie, oznacza to znalezienie dobrych ustawień kontrastu i jasności Si i o\ dla Wi. Dla każdego D G D możemy obli­ czyć S{ i Oi, używając metody najmniejszych kwadratów, co ponadto da nam pierwiastek ze średniej różnicy kwadrato­ wej, W ybieramy jako Di ten kwadracik D £ D, dla którego średnia różnica kwadratowa jest najmniejsza z możliwych. Dwóch ludzi, lecących balonem, zostaje zniesionych z kur­ U w aga n a tem a t m etryk su przez silny podmuch wiatru. Nie znając swojego położe­ nia zbliżają się do wzgórza, na którym siedzi samotna osoba. Obniżają lot balonu i krzyczą do człowieka na wzgórzu: - Gdzie jesteśmy? Człowiek zastanawia się dłuższą chwilę i odpowiada: - W balonie. Jeden z mężczyzn w balonie zwraca się do drugiego i mówi: - Ten człowiek był matematykiem. Kompletnie zdumiony drugi z mężczyzn pyta: - Skąd wiesz? Pierwszy na to odpowiada: - Zadaliśmy mu pytanie. Myślał nad nim przez długi czas, a potem udzielił poprawnej odpowiedzi, która jednak była całkowicie bezużyteczna. Właśnie tak można opisać to, co zrobiliśmy z metryką. Kiedy chodziło nam o prostą motywację teoretyczną, uży­ liśmy metryki supremum, która była do tego celu bardzo wygodna. Ale w zastosowaniach praktycznych będzie dużo lepiej używać metryki średniokwadratowej, w której łatwo jest wykonać obliczenia najmniejszych kwadratów. D / ó . K o d o w a n ie o b r a z ó w b Załóżm y, że dane są dwa kw adraty, zaw ierające n intensywności pik­ seli: oraz S zukam y takic h wartości s i o, które zm in im alizu ją w yrażenie R= + o - 6i)2. Ż=1 Da nam to ta k ie wartości ustawień kontrastu i jasności, że afinicznie przekształcone wartości będą leżały w najm niejszej m ożliw ej średniokw adratow ej odległości od wartości bi . R p rzyjm u je w artość m inim alną, kiedy pochodne cząstkow e w zględem s i o są rów ne zeru, co zachodzi dla n n n n‘ . 1— . 1=1 s— 1 . 1— 1 w oraz \i =l 1=1 / W tym przypadku n R = E 6*2 + a ( .i=i a ^ajbj + 2o ¿=i V n t= i 'y ' aj \ j + (D.3) to s = 0 oraz o = Y%=i bi / n<2' i - i ( + o I on2 —2 y > \ Jeżeli n2 Y!i=i al “ (EILi ai)2 = 0, Wybór Di wraz z odpowiadającymi im Si i Oi wyznacza przekształcenie Wi, które jest postaci takiej, jak w równaniu (D.l). Po znalezieniu przekształceń w i,...,wio24 możemy zdekodować obraz za pomocą przybliżania \W\. Na rysunku D.7 przedstawiono cztery obrazy: dowolny obraz /o wy­ brany, aby uwydatnić fakturę, jego pierwsza iteracja W ( / o ) , zachowująca jeszcze nieco z faktury / o , a następnie W 2(fo) i W 10( / o ) . M etoda najm niejszych kw adratów IY Dodatek. Omówienie fraktalnej kompresji obrazów 518 R ysunek D.7: Obraz oryginalny, pierwsza, druga i dziesiąta iteracja przekształceń kodujących Rezultat jest zaskakująco dobry, jeżeli weźmiemy pod uwagę, jak naiwny i prosty był algorytm kodujący. Do za­ pisu oryginalnego obrazu potrzebowaliśmy 65 536 bajtów pa­ mięci, a do zapisania przekształceń5 potrzebujemy tylko 3968 bajtów, co daje współczynnik kompresji 16,5 : 1. Przy tym kodowaniu R = 10,4, a każdy piksel znajduje się średnio 5 Każde z przekształceń potrzebuje 8 bitów w kierunkach x i y do wyznaczenia położenia D*, 7 bitów dla o*, 5 bitów dla Si i 3 bity do opisania obrotu i odbicia, występujących przy przekształcaniu Di na Ri- u . 4. o p o so u y r o z u ija n ia o o ra z u jedynie o 6,2 poziomów szarości od poprawnej wartości. Obrazy te pokazują, jak w każdej iteracji powstają nowe szczegóły. Pierwsza iteracja zawiera szczegóły wielkości 8x8, następna wielkości 4 x 4 i tak dalej. D .4 . S p o so b y r o z b ija n ia o b ra zu Przykład z poprzedniego paragrafu jest wręcz banalny, ale dobrze opisuje ideę schematu fraktalnego kodowania obra­ zów. Najpierw rozbijamy obraz za pomocą pewnego zbioru przeciwdziedzin Ri. Następnie dla każdej Ri wybieramy spoś­ ród pewnego zbioru części obrazu takie Ą , które daje mały błąd średniokwadratowy. Zbiory Ri i Di wyznaczają Si i c>t, jak również a*, bi, c^, di, e* i fi z równania (D .l). Otrzy­ mujemy przekształcenie W — Uit^, które koduje pewne przy­ bliżenie oryginalnego obrazu. Słabością powyższego przykładu jest to, że używa on R o zb icie ustalonej wielkości przeciwdziedzin Ą . Istnieją obszary ob­ p o c z w ó rn e razu, które trudno będzie dobrze pokryć w taki sposób (na przykład oczy Lenny). Jednocześnie istnieją obszary, dla których wystarczające będą większe przeciwdziedziny, co mo­ że zmniejszyć potrzebną liczbę przekształceń Wi, a tym sa­ mym poprawić współczynnik kompresji obrazu. Uogólnie­ niem rozbicia o stałej wielkości Ri jest tzw. rozbicie pocz­ wórne obrazu (quadtree partitioning). Przy tym rozbiciu obraz kwadratowy jest dzielony na 4 mniejsze kwadraciki takiej samej wielkości. Przy użyciu pewnego algorytmicz­ nego kryterium każdy z tych kwadracików może być dalej rekursywnie dzielony. Algorytm kodowania obrazu 256 x 256 pikseli może prze­ biegać następująco. Wybierzmy jako zbiór dopuszczalnych dziedzin D zbiór złożony ze wszystkich małych kwadracików obrazu wielkości 8, 12, 16, 24, 32, 48 i 64. Dzielmy te­ raz rekursywnie nasz obraz przy użyciu metody poczwórnej tak długo, aż kwadraciki będą wielkości 32. Każdy kwadra­ cik rozbicia poczwórnego spróbujmy pokryć dziedziną, która byłaby od niego większa. Jeżeli błąd średniokwadratowy będzie mniejszy od pewnej z góry ustalonej wartości, to kwa­ dracik ten nazywamy a jego pokrycie (przez większą dzie­ dzinę) — Di. Jeżeli nie, dzielimy kwadrat po raz kolejny i po­ wtarzamy procedurę. Metoda ta pracuje jeszcze lepiej, jeżeli dopuścimy do zbioru dziedzin dopuszczalnych również kwa­ Ulii Dodatek . Omówienie fraktalnej kompresji obrazów 520 draciki położone ukośnie. Na rysunku D.8 przedstawiliśmy obraz owczarka collie, skompresowany przy użyciu tej me­ tody. Omówienie szczegółów tej, jak również dwóch innych metod (opisanych poniżej), odkładamy do następnego para­ grafu. O w czarek collie R ysunek D.8: Owczarek collie (256 x 256) skompresowany przy użyciu schematu poczwórnego. Współczynnik kompresji wynosi 28,95 : 1, błąd średniokwadratowy 8,5 R o z b ic ie H V Słabością rozbicia poczwórnego jest to, że nie próbuje ono wybierać zbioru dopuszczalnych dziedzin D w sposób zależny od tego, co dany obraz przedstawia. Zbiór ten musi być bardzo duży, by zawsze dało się znaleźć dziedzinę do­ brze pasującą do danego fragmentu obrazu. Jednym ze sposobów, w jaki możemy temu zaradzić, jednocześnie po­ prawiając elastyczność rozbicia na obrazy, jest użycie roz­ bicia HV (H V partitioning). W rozbiciu HV obraz pro­ stokątny jest rekursywnie dzielony tak długo, aż spełnione będzie pewne kryterium (jak przedtem). Schemat ten jest bardziej elastyczny, ponieważ zmienne jest położenie rozbi­ cia. Możemy wtedy próbować tak dzielić obraz, by roz­ bicie miało coś ze struktury samopodobnej. Na przykład możemy próbować układać rozbicia w taki sposób, by brzegi obrazu miały tendencję do diagonalnego przebiegania przez jego elementy. Możliwe jest użycie rozbicia większego, które D A . ozi S p o s o b y r o z b ija n ia o b r a z u pokrywałoby rozbicia mniejsze przy zachowaniu pewnych rozsądnych wymagań wobec „dobrego” rozbicia. Na ry­ sunku D.10 przedstawiamy tę ideę. Na rysunku D.10 (a) po­ kazujemy część obrazu; na rysunku (b) — pierwszy podział generuje dwa prostokąty: R \ , przez który krawędź przebiega ukośnie i i?2 — nie zawierający żadnej krawędzi; na rysunku (c) — następne trzy rozbicia iii dzielą go na 4 prostokąty, z których dwa mogą zostać dobrze pokryte przez iii (po­ nieważ krawędź przebiega przez nie na ukos) i dwa, które mogą zostać pokryte przez i i 2 (ponieważ nie przebiega przez nie żadna krawędź). Na rysuku D.9 przedstawiono obraz San Francisco, zakodowany przy użyciu tego schematu. S an F ran cisco Rysunek D.9: Obraz San Francisco (256 x 256) skompresowany przy użyciu schematu HV. Współczynnik kompresji wynosi 7,6 : 1, błąd średniokwadratowy 7,1 Jeszcze inny sposób rozbijania obrazu oparty jest na trój- R o zb icie kątach (tzw. rozbicie trójkątne, triangular partitioning). tr ó jk ą tn e W trójkątnym schemacie podziału prostokątny obraz zo­ staje podzielony ukośnie na dwa trójkąty. Każdy z nich jest następnie rekursywnie dzielony na 4 mniejsze trójkąty, które są otrzymywane przez podział trójkąta wzdłuż pro­ stych łączących trzy punkty podziału, leżące na trzech bo­ kach trójkąta. Metoda ta ma wiele zalet w porównaniu z me­ todą rozbicia HV. Jest ona elastyczniejsza, trójkąty w tym 522 Dodatek. Omówienie fraktainej kompresji obrazów Rysunek D.10: Schem at HV próbuje tworzyć sam opodobne p rostokąty w różnych skalach wielkości R ysunek D .ll: Rozbicie poczw órne (5008 kw adratów ), rozbicie HV (2910 prostokątów ) i rozbicie tró jk ątn e (2954 trójkątów ) schemacie można wybierać w taki sposób, by rozbicie miało pewne cechy samopodobieństwa, jak przedtem. Ale tym ra­ zem artefakty, biorące się z niedoskonałości pokrycia, nie biegną poziomo i pionowo, ale ukośnie, co mniej rozprasza. Ponadto trójkąty mogą być zorientowane w dowolny sposób, a zatem odchodzimy od obrotów o ustalone 90 stopni, które występowały w rozbiciu poczwórnym i rozbiciu HV. Ta me­ toda musi jeszcze zostać w pełni rozwinięta i zbadana. Na rysunku D . l l pokazujemy przykładowe rozbicia uzy­ skane w drodze trzech powyżej omówionych sposobów dzie­ lenia obrazu, zastosowanych do obrazu Lenny. D .5 . U w a g i im p le m e n ta c y jn e Z a p isy w a n ie W celu zwartego zapisania sposobu kodowania nie podak o d o w a n ia jemy wszystkich współczynników z równania (D.l). Ustaw sp o só b z w a rty wienia kontrastu i jasności są zapisywane przy użyciu usta­ lonej liczby bitów. Możemy na przykład obliczyć optymalne wartości Si i o*, a następnie zdyskretyzować je przed zapisem. Niemniej jednak wierność zapisu znacznie się poprawi, jeżeli U .5. Uwagi im p le m e n ta c y jn e nawet przy obliczaniu błędu w trakcie kodowania użyjemy tylko zdyskretyzowanych wartości i o* (równanie (D.3) to ułatwia). Użycie 5 bitów do zapisu Si i 7 bitów do zapisu 0 { wyznaczono empirycznie jako optymalne. Rozkład i 0{ wykazuje pewne nieregularności, a zatem dalszą kompresję można uzyskać za pomocą kodowania entropijnego. Pozostałe współczynniki są obliczane podczas dekodowa­ nia obrazu. W ich miejsce zapisujemy Ri i D{. Dla roz­ bicia poczwórnego Ri można kodować w porządku zapisu przekształceń, jeżeli tylko znamy wielkość Ri. Dziedziny Di należy zapisywać jako położenie i wielkość (oraz orienta­ cja, jeżeli dopuszczamy dziedziny diagonalne). To jednak nie wystarcza, istnieje bowiem 8 sposobów, w jaki możemy przekształcić wierzchołki Di na wierzchołki Ri. Musimy więc użyć dodatkowych trzech bitów do określenia tego obrotu i odbicia. W przypadku rozbicia HV i rozbicia trójkątnego zapi­ suje się je jako zbiór wartości poprawek. W miarę jak pro­ stokąty (albo trójkąty) rozbicia stają się mniejsze, do za­ pisu wartości poprawki potrzeba coraz mniej bitów. Roz­ bicie może zostać kompletnie zrekonstruowane przez proce­ durę dekodowania. Jeden bit zostaje zużyty do określenia, czy element rozbicia jest dalej dzielony, czy też jest używany jako natomiast zmienna liczba bitów jest potrzebna do określenia wskaźnika Di w wykazie wszystkich zbiorów roz­ bicia. Przy użyciu powyższych trzech metod możemy bez wielkiego trudu uzyskać kompresję o średnio 31 bitach na Wi. W przykładzie z paragrafu D.3 liczba przekształceń jest ustalona. Natomiast opisane algorytmy podziału obrazu dają się przystosować do zmiennej sytuacji w tym sensie, że używają one zmiennej wielkości przeciwdziedzin, w zależno­ ści od lokalnego stopnia złożoności obrazu. Przy ustalonym obrazie zwiększenie liczby przekształceń poprawia wierność, ale pogarsza kompresję. Ta przeciwstawność pomiędzy kom­ presją a wiernością prowadzi do dwóch różnych podęjść do kodowania / — jednego mającego na celu jak najlepszą wierność, a drugiego — jak najwyższą kompresję. Oba te podejścia są naszkicowane w poniższym pseudoprogramie. W programie tym wiel(Ri) odpowiada wielkości przeciwobrazu; w przypadku prostokątów wiel (Ri) jest długością dłuższego boku. 524 Dodatek. Omówienie fraktalnej kompresji obrazów O p ty m a liz a c ja Innym problemem jest czas kodowania, który można cz a su k o d o w a n ia znacznie skrócić przez użycie schematu klasyfikacji dziedzin i przeciwdziedzin. Zarówno dziedziny jak i przeciwdziedziny są klasyfikowane na podstawie pewnych kryteriów, jak na przykład sposób położenia względem nich krawędzi obrazu, czy też zorientowanie jasnych plamek itd. Zaoszczędzimy wiele czasu, jeżeli w trakcie poszukiwania pokrycia będziemy używać dziedzin z tej samej klasy, co dana przeciwdziedzina. Spodziewamy się, że dziedziny z tej samej klasy, co dana przeciwdziedzina, powinny pokrywać ją najlepiej. P seudoprogram a. Pseudoprogram mający na celu wierność e c. • Wybierz poziom tolerancji e c. • Połóż R i = 1 2 i zaznacz ją jako nie pokrytą. • Tak długo, jak długo istnieją nie pokryte dziedziny Ri , powtarzaj { • Spośród wszystkich możliwych dziedzin D wybierz tę, wraz z od­ powiadającym jej która najlepiej pokrywa Ri (czyli tę, która minimalizuje wyrażenie (D .2 )). • Jeżeli ó ( f n ( Ri x I ) , W i ( f ) ) < ec albo w ie l(Ą ) < r mi n, to • Zaznacz Ri jako pokryte i zapisz przekształcenie Wi, • w przeciwnym przypadku • Rozbij Ri na mniejsze przeciwdziedziny, które są zaznaczone jako nie pokryte, i usuń R i z wykazu nie pokrytych przeciw­ dziedzin. } b. Pseudoprogram mający na celu kompresję używającą N prze­ kształceń. • Wybierz docelową liczbę przeciwdziedzin N r . • Stwórz wykaz zawierający jedynie R i ~ I 2 i zaznacz ją jako nie pokrytą. • Ja k długo wykaz zawiera nie pokryte przeciwdziedziny, tak długo powtarzaj { • Dla każdej nie pokrytej przeciwdziedziny z wykazu odnajdź i za­ pisz tę dziedzinę Ą G D wraz z przekształceniem wi , która pokrywa je najlepiej, i zaznacz przeciwdziedzinę jako pokrytą. • Z wykazu wszystkich przeciwdziedzin wybierz tę, dla której w ie l(Ą ) > rmin i dla której wyrażenie S ( f n ( R j x I ) , Wj ( f ) ) przyjmuje największą wartość (tzn. tę, która jest najgorzej po­ kryta) u .o. uwagi lmpiemenzacyjne • Jeżeli liczba przeciw dziedzin w w ykazie je s t m niejsza niż N r, to { • Rozbij Rj na m niejsze przeciw dziedziny, dod aj je do w ykazu i zaznacz ja k o nie pokryte, • Usuń iZ j, Wj i Dj z w ykazu. } } • W ypisz w szystkie w i z w ykazu. ozo L iteratura 1. K sią ż k i C [1] Abraham, R. H., Shaw, C. D., D ynam ics, The Geometry of Behavior, cz.I - IV, Aerial Press, Santa Cruz., wyd. 2, Addison-Wesley, 1992. [2] Allgower, E., Georg, K., N um erical C ontinuation Methods — A n Introduction, SpringerVerlag, New York 1990. [3] Arnold, V. I., Ordinary D ifferential E quations, MIT Press, Cambridge 1973. Arnold, W. I., R ów nania różniczkowe zw yczajne, PW N, Warszawa 1975. [4] Avnir, D. (red.), The Fractal Approach to Heterogeneous Chemistry: Surfaces, Colloids, P olym ers, John W iley & Sons, Chichester 1989. [5] Banchoff, T. F., B eyond the Third D im ension, Scientific American Library, 1990. [6] Barnsley, M., Fractals Everywhere, Academic Press, San Diego 1988. [7] Beardon, A. F., Iteration o f Rational Functions, Springer-Verlag, New York 1991. [8] Becker K.-H., Dörfler, M., Computergraphische Experim ente m it Pascal, Vieweg, Braun­ schweig 1986. [9] Beckmann, P., A H istory o f Pi, wyd. 2, The Golem Press, Boulder 1971. [10] Belair, J., Dubuc, S., (red.), Fractal G eometry and A nalysis, Kluwer Academic PubL, Dordrecht, Holland 1991. [11] Billingsley, P., Ergodic Theory and In fo rm a tio n , John Wiley & Sons, New York 1967. [12] Billingsley, P., Probability and Measure, John W iley & Sons, New York, Chichester 1979. Billingsley, P., Prawdopodobieństwo i m iara, PW N, Warszawa 1987. [13] Bondarenko, B., Generalized Pascal Triangles and P yram ids, Their Fractals, Graphs and A pplications, Fan, Tashkent 1990. [14] Borwein, J. M., Borwein, P. B., P i and the A G M — A Study in A nalytic Number Theory, John W iley & Sons, New York 1987. [15] Briggs, J., Peat, F. D., Turbulent M irror, Harper & Row, New York 1989. [16] Bunde, A., Havlin, S. (red.), Fractals and Disordered System s, Springer-Verlag, Heidelberg 1991. [17] Campbell, D., Rose, H. (red.), Order in Chaos, North-Holland, Amsterdam 1983. [18] Chaitin, G. J., Algorithm ic Inform ation Theory, Cambridge University Press, Cambridge 1987. [19] Cherbit, G. (red.), Fractals, Non-integral D im ensions and Applications, John Wiley & Sons, Chichester 1991. [20] Collet, P., Eckmann, J.-P., Iterated M aps on the Interval as D ynamical System s, Birkhauser, Boston 1980. [21] Crilly, A. J., Earnshaw, R. A., Jones, H. (red.), Fractals and Chaos, Springer-Verlag, New York 1991. [22] Cvitanovic, P. (red.), Universality in Chaos, wyd. 2, Adam Hilger, New York 1989. [23] Devaney, R. L., A n Introduction to Chaotic D ynam ical System s, wyd. 2, Addison-Wesley, Redwood City 1989. [24] Devaney, R. L., Chaos, Fractals, and D ynam ics, Addison-Wesley, Menlo Park 1990. [25] Durham, T., Com puting H orizons, Addison-Wesley, Wokingham 1988. [26] Dynkin, E. B., Uspenski, W ., M athem atische Unterhaltungen II, VEB Verlag, Berlin 1968. [27] Edgar, G., Measure, Topology and Fractal G eom etry, Springer-Verlag, New York 1990. lite r a tu r a ÖZ( [28] Encarnacao, J. L., Peitgen, H.-O., Sakas, G., Englert, G., (red.), Fractal Geometry and Computer Graphics, Springer-Verlag, Heidelberg 1992. [29] Engelking, R., Teoria W ym iaru, PWN, Warszawa 1977. [30] Escher, M. C., The World o f M. C. Escher, H. N. Abrams, New York 1971. [31] Falconer, K., The Geometry of Fractal Sets, Cambridge University Press, Cambridge 1985. [32] Falconer, K.¡Fractal Geometry, M athematical Foundations and A pplications, John Wiley & Sons, New York 1990. [33] Family, F., Landau, D. P. (red.), Aggregation and Gelation, North-Holland, Amsterdam 1984.~ [34] Family, F., Vicsek, T. (red.), D ynam ics o f Fractal Surfaces, World Scientific, Singapore 1991. [35] Feder, J., Fractals, Plenum Press, New York 1988. [36] Fleischmann, M., Tildesley, D. J., Ball, R. C., Fractals in the Natural Sciences, Princeton University Press, Princeton 1989. [37] Garfunkel, S. (Project Director), Steen, L. A. (Coordinating Editor), For A ll Practical Purposes, wyd. 2, W. H. Freeman and Co., New York 1988. [38] GEO Wissen — Chaos und Kreativität, Grüner + Jahr, Hamburg 1990. [39] Gleick, J., Chaos, M aking a New Science, Viking, New York 1987. [40] Gnedenko, B. V., Kolmogorov, A. N., L im it distributions fo r sum s of independent random variables, Addison-Wesley, Reading (Mass.) - London 1968. [41] Golub, G. H., Loan, C. F. van, M atrix C om putations, wyd. 2, Johns Hopkins, Baltimore 1989. [42] Guckenheimer, J., Holmes, P., Nonlinear Oscillations, Dynamical System s, and Bifurca­ tions of Vector Fields, Springer-Verlag, New York 1983. [43] Guyon, E., Stanley, H. E., (red.), Fractal Forms, Elsevier/North-Holland and Palais de la Découverte, 1991. [44] Haken, H., Advanced Synergetics, Springer-Verlag, Heidelberg 1983. [45] Haldane, J. B. S., On Being the Right Size, 1928. [46] Hall, R., Illum ination and Color in Com puter Generated Im agery, Springer-Verlag, New York 1988. [47] Hao, B. L., Chaos II, World Scientific, Singapore 1990. [48] Hausdorff, F., Grundzüge der Mengenlehre, Verlag von Veit & Co., 1914. [49] Hirsch, M. W., Smale, S., Differential Equations, Dynamical System s, and Linear Algebra, Academic Press, New York 1974. [50] Hommes, C. H., Chaotic D ynam ics in Economic Models, Wolters-Noordhoff, Groningen 1991. [51] Huang, K., Statistical M echanics, John Wiley & Sons, New York 1966, rozdz. 8. [52] Jackson, E. A., Perspectives o f Nonlinear D ynam ics, t. 1, 2, Cambridge University Press, Cambridge 1991. [53] Knuth, D. E., The A rt o f Com puter Programming, t. 2, Sem inum erical Algorithms, Addison-Wesley, Reading (Mass.). [54] Kotz, S., Johnson, N. L., Encyclopedia o f Statistical Sciences, John W iley & Sons, New York 1982 [55] Kuratowski, C., Topologie II, PWN, Warszawa 1961. [56] Lauwerier, H., Fractals, Aramith Uitgevers, Amsterdam 1987. [57] Lehmer, D. H., Proc. 2 nd Sym posium on Large Scale Digital Calculating M achinery, Ha­ rvard University Press, Cambridge 1951. [58] Leven, R. W., Koch, B.-P., Pompe, B., Chaos in Dissipativen System en, Vieweg, Braun­ schweig 1989. [59] Lindenmayer, A., Rozenberg, G., (red.), A utom ata, Languages, Development, NorthHolland, Amsterdam 1975. [60] Mandelbrot, B.B., Fractals: Form, Chance, and D im ension, W. H. Freeman and Co., San Francisco 1977. 528 Literatura [61] Mandelbrot, B.B., The Fractal G eometry o f Nature, W. H. Freeman and Co., New York 1982. [62] Mandelbrot, B.B., Selecta Volume N: M ultifractals Sz 1 / f Noise: 1963-76. Springer, New York. [63] Mandelbrot, B.B., Selecta Volume N: Turbulence. Springer, New York. [64] Mane, R., Ergodic Theory and Differentiable D ynam ics, Springer-Verlag, Heidelberg 1987. [65] McGuire, M ., A n Eye fo r Fractals, Addison-Wesley, Redwood City 1991. [66] Menger, K ., D im ensionstheorie, Leipzig 1928. [67] Mey, J. de, Bornen van Pythagoras, Aramith Uitgevers, Amsterdam 1985. [68] Moon, F. C., Chaotic Vibrations, John Wiley Sz Sons, New York 1987. [69] Parchomenko, A. S., Was ist eine K u rve, VEB Verlag, 1957. [701 Parker, T. S., Chua, L. O., Practical N um erical Alqorithm s fo r Chaotic Systems, SpringerVerlag, New York 1989. [71] Peitgen, H.-O., Richter, P. H., The B eauty o f Fractals, Springer-Verlag, Heidelberg 1986. [72] Peitgen, H.-O., Saupe, D., (red.), The Science o f Fractal Im ages, Springer-Verlag, New York 1988. [73] Peitgen, H.-O. (red.), N ew ton’s M ethod and Dynam ical System s, Klüver Academic Publ., Dordrecht 1989. [74] Peitgen, H.-O., Jürgens, H., Fraktale: Gezähm tes Chaos, Carl Friedrich von Siemens Stiftung, München 1990. [75] Peitgen, H.-O., Henriques, J. M., Peneda, L. F., (red.), Fractals in the Fundamental and Applied Sciences, North-Holland, Amsterdam 1991. [76] Peitgen, H.-O., Jürgens, H., Saupe, D ., Malet sky, E., Perciante, T., Yunker, L., Fractals fo r the Classroom, Strategic A ctivities, t. 1, 2, Springer-Verlag, New York 1991, 1992. [77] Peters, E., Chaos and Order in the Capital M arket, John W iley Sz Sons, New York 1991. [78] Press, W. H., Flannery, B. P., Teukolsky, S. A., Vet ter ling, W. T., Numerical Recipes, Cambridge University Press, Cambridge 1986. [79] Preston, K. Jr., Duff, M. J. B., M odern Cellular A uto m a ta , Plenum Press, New York 1984. [80] Prigogine, I., Stenger, I., Order out o f Chaos, Bantam Books, New York 1984. [81] Prusinkiewicz, P., Lindenmayer, A., The Algorithm ic Beauty of P lants, Springer-Verlag, New York 1990. [82] Rasband, S. N., Chaotic D ynam ics o f Nonlinear System s, John W iley Sz Sons, New York 1990. [83] Renyi, A., Probability Theory, North-Holland, Amsterdam 1970. [84] Richardson, L. F., W eather Prediction by N um erical Process, Dover, New York 1965. [85] Ruelle, D., Chaotic Evolution and Strange A ttractors, Cambridge University Press, Cam­ bridge 1989. [86] Sagan, C., K o n ta kt, Express Books, Bydgoszcz 1991. [87] Schröder, M., Fractals, Chaos, Pow er Laws, W. H. Freeman and Co., New York 1991. [88] Schuster, H. G., D eterm inistic Chaos, VCH Publ., Weinheim, New York 1988. Schuster, H. G., Chaos determ inistyczny, PW N, Warszawa 1993. [89] Sparrow, C., The Lorenz Equations: Bifurcations, Chaos, and Strange A ttractors, Springer-Verlag, New York 1982. [90] Stanley H. E., Ostrowsky, N. (red.), F luctuations and P attern Form ation, Kluwer Acade­ mic Publ., Dordrecht-Boston 1988. [91] Stauffer, D., Introduction to Percolation Theory, Taylor Sz Francis, London 1985. [92] Stauffer, D., Stanley, H. E., From N ew ton to M andelbrot, Springer-Verlag, New York 1989. [93] Stewart, I., Does God Play Dice, Penguin Books, 1989. Stewart, I., Czy Bog gra w kosci, PW N, Warszawa 1994. [94] Stewart, I., Game, Set, and M ath, Basil Blackwell, Oxford 1989. [95] Thompson, D ’Arcy, On Growth an Form , New Edition, Cambridge University Press, Cam­ bridge 1942. [96] Toffoli, T., Margolus, N., Cellular A utom ata M achines, A New E nvironm ent For Model­ ling, MIT Press, Cambridge (Mass.) 1987. Literatura 529 [97] Vicsek> T., Fractal Growth Phenomena, World Scientific Publ. Co., London 1989. [98] Wade, N., The A rt and Science o f Visual Illusions, Routledge &; Kegan Paul, London 1982. [99] Wall, C. R., Selected Topics in Elem entary Number Theory, University of South Caroline Press, Columbia 1974. [100] Wegner, T., Peterson, M., Fractal Creations, Waite Group Press, Mill Valley 1991. [101] Weizenbaum, J., Com puter Power and H um an Reason, Penguin Books, 1984. [102] West, B., Fractal Physiology and Chaos in M edicine, World Scientific Publ. Co., Singapore 1990. [103] Wolfram, S., Farmer, J. D., Toffoli, T., (red.) Cellular Automata: Proceedings of an Interdisciplinary Workshop, w: Physica 10D , 1 i 2 (1984). [104] Wolfram, S. (red.), Theory and Application o f Cellular A utom ata , World Scientific Publ. Co., Singapore 1986. [105] Zhang Shu-yu, Bibliography on Chaos, World Scientific Publ. Co., Singapore 1991. 2. A r ty k u ły o g ó ln e [106] Aharony, A. Feder, J. (red.), Fractals in Physics, Physica D 3 8 (1989). [107] Barnsley, M. F., Fractal Modelling of Real World Images, w: The Science o f Fractal Images, H.-O. Peitgen, D. Saupe (red.), Springer-Verlag, New York 1988. [108] Cipra, B., A., Computer-drawn pictures stalk the wild trajectory, Science 241, 1162-1163 (1988). [109] Davis, C., Knuth, D. E., Number Representations and Dragon Curves, J. Recreational M ath. 3 , 66-81 oraz 133-149 (1970). [110] Dewdney, A. K., Computer Recreations: A computer microscope zooms in for a look at the most complex object in mathematics, Sei. A m . (August 1985) 16-25. [111] Dewdney, A. K., Computer Recreations: Beauty and profundity: the Mandelbrot set and a flock of its cousins called Julia sets, Sei. A m . (November 1987) 140-144. [112] Douady, A., Julia sets and the Mandelbrot set, w :The Beauty o f Fractals, H.-O. Peitgen, P. H. Richter (red.), Springer-Verlag, Heidelberg 1986. [113] Dyson, F., Characterizing Irregularity, Science 200, 677-678 (1978). [114] Gilbert, W. J., Fractal geometry derived from complex bases, Math. In te lI 4, 78-86 (1982). [115] Hofstadter, D. R., Strange attractors : Mathematical patterns delicately poised between order and chaos, Sei. Am . 245 (May 1982) 16-29. [116] Mandelbrot, B. B., How long is the coast of Britain? Statistical self-similarity and frac­ tional dimension, Science 15 5 , 636-638 (1967). [117] Peitgen, H.-O., Richter, P. H., Die unendliche Reise, Geo 6, (Juni 1984) 100-124. [118] Peitgen, H.-O., Haeseler, F. v., Saupe, D., Cayley’s problem and Julia sets, Math. Intell. 6, 2, 11-20 (1984). [119] Peitgen, H.-O., Jürgens, H., Saupe, D., The language of fractals, Sei. Am . (August 1990) 40-47. [120] Peitgen, H.-O., Jürgens, H., Fr akt ale: Computerexperimente (ent) zaubern komplexe Strukturen, w.Ordnung und Chaos in der unbelebten und belebten N atur, Verhandlungen der Gesellschaft Deutscher Naturforscher und Ärzte, 115. Versammlung, Wissenschaftliche Verlagsgesellschaft, Stuttgart 1989. [121] Peitgen, H.-O., Jürgens, H., Saupe, D., Zahlten, C., Fractals — A n A nim ated D iscussion, film wideo, W. H. Freeman and Co. 1990. W języku niemieckim jako: Fraktale in Film en und Gesprächen, Spektrum Videothek, Heidelberg 1990. [122] Ruelle, D., Strange Attractors, Math. Inteil. 2 , 126-137 (1980). [123] Stewart, I., Order within the chaos game? Dyn. Newsl. 3 , 2, 3, 4-9 (1989). [124] Sved, M. Divisibility — With Visibility, Math. Intell. 10, 2, 56-64 (1988). [125] Voss, R., Fractals in Nature, w: The Science o f Fractal Im ages, H.-O. Peitgen, D. Saupe (red,), Springer-Verlag, New York 1988. [126] Wolfram, S., Geometry of binomial coefficients, A m . Math. M on. 91, 566-571 (1984). 530 Literatura 3. A r ty k u ły b a d a w c z e 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 Abraham, IŁ, Simulation of cascades by video feedback, w:Structural Stability, the The­ ory o f Catastrophes, and Applications in the Sciences, P. Hilton (red.), Lecture N otes in M athem atics 525, 10-14, Springer-Verlag, Berlin 1976. Aharony, A., Fractal growth, w: Fractals and Disordered System s, A. Bunde, S. Havlin (red.), Springer-Verlag, Heidelberg 1991. Bak, P., The devil’s staircase, Phys. Today 39, 38-45 (1986). Bandt, C., Self-similar sets I. Topological Markov chains and mixed self-similar sets, Math. N achr. 142, 107-123 (1989). Bandt, C., Self-similar sets III. Construction with sofic systems, Monatsh. Math. 108, 89-102 (1989). Banks, J,, Brooks, J., Cairns, G., Davis, G., Stacey, P., On Devaney’s definition of chaos, A m . Math. M on. 99, 4, 332-334 (1992). Barnsley, M. F., Demko, S., Iterated function systems and the global construction of fractals, Proc. R. Soc. Lond. A 3 9 9 , 243-275 (1985). Barnsley, M. F., Ervin, V., Hardin, D., Lancaster, J., Solution of an inverse problem for fractals and other sets, Proc. Natl. Acad, Set. 83, 1975-1977 (1986). Barnsley, M. F., Elton, J. H., Hardin, D. P., Recurrent iterated function systems, Con­ structive A pproxim ation 5, 3-31 (1989). Batrouni, G. G., Hansen, A., Roux, S., Negative moments of the current spectrum in the random-resistor network, Phys. Rev. A 38, 3820 (1988). Bedford, T., Dynamics and dimension for fractal recurrent sets, J. London M ath. Soc. 33, 89-100 (1986). Benedicks, M., Carleson, L., The dynamics of the Henon map, A nn. Math. 133, 1, 73-169 (1991). Benettin, G. L., Galgani,L., Giorgilli, A., Strelcyn, J.-M., Lyapunov characteristic expo­ nents for smooth dynamical systems and for Hamiltonian systems; a method for computing all of them. Część 1: Theory, Część 2: Numerical application, Meccanica 15, 9, 21 (1980). Benzi, R., Paladin, G., Parisi, G., Vulpiani, A., On the multifractal nature of fully deve­ loped turbulence and chaotic systems, J. Phys. A 17, 3521 (1984). Berger, M,, Encoding images through transition probabilities, Math. Comput. Model. 11, 575-577 (1988). Berger, M., Images generated by orbits of 2D-Markoc chains, Chance 2, 18-28 (1989). Berry, M. V., Regular and irregular motion, w: Jorna S. (red.), Topics in Nonlinear D ynam ics, A m . Inst, o f Phys. Conf. Proc. 46, 16-120 (1978). Blanchard, P., Complex analytic dynamics on the Riemann sphere, Bull. A m . Math. Soc. 11, 85-141 (1984). Blumenfeld, R., Meir, Y., Aharony, A., Harris, A. B., Resistance fluctuations in random diluted networks, Phys. Rev. B 35, 3524-3535 (1987). Blumenfeld, R., Aharony, A., Breakdown of multifractal behavior in diffusion limited aggregates, Phys. Rev. Lett. 62, 2977 (1989). Borwein, J. M., Borwein, P. B., Bailey, D. H., Ramanujan, modularequations, and appro­ ximations to 7r, or how to compute one billion digits of 7r, A m . Math. Mon. 96, 201-219 (1989). Brent, R. P., Fast multiple-precision evaluation of elementary functions, J. Assoc. Comput. Mach. 23, 242-251 (1976). Brolin, H., Invariant sets under iteration of rational functions, Arkiv. Mat. 6, 103-144 (1965). Cantor, G., Uber unendliche, lineare Punktmannigfaltigkeiten V, Math. A nn. 21, 545-591 (1883). Carpenter, L., Computer rendering of fractal curves and surfaces, Comput. Graph. (1980) 109 i in. Literatura 531 [152] Caswell, W. E., Yorke, J. A., Invisible errors in dimension calculations: geometric and systematic effects, w: Dim ensions and Entropies in Chaotic System s, G. Mayer-Kress (red.), Springer-Verlag, Berlin 1986 i 1989, s. 123-136. [153] Cayley, A., The Newt on-Fourier Imaginary Problem, Am . J . Math. 2, 97 (1879). [154] Charkovsky, A. N., Coexistence of cycles of continuous maps on the line, Ukr. Mat. J. 16, 61-71 (1964). [155] Chhabra, A., Jensen, R.V., Direct determination of the f{oi) singularity spectrum, Phys. Rev. L e tt 62, 1327 (1989). [156] Coleman, P. H., Pietronero, L., The fractal structure of the universe, Phys. Rep. 213, 6, 311-389 (1992). [157] Corless, R. M., Continued fractions and chaos, A m . Math. M on. 99, 3, 203-215 (1992). [158] Corless, R. M., Prank, G. W., Monroe, J. G., Chaos and continued fractions, Physica D 46, 241-253 (1990). [159] Cremer, H., Uber die Iteration rationaler Funktionen, Jahresberichte der Deut. Math. Vereinigung 33, 185-210 (1925). [160] Crutchfield, J., Space-time dynamics in video feedback, Physica 10D , 229-245 (1984). [161] Dekking, F. M., Recurrent Sets, Adv. in Math. 44, 1, 78-104 (1982). [162] Derrida, B., Gervois, A., Pomeau, Y., Universal metric properties of bifurcations of endomorphisms, J. Phys. A: Math. Gen. 12, 3, 269-296 (1979). [163] Devaney, R., Nitecki, Z,, Shift Automorphism in the Hénon Mapping, Com m un. Math. Phys. 67, 137-146 (1979). [164] Douady, A., Hubbard, J. H., Iteration des pôlynomes quadratiques complexes, C R A S Paris 294, 123-126 (1982). [165] Douady, A., Hubbard, J. H., Etude dynamique des pôlynomes complexes, Publications M athématiques d ’Orsay 84-02 Université de Paris-Sud, 1984. [166] Douady, A., Hubbard, J. H., On the dynamics of polynomial-like mappings, A nn. Sci. Ecole Norm. Sup. 18, 287-344 (1985). [167] Dress, A. W. M., Gerhardt, M., Jaeger, N. I., Plath, P. J, Schuster, H., Some proposals concerning the mathematical modelling of oscillating heterogeneous catalytic reactions on metal surfaces, w: L. Rensing, N. I. Jaeger (red.), Temporal Order, Springer-Verlag, Berlin 1984. [168] Dubuc, S., Elqortobi, A., Approximations of fractal sets, J. Comput. Appl. Math. 29, 79-89 (1990). [169] Eckmann, J.-P., Ruelle, D., Ergodic theory of chaos and strange attractors, Rev. Mod. Phys. 57, 3, 617-656 (1985). [170] Eckmann, J.-P., Kamphorst, S. O., Ruelle, D., Ciliberto, S., Liapunov exponents from time series, Phys. Rev. 34A, 4971-4979 (1986). [171] Elton, J., An ergodic theorem for iterated maps, J. Ergod. Theory D ynam . Sys. 7, 481-488 (1987). [172] Evertsz, C.J.G., Mandelbrot, B.B., Harmonic measure around a linearly self-similar tree J. Phys. A 25, 1781-1797 (1992). [173] Evertsz, C.J.G., Mandelbrot, B.B., Woog, L.: Variability of the form and of the harmonic measure for small off-off-lattice diffusion-limited aggregates, Phys. Rev. A 45, 5798 (1992). [174] Faraday, M., On a peculiar class of acoustical figures, and on certain forms assumed by groups of particles upon vibrating elastic surfaces, Philos. Trans. R. Soc. London 121, 299-340 (1831). [175] Farmer, D., Chaotic attractors of an infinite-dimensional system, Physica 4D, 366-393 (1982). [176] Farmer, J. D., Ott, E., Yorke, J. A., The dimension of chaotic attractors, Physica 7D, 153-180 (1983). [177] Fatou, P., Sur les equations fonctionelles, Bull. Soc. Math. Fr. 47, 161-271 (1919), 48, 33-94, 208-314 (1920). [178] Feigenbaum, M. J., Universality in complex discrete dynamical systems, w: Los Alam os Theoretical D ivision A nnual Report, 98-102 (1977). 532 Literatura 179] Feigenbaum, M. J., Quantitative universality for a class of nonlinear transformations, J. S ta t Phys. 19, 25-52 (1978). 180] Feigenbaum, M. J., Universal behavior in nonlinear systems, Physica 7D, 16-39 (1983) i w: Campbell, D., Rose, H. (red.), Order in Chaos, North-Holland, Amsterdam 1983. 181] Feigenbaum, M. J., Some characterizations of strange sets, J. S ta t. Phys. 46, 919-924 (1987). 182] Feit, S. D., Characteristic exponents and strange attractors, Commun. Math. Phys. 61, 249-260 (1978). 183] Fine, N, J., Binomial coefficients modulo a prime number, A m . Math. Mon. 54, 589 (1947). 184] Fisher, Y., Boss, R. D., Jacobs, E. W ., Fractal Image Compression, w: Data Compression, J, Storer (red.), Kluwer Academic Publ., Norwell, MA (w druku), 185] Fournier, A., Fussell, D,, Carpenter, L., Computer rendering of stochastic models, Com­ m un. A C M 25, 371-384 (1982). 186] Franceschini, V., A Feigenbaum sequence of bifurcations in the Lorenz model, J. Stat. Phys. 22, 397-406 (1980). 187] Fraser, A. M., Swinney, H. L., Independent coordinates for strange attractors from mutual information, Phys. Rev. A 33, 1034-1040 (1986). 188] Frederickson, P., Kaplan, J. L., Yorke, S. D., Yorke, J. A., The Liapunov dimension of strange attractors, J. Differ. Equ. 49, 185-207 (1983). 189] Frisch, U., Parisi, G., Fully developed turbulence and intermittency, w: Turbulence and Predictability o f Geophysical Flows and Climate D ynam ics, Proc. of the International School of Physics “Enrico Fermi,”, Course LXXXVIII, Varenna 9083, Ghil, M., Benzi, R., Parisi, G .,(red.), North-Holland, New York 1985. 190] Frisch, U., Vergassola, M., A prediction of the multifractal model: the intermediate dissi­ pation range, Europhys. Lett. 14, 439 (1991), 191] Geist, K., Parlitz, U., Lauterborn, W ., Comparison of Different Methods for Computing Lyapunov Exponents, Prog. Theor. Phys. 83, 5, 875-893 (1990). 192] Goodman, G. S., A probabilist looks at the chaos game, w: Fractals in the Fundamental and Applied Sciences, H.-O. Peitgen, J. M. Henriques, L. F. Peneda (red.), North-Holland, Amsterdam 1991. 193] Grassberger, P., On the fractal dimension of the Henon attractor, Phys. Lett. 97A, 224226 (1983). 194] Grassberger, P., Procaccia, I., Measuring the strangeness of strange attractors, Physica 9D, 189-208 (1983). 195] Grassberger, P., Procaccia, I., Characterization of Strange Attractors, Phys. Rev. Lett. 50, 346 (1983). 196] Grebogi, C., Ott, E., Yorke, J. A., Crises, sudden changes in chaotic attractors, and transient chaos, Physica 7D, 181-200 (1983). 197] Grebogi, C., Ott, E., Yorke, J. A., Attractors of an N-torus: quasiperiodicity versus chaos, Physica 15D, 354 (1985). 198] Grebogi, C., Ott, E., Yorke, J. A., Critical exponents of chaotic transients in nonlinear dynamical systems, Phys. Rev. Lett. 37, 11, 1284-1287 (1986). 199] Grebogi, C., Ott, E., Yorke, J. A., Chaos, strange attractors, and fractal basin boundaries in nonlinear dynamics, Science 238, 632-638 (1987). 200] Großman, S., Thomae, S., Invariant distributions and stationary correlation functions of one-dimensional discrete processes, Z. Naturforsch. 32, 1353-1363 (1977). 201] Haeseler, F. v., Peitgen, H.-O., Skordev, G., Pascal’s triangle, dynamical systems and attractors, w: Ergodic Theory and D ynamical System s. Report Nr. 250, Institut für Dy­ namische Systeme, Universität Bremen. 202] Haeseler, F. v., Peitgen, H.-O., Skordev, G., Cellular Automata, Matrix Substitutions and Fractals, w: A nn. Math. A rtif. Intell, Report Nr. 270, Institut für Dynamische Systeme, Universität Bremen. 203] Haeseler, F. v., Peitgen, H.-O., Skordev, G., On the Fractal Structure of Lim it Sets of Cellular A utom ata and A ttractors of Dynamical System s, Manuskript. Report Nr. 285, Institut für Dynamische Systeme, Universität Bremen. Literatura úóó [204] Halsey, T, C., Jensen, M. H., Kadanoff, L. P., Procaccia, I., Shraiman, B. I., Fractal measures and their singularities: The characterization of strange sets, Phys. Rev. A 33, 1141 (1986). [205] Hart, J, C., DeFanti, T., Efficient anti-aliased rendering of 3D-linear fractals, Comput. Graph. 25, 4, 289-296 (1991). [206] Hart, J. C., Sandin, D. J., Kauffman, L. H., Ray tracing deterministic 3-D fractals, Com­ put. Graph. 23, 3 91-100 (1989). [207] Hausdorff, F., Dimension und äußeres Maß, Math. Ann. 79, 157-179 (1918). [208] Hénon, M., A two-dimensional mapping with a strange attractor, Com m un. Math. Phys., 50, 69-77 (1976). [209] Hentschel, H. G. E., Procaccia, I., The infinite number of generalized dimensions of fractals and strange attractors, Physica 8 D , 435-444 (1983). [210] Hepting, D., Prusinkiewicz, P., Saupe, D., Rendering methods for iterated function sy­ stems, w: Fractals in the Fundamental and Applied Sciences, H.-O. Peitgen, J. M. Henriques, L. F. Peneda (red.), North-Holland, Amsterdam 1991. [211] Hilbert, D., Uber die stetige Abbildung einer Linie auf ein Flächenstück, M ath. A nn. 38, 459-460 (1891). [212] Holte, J., A recurrence relation approach to fractal dimension in Pascal’s triangle?i In ter­ national Congress o f Math. 1990. [213] Hutchinson, J., Fractals and self-similarity, Indiana Univ. J. Math. 30, 713-747 (1981). [214] Jacquin, A. E., Image coding based on a fractal theory of iterated contractive image transformations, IE E E Trans. Signal Process., 1992. [215] Judd, K., Mees, A. I., Estimating dimensions with confidence, Int. J . Bifurcation Chaos 1, 2, 467-470 (1991). [216] Julia, G., Mémoire sur l’iteration des fonctions rationnelles, J. Math. Pure Appl. 8, 47-245 (1918). [217] Jürgens, H., 3D-rendering of fractal landscapes, w: Fractal Geometry and C om puter Gra­ phics, J. L. Encarnacao, H.-O. Peitgen, G. Sakas, G. Englert (red.), Springer-Verlag, Heidelberg 1992. [218] Kaplan, J. L., Yorke, J. A., Chaotic behavior of multidimensional difference equations, w: Functional D ifferential Equations and Approxim ation o f Fixed P oints, H.-O. Peitgen, H. O. Walther (red.), Springer-Verlag, Heidelberg 1979. [219] Kawaguchi, Y., A morphological study of the form of nature, Comput. Graph. 16, 3 (1982). [220] Koch, H. von, Sur une courbe continue sans tangente, obtenue par une construction géométrique élémentaire, Ark. Mat. 1, 681-704 (1904). [221] Koch, H. von, Une méthode géométrique élémentaire pour l’étude de certaines questions de la théorie des courbes planes, Act. Math. 30, 145-174 (1906). [222] Kummer, E, E., Uber Ergänzungssätze zu den allgemeinen Reziprozitätsgesetzen, J. fü r die reine und angewandte M athem atik 44, 93-146 (1852). [223] Lauterborn, W., Acoustic turbulence, w: Frontiers in Physical Acoustics, D. Sette (red.), North-Holland, Amsterdam 1986, s. 123-144. [224] Lauterborn, W., Holzfuss, J., Acoustic chaos, Int. J. Bifurcation Chaos 1 , 1 , 13-26 (1991). [225] Li, T.-Y., Yorke, J. A., Period three implies chaos, A m . M ath. M on. 82, 985-992 (1975). [226] Lindenmayer, A., Mathematical models for cellular interaction in development, cz. I i II, J. Theor. Biol. 18, 280-315 (1968). [227] Lorenz, E. N., Deterministic non-periodic flow, J. A tm os. Sei. 20, 130-141 (1963). [228] Lorenz, E. N., The local structure of a chaotic attractor in four dimensions, Physica 1 3 D , 90-104 (1984). [229] Lovejoy, S., Mandelbrot, B. B., FYactal properties of rain, and a fractal model, Tellus 37A, 209-232 (1985). [230] Lozi, R., Un attracteur étrange (?) du type attracteur de Hénon, J. Phys. (Paris) 39, (Coll. C5) 9-10 (1978). [231] Mandelbrot, B. B., Ness, J. W. van, Fractional Brownian motion, fractional noises and applications, S IA M Rev. 10, 4, 422-437 (1968). 534 Literatura [232] Mandelbrot, B, B., Intermittent turbulence in self-similar cascades: divergence of high moments and dimension of the carrier, J. Fluid Mech. 62, 331 (1974). [233] Mandelbrot, B. B., Fractal aspects of the iteration of z >—►Az(l —z) for complex A and z, A nn. N Y Acad. Set. 357, 249-259 (1980). [234] Mandelbrot, B. B., Comment on computer rendering of fractal stochastic models, Comm un. A C M 25, 8, 581-583 (1982). [235] Mandelbrot, B. B., Self-affine fractals and fractal dimension, Phys. Scr. 32, 257-260 (1985). [236] Mandelbrot, B. B., On the dynamics of iterated maps V: conjecture that the boundary of the M-set has fractal dimension equal to 2, w: Chaos, Fractals and D ynam ics, Y. Fischer, A.R. Smith (red.), Marcel Dekker, 1985. [237] Mandelbrot, B. B., An introduction to multifractal distribution functions, w: Fluctuations and P attern F orm ation, H. E. Stanley, N. Ostrowsky (red.), Kluwer Academic Publ., Dordrecht 1988. [238] Mandelbrot, B. B., Multifractal measures, especially for the Geophysicist, Pure Appl. Geophys. 131, 5-42 (1989) i w: F luctuations and P attern Formation (Cargese 1988), H. E. Stanley, N. Ostrowsky, red., Kluwer Academic Publ, Dordrecht-Boston 1988, s. 345360. [239] Mandelbrot, B. B., Negative fractal dimensions and multifractals, Physica A 163, 306-315 (1990). [240] Mandelbrot, B. B., Evertsz, C. J. G., The potential distribution around growing fractal clusters, N ature 348, 143-145 (1990). [241] Mandelbrot, B. B., New “anomalous” multiplicative multifractals: left-sided f ( a ) and the modeling of DLA, Physica A 168, 95-111 (1990), [242] Mandelbrot, B. B., Evertsz, C. J. G., Hayakawa, Y., Exactly self-similar left-sided multi­ fractal measures, Phys. Rev. A 42, 4528-4536 (1990). [243] Mandelbrot, B. B., Random multifractals: negative dimensions and the resulting limita­ tions of the thermodynamic formalism, Proc. R. Soc. Lond. A 434, 88-97 (1991). [244] Mandelbrot, B. B., Evertsz, C. J. G., Left-sided multifractal measures, w: Fractals and Disordered S ystem s, A. Bunde, S. Havlin (red.), 1991, s. 322-344. [245] Mandelbrot, B. B., Evertsz, C. J. G., Multifractality of the harmonic measure on fractal aggregates, and extended self-similarity, Physica A 177, 386-393 (1991). [246] Mane, R., On the dimension of the compact invariant set of certain nonlinear maps, w: D ynam ical System s and Turbulence, Warwick 1980, Lecture Notes in Math. 898, SpringerVerlag, 230-242 (1981). [247] Marotto, F. R., Chaotic behavior in the Henon mapping, Comm un. Math. Phys. 68, 187-194 (1979). [248] M atsushita, M., Experimental Observation of Aggregations, w: The Fractal Approach to Heteroqeneous Chemistry: Surfaces, Colloids, P olym ers, D. Avnir (red.), John Wiley & Sons, Chichester 1989. [249] Mauldin, R. D., W illiams, S. C., Hausdorff dimension in graph directed constructions, Trans. A m . M ath. Soc. 309, 811-829 (1988). [250] May, R. M., Simple mathematical models with very complicated dynamics, Nature 261, 459-467 (1976). [251] Meneveau, C., Sreenivasan, K. R., Simple multifractal cascade model for fully developed turbulence. Phys. Rev. Lett. 59, 1424 (1987). [252] Meneveau, C., Sreenivasan, K.R., A method for the direct measurement of / ( a ) of multi­ fractals, and its applications to dynamical systems and fully developed turbulence, Phys. Lett. A 137, 103 (1989). [253] Meneveau, C., Sreenivasan, K.R., Multifractal nature of turbulent energy dissipation, J. Fluid Mech. 224, 429 (1991). [254] Menger, K., Allgemeine Räume und charakteristische Räume, Zweite Mitteilung: Uber umfassenste n-dimensionale Mengen, Proc. Acad. A m sterdam 29, 1125-1128 (1926). U1LV1 UL Ul ¿t (JU U [255] Misiurewicz, M., Strange Attractors for the Lozi Mappings, w: Nonlinear D ynam ics, R. H. G. Helleman (red.), A n n . N. Y. Acad. Sci. 357, 348-358 (1980). [256] Mitchison, G. J., Wilcox, M., Rule governing cell division in Anabaena, Nature 239, 110-111 (1972). [257] Mullin, T., Chaos in physical systems, w: Fractals and Chaos, Crilly, A. J., Earnshaw, R. A., Jones, H. (red.), Springer-Verlag, New York 1991. [258] Musgrave, K., Kolb, C., Mace, R., The synthesis and the rendering of eroded fractal terrain, Comput. Graph. 24 (1988). [259] Norton, V. A., Generation and display of geometric fractals in 3-D, Comput. Graph. 16, 3, 61-67 (1982). [260] Norton, V. A., Julia sets in the quaternions, Comput. Graph. 13, 2, 267-278 (1989). [261] Olsen, L. F., Degn, H., Chaos in biological systems, Q. Rev. Biophys. 18, 165-225 (1985). [262] Paladin, G., Vulpiani, A., Anomalous scaling laws in multifractal objects, Phys. Rep. 156, 145 (1987). [263] Packard, N. H., Crutchfield, J. P., Farmer, J. D., Shaw, R. S., Geometry from a time series, Phys. Rev. Lett. 45, 712-716 (1980). [264] Peano, G., Sur une courbe qui remplit toute une aire plane, Math. A nn. 36 157-160 (1890). [265] Peitgen, H. O., Priifer, M., The Leray-Schauder continuation method is a constructive ele­ ment in the numerical study of nonlinear eigenvalue and bifurcation problems, w: Func­ tional Differential Equations and Approxim ation o f Fixed P oints, H.-O. Peitgen, H.-O. Walther (red.), Springer Lecture Notes, Berlin 1979. [266] Pietronero, L., Evertsz, C., Siebesma, A. P., Fractal and multifractal structures in kinetic critical phenomena, w: Stochastic Processes in Physics and Engineering, S. Albeverio, P. Blanchard, M. Hazewinkel, L. Streit (red.), D. Reidel Publ. Co., 1988, s. 253-278. [267] Peyriere, J., Multifractal measures, Proceedings of the NATO ASI Probabilistic Stochastic Methods in A nalysis, with Applications II Ciocco, July 14-27 (1991). [268] Pomeau, Y., Manneville, P., Intermittent transition to turbulence in dissipative dynamical systems, Commun. Math. Phys. 74, 189-197 (1980). [269] Prasad, R. R., Meneveau, C., Sreenivasan, K. R., Multifractal nature of the dissipation field of passive scalars in full turbulent flows, Phys. Rev. Lett. 61, 74-77 (1988). [270] Procaccia, I., Zeitak, R., Shape of fractal growth patterns: Exactly solvable models and stability considerations, Phys. Rev. Lett. 60, 2511 (1988). [271] Prusinkiewicz, P., Graphical applications of L-systems, Proc. Graph. Interface 1986 Vision Interface, 247-253 (1986). [272] Prusinkiewicz, P., Hanan, J., Applications of L-systems to computer imagery, w: Graph Grammars and their Application to Com puter Science; Third International W orkshop, H. Ehrig, M. Nagl, A. Rosenfeld, G. Rozenberg (red.), Springer-Verlag, New York 1988. [273] Prusinkiewicz, P., Lindenmayer, A., Hanan, J., Developmental models of herbaceous plants for computer imagery purposes, Comput. Graph. 22, 4, 141-150 (1988). [274] Prusinkiewicz, P., Hammel, M., Automata, languages, and iterated function systems, w: Fractals Modeling in 3-D Com puter Graphics and Imaging, A C M S IG G R A P H *91 Course Notes C14 J- C. Hart, K. Musgrave, (red.), 1991. [275] Rayleigh, Lord, On convective currents in a horizontal layer of fluid when the higher temperature is on the under side, Philos. Mag. 32, 529-546 (1916). [276] Reuter, L. Hodges, Rendering and magnification of fractals using iterated function sy­ stems, Ph. D. thesis, School of M ath., Georgia Institute o f Technology, 1987. [277] Richardson, R. L., The problem of contiguity: an appendix of statistics of deadly quarrels, General System s Yearbook 6, 139-187 (1961). [278] Rossler, O. E., An equation for continuous chaos, Phys. Lett. 57 A , 397-398 (1976). [279] Ruelle, F., Takens, F., On the nature of turbulence, Comm un. Math. Phys. 20, 167-192 (1971); 23, 343-344 (1971). [280] Russell, D. A., Hanson, J. D., Ott, E., Dimension of strange attractors, Phys. Rev. Lett. 45, 1175-1178 (1980). 536 Literatura [281] Salamin, E., Computation of 7T Using Arithmetic-Geometric Mean, M ath. Comput. 30, 135, 565-570 (1976). [282] Saltzman, B., Finite amplitude free convection as an initial value problem — I, J. Atm os. Sei. 19, 329-341 (1962). [283] Sano, M., Sawada, Y., Measurement of the Lyapunov spectrum from a chaotic time series, Phys. Rev. L e tt 55, 1082 (1985). [284] Saupe, D., Efficient computation of Julia sets and their fractal dimension, Physica D 28, 358-370 (1987). [2851 Saupe, D., Discrete versus continuous N ew ton’s method : A case study, A cta Appl. Math. 13, 59-80 (1988). [286] Saupe, D., Point evalutions of multi-variable random fractals, w: Visualisierung in M a­ them atik und N aturw issenschaften - B rem er Computergraphiktage 1988, H. Jürgens, D. Saupe (red.), Springer-Verlag, Heidelberg 1989. [287] Sernetz, M., Gelleri, J3., Hofman, F., The Organism as a Bioreactor, Interpretation of the Reduction Law of Metabolism in terms of Heterogeneous Catalysis and Fractal Structure, J. Theor. Biol. 117, 209-230 (1985). [288] Shanks, D., Wrench, J. W. Jr., Calculation of n to 100,000 Decimals, M ath. Comput. 16, 77, 76-99 (1962). [289] Shaw, R., Strange attractors, chaotic behavior, and information flow, Z. Naturforsch. 3 6 a , 80-112 (1981). [290] Shishikura, M., The Hausdorff dimension of the boundary of the Mandelbrot set and Julia sets, SUNY Stony Brook, Institute for M athematical Sciences, Preprint # 1 9 9 1 /7 . [291] Shonkwiller, R., An image algorithm for computing the Hausdorff distance efficiently in linear time, Inf. Process. Lett. 30, 87-89 (1989). [292] Siebesma, A. P., Pietronero, P., Multifractal properties of wave functions for one­ dimensional system s with an incommensurate potential, Europhys. Lett. 4, 597-602 (1987). [293] Siegel, C. L., Iteration of analytic functions, A nn. M ath. 43, 607-616 (1942). [294] Sierpinski, W ., Sur une courbe cantorienne dont tout point est un point de ramification, C. R. Acad. P aris 160, 302 (1915). [295] Sierpinski, W ., Sur une courbe cantorienne qui contient une image biunivoquet et continue detoute courbe donnee, C. R. Acad. P aris 162, 629-632 (1916). [296] Simö, C., On the Henon-Pomeau attractor, J. S ta t. Phys. 21, 4, 465-494 (1979). [297] Smith, A. R., Plants, fractals, and formal languages, Comput. Graph. 18, 3, 1-10 (1984). [298] Stanley, H. E., Meakin, P., Multifractal phenomena in physics and chemistry, Nature 335, 405-409 (1988). [299] Stefan, P., A theorem of Sarkovski on the existence of periodic orbits of continuous endomorphisms of the real line, C om m un. M ath. Phys. 54, 237-248 (1977). [300] Stevens, R. J., Lehar, A. F., Preston, F. H., Manipulation and presentation of multidi­ mensional image data using the Peano scan, IE E E Trans. P attern Anal. Mach. IntelI. 5, 520-526 (1983). [301] Sullivan, D., Quasiconformal homeomorphisms and dynamics I, A nn. Math. 122, 401-418 (1985). [302] Sved, M., Pitm an, J., Divisibility of binomial coefficients by prime powers, a geometrical approach, A rs C om binatoria 26A, 197-222 (1988). [303] Takens, F., Detecting strange attractors in turbulence, w: D ynam ical System s and Tur­ bulence, W arwick 1980, Lecture Notes in Math. 898, Springer-Verlag, 366-381 (1981). [304] Tan Lei, Similarity between the Mandelbrot set and Julia sets, Report Nr 211, Institut für Dynamische Systeme, Universität Bremen, June 1989, oraz Com m un. Math. Phys. 134, 587-617 (1990). [305] Tel, T., Transient chaos, w: D irections in Chaos III, B.-L. Hao (red.), World Scientific Publ. Co., Singapore (w druku). [306] Thompson, J. M. T., Stewart, H. B., N onlinear D ynam ics and Chaos, John Wiley &; Sons, Chichester 1986. Ltizerazura oo ( [307] Velho, L., de Miranda Gomes, J., Digital halftoning with space-filling curves, C om put. Graph. 25,4, 81-90 (1991). [308] Voss, R. F., Random fractal forgeries, w: Fundam ental Algorithm s fo r Com puter Graphics, R. A. Earnshaw (red.), Springer-Verlag, Berlin 1985, s. 805-835. [309] Voss, R. F., Tomkiewicz, M., Computer Simulation of Dendritic Electrodeposition, J. Electrochem. Soc. 132, 2, 371-375 (1985). [310] Vrscay, E. R., Iterated function systems: Theory, applications and the inverse problem, w: Proceedings of the N A T O Advanced Study Institute on Fractal Geometry, July 1989, Kluwer Academic Publ., 1991. [311] Wall, C. R., Terminating decimals in the Cantor ternary set, Fibonacci Quart. 28, 2, 98-101 (1990). [312] Williams, R. F., Compositions of contractions, Bol.Soc. Brasil. Mat. 2, 55—59 (1971). [313] Willson, S., Cellular automata can generate fractals, Discrete Appl. M ath. 8, 91-99 (1984). [314] Witten, I. H., Neal, M., Using Peano curves for bilevel display of continuous tone images, IE E E Comput. Graph. Appl., May 1982, 47-52, [315] W itten, T.A., Sander, L.M., Diffusion limited aggregation: A kinetic critical phenomena, Phys. Rev. Lett. 47, 1400-1403 (1981) oraz Phys. Rev. B 27, 5686-5697 (1983). [316] Wolf, A., Swift, J. B., Swinney, H. L., Vastano, J. A., Determining Lyapunov exponents from a time series, Physica 16D , 285-317 (1985). [317] Yorke, J. A., Yorke, E. D., Metastable chaos: the transition to sustained chaotic behavior in the Lorenz model, J. Stat. Phys. 21, 263-277 (1979). [318] Young, L.-S., Dimension, entropy, and Lyapunov exponents, Ergod. Theory Dynam . Sys. 2, 109 (1982). [319] Zahlten, C., Piecewise linear approximation of isovalued surfaces, w: Advances in Scien­ tific Visualization, Eurographics Seminar Series, F. H. Post, A. J. S. Hin (red.), SpringerVerlag, Berlin 1992. Skorowidz adresy 390 - dla atraktorów IFS 398 - dla odcinków 114 - dla punktów 114, 395 - dla trójkąta Sierpińskiego 123, 393 - dla zbioru Cantora 114, 398 odczytywanie 396 agregacja cząstek 466, 469 - limitowana dyfuzją 40, 469 Aleksandrów, Paweł 154 algorytm 62, 87 amonit 193 analiza obrazów kolorowych 418 anomalie w działaniu mózgu 88 Archimedes 22, 252 Arystoteles 175 A stronóm ica N ova 71 atraktor 310, 334, 384, 385 - , algorytm deterministyczny 430 - całkowicie niespójny 400 - dziwny 329 - Lorenza 329 pokrycie 431 - samoafiniczny 361 - samopodobny 361 atraktorletka 416, 435 Banach, Stefan 312, 339 Banacha zasada 339 Barnsley, Michael 64, 306, 329, 379, 416, 503 BASIC 97 - LINE 98 - PSET 98 - SCREEN 100 Beckmann, Petr 215 Berger, Marc 307 Bernoulli, Daniel 338 Bernoulli, Jacob 254 Besicovitch, A. S. 181 Bielefield, Ben 505 bliźniacza choinka 320 Borwein, Jonathan 213, 219 Borwein, Peter 213, 219 Boss, R. D. 505 Bourbaki 27 Bouyer, Martine 217 Brahe, Tycho 69 Branner, Bodil 33 Brent, R. P. 219 Brooks, R. 33, 34 Brouwer, Luitzen 154, 155 Brown, Robert 378 Cantor, Georg 102, 106, 154, 185 Casio fx-7000G 68 centralne twierdzenie graniczne 476 Ceulen, Ludolph von 214 chaos 81 ciąg arytmetyczny 253 - Cauchy’ego 341 collage 359 Cremer, Hubert 172 Crutchfield, James 45 Cusanus, Nicolaus 210 cykl 42, 63, 95 czuła zależność 81 czynnik redukcji 50 - wzrostu 75 Cech, Eduard 154 Dase, Johann 215, 216 defibrylacja serca 88 dekodowanie 335, 349 - obrazu 514 Demokryt 21 deterministyczne metody 420 diabelskie schody 296 — , brzeg 297 — , pole powierzchni 297 uoy öKorowiaz dithering 148 DLA 469 długość korelacji 459 Douady, A.drien 32 drzewa pitagorejskie 176 dywan Sierpińskiego 103, 125, 328 dziesiętna KWR 391 dziwny atraktor 329 efekt motyla 73 eksperyment Lorenza 79 Eudoksos 21 Euklides 23 Euler, Leonhard 200, 212, 338 — , równe prawdopodobieństwa 401 grafika komputerowa 18 granica 186, 341 grecki Złoty Wiek 21 Gregory, James 212 grono 451-453 Grossman, Siegfried 88 grupy Kleina 31 Guilloud, Jean 217 Hadamard, Salomon 171 Hausdorff, Felix 102, 312, 339 Herschel, Wilhelm 69 Hilbert, David 102, 154, 185 homeomorfizm 153, 154 HP 285 83 Hubbard, John 32 Hurewicz, Witold 154 Hutchinson, J. 230, 339, 346 Feigenbaum, Mitchell 88 Feller, William 30 Fermat, Pierre de 125 Fermi, Enrico 18 Fibonacci, Leonardo 57, 104 Fibonacci-Association 58 Fibonacci-Quarterly 58 Fibonacciego ciąg 57, 208 - liczby 57 Fourier, Jean Baptiste 338 Fouriera transformacja 219 fraktal 37 - deterministyczny 381 - Laplace’a 473 fraktalna kompresja obrazu 505 - geometria 40 funkcja logistyczna 92, 95, 96 Jacquin, A. 504 Jakobs, E. W. 505 jednostka kontroli 42 Jowisz 69 Julia, Gaston 27, 102 Galileusz 29, 190 Galie, Johann 69 Gauss, Carl 68, 213, 215, 216 gaussowskie liczby losowe 477 gąbka Mengera 103, 155 — , konstrukcja 155 generator 133 281 - liczb losowych 83, 409 Fibonacciego 428 liniowy kongruentny 427 środka kwadratu 428 Gleick, James 72 Goethe, Johann Wolfgang von 17 góry 38 gra w chaos 64, 379, 387 — , analiza 390 — , dobór prawdopodobieństw 416 Kadanoff, Leo 464 Kahane, I.P. 31 kalafior 103 kalkulator 68 Kartezjusz 20 Kepler, Johannes 69 Keplera model Układu Słonecznego 69 klasyczne fr akt ale 103 Klein, Felix 20, 18l Koch, Helge von 102, 206 kodowanie koła 321 - kwadratu 321, 353 - obrazów samopodobnych 356 - w systemie interakcyjnym 357 kompresja obrazów 332 kompresji współczynnik 332 kontrakcja 343 IFS 308 - hierarchiczny 363, 387 - , punkt stały 334 inicjator 133 iteracja graficzna 93, 424 iterowanie 42 540 kopiarka wielokrotnie redukująca 50 kopiarki podzielone 510 kostka do gry 65, 379 obciążona 408 symetryczna 401 krajobraz fraktałny 49 Krantz, S. 34 kryształ dendrytyczny 466 krzywa Hilberta 102, 186 - Kocha 102, 132, 197, 199, 260, 272 - Peana 102, 295 — , konstrukcja 138 — , samopodobieństwo 141 krzywe płaskie 162 Kummer, Ernst Eduard 183, 327 KW R 50, 334 - , atraktor 309 - deterministyczna 383 - dziesiętna 391 - losowa 384 plan konstrukcji 309, 316, 355 - połączone w sieć 363 przekształcenia 313 L-systemy 178 labirynt Cantora 321 Lagrange, Joseph 338 Lange, Ehler 421 Laplace, Pierre 410 Lebesgue, Henri 154, 157 Leibniz, Gottfried 41, 212 lewostronna niezmienniczość 310 liczby bezkwadratowe 213 - niewymierne 175 - pseudolosowe 420 - trójkowe 111 Lindemann, F. 217 linijka 391 LKWR 384 Lorenz, Edward 73, 79, 88 losowa krzywa 3 /2 449 Kocha 447, 448 losowe kolejne dodatki 495 - przemieszczanie środka odcinka 482 losowy płatek śniegu Kocha 449 - system iteracyjny 385 - trójkąt Sierpińskiego 449 Lucas, Edward 18 ludolfina 214 Skorowidz łańcuchowe rozwinięcie ułamkowe 222 Machin, John 214, 215 Magnum, Wilhelm 31 Mandelbrojt, Szolem 171 Mandelbrot, Benoit 102, 139, 171, 250 mapa À 32 - fi 32 Mars 69 matematyka eksperymentalna 15 - nieliniowa 18 - stosowana 16 Matsushita, Mitsugu 466 May, Robert 37, 74, 88 Mefistofeles 17 Menger, Karl 154 Merkury 69 Metelski, J.P. 33 metoda adresowania 390 - Cusanusa 211 - najmniejszych kwadratów 264, 517 - Newtona 226 - o zmiennej liczbie iteracji 430 metody Monte Carlo 410 metryka 340 - euklidesowa 340 - maksimum 341 - miasta 341 miara borelowska 419 - Hausdorffa 292 mieszanie 95 miotełka Cantora 167 - Knastera-Kuratowskiego 167 model logistyczny 78 monitor 43 Montel, Paul 29 Morgan, Augustus de 23 multifraktale 31, 291 Mumford, David 16 nachylenie prostej 264 nerka 138 Neumann, John von 18, 420 Newton, Isaac 41, 72, 134 Newtona metoda 56 nieregularności klimatu 88 niewspółmierność 175 niezmienniczość 234 541 Skorowidz niezmiennik topologiczny 153 obiekt graniczny 205 obliczenia Rutherforda 216 obraz, dekodowanie 385 - Lenny 505 obraz-cel 355 obrazy cieniowane 417 odległość euklidesowa 291 - Hausdorffa 204, 339, 345 operator 230 - Hutchinsona 63,317, 384 — , postać macierzowa 369 - Markowa 419 osadzanie elektrolityczne 466 otoczenie epsilonowe 345 pamięć ekranu 47 paproć niesamopodobna 362 paprotka Barnsleya 329 — , przekształcenia 329, 331 - Sierpińskiego 371 parametr 54, 67, 78, 92 parametry kontrolne 45 Pascal, Blaise 125 Peano, Giuseppe 138, 154, 301 perkolacja 451 Peyriere, J. 31 pierwiastek kwadratowy 54, 55 - z dwóch 208 PIFS 512 Pisano, Leonardo 57 Pitagoras z Samos 175 PKWR511 planety 69 Platon 23 Plutarch 22 płaszczyzna zespolona 172 płatek śniegu Kocha 132, 202 , pole powierzchni 203 podobieństwo 49, 188 podzielony system iteracyjny 512 Poincare, Henri 20, 154, 181 Pontrjagin, Lew 154 populacja rozwój 74 pożary lasów 451 prawa wzrostu 194 prawo potęgowe 265 Principia M athematica 186 problem królików 57 - odwrotny 336, 355, 418 proces dynamiczny 42 procesor 42, 49, 64 progowe skupisko perkolacji 458 projekt Manhattan 83 propagacja błędu 68 proportio divina 59 próg perkolacji 453 Prusinkiewicz, Przemysław 38 przejście fazowe 457 przekształcenie afiniczne 53, 299, 313 - Cantora 155 - konforemne 313 - kwadratowe 67 - liniowe 53, 313 - namiotowe 62, 146 - nieliniowe 175 - ostatecznie ściągające 513 - podobieństwa 49, 188, 273, 313 - zwężające 299, 343 przemieszczenie 474 przestrzeń adresów 398 - euklidesowa 291 - metryczna 340 — zupełna 341 przesunięcie dwójkowe 147 przewidywanie pogody 73, 79 przybliżenie 205, 207 - na poziomie pikseli 240 punkt stały 225, 226 - - dla IFS 334 - styku 397 punkt-uciekinier 119 punkt-więzień 119 punkt wiodący 65, 380 Ramanujan, Srinivasa 213 renormalizacja 461 Richardson, L. F. 181 Richter, Peter 33 romanesco 186 rozbicie obrazu HV 520 - poczwórne 519 trójkątne 521 rozkład Gaussa 475 - jednostajny 477 - normalny 475 rozwinięcie dwójkowe 111 542 rozwinięcie dziesiętne 111 - trójkowe 111 rozwój populacji 74 równanie charakterystyczne 238 - kwadratowe 41 - Laplace’a 473 - logistyczne 73, 81, 93, 420 ruch Browna 378, 447, 469 Ruelle, David 32 ruletka 64 Rutherford, William 216 rząd rozgałęzienia 165 Sagan, Carl 220 Salamin, Eugene 219 samoafiniczne obiekty 299 samopodobieństwo 103, 186 - afiniczne 197 - krzywej Peana 141 - lokalne 509 - obrazów 507 - siatkowe 240 - spirali logarytmicznej 256 - statystyczne 197, 489 - ścisłe 199 Santillana, G. de 24 Saturn 69 Shanks, Daniel 216 Shishikura, M. 35 Sierpiński, Wacław 102, 126, 185, 234 Sierpińskiego dywan 103, 123, 328 - paprotka 371 - trójkąt 102, 186, 199, 234, 309, 325 skalowanie 188 spirala Archimedesa 252 - , długość 256 - gładka 258 - logarytmiczna 192, 252, 254 - pierwiastków kwadratowych 176 - wielokątna 256 - złota 259 sprzężenie zwrotne 41, 43 — , cykl 43 deterministyczne 64 — , eksperyment 43 geometryczne 256 — , pętla 58, 317 — , system 50, 58 , urządzenie 41 Skorowidz — , zegar 42 stabilność 52 Stewart, łan 421 Stone, Marshall 27 Strassnitzky, L. K, von 215 Strömgren, Elis 72 struktura drzewopodobna 466 - samoafiniczna 145 Sucker, Britta 421 system dziesiętny 104 - iteracyjny 308 — deterministyczny 385 — losowy 385 szereg dla arcusa tangensa 214 - geometryczny 200, 257, 297 — , konstrukcja 201 - Gregory’ego 212 szeregi Fouriera 338 ścinanie 301 średnie przemieszczenie kwadratowe 474 Tan Lei 35 tempo metabolizmu 283 - wzrostu 268 teoria układów dynamicznych 311 testy statystyczne 428 Thomae, Stefan 88 Tombaugh, William 69 topologia 153 - przestrzeni metrycznych 339 trójkąt arytmetyczny 128 - Pascala 125 — , kolorowe kodowanie 127 - Sierpińskiego 51, 102, 186, 199, 234, 309, 325 turbulencja 88 układ dynamiczny 310 - dziesiętny 390 Ułam, Stanisław 18, 83, 420 ułamkowy ruch Browna 490, 489 , wymiar pudełkowy 491 uniwersalność dywanu Sierpińskiego 160 - gąbki Mengera 164 Urysohn, Paweł 154 Utah 270 Verhulst, Pierre 74 Verhulsta model 77 Skorowidz Vièta, François 212 Voss, R. 38 Voyager II 88 Wallis, J. R. 30 Wallis, John 212 Weierstrass, Karl 181 wejście 42, 49 Wenns 69 Wilson, Ken 464 Witten, E. 22 Wrench, John, Jr. 217 współcznnik kierunkowy prostej 264 - kontrakcji 344 - redukcji 275 - skali 188, 276 - zmniejszania 53 - zwężania 344 wybrzeże Wielkiej Brytanii 251 , długość 263 , wymiar pudełkowy 269 wyjście 42, 49, 60 wykładnik Hursta 491 wykres logarytmiczny 263 - dla krzywej Kocha 272 wymiar 274 - cyrklowy 281 - euklidesowy 274 - fraktalny 104, 152, 274 - Hausdorffa 152, 293 543 - informacyjny 274 - pojemnościowy 274 - pokryciowy 157, 159 - pudełkowy 152, 274, 285, 287 - samopodobieństwa 274, 278 - topologiczny 154 wzór Machina 214 wzrost alometryczny 196, 267 - ciała 194 - izometryczny 196 - proporcjonalny 196 zagadnienie trzech ciał 72 zależność dwustopniowa 56, 58 - prosta 54, 55, 58 zasada przekształcenia zwężającego 339 zbieżność ciągu 341 zbiór Cantora 102, 106, 186, 232, 324, 432 — , konstrukcja 107 - Julii 171, 172 - M 32 - Mandelbrota 32, 329 - zwarty 161 zjawiska nieliniowe 53 złota średnia 59 — , łańcuchowe rozwinięcie ułamkowe 224 złoty podział 72, 208 - stosunek 59 Zu Chong-Zhi 210