Uploaded by Senator Aligator

MSI lab AG FL SSN

advertisement
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
FL
SSN
METODY
SZTUCZNEJ
INTELIGENCJI
dr inż. Krzysztof Jaroszewski
Rozwój Sztucznej Inteligencji:
1950 Alan Turing – próba odpowiedzi na pytanie: kiedy program
lub maszyna są inteligentne?
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
Lata 50. XX wieku. Pierwsze laboratorium SI na Uniwersytecie
Carnegie Mellon (Allen Newell i Herbert Simon) i następnie
Massachusetts Institute of Technology (John McCarthy).
dr inż. Krzysztof Jaroszewski
Wstęp do tematyki
Plan zajęć
1956 John McCarthy – propozycja określenia Atrificial Intelligence
– konferencja na temat inteligentnych maszyn.
Lata 60. XX wieku – inteligencja obliczeniowa – opracowanie
pierwszych algorytmów uczących się maszyn, piewszy system
ekspertowy.
Lata 70. XX wieku – podwaliny teorii zbiorów, logiki rozmytej,
realizacja systemów ekspertowych, botów.
Lata 80. XX wieku – rozwój robotyki.
Rozwój dzięki wzrostowi ilości dostępnych danych i mocy przetwarzania
Metody Sztucznej Inteligencji
3
Idea rozwoju i funkcjonowania organizmu w środowisku
została wykorzystana do rozwiązywania zadań optymalizacji.
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Algorytmy genetyczne
Plan zajęć
Środowisko definiowane jest na podstawie rozwiązywanego
problemu.
W środowisku tym żyje populacja osobników stanowiąca
potencjalne rozwiązanie danego zagadnienia.
Przy pomocy odpowiedniej funkcji przystosowania sprawdza się
w jakim stopniu osobniki są przystosowane do środowiska.
Osobniki wymieniają materiał genetyczny – potomstwo; operatory
krzyżowania i mutacji – generowanie nowych rozwiązań.
Spośród
potencjalnych
przystosowane.
Metody Sztucznej Inteligencji
rozwiązań
pozostają
najlepiej
5
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Algorytmy genetyczne
Plan zajęć
Metody Sztucznej Inteligencji
6
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Logika rozmyta
Plan zajęć
Metody Sztucznej Inteligencji
7
Klasyczna teoria zbiorów i logika dwuwartościowa nie pozwalają
formalnie opisać zjawisk i pojęć, które mają charakter
wieloznaczny i nieprecyzyjny. Pozwala na to teoria zbiorów
rozmytych.
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Logika rozmyta
Plan zajęć
Logika rozmyta pozwala formalnie określić pojęcia takie jak:
„wysoka gorączka”,
„średni wiek”,
„poruszyć szybciej”,
„zamknąć bardziej”.
Obszar rozważań, to zakres, zbiór, w którym definiujemy pojęcia
wieloznaczne, nieprecyzyjne. Jest to zbiór nierozmyty.
Zbiorem rozmytym A w pewnej niepustej przestrzeni rozważań
X nazywa się zbiór par:
𝑨=
𝒙, 𝝁𝑨 𝒙 ; 𝒙 ∈ 𝑿 ,
w którym
𝝁𝑨 : 𝑿 → 𝟎, 𝟏
jest funkcją przynależności zbioru rozmytego.
Metody Sztucznej Inteligencji
8
Rozmyte systemy wnioskujące.
WYDZIAŁ
ELEKTRYCZNY
Mogą
być
wykorzystane
do
sterowania
procesami
technologicznymi – model procesu, regulator, rozwiązywania
problemu
klasyfikacji
–
bez
znajomości
gęstości
prawdopodobieństwa poszczególnych klas.
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Schemat rozmytego systemu wnioskującego.
Logika rozmyta
Plan zajęć
Metody Sztucznej Inteligencji
10
Przykład wnioskowania
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Logika rozmyta
Plan zajęć
Metody Sztucznej Inteligencji
14
Blok wyostrzania
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Ponieważ wielkością wyjściową bloku wnioskowania są zbiory
rozmyte pojawia się kwestia odwzorowania zbiorów rozmytych w
jedną wartość wyjściową. Odwzorowanie to nazywa się
wyostrzaniem.
Metoda center average – metoda wyostrzenia
Logika rozmyta
Plan zajęć
Metody Sztucznej Inteligencji
15
Mózg
WYDZIAŁ
ELEKTRYCZNY
Mózg składa się z elementarnych komórek nerwowych,
neuronów. Każdy neuron:
- połączony jest z dużą liczbą komponentów,
- przeprowadza relatywnie proste obliczenia o niejasnej naturze.
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Sztuczne sieci neuronowe
Plan zajęć
Przez neurony połączone w sieć przechodzą impulsy elektryczne
o różnej amplitudzie i różnej częstotliwości od 1 do 100 Hz.
Mózg jest skuteczny dzięki masowemu zrównolegleniu.
Neuron składa się z:
1. Wielu dendrytów, których celem jest pobieranie impulsów
z innych neuronów.
2. Ciała komórki z jądrem.
3. Jednego aksonu, który przekazuje impuls dalej.
4. Synaps – neuroprzekaźników osłabiających lub
wzmacniających sygnał.
Metody Sztucznej Inteligencji
16
dendryty
WYDZIAŁ
ELEKTRYCZNY
ciało komórki z jądrem
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
akson
Sztuczne sieci neuronowe
Plan zajęć
synapsy
Metody Sztucznej Inteligencji
17
Sztuczna sieć neuronowa – idea
Stanowi uproszczony model mózgu.
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Sztuczne sieci neuronowe
Plan zajęć
Składa się z pewnej liczby elementów
przetwarzających informację (sztucznych neuronów).
Elementy te są prymitywną imitacją neuronu
biologicznego.
Neurony są połączone poprzez powiązania
o nadanych parametrach zwanych wagami, które są
modyfikowane w trakcie uczenia. Topologia połączeń
i wartości parametrów to architektura sieci.
Rozwiązaniem sieci neuronowej jest takie dobranie jej
parametrów aby na wyjściu pojawiały się odpowiednie
wartości dla zadanych wartości wejściowych.
Metody Sztucznej Inteligencji
18
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
Model sztucznego neuronu McCulloch’a- Pitts’a,
1943 – pierwszy matematyczny opis neuronu.
Najprościej neuron można sobie wyobrazić jako przetwornik,
który pobiera informacje ze wszystkich, tzw. wejść i na ich
podstawie emituje sygnał wyjściowy.
Każde wejście jest mnożone przez pewną wartość zwaną wagą
(wzmocnienie lub osłabienie sygnału).
dr inż. Krzysztof Jaroszewski
Sztuczne sieci neuronowe
Plan zajęć
Sygnały wejściowe są sumowane, by następnie dopasować
odpowiedź za pomocą funkcji aktywacji (przejścia neuronu).
Metody Sztucznej Inteligencji
19
Perceptron prosty - najstarsza koncepcja (Rosenblatt 1958)
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Sztuczne sieci neuronowe
Plan zajęć
Dla bipolarnej funkcji aktywacji, i sieci składającej się z jednego
neuronu, zadaniem perceptronu jest klasyfikacja wektora
u=[u1,...,un]T do jednej z dwóch klas: L1 (sygnał wyjścia równy 1)
lub L2 (sygnał wyjścia równy -1).
Zatem perceptron dzieli N-wymiarową przestrzeń wejść na dwie
N-1 wymiarowe półprzestrzenie, hiperpłaszczyzną (granicą
decyzyjną) o równaniu:
𝑲
𝑲
𝒘 𝒊 ∙ 𝒖𝒊 − 𝜽 =
𝒊=𝟏
𝒘 𝒊 ∙ 𝒖𝒊 = 𝟎
𝒊=𝟎
Dla przypadku N = 2 otrzymuje się granicę decyzyjną w postaci
linii prostej o równaniu:
𝒘 𝟏 ∙ 𝒖𝟏 + 𝒘 𝟐 ∙ 𝒖𝟐 − 𝜽 = 𝟎
Punkt (u1, u2) leżący nad tą prostą klasyfikujemy do klasy L1,
natomiast punkt (u1, u2) leżący poniżej granicy decyzyjnej
do klasy L2. Punkty leżące na granicy decyzyjnej zaliczane są
do klasy L1 bądź L2.
Metody Sztucznej Inteligencji
23
Uczenie sieci.
W przypadku prostego perceptronu i N = 2 uczenie ma na celu
wybranie pożądanej prostej spośród zbioru wszystkich możliwych
prostych ().
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Sztuczne sieci neuronowe
Plan zajęć
W celu wskazania pożądanej prostej, wyznaczenia odpowiednich
wartości współczynników wagowych i zaporowych konieczne jest
przeprowadzenie procesu nauczenia sieci .
Nauczanie sieci może być realizowane jako:
- Z nauczycielem (nadzorowane),
- Bez nauczyciela (nienadzorowane).
Rola nauczyciela polega na poprawnym klasyfikowaniu sygnałów
u (k),w każdym kroku k do klasy L1 lub L2, pomimo nieznajomości
wag równania granicy decyzyjnej.
Po zakończeniu procesu uczenia perceptron powinien poprawnie
klasyfikować przychodzące na jego wejście sygnały, nawet te,
które wcześniej nie występowały w ciągu uczącym.
Metody Sztucznej Inteligencji
24
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Sztuczne sieci neuronowe
Plan zajęć
Metody Sztucznej Inteligencji
28
Perceptron wielowarstwowy
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Sztuczne sieci neuronowe
Plan zajęć
Pozwala usunąć ograniczenie perceptronu jednowarstwowego –
wymóg liniowej separowalności
Metody Sztucznej Inteligencji
29
Sieci rekurencyjne
Sygnał z wyjścia podawany jest na wejście – sprzężenie zwrotne.
WYDZIAŁ
ELEKTRYCZNY
Katedra Automatyki Przemysłowej
i Robotyki
dr inż. Krzysztof Jaroszewski
Sztuczne sieci neuronowe
Plan zajęć
Jednorazowe pobudzenie sieci rekurencyjnej może powodować
całą sekwencję nowych zjawisk i sygnałów (tłumienie, oscylacje,
gwałtowne narastanie, opadanie) aż do ustabilizowania się
sygnałów wejściowych.
Przykłady sieci rekurencyjnych:
• Hopfielda – pamięć asocjacyjna,
• Hamminga – pamięci heteroacocjacyjne,
• Elmana – modelowanie ciągów czasowych, identyfikacja
obiektów dynamicznych,
• RTRN (real Time Recurrent Network) – modelowanie ciągów
czasowych, identyfikacja obiektów dynamicznych,
• BAM – zapamiętywanie zbioru par wektorów ze sobą
skojarzonych.
Metody Sztucznej Inteligencji
32
Download