|
WYSYŁKA DZISIAJ !!!
CODZIENNIE W DNI ROBOCZE
WYSTARCZY DO GODZ. 13.00 wybrać:
1) przesyłkę "za pobraniem"
lub
2) wysłać skan przelewu
ostatecznie
3) wpłacić za pośrednictwem "PayU"
[zasłonięte]@hirudina.pl
tel. 32[zasłonięte]352-04
lub 513 [zasłonięte] 833
GG:[zasłonięte]40558
OPTYMALIZACJA STATYCZNA W PRZESTRZENI DWUWYMIAROWEJ
Wiesław Wajs
Stan książki: NOWA
Wydawnictwo: AGH Kraków
Stron: 306
Okładka: TWARDA
Format: B5
Opis :
Książka jest przeznaczona dla studentów kierunków inżynierskich, inżynierów, ale także nieinżynierów, których interesuje zagadnienie optymalizacji statycznej. Układ monografii pozwala na odrębne studiowanie poszczególnych rozdziałów. Rozdziały zawierają opisy opracowanych przez wybitnych matematyków metod będących kamieniami milowymi w dziedzinie optymalizacji statycznej.
Spis treści:
1. Wstep - funkcje wielu zmiennych. 13
2. Pojecia i definicje.. 18
2.1. Pochodna kierunkowa. 18
2.2. Gradient.. 19
2.3. Jakobian.. 22
2.4. Hesjan 22
2.5. Norma 22
2.6. Wzór Taylora 22
2.7. Forma kwadratowa 23
2.8. Gradient formy kwadratowej 24
2.9. Wypukłość. 24
2.10. Warunek konieczny minimum funkcji pierwszego rzedu. 25
2.11. Warunek konieczny minimum funkcji drugiego rzedu.. 26
2.12. Warunek wystarczajacy minimum funkcji drugiego rzedu 26
2.13. Wzór Taylora funkcji dwóch zmiennych 28
2.14. Ekstremum funkcji dwóch zmiennych.. 29
2.14.1. Warunki konieczne istnienia ekstremum .. 30
2.14.2. Warunek dostateczny istnienia ekstremum . 30
2.15. Wektory własne i wartosści własne . 31
3. Funkcje .. 32
3.1. Funkcja De Jonga 34
3.2. Funkcja Rosenbrocka. 35
3.3. Funkcja Rastrigina 36
3.4. Funkcja Schwefela 37
3.5. Funkcja Griewanka .. 38
3.6. Funkcja wykładnicza .. 39
3.7. Funkcja Ackleya. 40
3.8. Funkcja Langermanna. 41
3.9. Funkcja Michalewicza. 42
3.10. Funkcja Branina. 43
3.11. Funkcja Easoma . 44
3.12. Funkcja Goldsteina-Price'a. 45
3.13. Funkcja six-hump camel back 46
3.14. Funkcjafifthfunction ofDe Jong . 47
3.15. Funkcja dropwave 48
3.16. Funkcja Shuberta . 49
3.17. Funkcja Shekela . 50
3.18. Funkcja Bohachevsky'ego.. 52
4. Błedy zaokrąglenia w koprocesorze 54
4.1. Dokładnosścś w zapisie liczb rzeczywistych .. 54
4.2. Rejestry koprocesora .. 56
4.2.1. Round-off error w koprocesorze 56
5. Metodą interpolacji funkcją kwadratową.. 60
5.1. Model matematyczny . 61
5.2. Etapy algorytmu . 61
5.2.1. Etap roboczy . 62
5.2.2. Kryterium stopu .. 62
5.3. Przykład dwuwymiarowy .. 62
5.3.1. Rozwiazanie analityczne. 63
5.3.2. Rozwiazanie numeryczne 63
5.4. Podejsście statystyczne . 64
5.5. Implementacja w środowisku Matlab.. 67
5.6. Uwagi 68
6. Metoda ortogonalizacji Grama-Schmidta.. 69
6.1. Ortogonalizacja wektorów .. 69
6.2. Ortonormalizacja wektorów . 70
6.3. Ortogonalizacja zbioru funkcji 70
6.4. Przykłady analityczne . 71
6.4.1. Ortogonalizacja wektorów 71
6.4.2. Ortonormalizacja wektorów .. 72
6.4.3. Ortogonalizacja zbioru funkcji . 72
6.5. Implementacja w Matlabie .. 74
6.5.1. Ortogonalizacja wektorów 74
6.5.2. Ortonormlizacja wektorów 74
6.5.3. Ortogonalizacja zbioru funkcji . 75
6.6. Obliczenia numeryczne 75
6.6.1. Ortogonalizacja wektorów 75
6.6.2. Ortonormalizacja wektorów .. 76
6.6.3. Ortogonalizacja zbioru funkcji . 76
7. Metoda najwiekszego spadku. 77
7.1. Algorytm najwiekszego spadku.. 78
7.1.1. Przykład 79
7.2. Metoda Jakobiego 79
7.3. Metoda najwiekszego spadku - przykład 1.. 80
7.3.1. Program optymalizacji .. 81
7.3.2. Funkcja kosztu 81
7.3.3. Znalezione rozwiazanie . 81
7.4. Metody najwiekszego spadku - przykład 2.. 82
7.4.1. Algorytm 83
7.4.2. Rozwiazanie analityczne. 83
7.4.3. Rozwiazanie numeryczne 84
7.5. Implementacja w Matlabie .. 88
7.6. Problem znajdowania minimum globalnego .. 89
7.6.1. Funkcja algorytmGen .. 89
7.6.2. Funkcja gradientu . 90
7.6.3. Funkcja celu . 90
7.7. Podsumowanie .. 90
8. Metoda Powella 92
8.1. Pierwszy wariant metody Powella (P1). 92
8.2. Drugi wariant metody Powella (P2) 93
8.3. Minimalizacja w kierunku metoda aproksymacji kwadratowej. 93
8.4. Optymalizacja funkcji Langermanna .. 94
8.4.1. Etap wstepny. 94
8.4.2. Minimalizacja w kierunku d2 = [0,1] 96
8.4.3. Iteracja 1, etap 1 .. 97
8.4.4. Iteracja 1, etap 2-minimum w drugim kierunku bazowym. 98
8.4.5. Iteracja 1, etap 3 - utworzenie kierunku sprzezonego. 99
8.4.6. Iteracja 2, etap 1 - minimalizacja po pierwszym kierunku bazowym .. 100
8.4.7. Iteracja 2, etap 2 - minimalizacja po drugim kierunku bazowym . 101
8.4.8. Iteracja 2, etap 3 - utworzenie kierunku sprzezonego. 101
8.4.9. Iteracja 5, etap 2 - minimalizacja po drugim kierunku bazowym . 102
8.5. Projekt interfejsu graficznego do optymalizacji 103
8.5.1. Funkcja powell 105
8.5.2. Funkcja langermann 106
8.5.3. Funkcja p1global.. 107
8.5.4. Funkcja p1fast 108
8.5.5. Funkcja p2fast 109
8.5.6. Funkcja apkwa 110
8.5.7. Funkcja gui .. 112
8.6. Podsumowanie .. 119
9. Metoda Davidona.. 121
9.1. Opis metody 121
9.2. Algorytm Davidona dla funkcji kwadratowej . 122
9.3. Algorytm .. 125
9.4. Przykład .. 126
9.5. Porównanie metod zmiennej metryki .. 129
9.6. Podsumowanie .. 130
10. Metoda Pearsona .. 131
10.1. Opis metody 131
10.2. Algorytmy Pearsona .. 133
10.3. Implementacja w sśrodowisku Matlab .. 136
10.3.1. Funkcja gradient .. 136
10.3.2. Funkcja wartosc.. 136
10.3.3. Funkcja pearsonl.. 136
10.3.4. Funkcja pearsonl.. 137
10.3.5. Funkcja pearson4.. 137
10.4. Poszukiwanie minimum funkcji Griewanka .. 137
10.4.1. WariantPE1 . 137
10.4.2. Plik main 138
11. Metoda Newtona-Rapsona.. 140
11.1. Algorytm .. 140
11.2. Implementacja algorytmu w Matlabie .. 140
11.2.1. Minimalizowana funkcja . 140
11.2.2. Pochodne funkcji .. 141
11.2.3. Drugie pochodne funkcji . 141
11.2.4. Kod programu 141
11.3. Zastosowanie programu 142
11.4. Podsumowanie .. 143
12. Metoda Fletchera-Reevesa.. 144
12.1. Opis metody 144
12.2. Metoda Fletchera-Reevesa funkcji kwadratowej.. 145
12.2.1. Kryterium zbieZności 146
12.3. Przykład analityczny.. 146
12.4. Program w Matlabie.. 149
12.4.1. Funkcja gradie 149
12.4.2. Funkcja kierun 150
12.4.3. Funkcja Fletchera-Reevesa .. 150
12.4.4. Funkcja w wersji Polaka-Ribiere'a. 150
12.5. Podsumowanie .. 151
13. Metoda Levenberga-Marquardta. 152
13.1. Opis metody 152
13.1.1. Implementacja metody.. 154
13.1.2. Kod w Matlabie 155
13.1.3. Wyniki - regularne punkty pomiarowe 158
13.1.4. Wyniki - regularne punkty pomiarowe, zbieznośc do minimum lokalnego . . 158
13.1.5. Wyniki -regularne punkty pomiarowe z dodanym szumem . 159
13.1.6. Wyniki -nieregularne punkty pomiarowe bez szumu . 159
13.1.7. Nieregularne punkty pomiarowe z dodanym szumem. 160
13.2. Podsumowanie .. 160
14. Metoda Hooke'a-Jeevesa 161
14.1. Algorytm metody 161
14.2. Przykład optymalizacji funkcji De Jonga 162
14.3. Implementacja algorytmu w sśrodowisku Matlab .. 166
14.4. KodANSIC 167
15. Metoda Rosenbrocka 171
15.1. Algorytm metody 172
15.1.1. Wybór długości kroku.. 172
15.1.2. Wybór kierunków . 173
15.2. Program w Matlabie .. 173
15.2.1. Zmienne wystepujace w programie . 174
15.2.2. Poszukiwanie minimum lokalnego wzdłuz kierunku . 174
15.2.3. Ortogonalizacja bazy 175
15.2.4. Kod programu 175
15.2.5. Wyniki . 177
15.3. Przykład analityczny .. 178
15.4. Podsumowanie .. 181
16. Metoda Neldera-Meada. 182
16.1. Algorytm metody 182
16.1.1. Dane wejsściowe .. 183
16.1.2. Podstawy algorytmu 183
16.1.3. Odbicie . 184
16.1.4. Ekspansja 185
16.1.5. Kontrakcja .. 185
16.1.6. Kryteria stopu 186
16.2. Zastosowanie metody Neldera-Meada w funkcji De Jonga 187
16.3. Implementacja metody w Matlabie 195
16.3.1. Obliczenie wartosścifunkcji De Jonga 195
16.3.2. Sortowanie punktów tworzących sympleks 195
16.3.3. Obliczenie rozmiaru sympleksu 195
16.3.4. AlgorytmNeldera-Meada 195
16.4. Podsumowanie .. 196
17. Metoda Gaussa-Seidla .. 198
17.1. Zbieznośc metody 198
17.2. Algorytm metody 199
17.3. Przykład optymalizacji metoda Gaussa-Seidla 200
17.3.1. Poszukiwanie pierwiastków wielomianu trzeciego stopnia . 200
17.3.2. Obliczenia .. 202
17.4. Program w Matlabie .. 203
17.4.1. Kod programu 204
17.4.2. Przedstawienie wyników . 205
17.5. Podsumowanie .. 207
18. Metoda Daviesa-Swanna-Campeya 208
18.1. Algorytm Daviesa-Swanna-Campeya.. 208
18.1.1. Kryterium zbiezności 209
18.1.2. Algorytmposzukiwania na kierunku . 209
18.1.3. Wyznaczanie przedziału zawierajacego minimum 209
18.1.4. Metoda interpolacji kwadratowej .. 210
18.1.5. Algorytm obrotu współrzednych 211
18.1.6. Niepowodzenie algorytmu obrotu współrzednych 211
18.2. Algorytmu DSC dla funkcjiMichalewicza .. 212
18.2.1. Warunki poczatkowe 212
18.2.2. Obliczenia .. 213
18.2.3. Wyniki . 224
18.3. Opis funkcji w Matlabie 225
18.3.1. Funkcjadsc .. 226
18.3.2. Funkcja dscl . 227
18.3.3. Funkcjaekspan 227
18.3.4. Funkcja koszt. 229
18.3.5. Funkcjaprostal .. 229
18.3.6. Funkcja zlopod 230
18.3.7. Funkcjaapropa 231
18.3.8. Funkcjazmiana 232
18.4. Uruchomienie programu 233
18.4.1. Wykres kroków algorytmu 234
18.5. Podsumowanie .. 234
19. Metoda Carrolla 235
19.1. Opis metody 235
19.1.1. Dobór wartości początkowej współczynnika przyblizen 236
19.1.2. Poszukiwanie ekstremum funkcji metoda CRST 236
19.2. Przykład analityczny dla funkcji Branina 236
19.3. Poszukiwanie ekstremum funkcji . 237
20. Metoda Schmita-Foxa.. 241
20.1. Opis metody 241
20.2. Algorytm w ogólnej postaci . 242
20.2.1. Przykład z funkcja kwadratowa 243
20.2.2. Przykład z funkcja Rosenbrocka 243
20.3. Obliczenia analityczne, przebieg algorytmu .. 244
20.4. Przykład w sśrodowisku Matlab .. 248
20.4.1. Funkcjaoptymalizuj 250
20.4.2. Funkcjagradient_sprzezony .. 251
20.4.3. Funkcjazloty_podzial .. 252
20.4.4. FunkcjaP 253
20.4.5. Funkcjag 253
20.5. Podsumowanie .. 254
21. Metoda Lagrange'a. 255
21.1. Opis metody 255
21.2. Zagadnienie Lagrange'a 257
21.3. Funkcja Lagrange'a.. 257
21.4. Przykład .. 259
21.5. Podsumowanie .. 260
22. Warunki Kuhna-Tuckera 261
22.1. Zadanie programowania nieliniowego z ograniczeniami . 261
22.2. Pojecia oraz własności zbiorów i funkcji dla ZPN . 262
22.2.1. Funkcjawypukła .. 262
22.2.2. Funkcja wypukła rózniczkowalna.. 262
22.2.3. Funkcja quasi-wypukła.. 262
22.2.4. Funkcjapseudowypukła . 263
22.2.5. Kierunekdopuszczalny .. 264
22.3. Warunki konieczne i wystarczające otrzymania optymalnego rozwiązania zadania programowania nieliniowego .. 265
22.3.1. Twierdzenie o warunkach koniecznych istnienia hirudina rozwiązania ZPN 265
22.3.2. Twierdzenie Kuhna-Tuckera .. 268
22.3.3. Twierdzenie o warunkach wystarczających otrzymania optymalnego rozwiązania ZPN.. 268
22.4. Przykład 2 w sśrodowisku Matlab . 271
22.5. Sformułowanie warunków Kuhna-Tuckera za pomoca funkcji Lagrange'a 273
22.6. Sformułowanie warunków Kuhna-Tuckera .. 274
23. Metoda SVM.. 275
23.1. Liniowa metoda SVM. 275
23.1.1. Optymalna hiperpłaszczyzna dyskryminuj aca.. 277
23.1.2. Przykład analityczny 278
23.1.3. Rozwiazanie problemu za pomoca programu.. 280
23.2. Liniowe SVM z elastycznym marginesem 282
23.3. Nieliniowe metody SVM .. 284
23.3.1. Przykład działania klasyfikatora nieliniowego.. 284
23.3.2. Funkcjejadrowe.. 285
23.3.3. Program dla nieliniowych metod SVM .. 286
23.4. Przykłady klasyfikacji metoda SVM 286
23.4.1. Przykład 1 .. 288
23.4.2. Przykład 2 .. 290
24. Metoda optymalizacji dla sekwencji funkcji liniowych i nieliniowych 293
24.1. Opis metody 293
24.2. Problem optymalizacji dla sekwencji funkcji liniowych . 294
24.3. Nieliniowy czas trwania operacji . 295
24.3.1. Przykład 296
Bibliografia.. 299
CHCESZ PRZED ZAKUPEM ZAPOZNAĆ SIĘ Z OFEROWANĄ KSIĄŻKĄ
NAPISZ DO NAS MAILA, A OTRZYMASZ
DARMOWY FRAGMENT!!!
|
Zobacz nasze pozostałe oferty:
Strona "o mnie"
Wszystkie aukcje
|
|