47470
Książka
W koszyku
Skrypt poświęcony jest szeroko pojętym zagadnieniom optymalizacji, których znajomość jest niezbędna w praktyce inżynierskiej. Pierwszą część poświęcono sterowaniu optymalnemu dynamicznych układów sterowania. Omówiono zasadę minimum Pontriagina i pokazano jej uzasadnienie z wykorzystaniem rachunku wariacyjnego. Wykazano równoważność zasad Pontriagina i Hamiltona-Jakobiego-Bellmana. Omówiono warunki optymalności dla zadań z czasem swobodnym i zadań z zadanym czasem. Podano przykłady zadań z ich rozwiązaniami i zamieszczono przykłady do samodzielnego rozwiązania. Opisano też metodę rozwiązywania zadań optymalizacji obiektów liniowych z kwadratowym wskaźnikiem jakości. W zakresie sterowania optymalizującego wskaźniki jakości niniejszy skrypt ma na uwadze głównie wielowymiarowe i liniowe układy sterowania o statycznych (stałych, niezależnych od czasu) macierzach stanu, wejść i wyjść, a także macierzach bezpośredniej transmisji sterowań. Odpowiednie ukształtowanie sterowań pozwala uzyskać spełnienie przyjętego kryterium optymalności. Sterowanie optymalne można realizować tylko w takich układach, na których zachowanie jesteśmy w stanie wpływać, a więc w układach stabilnych i sterowalnych. Na poziomie wykonawczym pożądane sterowania można zrealizować tylko wtedy, gdy odpowiednio dobrane regulatory zapewniają dobrą dokładność odtwarzania wartości zadanych. W praktyce często stosowane są liniowe regulatory PID ze względu na ich prostotę realizacji i stosunkowo dobrą jakość regulacji. W opracowaniu przedstawiono eksperymentalną metodę doboru nastaw regulatora PID, mając na uwadze sterowanie powszechnie stosowanymi silnikami elektrycznymi. Powtórzenie wybranych zagadnień z podstaw sterowania, łącznie z zagadnieniami stabilności i metodą doboru nastaw regulatora podane są w początkowej części pracy. Definicja stabilności w sensie Lapunowa i metody Lapunowa badania stabilności dotyczą zarówno układów liniowych, jak i nieliniowych. W nawiązaniu do wyznaczania sterowań optymalnych przedstawiona jest metoda programowania dynamicznego wywodząca się z zasady optymalności Bellmana. Podana jest także, wywodząca się z programowania dynamicznego, metoda wyznaczania optymalnych dróg w grafach i metoda optymalizacji dyskretnej dla dyskretnych zadań sterowania, łącznie z przykładami obliczeniowymi. Końcowa część skryptu poświęcona jest zagadnieniom podejmowania decyzji optymalnych w warunkach niepewności. Przedstawiono szereg metod dotyczących wyboru postępowania. Podstawy teoretyczne ilustrowane są licznymi przykładami. Przekazane w tej części wiadomości są przydane zarówno do prowadzenia samodzielnej działalności zarządzającej, jak też mogą być wykorzystywane w planowaniu działań różnych urządzeń, np. robotów.
Pliki multimedialne:
Status dostępności:
BIBLIOTEKA GŁÓWNA
Są egzemplarze dostępne do wypożyczenia: sygn. 50444, 50445 (2 egz.)
Strefa uwag:
Uwaga dotycząca bibliografii
Bibliografia na stronach 178-179.
Recenzje:
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej