Byla vytvořena nová metoda řešení řady globálních problémů s optimalizací

Soylent: How I Stopped Eating for 30 Days (Smět 2019).

Anonim

Pro vytváření vysoce efektivních technických systémů a technologických procesů musí kromě výzkumu nových principů, nových materiálů, nových fyzikálních efektů a dalších řešení, která určují celkovou strukturu objektu, vytvořit nejlepší kombinaci parametrů objektu (geometrické rozměry, elektrické charakteristiky atd.), neboť jakékoli změny v parametrech s pevnou celkovou strukturou objektu mohou významně ovlivnit ukazatele účinnosti.

V konstrukci s počítačem může být testování možností provedeno analýzou matematického modelu pro různé hodnoty parametrů. Vzhledem k tomu, že modely se stávají čím dál složitějšími, vzniká potřeba cíleného výběru možností při hledání optimálního (nejefektivnějšího) řešení.

Tým vědců z Lobachevské státní univerzity v Nižním Novgorodu (UNN), vedený profesorem Romanem Stronginem, zkoumal cílená rozhodnutí při hledání optimálního řešení. Zahrnuje analýzu podmnožiny možných možností s cílem vyloučit zjevně nepromídající případy a soustředit vyhledávání na podmnožinu obsahující nejlepší možnost.

"Když se matematické modely procesů, které se vyskytují v objektu, stanou komplikovanějšími, charakteristiky účinnosti nebudou mít vlastnost monotonie, proto nejsou místní metody vyhledávání dostatečné pro vyhodnocení nejlepší možnosti, " říká profesor Roman Strongin.

Globální vyhledávací postupy, které se používají v takových problémech (také nazývané problémy s optimalizací pro více extrémů), zajišťují, že vyhledávání je cíleno s ohledem na omezenou povahu změny vlastností objektu, pokud jsou změny jeho parametrů omezené. Výsledná matematická formulace může mít podobu Lipschitzova stavu, jednotného stavu Hölder, atd.

Problémy s více extrémními optimalizacemi nabízejí úzké možnosti analytických výzkumných příležitostí a při hledání číselných řešení se stávají výpočetně drahými, neboť výpočetní náklady rostou exponenciálně s rostoucím rozměrem problému.

Podle Konstantina Barkalova, docentka odboru softwaru a superpočítačových technologií UNN, využívání moderních paralelních výpočetních systémů rozšiřuje rozsah globálních optimalizačních metod. Zároveň však představuje výzvu účinně paralelizovat proces vyhledávání.

"Právě proto by se hlavní úsilí v této oblasti mělo soustředit na vývoj účinných paralelních metod pro numerické řešení multimediálních optimalizačních problémů a vytvoření vhodného softwaru pro moderní výpočetní systémy na základě těchto metod, " říká Barkalov.

Obvykle jsou metody globální optimalizace (sekvenční i paralelní) určeny k řešení jednoho optimalizačního problému. Při řešení řady problémů q jsou problémy v sérii řešeny postupně, jeden po druhém. Proto optimální odhad i-tého problému v sérii zůstává nedefinovaný, dokud nebyly zcela vyřešeny všechny předchozí problémy série (s indexy 1, 2, …, i? 1). V případě omezených výpočetních zdrojů optimální odhady v problémech i + 1,…, q nebude dosaženo, pokud jsou výpočetní zdroje vyčerpány při řešení i-tého problému.

Situace, kdy je potřeba vyřešit řadu problémů q, nejsou mimořádné. Například řada skalárních problémů vzniká při hledání souboru Pareto při řešení víceobjektivních optimalizačních problémů. V tomto případě řešení jednoho skalárního problému odpovídá jednomu z optimálních bodů Pareto multi-objektivního problému. Řada problémů s optimalizací také vzniká při použití metod redukce dimenzí pro řešení vícerozměrných problémů s optimalizací. Konečně lze s pomocí konkrétního generátoru problému získat i řadu zkušebních problémů.

Vědci se domnívají, že při řešení řady problémů je nutné mít najednou počáteční odhady řešení všech problémů, aby bylo kdykoli možné vyhodnotit účelnost pokračování vyhledávání. V tomto případě je žádoucí mít optimální odhady pro všechny problémy se stejnou přesností.

Spouštění mnoha nezávislých procesů v paralelním výpočetním systému, každý z procesů řešících jeden problém ze série, má řadu nevýhod. Nejprve dojde k nevyváženosti pracovního zatížení mezi procesory. Pokud řešení i-tého problému vyžaduje podstatně méně iterací metody než řešení j problému, procesor pověřený řešením i-tého problému by po dokončení úkolu zůstal nečinný. Za druhé, odhady optima se získají s různou přesností v různých problémech. Jednodušší problémy budou vyřešeny s vyšší přesností, zatímco přesnost bude nižší u složitějších problémů.

Cílem výzkumu provedeného na Lobachevské univerzitě bylo vyvinout novou metodu řešení řady celosvětových optimalizačních problémů, které by zajistily: i) jednotné nakládání všech použitých jader / zpracovatelů; (ii) jednotná konvergence k řešení všech problémů v sérii.

V teoretické části své práce vědci UNN také prokázali větu o jednotné konvergenci nového algoritmu. Experimentální část práce spočívala v řešení řady několika set zkušebních problémů různých rozměrů a výsledky přesvědčivě demonstrovaly přítomnost jednotné konvergence.

Také vědci UNN považují výpočetně náročné globální problémy s optimalizací, jejichž řešení může vyžadovat superpočítačové systémy s výkonem exaflops. K překonání takové výpočetní složitosti výzkumníci navrhují všeobecné paralelní výpočetní schémata, které mohou zahrnovat řadu účinných paralelních algoritmů globální optimalizace. Navrhované schémata zahrnují metody víceúrovňového rozložení paralelních výpočtů, které zaručují výpočetní efektivitu superpočítačových systémů se sdílenými a distribuovanými paměťovými multiprocesory, které využívají tisíce procesorů k řešení globálních problémů s optimalizací.

menu
menu