MATEMATYKA STOSOWANA DLA MATEMATYKÓW

Matematyka stosowanana dla matematyków

Optymalizacja dla matematyków

Optymalizacja to problem polegający na znalezieniu ekstremum zadanej funkcji celu.

Niech dana będzie funkcja f :

f : A à R

gdzie A Ì Rn. Zadanie optymalizacji polega na znalezieniu takiej wartości x* Î A, że dla każdego x Î A \ {x*} zachodzi :

f(x) > f(x*)

Problemem równoważnym jest znalezienie maksimum funkcji - problem zdefiniowany jest tak samo jak powyżej z wyjątkiem zmiany znaku funkcji f.O ile definicja matematyczna optymalizacji jest prosta, tak praktyczne wyznaczanie optimum już nie jest. W wielu problemach rzeczywistych mamy do czynienia z bardzo skomplikowaną daną funkcją, dla której wyszukanie optimum globalnego lub w zadanym zakresie nie jest łatwe. Na przestrzeni lat stworzono wiele algorytmów wyszukiwania optimum oraz rozwinął się nowy dział badań naukowych, nazywany badaniami operacyjnymi.Optymalizacja statyczna zajmuje się poszukiwaniem optymalnego punktu pracy, czyli takiego, w którym wartość funkcji celu jest najlepsza. Zależnie od sformułowania zadania będzie to wartość największa i najmniejsza, ale zawsze ekstremalna. Poszukiwanie ekstremum może się odbywać w pewnym ograniczonym obszarze zawierającym tylko jedno ekstremum - mówimy wówczas o poszukiwaniu ekstremum lokalnego. Może też odbywać się w całej przestrzeni argumentów i wówczas mówimy o poszukiwaniu ekstremum globalnego. Zadanie nie zawsze udaje się rozwiązać poprawnie. Mimo bowiem istnienia ekstremum globalnego procedura poszukiwania może się zakończyć w punkcie będącym ekstremum lokalnym. Większość algorytmów numerycznych to algorytmy poszukiwania ekstremum lokalnego. Skuteczność działania takich procedur jest więc w dużym stopniu uwarunkowana wyborem odpowiedniego punktu startowego.Wśród metod optymalizacji statycznej wyróżnia się dwie zasadnicze grupy: programowanie liniowe i programowanie nieliniowe. Programowanie liniowe polega na poszukiwaniu ekstremum liniowej funkcji celu przy ograniczeniach będących również funkcjami liniowymi. W zagadnieniach programowania liniowego ekstremum jest zawsze globalne w danym obszarze poszukiwań. Programowanie nieliniowe polega na poszukiwaniu ekstremum funkcji celu dowolnej postaci, przy ograniczeniach będących również wyrażonymi przez dowolne funkcje.Typowe zagadnienie optymalizacji dynamicznej polega na poszukiwaniu takiego ciągu decyzji w danym przedziale czasu, który zapewni ekstremum pewnego wskaźnika jakości zależącego od przebiegu zmian tej decyzji, określanym na całym przedziale czasu. Wskaźnik jakości jest więc funkcjonałem tej decyzji, określanym na danym przedziale czasu.Metoda Newtona – algorytm numeryczny mający na celu znalezienie minimum zadanej funkcji celu. Metodą Newtona nazywana jest również metoda rozwiązywanie równań nieliniowych. Oba pojęcia pomimo takiej samej nazwy odnoszą się do dwóch różnego rodzaju zadań numerycznych.W poniższym lemacie pokazujemy warunek dostateczny, aby taki przypadek nie miał miejsca. Co więcej, w lemacie tym podajemy warunki dostateczne tego, by zbieżność do minimum lokalnego była wykładniczo szybka.Drugą bolączką metody Newtona jest to, iż zbiega ona do punktu krytycznego, który może również wyznaczać maksimum lokalne lub punkt przegięcia. Założenie pseudowypukłości funkcji gwarantuje, że punkt krytyczny jest minimum. W pozostałych przypadkach należy zbadać zachowanie funkcji w otoczeniu znalezionego numerycznie punktu krytycznego i na tej podstawie ustalić, czy jest w nim minimum, maksimum lub punkt przegięcia. Zwróćmy uwagę, że wszystkie matematyczne wyniki dla metody Newtona zakładają dodatniość drugiej pochodnej, a zatem ścisłą wypukłość. W pozostałych przypadkach ocena wyników i dobór parametrów pozostaje powierzyć intuicji i doświadczeniom. Nie przeszkadza to wszakże w powszechnym stosowaniu metody Newtona i jej różnych modyfikacji. Zainteresowany czytelnik znajdzie dużo więcej informacji w monografii D. Bertsekas'a

Źródła:

https://pl.wikipedia.org/wiki/Optymalizacja_(matematyka)#Optymalizacja_statyczna_i_dynamicza

https://pl.wikipedia.org/wiki/Metoda_Newtona_(optymalizacja)

http://mst.mimuw.edu.pl/lecture.php?lecture=op2&part=Ch12

Modelowanie zachowań systemów ekonomicznych

Celem pracy było określenie roli i miejsca modelowanie i symulacji w naukach ekonomicznych. Matematyczna gospodarka to jest zestaw metod matematycznych, pozwalających przedstawić teorie i przeanalizować problemy w gospodarce. To zaprzecza, że matematyka nie pozwala ekonomii sformować znaczące, testowane propozycje. Mowa matematyki pozwala ekonomistom konkretyzować, pozytywne wymogi o spornych czy dokładnych tematach, które były by niemożliwe bez matematyki. Dużo co teorii z ekonomicznej jest teraz obecne w terminach matematycznych modeli ekonomicznych. Technologia informacyjna stać się podstawowym, a ich poziom rozwoju w dużej mierze decyduje poziom rozwoju kraju jako całości.Termin społeczeństwo informacyjne mocno wziąć swoje miejsce, a nie tylko w leksykon specjalistów informacji, ale w politycznym leksykonie Przywódcy, ekonomiści i naukowcy. W większości przypadków, ta koncepcja jest związana z rozwojem technologii informatycznych i telekomunikacji, umożliwiającego na platformie społeczeństwa obywatelskiego w celu wdrożenia nowego ewolucyjnego skoku w rozwoju ludzkości. Ekonomia matematyczna to kierunek w ekonomii zajmujący się badaniem szeroko pojętych zjawisk gospodarczych przy użyciu zaawansowanych technik matematycznych, tj. analiza szeregów czasowych czy programowanie dynamiczne. Współczesna ekonomia głównie nurtowa w coraz większej mierze odwołuje się do tych metod, niemniej podział na matematyczny i instytucjonalny nurt w ekonomii jest wciąż widoczny. Jednymi z podstawowych zagadnień ekonomii matematycznej są modele wzrostu gospodarczego oraz poszukiwań pracy. Dla większości ludzi ekonomia, z racji liczb, kojarzy się z matematyką i po części z tego właśnie powodu nie zamierzają mieć z nią do czynienia. Jednak, tak jak znajomość matematyki na pewno przydaje się w codziennym życiu, tak również i ekonomia nie jest nauką oderwaną od rzeczywistości [7].

Potocznie pod pojęciem model rozumiemy przedstawienie danego obiektu, czy tez zjawiska w uproszczonej postaci w stosunku do rzeczywistej. W nauce jest to celowe uproszczenie rzeczywistości, polegające na pominięciu cech i szczegółów nieistotnych z punktu widzenia celu modelowania [12].

Przyczyną tworzenia modeli jest nie tylko chęć poznania rzeczywistości, praw nią rządzących, ale także zbadanie możliwości wpływania na otaczające nas zjawiska, badanie zjawisk w innych warunkach i w przyszłości [1].

Celem pracy było określenie roli i miejsca modelowanie i symulacji w naukach ekonomicznych.

Typy modeli

Można wyróżnić m.in. następujące typy modeli:

- o podobieństwie kinetycznym

-o podobieństwie geometrycznym np. makiety, mapy

-o podobieństwie dynamicznym – stosowane w tunelach aerodynamicznych

-tworzone przez analogie – hydrauliczno- elektryczne

- matematyczne.

Model matematyczny to zbiór symboli oraz relacji matematycznych wraz z bezwzględnie ścisłymi zasadami operowania nimi. Symbole i relacje odnoszą się do konkretnych elementów rzeczywistości, którą badamy (Rys.1). Model opisuje dane zjawisko za pomocą zmiennych, których wartości mogą należeć do różnorodnych wartości np. liczb całkowitych, rzeczywistych, wartości logicznych itp. Modelowanie matematyczne to dziedzina, której zadaniem jest opisanie zjawisk w języku matematyki oraz logiki formalnej [5-19].

Rys. 1. Schemat modelu [8]

Modelowanie matematyczne polega na użyciu języka matematyki w celu opisania jakiegoś układu np. biologicznego, elektrycznego, termodynamicznego, ekonomicznego, wykorzystywane są przy optymalizacji warunków pracy, prognozowaniu pogody. Modelowanie matematyczne ma zastosowanie w wielu dziedzinach życia, głownie w tych, w których jest powtarzalność lub podobieństwo zdarzeń., czyli w naukach ekonomicznych, przyrodniczych, społecznych, medycznych. Przy użyciu modelowania matematycznego wnioski będą zgodne z rzeczywistością pod warunkiem, że sformułowanie wejściowe było poprawne , założenia poprawne oraz dokładne z punktu widzenia celu, jaki badacz zakłada. Jeśli początkowe hipotezy będą fałszywe, to nie osiągniemy poprawnych wyników [3].

Modele matematyczne są klasyfikowane według różnych kryteriów, na przykład:

1). Ze względu na postać związków przedstawionych w modelu:

-liniowe – gdy wszystkie operatory (operacje algebraiczne, operatory różniczkowe, zależności funkcyjne itp.) są liniowe,

-nieliniowe -gdy chociaż jeden operator nie jest liniowy.

Zakwalifikowanie do liniowych lub nieliniowych jest zależne od kontekstu. Z zasady dotyczy wielkości wejściowych, natomiast w przypadku analizy regresji model liniowy oznacza liniowość względem parametrów, zaś nieliniowa może być odpowiedź układu .

2). Ze względu na czas:

-statyczne –nie uwzględnia się zmian wartości w czasie, z zasady wykorzystywane są równania algebraiczne.

-dynamiczne - czas jest wartością wejściową, często wykorzystujemy równania różniczkowe.

Z zasady wszystkie modele rzeczywiste mają charakter dynamiczny. Modelem statycznym można się zadowolić, gdy stosujemy uproszczenie w sytuacji, gdy badamy stany równowagi.

3). Ze względu na związek przyczynowo- skutkowy:

-deterministyczne- odpowiedź jest jednoznacznie określona dla każdego zbioru wartości wejściowych. Obowiązuje związek przyczynowo- skutkowy, czyli dane zjawisko w sposób jednoznaczny wywołuje i wpływa na inne.

- stochastyczne - odpowiedź ma charakter losowy. Podają wyniki z określeniem prawdopodobieństwa. Najczęściej stosowane są w biologii, rolnictwie, ekonometrii, czyli w dziedzinach, w których trudno określić jednoznacznie związek przyczynowo- skutkowy [11].

4). Ze względu na etap tworzenia modelu:

- wstępny-tworzony, gdy nie znamy jeszcze wszystkich podstawowych mechanizmów procesu. Jego istota polega na wskazaniu jakie dane musimy jeszcze uzyskać

-ogólny – zawiera już wszystkie znane badaczowi zależności i procesy, ale techniczne posługiwanie się nim jest skomplikowane

-sumaryczny – ostateczna forma symulacji komputerowej. Jest wykorzystywana praktycznie.

Etapy modelowania

Określimy pięć etapy modelowania: sformułowanie celu modelowania; wybranie kategorii modelu oraz określenie jego struktury; identyfikacja parametrów modelu; algorytmizacja modelu; zweryfikowanie wyników (Rys.2).

Sformułowanie celów modelowania

Formułując cel modelowania należy pamiętać, że jest proces ukierunkowany celowo. Znaczy to , że tworzony model ma mieć konkretne zastosowanie. W przypadku badań systemowych nadrzędnym celem jest stworzenie narzędzi, które pozwolą przewidzieć, jak zachowa się badany system w innych warunkach niż istniejące aktualnie. Gdyby nie modele w celu sprawdzenia zachowania się obiektu w zmieniających się warunkach należałoby eksperymentować na rzeczywistym systemie, co jest bardzo kosztowne i czasochłonne, a często wręcz niemożliwe do przeprowadzenia. Z tego wynika, ze najważniejsze znaczenie mają modele, przy pomocy których można zbadać zachowanie się systemów, które jeszcze nie istnieją i systemów, mających działać w różnorodnych warunkach, w których do tej pory nie występowały.

Wybór kategorii modelu oraz określenie jego struktury

Etap ten nazywany jest modelowaniem właściwym. W tym etapie należy przetworzyć całą istotną dla celów modelowania wiedzę o badanym systemie w zbiór relacji matematyczno- logicznych. Należy pamiętać, że modele matematyczne muszą spełniać dwa podstawowe wymagania: łatwości użytkowania zgodnie z jego przeznaczenie oraz zgodności z modelowanym systemem odnośnie zależności, które interesują badacza. Często wymagania te mogą być sprzeczne. Należy na tym etapie poszukać kompromisu między nadmiernym uproszczeniem modelu, co może prowadzić do błędnych wniosków a stworzeniem modelu zbyt skomplikowanego, co utrudnia jego stworzenie. W tym etapie należy też rozwiązać problem istotności, czyli wyboru hipotez istotnych, od tych które należy odrzucić.

Identyfikacja parametrów modelu

Ma na celu doświadczalne ustalenie wartości, których wprowadzenie do modelu umożliwi wykonanie potrzebnych obliczeń.

Rys 2. Etapy budowy modelu matematycznego

Rozróżniamy dwa podstawowe typy wartości liczbowych:

-parametry – współczynniki na stałe ujęte w algorytmie i programie komputerowym, może ich być od kilku do kilkudziesięciu w zależności od stopnia skomplikowania modelu. Określają np. dynamikę przemian .

-dane- określają warunki zewnętrzne modelowanego obiektu, np. temperatura.

Z zasady teoretyczna wiedza nie jest wystarczająca, by nadać modelowi postać, która umożliwi wykonanie obliczeń. Często nie są znane wszystkie wartości liczbowe niektórych parametrów modelu. W takich sytuacjach dokonuje się ich szacunku na podstawie innych ustalonych parametrów. Proces ten nazywany jest estymacją, a oszacowane statystycznie wartości nazywamy estymatorami. Proces identyfikacji parametrów połączony z ich estymacją to tzw. kalibracja modelu. Ma zapewnić zgodność predykatywną modelu w warunkach odmiennych od tych, w których został opracowany.

Identyfikacja może być bierna lub czynna.

Identyfikacja bierna ma na celu wyznaczenie postaci i parametrów modelu poprzez zgromadzenie danych podczas standardowego działania systemu, które poddawane są opracowaniu statystycznemu.

Identyfikacja czynna jest droższa i bardziej pracochłonna niż bierna, a niekiedy niemożliwa do przeprowadzenia. Polega ona na przeprowadzeniu eksperymentów, których wyniki zostaną zastosowane do określenia modelu.

Algorytmizacja modelu

Jest to proces budowy konkretnego algorytmu. Pod pojęciem algorytmu rozumiemy uporządkowany i skończony ciąg jasno sprecyzowanych czynności, które są niezbędne do wykonania zadania. Poprawnie zbudowany algorytm można wykorzystać do rozwiązywania podobnych zadań.

Algorytm musi spełniać trzy podstawowe zasady:

1.Liczba operacji jest wielkością skończoną – policzalna liczba operacji wynika z faktu, że przy użyciu algorytmu podczas realizacji zadania po wykonaniu odpowiedniej ilości czynności musi nastąpić jego pomyślne zakończenie. Liczba operacji jest różna w zależności od złożoności modelu.

2. Operacje muszą być zrozumiałe i wykonalne dla realizatora – istotne jest poznanie potencjalnych użytkowników, gdyż każdy posiada inny zasób wiedzy.

3. Poprawna kolejność wykonywania poszczególnych operacji- wynika z logiki odwzorowywanego procesu.

Algorytmy mają różny stopień złożoności, z tego punktu widzenia wyróżniamy:

-algorytmy proste – poszczególne instrukcje realizowane są tylko raz i wykonywane jedna po drugiej.

-algorytmy złożone - możliwe są alternatywne rozwiązania w zależności od spełnienia określonych warunków.

-algorytmy cykliczne czyli rekurencyjne- charakteryzują się powtarzaniem sekwencji operacji.

-algorytmy mieszane- występuje jednocześnie rekurencyjność oraz algorytmy złożone.

Zweryfikowanie wyników

Weryfikacja jest to porównanie wyników modelowania ze stanem rzeczywistym pod kątem zgodności z badaniami doświadczalnymi i wiedzą teoretyczną. Faza ta jest ściśle powiązana z każdym z poprzednich etapów budowy modelu, a zatem powinna odbywać się we wszystkich etapach , nie tylko po ukończeniu całego procesu. Struktura modelu, czyli wewnętrzne powiązania miedzy elementami modelu i modelem a rzeczywistością. Ma ona zapewnić zgodność modelowanych powiązań z istniejącymi w rzeczywistości i jednocześnie być przyjazna (łatwa w obsłudze) dla użytkownika.

Wyróżniamy trzy aspekty zgodności wyników modelowania z rzeczywistością:

-zgodność heurystyczna –sprawdzana jest wartość naukowa, poprzez ocenę przydatności modelu do weryfikacji hipotez, interpretacji zjawisk i formułowania zadań badawczych;

-zgodność pragmatyczna- jest oceniana poprzez porównanie wyników modelowania z wielkościami doświadczalnymi. Istotna jest w tym obszarze zgodność predykatywna- bada się ją poprzez wprowadzenie do modelu parametrów z innego okresu czasu lub warunków;

-zgodność strukturalna- sprawdzana jest możliwość zastosowania modelu do imitacji istniejących w rzeczywistości mechanizmów. Jest szczególnie ważna w przypadku modelowania zjawisk przyrodniczych.

W przypadku deterministycznych dynamicznych modeli miarami dopasowania są współczynniki regresji równania i determinacji, najlepiej gdy są bliskie jedności. Z powyższego wynika, że budowa modelu ma charakter iteracyjny. Tworząc strukturę modelu musimy zwracać uwagę na to, jakie dane są dostępne, jakie mamy możliwości obliczeniowe. Stwierdzenie np. że nie mamy odpowiednich danych wymaga powrotu do poprzedniego etapu.

Modelowanie matematyczne w ekonomii

Dzięki matematyce uczymy się logicznego myślenia co nam pomaga w podejmowaniu przyszłych decyzji. W jakich, codziennych lub przynajmniej częstych, sytuacjach może nam się przydać wiedza ekonomiczna? Otóż z regułami ekonomii mamy do czynienia, wykonując jakąkolwiek operację gospodarczą. Wcale nie musimy przy tym prowadzić działalności gospodarczej, wystarczy przejść się do sklepu i cokolwiek tam kupić, aby tym samym zawrzeć umowę kupna – sprzedaży. Ważną część wiedzy ekonomicznej stanowią również kwestie związane z finansami. Powinniśmy tym samym wiedzieć, czym jest procent składany, jak naliczane są odsetki od kredytów, jaki produkt bankowy można uznać za najbardziej korzystny [2, 4].

Do wszystkiego w życiu codziennym:

· ekonomii własnego gospodarstwa domowego,

· w informatyce,

· obliczanie , kosztów, budżetów,

· obliczanie podatków dochodowych,

· wyliczanie stuprocentowych w kredytach udzielanych przez banki,

· przeliczanie ciężaru na objętość w przepisach kulinarnych itp.,

· obliczenia procentowe z uwzględnieniem operacji bankowych,

· inwestycje, planowanie remontów,

· ekonomika obliczeń przy działaniach na ułamkach zwykłych,

· różne operacje bankowe,

· do dokonywania różnego rodzaju obliczeń, porównań, zestawień czy obliczeń statystycznych zestawionych w formie tabelarycznej lub słupkowej przy pomocy programu Excel,

· w rachunkowości: obliczanie wynagrodzeń pracowniczych, kosztów finansowych zakładu pracy, księgi podatkowe, bilanse księgowe,

· ustalanie wyniku finansowego metodą statyczną,

· wyceny aktywów i kapitałów z uwzględnieniem amortyzacji danego środka,

· obliczanie inwestycji długoterminowych,

· prowadzenie różnych statystyk.

Decyzje gospodarcze należą do tych, których konsekwencje rozpatrujemy w kategoriach zysków i strat, dlatego zanim je podejmiemy dokonujemy analizy sytuacji, ustalamy kryteria wyboru decyzji i poszukujemy rozwiązań optymalnych. Pomocne wówczas okazują się metody badań ilościowych prawidłowości występujących w zjawiskach ekonomicznych, które można byłoby najogólniej nazwać ekonometrią. W badaniach ekonomicznych wykorzystywane są różnorodne metody, wypracowane przez wiele dyscyplin matematyki, przede wszystkim analizę matematyczna, algebrę liniową, rachunek prawdopodobieństwa, statystykę matematyczną, programowanie matematyczne, badania operacyjne, teorię procesów stochastycznych, równania różniczkowe i różnicowe, stochastyczne równania różniczkowe, analizę funkcjonalną, teorię grafów [5, 10]. Modelowanie matematyczne obecne jest w makro i mikroekonomii, zarządzaniu przedsiębiorstwem, marketingu, logistyce ekonomicznej, ekonomice transportu, zarządzaniu regionalnym, finansach, bankowości i ubezpieczeniach.

Metody aktuarialne

Dział matematyki stosowanej obejmujący zagadnienia m.in. rachunku prawdopodobieństwa, statystyki, matematyki finansowej, metod numerycznych i koncentrujący się na zastosowaniach w dziedzinie ubezpieczeń nazywamy matematyką aktuarialną. Osoba zajmująca się zawodowo matematyką ubezpieczeniową jest nazywana aktuariuszem. Osoba taka w firmie ubezpieczeniowej odpowiada za wycenę zobowiązań wobec klientów oraz konstrukcję produktów tak, by oczekiwany poziom rezerw oraz strumień przyszłych przepływów pieniężnych zabezpieczył pokrycie tych zobowiązań. Istotą i celem systemu ubezpieczeniowego jest redukcja negatywnych skutków wynikających ze zdarzeń losowych. Nic dziwnego, że rachunek prawdopodobieństwa pełni podstawową rolą w konstruowaniu matematycznych modeli użytecznych w ubezpieczeniach. Statystyka matematyczna jest z kolei podstawowym narzędziem identyfikacji tych modeli, czyli dopasowania parametrów modeli do rzeczywistości. Jednymi z podstawowych zagadnień ekonomii matematycznej są modele wzrostu gospodarczego i ryzyka [4].

Modele probabilistyczne

Ryzyko ma charakter losowy. Zmienna losowa X (ryzyko), opisuje ryzyko ubezpieczeniowe. Wartości szkód są zwykle opisywane za pomocą ciągłych zmiennych losowych, liczby szkód przez zmienne losowe dyskretne, a momenty występowania szkód przez zmienne losowe ciągłe lub dyskretne.

Charakterystyki ryzyka ubezpieczeniowego:

Wartość oczekiwana E(X) < ∞.

Wariancja, odchylenie standardowe V(X).

Mediana Me, kwantyle Q1, Q3.

Współczynnik skośności.

Procesy stochastyczne opisują zmianę ryzyka w czasie. Oznaczenie: Xt dla czasu ciągłego, Xn dla dyskretnego.

Indywidualny model ryzyka polega po prostu na tym, że szkody związane z poszczególnymi polisami opisuje się jako niezależne, nieujemne zmienne losowe. Oczywiście, zakonie o niezależności jest pewnym uproszczeniem, ale w modelowaniu matematycznym tego rodzaju idealizacje s¡ nieuniknione. Głównym obiektem zainteresowania jest suma szkód w portfelu polis i jej rozkład prawdopodobieństwa. W rozważanym modelu ten rozkład jest splotem rozkładów pojedynczych składników. Indywidualny model ryzyka. S = Sn = Xn i=1 Xi , gdzie X1, . . . , Xn są niezależnymi zmiennymi losowymi i Xi > 0; Xi oznacza szkody związane z i-tą polisą, S oznacza sumę szkód w rozważanym portfelu. Podkreślimy jeszcze, że omawiany model opisuje straty w ustalonym okresie (powiedzmy w ciągu roku) i wobec tego nie ma tu potrzeby jawnego uwzględniania czasu pojawiania się poszczególnych szkód [11].

Prognozowanie w ekonomii

W ujęciu potocznym prognozowanie to przewidywanie przyszłości oparte na naukowych podstawach. Przedmiotem prognozy mogą być zjawiska społeczne, gospodarcze, procesy demograficzne itp. Nie ma jednoznacznej definicji prognozowania. Według A. Filasiewicza prognozowanie to oparte na naukowych podstawach przewidywanie przebiegu i stanu przyszłych zdarzeń. Na kształtowanie się procesów wywierają wpływ czynniki zewnętrzne i wewnętrzne. Czynniki egzogeniczne, to te na które nie ma się wpływu i podczas prognozowania należy traktować je jako zewnętrzne ograniczenia, natomiast czynniki endogeniczne mogą być kształtowane przez zainteresowane osoby [6].

Prognozowanie jest szczególnie przydatne w procesach decyzyjnych. Mają za zadania zmniejszyć lukę informacyjną, by zmniejszyć ryzyko. W prognozowaniu stosuje się różne metody. Metoda − to sposób przetwarzania danych w prognozę (Rys. 4).

Szeregiem czasowym nazywamy ciąg następujących po sobie obserwacji pokazujący kształtowanie się danego zjawiska w ustalonym przedziale czasu. Z zasady szeregi czasowe to rezultat złożenia się kilku różnych składników. Złożona struktura szeregu często utrudnia poprawne modelowanie orz prognozowanie przyszłych wartości. Nie zawsze pojedynczy model prawidłowo odzwierciedla zmiany w kształtowaniu się składowych systemu. Należy pamiętać, że prognozowanie na podstawie szeregów czasowych jest podejściem niestrukturalnym - to znaczy, że zakłada, iż przeszłość prognozowanej zmiennej zawiera pełną informację o mechanizmie wpływającym na jej przyszłe wartości. Modele niestrukturalne to modele tworzone bez zaplecza wiedzy ekonomicznej.

Zanim proces konstrukcji modelu prognostycznego należy sprawdzić, czy szereg czasowy może służyć jako podstawa do prognozowania. Może zdarzyć się, że udział przypadkowej składowej jest tak istotny, że żadna metoda statystyczna nie da poprawnych rezultatów badań. W związku z tym należy sprawdzić, czy rozkład danej cechy nie charakteryzuje się za dużym zróżnicowanie zmienności.

O nadmiernych zróżnicowaniu badanej zbiorowości świadczy wartość tego współczynnika większa od 50%.

Budowa modelu jest wynikiem kompromisu między zbytnim uproszczeniem rzeczywistości a jej uszczegółowieniem. Należy pamiętać, że proste modele są bardziej zrozumiałe, tańsze i łatwiejsze do testowania.

Rys. 4. Metody prognostyczne

Główne cele analizy szeregów czasowych to:

-wykrycie natury badanego zjawiska reprezentowanego przez ciąg obserwacji

-prognozowanie, czyli przewidywanie przyszłych wartości.

W każdym szeregu można wyodrębnić kilka podstawowych składowych, które są wynikiem wpływu różnych czynników na badane zjawisko. Są to składowe systematyczne, czyli:

- tendencja rozwojowa – trend- jest to długookresowa tendencja rozwojowa, skłonność do jednokierunkowych zmian, jest konsekwencją działania stałego zestawu czynników,

-wahania cykliczne- związane są zazwyczaj z cyklem koniunkturalnym gospodarki, są to rytmiczne, długofalowe wahania wokół tendencji rozwojowej,

-wahania sezonowe- to wahania wokół trendu w okresie do jednego roku, zazwyczaj powtarzają się w ciągu roku w tym samym czasie.

Oraz składowa przypadkowa-część resztkowa - tzw. Biały szum, przypadkowe wahania nie dające się wyjaśnić i nie podlegające kontroli.

Szeregi czasowe ulegają zmianom regularnym będącym efektem działania trendu i zmienności nieregularnej wywołanej działaniem reszt. W związku z tym składowe szeregu powiązane są związkiem:

-addytywnym- efekty sezonowe polegające za zmianie wartości obserwowanego zjawiska w okresach tego samego typu np. wiosną w przybliżeniu o jednakową wartość przez cały obserwowany okres. Przyjmuje się założenie, że w tym przypadku wskaźnik addytywny dodaje się do wartości trendu,

-multiplikatywny- efekty sezonowe są w przybliżeniu stałe w procentowym ujęciu w stosunku do wartości zjawiska [9].

Model klasyczny zakłada tendencję rozwojową badanego zjawiska. Klasyczny szereg czasowy można przedstawić w postaci formalnego modelu (Tab. 1).

Model addytywny:

yt := F (t) + S (t) + C (t) + ϵ (t) (1)

i model multiplikatywny

yt := F (t) S (t)C (t) ϵ (t), (2)

gdzie:

t - czas,

yt - wartość zmiennej objaśnianej opisującej określone zjawisko w chwili t,

F (t) - funkcja czasu opisująca tendencje rozwojową lub funkcja stała opisująca stały

poziom zmiennej prognozowanej,

S (t) - funkcja czasu opisująca wahania sezonowe,

C (t)- funkcja czasu opisująca wahania cykliczne,

ϵ (t)- funkcja czasu opisująca składową przypadkową − zmienna losowa.

W klasycznych modelach zakłada się, że postać analitycznej funkcji trendu jest stała.

Tabela 1. Najczęściej spotykane klasyczne modele trendu

Model

Postać matematyczna

trend liniowy

yt01t+ut

trend kwadratowy

yt01t+α2t2+ut

trend wielomianowy trzeciego stopnia

yt01t+α2t23t3+ut

trend hiperboliczny

yt01t-1+ut

trend logarytmiczny

yt01lnt+ut

trend potęgowy

yt0*tα1*eut

trend wykładniczy

yt01t*eut

Doboru odpowiedniej funkcji dokonuje się na podstawie tzw. identyfikacji trendu. Pomocna jest graficzna prezentacja wartości analizowanych wielkości. Następnie należy przeprowadzić estymację parametrów modelu prognostycznego. Proces ten polega na oszacowaniu wartości parametrów, przy których model jest najlepiej dopasowany do danych empirycznych. Najczęściej stosowana jest klasyczna metoda najmniejszych kwadratów.

Nieodłącznym elementem gospodarki rynkowej jest ryzyko. Towarzyszy ono każdej działalności człowieka. Wobec tego konieczna staje się umiejętność identyfikacji, pomiaru a następnie kontroli i zabezpieczania się przed występującym zagrożeniem. Szczególnie ważna dla managerów przedsiębiorstw, albowiem nieodpowiednio podjęta decyzja może skutkować pojawieniem się niepożądanych skutków, tj. poniesieniem bardzo wysokich strat.

Ekonomia matematyczna stanowi również uzupełnienie innych obszarów nauki, między innymi: statystyki, ekonometrii, prognozowania, badań operacyjnych.

Interpretacja algebraiczna:

Załóżmy, że zmienia się cena dobra X. Algebraiczne dochód konsumenta przed zmianą ceny zapisujemy jako:

. (3)

Dochód, jaki konsument musiałby osiągać, aby po zmianie ceny mógł nabyć początkowy koszyk dóbr to:

. (4)

Zmianę dochodu „kompensującą” konsumentowi zmianę ceny zapisujemy jako:

; (5)

, (6)

gdzie - dochód, - dochód zmieniony, - pierwotna cena dobra x, - nowa cena dobra x, - cena dobra y, x -ilość dobra x, y - ilość dobra y

Efekt substytucyjny obliczamy ze wzoru:

. (7)

Efekt dochodowy obrazuje wpływ zmiany ceny produktu na zmianę zgłaszanego zapotrzebowania na ten produkt, a spowodowanego zmianą siły nabywczej dochodu konsumenta. Obniżenie ceny zwiększa dochód konsumenta, a tym samym umożliwia mu zakup większej ilości każdego produktu. Podwyższenie ceny tymczasem powoduje spadek możliwej do zakupienia ilości produktów, spowodowany zmniejszeniem siły nabywczej dochodu. Systemy informacji i ich standardowe protokoły komunikacyjne, przedsiębiorstwo przez Internet działają nie tylko ze sobą, lecz może zaangażowania i współdziałania w celu osiągnięcia wzajemnych korzyści, na przykład świadczenie usług, do transakcji sprzedaży lub stawu projekt.

Informacje Systemy przedsiębiorstw połączyć użytkowników lub systemów oprogramowania, zapewnienie zrozumiałe ze względu na ich maszynach interakcji sformalizowane pośrednictwem narzędzia językowe i komunikacyjne, które pozwalają gromadzić informacji lub przekazać je na konsumentów w określonym formacie w czasie rzeczywistym, lub z opóźnieniem. Celem informacji Specjaliści systemów jest przede wszystkim pomoc w decyzji. Model jest pojęciem bardzo ogólnym, używanym w różnych dziedzinach. Celem tworzenia wszelkich modeli jest dążenie do zrozumienia otaczającej nas rzeczywistości, a także do uzyskania pomocy w uporaniu się z jej niezwykłą złożonością. Matematyczna gospodarka to jest zestaw metod matematycznych, pozwalających przedstawić teorie i przeanalizować problemy w gospodarce. To zaprzecza, że matematyka nie pozwala ekonomii sformować znaczące, testowane propozycje. Mowa matematyki pozwala ekonomistom konkretyzować, pozytywne wymogi o spornych czy dokładnych tematach, które były by niemożliwe bez matematyki. Dużo co teorii z ekonomicznej jest teraz obecne w terminach matematycznych modeli ekonomicznych. Ekonomiczno-matematyczny i modeli informacyjnych wprowadzone w postaci programów komputerowych i są częścią" banku wiedzy" Informacje dla przedsiębiorstw i ich System. Informacje może odgrywać opinię wzorem na bardziej ogólny model systemu gospodarczego, w którym główną rolę odgrywają model ekonomiczny i matematycznych.

Bibliografia

[1] TOKARSKI T.: Ekonomia matematyczna. Modele mikroekonomiczne. WNT, Warszawa 2011.

[2] H.U. GERBER: Life insurance mathematics. Springer-Verlag, Berlin 1990.

[3] BEGG D., FISCHER S., DORNBUSCH R.: Mikroekonomia. Polskie Wydawnictwo Ekonomiczne, Warszawa 2007.

[4] KACZMAREK T.T.: Ryzyko i zarządzanie ryzykiem. Wydawnictwo Difin, Warszawa 2006.

[5] KULAPA W.: Matematyczne aspekty ekonomii. Wydawnictwo Uniwersytetu Kardynała Stefana Wyszyńskiego, Warszawa, 2008.

[6] KORDZIKOWSKI H.: Umowa ubezpieczenia życiowego. Faktor, Wrocław 1999.

[7] RONKA-CHMIELOWIEC W.: Ryzyko w ubezpieczeniach-metody oceny. AE, Wrocław 1997.

[8] SANGOWSKI T.: Ubezpieczenia gospodarcze. Poltext, Warszawa 1998.

[9] BEDNARSKI T.: Elementy matematyki w naukach ekonomicznych. Oficyna Ekonomiczna, Warszawa 2004.

[10] KANAS S.: Podstawy ekonomii matematycznej. Wyd. PWN, Warszawa 2011.

[11] PANEK E.: Ekonomia matematyczna. Akademia Ekonomiczna, Poznań 2003.

[12] TARCZYŃSKI W., MOJSIEWICZ M.: Zarządzanie ryzykiem. Polskie wydawnictwo ekonomiczne, Warszawa 2001.

Metoda elementów skończonych dla matematyków


Dynamiczny rozwój technik komputerowych wykreował metodę elementów skończonych (MES) na niezwykle ważne praktyczne narzędzie analizy numerycznej konstrukcji. Metoda elementów skończonych znalazła szerokie zastosowanie w matematyce stosowanej oraz projektowaniu.MES jest pewną metodą rozwiązywania równań różniczkowych, cząstkowych po uprzedniej ich dyskretyzacji we właściwej przestrzeni [1].Dyskretyzację przeprowadza się lokalnie w małych obszarach o prostym, lecz dowolnym kształcie (zwanych elementami skończonymi). W wyniku uzyskuje się równania macierzowe wiążące wielkości wejściowe w określonych punktach w elementach skończonych z wielkościami wyjściowymi w tych samych punktach. W kolejności tworzy się duże macierze sztywności całej rozważanej konstrukcji przez sumowanie mniejszych podobszarów i otrzymany w ten sposób układ równań rozwiązuje się, wyznaczając żądane wielkości [2].Metoda elementów skończonych (MES) jest typowo komputerową metodą wyznaczania naprężeń, odkształceń, uogólnionych sił i przemieszczeń w analizowanej konstrukcji dowolnego rodzaju. Metoda ta opiera się na podziale układu na skończoną liczbęelementów skończonych. W obrębie każdego elementu dokonuje się pewnych aproksymacji, a niewiadome są reprezentowane poprzez funkcje interpolacyjne za pomocą wartości tych funkcji w skończonej liczbie punktów, zwanych węzłami [5].Za pomocą metody bada się w mechanice komputerowej (CAE) wytrzymałość konstrukcji, symuluje odkształcenia, naprężenia, przemieszczenia, przepływ ciepła, przepływ cieczy. Bada się również dynamikę, kinematykę i statykę maszyn, jak również oddziaływania elektrostatyczne, magnetostatyczne i elektromagnetyczne [1], [3].Obliczenia MES mogą być przeprowadzane w przestrzeni dwuwymiarowej (2D), gdzie dyskretyzacja sprowadza się najczęściej do podziału obszaru na trójkąty. Rozwiązanie takie pozwala na obliczenie wartości pojawiających się w przekroju danego układu.Związane są z tym jednak pewne ograniczenia wynikające ze specyfiki rozwiązywanego problemu.Z uwagi na postęp techniki komputerowej w ostatnich latach większość pakietów symulacyjnych wyposażona jest w możliwość rozwiązywania zagadnień w przestrzeni trójwymiarowej (3D). Dyskretyzacja zazwyczaj polega na podziale obszaru na czworościany. Modelowanie takie pozbawione jest fundamentalnych ograniczeń technologii 2D, ale jest znacznie bardziej wymagające pod względem pamięci i mocy obliczeniowej komputera [5].Podstawową zaletą MES jest możliwość uzyskania wyników dla skomplikowanych kształtów, dla których niemożliwe jest przeprowadzenie obliczeń analitycznych. Oznacza to, że dane zagadnienie może być symulowane w pamięci komputera, bez konieczności budowania prototypu, co znacznie ułatwia proces projektowania. Podział obszaru na coraz mniejsze elementy skutkuje zazwyczaj dokładniejszymi wynikami obliczeń, ale jest to okupione zwiększonym zapotrzebowaniem na moc obliczeniową komputera. Dodatkowo należy liczyć się z nakładającymi się błędami obliczeń wynikającymi z wielokrotnych przybliżeń przetwarzanych wartości. Jeśli obszar składa się z kilkuset tysięcy elementów, które mają nieliniowe własności wówczas obliczenia muszą być odpowiednio modyfikowane w kolejnych iteracjach tak, aby końcowe rozwiązanie było poprawne. Dlatego też w wyjątkowych sytuacjach kumulujące się błędy obliczeniowe mogą okazać się niezaniedbywane. Celem minimalizacji tych błędów pomiędzy różnymi wersjami tego samego problemu stosuje się identyczną dyskretyzację problemu tak, aby ewentualne błędy zaokrągleń były takie same, a ewentualne różnice w obliczeniach wynikały rzeczywiście ze zmian własności materiału [2], [4].Symulacje MES nie mogą być przeprowadzane w czasie rzeczywistym, ponieważ dla bardzo skomplikowanych układów rozwiązanie danego problemu może być bardzo długotrwałe. Dodatkowo, wartości obliczone metodą MES obarczone mogą być błędami, których wartość zależy od założeń przyjętych podczas formułowania problemu do rozwiązania, jak również i dokładności dostępnych danych materiałowych. Dlatego też, jeśli to tylko możliwe należy dane obliczone zweryfikować z danymi zmierzonymi na rzeczywistym urządzeniu lub układzie [5].

Modelowanie z zastosowaniem zaawansowanych materiałów w przemyśle samochodowym

General Motors postanowiło dostosować i wprowadzić ulepszone kształty do transportu , które zmniejszą zużycie energii, opory powietrza oraz zredukują wagę elementów.Jako rozwiązanie postanowiono wprowadzić nowe materiały oparte na ultralekkich kompozytach. Dostawcy rozumieją konieczność stosowania nowych materiałów, przywiązując dużą wagę do procesu produkcji oraz konstruowania. W niniejszym opracowaniu zilustrowano trzy proste przykłady, aby pokazać jak poprzez wykorzystanie narzędzi komputerowych wspomóc i nasilić zdobywanie nowych informacji o materiałach i procesach przetwarzania [6].Aplikacji COMSOL Multiphysics można użyć do analizy ciepła, ciśnienia, oporów powietrza itp. Kompozyty termoutwardzalne są szeroko wykorzystywane w przemyśle motoryzacyjnym, ponieważ posiadają małą gęstość, wysoką wytrzymałość i dobrą zdolność pochłaniania energii. Proces wytwarzania części z kompozytów jest dużym wyzwaniem dla konstruktorów; np. stal zachowuje dobre właściwości formujące i zachowuje swój kształt po wyjęciu z formy czego nie można powiedzieć o kompozytach. Jest to spowodowane naprężeniami termicznymi. Konstruktor musi przewidzieć naprężenia które mogą się pojawić, a następnie skonstruować formę w taki sposób by wytworzone części miały pożądane wymiary mieszczące się w odpowiednim do zaakceptowania polu tolerancji. Projekty inżynierskie przygotowują strategie mające na celu minimalizację odkształceń detalu po wyjęciu z formy. W tym kierunku przeprowadza się modyfikacje stosowanych temperatur, modyfikacje włókien kompozytowych oraz skład żywic.W sposób eksperymentalny prowadzone są doświadczenia nad skurczem materiału. Niestety podczas badań występują problemy, co skutkuje tym że wzrastają koszty przedsięwzięcia, a prace są w zarodku. Oprócz tego bada się pozostałe naprężenia występujące w konstrukcji, a mogące wpływać na zmiany kształtu. Prowadzone analizy mają na celu minimalizację tych naprężeń. Badania prowadzone w Comsol Multiphysics są mniej kosztowne i stanowią alternatywę dla badan doświadczalnych, które są droższe. Comsol pozwala na manipulacje i zmianę parametrów wyjściowych co pozwala na wybranie najbardziej korzystnego rozwiązania na etapie konstrukcji. Umożliwia to bieżące wprowadzanie poprawek analizowanego elementu i ich natychmiastowej weryfikacji w procesie symulacyjnym.Symulacja służy do modyfikacji procesu przetwarzania, kształtu wyrobu, zakresu stosowanych temperatur, czasu itp. Program pozwala na elastyczny dobór materiału i dokonywanie zmian, co w konsekwencji prowadzi do wyboru materiału najbardziej korzystnego dla nas. W trakcie symulacji możemy zobaczyć zachowanie materiału podczas przebiegającego procesu, a także występujące naprężenia w modelu.

Przykładem jest wybór materiału, np. porównanie i analiza materiału elastycznego wiskoelastycznego. W przedstawionym przykładzie stosowane są modele wyżej wymienionych materiałów, a następnie porównano naprężenia występujące w obu próbkach.W dzisiejszych czasach konstruowanie sprowadza się do zmniejszania masy pojazdów co prowadzi do zmniejszania zużycia paliwa i mniejszej ilości emitowanych spalin [5].Magnez jest najlżejszym materiałem metalowym będącym 4 razy lżejszy od stali i 1,5 razy lżejszy od aluminium. Jednakże stosowanie magnezu jest ograniczone ze względu na niską odporność na korozje. Na rysunku pokazane jest zachowanie się magnezu i miękkiej stali na korozję po 3 dniach w środowisku chlorku sodu. Widać wyraźnie, że magnez jest dużo bardziej podatny na korozje niż stal miękka [3].Symulacja taka może być przeprowadzona w programie COMSOL Multiphysics i to pomogło w zrozumieniu mechanizmu korozji galwanicznej materiałów [7].Structural mechanic– jest przeznaczony do badania modeli pod obciążeniem oraz ukazuje ich deformację. Pozwala rozwiązywać statyczne i dynamiczne modele wliczając w to nieliniowe problemy. Umożliwia analizę naprężeń i odkształceń powierzchniowych.Acoustic module– jest światowej klasy rozwiązaniem dla potrzebmodelowania akustyki. Łatwe w użyciu aplikacje użytkowe dostarczają do modelu fale akustyczne rozchodzące się w powietrzu, wodzie, innych płynach oraz w bryłach. Moduł ten zaprojektowany jest dla tych, którzy pracują w klasycznej akustyce wraz z urządzeniami które wydają i wykorzystują akustyczne fale. Wykorzystywane w analizach sprzętu audio, mikrofonów, aparatów słuchowych, barier dźwiękowych. Moduł jest również przydatny do kontroli hałasu silników samolotowych.Heat transfer module– moduł ten analizuje problem, które wymagają połączenia przewodnictwa, konwekcji i promieniowania oraz umożliwia ich rozwiązanie.CFD module– wykorzystywany do analizy przepływów laminarnych i turbulentnych cieczy i gazów. Szerokie zastosowanie w analizie wymienników ciepła, turbinach i systemach wentylacyjnych.Reaction engineering module– wykorzystywany do analizy przemieszczenia dwóch obiektów względem siebie oraz ich reakcji.AC/DA module– pozwala analizować wydajność kondensatorów, silników i mikrosensorów. Pozwala badać ugięcia i wibracje w wymienionych wcześniej urządzeniach. Moduł ten obejmuje elektrostatykę, magnetostatykę, i quasistatyczną elektromagnetykę. Metoda elementów skończonych umożliwia podział konstrukcji na elementy, opisie pracy poszczególnych elementów, a następnie zbudowanie opisu pracy całej analizowanej konstrukcji na podstawie przedstawionej pracy poszczególnych elementów skończonych. Zastosowanie MES pozwala na badanie w mechanice komputerowej wytrzymałości konstrukcji, symulacji odkształceń, naprężeń, przemieszczeń.Dyskretyzacja obszaru badanego polega na podziale obszaru na elementy skończonenp. trójkąty. Zwiększenie ilości elementów skończonych w danej siatce pozwala uzyskać dokładniejsze wyniki, jednakże wadą skrupulatniejszych pomiarów jest wydłużenie procesu obliczeniowego, a nawet zastosowanie komputerów o większej mocy obliczeniowej. Metoda MES pozwala na badania przedmiotów o skomplikowanych kształtach, dla których przeprowadzenie obliczeń w sposób analityczny byłoby niemożliwe. Zaletą takiej analizy jest również możliwość analizy elementu w fazie projektu.

Bibliografia

1. O.C.Zienkiewicz: Metoda elementów skończonych. Arkady, Warszawa 1972.

2. Rakowski G., Kacprzyk Z.: Metoda elementów skończonych w mechanice konstrukcji, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 2005.

3. Błazik-Borowa E., Podgórski J.: Wprowadzenie do metody elementów skończonych w statyce konstrukcji elementów skończonych w statyce konstrukcji inżynierskich, IZT, Lublin 2001

4. Metoda elementów skończonych – wybrane problemy, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 1996.

5. Ciesielski R. i inni. Mechanika Budowli. Ujęcie komputerowe t. I i II Arkady. Warszawa, 1991.

6. Łodygowski T., Kąkol W.: Metoda elementów skończonych w wybranych zagadnieniach mechaniki konstrukcji inżynierskich, Skrypt Politechniki Poznańskiej, 1994.

7. Stręk T., Karwat P., Marczyński J., Mierzejewski D., Metoda elementów skończonych w projektowaniu części, Politechnika Poznańska, Poznań 2014.

Podstawy użytkowania baz danych dla matematyków

Co to jest baza danych? Odpowiedź na to pytanie, bez wcześniejszego poznania programu MS Access, wyglądałaby następująco: swoista baza danych nie występuje w świecie rzeczywistym jest to zbiór danych posegregowanych według, interesującego konkretną osobę, organizację lub firmę, zjawiska. Przez bazę danych rozumieć można narzędzie do sprawnego i wydajnego przechowywania informacji oraz posługiwania się nią.Ze względu na sposób zarządzania bazy danych można podzielić na dwa rodzaje:operacyjne bazy danych,analityczne bazy danych.Te pierwsze są to bazy danych, które znajdują zastosowanie w wielu instytucjach, np. w bankach, urzędach, bibliotekach, szkołach itp. Ten typ bazy przechowuje dane dynamiczne, czyli takie, które ulegają ciągłym zmianom i aktualizacjom, a są wykorzystywane tam, gdzie zachodzi potrzeba gromadzenia, przechowywania i modyfikowania danych. Nawiążmy ponownie do przykładowej bazy danych: biblioteki. Dane zawarte w tej bazie muszą być aktualizowane z wielu powodów: zakup nowej książki, przyjęcie nowej osoby, która będzie wypożyczała książki,proces wypożyczania.Jest wiele przykładów operacyjnych baz danych i są one najczęściej stosowane, np. bazy inwentaryzacyjne, bazy obsługi klienta, bazy obsługi zamówień, bazy prenumeraty czasopism, bazy zmiany konfiguracji sprzętu, itp.Natomiast analityczne bazy danych są typem, który przechowuje dane statyczne, czyli takie, które nie ulegają zmianom i zawsze odzwierciedlają stan obiektów z pewnego ustalonego momentu. Można powiedzieć, że bazy te przechowują dane historyczne i informacje związane z pewnymi wydarzeniami. Bazy analityczne przydatne są zarówno do spraw naukowych jak również w problemach ekonomicznych.Wyróżniamy kilka modeli baz danych:model hierarchiczny,model sieciowy,model relacyjny.Model hierarchiczny jest najstarszym modelem bazy danych, z czasem określany został skrótem HMBD (Hierarchiczny Model Bazy Danych). W tym modelu dane przedstawione graficznie przybierają strukturę odwróconego drzewa, w którym jedna z tabel pełni role korzenia a cała reszta ma postać gałęzi. Jako przykład rozważmy bazę danych pośredników,[4] przedstawiona jest ona schematycznie na rysunku 2. Każdy pośrednik pracuje dla kilku muzyków i ma pewna liczbę klientów, którzy zamawiają u niego obsługę muzyczną różnych imprez. Klient zawiera umowę z danym muzykiem przez pośrednika i u tego pośrednika uiszcza należność za usługę.Najważniejszymi elementami w każdej bazie danych są relacje, czyli powiązania pomiędzy kolejnymi tabelami. W hierarchicznym modelu bazy danych relacje występują w strukturze ojciec/syn. Co oznacza, że tabela-ojciec może być powiązana z wieloma tabelami-synami, lecz kolejne tabele-synowie nie mogą przynależeć jednocześnie do kilku nadrzędnych tabel-ojców. Tabele te mogą być powiązane jawnie, przez wskaźniki, lub przez fizyczną organizację rekordów wewnątrz tabel. Aby uzyskać dane w modelu hierarchicznym bazy danych użytkownik musi przedrzeć się począwszy od samej tabeli-korzenia poprzez wszystkie gałęzie do interesującego miejsca, co oznacza, że użytkownik musi bardzo dobrze znać strukturę bazy danych.


Rysunek 1 Diagram modelu hierarchicznego.

Baza danych – zbiór danych zapisanych zgodnie z określonymi regułami. W węższym znaczeniu obejmuje dane cyfrowe gromadzone zgodnie z zasadami przyjętymi dla danego programu komputerowego specjalizowanego do gromadzenia i przetwarzania tych danych. Program taki nazywany jest „systemem zarządzania bazą danych”.Programy do obsługi bazy danych operują głównie na danych tekstowych i liczbowych, lecz większość współczesnych systemów umożliwia przechowywanie danych cyfrowych różnego typu: dane o nieokreślonej strukturze, grafika, muzyka, obiekty itp.Baza danych jest złożona z różnych elementów. Najważniejszymi z nich jest rekord podzielony na kilka pól, w których są przechowywane informacje poszczególnych kategorii. Na przykład w książce adresowej każdy rekord to zbiór informacji na temat jednej osoby. Składa się on z kilku pól przechowujących takie informacje, jak: imię, nazwisko, adres, numer telefonu itp. W każdym polu zapisywane są dane oddzielonej kategorii. Dzięki temu komputerowe bazy danych umożliwiają szybkie sortowanie rekordów według poszczególnych kategorii lub wyszukiwanie informacji w obrębie tylko wybranych pól. Wiele systemów zarządzania bazami danych oferuje możliwość tworzenia masek wprowadzania danych, które służą do wygodniejszego wprowadzenia nowych informacji. Naturalnie można z nich zrezygnować i wpisywać dane do bazy wyświetlanej w postaci tabelarycznej.Z wymienionych struktur, w praktyce zdecydowanie najczęściej używane są bazy relacyjne.W bazach kartotekowych każda tablica danych jest samodzielnym dokumentem i nie może współpracować z innymi tablicami. Z baz tego typu korzystają liczne programy typu: książka telefoniczna, książka kucharska, spisy książek, kaset i inne. Wspólną cechą tych baz jest ich zastosowanie w jednym wybranym celu.W bazach relacyjnych wiele tablic danych może współpracować ze sobą. Bazy relacyjne posiadają wewnętrzne języki programowania, wykorzystujące zwykle SQL do operowania na danych, za pomocą których tworzone są zaawansowane funkcje obsługi danych. Relacyjne bazy danych oparte są na kilku prostych zasadach:Wszystkie wartości danych oparte są na prostych typach danych.Wszystkie dane w bazie relacyjnej przedstawiane są w formie dwuwymiarowych tabel . Każda tabela zawiera zero lub więcej wierszy i jedną lub więcej kolumn. Na każdy wiersz składają się jednakowo ułożone kolumny wypełnione wartościami, które z kolei w każdym wierszu mogą być inne.Po wprowadzeniu danych do bazy, możliwe jest porównywanie wartości z różnych kolumn, zazwyczaj również z różnych tabel, i scalanie wierszy, gdy pochodzące z nich wartości są zgodne. Umożliwia to wiązanie danych i wykonywanie stosunkowo złożonych operacji w granicach całej bazy danych.Wszystkie operacje wykonywane są w oparciu o algebrę relacji, bez względu na położenie wiersza tabeli. Nie można więc zapytać o wiersze, gdzie (x=3) bez wiersza pierwszego, trzeciego i piątego. Wiersze w relacyjnej bazie danych przechowywane są w porządku zupełnie dowolnym – nie musi on odzwierciedlać ani kolejności ich wprowadzania, ani kolejności ich przechowywania.Z braku możliwości identyfikacji wiersza przez jego pozycję pojawia się potrzeba obecności jednej lub więcej kolumn niepowtarzalnych w granicach całej tabeli, pozwalających odnaleźć konkretny wiersz. W bazach obiektowych dane przechowywane są w strukturach obiektowych. Współcześnie popularność tego tematu zmalała, choć prace badawcze nad nimi nadal trwają, a na rynku pojawiły się obiektowe SZBD. Prace nad obiektowymi bazami danych ponowiło międzynarodowe konsorcjum OMG.Bazy relacyjno-obiektowe pozwalają na manipulowanie danymi jako zestawem obiektów, posiadają jednak bazę relacyjną jako wewnętrzny mechanizm przechowywania danych.Pod pojęciem bazy nierelacyjnej najczęściej rozumie się przechowywanie danych w formie listy par obiektów klucz-wartość, w których nie występują powiązania relacyjne między przechowywanymi obiektami. W bazie NoSQL najczęściej nie ma wymagania aby obiekty były jednorodne pod względem struktury. Niekiedy pojecie to używane jest szerzej, do określenia wszelkich struktur danych w których nie występują tabele i relacje.Jest odmianą bazy relacyjnej, w której każdy rekord posiada stempel czasowy, określający czas w jakim wartość jest prawdziwa. Posiada także operatory algebry relacyjnej, które pozwalają operować na danych temporalnych.Rola informacji zwiększa się nieustannie wobec wciąż postępującego rozwoju cywilizacyjnego i towarzyszącego mu postępowi technologicznemu. Dostęp do niej decyduje o poziomie życia jednostek oraz warunkuje awans cywilizacyjny całych społeczeństw. W sferze edukacyjnej wpływa na poziom wykształcenia i otwiera możliwości samodoskonalenia. Tym samym otwiera perspektywy społecznego i zawodowego awansu, jednocześnie pozwala na realizację osobistych ambicji i zaspokojenie potrzeb, zarówno tych wyższych – intelektualnych, jak i zwykłych materialnych potrzeb życia codziennego. To ogromne znaczenie dostępu do informacji zostało już dawno zauważone i wykorzystane także komercyjnie przez wyspecjalizowane firmy. W sferze biznesu informacja stała się takim samym towarem jak inne wytwory ludzkiej działalności. Postęp technologiczny w końcu XX wieku pozwolił na sprawne gromadzenie informacji, jej opracowanie-przetwarzanie oraz udostępnianie. Rozwój komputeryzacji i globalnej sieci internetowej otworzył szeroki dostęp do źródeł informacji. Nastąpiła także rewolucja technologiczna jej form, możliwości przechowywania i sposobu udostępniania. Jest to szczególnie widoczne w przypadku baz danych, które przeszły ewolucję pod każdym z wymienionych względów. Papierowe bazy danych, kartoteki, ręcznie pisane fiszki oraz drukowane formularze ustąpiły miejsca ich 2 elektronicznym wersjom. Zmieniły się nie tylko forma i sposób utrwalania informacji. Najważniejszy z przełomów, wynikał z nowych możliwości technologicznego przetwarzania danych w informacje, zastosowania rozbudowanych narzędzi wyszukiwania oraz ich udostępniania na niespotykaną do tej pory skalę. Przeciętny użytkownik informacji korzystający np. z Internetu często nie ma świadomości, że wynik jego poszukiwań jest rezultatem złożonego procesu przetwarzania danych. Zagadnienie to wyjaśniane jest zarówno w szerokim jak i węższym znaczeniu. Najczęstsza odpowiedź udzielana przez studentów ogranicza się do stwierdzenia, że baza danych to „jakiś zbiór informacji”. Po zastanowieniu dodają, że jest to zbiór uporządkowany. Po części jest to prawidłowa odpowiedź, lecz niewystarczająca. Baza danych jest to nic innego jak zbiór danych, które zapisane są zgodnie z określonymi z góry regułami.

rys. 1 przedstawia bazy danych według rodzaju informacji

Budowa bazy danych

Bazy danych są zbudowane z takich elementów jak:

tabele – są to podstawowe obiekty każdej bazy danych, przechowują one dane na których podstawie tworzone są pozostałe obiekty bazy.

kwerendy – są to inaczej zapytania/pytania, służą do wyszukiwania danych m.in. w tabelach lub w bazie oraz w innych kwerendach. Służą jeszcze do tworzenia tabel i analizy, łączenia informacji z kilku obiektów, wykonywania obliczeń a także modyfikacji oraz aktualizacji danych.

formularze – są one przeznaczone do zarządzania bazą danych. Dzięki nim można wprowadzać, usuwać, oglądać oraz drukować dane i wykonywać obliczenia.

raporty – służą one do grupowania (automatycznego) i podsumowywania danych a także do tworzenia wydruków.

strony – albo inaczej mówiąc strony dostępu do danych, służą one do prezentacji danych w internecie a także w sieci lokalnej.

makra – służą one do automatyzacji funkcji systemem zarządzania bazą danych.

moduły – umożliwiają one dostęp do struktur (specjalnych), które przechowują kod napisany w języku programowania.

grupy – pozwalają one na stworzenie własnej organizacji bazy.

rys. 2 przedstawia budowę bazy danych

Rodzaje baz danych

Bazy danych możemy podzielić według struktur organizacji danych, których to używają:

Bazy proste: hierarchiczne- w tych bazach dane przechowywane są na zasadzie rekordów nadrzędnych-podrzędnych, oznacza to tyle, że rekordy przypominają strukturę drzewa. Każdy rekord jest związany z dokładnie tylko jednym rekordem nadrzędnym. Dobrym przykładem hierarchicznej bazy danych jest baza IMS.-drzewo – jest to struktura danych, która reprezentuje drzewo matematyczne. Reprezentuje hierarchię danych jest więc stosowane przeważnie do tego celu. Drzewa przyspieszają i bardzo ułatwiają wyszukiwanie oraz pozwalają w prosty sposób operować na danych, które są w pewien sposób posortowane.-kartotekowe (inaczej prosta baza danych) – jest to baza danych, która jest złożona z tylko jednej tablicy, ta natomiast zawiera identyczną strukturę pól. Każda z tablic danych jest dokumentem samodzielnym i nie może ona współpracować z innymi. Przykładami takiej bazy danych są np. spisy książek, spisy danych osobowych lub spisy płyt.

LITERATURA:

Literatura

[1] Beynon-Davies P. „Systemy baz danych”, WNT, Warszawa 2000;

[2] Codd E.F. „The Relational Model for Database Systems”, Adison-Wesley Pub. Comp., 1991;

[3] Date C.J. „Wprowadzenie do systemów baz danych” WNT, Warszawa 2000;

[4] Hernandez M. J. „Bazy danych dla zwykłych śmiertelników”, Wydawnictwo MIKOM, Warszawa 2000;

[5] Praca zbiorowa „Microsoft Access 97 – krok po kroku”, Wydawnictwo RM Sp. z o.o., Warszawa 1997;

[6] Riordan R.M. „Projektowanie systemów relacyjnych baz danych”, Wydawnictwo RM Sp. z o.o., Warszawa 2000;

[7] Ullman J. D., Widom J. „Podstawowy wykład z systemów baz danych”, WNT, Warszawa 2000;

[8] Ullman S. „Systemy baz danych”, WNT, 1988;

[9] Viescas J. „Arkana Microsoft Access 97”, Wydawnictwo RM, Warszawa 1997;

Matematyka stosowana w nanotechnologii

Nanotechnologia w ostatnich latach wzbudza coraz większe zainteresowanie, stwarza olbrzymie możliwości tworzenia materiałów w skali manometrycznej. Nanonapełniacze wprowadzone do znanych już materiałów znacząco ulepszają ich właściwości fizyczne, biologiczne i mechaniczne. Stosowane w nanotechnologii modelowanie numeryczne obecnie jest bardzo modną i prężnie rozwijającą się dziedziną inżynierii. Najważniejszą zaletą modelowania jest możliwość uniknięcia zastosowania metod doświadczalnych przy rozwiązywaniu problemu.W porównaniu z obserwowanymi cząsteczkami w skali makro zachowanie nanocząsteczek jest nie do przewidzenia. Modelowanie i symulacje numeryczne są powszechnie stosowane do zagadnień klasycznych. Model ośrodka oraz obliczenia oparte na tym modelu nie mogą być stosowane w zagadnieniach związanych z nanotechnologią. Zastosowanie tu znalazły symulacje komputerowe, które znakomicie umożliwiają znalezienie rozwiązania dla problemów związanych z biofizyką, fizyką statyczną oraz chemią materiałową. Symulacja komputerowa doskonale zastępuję analizę zjawiska tam gdzie jest ona niemożliwa lub bardzo trudna do wykonania, najczęściej przy budowie wiarygodnego modelu analitycznego czy wykonaniu eksperymentu. Czasami jedynie przy zastosowaniu symulacji komputerowej można zbadać dokładnie aspekty złożonych systemów pomimo tego, że techniki eksperymentalne dotyczące szczegółowych informacji są zadowalające. W celu przeprowadzenia symulacji komputerowej należy wprowadzić parametry wejściowe, które są charakterystyczne dla modelowanego systemu. Takie parametry uzyskujemy z teoretycznych rozwiązań lub z danych eksperymentalnych.Wyróżniamy dwie klasy metod symulacji: deterministyczne oraz stochastyczne. Podstawą metod deterministycznych jest wykorzystanie dynamiki wewnętrznej modelu do przemieszczania układu w przestrzeni fazowej. Aby przemieszczać układ poprzez przestrzeń fazową należy sformułować równania ruchu i całkować je po czasie. Metoda stochastyczna opiera się ono na fakcie, że

w istocie konieczne jest wyznaczenie wartości jedynie konfiguracyjnej części zagadnienia. Część pędową można zawsze scałkować i wyłączyć. Przejście z jednej konfiguracji do następnej, która w ujęciu deterministycznym była określona przez wartości pędów, w metodach stochastycznych jest realizowane w wyniku ewolucji probabilistycznej za pośrednictwem procesu Markowa.Metoda numerycznego całkowania równań ruchu układów wielocząsteczkowych nazywana jest dynamiką molekularną. Układy składające się z cząstek podlegają klasycznym prawom ruchu, natomiast mikroskopowe parametry opisujące stan układu obliczane są jako średnie po trajektorii w przestrzeni fazowej.Opis działania dynamiki molekularnej:dla każdej cząstki należy obliczyć siłę na nią działającą, pochodzącą od pozostałych cząstek ;korzystając z obliczonych sił, przy znajomości położenia cząstek, obliczamy nowe położenia i pędy każdej cząstki stosując numeryczne równanie ruchu Newtona;wyznaczając parametry mikroskopowe, obliczamy wielkości makroskopowe.Dynamika molekularna wymaga szczegółowego opisu molekuł oraz oddziałujących między nimi sił. Łączenie równań ruchu złożonych systemów cząstek i i kroków czasowych jest efektem symulacji dynamiki molekularnej. Trajektorie podążających cząsteczek podczas obliczeń obrazują rzeczywiste molekularne trajektorie. Dynamika molekularna opisuje tempo rozwoju zbioru oddziałujących atomów.

W dynamice molekularnej stosujemy prawa mechaniki klasycznej :

Fi(t) = miai(t)

Ponieważ każdy atom i w systemie został utworzony przez N atomów, mi jest masą atomu,

ai = d2 ri/dt2

jest przyspieszeniem Fi siłą oddziaływującą dzięki oddziaływaniu z innymi atomami.

Dynamika molekularna jest techniką deterministyczną: podanie początkowych pozycji i prędkości oraz czasu późniejszej ewolucji są dokładnie określone. Atomy poruszają się oddziaływując wzajemnie na siebie, wędrują dookoła (jeśli system jest płynem), drgają i prawdopodobnie omijają system w przypadku wolnej przestrzeni. Zatem w pewnym sensie oddziaływają tak jak zrobiłyby to atomy w rzeczywistej substancji.Chcąc wyrazić siłę pochodzącą od atomu α z molekuły i na atom β z molekuły j jako fiαjβ , wtedy cała siła oddziałująca na molekułę i to :

Fi = ∑jαfiα jẞ

Natomiast moment obrotowy jest wyrażany jako:

Ni = ∑α (r – Ri)× f

gdzie:

Ri = 1/Mi ∑α mr

jest środkiem masy molekuły i.

Ruch jest określony (wyrażony) przez równania Newtona-Eulera:

Mi Ȑi = Fi ,

Ii · ωi − ωi × Ii · ωi = Ni,

gdzie ωi jest prędkością kątową molekuły.

Powszechnie stosowane jest przedstawianie położenia molekuł za pomocą kwaternionów, które są bardziej preferowane od kątów Eulera.

Motorem programu Dynamiki Molekularnej jest jego algorytm integrujący wymagany do łączenia równań ruchu oddziałujących wzajemnie cząstek i podążania za ich trajektorią. Algorytmy łączące bazują na określonych różnych metodach dyskretyzujących czas i krok czasowy równy Δt. Znając położenia poszczególnych cząstek i ich niektóre pochodne po czasie t (szczegóły zależą od typu algorytmu), schemat łączenia daje te same wielkości w późniejszym czasie (t + Δt).Najprostszym przypadkiem algorytmu dynamiki molekularnej jest zastosowanie do obliczania sił równania ruchu Newtona:

Fi(t) = miai(t)

gdzie -oznacza siłę, -jest masą, – przyspieszeniem atomu i.

Siła działająca na atom i może zostać obliczona bezpośrednio poprzez zróżniczkowanie funkcji energii potencjalnej po położeniu :

∂V/∂ri = mi (∂2ri/∂ti2)

Powyższe równania są klasycznymi równaniami deterministycznymi. Oznacza to, że jeśli znane są warunki początkowe, dla dowolnej chwili czasowej t znane są położenia i prędkości atomów. Współrzędne i prędkości atomów całego przebiegu symulacji noszą nazwę trajektorii.Metoda rozwiązywania takiego równania jest zawsze taka sama: znając położenia i prędkości atomów w chwili t, oblicza się położenia i prędkości w chwili t+Δt. Najczęściej stosowaną metodą całkowania równań ruchu jest algorytm Verleta.Podstawowym założeniem algorytmu jest to, aby wyprowadzić dwa rozwinięcia Taylora trzeciego rzędu dla położeń r(t), jednego wstecz a drugiego w przód, w czasie.

Oznaczając prędkość jako v, przyśpieszenie jako a i b jest trzecią pochodną r po czasie t, otrzymujemy:

r (t + ∆t) = r(t) +v(t)∆t + 1/2a(t)∆t2 + (1/6) b(t)∆t3 + O (∆t4 )

r (t – ∆t) = r(t) – v(t)∆t – 1/2a(t)∆t2 – (1/6) b(t)∆t3 + 0 (∆t4 )

Zsumowanie obu wyrażeń daje:

r(t + Δt)=2r(t) − r(t − Δt) + a(t)Δ+ O(Δ )

To jest podstawowa forma algorytmu Verleta. Ponieważ łączymy równania Newtona, a(t) jest tylko siłą podzieloną przez masę, jak również siła jest funkcją odwrotną położenia r(t):

a(t) = – (1/m)∆v(r(t)).

Prędkości nie są potrzebne, aby policzyć trajektorie, ale są pomocne do oszacowania energii kinetycznej (całkowitej energii). Prędkości te mogą być otrzymane z wzoru:

v(t) = [r(t+∆t) – r(t-∆t)]/ 2∆t.

Ten algorytm jest jednocześnie na tyle prosty, dokładny i stabilny, aby wyjaśnić jego dużą popularność wśród symulatorów dynamiki molekularnej.

Ważnym parametrem każdej symulacji dynamiki molekularnej jest krok czasowy. Aby jak najlepiej wykorzystać czas procesora należałoby użyć dużego kroku czasowego. Jednakże takie postępowanie może prowadzić do niedokładności, a nawet niestabilności algorytmu.

Innym ważnym zagadnieniem jest dobór parametrów początkowych. O ile początkowy układ atomów jest dobrze określony, ponieważ zależy on najczęściej od wyniku poprzedzającej dynamikę minimalizacji, o tyle prędkości początkowe atomów są losowe. W wyniku tego eksperymenty nie są dokładnie powtarzalne. Często jednak algorytmy dynamiki molekularnej pozwalają na podanie tej samej wartości początkowej generatora liczb losowych dla wielu eksperymentów, co gwarantuje dokładną powtarzalność.

Źródło : http://www.pwszchelm.pl/kis/publikacje/VII/Kucaba.pdf

MathCAD dla matematyków

MATHCAD – ogólne cechy funkcjonalne oprogramowania:

obliczenia numeryczne – operatory numeryczne, funkcje numeryczne, operacje symboliczne – upraszczanie, całkowanie, różniczkowanie, przekształcenia algebraiczne, operacje na wektorach i macierzach, statystyki, analiza danych, równania różniczkowe zwyczajne, definiowanie jednostek oraz korzystanie z własnych, szybkie obliczenia, korzystanie z rozwiniętej technologii rozwiązywania układów równań liniowych i nieliniowych;

obliczenia symboliczne;

korzystanie z narzędzi wizualizacyjnych, możliwości graficzne 2D oraz 3D, dostępne odwzorowania: kartezjańskie, polarne, powierzchniowe, konturowe, słupkowe, rozproszone oraz pole wektorowe, dostępne opcje oświetlenia, znaki specjalne oraz szczególne typy linii dla DSP, możliwość animacji wykresów 2D i 3D;

tworzenie zwartego dokumentu zawierającego „żywe obliczenia”- standardowa notacja matematyczna, automatyczne przeliczanie wyników, przerysowywanie wykresów po zmianie pewnych zmiennych, możliwość łączenia tekstu, obliczeń, wykresów i grafiki w jeden, spójny arkusz dokumentu, szereg opcji formatowania elementów dokumentu, style tekstu i dokumentu;

rozwiązywanie skomplikowanych obliczeń – narzędzia do programowania pozwalają prowadzić nawet najbardziej złożone obliczenia;

integracja z oprogramowaniem firm trzecich oraz systemami danych – aplikacje CAD, CAE, banki i bazy danych, systemy PDM, Microsoft Office, Excel , Visio i inne programy Office, AutoCAD, Axum 7, SmartSketch 4, VisSim, MATLAB, komponenty ODBC – m.in. Microsoft Access oraz FoxPro, odczyt i zapis plików typu .WAV, pozyskiwanie danych z płyt analogowych, w czasie rzeczywistym I/O National Instruments oraz ComputerBoards;

możliwości zaawansowane w postaci możliwości wprowadzania obiektów skryptowych na bazie Jscript oraz Vbscript, SDK i innych narzędzi, pozwalające budować indywidualne komponenty oraz biblioteki funkcyjne wykorzystując C++;

przedstawianie dokumentów jako pliki Mathcad, MathML, tworzenie wydruków.

Oprócz standardowych, wbudowanych obliczeń Mathcad pozwala również na tworzenie własnych podprogramów przyspieszających niektóre obliczenia. Wszystkie komendy programowania należy wybierać z palety Programming. Pierwsze kliknięcie AddLine powoduje utworzenie nowego programu. Ostatnią linią powinno być polecenie return zwracające obliczoną wartość. Mathcad jest oprogramowaniem, które łączy w sobie funkcjonalność procesora i edytora tekstu z zaawansowanym arkuszem kalkulacyjnym. Pozwala jednocześnie i interaktywnie wykorzystywać teksty, formuły matematyczne, tabele, wykresy, a nawet animacje. Dodatkowym atutem jest możliwość weryfikacji poprawności formuł i zawartości tworzonych dokumentów. Jako produkt z portfolio rozwiązań z rodziny PDS posiada również narzędzia integrujące jego środowisko ze środowiskiem rozwiązań CAD z grupy Creo oraz PLM z grupy Windchill.

Niech będzie dana funkcja kwadratowa:

f(x) = ax2 + bx + c

Rozwiązanie równania f(x)=0 jest dobrze znane, ale poniżej przedstawiono jak można zapisać formułę rozwiązującą jako komenda języka programowania, formuła arkusza Excel lub wyrażenie w środowisku programu Mathcad.Wyrażenie w języku programowania:

x=(-B+SQRT(B**2-4*A*C))/(2*A)

Wyrażenie w arkuszu kalkulacyjnym:

=(-B1+PIERWIASTEK(B1*B1-4*A1*C1))/(2*A1)

oraz w środowisku programu Mathcad:

x = [ (-b + √(b2 – 4ac)) / 2a ]

Nie ulega wątpliwości, która z tych formuł najbardziej przystaje do wzoru pisanego ręcznie. Ale Mathcad to nie tylko tradycyjna notacja matematyczna i ładnie wyglądające wzory. Program pozwala rozwiązać tak zdefiniowane zagadnienie i może to być wykonane zarówno numerycznie jak i symbolicznie.

Źródła:

http://home.agh.edu.pl/~lstepien/Mathcad/Mathcad_06_pl.pdf

http://www.3dpro.com.pl/PTC_Mathcad,13

http://www.mathcad.pl/?dlaczego-mathcad-,160

Wykorzystanie programu MatLab w badaniach laboratoryjnych

W dobie powszechnej cyfryzacji trudno wyobrazić sobie badania laboratoryjne skomplikowanych procesów fizycznych, między innymi tych, zachodzących w komorze spalania silnika spalinowego, bez wykorzystania nowoczesnych narzędzi. Duża liczba danych, które uzyskujemy w trakcie badań wymaga zastosowania wydajnych komputerów, wyposażonych w odpowiednie oprogramowanie, które będzie łatwe w obsłudze i pozwoli na szybką analizę wyników. To pozwala nam lepiej poznać zachodzące w trakcie spalania paliwa procesy. Istnieje kilka programów, stosowanych w badaniach inżynieryjnych i materiałowych. Jednym z najpopularniejszych jest MatLab.Nazwa programu MatLab pochodzi od angielskich słów MATrix LABoratory, ponieważ początkowo program przeznaczony był głównie do numerycznych obliczeń macierzowych. Aktualna wersja programu posiada znacznie więcej funkcji, a dodatkowo posiada możliwość rozbudowy o kolejne funkcje, w tym pisane przez użytkownika. Ułatwia to indywidualny język programowania.MatLab posiada także funkcje graficzne. Między innymi umożliwia rysowanie dwu i trójwymiarowych wykresów funkcji oraz wizualizację wyników obliczeń w postaci rysunków statycznych i animacji. To, co pozwala wykorzystać program w badaniach laboratoryjnych, w tym w badaniach silników spalinowych, to możliwość pobierania danych pomiarowych z urządzenia zewnętrznego oraz ich obróbka. Wszystko to powoduje, że program ten znajduje bardzo szerokie zastosowanie w badaniach laboratoryjnych. Najnowszą wersją tego programu jest [1], [3].Pierwowzór programu MatLab powstał w Stanach Zjednoczonych Ameryki. Na zlecenie National Science Foundation utworzono biblioteki języka Fortran do obliczeń macierzowych: Linpack i Eispack. Jeden z autorów tych bibliotek, Cleve Moler prowadził zajęcia z algebry liniowej na Uniwersytecie stanu Nowy Meksyk. Program napisany w formie prostego interaktywnego języka poleceń i rozprowadzany na zasadach public domain uznawany jest za pierwowzór programu MatLab. W zakresie programowania obiektowego możemy: definiować własne klasy obiektów i metody (funkcje) je obsługujące, przeciążać funkcje i operatory, oraz dziedziczyć klasy obiektów.Zaawansowane możliwości programowania w MATLAB, duża ilość gotowych funkcji bibliotecznych oraz możliwości graficzne powodują, że MATLAB pozwala na rozwiązanie wielu problemów numerycznych w czasie znacznie krótszym, niż zajęłoby napisanie własnego kodu w C lub Fortranie.Wszelkie wprowadzane i deklarowane dane MATLAB traktuje jako macierz – pojedyncza liczba jest traktowana jako macierz o wymiarze 1×1. MATLAB wyróżnia następujące typy danych: [1], [3], [5].


Grafika

Przykładowy wykres 3D wykonany za pomocą Matlaba [1]

MatLab cechuje obiektowy system graficzny:

• obiekty graficzne (nadrzędne okno graficzne, układ współrzędnych, okno menu, przyciski i suwaki etc.) są hierarchicznie uporządkowane w postaci drzewa – każdy obiekt ma jednego przodka i może mieć dowolną ilość potomków (dziedziczenie),

• każdy obiekt graficzny ma swoje właściwości (kolor, rozmiar, położenie etc.).

Pisząc okienkowy program w MATLAB wykorzystujemy gotowe obiekty graficzne, lub możemy tworzyć własne obiekty dziedzicząc już zdefiniowane.

Wczytywane obrazy są w pamięci zapisywane w postaci macierzy liczb double (w zakresie 0–1) lub liczb uint8 (zakres 0–255), obróbka obrazu polega na dokonywaniu operacji matematycznych na takiej macierzy.

Biblioteki dodatkowe (toolboksy)

Toolboksy (z ang. toolboxes) to zbiór dodatkowych bibliotek (m-plików) do rozwiązywania specjalistycznych problemów z określonych dziedzin (automatyka, elektronika, telekomunikacja, matematyka etc.). Biblioteki te rozszerzają możliwości programu MatLab.

Spośród dużej liczby istniejących toolboksów wymienić można:

• Financial Toolbox – przeznaczony do analiz i obliczeń finansowych (planowanie stałych przychodów, badanie wydajności obligacji, kalkulacja przepływu gotówki, obliczanie stóp procentowych etc.).

• Fuzzy Logic Toolbox – środowisko do projektowania i diagnostyki inteligentnych układów sterowania wykorzystujących metody logiki rozmytej i uczenie adaptacyjne.

• Image Processing Toolbox – programowe narzędzia do przetwarzania obrazów.

• Mapping Toolbox – przeznaczony do analizy informacji geograficznych i wyświetlania map, z możliwością dostępu do zewnętrznych źródeł geograficznych.

• Neural Network Toolbox – zbiór funkcji do projektowania i symulacji sieci neuronowych.

• Symbolic Math Toolbox – zestaw funkcji do obliczeń symbolicznych – rozszerza możliwości programu MatLab o możliwość wykonywania obliczeń symbolicznych.

• Partial Differential Equation Toolbox – zestaw funkcji do numerycznego rozwiązywania równań różniczkowych cząstkowych metodą elementów skończonych.

• Simulink – pakiet służący do modelowania, symulacji i analizy układów dynamicznych. Simulink dostarcza także graficzny interfejs użytkownika umożliwiający konstruowanie modeli w postaci diagramów blokowych.

• Spline Toolbox – zestaw bibliotek do aproksymacji i interpolacji funkcjami sklejanymi.

• Wavelet Toolbox – biblioteka do analizy falowej sygnałów.

Podsumowanie

Wykorzystanie programu MatLab do opracowania wyników badań ułatwia pracę badawczą w wielu dziedzinach. Pozwala na szybkie opracowanie i analizę wyników czysto matematycznych z możliwością przedstawienia w sposób graficzny uzyskanych wyników. Dodatkowo wykorzystując program MatLab możemy modelować i symulować działanie układów dynamicznych, dzięki czemu z programu korzystać mogą inżynierowie. Możliwe jest także tworzenie sieci neuronowych, co pozwala na zastosowanie programu w biomechanice.

Bibliografia:

1. SRADOMSKI W., MatLab. Praktyczny podręcznik modelowania, Wydawnictwo Helion, Gliwice 2014

2. BRZÓZKA J., DOBROCZYŃSKI L., MatLab. Środowisko obliczeń naukowo-technicznych, Wydawnictwo MIKOM, Warszawa 2005

3. PRATAP R., MatLab dla naukowców i inżynierów, Wydawnictwo Naukowe PWN, Warszawa 2010

4. MROZEK B., MROZEK Z., MATLAB uniwersalne środowisko do obliczeń naukowo -technicznych", Wydawnictwo Ago, Kraków 1994

5. MathWorks – Makers of MATLAB and Simulink http://www.mathworks.co.uk/products/matlab/index.html?sec=applications (ang.). [dostęp 2013-03-14].

Literature
1.            Grotendorst J., Marx D., Muramatsu A., Quantum Simulations of Complex Many-Body Systems: From Theory to Algorithms, John von Neumann Institute for Computing, Jlich, NIC Series, Vol. 10, ISBN 3-00-009057-6, pp. 211-254, 2002 
2.            Ihor Ohirko. Olexandra Romaniuk. Deformation. Thermosoftening plastic. University "Lviv Stavropigion". Institute for Eastern Europe. Lviv. 2014. s.59 .ISBN 978-966-2037-17-4.
3.            Ihor Ohirko , Sofia Kaschevska. Modelowanie matematyczne. Administracja publiczna. Informatyka medyczna. Institute for Eastern Europe.Університет Львівський Ставропігіoн",Lviv 2014 . s.75  ISBN   978-966-2037-17-5.
4.            Ohirko I. V. Ohirko O. I. Yasinska-Damri L. M. Yasinskyi M. F. Іnformation technologies and models of corrosion measurement for surface layers of metals. Scientific Papers Ukrainian Academy of Printing. 2016 .№ 1 (52) S.69-77. ISSN 1998-6912
5.            Kucherov D.P., Ohirko I.V., Ohirko O.I., Golenkovskaya T.I. Neural Network technologies for recognition characters. Electronics and control systems. "National Aviation University"– № 4 (46). – 2015. – P. 65-71.ISSN: 1990-5548.
6.            Ihor Ohirko, Michaił Yasinsky, Ludmiła Yasinska-Damri, Olga Ohirko. Models of Geometrical Optics and Lenticular Printing: "Computer Technologies of Printing ".Volume: 2 .Ukrainian Academy of Printing . 2015. – P. 205-213.ISSN: 2411-9210.
7.            W. Wysoczansky, A. Oliejnik, I. Ohirko. MATHEMATICAL MODELLING OF DIFFUSION PROCESSES IN THE SHALE GAS PRODUCTION TECHNOLOGY. Instytut Budownictwa, PSW im. Papieża Jana-Pawła II. „TELECOTRON INTERNATIONAL”.WARSZAWA .2016. Pg. 22.ISBN 978-83-932045-2-6-0.
8.            D. P. Kucherov, I. V. Ogirko, O. I. Ogirko. Calculation of integrals by Monte Carlo in the illumination problem of synthesized objects. SCIENCE AND EDUCATION A NEW DIMENSION. Natural and Technical Sciences, IV (11), Issue: 96, BUDAPEST. 2016. 42-47 ISSN 2308-1996
9.            Joanna Masiewicz, Ihor Ohirko. Matematyka stosowana w nanotechnologii. Uniwersytet Technologiczno-Humanistyczny im. K. Pułaskiego w Radomiu. Wydział Informatyki i Matematyki. Artykuł naukowy. Opublikowane e-publikácie.http://dr-joannamasiewicz.blog.pl/ 13 października 2017 .
10.        M. Snopczyński, I. Ogirko. Technologia spiekania laserowego proszków metalowych DMLS. Uniwerystet Technologiczno-Humanistyczny im. Kazimierza Pułaskiego w Radomiu. e-publikácie.http://dr-snopczynski-m.blog.pl/ 13 października 2017.
11.        Urban Paulina, Ihor Ohirko .Time-Based Optical Modeling Methods.E-publication. Kazimierz Pułaski University of Technology and Humanities in Radom. Department of Computer Science and Mathematics. http://dr-urban.bloog.pl/id,363922086,title,Time-Based-Optical-Modeling-Methods,index.html .11.11.2017. 9 S.
12.        OHIRKO Igor, ZANIEWSKI Igor, OGIRKO Olga. Modelowanie i symulacja w naukach ekonomicznych. Czasopisma Autobusy z artykułami z Konferencji LogiTrans 2016, Uniwersytet Technologiczno-Humanistyczny im. Kazimierza Pułaskiego w Radomiu, Organizacja i zarządzanie. 6 / 2016 . S.1742-1747.ISSN 1509-5878
 
 

THE EASTERN-eUROPEan INSTITUTE

Ihor Ohirko. MATEMATYKA STOSOWANA DLA MATEMATYKÓW. Physics and Mathematical Journal. №2 .Institute of Eastern Europe. - Lviv, 2018.

Видавництво Інституту Східної Європи

Львів 2018р.

ББК 82.3

Друкується за рішенням Вченої Ради Інституту Східної Європи

Протокол № 19, від 4 січня 2018 року.

Фізико-математичний вісник

Інституту Східної Європи

№2 - Львів, 2018р.

Фізико - математичний вісник Інституту Східної Європи .

Наукові праці вчених країн Східної Європи, рецензії та інформаційні статті.

Редакційна рада:

Володимир Юзевич -доктор фізико-математичних наук, професор

Євген Ширяєв - доктор технічних наук , професор (Москва, Росія)

Олександра Кудряшева - доктор технічних наук, професор (Москва, Росія)

Василь Смичок - кадидат технічних наук, доцент

Головний редактор: доктор фізико-математичних наук, професор Володимир Юзевич, заступник головного редактора кадидат технічних наук, доцент Михайло Ясінський.

E-mail: ukrainoznavezz@ukr.net https://easterneurope.nethouse.ua/

Адреса 79012, ЛЬВІВ, ФРАНКІВСЬКИЙ, ВУЛИЦЯ ГЕРОЇВ МАЙДАНУ, БУД. 11, 4

«Connoisseur of Ukraine» ISBN 978 - 966 - 665 - 570 - 1 7

© Інститут Східної Європи, Львів 2018р.