Grundlegende Methoden der Simulation. Das Wesen der Simulationsmethode

Einführung. 4

1 Simulationsmodellierung. 5

2 Methodische Anleitung zur Durchführung praktischer Arbeiten. 31

3 Aufgaben für die praktische Arbeit. 38

Liste der verwendeten Literatur .. 40

Anhang A .. 41


Einführung

Simulationsmodellierung ist eine der effektivsten Methoden
Analyse für Forschung und Entwicklung komplexe Prozesse und Systeme. Diese Simulation ermöglicht es dem Benutzer, mit Systemen zu experimentieren, wenn dies an einem realen Objekt unmöglich oder unpraktisch ist. Die Simulation basiert auf Mathematik, Wahrscheinlichkeitstheorie und Statistik. Gleichzeitig bleiben Simulation und Experiment in vielen Fällen intuitive Prozesse. Dies liegt daran, dass Prozesse wie die Auswahl vorhandener Faktoren für den Modellbau, die Einführung vereinfachender Annahmen und die Übernahme richtige Entscheidungen auf Modellen mit begrenzter Genauigkeit basieren, verlassen sich weitgehend auf die Intuition des Forschers und die praktische Erfahrung einer bestimmten Führungskraft.

Das Handbuch enthält Informationen über moderne Ansätze Zu
Bewertung der Wirksamkeit eines technologischen oder sonstigen Prozesses. Darin
Einige Methoden zur Dokumentation von Informationen, zur Identifizierung in der Phase der Recherche und zur Aufdeckung von Tatsachen werden in Betracht gezogen, um deren effektivste Verwendung zu gewährleisten. Zu diesem Zweck kann eine Gruppe von Methoden verwendet werden, die als schematische Modelle bezeichnet werden können. Dieser Name bezieht sich auf Analysemethoden, die eine grafische Darstellung des Betriebs des Systems beinhalten. Sie sollen dem Manager (Ingenieur) helfen, den zu untersuchenden Prozess oder das System besser zu verstehen und zu dokumentieren. Obwohl es derzeit viele Methoden zur schematischen Darstellung technologischer Prozesse gibt, beschränken wir uns darauf, nur Technologiekarten, Technologiediagramme und multifunktionale Operationsdiagramme zu betrachten.

Simulationsmodellierung

Geschäftsführung in moderne Welt wird immer schwieriger, je komplexer die Organisationsstruktur unserer Gesellschaft wird. Diese Komplexität ist auf die Art der Beziehung zwischen verschiedene Elemente unsere Organisationen und die physischen Systeme, mit denen sie interagieren. Obwohl diese Komplexität schon lange existiert, beginnen wir erst jetzt, ihre Bedeutung zu verstehen. Wir erkennen jetzt, dass die Änderung einer der Eigenschaften des Systems leicht zu Änderungen führen oder Änderungen in anderen Teilen des Systems erforderlich machen kann; In diesem Zusammenhang wurde die Methodik der Systemanalyse entwickelt, die Managern und Ingenieuren helfen soll, die Folgen solcher Veränderungen zu untersuchen und zu verstehen. Insbesondere mit dem Aufkommen elektronischer Computer hat sich die Simulation zu einem der wichtigsten und nützlichsten Werkzeuge zur Analyse der Struktur komplexer Prozesse und Systeme entwickelt. Nachahmen bedeutet "vorstellen, das Wesen des Phänomens erreichen, ohne auf Experimente an einem realen Objekt zurückgreifen zu müssen".

Simulation ist der Prozess der Konstruktion eines Modells
reales System und Aufbau von Experimenten an diesem Modell mit dem Ziel, entweder
das Verhalten des Systems verstehen oder (innerhalb der durch ein Kriterium oder eine Reihe von Kriterien auferlegten Beschränkungen) verschiedene Strategien bewerten, die das Funktionieren dieses Systems sicherstellen. Somit ist der Prozess Simulation wir verstehen darunter einen Prozess, der sowohl die Konstruktion eines Modells als auch die analytische Anwendung des Modells zur Untersuchung eines bestimmten Problems umfasst. Unter einem Modell eines realen Systems verstehen wir die Darstellung einer Gruppe von Objekten oder Ideen in irgendeiner Form, die sich von ihrer realen Verkörperung unterscheidet; daher wird der Begriff "real" im Sinne von "existierend oder fähig, eine der Existenzformen anzunehmen" verwendet. Somit können Systeme, die nur auf dem Papier existieren oder sich in Planung befinden, genauso modelliert werden wie bestehende Systeme.

Per Definition kann der Begriff Simulation auch stochastische Modelle und Monte-Carlo-Experimente umfassen. Mit anderen Worten, die Eingaben des Modells und (oder) die funktionalen Beziehungen zwischen seinen verschiedenen Komponenten können ein Zufallselement enthalten oder nicht, das probabilistischen Gesetzen gehorcht. Simulationsmodellierung ist daher eine experimentelle und angewandte Methodik mit dem Ziel:

- das Verhalten von Systemen beschreiben;

- Theorien und Hypothesen aufbauen, die das beobachtete Verhalten erklären können;

- diese Theorien zu verwenden, um das zukünftige Verhalten des Systems vorherzusagen, d.h. die Einflüsse, die durch Veränderungen des Systems oder seiner Funktionsweise verursacht werden können.

Im Gegensatz zu den meisten technischen Methoden, die
klassifiziert nach den wissenschaftlichen Disziplinen, in denen sie
haben ihre Wurzeln (zum Beispiel mit Physik oder Chemie), Nachahmung
Modellierung ist in jedem Wissenschaftszweig anwendbar. Es wird in den Bereichen Wirtschaft, Wirtschaft, Marketing, Bildung, Politik, Sozialkunde, Verhaltenswissenschaft, internationale Beziehungen, Verkehr, Personalpolitik, im Bereich der Rechtsstaatlichkeit, in der Erforschung von Problemen von Städten und globalen Systemen sowie in vielen anderen Bereichen.

Betrachten wir ein einfaches Beispiel, das es Ihnen ermöglicht, die Essenz der Idee der Simulation zu verstehen. Zum Beispiel eine Warteschlange von Kunden an der Theke eines kleinen Ladens (das sogenannte One-Line-Queuing-System). Angenommen, die Zeitintervalle zwischen aufeinanderfolgenden Kundenauftritten sind gleichmäßig im Intervall von 1 bis 10 Minuten verteilt (der Einfachheit halber runden wir die Zeit auf die nächste ganze Anzahl von Minuten). Nehmen Sie weiter an, dass die Zeit, die für die Bedienung jedes Kunden benötigt wird, gleichmäßig auf das Intervall von 1 bis 6 Minuten verteilt wird. Uns interessiert die durchschnittliche Zeit, die ein Kunde in einem bestimmten System verbringt (einschließlich Warten und Service) und der Prozentsatz der Zeit, in der der betreute Verkäufer nicht beschäftigt ist.

Um das System zu modellieren, müssen wir ein künstliches Experiment aufbauen, das die Rahmenbedingungen der Situation widerspiegelt. Dazu müssen wir eine Möglichkeit finden, eine künstliche Abfolge von Kundenankünften und deren Bedienungszeit zu simulieren. Wir können uns beispielsweise bewerben, indem wir uns zehn Chips und einen Würfel von einem Pokerfreund leihen. Anschließend könnten wir die Chips von 1 bis 10 nummerieren, in den Hut stecken und durch Schütteln die Chips mischen. Zieht man einen Chip aus dem Hut und liest die Aussteigernummer ab, kann man sich so die zeitlichen Abstände zwischen dem Erscheinen der Vor- und Nachkäufer vorstellen. Indem wir unsere Würfel werfen und die Anzahl der Punkte am oberen Rand ablesen, könnten wir die Servicezeit jedes Kunden mit solchen Zahlen darstellen. Durch Wiederholen dieser Vorgänge in dieser Reihenfolge (jedes Mal die Chips zurückgeben und vor jeder Ziehung den Hut schütteln), könnten wir eine Zeitreihe erhalten, die die Zeitintervalle zwischen aufeinanderfolgenden Ankunftszeiten von Kunden und ihren entsprechenden Servicezeiten darstellt. Unsere Aufgabe wird dann auf eine einfache Registrierung der Ergebnisse des Experiments reduziert. Tabelle 1 zeigt beispielsweise, welche Ergebnisse durch die Analyse der Ankunft von 20 Käufern erzielt werden können.

Tabelle 1.1 – Experimentelle Ergebnisse bei der Analyse der Ankunft von 20 Käufern

Kunde Zeit nach Ankunft des vorherigen Kunden, min Servicezeit, min Aktuelle Modellzeit bei Ankunft der Käufer Dienststart Serviceende Aufenthalt des Käufers an der Theke, min Ausfallzeit des Verkäufers, der auf den Käufer wartet, min
1. - 0,00 0,00 0,01
2. 0,03 0,03 0,07
3. 0,10 0,10 0,14
4. 0,13 0,14 0,16
5. 0,22 0,22 0,23
6. 0,32 0,32 0,37
7. 0,38 0.38 0,42
8. 0,46 0,46 0,52
9. 0,54 0,54 0,55
10. 1,02 1,02 1,05
11. 1,09 1,09 1,14
12. 1.12 1,14 1,19
13. 1,20 1,20 1,23
14. 1,24 1,24 1,30
15. 1,28 1,30 1,31
16. 1,35 1,35 1,36
17. 1.36 1,36 1,42
18. 1.42 1,42 1,43
19. 1,49 1,49 1,51
20. 1,55 1,55 1,57
Gesamt:

Natürlich zu bekommen statistische Signifikanz Ergebnisse wir
wir mussten eine viel größere Stichprobe nehmen, außerdem haben wir einige wichtige Umstände, wie zum Beispiel die Anfangsbedingungen, nicht berücksichtigt. Ein wichtiger Punkt ist das zum Erzeugen zufällige Zahlen wir benutzten zwei Geräte (nummerierte Pokerchips und einen Würfel); dies geschah mit der Absicht, ein künstliches (Imitations-)Experiment mit einem System durchzuführen, das bestimmte Verhaltensmerkmale aufdecken würde. Kommen wir zum nächsten Konzept – einem Modell. Ein Modell ist eine Darstellung eines Objekts, Systems oder Konzepts (Idee) in irgendeiner Form, die sich von der Form ihrer realen Existenz unterscheidet. Das Modell dient normalerweise dazu, das System zu erklären, zu verstehen oder zu verbessern. Ein Modell eines Objekts kann entweder eine exakte Kopie dieses Objekts sein (wenn auch aus einem anderen Material und in einem anderen Maßstab) oder einige der charakteristischen Eigenschaften eines Objekts in abstrakter Form darstellen. Da die Simulation nur eine der Modellierungsarten ist, betrachten wir zunächst die Modellierung in ihrer allgemeinen Form.

Es wird allgemein angenommen, dass das Modell verwendet wird, um vorherzusagen und
Der Vergleich ist ein Werkzeug, mit dem Sie auf logische Weise Vorhersagen treffen können
die Konsequenzen alternativer Maßnahmen und geben Sie mit ausreichender Sicherheit an, welcher Maßnahme der Vorzug gegeben werden soll. Die Modellierung deckt ein breites Spektrum evolutionärer menschlicher Interaktionen ab – von Felsmalereien über den Bau von Idolen bis hin zur Erstellung komplexer mathematischer Gleichungssysteme, die den Flug einer Rakete im Weltraum beschreiben. Im Wesentlichen haben der Fortschritt und die Geschichte der Wissenschaft und Technik ihren genauesten Ausdruck in der Entwicklung der Fähigkeit eines Menschen gefunden, Modelle von Naturphänomenen, Konzepten und Objekten zu schaffen.

Fast alle Forscher argumentieren, dass eines der wichtigsten Elemente, die zur effektiven Lösung komplexer Probleme erforderlich sind, die Konstruktion und die angemessene Verwendung des Modells ist. Ein solches Modell kann verschiedene Formen annehmen, aber eine der nützlichsten und definitiv gebräuchlichsten Formen ist ein mathematisches, das durch ein Gleichungssystem die wesentlichen Merkmale der untersuchten realen Systeme oder Phänomene ausdrückt. Leider ist es nicht immer möglich, ein mathematisches Modell im engeren Sinne zu erstellen. Wenn wir die meisten industriellen Systeme untersuchen, können wir Ziele definieren, Einschränkungen angeben und dafür sorgen, dass unser Design technischen und / oder wirtschaftlichen Gesetzen entspricht. Dabei können wesentliche Zusammenhänge im System aufgedeckt und in der einen oder anderen mathematischen Form dargestellt werden. Im Gegensatz dazu hat die Bewältigung der Herausforderungen des Luftverschmutzungsschutzes, der Kriminalprävention, der Gesundheitsversorgung und des Stadtwachstums zweideutige und widersprüchliche Ziele und politische und politische Entscheidungen. soziale Faktoren... Daher muss die Definition des Modells sowohl quantitative als auch qualitative Merkmale des Modells beinhalten.

Es gibt fünf häufig verwendete Modellanwendungsfunktionen, wie zum Beispiel:

- Mittel zum Erfassen der Wirklichkeit,

- Kommunikationsmittel,

- Lehr- und Ausbildungshilfen,

- ein Prognosetool,

- Mittel zum Aufbau von Experimenten.

Die Nützlichkeit des Modells als Mittel zum Verständnis realer Zusammenhänge und
Muster sind offensichtlich. Modelle können uns bei der Organisation unserer
unklare oder widersprüchliche Konzepte und Inkonsistenzen. Beispielsweise regt die Darstellung der Entwurfsarbeit komplexer Systeme in Form eines Netzwerkmodells dazu an, darüber nachzudenken, welche Schritte und in welcher Reihenfolge zu gehen ist. Ein solches Modell hilft uns, Abhängigkeiten, erforderliche Aktivitäten, Zeitbeziehungen, benötigte Ressourcen usw. zu identifizieren. Schon der Versuch, unsere verbalen Formulierungen und Gedanken in anderer Form darzustellen, offenbart oft Widersprüche und Mehrdeutigkeiten. Ein richtig konstruiertes Modell zwingt uns, unsere Ideen zu ordnen, zu bewerten und auf ihre Gültigkeit zu überprüfen.

Als Kommunikationsmittel ist ein gut gestaltetes Modell unübertroffen. Diese Funktion von Modellen wird am besten durch das Sprichwort bestätigt: "Lieber einmal sehen als hundertmal hören." Alle wortbasierten Sprachen sind mehr oder weniger ungenau, wenn es um komplexe Konzepte und Beschreibungen geht. Gut gebaute Modelle können uns helfen, diese Ungenauigkeiten zu beseitigen, indem sie uns leistungsfähigere und erfolgreichere Kommunikationswege bieten. Der Vorteil des Modells gegenüber verbalen Beschreibungen liegt in der präzisen und genauen Darstellung einer gegebenen Situation. Das Modell macht es klarer allgemeine Struktur das untersuchte Objekt und zeigt wichtige Ursache-Wirkungs-Beziehungen auf.

Die Modelle wurden und sind weit verbreitet als
Ausbildungs- und Bildungsmittel. Psychologen haben seit langem erkannt, wie wichtig es ist, einem Menschen professionelle Fähigkeiten unter Bedingungen zu vermitteln, in denen er keinen starken Anreiz dazu hat. Wenn eine Person etwas übt, sollte kein Druck auf sie ausgeübt werden. Eine kritische Situation entsteht hier, wenn der falsche Zeitpunkt und der falsche Ort gewählt werden, um einer Person neue professionelle Techniken beizubringen. Daher werden Modelle oft als hervorragendes Mittel verwendet, um Personen zu unterrichten, die mit allen Arten von Unfällen fertig werden müssen, bevor sie real sind kritische Situation... Die meisten kennen bereits solche Anwendungen von Modellen wie Modellen in Originalgröße oder Modellen von Raumschiffen für die Ausbildung von Astronauten, Simulatoren für die Ausbildung von Autofahrern und Planspielen für die Ausbildung von Verwaltungspersonal von Unternehmen.

Eine der wichtigsten Anwendungen von Modellen sowohl in praktischer als auch in historischer Hinsicht ist die Vorhersage des Verhaltens simulierter Objekte. Es ist wirtschaftlich nicht vertretbar, ein Ultraschallstrahlflugzeug zu bauen, um seine Flugeigenschaften zu bestimmen, aber sie können durch Modellierung vorhergesagt werden.

Schließlich ermöglicht der Einsatz von Modellen auch kontrollierte Experimente in Situationen, in denen Experimente an realen Objekten nahezu unmöglich oder wirtschaftlich nicht praktikabel wären. Das direkte Experimentieren mit dem System besteht normalerweise darin, einige der Parameter zu variieren; Beobachten Sie die Ergebnisse des Experiments, während alle anderen Parameter unverändert bleiben. Für die meisten Systeme, mit denen ein Forscher zu tun hat, ist dies entweder praktisch unzugänglich oder zu teuer oder beides. Wenn es zu teuer und / oder unmöglich ist, an einem realen System zu experimentieren, kann oft ein Modell gebaut werden, auf dem die notwendigen Experimente relativ einfach und kostengünstig durchgeführt werden können. Beim Experimentieren mit dem Modell Komplexes System wir können oft mehr über seine internen wechselwirkenden Faktoren erfahren, als wir durch die Manipulation des realen Systems erfahren könnten; Dies wird möglich durch die Messbarkeit der Strukturelemente des Modells, durch die Tatsache, dass wir sein Verhalten kontrollieren, seine Parameter leicht ändern können usw.

Somit kann ein Modell dazu dienen, eines von zwei Hauptzielen zu erreichen: entweder deskriptiv, wenn das Modell dazu dient, das Objekt zu erklären und / oder besser zu verstehen, oder präskriptiv, wenn das Modell die Vorhersage und / oder Reproduktion der Eigenschaften des Objekts ermöglicht, die bestimmen sein Verhalten. Ein präskriptives Modell ist normalerweise beschreibend, aber nicht umgekehrt. Dies bedeutet, dass das präskriptive Modell fast immer das zu modellierende Objekt beschreibt, das beschreibende Modell jedoch nicht immer für Planungs- und Entwurfszwecke nützlich ist. Dies ist wahrscheinlich einer der Gründe, warum Wirtschaftsmodelle (die in der Regel beschreibend sind) wenig Einfluss auf die Governance hatten. ökonomische Systeme und hat als Managementhilfe auf höchster Ebene wenig Verwendung, während Operations Research-Modelle einen erheblichen Einfluss auf diese Bereiche hatten.

In der Technik dienen Modelle als Hilfsmittel bei der Entwicklung neuer oder besserer Systeme, während in den Sozialwissenschaften Modelle erklären bestehende Systeme... Ein für die Entwicklung eines Systems geeignetes Modell sollte es auch erklären, aber es ist offensichtlich, dass Modelle, die nur zur Erklärung erstellt wurden, oft nicht einmal ihren beabsichtigten Zweck erfüllen.

Modelle im Allgemeinen und Simulationsmodelle im Besonderen können klassifiziert werden verschiedene Wege... Lassen Sie uns einige typische Gruppen von Modellen aufzeigen, die als Grundlage für ein Klassifikationssystem verwendet werden können:

- statisch (zB ein Querschnitt eines Objekts) und dynamisch (Zeitreihen);

- deterministisch und stochastisch;

- diskret und kontinuierlich;

- maßstabsgetreu, analog, symbolisch.

Es ist praktisch, Simulationsmodelle als kontinuierliches Spektrum darzustellen, das von exakten Modellen oder Modellen realer Objekte bis hin zu vollständig abstrakten mathematischen Modellen reicht (Abbildung 1.1). Modelle, die sich am Anfang des Spektrums befinden, werden oft als physikalische oder natürliche Modelle bezeichnet, da sie im Aussehen dem untersuchten System ähneln. Statische Physikmodelle, wie Architekturmodelle oder Anlagenlayouts, helfen uns, räumliche Zusammenhänge zu visualisieren. Ein Beispiel für ein dynamisches Physikmodell ist ein verkleinertes Pilotanlagenmodell, das entwickelt wurde, um einen neuen chemischen Prozess vor dem Übergang zur Serienproduktion zu untersuchen, oder ein verkleinertes Modellflugzeug, das in einem Windkanal getestet wird, um die dynamische Stabilität zu bewerten. Ein charakteristisches Merkmal eines physikalischen Modells ist, dass es gewissermaßen wie ein modelliertes Objekt "aussieht". Physische Modelle können in Form von Modellen in Originalgröße (z. B. Simulatoren) vorliegen, die in einem verkleinerten Maßstab ausgeführt werden (z. B. ein Modell Sonnensystem) oder in einem vergrößerten Maßstab (wie ein Atommodell). Sie können auch zweidimensional und dreidimensional sein. Sie können zu Demonstrationszwecken (wie ein Globus) oder für indirekte Experimente verwendet werden. Die abgestuften Vorlagen, die in Studien zum Anlagenlayout verwendet werden, sind ein Beispiel für ein verkleinertes physikalisches 2D-Modell, das für Experimente verwendet wird.

Genauigkeit
Abstraktheit

Abbildung 1.1 - Mathematische Modelle

Analoge Modelle sind Modelle, in denen eine Eigenschaft eines realen Objekts durch eine andere Eigenschaft eines Objekts mit ähnlichem Verhalten repräsentiert wird. Das Problem wird manchmal dadurch gelöst, dass eine Eigenschaft durch eine andere ersetzt wird, wonach die erhaltenen Ergebnisse in Bezug auf . interpretiert werden müssen ursprüngliche Eigenschaften Objekt. Beispielsweise kann eine Spannungsänderung in einem Netz einer bestimmten Konfiguration den Warenfluss in einem bestimmten System darstellen und ist ein hervorragendes Beispiel für analoge Simulationsmodell... Ein weiteres Beispiel ist ein Rechenschieber, bei dem die quantitativen Eigenschaften eines bestimmten Objekts durch Skalensegmente auf einer logarithmischen Skala dargestellt werden.

Kosten
Produktionsvolumen

Abbildung 1.2 - Produktionskostenkurve

Der Graph ist ein analoges Modell anderer Art: Hier zeigt die Entfernung solche Eigenschaften des Objekts an. Wie Zeit, Lebensdauer, Stückzahl etc. Das Diagramm kann auch die Beziehung zwischen verschiedenen Größen zeigen und vorhersagen, wie sich einige Größen ändern, wenn sich andere Größen ändern. Die Grafik in Abbildung 1.2 zeigt beispielsweise, wie die Herstellungskosten eines bestimmten Produkts durch das Produktionsvolumen beeinflusst werden können. Diese Grafik zeigt genau, wie sich die Kosten auf das Produktionsvolumen beziehen, sodass wir vorhersagen können, was mit den Kosten passiert, wenn wir das Produktionsvolumen erhöhen oder verringern. Für einige relativ einfache Fälle kann der Graph tatsächlich als Mittel zur Lösung des vorliegenden Problems dienen. Aus dem Diagramm in Abbildung 1.2 können Sie die Kurve für die Änderung der Grenzkosten des Produkts entnehmen.

Wenn die Aufgabe darin besteht, das optimale Produktionsvolumen zu einem gegebenen Preis zu bestimmen (d. h. das Produktionsvolumen, das den maximalen Nettogewinn sichert), dann lösen wir dieses Problem, indem wir die Preisänderungskurve für ein Produkt in derselben Grafik aufzeichnen. Das optimale Volumen entspricht dem Schnittpunkt der Preiskurve und der Grenzkostenkurve. Grafische Lösungen sind auch für bestimmte lineare Programmierprobleme sowie für Spielprobleme möglich. Manchmal werden Graphen in Verbindung mit mathematischen Modellen verwendet, wobei eines dieser Modelle Input für das andere liefert.

Modelle, die sich von den Graphen unterscheiden, bei denen es sich um unterschiedliche Arten von Schaltungen handelt, sind ebenfalls nützliche analoge Modelle; ein gängiges Beispiel für diese Art von Schema ist Strukturschema jede Organisation. Die in einem solchen Schema durch Linien verbundenen "Quadrate" spiegeln die gegenseitige Unterordnung zwischen den Mitgliedern der Organisation zum Zeitpunkt der Erstellung des Diagramms sowie die Kanäle des Informationsaustauschs zwischen ihnen wider. In Systemstudien sind auch Prozessdiagramme weit verbreitet, in denen so unterschiedliche Ereignisse wie Operationen, Verspätungen, Inspektionen, aufstrebende Bestände usw. durch Linien und Symbole dargestellt werden, die die Bewegung darstellen.

Wenn wir uns durch das Spektrum der Modelle bewegen, werden wir diejenigen erreichen, in denen Mensch und Maschinenkomponenten interagieren. Eine solche Modellierung wird oft als Spiele (Management, Planning) bezeichnet. Da es schwierig ist, Entscheidungsprozesse des Managements zu modellieren, wird es oft als angemessen erachtet, einen solchen Versuch aufzugeben. Bei den sogenannten Management-(Business-)Spielen interagiert eine Person mit Informationen, die aus der Ausgabe eines Computers stammen (der alle anderen Eigenschaften des Systems simuliert) und trifft Entscheidungen auf der Grundlage der erhaltenen Informationen. Die Entscheidungen der Person werden dann als Input wieder in die Maschine eingegeben, der vom System verwendet wird. Wenn wir diesen Prozess weiterführen, kommen wir zur vollmaschinenigen Simulation, die üblicherweise unter dem Begriff „Modellierung“ verstanden wird. Eine Rechenmaschine kann Bestandteil aller Simulationen des betrachteten Teils des Spektrums sein, dies ist jedoch nicht erforderlich.

Symbolische oder mathematische Modelle sind solche, die Symbole anstelle von physikalischen Geräten verwenden, um einen Prozess oder ein System darzustellen. Ein gängiges Beispiel für die Darstellung von Systemen sind in diesem Fall die Systeme Differentialgleichung... Da letztere die abstraktesten und damit allgemeinsten Modelle sind, werden mathematische Modelle in der Systemforschung häufig verwendet. Das symbolische Modell ist immer eine abstrakte Idealisierung des Problems, und wenn dieses Modell das Problem lösen soll, sind einige vereinfachende Annahmen erforderlich. Daher muss besonders darauf geachtet werden, dass das Modell als valide Darstellung eines gegebenen Problems dient.

Bei der Modellierung eines komplexen Systems ist der Forscher in der Regel gezwungen, mehrere Modelle aus den oben genannten Varianten zu verwenden. Jedes System oder Subsystem kann auf verschiedene Weise dargestellt werden, die sich in Komplexität und Detail erheblich voneinander unterscheiden. In den meisten Fällen erscheinen als Ergebnis von Systemstudien mehrere verschiedene Modelle desselben Systems. Aber in der Regel werden einfache Modelle durch komplexere ersetzt, wenn der Forscher das Problem tiefer analysiert und besser versteht.

Alle Simulationsmodelle sind sogenannte Black-Box-Modelle. Dies bedeutet, dass sie ein Ausgangssignal des Systems liefern, wenn ein Eingangssignal von seinen interagierenden Subsystemen empfangen wird. Um die notwendigen Informationen oder Ergebnisse zu erhalten, ist es daher notwendig, die Simulationsmodelle „auszuführen“, nicht zu „lösen“. Simulationsmodelle sind nicht in der Lage, eine eigene Lösung in der Form zu bilden, in der sie in analytischen Modellen stattfindet, sondern können nur als Werkzeug zur Analyse des Verhaltens des Systems unter vom Experimentator bestimmten Bedingungen dienen. Daher ist Simulation keine Theorie, sondern eine Methode zur Problemlösung. Darüber hinaus ist die Simulation nur eine von mehreren kritischen Problemlösungstechniken, die dem Systemanalytiker zur Verfügung stehen. Da es notwendig und wünschenswert ist, ein Werkzeug oder eine Methode an die Lösung des Problems anzupassen und nicht umgekehrt, stellt sich natürlich die Frage: In welchen Fällen ist Simulationsmodellierung sinnvoll?

Auf der Grundlage des oben Gesagten sollte der Forscher die Durchführbarkeit der Verwendung von Simulationsmodellen bei Vorliegen einer der folgenden Bedingungen prüfen:

1.Es gibt keine vollständige mathematische Formulierung dieses Problems oder es wurde noch nicht entwickelt analytische Methoden Lösungen des formulierten mathematischen Modells. Viele Warteschlangenmodelle, die sich auf die Berücksichtigung von Warteschlangen beziehen, fallen in diese Kategorie;

2. analytische Methoden sind verfügbar, aber mathematisch sind die Verfahren so komplex und zeitaufwendig, dass die Simulation eine einfachere Möglichkeit bietet, das Problem zu lösen;

3. Es gibt analytische Lösungen, deren Umsetzung jedoch aufgrund unzureichender mathematischer Ausbildung des vorhandenen Personals nicht möglich ist. In diesem Fall ist es erforderlich, die Kosten für Design, Test und Bearbeitung des Simulationsmodells mit den Kosten für die Einladung externer Experten zu vergleichen;

4. Neben der Bewertung bestimmter Parameter empfiehlt es sich, den Prozess über einen bestimmten Zeitraum an einem Simulationsmodell zu beobachten;

5. Simulationsmodellierung kann aufgrund der Schwierigkeiten beim Aufbau von Experimenten und der Beobachtung von Phänomenen unter realen Bedingungen die einzige Möglichkeit sein;

6. Für den langfristigen Betrieb von Systemen oder Prozessen kann eine Komprimierung erforderlich sein: Timeline. Die Simulationsmodellierung ermöglicht es, die Zeit des untersuchten Prozesses vollständig zu kontrollieren, da das Phänomen nach Belieben verlangsamt oder beschleunigt werden kann.

Ein weiterer Vorteil der Simulation sind die breitesten Möglichkeiten ihrer Anwendung im Bereich der allgemeinen und beruflichen Bildung. Die Entwicklung und Nutzung eines Simulationsmodells ermöglicht es dem Experimentator, reale Prozesse und Situationen am Modell zu sehen und „durchzuspielen“. Dies wiederum sollte ihm sehr helfen, das Problem zu verstehen und zu fühlen, was die Suche nach Innovationen anregt.

Simulation ist wegen ihrer Einfachheit sowohl für Führungskräfte als auch für Systemforscher attraktiv. Die Entwicklung eines guten Simulationsmodells ist jedoch oft kostspielig und zeitaufwändig. Es kann beispielsweise 3 bis 11 Jahre dauern, um ein gutes internes Planungsmodell zu erstellen. Außerdem sind Simulationsmodelle nicht genau und es ist fast unmöglich, den Grad dieser Ungenauigkeit zu messen. Die Vorteile der Simulation wurden jedoch oben hervorgehoben.

Bevor Sie mit der Entwicklung eines Modells beginnen, müssen Sie die strukturellen Elemente verstehen, aus denen es aufgebaut ist. Obwohl die mathematische oder physikalische Struktur eines Modells sehr komplex sein kann, sind die Grundlagen aller Konstruktionen recht einfach. In der sehr Gesamtansicht die Struktur des Modells lässt sich mathematisch in der Form (1.1) darstellen:

, (1.1)

wobei E das Ergebnis der Systemaktion ist;

X i - Variablen und Parameter, die wir kontrollieren können;

Ich habe Variablen und Parameter, die wir verwenden
wir können es nicht schaffen;

F - funktionale Beziehung zwischen x i und y i, die
bestimmt den Wert von E.

Diese Vereinfachung ist insofern nützlich, als sie die Abhängigkeit der Funktionsweise des von uns gesteuerten Systems und von unkontrollierten Variablen zeigt. Fast jedes Modell besteht aus einer Kombination von Komponenten wie:

- Komponenten,

- Variablen,

- Parameter,

- funktionale Abhängigkeiten,

- Einschränkungen,

- Zielfunktionen.

Unter Komponenten werden die Bestandteile verstanden, die, richtig kombiniert, ein System bilden. Manchmal werden auch die Elemente eines Systems oder aller Teilsysteme als Komponenten betrachtet.

Ein Stadtmodell kann aus Komponenten wie einem Bildungssystem, einem Gesundheitssystem, einem Verkehrssystem usw. bestehen. In einem Wirtschaftsmodell können Komponenten einzelne Unternehmen, einzelne Verbraucher usw. sein. Ein System wird als eine Gruppe oder Ansammlung von Objekten definiert, die durch eine Form regelmäßiger Interaktion oder gegenseitiger Abhängigkeit vereint sind, um eine bestimmte Funktion auszuführen. Komponenten sind Objekte, aus denen das zu untersuchende System besteht.

Parameter sind Größen, die ein an einem Modell arbeitender Operator beliebig wählen kann, im Gegensatz zu Variablen, die nur Werte annehmen können, die durch den Typ einer bestimmten Funktion bestimmt werden. Wenn wir dies aus einem anderen Blickwinkel betrachten, können wir sagen, dass die Parameter, einmal eingestellt, konstante Werte sind, die nicht geändert werden können. Beispielsweise ist in einer Gleichung wie y = 3x die Zahl 3 ein Parameter und x und y sind Variablen. Genauso gut können Sie y = 16x oder y = 30x setzen. Statistische Analysen neigen oft dazu, diese unbekannten, aber festen Parameter für eine ganze Datengruppe zu bestimmen. Betrachtet man eine bestimmte Datengruppe oder eine statistische Grundgesamtheit, dann sind die Größen, die die Tendenz des Verhaltens dieser Grundgesamtheit bestimmen, wie zum Beispiel Mittelwert, Median oder Modus, Parameter der Grundgesamtheit wie Variabilitätsmaße sind Größen wie Spannweite, Varianz, Standardabweichung. Für die Poisson-Verteilung, bei der die Wahrscheinlichkeit x durch die Funktion , l ist ein Verteilungsparameter, x ist eine Variable und e ist eine Konstante.

Im Systemmodell werden zwei Typen von Variablen unterschieden - exogene und
endogen. Exogene Variablen werden auch Eingabevariablen genannt; das heißt, sie werden außerhalb des Systems erzeugt oder sind das Ergebnis externer Ursachen. Als endogene Variablen werden Variablen bezeichnet, die im System oder durch den Einfluss interner Ursachen entstehen. Wir nennen endogene Variablen auch Zustandsvariablen (wenn sie den Zustand oder die im System auftretenden Zustände charakterisieren) oder Ausgangsvariablen (wenn es kommt an Systemausgängen). Statistiker nennen exogene Variablen manchmal unabhängig und endogen abhängig.

Funktionale Abhängigkeiten beschreiben das Verhalten von Variablen und
Parameter innerhalb einer Komponente oder drücken die Beziehung zwischen den Komponenten des Systems aus. Diese Beziehungen oder Betriebsmerkmale sind entweder deterministischer oder stochastischer Natur. Deterministische Beziehungen sind Identitäten oder Definitionen, die eine Beziehung zwischen bestimmten Variablen oder Parametern herstellen, wenn der Prozess am Ausgang des Systems eindeutig durch die gegebenen Informationen am Eingang bestimmt wird. Im Gegensatz dazu sind stochastische Beziehungen solche Abhängigkeiten, die bei gegebener Eingangsinformation ein undefiniertes Ergebnis am Ausgang ergeben. Beide Arten von Beziehungen werden normalerweise in Form einer mathematischen Gleichung ausgedrückt, die die Beziehung zwischen endogenen Variablen (Zustandsvariablen) und exogenen Variablen herstellt. Normalerweise können diese Zusammenhänge nur auf der Grundlage von Hypothesen aufgebaut oder durch statistische oder mathematische Analysen abgeleitet werden.

Einschränkungen sind festgelegte Grenzen für die Änderung der Werte von Variablen oder einschränkende Bedingungen, Verteilung und Ausgaben bestimmter Mittel (Energie, Zeitreserven usw.). Sie können entweder vom Entwickler (künstliche Beschränkungen) oder vom System selbst aufgrund seiner inhärenten Eigenschaften (natürliche Beschränkungen) eingeführt werden. Beispiele für künstliche Zwänge sind festgelegte Höchst- und Mindestbeschäftigungsquoten von Arbeitnehmern oder ein festgelegter Höchstbetrag. Geld für Investitionen vorgesehen. Mehrheitlich technische Voraussetzungen zu Systemen ist eine Reihe von künstlichen Beschränkungen. Natürliche Einschränkungen sind auf die Natur des Systems zurückzuführen. Sie können beispielsweise nicht mehr Artikel verkaufen, als das System herstellen kann, und niemand kann ein System entwerfen, das gegen die Naturgesetze verstößt. Beschränkungen der einen Art sind daher auf die unveränderlichen Naturgesetze zurückzuführen, während Beschränkungen der anderen Art, die von Menschenhand geschaffen wurden, Änderungen unterliegen können. Es ist für den Forscher sehr wichtig, sich daran zu erinnern, denn im Laufe seiner Forschung muss er die von der Person eingeführten Einschränkungen ständig evaluieren, um sie gegebenenfalls zu schwächen oder zu verstärken.

Die Zielfunktion oder Kriteriumsfunktion ist eine genaue Darstellung der Ziele oder Zielsetzungen des Systems und der notwendigen Regeln zur Bewertung ihrer Umsetzung. Normalerweise werden zwei Arten von Zielen angegeben: Erhaltung und Erwerb. Erhaltungsziele sind mit der Erhaltung oder Erhaltung von Ressourcen (temporär, energetisch, kreativ usw.) oder Zuständen (Komfort, Sicherheit, Beschäftigungsniveau usw.) verbunden. Akquisitionsziele sind mit der Akquisition neuer Ressourcen (Gewinn, Personal, Kunden usw.) oder dem Erreichen bestimmter Zustände verbunden, die die Organisation oder Führungskraft anstrebt (Eroberung eines Teils des Marktes, Erreichen eines Zustands der Einschüchterung usw.). Der Ausdruck für die Zielfunktion sollte eine eindeutige Definition der Ziele und Zielsetzungen sein, an denen die getroffenen Entscheidungen gemessen werden sollen. Webster's Dictionary definiert "Kriterien" als "ein Maßstab, eine Regel oder eine Art von Test, durch den eine korrekte Beurteilung über etwas gefällt wird". Diese klare und eindeutige Definition des Kriteriums ist aus zwei Gründen sehr wichtig. Erstens hat es einen enormen Einfluss auf den Prozess der Erstellung und Manipulation eines Modells. Zweitens führt eine falsche Definition des Kriteriums in der Regel zu falschen Schlussfolgerungen. Die Kriteriumsfunktion (Zielfunktion) ist in der Regel organisch Teil von Modell, und der gesamte Prozess der Manipulation des Modells zielt darauf ab, ein gegebenes Kriterium zu optimieren oder zu erfüllen.

Selbst kleine Bereiche der realen Welt sind zu komplex, als dass eine Person sie vollständig verstehen und beschreiben könnte. Fast alle Problemsituationen sind extrem komplex und beinhalten eine fast unendliche Anzahl von Elementen, Variablen, Parametern, Beziehungen, Beschränkungen usw. Wenn Sie versuchen, ein Modell zu erstellen, können Sie unendlich viele Fakten darin einbeziehen und viel Zeit damit verbringen, zu sammeln die kleinsten Fakten über jede Situation und das Herstellen von Verbindungen zwischen ihnen. Denken Sie zum Beispiel an den einfachen Akt, ein Blatt Papier zu nehmen und einen Brief darauf zu schreiben. Immerhin könnte man den genauen chemische Zusammensetzung Papier, Bleistiftmine und Radiergummi; der Einfluss der atmosphärischen Bedingungen auf den Feuchtigkeitsgehalt des Papiers und die Wirkung des letzteren auf die Reibungskraft, die auf die Spitze eines sich auf dem Papier bewegenden Bleistifts einwirkt; die statistische Verteilung von Briefen in Textbausteinen etc. untersuchen. Wenn uns in dieser Situation jedoch nur die Tatsache des Versendens eines Briefes interessiert, dann ist keines der genannten Details relevant. Daher müssen wir verwerfen die meisten reale Merkmale des zu untersuchenden Ereignisses und abstrahieren von der realen Situation nur die Merkmale, die die idealisierte Version des realen Ereignisses nachbilden. Alle Modelle sind vereinfachte Darstellungen der realen Welt oder Abstraktionen, wenn sie korrekt ausgeführt werden, dann geben uns diese Idealisierungen eine nützliche ungefähre Darstellung der realen Situation oder zumindest ihrer bestimmten Eigenschaften.

Die Ähnlichkeit eines Modells mit dem abgebildeten Objekt wird als Isomorphiegrad bezeichnet. Um isomorph (d. h. identisch oder ähnlich in der Form) zu sein, muss ein Modell zwei Bedingungen erfüllen.

Erstens muss es eine Eins-zu-eins-Korrespondenz geben
zwischen den Elementen des Modells und den Elementen des dargestellten Objekts. Zweitens müssen die genauen Beziehungen oder Wechselwirkungen zwischen den Elementen erhalten bleiben. Der Grad der Isomorphie eines Modells ist relativ, und die meisten Modelle sind eher homomorph als isomorph. Unter einem Homomorphismus wird eine Ähnlichkeit in der Form mit einem Unterschied in der Grundstruktur verstanden, und es gibt nur eine oberflächliche Ähnlichkeit zwischen verschiedenen Gruppen von Elementen des Modells und des Objekts. Homomorphe Modelle sind das Ergebnis von Prozessen der Vereinfachung und Abstraktion.

Um ein idealisiertes homomorphes Modell zu entwickeln, verwenden wir normalerweise
Wir teilen das System in mehrere kleinere Teile auf. Dies ist getan für
um sie richtig zu interpretieren, d. h. um die erforderliche Analyse des Problems durchzuführen. Diese Wirkungsweise hängt vom Vorhandensein von Teilen oder Elementen ab, die in erster Näherung nicht voneinander abhängen oder relativ miteinander interagieren auf einfache Weise... So können wir zunächst die Funktionsweise eines Autos analysieren und nacheinander Motor, Getriebe, Antrieb, Federungssystem usw. überprüfen, obwohl diese Knoten nicht vollständig unabhängig sind.

Eng verwandt mit dieser Art der Analyse beim Erstellen eines Modells ist der Prozess
Vereinfachung des realen Systems. Das Konzept der Vereinfachung ist den meisten Menschen leicht zugänglich – Vereinfachung bedeutet, irrelevante Details zu vernachlässigen oder Annahmen über einfachere Beziehungen zu akzeptieren. Zum Beispiel gehen wir oft davon aus, dass es eine lineare Beziehung zwischen zwei Variablen gibt, obwohl wir vermuten oder sogar sicher wissen, dass die wahre Beziehung zwischen ihnen nicht linear ist. Wir gehen davon aus, dass zumindest in einem begrenzten Wertebereich
Variablen ist eine solche Näherung zufriedenstellend. Der Elektroingenieur arbeitet mit Schaltungsmodellen unter der Annahme, dass Widerstände, Kondensatoren usw. ihre Parameter nicht ändern; Dies ist eine zu starke Vereinfachung, denn wir wissen, dass sich die elektrischen Eigenschaften dieser Komponenten mit Temperatur, Feuchtigkeit, Lebensdauer usw. ändern. Der Maschinenbauer arbeitet mit Modellen, in denen Gase als ideal angesehen werden, Drücke adiabatisch sind und die Leitfähigkeit gleichmäßig ist. In den meisten praktischen Fällen sind solche Näherungen oder Vereinfachungen gut genug und liefern nützliche Ergebnisse.

Auch der Wissenschaftler, der sich mit den Problemen des "Managements" beschäftigt, um Gebrauchsmuster zu erstellen, greift zu Vereinfachungen. Es geht davon aus, dass seine Variablen entweder deterministisch sind (eine extrem vereinfachte Interpretation der Realität) oder den Gesetzen zufälliger Ereignisse gehorchen, die durch bekannte Wahrschewie Normal, Poisson, Exponential usw. beschrieben werden. Er geht auch oft davon aus, dass die Beziehungen zwischen Variablen linear sind, da er weiß, dass eine solche Annahme nicht ganz gültig ist. Dies ist oft notwendig und gerechtfertigt, wenn man Modelle bauen möchte, die sich mathematisch beschreiben lassen.

Ein weiterer Aspekt der Analyse ist die Abstraktion - ein Konzept, das in
der Unterschied zur Vereinfachung ist nicht so leicht zu erklären und zu verstehen. Abstraktion
enthält oder konzentriert wesentliche Eigenschaften oder Eigenschaften
Verhalten des Objekts (Dings), aber nicht unbedingt in der gleichen Form und detailliert wie im Original. Die meisten Modelle sind Abstraktionen in dem Sinne, dass sie versuchen, die Qualitäten und das Verhalten des modellierten Objekts in einer Form oder Weise darzustellen, die sich von ihrer tatsächlichen Implementierung unterscheidet. Im Rahmen der Arbeitsorganisation versuchen wir also, die Arbeitsbeziehungen zwischen verschiedenen Arbeitnehmergruppen oder einzelnen Mitgliedern solcher Gruppen in abstrakter Form widerzuspiegeln. Die Tatsache, dass ein solches Schema reale Zusammenhänge nur oberflächlich widerspiegelt, tut seiner Nützlichkeit für bestimmte Zwecke keinen Abbruch.

Nachdem wir die Teile oder Elemente des Systems analysiert und modelliert haben, fahren wir fort, sie zu einem Ganzen zu kombinieren. Mit anderen Worten, wir können durch die Synthese relativ einfacher Teile eine Annäherung an eine komplexe reale Situation konstruieren. Dabei ist es wichtig, zwei Punkte zu berücksichtigen. Erstens müssen die für die Synthese verwendeten Teile richtig gewählt werden, und zweitens muss ihre Interaktion richtig vorhergesagt werden. Wenn dies alles richtig gemacht wird, führen diese Prozesse der Analyse, Abstraktion, Vereinfachung und Synthese schließlich zur Erstellung eines Modells, das sich dem Verhalten des untersuchten realen Systems annähert. Es muss jedoch daran erinnert werden, dass das Modell nur eine Näherung (Approximation) ist und sich daher nicht genau wie ein reales Objekt verhält. Wir optimieren das Modell, aber nicht das reale System. Die Frage, ob es wirklich einen Zusammenhang zwischen den Eigenschaften unseres Modells und der Realität gibt, hängt davon ab, wie richtig und intelligent wir unsere Prozesse der Analyse, Abstraktion, Vereinfachung und Synthese durchgeführt haben. Wir stoßen selten auf ein Modell, das einer gegebenen Führungssituation vollständig gerecht wird.

Offenbar sollte die Grundlage einer erfolgreichen Modellierungsmethodik eine gründliche Entwicklung von Modellen sein. Normalerweise bewegen sie sich ausgehend von einem sehr einfachen Modell allmählich zu einer perfekteren Form, die eine schwierige Situation genauer widerspiegelt. Analogien und Assoziationen mit gut konstruierten Strukturen scheinen zu spielen wichtige Rolle bei der Definition des Ausgangspunkts dieses Prozesses der Verbesserung und Verfeinerung der Details. Dieser Prozess der Verbesserung und Verfeinerung ist mit einem kontinuierlichen Prozess der Interaktion und des Feedbacks zwischen der realen Situation und dem Modell verbunden. Es besteht eine kontinuierliche Interaktion zwischen dem Prozess der Modifizierung des Modells und dem Prozess der Verarbeitung der vom realen Objekt erzeugten Daten. Wenn jede Variante des Modells getestet und bewertet wird, entsteht eine neue Variante, die zu wiederholten Tests und Neubewertungen führt.

Solange sich das Modell für eine mathematische Beschreibung eignet, kann der Analytiker immer mehr nach Verbesserungen suchen oder die anfänglichen Annahmen verkomplizieren. Wann wird das Model "frech", d.h. unlösbar, greift der Entwickler auf alle Vereinfachungen und die Verwendung einer tieferen Abstraktion zurück.

Die Kunst des Modellierens besteht also darin, ein Problem zu analysieren, seine wesentlichen Merkmale durch Abstraktion vom Träger zu isolieren, die das System charakterisierenden Grundannahmen auszuwählen und richtig zu modifizieren und dann das Modell zu verfeinern und zu verbessern, bis es Ergebnisse liefert, die praktisch für die Praxis. ... Diese wird meist in Form von sieben Leitlinien formuliert, nach denen es notwendig ist:

- die allgemeine Aufgabe des Studiums des Systems in eine Reihe einfacherer Aufgaben zu zerlegen;

- Ziele klar formulieren;

- Analogien finden;

- Betrachten Sie ein spezielles Zahlenbeispiel, das dem gegebenen Problem entspricht;

- bestimmte Bezeichnungen wählen;

- die offensichtlichen Zusammenhänge aufschreiben;

- Wenn sich das resultierende Modell für eine mathematische Beschreibung eignet, erweitern Sie es. Ansonsten vereinfachen.

Im Allgemeinen können Sie ein Modell vereinfachen, indem Sie einen der folgenden Schritte ausführen (während genau das Gegenteil erforderlich ist, um das Modell zu erweitern):

- Variablen in Konstanten umwandeln;

- einige Variablen ausschließen oder kombinieren;

- einen linearen Zusammenhang zwischen den untersuchten Größen anzunehmen;

- strengere Annahmen und Beschränkungen einführen;

- dem System strengere Randbedingungen aufzuerlegen.

Der evolutionäre Charakter des Modellkonstruktionsprozesses ist unvermeidlich und wünschenswert, daher sollten wir nicht denken, dass dieser Prozess auf die Konstruktion einer einzigen Basisversion des Modells reduziert wird. Wenn die Ziele erreicht und die Aufgaben gelöst sind, werden neue Aufgaben gestellt oder es besteht die Notwendigkeit, eine größere Übereinstimmung zwischen dem Modell und dem realen Objekt zu erreichen, was zu einer Überarbeitung des Modells und all seiner besseren Implementierungen führt. Dieser Prozess beginnt ebenfalls mit der Erstellung eines einfachen Modells; dann hat die Verkomplizierung und Verfeinerung mehrere Vorteile im Hinblick auf den erfolgreichen Abschluss der Modellentwicklung. Die Geschwindigkeit und Richtung der evolutionären Veränderung im Modell hängen von zwei Hauptfaktoren ab. Der erste ist offensichtlich die inhärente Flexibilität des Modells, und der zweite ist die Beziehung zwischen dem Ersteller des Modells und seinem Benutzer. Durch ihre enge Zusammenarbeit während des gesamten Entwicklungsprozesses des Modells können Entwickler und Benutzer eine Atmosphäre des gegenseitigen Vertrauens und der Beziehungen schaffen, die dazu beitragen, Endergebnisse zu erzielen, die den festgelegten Zielen, Zielen und Kriterien entsprechen.

Die Kunst des Modellierens kann von Personen mit originellem Denken, Einfallsreichtum und Einfallsreichtum sowie einem tiefen Wissen der zu modellierenden Systeme und physikalischen Phänomene beherrscht werden.

Es gibt keine festen und wirksame Regeln wie
es ist notwendig, das Problem ganz am Anfang des Modellierungsprozesses zu formulieren, d.h. gleich nach dem ersten Treffen mit ihr. Es gibt keine Zauberformeln, um Probleme wie die Wahl von Variablen und Parametern, Beziehungen, die das Verhalten des Systems beschreiben, und Einschränkungen sowie Kriterien zur Bewertung der Effektivität des Modells beim Erstellen eines Modells zu lösen. Es muss daran erinnert werden, dass niemand das Problem in seiner reinen Form löst, jeder arbeitet mit einem Modell, das er basierend auf der gestellten Aufgabe gebaut hat.

Die Simulation ist eng mit der Funktionsweise des Systems verbunden. Das System ist
eine Gruppe oder Ansammlung von Objekten, die durch eine Form regelmäßiger Interaktion oder gegenseitiger Abhängigkeit vereint sind, um eine bestimmte Funktion zu erfüllen.

Beispiele für Systeme sind: eine Industrieanlage, eine Organisation, ein Verkehrsnetz, ein Krankenhaus, ein Stadtentwicklungsprojekt, eine Person und eine Maschine, die er fährt. Das Funktionieren eines Systems ist eine Reihe von koordinierten Aktionen, die zur Erledigung einer bestimmten Aufgabe erforderlich sind. Aus dieser Sicht sind die Systeme, an denen wir interessiert sind, zweckmäßig. Dieser Umstand erfordert, dass wir bei der Modellierung des Systems genau auf die zu lösenden Ziele oder Aufgaben achten dieses System... Wir müssen uns ständig an die Ziele des Systems und des Modells erinnern, um die notwendige Übereinstimmung zwischen ihnen herzustellen.

Da es bei der Nachahmung darum geht, reale Probleme zu lösen, müssen wir sicher sein, dass die Endergebnisse den wahren Stand der Dinge genau widerspiegeln. Daher sollte sofort ein Modell vermutet werden, das uns absurde Ergebnisse liefern kann. Jedes Modell sollte nach den maximalen Grenzen der Wertänderungen seiner Parameter und Variablen bewertet werden. Wenn das Modell lächerliche Antworten auf die gestellten Fragen gibt, müssen wir zurück ans Reißbrett. Das Modell sollte auch „Was wäre wenn…“-Fragen beantworten können, da diese Fragen für uns am nützlichsten sind, da sie zu einem tieferen Verständnis des Problems und der Suche nach besseren Möglichkeiten zur Einschätzung unserer möglichen Handlungen beitragen.

Schließlich sollten Sie sich immer an den Verbraucher der Informationen erinnern, die Ihnen unser Modell ermöglicht. Die Entwicklung eines Simulationsmodells ist nicht zu rechtfertigen, wenn es letztlich nicht anwendbar ist oder dem Entscheidungsträger nicht nützt.

Der Verbraucher der Ergebnisse kann die Person sein, die für die Erstellung des Systems oder für seinen Betrieb verantwortlich ist; mit anderen Worten, es muss immer einen Benutzer des Modells geben - andernfalls verschwenden wir die Zeit und Energie von Führungskräften, die Gruppen von Wissenschaftlern, die sich mit Operations Research, Managementtheorie oder Systemanalyse beschäftigen, langfristig unterstützen, wenn ihre Ergebnisse keine praktische Anwendung finden. ...

Unter Berücksichtigung all dessen ist es möglich, spezifische Kriterien zu formulieren, die erfüllt werden müssen gutes Modell... Ein solches Modell sollte sein:

- einfach und verständlich für den Benutzer;

- zielgerichtet;

- zuverlässig im Sinne einer Garantie gegen absurde Antworten;

- einfach zu bedienen und zu handhaben, d.h. die Kommunikation mit ihr sollte einfach sein;

- vollständig im Hinblick auf die Möglichkeiten zur Lösung der Hauptprobleme; adaptiv, sodass Sie problemlos zu anderen Modifikationen wechseln oder Daten aktualisieren können;

- schrittweise Änderungen in dem Sinne ermöglichen, dass es am Anfang einfach ist und in der Interaktion mit dem Benutzer immer komplexer werden kann.

Basierend auf der Tatsache, dass Nachahmung für die Forschung verwendet werden sollte
realen Systemen lassen sich die folgenden Phasen dieses Prozesses unterscheiden:

- Definition des Systems - Festlegung von Grenzen, Beschränkungen und Maßnahmen zur Wirksamkeit des zu untersuchenden Systems;

- Formulierung des Modells - Übergang von einem realen System zu einem logischen Schema (Abstraktion);

- Datenaufbereitung - Auswahl der für die Modellerstellung erforderlichen Daten und deren Darstellung in geeigneter Form;

- Modellübersetzung - eine Beschreibung des Modells in einer für akzeptablen Sprache
der verwendete Computer;

- eine Bewertung der Angemessenheit - eine Erhöhung des Vertrauensgrades auf ein akzeptables Niveau, mit dem die Richtigkeit der Schlussfolgerungen über das reale System beurteilt werden kann, die auf der Grundlage der Bezugnahme auf das Modell erhalten wurden;

- Strategische Planung - Planung eines Experiments, das die notwendigen Informationen liefern soll;

- taktische Planung - Festlegung der Methode zur Durchführung jeder im Versuchsplan vorgesehenen Versuchsreihe;

- Experimentieren - der Prozess der Durchführung einer Simulation, um die gewünschten Daten und Sensitivitätsanalysen zu erhalten;

- Interpretation - Schlussfolgerungen aus den durch Simulation gewonnenen Daten ziehen;

- Implementierung - praktische Anwendung des Modells und (oder) Simulationsergebnisse;

- Dokumentation - Aufzeichnung des Projektfortschritts und seiner Ergebnisse sowie Dokumentation des Prozesses der Erstellung und Verwendung des Modells.

Die aufgeführten Phasen der Modellerstellung und -nutzung werden unter der Annahme festgelegt, dass das Problem am besten durch Simulation gelöst werden kann. Wie bereits erwähnt, ist dies jedoch möglicherweise nicht der effektivste Weg. Es wurde wiederholt darauf hingewiesen, dass Nachahmung der letzte Ausweg oder eine grobe, energische Technik ist, um ein Problem zu lösen. Es besteht kein Zweifel, dass für den Fall, dass das Problem auf ein einfaches Modell reduziert und analytisch gelöst werden kann, keine Nachahmung erforderlich ist. Es sollten alle möglichen Mittel gesucht werden, die zur Lösung dieser speziellen Aufgabe geeignet sind, wobei die optimale Kombination von Kosten und gewünschten Ergebnissen angestrebt wird. Bevor Sie sich auf eine Einschätzung der Möglichkeiten der Nachahmung einlassen, sollten Sie sich vergewissern, dass ein einfaches analytisches Modell für den gegebenen Fall nicht geeignet ist.

Die Stufen bzw. Elemente des Simulationsprozesses in ihrer Wechselbeziehung sind im Blockschaltbild der Abbildung 1.3 dargestellt. Typischerweise beginnt der Entwurf eines Modells damit, dass jemand in der Organisation zu dem Schluss kommt, dass ein Problem aufgetreten ist, das untersucht werden muss.

Für Voruntersuchungen wird ein geeigneter Mitarbeiter (meist aus der Gruppe des jeweiligen Problems) zugewiesen. Irgendwann wird erkannt, dass quantitative Forschungsmethoden nützlich sein können, um ein Problem zu untersuchen, und dann tritt ein Mathematiker auf den Plan. Damit beginnt die Phase der Definition der Problemstellung.

Einstein hat einmal gesagt, dass es noch wichtiger ist, ein Problem richtig zu stellen, als es zu lösen. Um eine akzeptable oder optimale Lösung für ein Problem zu finden, müssen Sie zunächst wissen, woraus es besteht.

Die meisten praktischen Aufgaben werden an die Leiter der wissenschaftlichen
Forschungseinheiten in unzureichend klarer, ungenauer Form. In vielen Fällen ist oder ist das Management nicht in der Lage, den Kern seiner Probleme richtig auszudrücken. Es weiß, dass es ein Problem gibt, kann aber nicht genau sagen, um welches Problem es sich handelt. Daher beginnt die Systemanalyse normalerweise mit einer explorativen Untersuchung des Systems unter Anleitung eines Entscheidungsträgers. Das Forschungsteam muss eine Reihe von geeigneten Zielen und Zielen verstehen und klar artikulieren. Die Erfahrung zeigt, dass die Formulierung eines Problems ein kontinuierlicher Prozess ist, der den gesamten Forschungsverlauf durchzieht. Diese Forschung generiert ständig neue Informationen über Einschränkungen, Ziele und mögliche Alternativen. Diese Informationen sollten regelmäßig verwendet werden, um den Wortlaut und das Leitbild zu aktualisieren.

Ein wichtiger Teil der Problemstellung besteht darin, die Eigenschaften des zu untersuchenden Systems zu bestimmen. Alle Systeme sind Teilsysteme anderer größerer Systeme. Daher müssen wir Ziele und Einschränkungen definieren, die wir bei der Abstraktion oder dem Aufbau eines formalen Modells berücksichtigen müssen. Man sagt, dass ein Problem als ein Zustand unerfüllten Bedarfs definiert werden kann. Die Situation wird problematisch, wenn der Betrieb eines Systems nicht die gewünschten Ergebnisse liefert.

Wenn die gewünschten Ergebnisse nicht erreicht werden, entsteht die Notwendigkeit
das System oder die Umgebung, in der es betrieben wird, ändern. Mathematisch lässt sich das Problem wie folgt definieren (1.2):

(1.2)

wobei Р t - der Zustand des Problems zum Zeitpunkt t;

D t - der gewünschte Zustand zum Zeitpunkt t;

A t ist der aktuelle Zustand zum Zeitpunkt t.

Abbildung 1.3 - Phasen des Simulationsprozesses

Daher besteht der erste Schritt bei der Definition der Eigenschaften des zu untersuchenden Systems darin, die Anforderungen der Umgebung zu analysieren, für die das System bestimmt ist. Diese Analyse beginnt mit der Definition von Zielen und Randbedingungen (d. h. was Teil des zu untersuchenden Systems ist und was nicht). Uns interessieren hier zwei funktionale Grenzen oder zwei Schnittstellen: die Grenze, die unser Problem vom Rest der Welt trennt, und die Grenze zwischen dem System und der Umgebung (d. h. was wir als integralen Bestandteil des Systems betrachten .) und was macht die Umgebung aus, in der dieses System arbeitet) ... Wir können beschreiben, was im System selbst passiert, verschiedene Wege... Wenn wir nicht bei einer Reihe von Elementen und Beziehungen aufhören würden, die mit einem klar definierten Ziel im Hinterkopf untersucht werden müssen, hätten wir eine unendliche Anzahl von Beziehungen und Kombinationen.

Nachdem wir die Ziele und Zielsetzungen der Studie skizziert und die Grenzen des Systems definiert haben, reduzieren wir das reale System weiter auf ein logisches Blockdiagramm oder auf ein statisches Modell. Wir wollen ein Modell eines realen Systems bauen, das einerseits nicht so vereinfacht wird, dass es trivial wird, und andererseits nicht so detailliert, dass es zu umständlich und übertrieben wird teuer. Die Gefahr, die beim Aufbau eines logischen Blockschaltbildes eines realen Betriebssystems auf uns lauert, besteht darin, dass das Modell mit Details und Elementen überwuchert wird, die manchmal nichts zum Verständnis der gegebenen Problematik beitragen.

Daher besteht fast immer die Tendenz, ein Übermaß an Details zu imitieren. Um eine solche Situation zu vermeiden, sollte man ein Modell aufbauen, das sich auf die Lösung der Fragen konzentriert, auf die Antworten gefunden werden müssen, und nicht das reale System in allen Details simulieren. Paretos Gesetz besagt, dass es in jeder Gruppe oder Bevölkerung eine lebenswichtige Minderheit und eine triviale Mehrheit gibt. Nichts wirklich Wichtiges passiert, bis eine lebenswichtige Minderheit betroffen ist. Allzu oft neigen Systemanalytiker dazu, all die detailreichen Komplexitäten realer Situationen in ein Modell zu übersetzen, in der Hoffnung, dass ein Computer ihre Probleme lösen würde. Dieser Ansatz ist unbefriedigend, nicht nur weil die Programmierschwierigkeiten des Modells zunehmen und die Kosten für die Verlängerung der Versuchsdurchläufe steigen, sondern auch, weil wichtige Aspekte und Beziehungen können in trivialen Details untergehen. Aus diesem Grund sollte das Modell nur die Aspekte des Systems darstellen, die den Zielen der Studie entsprechen.

In vielen Studien kann die Modellierung hier enden. In überraschend vielen Fällen werden durch eine genaue und konsistente Beschreibung von Situationen Fehler und Engpässe im System sichtbar, so dass die Notwendigkeit einer weiteren Forschung mit Hilfe von Simulationsmethoden entfällt.

Jede Studie umfasst auch die Erhebung von Daten, die normalerweise als Erlangung einer Art numerischer Merkmale verstanden wird. Aber das ist nur eine Seite der Datenerhebung. Ein Systemanalytiker sollte an den Eingangs- und Ausgangsdaten des untersuchten Systems sowie an Informationen über die verschiedenen Komponenten des Systems, deren Abhängigkeiten und Beziehungen zwischen ihnen interessiert sein. Daher ist er daran interessiert, sowohl quantitative als auch qualitative Daten zu sammeln; er muss entscheiden, welche benötigt werden, wie geeignet sie für die jeweilige Aufgabe sind und wie all diese Informationen gesammelt werden.

Bei der Erstellung eines stochastischen Simulationsmodells müssen Sie immer entscheiden, ob das Modell direkt die vorhandenen empirischen Daten verwenden soll oder ob es sinnvoll ist, wahrscheinlichkeitstheoretische oder Häufigkeitsverteilungen zu verwenden. Diese Wahl ist aus drei Gründen von grundlegender Bedeutung. Erstens bedeutet die Verwendung empirischer Rohdaten, dass, egal wie sehr wir uns bemühen, nur die Vergangenheit nachgeahmt werden kann. Die Verwendung von Daten aus einem Jahr spiegelt die Leistung des Systems für dieses Jahr wider und sagt uns nicht unbedingt etwas über die erwarteten Funktionen des Systems in der Zukunft. In diesem Fall werden nur die bereits eingetretenen Ereignisse als möglich angesehen. Es ist eine Sache anzunehmen, dass eine gegebene Verteilung in ihrer Grundform im Laufe der Zeit unverändert bleibt, und eine ganz andere Sache anzunehmen, dass Eigenschaften ein bestimmtes Jahr wird immer wiederholt. Zweitens ist im allgemeinen Fall die Verwendung theoretischer Häufigkeits- oder Wahrscheinlichkeitsverteilungen unter Berücksichtigung der Anforderungen an Rechenzeit und Speicher effizienter als die Verwendung von Tabellendaten, um zufällige Variationsserie erforderlich, um mit dem Modell zu arbeiten. Drittens ist es höchst wünschenswert und vielleicht sogar obligatorisch, dass der Analytiker-Entwickler des Modells seine Empfindlichkeit gegenüber Veränderungen in Form der verwendeten Wahrscheinlichkeitsverteilungen und Parameterwerte bestimmt. Mit anderen Worten, es ist äußerst wichtig, das Modell auf die Empfindlichkeit der Endergebnisse gegenüber Änderungen der Ausgangsdaten zu testen. Entscheidungen über die Gebrauchstauglichkeit von Daten, deren Verlässlichkeit, Darstellungsform, der Grad der Übereinstimmung mit theoretischen Verteilungen und vergangene Ergebnisse der Funktionsweise des Systems - all dies beeinflusst den Erfolg des Simulationsexperiments stark und ist nicht das Ergebnis rein theoretischer Schlussfolgerungen.

Die Modellvalidierung ist der Prozess, bei dem für den Benutzer ein akzeptables Vertrauensniveau erreicht wird, dass jede aus der Simulation gezogene Schlussfolgerung über das Verhalten des Systems richtig ist. Es ist unmöglich zu beweisen, dass diese oder jene Nachahmung eine richtige oder "wahre" Darstellung des realen Systems ist. Glücklicherweise beschäftigen wir uns selten mit dem Problem, die "Wahrheit" eines Modells zu beweisen. Stattdessen interessiert uns vor allem die Gültigkeit der tieferen Schlussfolgerungen, zu denen wir gekommen sind oder auf der Grundlage der Simulationsmodellierung kommen werden. Daher geht es uns normalerweise nicht um die Fairness der Struktur des Modells, sondern um seinen funktionalen Nutzen.

Die Modellvalidierung ist von entscheidender Bedeutung, da Simulationen realistisch sind und sowohl von Modellierern als auch von ihren Benutzern leicht vertraut werden. Leider gibt es für einen zufälligen Beobachter und manchmal für einen in der Modellierung erfahrenen Spezialisten versteckte Anfangsannahmen, auf deren Grundlage dieses Model... Daher kann eine ohne Due Diligence durchgeführte Prüfung katastrophale Folgen haben.


Ähnliche Informationen.


Modell ist eine abstrakte Beschreibung des Systems, deren Detaillierungsgrad vom Forscher selbst bestimmt wird. Eine Person entscheidet, ob ein bestimmtes Element des Systems wesentlich ist und daher in die Beschreibung des Systems aufgenommen wird. Diese Entscheidung wird basierend auf dem zugrunde liegenden Zweck der Modellentwicklung getroffen. Der Erfolg der Modellierung hängt davon ab, wie gut der Forscher die wesentlichen Elemente und die Zusammenhänge zwischen ihnen unterscheiden kann.

Es wird davon ausgegangen, dass das System aus vielen miteinander verbundenen Elementen besteht, die kombiniert werden, um eine bestimmte Funktion zu erfüllen. Die Definition eines Systems ist weitgehend subjektiv, d.h. es hängt nicht nur vom Zweck der Verarbeitung des Modells ab, sondern auch davon, wer das System genau definiert.

Der Modellierungsprozess beginnt also mit der Definition des Ziels der Modellentwicklung, auf deren Grundlage die Systemgrenzen und erforderlicher Detaillierungsgrad simulierte Prozesse. Der gewählte Detaillierungsgrad soll es ermöglichen, von den mangels Informationen ungenau definierten Aspekten der Funktionsweise eines realen Systems zu abstrahieren. Darüber hinaus sollte die Beschreibung des Systems Kriterien für die Effektivität des Funktionierens des Systems und die bewerteten alternativen Lösungen enthalten, die als Teil des Modells oder als dessen Input betrachtet werden können. Als Output des Modells gelten die Bewertungen alternativer Lösungen nach den gegebenen Leistungskriterien. Üblicherweise erfordert die Bewertung von Alternativen Änderungen in der Beschreibung des Systems und folglich eine Neustrukturierung des Modells. Daher ist der Prozess der Modellerstellung in der Praxis iterativ. Nachdem auf der Grundlage der erhaltenen Schätzungen von Alternativen Empfehlungen abgegeben werden können, können Sie mit der Implementierung der Simulationsergebnisse beginnen. Gleichzeitig sollten die Empfehlungen sowohl die wesentlichen Entscheidungen als auch die Bedingungen für ihre Umsetzung klar formulieren.

Simulationsmodellierung(im weitesten Sinne) - Es gibt einen Prozess der Konstruktion eines Modells eines realen Systems und der Durchführung von Experimenten zu diesem Modell, um entweder das Verhalten des Systems zu verstehen oder (innerhalb der auferlegten Einschränkungen) verschiedene Strategien zu bewerten, die die Funktionieren dieses Systems.

Simulationsmodellierung(im engeren Sinne) ist eine Darstellung des dynamischen Verhaltens eines Systems, indem es nach bekannten Betriebsregeln (Algorithmen) von einem Zustand in einen anderen bewegt wird.

Um ein Simulationsmodell zu erstellen, ist es also notwendig, den Zustand des Systems und die Algorithmen (Regeln) zu seiner Änderung auszuwählen und zu beschreiben. Außerdem wird es in Form eines Modellierungswerkzeugs (algorithmische Sprache, Fachsprache) geschrieben und auf einem Computer verarbeitet.

Simulationsmodell(IM) ist eine logisch-mathematische Beschreibung des Systems, die im Rahmen von Experimenten auf einem Digitalrechner verwendet werden kann.

MI kann verwendet werden, um die Funktionsweise von Systemen zu entwerfen, zu analysieren und zu bewerten. Mit dem MI werden Maschinenexperimente durchgeführt, die Rückschlüsse auf das Verhalten des Systems zulassen:

· In Abwesenheit seiner Konstruktion, wenn es sich um ein geplantes System handelt;

· Ohne Beeinträchtigung seiner Funktionsweise, wenn es sich um ein Betriebssystem handelt, mit dem Experimentieren unmöglich oder unerwünscht ist (hohe Kosten, Gefahr);

· Ohne das System zu zerstören, wenn der Zweck des Experiments darin besteht, die Auswirkungen darauf zu bestimmen.

Der Prozess der Bildung eines Simulationsmodells lässt sich kurz wie folgt darstellen ( Abb. 2):

Abb. 2... Simulationsmodellbildungsschema

Ausgabe: IM zeichnet sich durch die Reproduktion der Phänomene aus, die durch das formalisierte Schema des Prozesses beschrieben werden, unter Beibehaltung ihrer logischen Struktur, der zeitlichen Abfolge und manchmal des physischen Inhalts.

Computersimulation (IM) wird häufig bei der Untersuchung und Steuerung komplexer diskreter Systeme (SDS) und der darin ablaufenden Prozesse eingesetzt. Zu solchen Systemen gehören Wirtschafts- und Industrieanlagen, Seehäfen, Flughäfen, Öl- und Gaspumpenkomplexe, Bewässerungssysteme, Software für komplexe Steuerungssysteme, Computernetzwerke und vieles mehr. Die weite Verbreitung von IM erklärt sich dadurch, dass die Dimension der zu lösenden Probleme und die Nicht-Formalisierung komplexer Systeme den Einsatz rigoroser Optimierungsmethoden nicht zulassen.

Unter Nachahmung Wir verstehen die numerische Methode der Durchführung von Experimenten am Computer mit mathematischen Modellen, die das Verhalten komplexer Systeme über einen langen Zeitraum beschreiben.

Simulationsexperiment ist eine Anzeige des Prozesses, der im VTS über einen langen Zeitraum (Minute, Monat, Jahr usw.) abläuft, der normalerweise einige Sekunden oder Minuten der Computerbetriebszeit in Anspruch nimmt. Es gibt jedoch Probleme, zu deren Lösung es notwendig ist, in der Modellierung so viele Berechnungen durchzuführen (in der Regel handelt es sich dabei um regelungstechnische Aufgaben, Modellierung der Akzeptanzunterstützung optimale Lösungen, Abarbeiten effektive Strategien Steuerung usw.), dass das MI langsamer arbeitet als das reale System. Daher ist die Fähigkeit, einen langen VTS-Betrieb in kurzer Zeit zu simulieren, nicht das Wichtigste, was die Simulation bietet.

Simulationsfunktionen:

1. Mit dem MI werden Maschinenexperimente durchgeführt, die Rückschlüsse auf das Verhalten des Systems zulassen:

· Ohne es zu bauen, wenn es sich um ein projektiertes System handelt;

· Ohne seine Funktionsfähigkeit zu beeinträchtigen, wenn es sich um ein Betriebssystem handelt, mit dem experimentieren unmöglich oder unerwünscht (teuer, gefährlich) ist;

· Ohne es zu zerstören, wenn das Experiment die begrenzende Wirkung auf das System ermitteln soll.

2. Untersuchen Sie experimentell komplexe Interaktionen innerhalb des Systems und verstehen Sie die Logik seiner Funktionsweise.

4. Untersuchen Sie die Auswirkungen externer und interner zufälliger Störungen.

5. Untersuchen Sie den Einfluss von Systemparametern auf Leistungsindikatoren.

6. Prüfen Sie neue Führungsstrategien und Entscheidungsfindungen in der Betriebsführung.

7. Vorhersage und Planung des zukünftigen Funktionierens des Systems.

8. Führen Sie Personalschulungen durch.

Das Simulationsexperiment basiert auf dem Modell des simulierten Systems.

IM entwickelt für die Modellierung komplexer stochastischer Systeme - diskret, stetig, kombiniert.

Simulation bedeutet, dass aufeinanderfolgende Zeiten gegeben sind und der Zustand des Modells wird vom Computer sequentiell zu jedem dieser Zeitpunkte berechnet. Dazu ist es notwendig, eine Regel (Algorithmus) für den Übergang des Modells von einem Zustand in den nächsten, also eine Transformation, festzulegen:

, ,

wo - der Zustand des Modells zum --ten Zeitpunkt, der ein Vektor ist.

Lassen Sie uns in Betracht ziehen:

ist der Vektor des Zustands der äußeren Umgebung (Modelleingabe) zum Zeitpunkt,

ist der Kontrollvektor zum th Zeitpunkt.

Dann wird der MI durch die Aussage des Operators bestimmt, mit deren Hilfe es möglich ist, den Zustand des Modells zum nächsten Zeitpunkt durch den Zustand im aktuellen Moment, die Steuerungsvektoren und die äußere Umgebung zu bestimmen:

, .

Wir schreiben diese Transformation in einer wiederkehrenden Form:

, .

Operator definiert ein Simulationsmodell eines komplexen Systems mit seiner Struktur und seinen Parametern.

Ein wichtiger Vorteil von IM ist die Fähigkeit, unkontrollierbare Faktoren des modellierten Objekts zu berücksichtigen, bei denen es sich um einen Vektor handelt:

.

Dann haben wir:

, .

Simulationsmodell- Dies ist eine logisch-mathematische Beschreibung des Systems, die im Rahmen von Experimenten am Computer verwendet werden kann.

Abb. 3. Zusammensetzung der IM eines komplexen Systems

Um auf das Problem der Nachahmung eines komplexen Systems zurückzukommen, lassen Sie uns in MI bedingt herausgreifen: ein Modell eines kontrollierten Objekts, ein Modell eines Kontrollsystems und ein Modell interner zufälliger Störungen (Abb. 3).

Die Eingänge des geregelten Objektmodells werden in geregelt geregelte und ungeregelte ungeregelte Störungen unterteilt. Letztere werden von Zufallszahlengeneratoren nach einem gegebenen Verteilungsgesetz erzeugt. Die Steuerung wiederum ist die Ausgabe des Regelsystemmodells und die Störungen sind die Ausgabe der Zufallszahlensensoren (Modelle interner Störungen).

Hier ist der Algorithmus des Regelsystems.

Mit der Simulation können Sie das Verhalten eines modellierten Objekts über einen längeren Zeitraum untersuchen - dynamische Simulation... In diesem Fall wird sie, wie oben erwähnt, als Zahl des Zeitpunkts interpretiert. Außerdem können Sie das Verhalten des Systems zu einem bestimmten Zeitpunkt untersuchen - statische Simulation, dann wird sie als Zustandsnummer behandelt.

Bei der dynamischen Simulation kann sich die Zeit mit einem konstanten und variablen Schritt ändern ( Abb. 4):

Abb. 4. Dynamische Simulation

Hier g ich- Momente von Ereignissen in der VTS, g * ich- die Momente des Auftretens von Ereignissen in der dynamischen Simulation mit einem konstanten Schritt, g 'ICH- die Momente des Auftretens von Ereignissen mit variablem Schritt.

Mit einem konstanten Schritt ist es einfacher zu implementieren, aber weniger genau und es kann leere (dh unnötige) Zeitpunkte geben, wenn der Zustand des Modells berechnet wird.

Die Zeit bewegt sich von Ereignis zu Ereignis mit variablen Schritten. Diese Methode ist eine genauere Reproduktion des Prozesses, es gibt keine unnötigen Berechnungen, aber sie ist schwieriger zu implementieren.

Grundbestimmungen folgendes aus obigem:

1. IM ist eine numerische Methode und sollte verwendet werden, wenn andere Methoden nicht verwendet werden können. Für komplexe Systeme ist dies dieser Moment die wichtigste Forschungsmethode.

2. Imitation ist ein Experiment, das heißt, es sollte die Theorie der Planung eines Experiments und der Verarbeitung seiner Ergebnisse verwenden.

3. Je genauer das Verhalten des modellierten Objekts beschrieben wird, desto genauer wird das Modell benötigt. Wie genauer gesagt ein Modell, desto komplexer ist es und erfordert große Computerressourcen und Zeit für die Recherche. Daher muss ein Kompromiss zwischen der Genauigkeit des Modells und seiner Einfachheit gefunden werden.

Beispiele für zu lösende Aufgaben: Analyse von Systemdesigns in verschiedenen Phasen, Analyse bestehender Systeme, Einsatz in Leitsystemen, Einsatz in Optimierungssystemen usw.

Simulationsmodelle sind ein weiteres Beispiel für im Wesentlichen Maschinenmodelle. Obwohl die Simulationsmodellierung eine immer beliebtere Methode zur Untersuchung komplexer Systeme und Prozesse wird, gibt es heute keine einheitliche Definition eines von allen Forschern anerkannten Simulationsmodells.

In den meisten verwendeten Definitionen wird davon ausgegangen, dass ein Simulationsmodell mit einer Reihe von mathematischen und instrumentellen Werkzeugen erstellt und implementiert wird, die es ermöglichen, mithilfe eines Computers gezielte Berechnungen der Eigenschaften des modellierten Prozesses und die Optimierung einiger seiner Parameter durchzuführen .

Es gibt auch extreme Standpunkte. Eine davon ist mit der Aussage verbunden, dass jede logisch-mathematische Beschreibung des Systems als Simulationsmodell erkannt werden kann, das im Rahmen von Rechenexperimenten verwendet werden kann. Unter diesem Gesichtspunkt werden Berechnungen mit variierenden Parametern in rein deterministischen Problemen als Simulation anerkannt.

Unterstützer eines anderen Extrempunkt Aus Sicht wird angenommen, dass ein Simulationsmodell notwendigerweise ein spezielles Softwarepaket ist, mit dem Sie die Aktivität eines beliebigen komplexen Objekts simulieren können. „Die Simulationsmethode ist eine experimentelle Methode zur Untersuchung eines realen Systems anhand seines Computermodells, die die Merkmale des experimentellen Ansatzes und die spezifischen Bedingungen für den Einsatz von Computertechnologie kombiniert. Simulationsmodellierung ist eine maschinelle Methode der Modellierung, tatsächlich gab es sie nie ohne Computer, und erst die Entwicklung der Informationstechnologien führte zur Entstehung dieser Art der Computermodellierung “. Dieser Ansatz verweigert die Möglichkeit, einfachste Simulationsmodelle ohne Verwendung eines Computers zu erstellen.

Definition 1.9. Simulationsmodell- eine besondere Art von Informationsmodellen, die Elemente von analytischen, computergestützten und analogen Modellen kombiniert, die es ermöglichen, durch eine Reihe von Berechnungen und eine grafische Darstellung der Ergebnisse seiner Arbeit die Funktionsweise des untersuchten Objekts zu reproduzieren (nachzuahmen), wenn es exponiert ist auf verschiedene (meist zufällige) Faktoren.

Simulationsmodellierung wird heute verwendet, um Geschäftsprozesse, Lieferketten, Militäroperationen, Bevölkerungsdynamik, historische Prozesse, Wettbewerb und andere Prozesse zu modellieren, um die Konsequenzen von Managemententscheidungen in den meisten Fällen vorherzusagen verschiedene Bereiche... Simulationsmodellierung ermöglicht die Untersuchung von Systemen jeder Art, Komplexität und Zweckbestimmung und mit nahezu jedem Detaillierungsgrad, begrenzt nur durch den Aufwand der Entwicklung eines Simulationsmodells und die technischen Möglichkeiten der für Experimente verwendeten Rechenwerkzeuge.

Simulationsmodelle, die zur Lösung moderner praktischer Probleme entwickelt werden, enthalten in der Regel eine Vielzahl komplexer wechselwirkender stochastischer Elemente, die jeweils durch eine Vielzahl von Parametern beschrieben und stochastischen Einflüssen ausgesetzt sind. In diesen Fällen ist eine maßstabsgetreue Modellierung in der Regel unerwünscht oder unmöglich und eine analytische Lösung schwierig oder unmöglich. Häufig erfordert die Implementierung eines Simulationsmodells die Organisation von verteiltem Rechnen. Aus diesen Gründen sind Simulationsmodelle im Wesentlichen Maschinenmodelle.

Das Simulationsmodell übernimmt die Darstellung des Modells in Form eines implementierten Algorithmus Computer Programm, deren Ausführung den Ablauf von Zustandsänderungen im System simuliert und damit das Verhalten des modellierten Systems oder Prozesses abbildet.

Beachten Sie!

Bei Vorliegen von Zufallsfaktoren werden durch mehrere Durchläufe des Simulationsmodells und anschließende statistische Verarbeitung der gesammelten Informationen die notwendigen Eigenschaften der simulierten Prozesse erhalten.

Beachten Sie, dass es aus der Sicht eines Anwendungsspezialisten legitim ist, die Nachahmungsmodellierung als Informationstechnologie zu interpretieren: „Die Nachahmungsmodellierung eines gesteuerten Prozesses oder eines gesteuerten Objekts ist eine High-Level-Informationstechnologie, die zwei Arten von Aktionen bereitstellt, die mithilfe von ein Computer:

  • 1) Arbeiten an der Erstellung oder Änderung des Simulationsmodells;
  • 2) Betrieb des Simulationsmodells und Interpretation der Ergebnisse ”.

Das modulare Prinzip des Aufbaus eines Simulationsmodells. Simulationsmodellierung setzt also das Vorhandensein konstruierter logisch-mathematischer Modelle voraus, die das untersuchte System in Verbindung mit Außenumgebung, Reproduktion der darin ablaufenden Prozesse unter Beibehaltung ihrer logischen Struktur und zeitlichen Abfolge mittels Computertechnik. Am rationellsten ist es, ein Simulationsmodell des nach dem Baukastenprinzip funktionierenden Systems aufzubauen. In diesem Fall können drei miteinander verbundene Modulblöcke eines solchen Modells unterschieden werden (Abb. 1.7).

Reis. 1.7.

Der Hauptteil des algorithmischen Modells ist im Block zur Nachahmung der Objektfunktionsprozesse (Block 2) implementiert. Hier wird das Zählen der Modellzeit organisiert, die Logik und Dynamik der Interaktion der Modellelemente reproduziert, Experimente durchgeführt, um die Daten zu sammeln, die zur Berechnung der Schätzungen der Eigenschaften der Funktion des Objekts erforderlich sind. Der Block zur Simulation von Zufallsaktionen (Block 1) wird verwendet, um Werte von Zufallsvariablen und Prozessen zu generieren. Es umfasst Generatoren von Standardverteilungen und Werkzeuge zur Implementierung von Algorithmen zur Modellierung zufälliger Aktionen mit den erforderlichen Eigenschaften. Im Block zur Verarbeitung der Simulationsergebnisse (Block 3) werden die aktuellen und endgültigen Werte der Kennlinien berechnet, die die Ergebnisse von Experimenten mit dem Modell ausmachen. Solche Experimente können darin bestehen, verwandte Probleme zu lösen, einschließlich Optimierungs- oder inverser Probleme.

  • Lychkina II. II. Dekret. op.
  • Distributed Computing ist eine Möglichkeit, zeitaufwändige Rechenprobleme mit mehreren Computern zu lösen, die meistens zu einem parallelen Computersystem kombiniert werden.
  • Emelyanov A. A., Vlasova E. A., Duma R. V. Simulation wirtschaftlicher Prozesse. M.: Finanzen und Statistik, 2006.S. 6.

Einführung

Simulationsmodellierung (Simulation) ist eine der leistungsfähigsten Methoden zur Analyse von Wirtschaftssystemen.

Im Allgemeinen wird unter Nachahmung das Durchführen von Experimenten auf einem Computer mit mathematischen Modellen komplexer Systeme in der realen Welt verstanden.

Die Ziele solcher Experimente können sehr unterschiedlich sein - von der Identifizierung der Eigenschaften und Muster des untersuchten Systems bis hin zur Lösung konkreter praktischer Probleme. Mit der Entwicklung der Computertechnologie und Software, hat sich der Anwendungsbereich der Nachahmung im Bereich der Wirtschaftswissenschaften deutlich erweitert. Gegenwärtig wird es sowohl zur Lösung von Problemen des unternehmensinternen Managements als auch zur Modellierung des Managements auf makroökonomischer Ebene verwendet. Betrachten wir die Hauptvorteile der Verwendung von Simulationsmodellen bei der Lösung von Problemen der Finanzanalyse.

Wie die Definition vermuten lässt, ist Imitation ein Computerexperiment. Der einzige Unterschied zwischen einem solchen Experiment und einem echten besteht darin, dass es mit einem Modell des Systems und nicht mit dem System selbst durchgeführt wird. Reale Experimente mit ökonomischen Systemen sind jedoch zumindest unvernünftig, teuer und in der Praxis kaum machbar. Somit ist Simulation die einzige Möglichkeit, Systeme zu studieren, ohne reale Experimente durchzuführen.

Es ist oft nicht praktikabel oder teuer, die für die Entscheidungsfindung notwendigen Informationen zu sammeln. Zum Beispiel bei der Risikobewertung Investitionsprojekte, in der Regel verwenden sie Prognosedaten zu Absatzmengen, Kosten, Preisen etc.

Um das Risiko adäquat einschätzen zu können, ist jedoch eine ausreichende Informationsmenge erforderlich, um plausible Hypothesen über die Wahrscheinlichkeitsverteilungen der Schlüsselparameter des Projekts zu formulieren. In solchen Fällen werden die fehlenden Ist-Daten durch die im Simulationsexperiment erhaltenen (also vom Computer generierten) Werte ersetzt.

Bei der Lösung vieler Probleme der Finanzanalyse werden Modelle verwendet, die Zufallsvariablen enthalten, deren Verhalten von Entscheidungsträgern nicht kontrolliert werden kann. Solche Modelle nennt man stochastisch. Durch den Einsatz der Simulation lassen sich auf Basis der Wahrscheinlichkeitsverteilungen von Zufallsfaktoren (Mengen) Rückschlüsse auf mögliche Ergebnisse ziehen. Stochastische Simulation wird oft als Monte-Carlo-Methode bezeichnet. Es gibt noch andere Vorteile der Nachahmung.

Wir betrachten die Technologie der Simulationsmodellierung, um die Risiken von Investitionsprojekten in MS Excel zu analysieren.

Simulationsmodellierung

Simulationsmodellierung (Situationsmodellierung) ist eine Methode, mit der Sie Modelle erstellen können, die die Prozesse so beschreiben, wie sie es in der Realität tun würden. Ein solches Modell kann sowohl für einen Test als auch für einen bestimmten Satz von ihnen rechtzeitig "gespielt" werden. In diesem Fall werden die Ergebnisse durch die zufällige Natur der Prozesse bestimmt. Basierend auf diesen Daten kann man ziemlich stabile Statistiken erhalten.

Simulationsmodellierung ist eine Forschungsmethode, bei der das zu untersuchende System durch ein Modell ersetzt wird, das das reale System hinreichend genau beschreibt, mit dem Experimente durchgeführt werden, um Informationen über dieses System zu erhalten. Das Experimentieren mit einem Modell wird als Nachahmung bezeichnet (Nachahmung ist das Erfassen des Wesens eines Phänomens, ohne auf Experimente an einem realen Objekt zurückzugreifen).

Die Simulationsmodellierung ist ein Sonderfall der mathematischen Modellierung. Es gibt eine Klasse von Objekten, für die aus verschiedenen Gründen keine analytischen Modelle entwickelt wurden oder Methoden zur Lösung des resultierenden Modells nicht entwickelt wurden. In diesem Fall wird das analytische Modell durch einen Simulator oder Simulationsmodell ersetzt.

Simulationsmodellierung wird manchmal als Erlangen partieller numerischer Lösungen eines formulierten Problems auf der Grundlage analytischer Lösungen oder unter Verwendung numerischer Methoden bezeichnet.

Ein Simulationsmodell ist eine logische und mathematische Beschreibung eines Objekts, mit der am Computer experimentiert werden kann, um die Funktion eines Objekts zu entwerfen, zu analysieren und zu bewerten.

Imitationsmodellierung wird verwendet, wenn:

· Es ist teuer oder unmöglich, an einem realen Objekt zu experimentieren;

· Es ist unmöglich, ein analytisches Modell zu erstellen: Das System hat Zeit, kausale Beziehungen, Konsequenzen, Nichtlinearitäten, stochastische (zufällige) Variablen;

· Es ist notwendig, das Verhalten des Systems rechtzeitig zu simulieren.

Der Zweck der Simulation besteht darin, das Verhalten des untersuchten Systems basierend auf den Ergebnissen der Analyse der wichtigsten Beziehungen zwischen seinen Elementen zu reproduzieren oder anders ausgedrückt, eine Simulationsmodellierung des untersuchten Themenbereichs für verschiedene Experimente zu entwickeln.

Mit der Simulationsmodellierung können Sie das Verhalten eines Systems im Zeitverlauf simulieren. Der Vorteil ist zudem, dass die Zeit im Modell kontrolliert werden kann: Verlangsamen Sie sie bei schnellen Prozessen und beschleunigen Sie sie, um Systeme mit langsamer Variabilität zu simulieren. Sie können das Verhalten dieser Objekte nachahmen, mit denen echte Experimente teuer, unmöglich oder gefährlich sind. Mit dem Beginn einer Ära persönliche Computer Die Herstellung komplexer und einzigartiger Produkte wird in der Regel von einer dreidimensionalen Computersimulation begleitet. Dies genau und relativ schnelle technik ermöglicht es Ihnen, vor Produktionsbeginn alle notwendigen Kenntnisse, Ausrüstungen und Halbfertigprodukte für das zukünftige Produkt zu sammeln. Computer-3D-Modellierung ist heute selbst für kleine Unternehmen keine Seltenheit.

Die Imitation als Methode zur Lösung nicht-trivialer Probleme erhielt ihre erste Entwicklung im Zusammenhang mit der Entwicklung von Computern in den 1950er - 1960er Jahren.

Es gibt zwei Arten der Nachahmung:

· Monte-Carlo-Methode (statistische Prüfmethode);

· Methode der Simulationsmodellierung (statistische Modellierung).

Arten der Simulationsmodellierung:

· Agentenbasierte Modellierung- eine relativ neue (1990er-2000er) Richtung in der Nachahmungsmodellierung, die verwendet wird, um dezentrale Systeme zu untersuchen, deren Dynamik nicht durch globale Regeln und Gesetze bestimmt wird (wie in anderen Modellierungsparadigmen), sondern im Gegenteil, wenn diese globalen Regeln und Gesetze sind das Ergebnis der individuellen Aktivität der Mitglieder der Gruppe. Das Ziel agentenbasierter Modelle ist es, diese globalen Regeln zu verstehen, allgemeines Verhalten System, basierend auf Annahmen über das individuelle, private Verhalten seiner einzelnen aktiven Objekte und die Interaktion dieser Objekte im System. Ein Agent ist eine bestimmte Entität mit Aktivität, autonomem Verhalten, kann Entscheidungen nach einem bestimmten Regelwerk treffen, mit der Umgebung interagieren und sich auch selbstständig verändern.

· Diskrete Ereignismodellierung - ein Modellierungsansatz, der es bietet, von der kontinuierlichen Natur von Ereignissen zu abstrahieren und nur die Hauptereignisse des modellierten Systems zu berücksichtigen, wie z. "Entladen" und andere. Die ereignisdiskrete Modellierung ist am weitesten entwickelt und hat einen riesigen Anwendungsbereich - von Logistik- und Warteschlangensystemen bis hin zu Transport- und Produktionssystemen. Diese Art der Simulation eignet sich am besten zur Modellierung von Produktionsprozessen. Gegründet von Jeffrey Gordon in den 1960er Jahren.

· Systemdynamik ist ein Modellierungsparadigma, bei dem grafische Diagramme von kausalen Beziehungen und globalen Einflüssen einiger Parameter auf andere in der Zeit für das untersuchte System erstellt werden und dann das auf der Grundlage dieser Diagramme erstellte Modell auf einem Computer simuliert wird. Tatsächlich hilft diese Art der Modellierung mehr als alle anderen Paradigmen, das Wesen der fortlaufenden Identifizierung von Ursache-Wirkungs-Beziehungen zwischen Objekten und Phänomenen zu verstehen. Mit Hilfe der Systemdynamik werden Modelle von Geschäftsprozessen, Stadtentwicklung, Produktionsmodellen, Bevölkerungsdynamik, Ökologie und der Entwicklung der Epidemie aufgebaut. Die Methode wurde in den 1950er Jahren von Jay Forrester gegründet.

In der Simulation kann das Ergebnis nicht im Voraus berechnet oder vorhergesagt werden. Um das Verhalten eines komplexen Systems (elektrische Leistung, SES einer großen Produktionsanlage usw.) vorherzusagen, ist daher ein Experiment erforderlich, eine Simulation an einem Modell mit gegebenen Ausgangsdaten.

Simulationsmodellierung komplexer Systeme wird verwendet, um die folgenden Probleme zu lösen.

    Wenn keine vollständige Formulierung des Forschungsproblems vorliegt und ein Erkenntnisprozess des Modellierungsgegenstandes stattfindet.

    Wenn analytische Methoden verfügbar sind, aber die mathematischen Verfahren so komplex und zeitaufwändig sind, dass die Simulation eine einfachere Möglichkeit bietet, das Problem zu lösen.

    Wenn es neben der Bewertung der Parameter komplexer Systeme wünschenswert ist, das Verhalten ihrer Komponenten über einen bestimmten Zeitraum zu beobachten.

    Wenn die Simulationsmodellierung die einzige Möglichkeit ist, ein komplexes System zu untersuchen, da Phänomene nicht unter realen Bedingungen beobachtet werden können.

    Wenn es erforderlich ist, den Ablauf von Prozessen in einem komplexen System zu kontrollieren, indem die Phänomene während der Simulation beschleunigt oder verlangsamt werden.

    Bei der Ausbildung von Fachkräften und der Beherrschung neuer Technologien.

    Wenn neue Situationen in komplexen Systemen untersucht werden, über die wenig oder nichts bekannt ist.

    Dann ist der Ablauf der Ereignisse im entworfenen komplexen System von besonderer Bedeutung und das Modell wird verwendet, um die Engpässe in der Funktionsweise des Systems vorherzusagen.

Die Erstellung eines Simulationsmodells eines komplexen Systems beginnt mit einer Problemstellung. Doch oft formuliert der Kunde die Aufgabenstellung nicht klar genug. Daher beginnt die Arbeit meist mit einer Suchmaschinenstudie. Dadurch entstehen neue Informationen über Randbedingungen, Ziele und mögliche Alternativen. Daraus ergeben sich folgende Stadien:

Erstellung einer aussagekräftigen Beschreibung des Systems;

Auswahl von Qualitätsindikatoren;

Definition von Kontrollvariablen;

Detaillierte Beschreibung der Betriebsarten.

Die Simulation basiert auf der statistischen Modellierungsmethode (Monte-Carlo-Methode). Es ist eine numerische Methode zur Lösung mathematischer Probleme durch Simulation von Zufallsvariablen. Als Geburtsdatum dieser Methode gilt 1949. Ihre Begründer sind die amerikanischen Mathematiker L. Neumann und S. Ulam. Die ersten Artikel zur Monte-Carlo-Methode wurden 1955 in unserem Land veröffentlicht. Vor dem Aufkommen des Computers konnte diese Methode jedoch keine breite Anwendung finden, da es sehr mühsam ist, Zufallsvariablen manuell zu simulieren. Der Name der Methode stammt von der Stadt Monte Carlo im Fürstentum Monaco, die für ihre Spielhallen bekannt ist. Tatsache ist, dass eines der einfachsten mechanischen Geräte zum Erhalten von Zufallswerten ein Maßband ist.

Schauen wir uns ein klassisches Beispiel an. Sie müssen die Fläche einer beliebigen flachen Figur berechnen. Seine Umrandung kann krummlinig, grafisch oder analytisch vorgegeben sein und aus mehreren Teilen bestehen. Sei es die Figur von Abb. 3.20. Nehmen wir an, die gesamte Form befindet sich innerhalb eines Einheitsquadrats. Quadratisch auswählen
zufällige Punkte. Bezeichnen wir mit
die Anzahl der Punkte, die in die Form fallen ... Es ist geometrisch offensichtlich, dass die Fläche ist ungefähr gleich dem Verhältnis
... Je mehr
, desto höher ist die Genauigkeit der Schätzung.

R Abbildung 3.20. Beispielabbildung

In unserem Beispiel
,
(Innerhalb ). Von hier
... Die wahre Fläche lässt sich leicht berechnen und beträgt 0,25.

Die Monte-Carlo-Methode hat zwei Merkmale.

Erste Funktion- Einfachheit des Rechenalgorithmus. Im Berechnungsprogramm muss vorgesehen sein, dass für die Durchführung eines Zufallsereignisses ein Zufallspunkt ausgewählt und geprüft werden muss, ob er zu ... Dann wird dieser Test wiederholt
und jedes Experiment hängt nicht von den anderen ab, und die Ergebnisse aller Experimente werden gemittelt. Daher wird die Methode genannt - die Methode der statistischen Tests.

Zweite Funktion Methode: Der Rechenfehler ist normalerweise proportional zu

,

wo
- einige Konstante;
- Anzahl der Tests.

Diese Formel zeigt, dass Sie, um den Fehler um den Faktor 10 zu reduzieren (mit anderen Worten, um einen korrekten Dezimalpunkt in der Antwort zu erhalten), erhöhen müssen
(Testvolumen) 100 mal.

Kommentar. Die Berechnungsmethode ist nur gültig, wenn die Zufallspunkte nicht nur zufällig, sondern auch gleichmäßig verteilt sind.

Der Einsatz der Simulationsmodellierung (einschließlich der Monte-Carlo-Methode und ihrer Modifikationen) zur Berechnung der Zuverlässigkeit komplexer technischer Systeme basiert auf der Tatsache, dass der Prozess ihrer Funktionsweise durch ein mathematisches Wahrscheinlichkeitsmodell abgebildet wird, das alle Ereignisse (Ausfälle) in Echtzeit widerspiegelt , Restaurationen), die im System vorkommen ...

Mit Hilfe eines solchen Modells auf einem Computer wird der Prozess der Funktionsweise des Systems wiederholt modelliert und aus den erhaltenen Ergebnissen die erforderlichen statistischen Eigenschaften dieses Prozesses, die Indikatoren für die Zuverlässigkeit sind, bestimmt. Durch den Einsatz von Simulationsmethoden können abhängige Ausfälle, willkürliche Verteilungsgesetze von Zufallsvariablen und andere Faktoren, die die Zuverlässigkeit beeinflussen, berücksichtigt werden.

Diese Verfahren liefern jedoch wie alle anderen numerischen Verfahren nur eine bestimmte Lösung des gestellten Problems, die bestimmten (besonderen) Anfangsdaten entspricht und es nicht ermöglicht, Zuverlässigkeitsindikatoren als Funktion der Zeit zu erhalten. Um eine umfassende Analyse der Zuverlässigkeit durchführen zu können, ist es daher erforderlich, den Funktionsablauf des Systems immer wieder mit unterschiedlichen Ausgangsdaten zu simulieren.

In unserem Fall ist dies vor allem ein anderer Aufbau des elektrischen Systems, unterschiedliche Werte der Ausfallwahrscheinlichkeiten und die Dauer des störungsfreien Betriebs, die sich während des Betriebs des Systems ändern können, und andere Leistung Indikatoren.

Der Funktionsprozess eines elektrischen Systems (oder einer elektrischen Anlage) wird als ein Strom von zufälligen Ereignissen dargestellt - Zustandsänderungen, die zu zufälligen Zeiten auftreten. Eine Zustandsänderung einer EPS wird durch Ausfälle und Wiederherstellungen ihrer Bestandteile verursacht.

Betrachten Sie eine schematische Darstellung des Funktionsweise einer EPS, bestehend aus Elemente (Abb. 3.21), wobei folgende Bezeichnungen akzeptiert werden:

-Moment Ablehnung das Element;

-Moment -te Erholung das Element;

- Betriebszeitintervall Artikel nach
Erholung;

–Dauer der Erholung Artikel nach Verweigerung;

ich-ter Zustand der EPS im Moment .

Die Mengen ,sind durch die Verhältnisse miteinander verbunden:

(3.20)

Ausfälle und Wiederherstellungen treten zu zufälligen Zeiten auf. Daher sind die Intervalle und können als Realisierungen stetiger Zufallsvariablen angesehen werden: - Betriebszeit zwischen Ausfällen, - Wiederherstellungszeit te Element.

Veranstaltungsreihe
beschrieben durch die Momente ihres Auftretens
.

Die Modellierung des Funktionsprozesses besteht darin, dass die Momente der Zustandsänderung des EPS gemäß den gegebenen Gesetzen der Verteilung der Betriebszeit zwischen Ausfällen und der Erholungszeit der Bestandteile im Zeitintervall modelliert werden T(zwischen PPR).

Es gibt zwei mögliche Ansätze, um die Funktionsweise von EPS zu modellieren.

Im ersten Ansatz müssen Sie zuerst für jeden -go Systemelement
bestimmen Sie nach den gegebenen Gesetzen der Verteilung der Betriebszeit zwischen Ausfällen und Wiederherstellungszeiten Zeitintervalle
und
und berechnen Sie mithilfe von Formeln (3.20) die Momente seiner Versagen und Wiederherstellungen, die über den gesamten Untersuchungszeitraum auftreten können die Funktionsweise der EPS. Danach können Sie die Momente des Versagens und der Wiederherstellung von Elementen arrangieren, die die Momente der Zustandsänderungen der EPS sind , in aufsteigender Reihenfolge, wie in Abbildung 3.21 gezeigt.

R Abbildung 3.21. EES-Staaten

Es folgt eine Analyse der durch Modellierung erhaltenen Zustände A ich Systeme für ihre Zugehörigkeit zum Bereich der funktionsfähigen oder inoperablen Zustände. Bei diesem Ansatz ist es im Computerspeicher erforderlich, alle Momente des Versagens und der Wiederherstellung aller Elemente des EPS aufzuzeichnen.

Bequemer ist zweiter Ansatz, in dem für alle Elemente zunächst nur die Momente ihres ersten Versagens modelliert werden. Nach dem Minimum von ihnen wird der erste Übergang der EPS in einen anderen Zustand gebildet (von EIN 0 in A ich) und gleichzeitig wird die Zugehörigkeit des erhaltenen Zustands zum Bereich der betriebsfähigen bzw. inoperablen Zustände überprüft.

Dann wird der Moment der Wiederherstellung und der nächste Ausfall des Elements, das die Änderung des vorherigen Zustands des EPS verursacht hat, modelliert und behoben. Auch hier wird die kleinste der Zeiten des ersten Ausfalls und dieses zweiten Ausfalls der Elemente ermittelt, der zweite Zustand der EPS gebildet und analysiert - usw.

Dieser Modellierungsansatz entspricht eher dem Funktionsprozess eines echten EPS, da er es ermöglicht, abhängige Ereignisse zu berücksichtigen. Im ersten Ansatz wird zwangsläufig die Unabhängigkeit der Funktionsweise der EPS-Elemente vorausgesetzt. Die Zählzeit von Zuverlässigkeitsindikatoren durch das Simulationsverfahren hängt von der Gesamtzahl der Experimente ab
, die Anzahl der berücksichtigten Zustände der EPS, die Anzahl der darin enthaltenen Elemente. Wenn sich also der gebildete Zustand als EPS-Fehler herausstellt, dann ist der Zeitpunkt des EPS-Fehlers festgelegt und Zeitintervall der EPS-Betriebszeit ab dem Moment der Wiederherstellung nach dem vorherigen Fehler. Die Analyse der gebildeten Zustände erfolgt über das betrachtete Zeitintervall. T.

Das Programm zur Berechnung von Zuverlässigkeitsindikatoren besteht aus einem Hauptteil und separaten logisch unabhängigen Blöcken-Unterprogrammen. Im Hauptteil werden entsprechend dem allgemeinen logischen Ablauf der Berechnung spezielle Unterprogramme aufgerufen, Zuverlässigkeitskennzahlen nach bekannten Formeln berechnet und die Berechnungsergebnisse zum Ausdruck ausgegeben.

Betrachten wir ein vereinfachtes Blockschaltbild, das den Arbeitsablauf zur Berechnung der Zuverlässigkeitskennzahlen von EPS nach der Methode der Simulationsmodellierung zeigt (Abb. 3.22).

Spezielle Unterprogramme führen aus: Eingabe von Anfangsinformationen; Modellierung der Momente des Ausfalls und der Wiederherstellung von Elementen gemäß den Gesetzen der Verteilung ihrer Betriebszeit und Wiederherstellungszeit; Bestimmung der Mindestwerte der Versagens- und Erholungsmomente von Elementen und Identifizierung der für diese Werte verantwortlichen Elemente; Modellieren des Prozesses der EPS-Funktionalität auf dem Intervall und Analyse der gebildeten Zustände.

Mit dieser Konstruktion des Programms ist es möglich, ohne die allgemeine Logik des Programms zu beeinträchtigen, die notwendigen Änderungen und Ergänzungen vorzunehmen, die beispielsweise mit einer Änderung der möglichen Verteilungsgesetze der Betriebszeit und der Erholungszeit von Elemente.

R Abbildung 3.22... Blockschaltbild des Algorithmus zur Berechnung von Zuverlässigkeitskennzahlen nach der Simulationsmethode