Simulationsmodellierung gilt. Simulation

Aufbau mathematischer Modelle die untersuchten Prozesse zu beschreiben;
  • mit den neuesten Computern mit hoher Geschwindigkeit (Millionen von Operationen pro Sekunde) und in der Lage, einen Dialog mit einer Person zu führen.
  • Wesen Computersimulation besteht in folgendem: Auf der Grundlage eines mathematischen Modells wird mit Hilfe eines Computers eine Reihe von Rechenexperimenten durchgeführt, d.h. Die Eigenschaften von Objekten oder Prozessen werden untersucht, ihre optimalen Parameter und Betriebsweisen werden gefunden, das Modell wird verfeinert. Wenn Sie beispielsweise eine Gleichung haben, die den Verlauf eines bestimmten Prozesses beschreibt, können Sie seine Koeffizienten, Anfangs- und Randbedingungen ändern und untersuchen, wie sich das Objekt in diesem Fall verhalten wird. Simulationsmodelle- Diese sind computergestützt Computerexperimente mit mathematischen Modellen, die das Verhalten realer Objekte, Prozesse oder Systeme nachahmen.

    Reale Prozesse und Systeme können mit zwei Arten von mathematischen Modellen untersucht werden: Analyse und Simulation.

    In analytischen Modellen wird das Verhalten realer Prozesse und Systeme (RPS) explizit angegeben funktionale Abhängigkeiten(lineare oder nichtlineare, Differential- oder Integralgleichungen, Systeme dieser Gleichungen). Diese Abhängigkeiten können jedoch nur für relativ einfache RPSs erhalten werden. Wenn die Phänomene komplex und vielfältig sind, muss sich der Forscher für vereinfachte Darstellungen komplexer RPS entscheiden. Dadurch wird das analytische Modell zu einer zu groben Annäherung an die Realität. Gelingt es dennoch, analytische Modelle für komplexe RPS zu erhalten, werden diese oft zu einem schwer lösbaren Problem. Daher ist der Forscher gezwungen, zu verwenden Simulationsmodellierung.

    Simulation ist ein numerisches Verfahren zur Durchführung von Computerexperimenten mit mathematischen Modellen, die das zeitliche Verhalten von realen Objekten, Prozessen und Systemen für einen bestimmten Zeitraum simulieren. Gleichzeitig wird die Funktionsweise des RPS in elementare Phänomene, Subsysteme und Module unterteilt. Die Funktionsweise dieser Elementarphänomene, Subsysteme und Module wird durch eine Reihe von Algorithmen beschrieben, die Elementarphänomene imitieren, während sie ihre Eigenschaften beibehalten logische Struktur und Sequenzierung im Laufe der Zeit.

    Simulation- Dies ist eine Reihe von Methoden zur Algorithmisierung der Funktionsweise von Forschungsobjekten, Softwareimplementierung von algorithmischen Beschreibungen, Organisation, Planung und Ausführung von Computerexperimenten mit mathematischen Modellen, die die Funktionsweise von RPS während eines bestimmten Zeitraums simulieren.

    Die Algorithmisierung der Funktionsweise des RPS wird als schrittweise Beschreibung der Arbeit aller seiner funktionalen Subsysteme einzelner Module mit einem Detaillierungsgrad verstanden, der den Anforderungen an das Modell entspricht.

    "Simulation"(IM) ist ein Doppelbegriff. „Imitation“ und „Simulation“ sind Synonyme. Nahezu alle Bereiche der Wissenschaft und Technik sind Modelle realer Prozesse. Um mathematische Modelle voneinander zu unterscheiden, begannen die Forscher, ihnen zusätzliche Namen zu geben. Begriff "Simulationsmodellierung" bedeutet, dass wir es mit solchen mathematischen Modellen zu tun haben, mit denen es unmöglich ist, das Verhalten des Systems im Voraus zu berechnen oder vorherzusagen, und um das Verhalten des Systems vorherzusagen, ist es notwendig Rechenexperiment(Simulation) an einem mathematischen Modell mit gegebenen Ausgangsdaten.

    Der Hauptvorteil von IM:

    1. die Fähigkeit, das Verhalten der Komponenten (Elemente) von Prozessen oder Systemen auf einem hohen Detaillierungsgrad zu beschreiben;
    2. keine Einschränkungen zwischen MI-Parametern und Zustand Außenumgebung RPS;
    3. die Möglichkeit, die Dynamik der Wechselwirkung von Komponenten in Zeit und Raum der Systemparameter zu untersuchen;

    Diese Vorteile machen das Simulationsverfahren weit verbreitet.

    1. Wenn keine vollständige Formulierung des Forschungsproblems vorliegt und der Erkenntnisprozess des Modellierungsgegenstands im Gange ist. Simulationsmodell dient als Mittel zur Untersuchung des Phänomens.
    2. Wenn analytische Methoden vorhanden sind, aber mathematische Verfahren komplex und zeitaufwändig sind, und Simulationsmodellierung gibt einen einfacheren Weg, um das Problem zu lösen.
    3. Wenn es neben der Beurteilung des Einflusses der Parameter (Variablen) eines Prozesses oder Systems wünschenswert ist, das Verhalten der Komponenten (Elemente) des Prozesses oder Systems (PS) über einen bestimmten Zeitraum zu überwachen.
    4. Wann Simulationsmodellierung stellt sich heraus der einzige Weg Forschung Komplexes System aufgrund der Unmöglichkeit, Phänomene unter realen Bedingungen zu beobachten (Kernfusionsreaktionen, Weltraumforschung).
    5. Wenn es notwendig ist, den Ablauf von Prozessen oder das Verhalten von Systemen zu steuern, indem Phänomene während der Simulation verlangsamt oder beschleunigt werden.
    6. Bei der Vorbereitung von Spezialisten für neue Technologie wenn sie auf Simulationsmodelle es besteht die Möglichkeit, sich Kenntnisse im Umgang mit neuen Geräten anzueignen.
    7. Wenn neue Situationen in RPS untersucht werden. Die Simulation dient hier dazu, neue Strategien und Regeln zur Durchführung von Feldexperimenten zu testen.
    8. Wenn die Abfolge von Ereignissen im entworfenen PS von besonderer Bedeutung ist und das Modell verwendet wird, um Engpässe in der Funktionsweise des RPS vorherzusagen.

    Allerdings hat IM neben Vorteilen auch Nachteile:

    1. Die Entwicklung eines guten IM ist oft teurer als die Erstellung eines analytischen Modells und erfordert viel Zeit.
    2. Es kann sich herausstellen, dass die IM ungenau ist (was häufig der Fall ist), und wir können den Grad dieser Ungenauigkeit nicht messen.
    3. Häufig wenden sich Forscher an IM, ohne sich der Schwierigkeiten bewusst zu sein, auf die sie stoßen werden, und machen dabei eine Reihe methodischer Fehler.

    Dennoch ist IM eine der am weitesten verbreiteten Methoden zur Lösung von Synthese- und Analyseproblemen. komplexe Prozesse und Systeme.

    Einer der Typen Simulationsmodellierung ist eine Statistik Simulationsmodellierung, die es ermöglicht, die Funktionsweise komplexer Zufallsprozesse auf einem Computer nachzubilden.

    Bei der Untersuchung komplexer Systeme, die zufälligen Störungen unterliegen, probabilistische analytische Modelle und probabilistische Simulationsmodelle.

    In probabilistischen Analysemodellen wird der Einfluss von Zufallsfaktoren berücksichtigt, indem die probabilistischen Eigenschaften von Zufallsprozessen (Wahrscheinlichkeitsverteilungsgesetze, Spektraldichten oder Korrelationsfunktionen) festgelegt werden. Gleichzeitig ist die Konstruktion probabilistischer analytischer Modelle eine komplexe Aufgabe. Rechenaufgabe. Daher wird die probabilistische analytische Modellierung verwendet, um relativ einfache Systeme zu untersuchen.

    Es wird darauf hingewiesen, dass die Einführung von zufälligen Störungen in Simulationsmodelle führt nicht zu grundlegenden Komplikationen, daher wird die Untersuchung komplexer Zufallsprozesse derzeit in der Regel weiter durchgeführt Simulationsmodelle.

    In der Wahrscheinlichkeitsrechnung Simulationsmodellierung Sie arbeiten nicht mit den Eigenschaften zufälliger Prozesse, sondern mit bestimmten zufälligen Zahlenwerten der PS-Parameter. Gleichzeitig werden die erzielten Ergebnisse beim Spielen weiter Simulationsmodell des betrachteten Prozesses sind zufällige Realisierungen. Um objektive und stabile Eigenschaften des Prozesses zu finden, ist es daher erforderlich, ihn mehrfach zu reproduzieren, gefolgt von einer statistischen Verarbeitung der erhaltenen Daten. Aus diesem Grund wird die Untersuchung komplexer Prozesse und Systeme, die zufälligen Störungen unterliegen, verwendet

    Einführung. 4

    1 Simulation. 5

    2 Richtlinien für die praktische Arbeit. 31

    3 Aufgaben für die praktische Arbeit. 38

    Liste der verwendeten Literatur.. 40

    Anhang A.. 41


    Einführung

    Simulationsmodellierung ist eine der effektivsten Methoden
    Analyse für Forschung und Entwicklung komplexer Prozesse und Systeme. Diese Simulation ermöglicht es dem Benutzer, mit Systemen in Fällen zu experimentieren, in denen dies an einem realen Objekt unmöglich oder unpraktisch ist. Die Simulationsmodellierung basiert auf Mathematik, Wahrscheinlichkeitstheorie und Statistik. Gleichzeitig bleiben Simulation und Experiment in vielen Fällen intuitive Prozesse. Dies ist darauf zurückzuführen, dass solche Prozesse wie die Auswahl bestehender Faktoren für den Aufbau eines Modells, die Einführung vereinfachender Annahmen und die Übernahme richtige Entscheidungen basierend auf Modellen von begrenzter Genauigkeit, verlassen sich weitgehend auf die Intuition des Forschers und die praktische Erfahrung eines Managers.

    Der Methodenleitfaden enthält Informationen über moderne Ansätze Zu
    Bewertung der Wirksamkeit eines technologischen oder anderen Prozesses. Darin
    Einige Methoden zur Dokumentation von Informationen, Identifizierung in der Phase der Suche und Entdeckung von Tatsachen werden in Betracht gezogen, um sicherzustellen, dass sie so effektiv wie möglich genutzt werden. Zu diesem Zweck kann eine Gruppe von Methoden verwendet werden, die als schematische Modelle bezeichnet werden können. Dieser Name bezieht sich auf Analysemethoden, einschließlich einer grafischen Darstellung des Systems. Sie sollen dem Manager (Ingenieur) helfen, den untersuchten Prozess oder das untersuchte System besser zu verstehen und zu dokumentieren. Obwohl es derzeit viele Methoden zur schematischen Darstellung technologischer Prozesse gibt, beschränken wir uns auf die Betrachtung technologische Karten, Prozessdiagramme und multifunktionale Betriebsdiagramme .

    Simulation

    Management in der modernen Welt wird immer schwieriger, weil organisatorische Struktur unsere gesellschaft wird immer komplexer. Diese Komplexität liegt an der Art der Beziehung zwischen verschiedene Elemente unsere Organisationen und die physischen Systeme, mit denen sie interagieren. Obwohl diese Komplexität schon lange existiert, beginnen wir erst jetzt, ihre Bedeutung zu verstehen. Wir erkennen jetzt, dass eine Änderung in einem der Merkmale eines Systems leicht zu Änderungen führen oder einen Änderungsbedarf in anderen Teilen des Systems schaffen kann; In diesem Zusammenhang wurde die Methodik der Systemanalyse entwickelt, die Managern und Ingenieuren helfen sollte, die Folgen solcher Veränderungen zu untersuchen und zu verstehen. Insbesondere mit dem Aufkommen elektronischer Computer wurde die Simulationsmodellierung zu einem der wichtigsten und nützlichsten Werkzeuge zur Analyse der Struktur komplexer Prozesse und Systeme. Nachahmen bedeutet „sich vorstellen, die Essenz eines Phänomens erreichen, ohne auf Experimente an einem realen Objekt zurückzugreifen“.

    Simulation ist der Prozess der Konstruktion eines Modells
    reales System und Aufbau von Experimenten an diesem Modell, um entweder
    das Verhalten des Systems verstehen oder (innerhalb der durch ein bestimmtes Kriterium oder eine Reihe von Kriterien gesetzten Grenzen) verschiedene Strategien bewerten, die das Funktionieren dieses Systems sicherstellen. Somit wird der Prozess der Simulationsmodellierung als ein Prozess verstanden, der sowohl die Konstruktion eines Modells als auch die analytische Anwendung des Modells zur Untersuchung eines bestimmten Problems umfasst. Unter dem Modell eines realen Systems verstehen wir die Darstellung einer Gruppe von Objekten oder Ideen in irgendeiner Form, die sich von ihrer realen Verkörperung unterscheidet; daher wird der Begriff "real" im Sinne von "existierend oder fähig, eine der Existenzformen anzunehmen" verwendet. Daher können Systeme, die noch auf dem Papier oder in der Planungsphase sind, genauso modelliert werden wie bestehende Systeme.

    Definitionsgemäß kann der Begriff „Simulation“ auch stochastische Modelle und Monte-Carlo-Experimente umfassen. Mit anderen Worten, Modelleingaben und (oder) funktionale Beziehungen zwischen seinen verschiedenen Komponenten können ein Zufallselement enthalten oder nicht, das den Wahrscheinlichkeitsgesetzen unterliegt. Simulationsmodellierung ist daher eine experimentelle und angewandte Methodik, die auf Folgendes abzielt:

    − das Verhalten von Systemen beschreiben;

    − Theorien und Hypothesen aufstellen, die das beobachtete Verhalten erklären können;

    − Verwenden Sie diese Theorien, um das zukünftige Verhalten des Systems vorherzusagen, d. h. diejenigen Auswirkungen, die durch Änderungen am System oder Änderungen seiner Funktionsweise verursacht werden können.

    Im Gegensatz zu den meisten technischen Methoden, die sein können
    klassifiziert nach den wissenschaftlichen Disziplinen, in denen sie
    verwurzelt sind (zB mit Physik oder Chemie), Simulation
    Modellierung ist in jedem Wissenschaftszweig anwendbar. Es wird in den Bereichen Wirtschaft, Marketing, Bildung, Politik, Sozialwissenschaften, Verhaltenswissenschaften, internationale Beziehungen, im Verkehr, in Personalpolitik, im Bereich der Strafverfolgung, bei der Untersuchung von Problemen von Städten und globalen Systemen sowie in vielen anderen Bereichen.

    Betrachten Sie ein einfaches Beispiel, mit dem Sie die Essenz der Simulationsidee verstehen können. Zum Beispiel eine Schlange von Kunden an der Theke eines kleinen Ladens (das sogenannte Ein-Linien-Warteschlangensystem). Nehmen wir an, dass die Zeitintervalle zwischen aufeinanderfolgenden Auftritten von Käufern gleichmäßig im Bereich von 1 bis 10 Minuten verteilt sind (der Einfachheit halber runden wir die Zeit auf die nächste ganze Zahl von Minuten). Nehmen Sie weiter an, dass die Zeit, die erforderlich ist, um jeden Kunden zu bedienen, gleichmäßig über das Intervall von 1 bis 6 Minuten verteilt ist. Wir interessieren uns für die durchschnittliche Zeit, die ein Kunde in einem bestimmten System verbringt (einschließlich Warten und Bedienen), und für den Prozentsatz der Zeit, die ein Kunde nicht mit der Arbeit beschäftigt ist, während er die Kontrolle hat.

    Um das System zu modellieren, müssen wir ein künstliches Experiment aufbauen, das die Rahmenbedingungen der Situation widerspiegelt. Dazu müssen wir einen Weg finden, eine künstliche Reihenfolge der Ankunft von Kunden und die Zeit zu simulieren, die erforderlich ist, um jeden von ihnen zu bedienen. Eine Möglichkeit, dies zu tun, besteht darin, zehn Chips und einen Würfel von einem Pokerfreund zu leihen. Anschließend könnten wir die Chips mit den Nummern 1 bis 10 nummerieren, in einen Hut stecken und durch Schütteln die Chips mischen. Indem wir einen Chip aus dem Hut ziehen und die gewürfelte Zahl ablesen, könnten wir auf diese Weise die zeitlichen Abstände zwischen dem Erscheinen des Vor- und Nachkäufers darstellen. Wenn wir unseren Würfel werfen und die Anzahl der Punkte von seiner Oberseite ablesen, könnten wir die Servicezeit jedes Kunden mit solchen Zahlen darstellen. Indem wir diese Vorgänge in dieser Reihenfolge wiederholen (jedes Mal die Chips zurücklegen und den Hut vor jeder Ziehung schütteln), könnten wir eine Zeitreihe erhalten, die die Zeitintervalle zwischen aufeinanderfolgenden Kundenankünften und ihren entsprechenden Servicezeiten darstellt. Unsere Aufgabe wird sich dann auf eine einfache Registrierung der Ergebnisse des Experiments reduzieren. Tabelle 1 zeigt, welche Ergebnisse beispielsweise bei der Analyse der Ankunft von 20 Kunden erzielt werden können.

    Tabelle 1.1 - Ergebnisse des Experiments bei der Analyse der Ankunft von 20 Käufern

    Kunde Zeit nach Ankunft des Vorkäufers, min Servicezeit, min Aktuelle Modellzeit zum Zeitpunkt des Eintreffens der Käufer Dienstbeginn Serviceende Verweildauer des Kunden am Schalter, min Ausfallzeit des Verkäufers beim Warten auf den Käufer, min
    1. - 0,00 0,00 0,01
    2. 0,03 0,03 0,07
    3. 0,10 0,10 0,14
    4. 0,13 0,14 0,16
    5. 0,22 0,22 0,23
    6. 0,32 0,32 0,37
    7. 0,38 0.38 0,42
    8. 0,46 0,46 0,52
    9. 0,54 0,54 0,55
    10. 1,02 1,02 1,05
    11. 1,09 1,09 1,14
    12. 1.12 1,14 1,19
    13. 1,20 1,20 1,23
    14. 1,24 1,24 1,30
    15. 1,28 1,30 1,31
    16. 1,35 1,35 1,36
    17. 1.36 1,36 1,42
    18. 1.42 1,42 1,43
    19. 1,49 1,49 1,51
    20. 1,55 1,55 1,57
    Gesamt:

    Offensichtlich zu bekommen statistische Signifikanz Ergebnisse wir
    Wir mussten eine viel größere Stichprobe nehmen, außerdem haben wir einige wichtige Umstände nicht berücksichtigt, wie zum Beispiel die Anfangsbedingungen. Ein wichtiger Punkt ist, dass wir zwei Geräte verwendet haben, um Zufallszahlen zu generieren (nummerierte Pokerchips und ein Würfel); Es wurde in Eile ein künstliches (Nachahmungs-)Experiment mit einem System durchgeführt, das es ermöglicht, bestimmte Merkmale seines Verhaltens aufzudecken. Kommen wir nun zum nächsten Konzept – dem Modell. Ein Modell ist eine Darstellung eines Objekts, Systems oder Konzepts (Idee) in irgendeiner Form, die sich von der Form ihrer realen Existenz unterscheidet. Ein Modell ist normalerweise ein Werkzeug, das uns hilft, ein System zu erklären, zu verstehen oder zu verbessern. Das Modell eines Objekts kann entweder eine exakte Kopie dieses Objekts sein (allerdings aus einem anderen Material und in einem anderen Maßstab) oder einige der charakteristischen Eigenschaften des Objekts in abstrakter Form darstellen. Da die Simulation nur eine Art der Modellierung ist, betrachten wir zunächst die Modellierung in ihrer allgemeinen Form.

    Es wird normalerweise angenommen, dass das Modell verwendet wird, um vorherzusagen und
    Vergleichstool, mit dem Sie logisch vorhersagen können
    Folgen von Handlungsalternativen und geben Sie mit ausreichender Sicherheit an, welcher von ihnen der Vorzug zu geben ist. Die Modellierung deckt ein breites Spektrum menschlicher Kommunikationsvorgänge in evolutionärer Hinsicht ab - von Felsmalereien und dem Bau von Idolen bis hin zur Zusammenstellung komplexer mathematischer Gleichungssysteme, die den Flug einer Rakete im Weltraum beschreiben. Im Wesentlichen haben der Fortschritt und die Geschichte von Wissenschaft und Technologie ihren genauesten Ausdruck in der Entwicklung der Fähigkeit des Menschen gefunden, Modelle natürlicher Phänomene, Konzepte und Objekte zu schaffen.

    Fast alle Forscher argumentieren, dass eines der wichtigsten Elemente, die für die effektive Lösung komplexer Probleme erforderlich sind, die Konstruktion und angemessene Verwendung des Modells ist. Ein solches Modell kann verschiedene Formen annehmen, aber eine der nützlichsten und sicherlich am weitesten verbreiteten Formen ist die mathematische, die durch ein Gleichungssystem die wesentlichen Merkmale der untersuchten realen Systeme oder Phänomene ausdrückt. Leider ist es nicht immer möglich, ein mathematisches Modell im engeren Sinne des Wortes zu erstellen. Bei der Untersuchung der meisten industriellen Systeme können wir Ziele definieren, Einschränkungen festlegen und sicherstellen, dass unser Design technischen und/oder wirtschaftlichen Gesetzen entspricht. Gleichzeitig können wesentliche Zusammenhänge im System aufgedeckt und in der einen oder anderen mathematischen Form dargestellt werden. Im Gegensatz dazu das Lösen von Immissionsschutzproblemen Luft Umgebung, Kriminalprävention, Gesundheitsversorgung und Städtewachstum sind mit unklaren und widersprüchlichen Zielen verbunden, ebenso wie mit der Wahl von Alternativen, die von Politik und Politik diktiert werden soziale Faktoren. Daher sollte die Definition eines Modells sowohl quantitative als auch Qualitätsmerkmale Modelle.

    Es gibt fünf gebräuchlichste Funktionen zum Anwenden von Modellen, wie zum Beispiel:

    - Mittel zum Verständnis der Realität,

    Kommunikationsmittel,

    − Mittel der allgemeinen und beruflichen Bildung,

    − Prognosetool,

    − Mittel zum Aufbau von Experimenten.

    Die Nützlichkeit des Modells als Mittel zum Verständnis realer Zusammenhänge und
    Muster ist offensichtlich. Modelle können uns helfen, unsere zu organisieren
    unscharfe oder widersprüchliche Konzepte und Inkonsistenzen. Beispielsweise ermutigt uns die Darstellung komplexer Systementwurfsarbeit als Netzwerkmodell, darüber nachzudenken, welche Schritte in welcher Reihenfolge zu unternehmen sind. Ein solches Modell hilft uns, Abhängigkeiten, notwendige Aktivitäten, zeitliche Zusammenhänge, benötigte Ressourcen etc. zu identifizieren. Schon der Versuch, unsere verbalen Formulierungen und Gedanken in anderer Form darzustellen, offenbart oft Widersprüche und Mehrdeutigkeiten. Ein gut gebautes Modell zwingt uns, unsere Ideen zu organisieren, zu bewerten und ihre Gültigkeit zu testen.

    Als Kommunikationsmittel ist ein gut gestaltetes Modell unübertroffen. Diese Funktion von Modellen wird durch das Sprichwort perfekt bestätigt: „Es ist besser, einmal zu sehen, als hundertmal zu hören.“ Alle wortbasierten Sprachen sind bis zu einem gewissen Grad ungenau, wenn es um komplexe Konzepte und Beschreibungen geht. Gut aufgebaute Modelle können uns helfen, diese Ungenauigkeiten zu beseitigen, indem sie uns effizientere und erfolgreichere Kommunikationswege bieten. Der Vorteil des Modells gegenüber verbalen Beschreibungen liegt in der Prägnanz und Genauigkeit der Darstellung einer gegebenen Situation. Das Modell macht es klarer Gesamtstruktur des Untersuchungsobjekts und deckt wichtige Ursache-Wirkungs-Beziehungen auf.

    Modelle waren und sind weit verbreitet als
    Mittel der beruflichen Aus- und Weiterbildung. Psychologen haben seit langem erkannt, wie wichtig es ist, einer Person professionelle Fähigkeiten unter Bedingungen beizubringen, in denen sie keine starken Motivationen dafür hat. Wenn jemand etwas praktiziert, sollte er nicht unter Druck gesetzt werden. Eine kritische Situation entsteht hier, wenn der falsche Zeitpunkt und Ort gewählt wird, um einer Person neue professionelle Techniken beizubringen. Daher werden Modelle oft als hervorragendes Mittel verwendet, um Einzelpersonen zu lehren, dass sie in der Lage sein müssen, mit allen möglichen Eventualitäten fertig zu werden, bevor eine echte Krise eintritt. Die meisten kennen bereits solche Anwendungen von Modellen wie lebensgroße Modelle oder Modelle von Raumschiffen, mit denen Astronauten trainiert werden, Simulatoren für die Ausbildung von Autofahrern und Planspiele für die Schulung von Verwaltungspersonal von Unternehmen.

    Eine der wichtigsten Anwendungen von Modellen sowohl in praktischer als auch in historischer Hinsicht ist die Vorhersage des Verhaltens der zu modellierenden Objekte. Es ist wirtschaftlich nicht machbar, ein Ultraschall-Düsenflugzeug zu bauen, um seine Flugeigenschaften zu bestimmen, aber sie können durch Simulationswerkzeuge vorhergesagt werden.

    Schließlich ermöglicht der Einsatz von Modellen auch kontrollierte Experimente dort durchzuführen, wo Experimente an realen Objekten praktisch unmöglich oder wirtschaftlich nicht vertretbar wären. Das direkte Experimentieren mit dem System besteht normalerweise darin, einige der Parameter zu variieren; während alle anderen Parameter unverändert bleiben, beobachten Sie die Ergebnisse des Experiments. Für die meisten Systeme, mit denen ein Forscher zu tun hat, ist dies entweder praktisch unzugänglich oder zu teuer oder beides. Wenn es zu teuer und/oder unmöglich ist, an einem realen System zu experimentieren, kann oft ein Modell aufgebaut werden, an dem die notwendigen Experimente relativ einfach und kostengünstig durchgeführt werden können. Indem wir mit einem Modell eines komplexen Systems experimentieren, können wir oft mehr über seine internen Wechselwirkungsfaktoren lernen als durch die Manipulation des realen Systems; Möglich wird dies durch die Messbarkeit der strukturellen Elemente des Modells, durch die Tatsache, dass wir sein Verhalten steuern, seine Parameter leicht ändern können usw.

    Somit kann ein Modell einem von zwei Hauptzwecken dienen: entweder beschreibend, wenn das Modell dazu dient, ein Objekt zu erklären und/oder besser zu verstehen, oder präskriptiv, wenn das Modell es ermöglicht, die bestimmenden Eigenschaften eines Objekts vorherzusagen und/oder zu reproduzieren sein Verhalten. Ein Modell des präskriptiven Typs ist normalerweise auch beschreibend, aber nicht umgekehrt. Dies bedeutet, dass das präskriptive Modell fast immer das zu modellierende Objekt beschreibt, aber das beschreibende Modell ist nicht immer für Planungs- und Entwurfszwecke nützlich. Dies ist wahrscheinlich einer der Gründe, warum ökonomische Modelle (die tendenziell deskriptiv sind) wenig Einfluss auf das Management von Wirtschaftssystemen hatten und wenig als Hilfsinstrument für das Management verwendet wurden höchstes Level, während Operations-Research-Modelle einen erheblichen Einfluss auf diese Bereiche hatten.

    In den Ingenieurwissenschaften dienen Modelle als Hilfsmittel bei der Entwicklung neuer oder verbesserter Systeme, in den Sozialwissenschaften erklären Modelle bestehende Systeme. Ein zur Entwicklung eines Systems geeignetes Modell muss dieses auch erklären, aber es liegt auf der Hand, dass Modelle, die nur zur Erklärung erstellt werden, oft nicht einmal ihrem eigentlichen Zweck entsprechen.

    Modelle im Allgemeinen und Simulationsmodelle im Besonderen können klassifiziert werden verschiedene Wege. Lassen Sie uns einige typische Gruppen von Modellen aufzeigen, die die Grundlage eines Klassifikationssystems bilden können:

    − statisch (z. B. ein Querschnitt eines Objekts) und dynamisch (Zeitreihe);

    − deterministisch und stochastisch;

    − diskret und kontinuierlich;

    − natürlich, analog, symbolisch.

    Simulationsmodelle werden zweckmäßigerweise als kontinuierliches Spektrum dargestellt, das sich erstreckt von genaue Modelle oder Layouts realer Objekte bis hin zu vollständig abstrahierten mathematischen Modellen (Abbildung 1.1). Modelle am Anfang des Spektrums werden oft als physikalische oder natürliche Modelle bezeichnet, weil sie dem untersuchten System oberflächlich ähneln. Statische physikalische Modelle, wie Modelle von architektonischen Objekten oder Grundrisse von Fabrikgebäuden, helfen uns, räumliche Zusammenhänge zu visualisieren. Ein Beispiel für ein dynamisches physikalisches Modell wäre ein (verkleinertes) Pilotanlagenmodell, das entwickelt wurde, um einen neuen chemischen Prozess zu untersuchen, bevor es in die Produktion mit voller Kapazität übergeht, oder ein verkleinertes Flugzeugmodell, das in einem Windkanal getestet wird, um die dynamische Stabilität zu bewerten. Unterscheidungsmerkmal physikalisches Modell ist, dass es in gewisser Weise wie das modellierte Objekt "aussieht". Physische Modelle können in Form von Layouts in Originalgröße (z. B. Simulatoren) oder in verkleinertem Maßstab (z. B. ein Modell) vorliegen Sonnensystem) oder in größerem Maßstab (z. B. ein Atommodell). Sie können auch 2D oder 3D sein. Sie können zu Demonstrationszwecken (wie ein Globus) oder zur Durchführung indirekter Experimente verwendet werden. Die bei der Untersuchung von Anlagenlayouts verwendeten abgestuften Vorlagen sind ein Beispiel für ein verkleinertes zweidimensionales physikalisches Modell, das zu Versuchszwecken verwendet wird.

    Genauigkeit
    Abstraktion

    Abbildung 1.1 - Mathematische Modelle

    Analoge Modelle sind Modelle, in denen eine Eigenschaft eines realen Objekts durch eine andere Eigenschaft eines Objekts mit ähnlichem Verhalten dargestellt wird. Das Problem wird manchmal gelöst, indem eine Eigenschaft durch eine andere ersetzt wird, wonach die erhaltenen Ergebnisse in Bezug auf interpretiert werden müssen ursprüngliche Eigenschaften Objekt. Beispielsweise kann eine Spannungsänderung in einem Netzwerk einer bestimmten Konfiguration den Warenfluss in einem System darstellen und ist ein hervorragendes Beispiel für ein analoges Simulationsmodell. Ein weiteres Beispiel ist ein Rechenschieber, bei dem die quantitativen Eigenschaften eines Objekts durch Skalensegmente auf einer logarithmischen Skala dargestellt werden.

    Kosten
    Volumen der Produktion

    Abbildung 1.2 - Kurve der Produktionskosten

    Der Graph ist eine andere Art von analogem Modell: Hier repräsentiert die Entfernung solche Eigenschaften des Objekts. Wie Zeit, Lebensdauer, Stückzahl usw. Das Diagramm kann auch die Beziehung zwischen verschiedenen Größen zeigen und vorhersagen, wie sich einige Größen ändern, wenn sich andere Größen ändern. So zeigt beispielsweise das Diagramm in Abbildung 1.2, wie die Herstellungskosten eines bestimmten Produkts vom Produktionsvolumen abhängen können. Dieses Diagramm zeigt genau, wie sich die Kosten auf den Output beziehen, sodass wir vorhersagen können, was mit den Kosten passiert, wenn wir den Output erhöhen oder verringern. Für manche relativ einfache Fälle Der Graph kann wirklich als Mittel zur Lösung des Problems dienen. Aus dem Diagramm in Abbildung 1.2 können Sie eine Kurve für die Änderung der Grenzkosten des Produkts erhalten.

    Wenn die Aufgabe darin besteht, das optimale Produktionsvolumen zu einem gegebenen Preis zu bestimmen (d. h. das Produktionsvolumen, das den maximalen Nettogewinn liefert), dann lösen wir dieses Problem, indem wir die Preisänderungskurve für ein Produkt in derselben Grafik zeichnen. Das optimale Volumen liegt an dem Punkt, an dem sich die Preiskurve und die Grenzkostenkurve schneiden. Grafische Lösungen sind auch für bestimmte lineare Programmieraufgaben sowie für Spielaufgaben möglich. Manchmal werden Graphen in Verbindung mit mathematischen Modellen verwendet, wobei eines dieser Modelle Eingaben für das andere liefert.

    Andere Modelle als Graphen, die Schaltungen verschiedener Art sind, sind ebenfalls nützliche analoge Modelle; Ein gängiges Beispiel für solche Schemata ist strukturelles Schema jede Organisation. Die durch Linien verbundenen "Quadrate" in einem solchen Schema spiegeln die Unterordnung zwischen den Mitgliedern der Organisation zum Zeitpunkt der Erstellung des Schemas sowie die Kanäle des Informationsaustauschs zwischen ihnen wider. Systemstudien machen auch umfangreichen Gebrauch von Prozessflussdiagrammen, in denen verschiedene Ereignisse wie Operationen, Verzögerungen, Kontrollen, Bestände usw. durch Linien und Symbole dargestellt werden, die Bewegung darstellen.

    Wenn wir uns entlang des Spektrums der Modelle bewegen, werden wir dort ankommen, wo Menschen und Maschinenkomponenten interagieren. Eine solche Modellierung wird oft als Spiele (Management, Planung) bezeichnet. Da Managemententscheidungsprozesse schwer zu modellieren sind, wird es oft als sinnvoll erachtet, auf einen solchen Versuch zu verzichten. Bei den sogenannten Management-(Geschäfts-)Spielen interagiert eine Person mit Informationen, die von der Ausgabe eines Computers kommen (der alle anderen Eigenschaften des Systems modelliert), und trifft Entscheidungen auf der Grundlage der erhaltenen Informationen. Die menschlichen Entscheidungen werden dann als Eingaben in die Maschine zurückgeführt, die vom System verwendet werden. Führt man diesen Prozess weiter fort, kommt man zur vollautomatisierten Simulation, was üblicherweise unter dem Begriff „Simulation“ verstanden wird. Der Computer kann Bestandteil aller Simulationsmodelle des betrachteten Teils des Spektrums sein, muss es aber nicht.

    Symbolische oder mathematische Modelle sind solche, die eher Symbole als physische Geräte verwenden, um einen Prozess oder ein System darzustellen. Als gängiges Beispiel für die Darstellung von Systemen können dabei Systeme von Differentialgleichungen angesehen werden. Da letztere die abstraktesten und damit allgemeinsten Modelle sind, sind mathematische Modelle in der Systemforschung weit verbreitet. Das symbolische Modell ist immer eine abstrakte Idealisierung des Problems, und wenn dieses Modell das Problem lösen soll, sind einige vereinfachende Annahmen erforderlich. Daher muss besonders darauf geachtet werden, dass das Modell als gültige Darstellung des gegebenen Problems dient.

    Bei der Modellierung eines komplexen Systems ist der Forscher meist gezwungen, eine Kombination mehrerer Modelle aus den oben genannten Varianten zu verwenden. Jedes System oder Subsystem kann auf vielfältige Weise dargestellt werden, die sich stark in Komplexität und Detailliertheit unterscheiden. In den meisten Fällen führt die Systemforschung zu mehreren verschiedenen Modellen desselben Systems. Aber normalerweise, wenn der Forscher tiefer analysiert und das Problem besser versteht, einfache Modelle werden durch immer komplexere ersetzt.

    Alle Simulationsmodelle sind sogenannte Black-Box-Modelle. Das bedeutet, dass sie das Ausgangssignal des Systems liefern, wenn seine interagierenden Teilsysteme ein Eingangssignal erhalten. Um die notwendigen Informationen oder Ergebnisse zu erhalten, ist es daher notwendig, Simulationsmodelle zu „laufen“ und nicht zu „lösen“. Simulationsmodelle sind nicht in der Lage, eine eigene Lösung in der Form zu bilden, wie sie in analytischen Modellen stattfindet, sondern können nur als Mittel dienen, das Verhalten des Systems unter vom Experimentator bestimmten Bedingungen zu analysieren. Daher ist die Simulationsmodellierung keine Theorie, sondern eine Methodik zur Lösung von Problemen. Darüber hinaus ist die Simulation nur eine von mehreren kritischen Problemlösungstechniken, die dem Systemanalytiker zur Verfügung stehen. Da es notwendig und wünschenswert ist, ein Werkzeug oder eine Methode an die Lösung eines Problems anzupassen und nicht umgekehrt, stellt sich natürlich die Frage: In welchen Fällen ist Simulationsmodellierung nützlich?

    Auf der Grundlage des oben Gesagten sollte der Forscher die Machbarkeit der Verwendung von Simulationen bei Vorliegen einer der folgenden Bedingungen in Betracht ziehen:

    1. Es gibt keine vollständige mathematische Formulierung dieses Problems oder analytische Methoden zur Lösung des formulierten mathematischen Modells wurden noch nicht entwickelt. Viele Warteschlangenmodelle fallen in diese Kategorie;

    2. Analysemethoden sind verfügbar, aber mathematische Verfahren sind so komplex und zeitaufwändig, dass Simulationsmodelle eine einfachere Lösung des Problems bieten;

    3. Analytische Lösungen existieren, deren Umsetzung jedoch aufgrund unzureichender mathematischer Ausbildung des vorhandenen Personals nicht möglich ist. In diesem Fall sollten die Kosten für Design, Test und Bearbeitung eines Simulationsmodells den Kosten gegenübergestellt werden, die mit der Einladung externer Spezialisten verbunden sind;

    4. Neben der Bewertung bestimmter Parameter ist es wünschenswert, den Fortschritt des Prozesses an einem Simulationsmodell für einen bestimmten Zeitraum zu überwachen;

    5. Simulationsmodellierung kann aufgrund der Schwierigkeiten, Experimente einzurichten und Phänomene unter realen Bedingungen zu beobachten, die einzige Möglichkeit sein;

    6. Für den langfristigen Betrieb von Systemen oder Prozessen kann eine Komprimierung erforderlich sein: Timeline. Die Simulationsmodellierung ermöglicht es, die Zeit des untersuchten Prozesses vollständig zu kontrollieren, da das Phänomen nach Belieben verlangsamt oder beschleunigt werden kann.

    Ein zusätzlicher Vorteil der Simulationsmodellierung können die breitesten Anwendungsmöglichkeiten im Bereich der Aus- und Weiterbildung sein. Die Entwicklung und Nutzung eines Simulationsmodells ermöglicht es dem Experimentator, reale Vorgänge und Situationen am Modell zu sehen und „durchzuspielen“. Dies wiederum sollte ihm sehr helfen, das Problem zu verstehen und zu fühlen, was den Prozess der Suche nach Innovationen anregt.

    Der Einsatz von Simulation ist aufgrund seiner Einfachheit sowohl für Manager als auch für Systemforscher attraktiv. Die Entwicklung eines guten Simulationsmodells ist jedoch oft teuer und zeitaufwändig. Beispielsweise kann es 3 bis 11 Jahre dauern, bis ein gutes internes Planungsmodell entwickelt ist. Darüber hinaus sind Simulationsmodelle nicht genau und es ist fast unmöglich, das Ausmaß dieser Ungenauigkeit zu messen. Dennoch wurden oben die Vorteile der Simulationsmodellierung angedeutet.

    Bevor Sie mit der Entwicklung eines Modells beginnen, müssen Sie verstehen, aus welchen Strukturelementen es aufgebaut ist. Obwohl die mathematische oder physikalische Struktur des Modells sehr komplex sein kann, sind die Grundlagen seiner Konstruktion recht einfach. In der allgemeinsten Form lässt sich die Struktur des Modells mathematisch in der Form (1.1) darstellen:

    , (1.1)

    wobei E das Ergebnis des Systems ist;

    X i - Variablen und Parameter, die wir steuern können;

    i hat Variablen und Parameter, die wir
    wir können es nicht schaffen;

    F ist eine funktionale Beziehung zwischen x i und y i , die
    bestimmt den Wert von E.

    Diese Vereinfachung ist insofern nützlich, als sie die Abhängigkeit des Funktionierens des Systems sowohl von von uns kontrollierten als auch von unkontrollierten Variablen zeigt. Fast jedes Modell ist eine Kombination aus folgenden Komponenten:

    − Komponenten,

    − Variablen,

    − Parameter,

    − funktionale Abhängigkeiten,

    − Beschränkungen,

    − objektive Funktionen.

    Unter Komponenten werden Bestandteile verstanden, die richtig zusammengesetzt ein System bilden. Manchmal werden auch Elemente eines Systems oder aller Subsysteme als Komponenten betrachtet.

    Das Modell einer Stadt kann aus Komponenten wie einem Bildungssystem, einem Gesundheitssystem, einem Transportsystem usw. bestehen. In einem Wirtschaftsmodell können einzelne Unternehmen, einzelne Verbraucher usw. Komponenten sein. Ein System ist definiert als eine Gruppe oder Menge von Objekten, die durch irgendeine Form regelmäßiger Interaktion oder gegenseitiger Abhängigkeit zusammengebracht werden, um eine bestimmte Funktion auszuführen. Komponenten sind die Objekte, aus denen das untersuchte System besteht.

    Parameter sind Größen, die der am Modell arbeitende Bediener beliebig wählen kann, im Gegensatz zu Variablen, die nur Werte annehmen können, die durch die Art dieser Funktion bestimmt werden. Aus einem anderen Blickwinkel betrachtet, können wir sagen, dass die einmal eingestellten Parameter konstante Werte sind, die nicht geändert werden können. Beispielsweise ist in einer Gleichung wie y=3x die Zahl 3 der Parameter und x und y die Variablen. Mit dem gleichen Erfolg können Sie y=16x oder y=30x setzen. Die statistische Analyse versucht oft, diese unbekannten, aber festen Parameter für eine ganze Gruppe von Daten zu bestimmen. Betrachten wir eine bestimmte Gruppe von Daten oder eine Grundgesamtheit, so sind die Größen, die den Trend im Verhalten dieser Grundgesamtheit bestimmen, wie beispielsweise Mittelwert, Median oder Modus, gleichermaßen Parameter der Grundgesamtheit dass Variabilitätsmaße Größen wie Spannweite, Varianz, Standardabweichung sind. Also für die Poisson-Verteilung, wo die Wahrscheinlichkeit x durch die Funktion gegeben ist , l ist ein Verteilungsparameter, x ist eine Variable und e ist eine Konstante.

    Das Systemmodell unterscheidet zwischen zwei Arten von Variablen - exogene und
    endogen. Exogene Variablen werden auch Input genannt; sie werden also außerhalb des Systems generiert oder sind das Ergebnis externer Ursachen. Endogene Variablen sind Variablen, die im System oder durch interne Ursachen entstehen. Wir nennen endogene Variablen auch Zustandsvariablen (wenn sie den Zustand oder die Bedingungen charakterisieren, die im System stattfinden) oder Ausgangsvariablen (wenn sie sich auf die Ausgaben des Systems beziehen). Statistiker bezeichnen exogene Variablen manchmal als unabhängige Variablen und endogene Variablen als abhängige.

    Funktionale Abhängigkeiten beschreiben das Verhalten von Variablen und
    Parameter innerhalb einer Komponente oder drücken Beziehungen zwischen Systemkomponenten aus. Diese Verhältnisse oder Betriebseigenschaften sind entweder deterministischer oder stochastischer Natur. Deterministische Beziehungen sind Identitäten oder Definitionen, die eine Beziehung zwischen bestimmten Variablen oder Parametern in Fällen herstellen, in denen der Prozess am Ausgang des Systems eindeutig durch die gegebenen Informationen am Eingang bestimmt ist. Im Gegensatz dazu sind stochastische Beziehungen solche Abhängigkeiten, die bei gegebener Eingangsinformation am Ausgang ein unsicheres Ergebnis liefern. Beide Arten von Beziehungen werden normalerweise in Form einer mathematischen Gleichung ausgedrückt, die eine Beziehung zwischen endogenen Variablen (Zustandsvariablen) und exogenen Variablen herstellt. Typischerweise können diese Beziehungen nur auf der Grundlage von Hypothesen aufgebaut oder durch statistische oder mathematische Analysen abgeleitet werden.

    Einschränkungen sind gesetzte Grenzen für die Änderung der Werte von Variablen oder einschränkende Bedingungen für die Verteilung und Ausgabe bestimmter Mittel (Energie, Zeitreserven usw.). Sie können entweder durch den Entwickler (künstliche Restriktionen) oder durch das System selbst aufgrund seiner inhärenten Eigenschaften (natürliche Restriktionen) eingeführt werden. Beispiele für künstliche Beschränkungen könnten feste Höchst- und Mindestbeschäftigungsniveaus für Arbeitnehmer oder ein fester Höchstbetrag für Investitionen sein. Mehrheitlich technische Voraussetzungen zu Systemen ist eine Reihe künstlicher Beschränkungen. Natürliche Beschränkungen liegen in der Natur des Systems. Zum Beispiel kann man nicht mehr Produkte verkaufen, als das System produzieren kann, und man kann kein System entwerfen, das gegen die Naturgesetze verstößt. Beschränkungen der einen Art sind daher auf unveränderliche Naturgesetze zurückzuführen, während Beschränkungen einer anderen Art, die das Werk menschlicher Hände sind, Änderungen unterliegen können. Es ist für den Forscher sehr wichtig, dies im Auge zu behalten, da er im Laufe seiner Forschung die vom Menschen eingeführten Einschränkungen ständig bewerten muss, um sie gegebenenfalls zu schwächen oder zu verstärken.

    Die Zielfunktion oder Kriteriumsfunktion ist eine genaue Darstellung der Ziele oder Zielsetzungen des Systems und der notwendigen Regeln zur Bewertung ihrer Implementierung. Weisen normalerweise auf zwei Arten von Zielen hin: Erhaltung und Erwerb. Erhaltungsziele beziehen sich auf die Erhaltung oder Aufrechterhaltung jeglicher Ressourcen (Zeit, Energie, Kreativität usw.) oder Bedingungen (Komfort, Sicherheit, Beschäftigungsniveau usw.). Akquisitionsziele sind mit dem Erwerb neuer Ressourcen (Gewinn, Personal, Kunden usw.) oder dem Erreichen bestimmter Zustände verbunden, die die Organisation oder Führungskraft anstrebt (Eroberung eines Teils des Marktes, Erreichen eines Zustands der Einschüchterung usw.). ). Der Ausdruck für die Zielfunktion muss eine eindeutige Definition der Ziele und Zielsetzungen sein, denen die getroffenen Entscheidungen entsprechen müssen. Webster's Dictionary definiert "Kriterien" als "einen Beurteilungsstandard, eine Regel oder eine Art Test, durch den eine korrekte Beurteilung über etwas gefällt wird". Diese klare und eindeutige Definition des Kriteriums ist aus zwei Gründen sehr wichtig. Erstens hat es einen enormen Einfluss auf den Prozess der Erstellung und Bearbeitung des Modells. Zweitens führt die falsche Definition des Kriteriums in der Regel zu falschen Schlussfolgerungen. Die Kriteriumsfunktion (Zielfunktion) ist normalerweise ein integraler Bestandteil des Modells, und der gesamte Prozess der Manipulation des Modells zielt darauf ab, das gegebene Kriterium zu optimieren oder zu erfüllen.

    Auch kleine Flächen Die reale Welt ist zu komplex für eine Person, um sie vollständig zu verstehen und zu beschreiben. Fast alle Problemsituationen sind extrem komplex und beinhalten eine nahezu unendliche Anzahl von Elementen, Variablen, Parametern, Beziehungen, Einschränkungen usw. Wenn Sie versuchen, ein Modell zu erstellen, können Sie unendlich viele Fakten darin einbeziehen und viel Zeit mit dem Sammeln verbringen die kleinsten Fakten über jede Situation und die Herstellung von Verbindungen zwischen ihnen. Denken Sie zum Beispiel an die einfache Handlung, ein Blatt Papier zu nehmen und einen Brief darauf zu schreiben. Schließlich ließe sich die genaue chemische Zusammensetzung von Papier, Bleistiftmine und Gummi bestimmen; der Einfluss atmosphärischer Bedingungen auf die Papierfeuchtigkeit und der Einfluss der letzteren auf die Reibungskraft, die auf die Spitze eines sich auf Papier bewegenden Bleistifts wirkt; Forschung statistische Verteilung Buchstaben in Textphrasen usw. Wenn uns in dieser Situation jedoch nur die Tatsache interessiert, dass der Brief verschickt wurde, dann sind keine der genannten Details relevant. Daher müssen wir die meisten realen Merkmale des zu untersuchenden Ereignisses verwerfen und von der realen Situation nur diejenigen Merkmale abstrahieren, die eine idealisierte Version des realen Ereignisses nachbilden. Alle Modelle sind vereinfachte Darstellungen der realen Welt oder Abstraktionen. Wenn sie richtig gemacht werden, geben uns diese Idealisierungen eine nützliche Annäherung an die reale Situation oder zumindest bestimmte Merkmale davon.

    Die Ähnlichkeit eines Modells mit dem Objekt, das es darstellt, wird als Grad der Isomorphie bezeichnet. Um isomorph (d. h. von identischer oder ähnlicher Form) zu sein, muss ein Modell zwei Bedingungen erfüllen.

    Zunächst muss eine Eins-zu-eins-Korrespondenz bestehen
    zwischen Elementen des Modells und Elementen des dargestellten Objekts. Zweitens müssen genaue Beziehungen oder Wechselwirkungen zwischen Elementen aufrechterhalten werden. Der Grad der Modellisomorphie ist relativ, und die meisten Modelle sind eher homomorph als isomorph. Unter Homomorphismus wird die formale Ähnlichkeit bei einem Unterschied in den Grundstrukturen verstanden, wobei zwischen verschiedenen Gruppen von Elementen des Modells und des Objekts nur eine oberflächliche Ähnlichkeit besteht. Homomorphe Modelle sind das Ergebnis von Vereinfachungs- und Abstraktionsprozessen.

    Um ein idealisiertes homomorphes Modell zu entwickeln, verwenden wir normalerweise
    Wir zerlegen das System in eine Reihe kleinerer Teile. Dies ist für getan
    um sie richtig zu interpretieren, d. h. um die erforderliche Analyse des Problems durchzuführen. Diese Wirkungsweise hängt vom Vorhandensein von Teilen oder Elementen ab, die in erster Näherung nicht voneinander abhängen oder relativ miteinander wechselwirken auf einfache Weise. So können wir zunächst die Funktionsweise des Autos analysieren und nacheinander Motor, Getriebe, Antrieb, Aufhängung usw. überprüfen, obwohl diese Komponenten nicht völlig unabhängig voneinander sind.

    Eng verbunden mit dieser Art der modellbildenden Analyse ist der Prozess
    Vereinfachung des realen Systems. Der Begriff der Vereinfachung ist den meisten Menschen leicht zugänglich – mit Vereinfachung ist das Vernachlässigen irrelevanter Details oder das Akzeptieren von Annahmen über einfachere Beziehungen gemeint. Zum Beispiel nehmen wir oft an, dass es eine lineare Beziehung zwischen zwei Variablen gibt, obwohl wir vielleicht vermuten oder sogar sicher wissen, dass die wahre Beziehung zwischen ihnen nicht linear ist. Davon gehen wir zumindest in einem begrenzten Wertebereich aus
    Variablen, ist eine solche Annäherung zufriedenstellend. Ein Elektroingenieur arbeitet mit Schaltungsmodellen unter der Annahme, dass Widerstände, Kondensatoren usw. ihre Parameter nicht ändern; Dies ist eine Vereinfachung, weil wir wissen, dass sich die elektrischen Eigenschaften dieser Komponenten mit Temperatur, Feuchtigkeit, Alter usw. ändern. Der Maschinenbauingenieur arbeitet mit Modellen, in denen Gase als ideal angesehen werden, Drücke adiabat sind und die Leitfähigkeit gleichmäßig ist. In den meisten praktischen Fällen sind solche Annäherungen oder Vereinfachungen gut genug, um nützliche Ergebnisse zu liefern.

    Ein Wissenschaftler, der die Probleme des "Managements" für die Konstruktion nützlicher Modelle untersucht, greift ebenfalls zur Vereinfachung. Er geht davon aus, dass seine Variablen entweder deterministisch sind (eine extrem vereinfachte Interpretation der Realität) oder den Gesetzen zufälliger Ereignisse gehorchen, die durch bekannte Wahrschewie Normal, Poisson, Exponential usw. beschrieben werden. Er geht auch oft davon aus, dass die Beziehungen zwischen Variablen linear sind, da er weiß, dass eine solche Annahme nicht ganz gültig ist. Dies ist oft notwendig und gerechtfertigt, wenn mathematisch beschreibbare Modelle aufgebaut werden sollen.

    Ein weiterer Aspekt der Analyse ist die Abstraktion, ein Konzept, das
    Der Unterschied zur Vereinfachung ist nicht so einfach zu erklären und zu verstehen. Abstraktion
    enthält oder konzentriert wesentliche Qualitäten oder Merkmale
    das Verhalten eines Objekts (Dings), aber nicht unbedingt in der gleichen Form und so detailliert wie im Original. Die meisten Modelle sind Abstraktionen in dem Sinne, dass sie versuchen, die Eigenschaften und das Verhalten des zu modellierenden Objekts in einer Form oder Weise darzustellen, die sich von ihrer tatsächlichen Implementierung unterscheidet. So versuchen wir im Schema der Arbeitsorganisation, die Arbeitsbeziehungen zwischen verschiedenen Gruppen von Arbeitnehmern oder einzelnen Mitgliedern solcher Gruppen in abstrakter Form widerzuspiegeln. Dass ein solches Diagramm reale Zusammenhänge nur oberflächlich abbildet, tut seiner Nützlichkeit für bestimmte Zwecke keinen Abbruch.

    Nachdem wir die Teile oder Elemente des Systems analysiert und modelliert haben, fügen wir sie zu einem Ganzen zusammen. Mit anderen Worten, durch Synthetisieren relativ einfacher Teile können wir eine Annäherung an eine komplexe reale Situation konstruieren. Es ist wichtig, hier zwei Punkte zu beachten. Erstens müssen die für die Synthese verwendeten Teile richtig ausgewählt werden, und zweitens muss ihr Zusammenspiel richtig vorhergesagt werden. Wenn all dies richtig durchgeführt wird, führen diese Prozesse der Analyse, Abstraktion, Vereinfachung und Synthese schließlich zur Erstellung eines Modells, das das Verhalten des untersuchten realen Systems annähert. Es muss jedoch beachtet werden, dass das Modell nur eine Annäherung ist und sich daher nicht genau wie ein reales Objekt verhalten wird. Wir optimieren das Modell, aber nicht das reale System. Die Frage, ob wirklich ein Zusammenhang zwischen den Eigenschaften unseres Modells und der Realität besteht, hängt davon ab, wie richtig und intelligent wir unsere Prozesse der Analyse, Abstraktion, Vereinfachung und Synthese durchgeführt haben. Wir stoßen selten auf ein Modell, das einer bestimmten Führungssituation vollständig gerecht wird.

    Offensichtlich sollte die Grundlage einer erfolgreichen Modellierungstechnik das sorgfältige Testen von Modellen sein. Üblicherweise beginnt man mit einem sehr einfachen Modell und bewegt sich allmählich zu einer fortgeschritteneren Form davon, dem Nachdenken schwierige Situation genauer. Analogien und Assoziationen zu gut gebauten Strukturen scheinen zu spielen wichtige Rolle den Ausgangspunkt dieses Verbesserungs- und Detailverfeinerungsprozesses zu bestimmen. Dieser Prozess der Verbesserung und Verfeinerung ist mit dem ständigen Interaktionsprozess verbunden und Rückmeldung zwischen Realität und Modell. Es besteht eine kontinuierliche Wechselwirkung zwischen dem Prozess der Modellmodifikation und dem Prozess der Verarbeitung von Daten, die von einem realen Objekt erzeugt werden. Während jede Variante des Modells getestet und bewertet wird, entsteht eine neue Variante, die zu erneuten Tests und Neubewertungen führt.

    Solange das Modell einer mathematischen Beschreibung zugänglich ist, kann der Analytiker es immer weiter verbessern oder die anfänglichen Annahmen verkomplizieren. Wenn das Model „frech“ wird, d.h. unentscheidbar, greift der Entwickler auf diese Vereinfachung und die Verwendung einer tieferen Abstraktion zurück.

    Die Kunst der Modellierung besteht also in der Fähigkeit, ein Problem zu analysieren, seine wesentlichen Merkmale durch Abstraktion zu extrahieren, die grundlegenden Annahmen, die das System charakterisieren, auszuwählen und gegebenenfalls zu modifizieren und dann das Modell zu verfeinern und zu verbessern, bis es nützliche Ergebnisse für die Praxis liefert. . Dies wird üblicherweise in Form von sieben Anweisungen formuliert, nach denen es notwendig ist:

    − Zerlegen der allgemeinen Aufgabe, das System zu untersuchen, in eine Reihe einfacherer Aufgaben;

    - Ziele klar formulieren;

    − Analogien finden;

    − ein spezielles numerisches Beispiel zu betrachten, das dem gegebenen Problem entspricht;

    - bestimmte Bezeichnungen auswählen;

    − die offensichtlichen Zusammenhänge aufschreiben;

    − Wenn sich das resultierende Modell mathematisch beschreiben lässt, erweitern Sie es. Ansonsten vereinfachen.

    Im Allgemeinen können Sie ein Modell vereinfachen, indem Sie eine der folgenden Operationen ausführen (während das Erweitern eines Modells genau das Gegenteil erfordert):

    − Variablen in Konstanten umwandeln;

    - Einige Variablen ausschließen oder kombinieren;

    − einen linearen Zusammenhang zwischen den untersuchten Größen annehmen;

    − Einführung strengerer Annahmen und Beschränkungen;

    − dem System strengere Randbedingungen auferlegen.

    Der evolutionäre Charakter des Prozesses der Modellkonstruktion ist unvermeidlich und wünschenswert, daher sollten wir nicht glauben, dass dieser Prozess auf die Konstruktion einer einzigen Basisversion des Modells reduziert wird. Wenn die Ziele erreicht und die gestellten Aufgaben gelöst sind, werden neue Aufgaben gestellt oder es besteht die Notwendigkeit, eine größere Übereinstimmung zwischen dem Modell und dem realen Objekt zu erreichen, was zu einer Überarbeitung des Modells und all seiner besseren Implementierungen führt. Dieser Prozess, der ebenfalls mit dem Erstellen eines einfachen Modells beginnt; Dann erschweren und erarbeiten hat es eine Reihe von Vorteilen im Hinblick auf den erfolgreichen Abschluss der Modellentwicklung. Das Tempo und die Richtung des evolutionären Modellwandels hängen von zwei Hauptfaktoren ab. Der erste ist offensichtlich die inhärente Flexibilität des Modells, und der zweite ist die Beziehung zwischen dem Schöpfer des Modells und seinem Benutzer. Durch ihre enge Zusammenarbeit während der Entwicklung des Modells können sein Entwickler und Benutzer eine Atmosphäre des gegenseitigen Vertrauens und der Beziehungen schaffen, die dazu beitragen, Endergebnisse zu erzielen, die den Zielen, Zielen und Kriterien entsprechen.

    Die Kunst des Modellierens kann von jenen gemeistert werden, die originelles Denken, Einfallsreichtum und Einfallsreichtum sowie ein tiefes Wissen über die Systeme und physikalischen Phänomene haben, die modelliert werden müssen.

    Es gibt kein hartes und wirksame Regeln wie
    Es ist notwendig, das Problem ganz am Anfang des Modellierungsprozesses zu formulieren, d.h. gleich nachdem ich sie das erste mal getroffen habe. Es gibt auch keine Zauberformeln zur Lösung von Problemen wie der Wahl von Variablen und Parametern, Beziehungen, die das Verhalten des Systems beschreiben, und Einschränkungen sowie Kriterien zur Bewertung der Wirksamkeit des Modells bei der Erstellung eines Modells. Es muss daran erinnert werden, dass niemand das Problem in seiner reinen Form löst, jeder operiert mit einem Modell, das er anhand der Aufgabe gebaut hat.

    Die Simulation ist eng mit der Funktionsweise des Systems verbunden. Das System ist
    eine Gruppe oder Ansammlung von Einheiten, die durch irgendeine Form regelmäßiger Interaktion oder gegenseitiger Abhängigkeit zusammengebracht werden, um eine bestimmte Funktion zu erfüllen.

    Beispiele für Systeme können sein: eine Industrieanlage, eine Organisation, ein Verkehrsnetz, ein Krankenhaus, ein Stadtentwicklungsprojekt, eine Person und eine Maschine, die er steuert. Das Funktionieren des Systems besteht aus einer Reihe koordinierter Aktionen, die zum Ausführen einer bestimmten Aufgabe erforderlich sind. Unter diesem Gesichtspunkt sind die Systeme, an denen wir interessiert sind, zielführend. Dieser Umstand verlangt von uns, bei der Modellierung eines Systems genau darauf zu achten, welche Ziele bzw. Aufgaben dieses System lösen muss. Wir müssen die Ziele des Systems und des Modells ständig im Auge behalten, um die notwendige Übereinstimmung zwischen ihnen zu erreichen.

    Da es bei der Simulation um die Lösung realer Probleme geht, müssen wir sicher sein, dass die Endergebnisse den wahren Stand der Dinge genau widerspiegeln. Daher sollte ein Modell, das uns absurde Ergebnisse liefern kann, sofort unter Verdacht genommen werden. Jedes Modell sollte anhand der maximalen Grenzen der Wertänderungen seiner Parameter und Variablen bewertet werden. Wenn das Modell lächerliche Antworten auf die gestellten Fragen gibt, müssen wir wieder zum Reißbrett zurückkehren. Das Modell sollte auch in der Lage sein, „Was wäre, wenn…“-Fragen zu beantworten, da dies die Fragen sind, die für uns am nützlichsten sind, da sie zu einem tieferen Verständnis des Problems beitragen und dazu beitragen, bessere Wege zur Bewertung unserer möglichen Maßnahmen zu finden.

    Schließlich sollten wir den Verbraucher der Informationen, die unser Modell uns ermöglicht, immer im Auge behalten. Man kann die Entwicklung eines Simulationsmodells nicht rechtfertigen, wenn es letztendlich unbrauchbar ist oder dem Entscheidungsträger keinen Nutzen bringt.

    Der Verbraucher der Ergebnisse kann die Person sein, die für die Erstellung des Systems oder für den gesamten Betrieb verantwortlich ist; Mit anderen Worten, es muss immer einen Benutzer des Modells geben - sonst verschwenden wir die Zeit und Mühe von Managern, die Gruppen von Wissenschaftlern, die sich mit Operations Research, Regelungstheorie oder Systemanalyse beschäftigen, lange Zeit mit den Ergebnissen ihrer Arbeit unterstützen in der Praxis nicht anwendbar. .

    Unter Berücksichtigung all dessen können wir konkrete Kriterien formulieren, die ein gutes Modell erfüllen muss. Ein solches Modell sollte sein:

    - einfach und verständlich für den Benutzer;

    − zielgerichtet;

    − zuverlässig im Sinne einer Garantie gegen absurde Antworten;

    - einfach zu verwalten und zu handhaben, d.h. die Kommunikation mit ihr sollte einfach sein;

    − vollständig im Hinblick auf die Möglichkeiten zur Lösung der Hauptaufgaben; adaptiv, sodass Sie einfach zu anderen Modifikationen wechseln oder Daten aktualisieren können;

    − Inkrementelle Änderungen in dem Sinne zulassen, dass es, was am Anfang einfach ist, in der Interaktion mit dem Benutzer immer komplexer werden kann.

    Basierend auf der Tatsache, dass Simulation zum Lernen verwendet werden sollte
    Bei realen Systemen können folgende Phasen dieses Prozesses unterschieden werden:

    - Systemdefinition - Festlegung von Grenzen, Beschränkungen und Maßstäben der Wirksamkeit des zu untersuchenden Systems;

    - Formulieren eines Modells - der Übergang von einem realen System zu einem logischen Schema (Abstraktion);

    - Datenvorbereitung - Auswahl der für den Aufbau eines Modells notwendigen Daten und deren Präsentation in geeigneter Form;

    − Übersetzung des Modells – eine Beschreibung des Modells in einer akzeptablen Sprache
    gebrauchter Computer;

    - Bewertung der Angemessenheit - Steigerung des Vertrauens auf ein akzeptables Maß, mit dem man die Richtigkeit der Schlussfolgerungen über das reale System beurteilen kann, die auf der Grundlage des Zugangs zum Modell erhalten wurden;

    - strategische Planung - Planung eines Experiments, das die notwendigen Informationen liefern soll;

    - taktische Planung - Festlegung der Methode zur Durchführung jeder im Versuchsplan vorgesehenen Versuchsreihe;

    − Experimentieren – der Prozess der Durchführung einer Simulation, um die gewünschten Daten und Sensitivitätsanalysen zu erhalten;

    − Interpretation – Schlussfolgerungen aus nachgeahmten Daten ziehen;

    − Implementierung – praktische Nutzung des Modells und (oder) der Simulationsergebnisse;

    - Dokumentation - Aufzeichnung des Projektfortschritts und seiner Ergebnisse sowie Dokumentation des Erstellungs- und Nutzungsprozesses des Modells.

    Die aufgeführten Phasen der Erstellung und Verwendung des Modells werden unter der Annahme definiert, dass das Problem gelöst werden kann der beste Weg mit Hilfe von Simulationen. Wie wir jedoch bereits festgestellt haben, ist dies möglicherweise nicht der effizienteste Weg. Es wurde wiederholt darauf hingewiesen, dass Nachahmung ein letzter Ausweg oder eine Brute-Force-Technik ist, die zur Lösung eines Problems eingesetzt wird. Wenn das Problem auf ein einfaches Modell reduziert und analytisch gelöst werden kann, besteht zweifellos keine Notwendigkeit zur Nachahmung. Alle möglichen Mittel, die zur Lösung dieses speziellen Problems geeignet sind, sollten gesucht werden, während nach der optimalen Kombination von Kosten und gewünschten Ergebnissen gesucht wird. Bevor Sie mit der Bewertung der Nachahmungsmöglichkeiten fortfahren, sollten Sie sich vergewissern, dass ein einfaches analytisches Modell für diesen Fall nicht geeignet ist.

    Die Phasen oder Elemente des Simulationsprozesses in ihrer Wechselbeziehung sind im Flussdiagramm von Abbildung 1.3 dargestellt. Der Entwurf eines Modells beginnt normalerweise damit, dass jemand in der Organisation zu dem Schluss kommt, dass es ein Problem gibt, das untersucht werden muss.

    Ein geeigneter Mitarbeiter (in der Regel aus der Problemgruppe) wird mit der Vorrecherche beauftragt. Irgendwann wird erkannt, dass quantitative Forschungsmethoden nützlich sein können, um das Problem zu untersuchen, und dann tritt der Mathematiker in Erscheinung. Damit beginnt die Phase der Definition der Problemstellung.

    Einstein sagte einmal, dass die richtige Formulierung des Problems noch wichtiger sei als seine Lösung. Um ein akzeptables bzw optimale Lösung Aufgabe, müssen Sie zuerst wissen, woraus sie besteht.

    Die meisten praktischen Aufgaben werden den Leitern der wissenschaftlichen und
    Forschungseinheiten in unzureichend klarer, ungenauer Form. In vielen Fällen ist das Management nicht oder nicht in der Lage, die Essenz seiner Probleme richtig auszudrücken. Es weiß, dass es ein Problem gibt, aber es kann nicht genau artikulieren, was das Problem ist. Daher beginnt die Analyse des Systems in der Regel mit einer explorativen Untersuchung des Systems unter Anleitung eines entscheidungsberechtigten Verantwortlichen. Das Forschungsteam muss eine Reihe relevanter Zielsetzungen und Ziele verstehen und artikulieren. Die Erfahrung zeigt, dass die Formulierung eines Problems ein kontinuierlicher Prozess ist, der den gesamten Forschungsverlauf durchzieht. Diese Forschung generiert kontinuierlich neue Informationen über Einschränkungen, Herausforderungen und mögliche Alternativen. Diese Informationen sollten regelmäßig verwendet werden, um die Formulierung und die Problemstellung zu aktualisieren.

    Ein wichtiger Bestandteil der Problemstellung ist die Bestimmung der Eigenschaften des zu untersuchenden Systems. Alle Systeme sind Teilsysteme anderer größerer Systeme. Daher müssen wir die Ziele und Einschränkungen festlegen, die wir beim Abstraktionsprozess oder Aufbau eines formalen Modells berücksichtigen müssen. Es wird gesagt, dass ein Problem als ein Zustand unerfüllter Bedürfnisse definiert werden kann. Die Situation wird problematisch, wenn die Wirkung irgendeines Systems nicht die gewünschten Ergebnisse liefert.

    Wenn die gewünschten Ergebnisse nicht erzielt werden, besteht Bedarf
    das System oder die Umgebung, in der es betrieben wird, verändern. Mathematisch lässt sich das Problem wie folgt definieren (1.2):

    (1.2)

    wobei P t der Zustand des Problems zum Zeitpunkt t ist;

    D t ist der gewünschte Zustand zum Zeitpunkt t;

    A t ist der Ist-Zustand zum Zeitpunkt t.

    Abbildung 1.3 - Phasen des Simulationsprozesses

    Daher besteht der erste Schritt bei der Charakterisierung des zu untersuchenden Systems darin, die Anforderungen der Umgebung zu analysieren, für die das System bestimmt ist. Diese Analyse beginnt mit der Definition von Zielen und Randbedingungen (d. h. was ist und was nicht Teil des zu untersuchenden Systems). Wir interessieren uns hier für zwei funktionale Grenzen oder zwei Schnittstellen: die Grenze, die unser Problem vom Rest der Welt trennt, und die Grenze zwischen dem System und der Umwelt (d. h. dem, was wir als integralen Bestandteil des Systems betrachten). was die Umgebung darstellt, in der dieses System arbeitet) . Wir können auf viele Arten beschreiben, was innerhalb des Systems selbst passiert. Wenn wir nicht bei einer Reihe von Elementen und Beziehungen anhalten würden, die mit einem klar definierten Ziel untersucht werden sollten, hätten wir eine unendliche Anzahl von Verbindungen und Kombinationen.

    Nachdem wir die Ziele und Zielsetzungen der Studie umrissen und die Grenzen des Systems bestimmt haben, reduzieren wir das reale System weiter auf ein logisches Blockdiagramm oder auf ein statisches Modell. Wir wollen ein Modell eines realen Systems bauen, das einerseits nicht so vereinfacht ist, dass es trivial wird, und andererseits nicht so detailliert, dass es umständlich zu bedienen und unerschwinglich teuer wird. Die Gefahr, die beim Erstellen eines logischen Blockdiagramms auf uns wartet, ist real Betriebssystem, liegt darin, dass das Modell dazu neigt, Details und Elemente aufzunehmen, die manchmal nichts zum Verständnis dieser Aufgabe beitragen.

    Daher besteht fast immer die Tendenz, zu viele Details nachzuahmen. Um diese Situation zu vermeiden, sollten Sie ein Modell erstellen, das sich auf die Lösung der zu beantwortenden Fragen konzentriert, und nicht das reale System in allen Details nachahmen. Das Pareto-Gesetz besagt, dass es in jeder Gruppe oder Bevölkerung eine vitale Minderheit und eine triviale Mehrheit gibt. Nichts wirklich Wichtiges passiert, bis eine lebenswichtige Minderheit betroffen ist. Zu oft haben Systemanalytiker versucht, all die durch Details verschlimmerte Komplexität realer Situationen in das Modell zu übertragen, in der Hoffnung, dass der Computer ihre Probleme lösen wird. Dieser Ansatz ist unbefriedigend, nicht nur, weil die Schwierigkeiten bei der Programmierung des Modells und die Kosten für die Verlängerung von Versuchsläufen zunehmen, sondern auch, weil wichtige Aspekte und Beziehungen können in einer Masse trivialer Details untergehen. Deshalb sollte das Modell nur die Aspekte des Systems abbilden, die den Zielen der Studie entsprechen.

    In vielen Studien kann die Simulation dort enden. In überraschend vielen Fällen werden durch genaue und konsistente Beschreibung von Situationen Mängel und Engpässe im System sichtbar, so dass die Notwendigkeit besteht, weiter zu forschen Simulationsmethoden verschwindet.

    Jede Studie umfasst auch die Erhebung von Daten, was normalerweise als die Erhebung einer Art von numerischen Merkmalen verstanden wird. Aber das ist nur eine Seite der Datenerhebung. Der Systemanalytiker sollte an den Eingabe- und Ausgabedaten des untersuchten Systems sowie an Informationen über die verschiedenen Komponenten des Systems, ihre gegenseitigen Abhängigkeiten und Beziehungen zwischen ihnen interessiert sein. Daher ist er daran interessiert, sowohl quantitative als auch qualitative Daten zu sammeln; er muss entscheiden, welche von ihnen benötigt werden, wie geeignet sie für die anstehende Aufgabe sind und wie all diese Informationen gesammelt werden.

    Bei der Erstellung eines stochastischen Simulationsmodells muss immer entschieden werden, ob das Modell direkt auf die verfügbaren empirischen Daten zurückgreifen soll oder ob es ratsam ist, Wahrscheinlichkeits- oder Häufigkeitsverteilungen zu verwenden. Diese Wahl ist aus drei Gründen von grundlegender Bedeutung. Erstens bedeutet die Verwendung roher empirischer Daten, dass wir, egal wie sehr wir uns auch bemühen, die Vergangenheit nur nachahmen können. Die Verwendung von Daten aus einem Jahr spiegelt die Leistung des Systems für dieses Jahr wider und sagt uns nicht unbedingt etwas über das erwartete Verhalten des Systems in der Zukunft aus. In diesem Fall werden nur bereits eingetretene Ereignisse als möglich angesehen. Es ist eine Sache, das anzunehmen gegebene Verteilung in seiner Grundform im Laufe der Zeit unverändert bleiben, und es ist eine ganz andere Sache, dies zu berücksichtigen Eigenschaften dieses Jahr wird es immer wieder geben. Zweitens ist im allgemeinen Fall die Verwendung theoretischer Häufigkeits- oder Wahrscheinlichkeitsverteilungen unter Berücksichtigung der Anforderungen an Computerzeit und Speicher effizienter als die Verwendung von Tabellendaten, um Zufallszahlen zu erhalten Variationsreihe benötigt, um mit dem Modell zu arbeiten. Drittens ist es höchst wünschenswert und vielleicht sogar zwingend erforderlich, dass der Analytiker-Entwickler des Modells seine Empfindlichkeit gegenüber Änderungen in Form der verwendeten Wahrscheinlichkeitsverteilungen und Parameterwerte bestimmt. Mit anderen Worten, es ist äußerst wichtig, das Modell auf die Empfindlichkeit der Endergebnisse gegenüber Änderungen der Ausgangsdaten zu testen. Entscheidungen über die Eignung von Daten zur Verwendung, ihre Zuverlässigkeit, Form der Darstellung, Grad der Übereinstimmung mit theoretischen Verteilungen und die bisherige Leistung des Systems haben daher alle einen großen Einfluss auf den Erfolg eines Simulationsexperiments und sind nicht das Ergebnis rein theoretischer Schlussfolgerungen.

    Die Modellvalidierung ist der Prozess, bei dem ein akzeptables Maß an Benutzervertrauen erreicht wird, dass alle aus der Simulation gezogenen Schlussfolgerungen über das Verhalten des Systems korrekt sind. Es ist unmöglich zu beweisen, dass eine bestimmte Simulation eine korrekte oder "wahre" Darstellung eines realen Systems ist. Glücklicherweise beschäftigen wir uns selten mit dem Problem, die „Wahrhaftigkeit“ des Modells zu beweisen. Stattdessen interessiert uns hauptsächlich die Gültigkeit jener tieferen Schlussfolgerungen, zu denen wir aufgrund von Simulationen gekommen sind oder kommen werden. Daher geht es uns normalerweise nicht um die Fairness der Struktur des Modells selbst, sondern um seine funktionale Nützlichkeit.

    Die Modellvalidierung ist ein äußerst wichtiger Schritt, da Simulationsmodelle den Eindruck der Realität vermitteln und sowohl Modellierer als auch ihre Benutzer leicht Vertrauen in sie gewinnen. Leider sind für einen zufälligen Beobachter und manchmal für einen in Modellierungsfragen erfahrenen Spezialisten die anfänglichen Annahmen, auf deren Grundlage dieses Modell erstellt wurde, verborgen. Daher kann eine nicht ordnungsgemäß durchgeführte Prüfung verheerende Folgen haben.


    Ähnliche Informationen.


    Bei der Simulationsmodellierung kann das Ergebnis nicht im Voraus berechnet oder vorhergesagt werden. Um das Verhalten eines komplexen Systems (elektrische Leistung, SES einer großen Produktionsanlage usw.) vorherzusagen, ist daher ein Experiment erforderlich, eine Simulation an einem Modell mit gegebenen Ausgangsdaten.

    Die Simulationsmodellierung komplexer Systeme wird zur Lösung der folgenden Probleme verwendet.

      Wenn keine vollständige Formulierung des Forschungsproblems vorliegt und der Erkenntnisprozess des Modellierungsgegenstands im Gange ist.

      Wenn analytische Methoden vorhanden sind, aber die mathematischen Verfahren so komplex und zeitaufwändig sind, dass die Simulationsmodellierung einen einfacheren Weg zur Lösung des Problems bietet.

      Wenn es neben der Parameterschätzung komplexer Systeme wünschenswert ist, das Verhalten ihrer Komponenten über einen bestimmten Zeitraum zu überwachen.

      Wenn die Simulation die einzige Möglichkeit ist, ein komplexes System zu untersuchen, da es unmöglich ist, Phänomene unter realen Bedingungen zu beobachten.

      Wenn es notwendig ist, den Ablauf von Prozessen in einem komplexen System zu steuern, indem Phänomene während der Simulation beschleunigt oder verlangsamt werden.

      Bei der Ausbildung von Fachkräften und der Entwicklung neuer Technologien.

      Wenn neue Situationen in komplexen Systemen untersucht werden, über die wenig oder nichts bekannt ist.

      Dann ist die Abfolge von Ereignissen in dem entworfenen komplexen System von besonderer Bedeutung, und das Modell wird verwendet, um die "Flaschenhälse" des Funktionierens des Systems vorherzusagen.

    Die Erstellung eines Simulationsmodells eines komplexen Systems beginnt mit einer Problemstellung. Doch oft formuliert der Kunde die Aufgabenstellung nicht klar genug. Daher beginnt die Arbeit in der Regel mit einer explorativen Untersuchung des Systems. Dadurch werden neue Informationen zu Einschränkungen, Herausforderungen und möglichen Alternativen generiert. Daraus ergeben sich folgende Schritte:

    Erstellung einer aussagekräftigen Beschreibung des Systems;

    Auswahl von Qualitätsindikatoren;

    Definition von Kontrollvariablen;

    Ausführliche Beschreibung der Betriebsarten.

    Grundlage der Simulationsmodellierung ist die Methode der statistischen Modellierung (Monte-Carlo-Methode). Dies ist eine numerische Methode zur Lösung mathematischer Probleme durch Modellierung von Zufallsvariablen. Als Geburtsdatum dieser Methode gilt das Jahr 1949. Ihre Schöpfer sind die amerikanischen Mathematiker L. Neumann und S. Ulam. Die ersten Artikel über die Monte-Carlo-Methode wurden 1955 in unserem Land veröffentlicht. Vor dem Aufkommen von Computern konnte diese Methode jedoch keine breite Anwendung finden, da die manuelle Simulation von Zufallsvariablen eine sehr mühsame Arbeit ist. Der Name der Methode stammt von der Stadt Monte Carlo im Fürstentum Monaco, die für ihre Spielbanken berühmt ist. Tatsache ist, dass eines der einfachsten mechanischen Geräte zum Erhalten von Zufallsvariablen ein Maßband ist.

    Betrachten Sie ein klassisches Beispiel. Sie müssen die Fläche einer beliebigen flachen Figur berechnen. Seine Grenze kann krummlinig sein, grafisch oder analytisch gegeben sein und aus mehreren Teilen bestehen. Dies sei die Figur von Abb. 3.20. Nehmen Sie an, dass sich die gesamte Figur innerhalb des Einheitsquadrats befindet. Wählen wir ein Quadrat
    zufällige Punkte. Bezeichne mit
    die Anzahl der Punkte, die in die Form fallen . Es ist geometrisch offensichtlich, dass die Fläche ungefähr gleich dem Verhältnis
    . Je mehr
    , desto größer ist die Genauigkeit der Schätzung.

    R ist.3.20. Beispielabbildung

    In unserem Beispiel
    ,
    (Innerhalb ). Von hier
    . Die wahre Fläche lässt sich leicht berechnen und beträgt 0,25.

    Die Monte-Carlo-Methode hat zwei Merkmale.

    Erste Funktion– Einfachheit des Rechenalgorithmus. Im Berechnungsprogramm muss vorgesehen werden, dass für die Implementierung eines zufälligen Ereignisses ein zufälliger Punkt ausgewählt und überprüft werden muss, ob er dazugehört . Dieser Test wird dann wiederholt.
    Zeiten, und jedes Experiment hängt nicht von den anderen ab, und die Ergebnisse aller Experimente werden gemittelt. Daher heißt die Methode - die Methode der statistischen Tests.

    Zweites Merkmal Methode: Der Berechnungsfehler ist in der Regel proportional

    ,

    wo
    ist eine Konstante;
    ist die Anzahl der Versuche.

    Diese Formel zeigt, dass Sie erhöhen müssen, um den Fehler um den Faktor 10 zu reduzieren (mit anderen Worten, um eine weitere korrekte Dezimalstelle in der Antwort zu erhalten).
    (Volumen der Tests) 100 mal.

    Kommentar. Die Berechnungsmethode ist nur gültig, wenn die Zufallspunkte nicht nur zufällig, sondern auch gleichverteilt sind.

    Die Verwendung von Simulationsmodellen (einschließlich der Monte-Carlo-Methode und ihrer Modifikationen) zur Berechnung der Zuverlässigkeit komplexer technischer Systeme basiert auf der Tatsache, dass der Prozess ihrer Funktionsweise durch ein mathematisches Wahrscheinlichkeitsmodell dargestellt wird, das alle Ereignisse (Ausfälle) in Echtzeit widerspiegelt , Wiederherstellung) im System auftreten .

    Mit Hilfe eines solchen Modells wird der Prozess der Systemfunktion wiederholt auf einem Computer simuliert und anhand der erhaltenen Ergebnisse die gewünschten statistischen Eigenschaften dieses Prozesses, die Indikatoren für die Zuverlässigkeit sind, bestimmt. Durch den Einsatz von Simulationsmethoden können abhängige Ausfälle, willkürliche Verteilungsgesetze von Zufallsvariablen und andere die Zuverlässigkeit beeinflussende Faktoren berücksichtigt werden.

    Diese Methoden liefern jedoch, wie alle anderen numerischen Methoden, nur eine bestimmte Lösung des Problems, die spezifischen (privaten) Anfangsdaten entspricht, und erlauben es nicht, Zuverlässigkeitsindikatoren als Funktion der Zeit zu erhalten. Um eine umfassende Zuverlässigkeitsanalyse durchführen zu können, ist es daher erforderlich, den Funktionsablauf des Systems immer wieder mit unterschiedlichen Ausgangsdaten zu simulieren.

    In unserem Fall sind dies zunächst ein anderer Aufbau des Bordnetzes, andere Werte der Ausfallwahrscheinlichkeiten und Dauer des störungsfreien Betriebs, die sich während des Betriebs des Systems ändern können, und andere Leistungsindikatoren .

    Der Funktionsprozess eines elektrischen Systems (oder einer elektrischen Installation) wird als Strom zufälliger Ereignisse dargestellt – Zustandsänderungen, die zu zufälligen Zeiten auftreten. Die Änderung der Zustände des EPS wird durch Ausfälle und Wiederherstellungen seiner konstituierenden Elemente verursacht.

    Betrachten Sie eine schematische Darstellung des Funktionierens des EPS, bestehend aus Elemente (Abb. 3.21), wobei folgende Bezeichnungen akzeptiert werden:

    -Moment Ablehnung -tes Element;

    -Moment Erholung -tes Element;

    – Betriebszeitintervall -tes Element nach
    te Genesung;

    – Dauer der Genesung -tes Element nach Ablehnung;

    ich-ten Stand der EPS im Moment .

    Mengen ,sind durch die Beziehungen miteinander verbunden:

    (3.20)

    Fehler und Wiederherstellung treten zu zufälligen Zeiten auf. Daher die Intervalle und können als Realisierungen kontinuierlicher Zufallsvariablen betrachtet werden: – Zeit zwischen Ausfällen, - Wiederherstellungszeit -tes Element.

    Strom von Ereignissen
    beschreibt die Momente ihres Auftretens
    .

    Die Modellierung des Funktionsprozesses besteht darin, die Momente der Änderung des Zustands der EPS gemäß den gegebenen Gesetzen der Verteilung der Betriebszeit zwischen Ausfällen und der Wiederherstellungszeit der Bestandteile im Zeitintervall zu modellieren T(zwischen PPR).

    Es gibt zwei mögliche Ansätze, um die Funktionsweise des EPS zu modellieren.

    Im ersten Ansatz zuerst für jeden -tes Element des Systems
    nach den gegebenen Gesetzmäßigkeiten der Verteilung der Betriebszeit zwischen Ausfällen und Wiederherstellungszeiten Zeitintervalle bestimmen
    und
    und berechnen Sie unter Verwendung der Formeln (3.20) die Momente seiner Ausfälle und Wiederherstellungen, die über den gesamten untersuchten Zeitraum auftreten können Funktionsweise des EPS. Danach ist es möglich, die Momente des Ausfalls und der Wiederherstellung von Elementen zu ordnen, die die Momente der Änderung in den Zuständen des EPS sind , in aufsteigender Reihenfolge, wie in Abbildung 3.21 gezeigt.

    R ist.3.21. EPS-Staaten

    Daran schließt sich eine Analyse der durch die Modellierung von A erhaltenen Zustände an ich Systeme für ihre Zugehörigkeit zum Bereich betriebsfähiger oder nicht betriebsfähiger Zustände. Bei diesem Ansatz ist es notwendig, alle Momente des Ausfalls und der Wiederherstellung aller Elemente des EPS im Computerspeicher aufzuzeichnen.

    Bequemer ist zweiter Ansatz, bei der für alle Elemente zunächst nur die Momente ihres ersten Versagens modelliert werden. Entsprechend dem Minimum von ihnen wird der erste Übergang des EPS in einen anderen Zustand gebildet (von EIN 0 bis A ich) und gleichzeitig wird geprüft, ob der empfangene Zustand in den Bereich betriebsfähiger oder nicht betriebsfähiger Zustände gehört.

    Dann wird der Moment der Wiederherstellung und des nächsten Ausfalls des Elements, das die Änderung des vorherigen Zustands der EPS verursacht hat, modelliert und behoben. Auch hier wird der kleinste der Zeitpunkte des ersten Versagens und dieses zweiten Versagens der Elemente ermittelt, der zweite Zustand der EPS gebildet und analysiert - usw.

    Ein solcher Ansatz zur Modellierung ist konsistenter mit dem Funktionieren eines realen EPS, da er die Berücksichtigung abhängiger Ereignisse ermöglicht. Beim ersten Ansatz wird zwangsläufig von der Unabhängigkeit der Funktionsweise der Elemente der EPS ausgegangen. Die Berechnungszeit von Zuverlässigkeitsindikatoren durch Simulation hängt von der Gesamtzahl der Experimente ab
    , die Anzahl der berücksichtigten Zustände des EES, die Anzahl der darin enthaltenen Elemente. Stellt sich also heraus, dass der erzeugte Zustand der Ausfallzustand der EPS ist, dann wird der Zeitpunkt des Ausfalls der EPS festgelegt und berechnet EPS-Betriebszeitintervall ab dem Zeitpunkt der Wiederherstellung nach dem vorherigen Ausfall. Die Analyse der gebildeten Zustände erfolgt über das gesamte betrachtete Zeitintervall T.

    Das Programm zur Berechnung von Zuverlässigkeitskennzahlen besteht aus dem Hauptteil und einzelnen logisch unabhängigen Unterprogrammblöcken. Im Hauptteil erfolgt entsprechend dem allgemeinen logischen Ablauf der Berechnung der Aufruf spezieller Unterprogramme, die Berechnung von Zuverlässigkeitskennzahlen nach bekannten Formeln und die Ausgabe der Berechnungsergebnisse zum Ausdrucken.

    Betrachten wir ein vereinfachtes Flussdiagramm, das den Arbeitsablauf zur Berechnung der Zuverlässigkeitsindikatoren des EPS mit der Simulationsmethode demonstriert (Abb. 3.22).

    Unterprogramme für spezielle Zwecke führen aus: Eingabe von Anfangsinformationen; Modellierung der Ausfallmomente und Wiederherstellung von Elementen gemäß den Verteilungsgesetzen ihrer Betriebszeit und Wiederherstellungszeit; Bestimmung der Mindestwerte der Ausfallmomente und Wiederherstellungsmomente von Elementen und Identifizierung der für diese Werte verantwortlichen Elemente; Modellierung des Funktionierens des EES auf dem Intervall und Analyse der gebildeten Zustände.

    Mit einem solchen Aufbau des Programms ist es möglich, ohne die allgemeine Logik des Programms zu beeinträchtigen, die notwendigen Änderungen und Ergänzungen vorzunehmen, die beispielsweise die Änderung der möglichen Verteilungsgesetze der Betriebszeit und der Erholungszeit von Elementen betreffen.

    R ist.3.22. Blockdiagramm des Algorithmus zur Berechnung von Zuverlässigkeitskennzahlen durch Simulation

    Simulation

    Simulationsmodellierung (Situationsmodellierung)- eine Methode, mit der Sie Modelle erstellen können, die die Prozesse so beschreiben, wie sie in der Realität ablaufen würden. Ein solches Modell kann zeitlich sowohl für einen Test als auch für einen gegebenen Satz davon "gespielt" werden. In diesem Fall werden die Ergebnisse durch die zufällige Natur der Prozesse bestimmt. Basierend auf diesen Daten kann man ziemlich stabile Statistiken erhalten.

    Simulationsmodellierung ist eine Forschungsmethode, bei der das untersuchte System durch ein Modell ersetzt wird, das das reale System hinreichend genau beschreibt, mit dem Experimente durchgeführt werden, um Informationen über dieses System zu erhalten. Das Experimentieren mit einem Modell wird Imitation genannt (Imitation ist das Verständnis des Wesens eines Phänomens, ohne auf Experimente an einem realen Objekt zurückzugreifen).

    Simulation ist besonderer Fall mathematische Modellierung . Es gibt eine Klasse von Objekten, für die aus verschiedenen Gründen keine analytischen Modelle entwickelt wurden oder für die keine Verfahren zum Lösen des resultierenden Modells entwickelt wurden. In diesem Fall wird das analytische Modell durch einen Simulator oder ein Simulationsmodell ersetzt.

    Simulationsmodellierung wird manchmal als Erhalten bestimmter numerischer Lösungen des formulierten Problems auf der Grundlage analytischer Lösungen oder unter Verwendung numerischer Methoden bezeichnet.

    Ein Simulationsmodell ist eine logische und mathematische Beschreibung eines Objekts, die für Experimente auf einem Computer verwendet werden kann, um die Funktionsweise eines Objekts zu entwerfen, zu analysieren und zu bewerten.

    Anwendung der Simulationsmodellierung

    Simulation wird verwendet, wenn:

    • es ist teuer oder unmöglich, an einem realen Objekt zu experimentieren;
    • Es ist unmöglich, ein analytisches Modell zu erstellen: Das System hat Zeit, kausale Beziehungen, Konsequenzen, Nichtlinearitäten, stochastische (zufällige) Variablen;
    • es ist notwendig, das Verhalten des Systems rechtzeitig zu simulieren.

    Der Zweck der Simulationsmodellierung besteht darin, das Verhalten des untersuchten Systems auf der Grundlage der Ergebnisse der Analyse der wichtigsten Beziehungen zwischen seinen Elementen zu reproduzieren, oder mit anderen Worten - die Entwicklung eines Simulators (engl. Simulationsmodellierung) des zu untersuchenden Fachgebiets zur Durchführung verschiedener Experimente.

    Mit der Simulationsmodellierung können Sie das Verhalten eines Systems über die Zeit simulieren. Der Vorteil ist außerdem, dass die Zeit im Modell kontrolliert werden kann: Verlangsamen bei schnellen Prozessen und Beschleunigen bei der Modellierung von Systemen mit langsamer Variabilität. Es ist möglich, das Verhalten jener Objekte nachzuahmen, mit denen reale Experimente teuer, unmöglich oder gefährlich sind. Mit dem Aufkommen der Ära persönliche Computer Die Herstellung komplexer und einzigartiger Produkte wird in der Regel von einer dreidimensionalen Computersimulation begleitet. Dies genau und relativ schnelle Technik ermöglicht es Ihnen, alle notwendigen Kenntnisse, Geräte und Halbfertigprodukte für ein zukünftiges Produkt vor Produktionsbeginn zu sammeln. 3D-Modellierung am Computer ist mittlerweile auch für kleine Unternehmen keine Seltenheit mehr.

    Imitation als Methode zur Lösung nicht trivialer Probleme wurde erstmals im Zusammenhang mit der Entwicklung von Computern in den 1950er und 1960er Jahren entwickelt.

    Es gibt zwei Arten der Nachahmung:

    • Monte-Carlo-Methode (Methode statistischer Tests);
    • Methode der Simulationsmodellierung (statistische Modellierung).

    Arten der Simulationsmodellierung

    Drei Simulationsansätze

    Ansätze zur Simulationsmodellierung auf der Skala der Abstraktion

    • Agentenbasierte Modellierung ist eine relativ neue (1990er-2000er) Richtung in der Simulationsmodellierung, die verwendet wird, um dezentrale Systeme zu untersuchen, deren Dynamik nicht durch globale Regeln und Gesetze (wie in anderen Modellierungsparadigmen) bestimmt wird, sondern umgekehrt. wenn diese globalen Regeln und Gesetze das Ergebnis der individuellen Aktivität von Gruppenmitgliedern sind. Der Zweck von Agentenmodellen besteht darin, sich ein Bild über diese globalen Regeln, das allgemeine Verhalten des Systems zu machen, basierend auf Annahmen über das individuelle, besondere Verhalten seiner einzelnen aktiven Objekte und die Interaktion dieser Objekte im System. Ein Agent ist eine bestimmte Entität, die Aktivität, autonomes Verhalten hat, Entscheidungen gemäß einem bestimmten Satz von Regeln treffen kann, mit der Umgebung interagieren und sich auch unabhängig ändern kann.
    • Die diskrete Ereignismodellierung ist ein Modellierungsansatz, der vorschlägt, von der kontinuierlichen Natur von Ereignissen zu abstrahieren und nur die Hauptereignisse des simulierten Systems zu berücksichtigen, wie z. Entladen" und andere. Die diskrete Ereignismodellierung ist am weitesten entwickelt und hat ein riesiges Anwendungsspektrum - von Logistik- und Warteschlangensystemen bis hin zu Transport- und Produktionssystemen. Diese Art der Modellierung ist für die Modellierung am besten geeignet Herstellungsprozesse. Gegründet von Jeffrey Gordon in den 1960er Jahren.
    • Systemdynamik ist ein Modellierungsparadigma, bei dem grafische Diagramme kausaler Beziehungen und globaler Einflüsse einiger Parameter auf andere im Laufe der Zeit für das untersuchte System konstruiert werden und dann das auf der Grundlage dieser Diagramme erstellte Modell auf einem Computer simuliert wird. Tatsächlich hilft diese Art der Modellierung mehr als alle anderen Paradigmen, die Essenz der fortlaufenden Identifizierung von Ursache-Wirkungs-Beziehungen zwischen Objekten und Phänomenen zu verstehen. Mit Hilfe der Systemdynamik werden Modelle von Geschäftsprozessen, Stadtentwicklung, Produktionsmodellen, Bevölkerungsdynamik, Ökologie und Seuchenentwicklung aufgebaut. Die Methode wurde in den 1950er Jahren von Jay Forrester begründet.

    Einsatzbereiche

    • Populationsdynamik
    • IT Infrastruktur
    • Mathematische Modellierung historischer Prozesse
    • Fußgängerdynamik
    • Markt und Wettbewerb
    • Servicezentren
    • Lieferketten
    • Verkehr
    • Gesundheitsökonomie

    Kostenlose Simulationssysteme

    siehe auch

    • Netzwerkmodellierung

    Anmerkungen

    Literatur

    • Hemdy A. Taha Kapitel 18// Einführung in das Operations Research = Operations Research: Eine Einführung. - 7. Aufl. - M.: "Williams", 2007. - S. 697-737. - ISBN 0-13-032374-8
    • Strogalev V. P., Tolkacheva I. O. Simulationsmodellierung. - MSTU im. Bauman, 2008. - S. 697-737. -ISBN 978-5-7038-3021-5

    Verknüpfungen

    • Computer- und statische Simulationsmodellierung auf Intuit.ru
    • Simulationsmodellierung in Problemen des technologischen Ingenieurwesens Makarov V. M., Lukina S. V., Lebed P. A.

    Wikimedia-Stiftung. 2010 .

    Sehen Sie in anderen Wörterbüchern, was "Simulationsmodellierung" ist:

      Simulationsmodellierung- (ITIL Continual Service Improvement) (ITIL Service Design) Eine Technik, die ein detailliertes Modell erstellt, um das Verhalten eines Konfigurationselements oder IT-Services vorherzusagen. Simulationsmodelle können mit sehr hoher Genauigkeit implementiert werden, aber dies ... ... Handbuch für technische Übersetzer

      Simulation- Simulationsmodellierung: Modellierung (Zeichen, Objekt) von technischen Objekten, basierend auf der Reproduktion der Prozesse, die ihre Existenz begleiten ... Quelle: INFORMATION UNTERSTÜTZUNG DER TECHNIK UND BEDIENUNGSTÄTIGKEIT. SPRACHE… … Offizielle Terminologie

      Simulation- siehe Maschinensimulation, Laborexperimente... Wirtschafts- und Mathematikwörterbuch

      Entwicklung, Konstruktion eines Modells eines Objekts für sein Studium Wörterbuch der Geschäftsbegriffe. Akademik.ru. 2001 ... Glossar der Geschäftsbegriffe

      Simulationsmodellierung- 3.9 Simulationsmodellierung: Modellierung (Zeichen, Subjekt) technischer Objekte, basierend auf der Reproduktion der Prozesse, die ihre Existenz begleiten. Eine Quelle … Wörterbuch-Nachschlagewerk von Begriffen der normativen und technischen Dokumentation

      SIMULATIONSMODELLIERUNG- (... aus dem französischen Beispiel modele) eine Methode zur Untersuchung beliebiger Phänomene und Prozesse durch die Methode statistischer Tests (Monte-Carlo-Methode) unter Verwendung eines Computers. Die Methode basiert auf dem Zeichnen (Nachahmen) des Einflusses zufälliger Faktoren auf das zu untersuchende Phänomen oder ... ... Enzyklopädisches Wörterbuch der Psychologie und Pädagogik

      Simulation- Dies ist eine Reproduktion nach dem Vorbild einer bestimmten realen Situation, deren Studium und letztendlich das Finden der meisten gute Entscheidung. Eigentlich besteht I. m. darin, ein mathematisches Modell eines realen Systems zu konstruieren und es aufzustellen ... ... Terminologisches Wörterbuch eines Bibliothekars zu sozioökonomischen Themen

      Dieser Artikel sollte wikifiziert werden. Bitte formatieren Sie es gemäß den Regeln für die Formatierung von Artikeln. Simulationsmodelle sind nicht mit einer analytischen Darstellung verbunden, sondern mit dem Prinzip der Nachahmung durch Informationen und Programme ... Wikipedia

      Monte-Carlo-Simulation- (Monte-Carlo-Methode) Eine analytische Methode zur Lösung eines Problems durch Durchführung einer großen Anzahl von Testoperationen, Simulation genannt, und Gewinnung der erforderlichen Lösung aus den kombinierten Testergebnissen. Rechenmethode ... ... Lexikon für Investitionen

    Simulationsmodellierung.

    Das Konzept eines Simulationsmodells.

    Ansätze zur Konstruktion von Simulationsmodellen.

    Gemäß der Definition des Akademikers V. Maslov: „Simulationsmodellierung besteht hauptsächlich in der Konstruktion eines mentalen Modells (Simulator), das Objekte und Prozesse (z. B. Maschinen und ihre Arbeit) gemäß den erforderlichen (aber unvollständigen) Indikatoren simuliert: z B. nach Arbeitszeit, Intensität, volkswirtschaftlichen Kosten, Standort im Laden etc. Es ist die Unvollständigkeit der Objektbeschreibung, die das Simulationsmodell grundlegend vom mathematischen im herkömmlichen Sinne unterscheidet. Dann wird im Dialog mit einem Computer eine große Anzahl möglicher Optionen gesucht und in einem bestimmten Zeitrahmen die aus Ingenieurssicht akzeptablen Lösungen ausgewählt. Gleichzeitig wird die Intuition und Erfahrung des entscheidenden Ingenieurs genutzt, der die schwierigsten Situationen in der Produktion in seiner Gesamtheit versteht.

    Bei der Untersuchung solch komplexer Objekte kann es vorkommen, dass die optimale Lösung im streng mathematischen Sinne überhaupt nicht gefunden wird. Aber Sie können in relativ kurzer Zeit eine akzeptable Lösung erhalten. Das Simulationsmodell enthält heuristische Elemente und verwendet manchmal ungenaue und widersprüchliche Informationen. Dies rückt die Simulation näher an wahres Leben und zugänglicher für Benutzer - Ingenieure in der Industrie. Im Dialog mit dem Computer erweitern Spezialisten ihre Erfahrungen, entwickeln Intuition und übertragen sie wiederum auf das Simulationsmodell.

    Bisher haben wir viel über kontinuierliche Objekte gesprochen, aber es ist nicht ungewöhnlich, mit Objekten zu arbeiten, die diskrete Eingangs- und Ausgangsvariablen haben. Als Beispiel für die Analyse des Verhaltens eines solchen Objekts anhand eines Simulationsmodells betrachten wir das mittlerweile klassische „Problem eines betrunkenen Passanten“ oder das Problem des Random Walk.

    Nehmen wir an, ein Passant, der an der Straßenecke steht, beschließt, einen Spaziergang zu machen, um den Hopfen zu zerstreuen. Die Wahrscheinlichkeiten, dass er, nachdem er die nächste Kreuzung erreicht hat, nach Norden, Süden, Osten oder Westen fahren wird, seien gleich. Wie groß ist die Wahrscheinlichkeit, dass ein Passant, nachdem er 10 Blocks zu Fuß gegangen ist, nicht mehr als zwei Blocks von der Stelle entfernt ist, an der er zu Fuß begonnen hat?

    Bezeichne seinen Ort an jeder Kreuzung durch einen zweidimensionalen Vektor

    (X1, X2) ("Ausgang"), wo

    Jede Bewegung um einen Block nach Osten entspricht einem Inkrement von X1 um 1, und jede Bewegung um einen Block nach Westen entspricht einer Verringerung von X1 um 1 (X1, X2 ist eine diskrete Variable). Wenn Sie einen Passanten einen Block nach Norden bewegen, erhöht sich X2 um 1 und einen Block nach Süden, X2 verringert sich um 1.

    Wenn wir nun die Anfangsposition als (0,0) bezeichnen, wissen wir genau, wo sich der Passant relativ zu dieser Anfangsposition befinden wird.

    Wenn am Ende des Spaziergangs die Summe der Absolutwerte von X1 und X2 größer als 2 ist, gehen wir davon aus, dass er am Ende des Spaziergangs von 10 Blöcken weiter als zwei Blöcke gegangen ist.

    Da die Wahrscheinlichkeit, dass sich unser Passant in jede der vier möglichen Richtungen bewegt, gleich ist und 0,25 (1:4=0,25) beträgt, können wir seine Bewegung anhand einer Zufallszahlentabelle abschätzen. Nehmen wir an, wenn die Zufallszahl (SN) zwischen 0 und 24 liegt, geht der Betrunkene nach Osten und wir erhöhen X1 um 1; wenn von 25 auf 49, dann wird es nach Westen gehen, und wir werden X1 um 1 verringern; wenn von 50 auf 74, wird er nach Norden gehen und wir werden X2 um 1 erhöhen; Wenn der mittlere Bereich zwischen 74 und 99 liegt, geht der Passant nach Süden, und wir verringern X2 um 1.

    Schema (a) und Algorithmus (b) der Bewegung eines "betrunkenen Passanten".

    a) b)

    Es ist notwendig, eine ausreichend große Anzahl von „Maschinenversuchen“ durchzuführen, um ein verlässliches Ergebnis zu erhalten. Aber es ist praktisch unmöglich, ein solches Problem mit anderen Methoden zu lösen.

    In der Literatur findet sich das Simulationsverfahren auch unter den Bezeichnungen digitales, maschinelles, statistisches, probabilistisches, dynamisches Modellierungs- oder maschinelles Simulationsverfahren.

    Das Simulationsverfahren kann als eine Art experimentelles Verfahren betrachtet werden. Der Unterschied zu einem herkömmlichen Experiment besteht darin, dass das Experimentobjekt ein als Computerprogramm implementiertes Simulationsmodell ist.

    Mit einem Simulationsmodell ist es unmöglich, analytische Beziehungen zwischen Größen zu erhalten.

    Es ist möglich, die experimentellen Daten auf bestimmte Weise zu verarbeiten und die passenden mathematischen Ausdrücke auszuwählen.

    Bei der Erstellung werden derzeit Simulationsmodelle verwendet zwei sich nähern: diskret und kontinuierlich.

    Die Wahl des Ansatzes wird weitgehend von den Eigenschaften des Objekts bestimmt - dem Original und der Art des Einflusses der äußeren Umgebung darauf.

    Nach dem Kotelnikov-Theorem kann jedoch ein kontinuierlicher Prozess der Zustandsänderung eines Objekts als eine Folge diskreter Zustände betrachtet werden und umgekehrt.

    Bei einem diskreten Ansatz zur Erstellung von Simulationsmodellen werden in der Regel abstrakte Systeme verwendet.

    Der kontinuierliche Ansatz zum Erstellen von Simulationsmodellen wurde von dem amerikanischen Wissenschaftler J. Forrester weit entwickelt. Das modellierte Objekt wird unabhängig von seiner Beschaffenheit als kontinuierliches abstraktes System formalisiert, zwischen dessen Elementen kontinuierliche "Ströme" der einen oder anderen Art zirkulieren.

    So können wir unter dem Simulationsmodell des ursprünglichen Objekts im allgemeinen Fall ein bestimmtes System verstehen, das aus separaten Subsystemen (Elementen, Komponenten) und Verbindungen zwischen ihnen (mit einer Struktur) und der Funktionsweise (Zustandsänderung) und intern besteht Die Änderung aller Elemente des Modells unter der Wirkung von Verbindungen kann auf die eine oder andere Weise algorithmisiert werden, ebenso wie die Interaktion des Systems mit der äußeren Umgebung.

    Nicht nur dank mathematischer Techniken, sondern auch dank der bekannten Fähigkeiten des Computers selbst können in der Simulationsmodellierung die Funktions- und Interaktionsprozesse verschiedener Elemente abstrakter Systeme algorithmisiert und reproduziert werden - diskret und kontinuierlich, probabilistisch und deterministisch, Erfüllung der Servicefunktion, Verspätungen usw.

    Ein in einer universellen Hochsprache geschriebenes Computerprogramm (zusammen mit Dienstprogrammen) fungiert in dieser Formulierung als Simulationsmodell eines Objekts.

    Der Akademiker NN Moiseev formulierte das Konzept der Simulationsmodellierung wie folgt: „Ein Simulationssystem ist eine Reihe von Modellen, die den Verlauf des untersuchten Prozesses simulieren, kombiniert mit einem speziellen System von Hilfsprogrammen und einer Informationsbasis, die es Ihnen ermöglicht, ganz einfach und Variantenberechnungen schnell umsetzen.“