Die Lösung des singulär gestörten Modellproblems
besitzt im allgemeinen eine Randschicht. Diese kann mit Hilfe anisotroper finiter Elemente aufgelöst werden.Desweiteren besitzt die Lösung in der Umgebung der Ecken des Gebiets im allgemeinen geometrische Singularitäten vom Typ . Diese werden durch Überlagerung einer weiteren lokalen Netzverfeinerung approximiert.
Im Vortrag wird eine Familie von Finite-Elemente-Netzen beschrieben, für die die optimale Approximationsfehlerordnung in der Energienorm gleichmäßig in bewiesen wurde. Dabei werden Ansatzfunktionen beliebig hohen (aber festen) Grades über den Dreiecks- oder Viereckselementen betrachtet. Da das Gebiet als beliebig polygonal vorausgesetzt wurde, kann kein orthogonales Netz zur Vereinfachung herangezogen werden.
Problemstellungen für reibungsfreie Strömungen zeichnen sich durch Lösungen mit einer extremen Bandbreite aktiver Längenskalen aus. Um für die relevanten Phänomene eine hinreichende Auflösung zu erreichen, ist eine lokale Verfeinerung der Gitter kaum zu umgehen. Verfahren auf unstrukturierten Gittern bieten grose geometrische Flexibilität; die Erfahrung auf nahezu allen existierenden Rechnerarchitekturen zeigt jedoch, das die indirekte Adressierung der Daten eine deutliche Reduktion der tatsächlichen Rechenleistung bedingt. Eine Alternative hierzu bieten blockstrukturierte Verfahren mit lokal regulärer Verfeinerung.
Wir stellen Untersuchungen von Verfahren auf der Basis regulärer blockstrukturierter Gitter vor. Diese Verfahren arbeiten mit verfeinerten Blöcken, deren Auswahl auf Fehlerschätzung mittels Extrapolation beruht. Sie bieten die Möglichkeit des konsekutiven Datenzugriffs und damit die volle Nutzung der Geschwindigkeitsvorteile von Rechnern mit hierarchisch ausgelegtem Speicher. Darüber hinaus ermöglicht der blockstrukturierte Ansatz einfache Parallelisierungs- und Lastausgleichsstrategien sowohl auf Rechnern mit lokalem als auch mit verteiltem Speicher.
Der Trend in der Softwareentwicklung für die Lösung von partiellen Differentialgleichungen geht klar in die Richtung objektorientierter und adaptiver Techniken. Dabei stehen die verwendeten Daten- und Löserstrukturen jedoch im Gegensatz zu modernen Hardwarearchitekturen. Aus diesem Grund sind die in realen Codes erzielten Effizienzraten weit entfernt von der tatsächlichen Spitzenleistung der Prozessoren. Dies führt dazu, daß die Laufzeiten für ,,Real World'' Anwendungen, insbesondere im 3D-Fall, immer noch unzumutbar hoch sind. ,,High Performance'' kann zur Zeit nur erreicht werden, indem Techniken benutzt werden, die mehr datenlokal, cache-intensiv und unter Ausnutzung der internen Vektorisierung arbeiten. Um die Gesamtleistung zu steigern, reicht es jedoch nicht aus, nur die implementationstechnische Seite zu betrachten, ebenso sind Verbesserungen der Algorithmik notwendig.
Einige dieser Ziele hoffen wir mit unserem neuen Softwaretool FEAST - Finite Element Analysis & Solution Tools - zu erreichen, das sich im Moment in der Entwicklung befindet.
Im Vortrag wollen wir die grundlegenden Ideen und die Struktur des Paketes vorstellen. Dabei werden wir auf High-Performance-Aspekte eingehen, indem wir die tatsächliche Maschineneffizienz verschiedener numerischer Grundbausteine (Matrix/Vektor-Operationen, Vorkonditionierer, etc.) für verschiedene Implementationstechniken vergleichen. Weiterhin werden wir auf der algorithmischen Seite die dem Paket zugrundeliegende Löserstrategie ScaRC (Scalable Recursive Clustering), einen generalisierten Mehrgitter/Domain Decomposition-Ansatz, erläutern.
Abschließend werden wir die Realisierung des Pre- und Postprocessing für das neue Paket besprechen. Dieses soll in Form eines in Java implementierten Tools mit Namen DeViSoR realisiert werden. Aufbau und Funktionalität dieses Tools werden im Vortrag dargestellt.
Vorgestellt wird ein gitterorientiertes Konzept für die parallele Formulierung von Algorithmen zur Lösung partieller Differentialgleichungen. Ausgehend von der Grundidee überlappender Gitterpartitionierung entwickeln wir eine einfache Terminologie, die eine Beschreibung der Überlappungsstruktur auf einem hohen Niveau erlaubt. Darauf aufbauend, wird eine Softwareschicht zwischen die Anwendung und einer low-level Kommunikationsbibliothek gelegt, welche die Einzelheiten der Kommunikation kapselt und in gebündelter Form der numerischen Applikation zur Verfügung stellt. Diese wird dadurch weitgehend von den komplexen Details der Verwaltung verteilter Daten abgeschirmt und kann die notwendigen Kommunikationsmuster mit Hilfe mächtiger Primitive in einfacher Weise spezifizieren und auslösen.
Ein zentrales Merkmal der Herangehensweise ist eine abstrakte Sichtweise auf Gitter- und Geometriekomponenten, die über Iteratoren und Gitterfunktionen eine einheitliche Schnittstelle gewährleistet. Dies ist Grundlage für eine generische Implementierung von Algorithmen und abgeleiteten Datenstrukturen, insbesondere der oben erwähnten Kommunikationschicht, die dadurch einerseits vom zugrundeliegenden Kommunikationsmechanismus abstrahieren kann und andererseits weitestgehend unabhängig von Parametern wie dem numerischen Verfahren und der Dimension ist.
Derzeit wird auf Basis von MPI ein Prototyp implementiert, der die beschriebenen Konzepte für verschiedene Gittertypen umsetzt.
Die Parallelisierung von FE-Codes folgt in der Regel dem SPMD-Paradigma: Auf jedem Prozessor arbeitet das gleiche Programm, allerdings auf unterschiedlichen Daten. Eine gleichm"aßige Partitionierung des Netzes sorgt dafür, daß alle Prozessoren immer gleichviel Arbeit haben und die Effizienz der Parallelisierung hoch ist. Verändert sich die Geometriediskretisierung problemabhängig, so ist eine gleichmäßige Auslastung der Prozessoren nicht mehr gewährleistet und die Partitionierung muß der veränderten Situation angepaßt werden. Dies kann zum einen dadurch geschehen, dass das Netz neu zerteilt und auf die Prozessoren zugewiesen wird. Die Skalierungsprobleme dieser (häufig verwendeten) Variante sind offensichtlich. Es kann aber auch eine Lastverteilung durch leichtes Verschieben der Grenzen zwischen Partitionen erfolgen.
Der Vortrag stellt Methoden vor, wie solch eine Grenzverschiebung dezentral und ohne globale Kontrolle bestimmt werden kann. Die dabei verwendeten Diffusionsverfahren bestimmen eine Menge von zu verschiebenden Elementen, die bezüglich der euklidischen Norm mimimal ist. Die konkrete Auswahl von Elementen, die zwischen Teilgebieten bewegt werden, versucht, die Form der Gebiete (ihren Aspect Ratio) zu verbessern, oder zumindest minimal zu verschlechtern. Das letztere ist speziell dann von Bedeutung, wenn Vorkonditionierer auf Basis der Gebietszerlegung konstruiert werden sollen.
Das C-Programmpaket KARDOS behandelt nichtlineare partielle Differentialgleichungen vom elliptisch/parabolischen Typ in 1, 2 und 3 Raumdimensionen. Die zeitliche Diskretisierung basiert auf einem Rosenbrock-Verfahren der Ordnung 3, während im Raum eine adaptive Finite-Elemente-Methode genutzt wird. Der Algorithmus hat sich in zahlreichen Anwendungsproblemen bewährt. Insbesondere bei der Behandlung von dreidimensionalen Aufgaben oder in Systemen mit einer großen Anzahl von Spezies werden jedoch vielfach so hohe Speicherplatzanforderungen gestellt, daß die verfügbaren Ressourcen einer Workstation nicht mehr ausreichen, die Gleichungen genügend genau zu rechnen.
Zunächst wird für zweidimensionale Probleme gezeigt, wie durch die Parallelisierung diese Komplexitätsgrenze überwunden werden kann.
Die Parallelisierung nutzt die Dynamic-Distributed-Data-Bibliothek (DDD) von Klaus Birken und den Industriestandard MPI (Message-Passing-Interface). Die auftretenden Gitter werden auf die Prozessoren verteilt und Rechnungen dort lokal ausgeführt. An den Prozessorrändern liegende Daten werden ausgetauscht. Auf diese Weise lassen sich die sequentiellen Algorithmen für den räumlichen Fehlerschätzer und verschiedene Iterationsverfahren zur Lösung linearer Gleichungssysteme den parallelen Erfordernissen anpassen.
Einige Zugänge zur a posteriori Fehleranalysis der Finiten Elemente Methode (FEM) bauen auf der Regularität der exakten Lösung oder Saturationseigenschaften des numerischen Verfahrens auf. Für grobe Gitter - welche z.B. typisch für die h-p Version sind - ist es schwierig solche asymptotischen Argumente zu erzielen, um scharfe Fehlerschranken zu erhalten. In dem Vortrag sollen zuverlässige und berechenbare Fehlerschranken vorgestellt werden, welche effizient und vollständig sind in dem Sinne, daß zugehörige Konstanten entsprechend abgeschätzt werden können. Das Hauptargument ist die Lokalisierung über eine Zerlegung der Eins. Diese Zerlegung führt zu Problemen auf kleinen Gebieten. Zwei zuverlässige Abschätzungen werden hergeleitet. Die schärfere Abschätzung löst ein analytisches Randwertproblem mit Residuen. Dabei folgen wir der Idee von Babuska and Rheinboldt. Die zweite Abschätzung liefert eine Modifikation der standard, residuenbasierten a posteriori Abschätzung mit expliziten Konstanten, welche über lokale analytische Eigenwertprobleme bestimmt werden. Der Schwerpunkt liegt dabei auf der Effizienz der berechneten Fehlerschranke, welche kontrolliert werden kann. Für Klassen von Triangulierungen und die h-Version zeigen wir, daß die Effizienzkonstante kleiner als 2.5 ist und bei der h-p-Version nur schwach wächst.
Numerische Beispiele unterstreichen und illustrieren die theoretischen Ergebnisse.
Reaktive Strömungen sind durch stark unterschiedliche Orts- und Zeitskalen gekennzeichnet. Ihre numerische Auflösung erfordert zum Einen die zeitliche Integration großer, oft steifer Systeme von Erhaltungsgleichungen und zum Anderen ist im Raum lokale Gitterverfeinerung notwendig, um mit machbarem Aufwand ausreichende räumliche Genauigkeit zu erzielen.
Zu dieser Thematik werden einige Ansätze vorgestellt, die z.Z. bei uns in Entwicklung bzw. in Anwendung sind. Beispiele hierzu sind:
Bei vielen physikalischen Problemen, deren numerische Simulation von großem praktischen Interesse ist, treten Strömungen mit freier Oberfläche auf. So ist z.B. beim Züchten von Siliziumkristallen nach dem Floating-Zone Verfahren die durch Temperaturgradienten an der freien Oberfläche der Halbleiterschmelze induzierte Marangonikonvektion die wesentliche Ursache für Inhomogenitäten im wachsenden Kristall.
Ein bei der Simulation der Transportvorgänge in einer solchen Schmelze auftretendes Teilproblem ist die Lösung der Navier-Stokes Gleichungen mit Slip-Randbedingung. Für eine Finite Elemente Approximation dieser Randbedingung, die auf einer Sattelpunkt-Formulierung beruht, werden effiziente numerische Verfahren vorgestellt. Diese basieren auf einem Schurkomplement-Ansatz, wobei zur Lösung der auftretenden, positiv definiten Probleme CG-Verfahren zum Einsatz kommen. Um Konvergenz unabhängig von der Gitterweite zu erzielen, wurden Techniken zur Vorkonditionierung entwickelt.
Anhand von Beispielen wird die Effizienz der präsentierten Methoden dokumentiert. Weiterhin wird gezeigt, wie sich diese Techniken bei fiktiven Gebietsmethoden anwenden lassen, bei denen Dirichlet-Randbedingungen als Nebenbedingungen betrachtet werden und dann ähnliche Sattelpunktprobleme zu lösen sind.
We consider the computation of an electric potential and a magnetic vector potential as the solution of a coupled system of PDEs that can be derived from Maxwell's equations. In particular, for discretization in space we use Nédélec's curl-conforming edge elements with respect to simplicial or hexahedral triangulations of the computational domain. Emphasis is laid on the efficient solution of the discretized problem by a multiplicative multilevel Schwarz iteration and an adaptive local grid adaptation relying on a residual based a posteriori error estimator. Illustrative numerical results are given.
We also address adaptive mortar edge element methods based on a macro-hybrid variational formulation with respect to a nonoverlapping geometrically conforming decomposition of the computational domain.
This contribution is partly based on joint work with R. Beck, P. Deuflhard, R. Hiptmair, and B. Wohlmuth.
Gekoppelte Mehrgitterverfahren und Druck-Schur-Komplement Methoden sind zwei weit verbreitete Klassen von Lösern für Sattelpunktprobleme, die bei der Diskretisierung und Linearisierung der inkompressiblen Navier-Stokes Gleichungen entstehen. Der Vortrag präsentiert eine vergleichende Studie einiger Vertreter dieser Klassen an Hand von DFG-Benchmark Problemen, wobei die numerischen Tests auf einem MIMD-Parallelcomputer durchgeführt wurden. Es stellte sich heraus, daß die gekoppelten Mehrgitterverfahren bei allen Tests den Druck-Schur-Komplement Methoden deutlich überlegen waren. Für die Lösung der stationären Navier-Stokes Gleichungen zeigten gekoppelte Mehrgitterverfahren mit Vanka-Glättern das beste Verhalten während für die instationären Navier-Stokes Gleichungen gekoppelte Mehrgitterverfahren mit Braess-Sarazin Glättern die schnellsten Löser waren.
Generating a mesh in three space dimensions is a time consuming and difficult problem. Especially, sophisticated geometries with small details often cause serious troubles. An algorithm suited for that class of problems will be presented. Based on a multi-element local refinement algorithm the geometry will be resolved by fitting the mesh to the boundary.
In fluid dynamics there are additional special requirements such as near boundary layers or moving walls to be treated. Also the problem concerning thegeometry description will be discussed.
Many physical problems lead to boundary value problems for partial differential equations, which can be solved with the finite element method. In order to construct adaptive solution algorithms or to measure the error one aims at reliable a posteriori error estimators. Many such estimators are known, as well as their theoretical foundation.
Some boundary value problems yield so-called anisotropic solutions (e.g. with boundary layers). Then anisotropic finite element meshes can be advantageous. However, the common error estimators for isotropic meshes fail when applied to anisotropic meshes, or they were not investigated yet.
For rectangular or cuboidal anisotropic meshes a modified error estimator had already been derived. In our talk error estimators for anisotropic tetrahedral or triangular meshes are considered. Such meshes offer a greater geometrical flexibility.
For the Poisson equation we present a residual error estimator, an estimator based on a local problem, several Zienkiewicz-Zhu estimators, and an L2 error estimator, respectively. For a singularly perturbed reaction-diffusion equation a residual error estimator is given as well. Numerical examples demonstrate that reliable and efficient error estimation is possible on anisotropic meshes.
The analysis basically relies on two important tools, namely anisotropic interpolation error estimates and the so-called bubble functions. Moreover, the correspondence of an anisotropic mesh with an anisotropic solution plays a vital role.
High level parallelization based on the message passing paradigm is a long term effort. Since the amount of 'parallelization' work is not acceptable for only one specific partial differential equation (pde) - especially in threee space dimensions, a more general approach is needed, which covers several classes of pdes using proper abstractions.
In 1995 we started a project to fit those aims of a parallel code such as
The current state of the parallel UG code is not fully complete up to now, but the basic tool chain necessary for parallel adaptive runs is finished.
This includes load balancing, load migration and parallel grid adaption. These aspects are discussed in detail, since they build the algorithmic kernel of each parallel adaptive code.
Parallel grid adaption consists of both refinement and coarsening of elements. Different element types may be mixed up in an unstructured multigrid, to allow for an adequate representation of domains with complex geometry. Grid adaption always assures a conforming mesh in O(n) time.
The task of load migration turned out to be one of the most complex parts of the parallel code. We emphazise on the different stages of the load migration process and present DDD (Dynamic Distributed Data) as a fundamental tool, which strongly supports this code part.
Furthermore the load balancing problem is discussed in the multigrid context. Several strategies to meet the concurrent aims in the case of instationary problems are compared.
Concluding we show some results which are computed with the latest release of our parallel UG code.
We describe a finite element implementation for solving the steady-state Navier-Stokes equations for a turbulent incompressible fluid using the model. The spatial discretization is based on a stabilized Galerkin method using equal order interpolation for velocity, pressure, the turbulent kinetic energy k and the rate of turbulent energy dissipation.
The iterative strategy consists of several nested loops starting with the linearization of the Navier-Stokes equations. For the arising linearized subproblems of Oseen resp. advection-diffusion-reaction type we apply a nonoverlapping domain decomposition technique. The DD method is based on properly chosen interface conditions of Robin type. (Some aspects of the mathematical foundation of this method for scalar elliptic problems will be discussed in separate lecture by F.-C. Otto.)
Numerical experiments for standard benchmark problems from room-air flow simulations indicate the applicability of the approach.
Die Analyse praktischer Aufgaben mit Bezug zur Strömungsmechanik zeigt, daß die Erfassung der wesentlichen physikalischen Einflüsse meist ein relativ komplexes Modell zur Simulation von gekoppelten Strömungs- und Transportvorgängen erfordert. Eine adäquate numerische Simulation schafft häufig erst die Voraussetzung für weitergehende interdisziplinäre Untersuchungen. Möchte man sich diesem Anspruch nähern, ist die zielstrebige Entwicklung entsprechender Simulationsprogamme unerläßlich. Hierbei fließen Ergebnisse des Pre- und Postprocessings, der Netzgenerierung, der numerischen Aufbereitung und Lösung der Feldgleichungen zusammen mit Überlegungen zur Modellbildung und informatischen Aspekten.
Der Vortrag zeigt zunächst auf,
welche Wege bei der Entwicklung eines (parallelen) FE - Programmsystemes
zur Simulation von Strömungs- und Transportvorgängen beschritten wurden.
Es wird über einige Probleme bei den Realisierungen im 3D - Bereich berichtet.
Im Mittelpunkt stehen hierbei Aspekte der Effizienz der iterativen Lösung und
Vorkonditionierung für die diskreten Systeme.
Schließlich wird eine Erweiterung der für inkompressible Vorgänge entwickelten Algorithmen auf kompressible Aufgaben mit kleinen Machzahlen diskutiert und erste numerische Ergebnisse präsentiert.
We consider a non-overlapping domain decomposition method with transmission conditions of Robin type in the case of the model problem
We show using this sample problem how an a posteriori error estimate for the decomposition method can be derived. This estimate bounds the errors inside the subdomains by an expression measuring how good the subdomain solutions match at the interfaces.It can be used as accuracy criterion within an implemention.
There exists an result ensuring convergence of the domain decomposition method for a class of interface conditions without saying a priori which is the best choice. The a posteriori analysis, however, turned out to be a simple tool for the construction of good interface conditions.
The result extend to a discretization of the algorithm by finite elements. Numerical examples confirm the predictions derived from the a posteriori estimate.
In the discrete case the result gives a bound for the difference of local finite element solutions coming from the domain decomposition algorithm and a global finite element solution. The latter one is usually not available.
Using the known a posteriori analysis for finite element methods, our estimate can be modified to bound the actual error by computable expressions.
This technique can at least partly extended to other problems: advection-diffusion equations, Stokes or linearized Navier-Stokes equations.
Es wird das Problem der stationären Strömung eines inkompressiblen viskoelastischen Fluides vom Oldroyd-B Typ betrachtet. Diese Aufgabe führt auf ein nichtlineares Problem mit elliptisch-hyperbolischen Gleichungen, das für größere Werte des Parameters (Weißenbergzahl), der die Elastizität der Flüssigkeit charakterisiert, bisher keine FEM-Lösungen gestattet. Netzverfeinerungen führten nicht zum Ziel.
Um die Ursachen dafür aufzudecken, wurde das Lösungsverhalten einer FEM für analytisch bekannte Lösungen untersucht.
Als Schlüssel erweist sich dabei das Verhalten der Jacobi-Matrix, die bei gewissen -Werten singulär wird. Dies entspricht auf der Lösungskurve Bifurkations- und Faltungspunkten, die nur mit entsprechenden Fortsetzungsverfahren überwunden werden können.
Das exzessive Ansteigen der Fehler und das Auftreten von ``falschen'' Singularitäten auf der Lösungskurve können bisher nur unzureichend erklärt werden.
Singular perturbation problems cannot be solved numerically in a completely satisfactory manner by standard numerical methods. Nevertheless today well-developed techniques are available for the computation of solutions outside layers. But the problem of resolving layers-which is of great practical importance-is still not solved satisfactorily. This field has witnessed a stormy development in the last years. One of the most promising strategies is the construction of layer adapted grids to handle boundary and interior layers.
In this paper we shall discuss convection-dominated convection-diffusion problems of the type
equipped with corresponding boundary conditions such that as well exponential and parabolic boundary layers as interior layers can occur. We investigate with respect to the perturbation parameter uniformly stable discretization methods on layer adapted meshes.The definition of a correctly chosen mesh requires precise information on the behaviour of derivatives of the exact solution of the problem near layers. In some cases it is possible to derive the necessary information from asymptotic decompositions of the solution.
There are several families of adapted computational meshes: those introduced by Bakhvalov (see [3]), Shishkin-meshes [2] and G-type meshes [1], for instance. We shall present some new convergence results and numerical experiments to compare several approaches used.
Untersuchungen der Finite-Elemente-Methode für hohe Polynomgrade (p-version) haben in den letzten Jahren gezeigt, daß sie der klassischen h-Version in zahlreichen Belangen von praktischer Bedeutung überlegen sind. Insbesondere bei der Kopplung des Finite-Element-Modells mit dem Strukturmodell eines ingenieurspezifischen CAD-Programms werden Vorteile erkennbar. Es werden Ergebnisse aus einem Forschungsprojekt vorgestellt, in dessen Rahmen ein paralleles Finite-Element-Programm mit Ansätzen höherer Ordnung als ein Teilprozess im CAD-gestützen Entwurfs-/Konstruktionsprozess implementiert wurde.
Typischerweise kann eine FEM-Berechnung in mehrere Subprozesse unterschiedlichen Zeitaufwands gegliedert werden:
Anhand von Parameterstudien (Variation des Polynomgrads und der Anzahl der Subdomains/Prozessoren) auf einem Workstationcluster für praxisnahe Reissner-Mindlin-Plattenprobleme wird die Effizienz des implementierten Algorithmus dokumentiert.
Es wird ein Weg vorgestellt, wie nichtkonforme Finite Elemente höherer Ordnung zur Approximation der Navier-Stokes Gleichungen systematisch konstruiert werden können mit der Eigenschaft, daß jeder Freiheitsgrad entweder zum Elementinneren oder zum Inneren einer Elementseite gehört. Diese Eigenschaft wirkt sich vorteilhaft bei der Parallelisierung der entsprechenden Finite Elemente Methode aus. Insbesondere im dreidimensionalen Fall wird dadurch die lokale Kommunikation beträchtlich vereinfacht.
Die Konstruktion entsprechender Finite Elemente Paare für Geschwindigkeit und Druck sichert automatisch, daß die diskrete Babuska-Brezzi Bedingung gleichmäßig bezüglich der Gitterweite h erfüllt ist.
Zur Lösung der entstehenden algebraischen Gleichungssysteme wird ein effizientes Mehrgitterverfahren vorgeschlagen. Numerische Testbeispiele für das stationäre inkompressible Stokes- und Navier-Stokes Modell zeigen, daß im Fall einer glatten Lösung die konstruierten Elemente höherer Ordnung wesentlich effizienter als bekannte Elemente niederer Ordnung sind.
Der Vortrag soll aufzeigen, wie durch objektorientierte Methoden in Entwurf und Implementierung numerischer Simulationssoftware eine Option auf Verteilung und Parallelisierung auf natürliche Art entsteht. Selbst für Verfahren mit adaptiver Gitterweitenanpassung, die häufig rekursive Ausführungssituationen und uneinheitliche Datenzugriffe bedingen, kann die Fähigkeit zur verteilten Datenhaltung bereits im Entwurf des seriellen Programmteils begründet werden.
Konkret werden am Beispiel eines parallelen Verfahrens zur Simulation kompressibler Strömungen in 3D die wesentlichen Strukturen der enthaltenen adaptiven parallelen Gitterverwaltung mit dynamischer Lastverteilung dargestellt. Weiterhin soll deutlich gemacht werden, wo überall auf Standardentwurfsmuster und Standardbibliotheken zurückgegriffen werden kann, um die Implementierungsphase auf wenige Monate zu verkürzen und sich darüberhinaus die Möglichkeit zu Experimenten im Entwurf zu eröffnen.
Single crystals of (Cd,Zn)Te are an excellent substrate material for epitaxial growth of (Hg,Cd)Te layers, which are used as detector material for infrared radiation. Such (Cd,Zn)Te crystals are usually grown by the vertical Bridgman method. In the industrial production of infrared detectors a significant dependence of the efficiency of the manufactured detectors on the quality of the substrate material is observed. Therefore an investigation of the growth conditions for the substrate material becomes necessary to optimize the production process. One of the key parameters, which determine the quality of the grown crystals, is the shape of the phase boundary and the temperature distribution in its vicinity. To determine this temperatures, numerical simulations are a feasible way to overcome the technical problems in the direct measurement. The simulations are performed in a two step process. At first the heat transport in the furnace is calculated with the commercial finite element package FIDAP. The obtained temperatures are then used as boundary conditions for the calculation of convection and their influence on the temperature field in the melt. The use of adaptive finite element methods allows an effective numerical simulation of the moving phase boundary, the convection in the melt and the temperature distribution in melt and crystal.
In the (Cd,Zn)Te production process under focus, a typical Bridgman growth configuration is used. The diameter of the growth ampoule is 65 mm, the length of the grown crystals is typically around 125 mm. The crystal growth configuration consists of two ten-zone furnaces separated by an adiabatic zone. Every zone of each furnace is kept at a constant temperature value of 1140C and 840C respectively. The temperature distribution in the growth furnace is calculated similar to by a 2D axially symmetric finite element model.
Here, we want to investigate the influence of convection
on the moving phase boundary in the ampoule where the results from
the temperature simulations are used as boundary conditions.
Using the Boussinesq approximation, the moving phase boundary and
convection in the ampoule are modeled by the following system of
equations
We use a finite element discretization of the above system. It consists of a solver for the Stefan problem with a given convection velocity, and solver for the Navier-Stokes problem with given temperature and interface. Both are combined in an adaptive finite element algorithm for the solution of the coupled system. The underlying finite element meshes are adapted to the solution in each time step using information from a posteriori error estimators for degenerate parabolic problems and for the Navier-Stokes equations.
The Stefan problem is solved in both solid and liquid phases and determines the interface position. The nonlinear discrete equations are solved by a nonlinear iterative SOR solver. The Navier-Stokes equations apply only in the liquid phase, with no-slip boundary conditions on the interface. In order to avoid a moving mesh for the velocity and pressure, we use a fictitious domain method; here the Navier-Stokes equations are solved on the whole domain, and the boundary condition on the interface is prescribed by a constraint using a Lagrange multiplier. The pressure plays the same role in the non-compressibility condition. A fractional time stepping scheme is used for time discretization of the Navier-Stokes equation. This decouples the nonlinearity from the constraints: In each time step, we solve two linear saddle point problems for the constrained equations and one nonlinear problem without constraints. Both solvers are implemented in the adaptive finite element toolbox ALBERT. Results for 2d and 2d axially-symmetric simulations are presented.
Die chromatographischen Trennverfahren zählen zu den wichtigsten Methoden der analytischen Chemie, die Haupteinsatzgebiete liegen in der pharmazeutischen Industrie, in der Biotechnologie und bei der Erzeugung von Feinchemikalien. Bei der annularen Chromatographie erfolgt die Trennung der Komponenten eines Gemisches durch Verteilung zwischen einer stationären und einer mobilen Phase, dabei werden die Komponenten wegen ihrer unterschiedlichen Affinität in einem Ringspalt voneinander getrennt.
Der im Apparat ablaufende Prozeß läßt sich auf der Grundlage der Stoffbilanz durch ein System von nichtlinearen Konvektions-Diffusions-Gleichungen beschreiben:
wobei die einzelnen Bilanzgleichungen durch die Nichtlinearität der Adsorptionsisotherme gekoppelt sind: Die numerische Simulation soll den Einfluß der verschiedenen Terme des Modells studieren.Das nichtlineare Problem wird in einer äußeren Iteration gelöst:
In der inneren Iteration werden die einzelnen voneinander unabhängigen Lösungen der linearen Konvektions-Diffusions-Probleme mittels einer Stromlinien-Diffusions-Methode berechnet: Auf Grund der auftretenden kleinen Dispersionskoeffizienten Dax und Dtan ist das Problem singulär gestört und spezielle stabilisierende Diskretisierungsmethoden sind notwendig.Sowohl die a-priori Auswahl eines speziellen Gitters als auch a-posteriori Fehlerschätzer werden betrachtet und verglichen.
Wir stellen zunächst einen abstrakten Rahmen vor, der es erlaubt, a posteriori Fehlerschätzer für nichtlineare Probleme herzuleiten. Anschließend wenden wir die allgemeinen Ergebnisse auf Finite Element Diskretisierungen quasilinearer elliptischer und parabolischer Differentialgleichungen an. Wir ehalten residuelle Fehlerschätzer für W1,p- und Lp-Normen des Fehlers. Ebenso können wir mittels der abstrakten Ergebnisse Fehlerschätzer à la Babuska-Rheinboldt behandeln, die auf der Lösung diskreter, lokaler, linearer Dirichlet-Probleme beruhen.
Problematisch bei der Lösung elliptischer partieller Differentialgleichungen mit Hilfe von finiten Differenzen und iterativen Verfahren ist die Verschlechterung der Kondition der Steifigkeitsmatrizen mit der Anzahl der Gitterpunkte. Ein in diesem Hinblick optimales Verfahren ist der BPX-Vorkonditionierer zusammen mit einem Krylov-Raum-Verfahren, wie z.B. CG. Beschleunigungen solcher Multilevel-Löser sind erreichbar durch Parallelisierung und Adaptivität. Die Kombination beider Methoden ist jedoch bisher nicht befriedigend gelöst gewesen. Ziel der Forschung war es, Multilevel-Löser mit Parallelisierung und Adaptivität zu verbinden. Dies gelingt mit dem Konzept der raumfüllenden Kurven. Damit wird ein mehrdimensionales Problem auf ein 1D Problem zurückgeführt, in dem die (dynamische) Lastbalanzierung trivial ist. Darüberhinaus werden anstelle von Bäumen zur Datenspeicherung Hashtabellen eingesetzt, die i.A. einen Zugriff in O(1) erlauben und weniger Speicher beanspruchen. Numerische Ergebnisse untermauern die Effizienz des Verfahrens.