Ahlbrecht, Peter
|
Technische Universität Braunschweig
|
Datenabgleich durch mobile Agenten: Spezifikation und Implementierung
|
Mobile Agenten stellen eine Möglichkeit dar, Daten in heterogenen Datenhaltungssystemen, d. h. Datenbanksystemen und dateibasierten Systemen, miteinander abzugleichen. Darüberhinaus können sie recht einfach dazu verwendet werden, eine solche Föderation um neue Teilsysteme zu erweitern oder alte zu reduzieren und das Schema der Föderation zu verändern. In diesem Vortrag sollen verschiedene Ansätze zur Spezifikation von Systemen mobiler Agenten vorgestellt, damit eine solche Architektur zum Datenabgleich beschrieben und diese durch eine Beispielanwendung illustriert werden.
|
Altareva, Evguenia
|
Ludwig-Maximilians-Universität München
|
Dealing with uncertainties during the data(base) integration process
|
Applying various data mining techniques to the task of integrating heterogeneous databases into one system leads to the necessity of dealing with uncertain information. The problem of integration is not trivial due to a number of unavoidable conflicts and contradictions. It becomes even more complex, when the initial information is uncertain. We classify three types of uncertainty associated with the integration task and suppose that a powerful method of statistic analysis like factor analysis should be applied during the data(base) integration process to deal with the uncertainties.
|
Audersch, Stefan
|
ZGDV e.V. Rostock
|
Universelle Metadatenverwaltung zur Steuerung von Transformations- und Daten-Analyse-Prozessen
|
Schwerpunkt bei der Entwicklung wireless-orientierter, multimedialer Content-Management-Systeme sind unter anderem die Recherche multimedialer Dokumentstrukturen sowie die anwendungsspezifische Darstellung und Repräsentation dieser Dokumente. Grundlage hierfür ist der Einsatz von Metadaten zur Steuerung signifikanter Transformations- und Daten-Analyse-Prozesse. Der vorgestellte Ansatz zeigt eine universelle Metadatenverwaltung auf Basis des Resource Description Framework (RDF). Diskutiert werden der Metadatenbestand des Systems sowie die Persistierung und das Retrieval von Metadaten.
|
Behrend, Andreas
|
Universität Bonn
|
Why to Use Deductive Technology in SQL Databases?
|
The notion of a deductive database has emerged during the 1970s in order to describe database systems capable of inferring new knowledge using rules. Within this research area three kinds of rule-based extensions for traditional databases have been intensively studied, i.e. active, deductive and normative rules. Nowadays, classical SQL databases already use these extensions in form of triggers, views and integrity constraints. These rule-based concepts, however, are still quite restricted in functionality. A uniform approach making these concepts really independent from each other is still missing. In this paper we will show how new results in the field of deductive databases may help to find a more uniform extension of SQL.
|
Prof. Dr. Brass, Stefan
|
Universitaet Giessen
|
Semantic Errors in SQL
|
Students write quite often SQL queries that are syntactically valid, but that are nevertheless obviously wrong, even without knowing the task that had to be solved. For instance, inconsistent conditions are not uncommon. Also, queries sometimes contain unnecessary complications, like e.g. a superfluous join. While all these problems are undecidable in general, many cases occuring in practice can be detected. The goal of this project is to develop a tool "sqllint" that checks SQL queries for possible errors like "lint" checked C programs. Currently, we are still collecting different kinds of errors and developing algorithms to detect them.
|
Bruder, Ilvio
|
Universität Rostock
|
Nutzung von Web Mining-Techniken zum Aufbau eines Wetter-Suchdienstes
|
In Deutschland gibt es eine Reihe von WWW-Portalen, die Informationen zu Wetterberichten, Klima, Bauernregeln oder Biowetter anbieten. Die Daten zum Gebiet Wetter werden von den Informationsanbietern auf spezielle Art und Weise dargestellt. Diese Spezialitäten werden nun für eine wissensbasierte Auswertung der Daten verwendet. Das Ziel besteht dabei, über einen Suchdienst dem Nutzer die relevantesten Informationen zu präsentieren. Diese Informationen werden aus verschiedenen Ressourcen mittels wissensbasierten Techniken aggregiert.
|
Buchmann, Erik
|
Otto-von-Guericke Universität Magdeburg
|
Konzeption eines erweiterbaren Speichermanagers für leichtgewichtige, mobile DBMS
|
Durch den zunehmenden Einsatz von mobilen Geräten gewinnen mobile Anwendungen vermehrt an Bedeutung. Ein wesentlicher Aspekt dieser Anwendungen ist die effiziente und flexible Datenhaltung. Für stationäre Geräte haben sich dafür Datenbankmanagement-Systeme (DBMS) vielfach bewährt; diese berücksichtigen jedoch nicht die Kapazitätsgrenzen, die sich aus den verfügbaren Ressourcen der Mobilgeräte ergeben. Die speziell für mobile Systeme angebotenen DBMS hingegen bieten oftmals nur eingeschränkte Funktionalität, sind nicht erweiterbar und können daher nicht optimal auf die spezifischen Bedürfnisse der mit ihnen arbeitenden Anwendungen zugeschnitten werden. Dieser Beitrag beschreibt einen modularisierten, erweiterbaren Speichermanager als eine Kernkomponente für mobile DBMS und zeigt, wie durch die Kombination der vorgestellten Module eine Spezialisierung sowohl auf die Anforderungen einzelner Anwendungen als auch auf die Systemarchitektur mobiler Geräte erreicht werden kann.
|
Prof. Conrad, Stefan
|
Universität München, Institut für Informatik
|
|
|
Courvoisier, Thomas
|
ZGDV Rostock e.V
|
Flexible User Interface- und Dialogsteuerung für datenbankbasierte Anwendungen auf der Basis von XForms.
|
XForms ist auf dem Wege zum neuen Standard für geräteunabhängige formularbasierte Anwendungen zu denen gerade auch viele Datenbankanwendungen Zählen. Der Vortrag stellt die Integration von XForms in ein XML-basiertes Framework für Content Management vor.
|
Michael, Drews
|
ZGDV Rostock e.V.
|
Personalisierte Verwaltung und universeller Zugriff auf multimediale Dokument-Strukturen auf der Basis von MPEG-7
|
Mit dem MPEG-7-Standard, als Ergänzung bisheriger MPEG-Standards liegt die Spezifikation eines Multimedia Content Description Interfaces vor auf deren Grundlage die Repräsentation von Multimedia-Metadaten in XML möglich ist. Ziel dieser Arbeit ist die Konzeptionierung einer personalisierten, situationsgesteuerten, semantischen Selektion und Filterung multimedialer Information auf der Grundlage eines serverseitigen Content-Managements unter Einbeziehung von MPEG-7-konformen Inhaltsinformationen. Dies ist z.B. für den Streaming-Media-Bereich (Audio, Video) relevant, dem auch mit dem Einsatz von UMTS und leistungsfähigeren Endgeräten in mobilen Umgebungen zunehmende Bedeutung zukommt. Darüberhinaus ergeben sich signifikante Erweiterungsmöglichkeiten durch die Kopplung von MPEG-7 mit bekannten RDF-Content-Repository-Ansätzen bzgl. der Content Mediation (Multichannel Publishing). Im Rahmen dieser Arbeit soll neben dem serverseitigen Content Management auch die adäquate Verwaltung und Weiterverarbeitung multimedialer Bestandteile auf der Basis von MPEG-7-Beschreibungen auf der Client-Seite untersucht werden. Ausgehend von einer entsprechenden Deskriptierung (VIDETO, MovieTool) wird im Rahmen von Teilimplementationen die Ableitung von Unterstützungsmöglichkeiten für die obige Aufgabenstellung innerhalb relevanter Anwendungsbereiche, z.B. Medien-Datenbanken, Digitale Bibliotheken, Content Media Providing verifiziert.
|
Flach, Guntram
|
ZGDV Rostock
|
|
|
Graw, Kay-Uwe
|
Fraunhofer IGD Rostock
|
Kursmanagementsystem CMSW3 auf Grundlage MySql - Ein Erfahrungsbericht aus der Praxis
|
Das im Fraunhofer IGD Rostock entwickelte Kursmanagementsystem CMSW3 erlaubt das Authoring von Online-Kursen, die Nutzerverwaltung von Studenten und das Besuchen von Online-Kursen über ein Browserinterface. Die Verwaltung der dafür notwendigen Daten erfolgt mit einer MySql-Datenbank. In dem Vortrag wird das System CMSW3 und die Erfahrungen mit der Datenbankanbindung an MySql beschrieben. Desweiteren wird ein Ausblick auf die Weiterenwicklung von CMSW3 und die daraus resultierenden Anforderungen an Content-, Nutzer- und Datenmanagement gegeben
|
Herstel, Thomas
|
Universitaet "Otto von Guericke", Magdeburg
|
Nutzung strukturierter Anfragesprachen fuer VRML-Daten
|
Besonders aus dem Bereich der Computergrafik ist VRML zur Modellierung von virtuellen Szenen bekannt. Darueber hinaus koennen auch technische Modelle, wie sie z.B. beim Entwurf komplexer Anlagen und Systeme im Ingenieurbereich entstehen, durch VRML repraesentiert werden. Da derartige Dateien in strukturierter Form vorliegen, bietet es sich an, bestehende Anfragesprachen fuer (semi-)strukturierte Daten bezueglich ihrer Eignung zu evaluieren.
|
Prof. Dr. Heuer, Andreas
|
Fachbereich Informatik, Uni Rostock
|
Digitale Bibliotheken als Teilgebiet der Datenbankforschung
|
|
Klopp, Sascha
|
Universität Hannover
|
Automatische Generierung von virtuellen XML-Sichten aus relationalen Datenbankschemata und Übersetzung von XQuery-Anfragen nach SQL
|
Im Vortrag wird beschrieben, wie aus einem relationalen Datenbankschema äquivalente XML-Schemata generiert werden können. Dabei werden Primär- und Fremdschlüssel übernommen, sowie unique- und not null-Bedingungen. Außerdem wird versucht, die Datentypen des relationalen Schemas auf entsprechende XML-Datentypen abzubilden. Die Schemaerzeugung geschieht dabei in zwei Schritten: Nach der getrennten Überführung jedes Relationenschemas in eine XML-Struktur werden mit Hilfe der Fremdschlüssel Hierarchien zwischen den Relationen erkannt und ein baumartiges XML-Schema erzeugt. Die generierten XML-Schemata werden weiterhin als Definition virtueller Sichten aufgefasst, aus denen mit Hilfe von XQuery-Anfragen Auszüge geholt werden können. Es wird ein neuer Ansatz vorgestellt, derartige Anfragen mit Hilfe von Cursor-Ausdrücken in SQL-Statements zu übersetzen.
|
Kovse, Jernej
|
Universitaet Kaiserslautern, FB Informatik, AG DBIS
|
Specifying Customized Versioning Facilities of Software Engineering Repositories by Using UML-based Design Templates
|
A repository is a shared database of information about engineering artifacts. To allow an efficient manipulation of repository objects, a set of control services layered on top of the repository database is needed. These services include checkout/checkin, version control, configuration control, notification, context management and workflow control services. The problem with a number of commercial repository products is either that (i) they usually lack a complete support for some of the control services or (ii) they hardwire the predefined control models for the services (e.g. version control model, configuration control model, etc.) directly in the repository product. This makes it difficult for the engineers to customize the repository by providing own control models that correspond to the individual needs of the engineering environment. Our SERUM (Software Engineering Repositories using UML) approach tries to overcome this problem. In the specification phase of the approach, the engineers use the Unified Modeling Language (UML) to specify own control models for the repository services on top of the repository information model. The repository information model defines the types of objects that will be stored by the repository. In the generation phase of the approach, a repository product is generated on the basis of the delivered UML-based specification. Since the control models for repository services have been specified by the engineers themselves, the generated repository offers the services exactly in the form required by the engineers to achieve an efficient usage of the repository. Our contribution focuses on the specification phase of the SERUM approach. As an example for the customization of repository services, we consider version and configuration control services. First, we are interested in what ways may version and configuration control models differ in various engineering environments. Second, we are interested in an approach that would assist the engineers in the specification phase of the SERUM approach. The approach should be capable of automatically extending the UML-based repository information model with version and configuration control models according to the engineers' requirements. SERUM design templates are presented as a possible implementation of this approach. Design templates are UML-based predefined generic modeling components used to describe control models for repository services. The templates are (i) configured by the engineers to express their requirements related to the services and then (ii) used by a special model enhancement application to correspondingly extend the repository information model with UML constructs defining the control models. Thereby, design templates allow a straightforward and automated specification of control models for repository services.
|
Lecon, Carsten
|
Fachhochschule Lübeck, Projekt VFH
|
Kombination von Inhalts- und Struktursuche in Online-Kursen
|
Um eine flexible Suche in Online-Kursen zu ermöglichen, muss neben dem Inhalt auch die Struktur - d.h. Hierarchien, Sequenzen, Lernpfade, Links, etc. -berücksichtigt werden. Folglich sind ein Datenmodell, Indexstrukturen und ein Anfragemodell erforderlich, die eine Kombination von Inhalts- und Struktursuche ermöglichen. Dies wird deutlich erleichtert, wenn bereits beim Erstellen eines Online- Kurses eine geeignete Repräsentation der Daten vorliegt. Wir werden einen entsprechenden Produktionsprozess vorstellen, bei dem die Daten in ein allgemeines Datenmodell, das Quing-Datenmodell, überführt werden, auf dem entsprechende Indexstrukturen basieren. Es wird ein Anfragekalkül zur Beschreibung der Semantik von Anfragen vorgestellt. Anfragen werden durch Anfragekomponenten, Quings, ausgedrückt.
|
Lufter, Jens
|
Friedrich-Schiller-Universität Jena
|
Abbildung normkonformer objektrelationaler Sprachmittel auf reale DBMS
|
Ein Hindernis für eine breitere Nutzung objektrelationaler Sprachmittel in der Praxis ist die Heterogenität der SQL-Dialekte realer DBMS und ihre bisher mangelnde Unterstützung der Norm SQL:1999. Im Beitrag sollen zum einen Strategien der Abbildung der normierten Sprachkonstrukte (erweitert um eine adäquate Unterstützung für Kollektionen) auf reale objektrelationale DBMS unter Berücksichtigung von Fragen wie Funktionalität und Effizienz diskutiert werden. Zum anderen wird die Architektur einer prototypisch zu implementierenden Transformationsschicht vorgestellt, die diese Abbildung (DDL und DML) möglichst transparent für Anwendungen und Nutzer realisieren soll.
|
Prof. Dr. Manthey, Rainer
|
Institut für Informatik III, Universität Bonn
|
|
|
Dr. Meyer, Holger
|
Universität Rostock, Lehrstuhl DBIS
|
|
|
Mlivoncic, Michael
|
ETH Zürich
|
Ähnlichkeitsanfragen unter Verwendung von Bildmerkmalen und Text
|
Im allgemeinen werden heute zwei Verfahren zur Bildsuche eingesetzt. Zum einen kann man Merkmale, wie z.B. Farbe oder Textur, aus den Bildern extrahieren und aufgrund dieser Merkmale nach ähnlichen Bildern zu einer Vorlage suchen (inhaltsbasierte Suche). Zum anderen kann man die Bilder mit Schlagworten annotieren und anhand dieser Textinformationen unter Anwendung von Retrieval-Verfahren suchen. Die Annotationen können im Falle von Dokumenten auch Textpassagen aus der Umgebung der Bilder sein. Von der Kombination beider Verfahren versprechen wir uns bessere Suchresultate. Dieser Beitrag beschreibt ein Modell und Techniken zur Auswertung kombinierter Anfragen mit Bild- und Textbestandteil. Zur effzienten Auswertung kommen dabei drei Indexstrukturen parallel zum Einsatz: Invertierte Listen (via SQL) und Signaturen für die Textbestandteile und das VA-File für die Suche in den hochdimensionalen Merkmalsräumen.
|
Niemann, Heiko
|
OFFIS (An-Institut der Uni Oldenburg)
|
Adaptive Replikationsstrategie für heterogene, autonome Informationssysteme
|
Integration in heterogenen Systemlandschaften bedeutet häufig ein Austausch mit Replikation von Daten der lokalen Systeme. Einerseits soll nun die Datenmanipulation auf den verschiedenen Systemen möglichst unter Wahrung der Konsistenz erfolgen, d.h. die Datenspeicherung muss entweder zentral erfolgen oder die Daten werden quasi zeitgleich abgeglichen. Andererseits sollen die beteiligten Systeme i.a. ihre Autonomie erhalten, was eine lokale Speicherung erfordert und einen asynchronen Abgleich bedingt. Dieser Konflikt der Anforderungen wird durch bekannte Replikationsverfahren nur begrenzt gelöst: Je nach Strategie wird ein Kompromiss zwischen Konsistenz, Verfügbarkeit und Performanz eingegangen. Hier kann ein Replikationsmanager Abhilfe schaffen, der eine Kombination bildet aus einem synchronen Replikationsverfahren, das eine hohe Konsistenz bei eingeschränkter Verfügbarkeit garantiert, und einem asynchronen Replikationsverfahren, dass bei eingeschränkter Konsistenz d! en Systemen eine größere Autonomie belässt. Die Konfiguration des Replikationsmanagers kann durch Parameter wie Knotenausfall, Tageszeit, Last oder Performanz durchgeführt werden. Im Rahmen der vorgegebenen Parameter kann der Replikationsmanager automatisch Anpassungen durchführen, z.B. ein Wechsel zur synchronen Replikation bei vermehrten Vorkommen von Konflikten oder ein Wechsel zur asynchronen Replikation eines Knotens, wenn die Performanz dieses Knotens einen Grenzwert unterschreitet. Auch bei der Konfliktvermeidung und -behebung kann der Replikationsmanager z.B. durch Historien unterstützen.
|
Plack, Karola
|
Fraunhofer Institut für Fabrikbetrieb und -automatisierung IFF
|
Ressourcenschonung mit Hilfe von datenbankgestützten Umweltkennzahlensystemen im südost-asiatischen Raum
|
Die kontinuierliche Verbesserung von betrieblichen Umweltschutzleistungen sowie ihre transparente Darstellung sind heutzutage mit entscheidend für das erfolgreiche Agieren von Unternehmen am Markt. In wachsendem Maße bilden internationale Standards, wie ISO 14 000, die Voraussetzung für den effizienten Aufbau von weltweiten Geschäftsbeziehungen. Ressourcenverbrauch und Kosten lassen sich aber nur dann effektiv senken, wenn auf problemadäquate Methoden und Werk-zeuge zurückgegriffen wird. Im Rahmen betrieblicher Umweltmanagementsysteme haben sich betriebliche Umweltkennzahlensysteme (Environmental Performance Indicator System / EPI-System) auf der Basis von informationssammelnden Datenbanken bewährt. Dieser Beitrag stellt die Anforderungen an Datenbanken für die Umsetzung eines solchen Umweltkennzahlensystems dar, das in kleinen und mittelständischen Unter-nehmen ressourcenintensiver Branchen in Südost-Asien zum Einsatz kommt.
|
Plack, Marco
|
Otto-von-Guericke-Universität
|
Analyse von Beziehungen zwischen Datenbankobjekten zur Unterstützung der Synchronisation von ERP-Systemen
|
Der Einsatz von ERP-Systemen ist für Unternehmen in der heutigen Geschäftswelt zwingend erforderlich. Die Einführung von ERP-Systemen ist in größeren Konzernen jedoch nur mit sehr hohem Personal-, Zeit- und finanziellem Aufwand möglich. Weiterhin erschwerend bei der Einführung und dem Anpassen der Systeme ist die Tatsache, dass die zur Zeit erhältlichen Systeme nicht für die Abbildung von Konzernstrukturen in einer verteilten Systementwicklungslandschaft ausgelegt sind. Deshalb ist der als Synchronisation bezeichnete Abgleich von parallelen und konkurrierenden Entwicklungen ein sehr kritischer und mit großem Aufwand verbundener Prozess. Da ERP-Systeme auf der Basis von Datenbankmanagementsystemen entwickelt worden sind, lässt sich auf Datenbankobjektebene vorhandenes Beziehungswissen für eine Synchronisationsunterstützung einsetzen. Der Beitrag beschreibt, wie mit Hilfe von Analysewerkzeugen auf Datenbankebene abgeschlossene Gruppen von Objekten ermittelt und mit Hilfe von Werkzeugen in ERP-Systemen zur konsistenzerhaltenden Synchronisation eingesetzt werden können. Insbesondere wird in dem Beitrag auf die Analyse von logischen Abhängigkeiten und durch Integritätsbeziehungen definierte Abhängigkeiten durch graphenbasierte Verfahren eingegangen.
|
Schuler, Christoph
|
ETH Zürich
|
OSIRIS - Eine Plattform für die verteilte Ausführung von Geschäftsprozessen
|
Prozesse bieten die Möglichkeit, verschiedene Aufrufe von bestehenden Diensten zu einem gemeinsamen Ganzen in komplexen, verteilten Anwendungen zu kombinieren. Viele solcher Dienste sind in modernen Umgebungen als E-Services oder Web-Service verfügbar. Die Autonomie der Service-Anbieter und die Dynamik des Systems (neue Provider können hinzukommen, existierende können verschwinden, das Angebot pro Provider kann sich ändern, etc.) stellen besondere Anforderungen, die sich mit einem zentralen System schwerlich realisieren lassen. Die vorliegende Arbeit zeigt, wie die Ausführung von Prozessen in hoch dynamischen Umfeld realisiert werden kann. Dabei wird die Funktionalität des Prozess-Koordinators verteilt implementiert. Es wird zur Laufzeit entschieden, auf welcher Komponente der nächste Schritt im Prozess ausgeführt wird. Metainformation für die Prozessausführung (z.B. Prozessmodelle) muss im System repliziert werden, um die verteilte Prozessausführung zu ermöglichen. Da sich die Metadaten ändern können, muss sichergestellt werden, dass die Daten überall auf dem gleichen Stand sind. Um dies zu erreichen werden Publish/Subscribe Methoden eingesetzt. Ähnliches gilt auch für Load-Information, die im System verteilt wird, um die lastbalanzierte Ausführung mehrerer Prozesse im System zu ermöglichen. Diese Prozesse erfordern Garantien, z.B. flexible Fehlerbehandlung. Dies bedeutet, das die bekannten Konzepte aus dem zentralen Fall erweitert und verallgemeinert werden müssen, um sie auf eine verteilte Infrastruktur für die Prozessausführung anwenden zu können. Im Falle von flexibler Fehlerbehandlung bedeutet dies, dass jeder Prozess in einem konsistenten Zustand terminiert, z.B. durch alternative Ausführungen, die im Fehlerfall durchgeführt werden. Durch eine konsequente Anwendung von Publish/Subscribe Methoden lassen sich die einzelnen Komponenten und Dienste weitestgehend entkoppeln. Durch das Publizieren eines Auftrags zur Ausführung des nächsten Schrittes erhält ein Provider den Auftrag, den er zuvor durch eine Registrierung angeboten hatte. Durch diese Indirektion lassen sich weitere Konzepte wie Service Dicovery, Load Balancing und erweitertes Routing wie zum Beispiel zum günstigsten Angebot realisieren. Am Beispiel des Prototyps OSIRIS (Open Services Infrastructure for Reliable and Integrated Process Support) wird gezeigt, wie sich die Konzepte mittels Peer-to-Peer und Publish/Subscribe Methoden implementieren lassen. Dabei erhält man ein generisches System, das je nach konkreter Anwendung optimal konfiguriert werden kann. So lässt sich das System sowohl für Erhaltung der Konsistenz von verteilten Datenbeständen, wie auch zur effizienten Ausnutzung eines Clusters oder zur garantierten Abwicklung einer verteilten Zahlungstransaktion im Internet verwenden. Auf der Basis der verteilten Infrastruktur zur Prozessausführung haben wir auch erweiterte Konzepte für das Monitoring laufender Prozessinstanzen in das OSIRIS System eingebaut, um so die inhärente Verteilung für den Benutzer transparent zu machen.
|
Schürmann, Klaus-Bernd
|
Freie Universität Berlin - Institut für Informatik
|
Suffix Trees as a persistent index structure on large strings
|
The suffix tree is a fundamental data structure for string processing. It has been employed in pattern matching on strings with a wide range of applications, such as information retrieval, molecular biology and many others. There are suffix tree construction algorithms with complexity O(n). The applicability of these algorithms for large strings suffers under their bad local behaviour and their space requirements. These properties are limiting the suffix tree to main memory size. I will present a partitioning based construction algorithm for persistent suffix trees. This algorithm allows the independent construction of suffix tree parts. It is therefore not limited to main memory size.
|
Skatulla, Steffen
|
FSU Jena
|
Storage of Complex Types with Collection-Valued Attributes in Object-Relational Database Systems
|
Modern relational DBMS moving towards object-relational features need to store complex objects with nested structures and collection-valued attributes. This paper presents our approach to optimized physical representation of these complex types by introducing a new intermediate object mapping layer controlled by a Physical Representation Definition Language (PRDL). This language is based on our classification criteria for the possible physical storage structures and is intended to provide separation of logical and physical modeling. Our approach comprises the development of a prototype used to support investigations into implementation and performance issues as well.
|
Speidel, Oliver
|
Rheinische Friedrich-Wilhelms-Universität Bonn
|
Ein regelbasierter Ansatz zur datenbankgestützten Überwachung mobiler Objekte
|
In modernen GIS-Anwendungen gewinnt die Kontrolle von komplexen Systemen mobiler Objekte zunehmend an Bedeutung (Flugraumüberwachung, Stauerkennung auf Autobahnen, ...). Dabei macht insbesondere die durch das Protokollieren elementarer Ereignisse (Richtungsänderung, Positionswechsel,...) entstehende große Datenmenge eine Datenbankunterstützung erforderlich. Wesentlich ist in diesem Zusammenhang die Fähigkeit zur Bewertung der beobachteten Ereignisse und zur ´intelligenten´ Reaktion auf das Auftreten spezieller relevanter Situationen. Hierzu eignen sich vor allem aktive und deduktive Regeltechniken. Dieser Beitrag untersucht das Zusammenwirken aktiver und deduktiver Regeln im speziellen Kontext der Überwachung mobiler Objekte.
|
Tandler, Bernhard
|
GSF
|
Entwicklung einer Plattform zum Datenaustausch und zur Datenanalyse fuer Forschungsprojekte.
|
In Forschungprojekten fallen aufgrund von modernen Techniken immer mehr und in immer kuerzeren Zeitabstand komplexe und heterogene Datenbestaende an. Zur Verwaltung und Verfuegbarmachung dieser Datenbestaende, fuer die Projektteilnehmer und die Oeffentlichkeit, sind deshalb Modelle und Methoden zu entwickeln, die es ermoeglichen Rahmenbedingungen, wie Projektmanagement- und Rechtsvorgaben, zu erfuellen, sowie Datenanalysen und Bewertungen von Projektzielen zulassen. Ausgehend von einer Top-Down-Sicht auf ein Forschungsprojekt und dessen Teilprojekte, ist damit zuerst ein Modell zu entwickeln, dass eine Einordnung der Daten ermoeglicht, in einem weiteren Schritt benoetigte Metainformationen beinhaltet und dann strukturell eine Implementierung zulaesst, die den gegebenen Rahmenbedingungen entspricht. Mit der Modellbildung eines Forschungsvorhabens, das in seiner Realisation ein Forschungsprojekt ist, und der Klaerung von Rahmenbedingungen wurden die Grundlagen geschaffen, die es ermoeglichten Kategorien von benoetigten Metainformation zu erarbeiten, mit deren Hilfe ein Forschungsprojekt modelliert werden kann. Davon ausgehend, und durch die bis jetzt durchgefuehrten Analysen, kristallisiert sich unter den gegebenen Rahmenbedingungen eine Datenbankstruktur heraus, die in weiten Teilen einer Foederation entspricht, jedoch strukturell Elemente einer zentralen und auch Datawarehouseloesung enthaelt.
|
Weber, Gunnar
|
FB Informatik, Universität Rostock
|
|
|