Sprachteoretische Untersuchungen zu einer Ciliaten-Operation

Page 1

Otto-von-Guericke-Universität Magdeburg

Fakultät für Informatik Institut für Wissens- und Sprachverarbeitung

Diplomarbeit Sprachtheoretische Untersuchungen zu einer Ciliaten-Operation Verfasser:

Ivo Rössling (iroess@cs.uni-magdeburg.de) 11. März 2004

Gutachter:

Prof. Dr. Jürgen Dassow Prof. Dr. Stefan Schirra

Universität Magdeburg Fakultät für Informatik Postfach 4120, D–39016 Magdeburg Germany


Zusammenfassung DNA-Computing stellt als spezielles Teilgebiet des Natural Computing einen verhältnismäßig neuen Zweig der Informatik dar, bei dem versucht wird, aus dem Bereich der Genetik bekannte Sachverhalte sich für der Informatik dienliche Zwecke nutzbar zu machen. Als wesentlicher Trend wird dabei unter anderem der Idee nachgegangen, den natürlichen Baustein DNA als Medium für die Durchführung formaler Operationen zu verwenden. Die Potentiale einer solchen Technologie liegen – neben Aspekten wie Umweltfreundlichen und Energieeffizienz – vor allem in der enorm hohen Speicherdichte sowie einem Operationsspektrum, das sogar massive Datenparallelität gestattet. Veröffentlichungen der letzten Jahre beschäftigen sich u.a. damit, formale Modelle zu entwickeln, die zuvor entdeckte genetische Prozesse geeignet beschreiben. Ein spezieller Focus hat sich dabei vor allem an dem Stamm der Ciliate ergeben. Im Zentrum des Interesses steht die einzigartige Eigenschaft dieser einzelligen Organismen, eine besondere Art der Zellteilung zu vollführen, die mit einer massiven Manipulation des vorhandenen Erbmaterials verbunden ist. Die vorliegende Diplomarbeit befaßt sich mit formalen Aspekten einer ausgewählten Bio-Operation bei Ciliaten – dem sogenannten „Double Loop, Alternating Direct Repeat“, oder kurz: dlad. Als sprachtheoretische Modellierung dieses Prozesses einer genetischen Transformation wird der Diplomarbeit dabei in Anlehnung an [Dassow und Vaszil 2003] die folgende Definition zugrunde gelegt: dlad(w, P ) := {x1 αvβx2 αuβx3 |w = x1 αuβx2 αvβx3 , x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + , α, β ∈ P }. Auf Basis dieser Modellierung wird untersucht, welche Inklusionsbeziehungen durch die Anwendung dieser Operation auf die Sprachklassen der Chomsky-Hierarchie induziert werden. Es werden obere Schranken angegeben sowie deren Optimalität nachgewiesen. Für einige Fälle zeigt sich, daß sogar unter Hinzunahme weiterer abstrakter Sprachfamilien keine bessere Abschätzung gefunden werden kann. Darüber hinaus werden zwei denkbare Erweiterungen der ursprünglichen Modellierung präsentiert sowie deren Auswirkungen auf die Inklusionsbeziehungen diskutiert.

Rössling, Ivo: Sprachtheoretische Untersuchungen zu einer Ciliaten-Operation Diplomarbeit, Otto-von-Guericke-Universität Magdeburg, 11. März 2004.


DANKSAGUNG

I

Danksagung Ich möchte allen herzlich danken, die zum Gelingen dieser Arbeit beigetragen haben – auch wenn im folgenden nur eine kleine Auswahl der wichtigsten unter ihnen genannt sein mag... Mein Dank gilt an erster Stelle meinem Betreuer, Herrn Prof. Dr. Dassow, der mich zunächst eimmal auf Anhieb mit einem Diplom-Thema zu versorgen wußte, für das ich erst im Zuge der Bearbeitung erkennen sollte, daß es genau meinem Geschmack entspricht. Darüber hinaus stand er jederzeit für Fragen jedweder Art zur Verfügung, gab hilfreiche Tips zur Verbesserung und hat beim Korrekturlesen diverser Drafts selbst hartnäckigste Index-Fehler in den geführten Beweisen aufzudecken vermocht. Vor allem aber hat er sich viel Zeit für Konsultationen genommen und mir allgemein eine intensive Betreuung zukommen lassen. Als nächstes möchte ich mich unbedingt bei einigen bedanken, die an der entsprechenden Stelle innerhalb dieser Arbeit wohl die von ihnen geleistete Zuarbeit in mehr oder minder (un)veränderter Form wiederfinden dürften. Zu nennen wären hier ganz besonders Dr. Eckhard Specht und Konrad Mühler, die mich beim Erstellen der Zeichnungen besonders hilfreich unterstützt haben – und weiterhin Dr. Bernd Reichel, der mir einige äußerst nützliche Insider-Tips aus seiner privaten LATEX-Schatzkiste verraten und mir damit eine Menge nervenzehrender „Bastelstunden“ erspart hat. Vergessen möchte ich auch nicht die zahlreichen Freunde, Studenten und auch Mitarbeiter der Fakultät, denen ich es zugemutet habe, den einen oder anderen Draft einen bestimmten Aspekt betreffend gegenzulesen. Namentlich sind dies Dr. Christian Borgelt, Mirko Böttcher, Silke Lottmann, Jens Müller und Kristina Otto. Auf privater Ebene gilt mein Dank vor allem meiner Freundin, Iris Zollfrank, die es ganz sicher nicht immer leicht mit mir hatte. Wenn sie eins besonders gut verstand, dann mich in Zeiten nervlicher Aufreibung und angehender Frustration wieder zu beruhigen und mir ein geistiger Ausgleichspol zu sein. Auch sie blieb nicht davon verschont, mit dem Gegenlesen einer Zwischenversion von mir behelligt zu werden. Bei all der Mühe, die sie sich gegeben hat, einige von mir herbeigeführte besonders schwere Fälle der „Vergewaltigung deutscher Sprache“ wieder zu richten, sollte ich mich an dieser Stelle wohl unbedingt dafür entschuldigen, ihren gutgemeinten Verbesserungs-Ratschlägen letztlich dann doch nicht selten zuwider gehandelt zu haben... Danken möchte ich zu guter Letzt natürlich noch meinen Eltern. Nicht nur die finanzielle Unterstützung, die sie mir zukommen ließen, sondern vor allem auch die vielen kleinen Wege und zeitintensiven Aufgaben, die sie mir immer wieder abnahmen, haben es mir letztlich erst ermöglicht, mich voll und ganz auf mein Studium zu konzentrieren. Für den Fall, daß ich dies in den letzten Jahren vielleicht zu selten ausgesprochen haben sollte, möchte ich es an dieser Stelle nun tun: Danke!


S ELBSTÄNDIGKEITSERKLÄRUNG

II

Selbständigkeitserklärung Hiermit erkläre ich, daß ich die Diplomarbeit ohne fremde Hilfe und ohne Benutzung anderer als der angegebenen Quellen angefertigt habe. Ferner versichere ich, daß die Arbeit in gleicher oder ähnlicher Form noch keiner anderen Prüfungsbehörde vorgelegen hat. Alle Ausführungen der Arbeit, die wörtlich oder sinngemäß übernommen wurden, sind als solche gekennzeichnet.

Magdeburg, den 11. März 2004

_______________________ (Ivo Rössling)


INHALTSVERZEICHNIS

III

Inhaltsverzeichnis 1

Einführung

1

1.1

Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

1.2

Inhalt und Gliederung der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

2

Biologischer Hintergrund

4

3

Untersuchungen zur dlad-Operation

8

3.1

Definitionen und verwendete Modelle . . . . . . . . . . . . . . . . . . . . . . . . . .

8

3.2

Obere Schranken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

3.3

Zur Optimalität der oberen Schranken . . . . . . . . . . . . . . . . . . . . . . . . . .

18

4

Erweiterungen der dlad-Operation

22

4.1

Erste Erweiterung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

4.1.1

Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

4.1.2

Obere Schranken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

4.1.3

Zur Optimalität der oberen Schranken . . . . . . . . . . . . . . . . . . . . . .

30

Zweite Erweiterung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

4.2.1

Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

4.2.2

Obere Schranken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

4.2.3

Zur Optimalität der oberen Schranken . . . . . . . . . . . . . . . . . . . . . .

36

4.2

5

Zusammenfassung

Literaturverzeichnis

37 41


K APITEL 1. E INFÜHRUNG

1

Kapitel 1

Einführung 1.1

Überblick

Eine der faszinierendsten Eigenschaften der Natur ist ihr scheinbar unerschöpflicher Ideenreichtum. Über Ären der Evolution hat sie eine unglaubliche Artenvielfalt hervorgebracht, die sich für fast jede auf der Welt auftretende Umgebung durch eine nicht selten nahezu perfekte Adaption der in ihr lebenden Organismen auszeichnet. Selbst in unwirtlichsten Umgebungen wie z.B. der Tiefsee von Angola wurden wider aller Erwartungen erst kürzlich noch bisher unbekannte Lebewesen entdeckt. Diese ungeheure Diversität an zudem stetig wechselnden Rahmenbedingungen ließ die Entwicklung der Lebewesen zum wahrscheinlich größten Optimierungsproblem der Erdgeschichte avancieren. Ohne sich allerdings dieser Tatsache im klassischen Sinne wirklich „bewußt“ zu sein, hat die Natur schon vor Millonen von Jahren Lösungen zu Problemen hervorgebracht, denen sich der Mensch teilweise erst in jüngster Zeit gegenübergestellt sieht – Lösungen, die in vielerlei Hinsicht weit besser sind als alles, was bisher durch Menschenhand geschaffen werden konnte. In ihrer Rolle als Inspirator hat sie in den letzten Jahrzehnten in nahezu jeden wissenschaftlich orientierten Bereich in diverser Form Einzug gehalten. So werden nach ihrem Vorbild u.a. Konstruktionen gebaut, die stabiler und zugleich um ein Vielfaches leichter sind als Entwicklungen der Vergangenheit. In der Informatik hat sich im Laufe der letzten Jahre als verhältnismäßig neuer Zweig das sogenannte Natural Computing etabliert, das sich einerseits mit Ideen beschäftigt, die – inspiriert durch in der Natur auftretende Pendants – als neue Konzepte und Modelle in den Bereich der Informatik übertragen werden können, andererseits mit biologisch-physikalischen Mechanismen, die im weitesten Sinne als Verarbeitung von Informationen angesehen werden können, und in dieser Eigenschaft eine neue Rolle der Natur als potentielle alternative Hardware definieren. Natural Computing umfaßt unter anderem die Bereiche der Genetischen Algorithmen (auch: Evolutionary Computing), des Neural Computing und des Fuzzy-Computing sowie des DNA-Computing und des Quantum-Computing. Letztere beiden stellen dabei mit Abstand die jüngsten Gebiete dar, in denen die Brücke zwischen theoretischem Hintergrund und praktischer Anwendung bisher nur für wenige spezielle Problemstellungen geschlagen werden konnte. Reges Interesse an diesen Bereichen wurde vor allem durch erste Veröffentlichungen entfacht, in denen die – prinzipielle – Möglichkeit nachgewiesen wurde, durch geeignete Codierung NP -vollständige Probleme in polynomialer Zeit lösen zu können. Leider existieren derzeit jedoch noch erhebliche Defizite im Hinblick auf den kontrollierten Ablauf derartiger Vorgänge sowie das unkomplizierte Codieren der Problem- und Decodieren der Lösungs-Instanzen.


K APITEL 1. E INFÜHRUNG

2

Eine erste praktische Anwendung wurde bereits 1994 durch Adleman präsentiert. In seiner Arbeit ([Adleman 1994]) beschrieb er die Idee, gegebene Informationen nach einem bestimmten Schema in Form von DNA-Sequenzen zu codieren und auf diesen dann einfachste Bio-Operationen durchzuführen. Demonstriert wurde das Konzept am Problem der Suche nach einem gerichteten Hamilton-Weg auf einem gegebenen Digraphen. Als Beispiel wurde in [Adleman 1994] eine konkrete Instanz mit sieben Knoten gelöst. Bei dem von Adleman vorgestellten Konzept handelt es sich um eine „in vitro“ (d.h. im Reagenzglas durchgeführte) Umsetzung. Es wurden hinreichend viele1 Instanzen erzeugt, um darauf basierend durch massive Parallelität nach einer zulässigen Lösung zu suchen, wobei sich einzig die der DNA intrinsische Eigenschaft zunutze gemacht wurde, daß Doppelstränge nur aus komplementären Basenpaaren (siehe Kapitel 2) gebildet werden können. Daß DNA nicht nur auf diese synthetische Weise als Medium für die Durchführung formaler Operationen verwendet werden kann, zeigte sich allerdings schon bald, als die Grundlagenforschung den Zweig des „in vivo“2 -DNA-Computing für sich entdeckte: Kari und Landweber ist die Erkenntnis zu verdanken, daß gewisse in einem speziellen Stamm einzelliger Lebewesen – den sogenannten Ciliaten – stattfindende genetische Prozesse ebenfalls als „Berechnungen“ von bestimmter Struktur verstanden werden können. Diese im Rahmen der Zellteilung durchgeführten Transformationen eines Teils des genetischen Erbgutes wurden zwar bereits von [Prescott 1994] nachgewiesen, doch stellt [Landweber und Kari 1999b] den ersten Versuch einer formalen Spezifikation dieser Vorgänge dar. In dem von ihnen entwickelten Modell gehen die Autoren dabei von zwei Operationen aus, von denen eine intra-molekularen und die andere inter-molekularen Charakter hat. Weitergehende Untersuchungen (vgl. [Landweber und Kari 1999a, Kari u. a. 1999]) haben gezeigt, daß eine Generalisierung dieses Konzeptes unter Annahme kontextsensitiver Versionen dieser Operationen universelle Berechnungsfähigkeit besitzt. Von Prescott, Ehrenfeucht und Rozenberg wurde wenig später ein alternatives Modell ([Prescott u. a. 2001, Prescott 2001]) auf Basis von drei intra-molekularen Operationen vorgeschlagen. Beide Modelle werden derzeit aktiv durch Forschungen verfolgt. Sowohl im Falle von Kari/Landweber als auch von Prescott/Ehrenfeucht/Rozenberg werden die Transformationen des genetischen Codes als spezielle Operationen auf Wörtern formaler Sprachen interpretiert. Erste Untersuchungen befaßten sich primär mit der Erhaltung bestimmter Eigenschaften diverser Sprachklassen unter Anwendung der jeweils untersuchten Ciliaten-Operation – eine zentrale Rolle spielte dabei das Abgeschlossenheitskriterium (vgl. [Daley u. a. 2003]). In [Daley u. a. 2004] wird dagegen ein umgekehrter Ansatz verfolgt: Neue Sprachklassen werden durch das Kriterium der Abgeschlossenheit unter Anwendung einer jeweiligen Ciliaten-Operation (eines generalisierten Modells) definiert, um darauf basierend aus den Untersuchungen der sprachtheoretischen Eigenschaften dieser Familien ein besseres Verständnis der Struktur der definierenden Operation zu erlangen. Zu dem Modell von Prescott/Ehrenfeucht/Rozenberg wird in [Harju u. a. 2004] eine graphentheoretische Interpretation gegeben. Für jede der drei Operationen wird dort ein Pendant auf der Basis ungerichteter gelabelter Graphen3 definiert. Notwendige und hinreichende Bedingungen für die Anwendbarkeit einer jeden Operation sowie die Folgen ihrer Durchführung lassen sich daraufhin aus der Struktur des induzierten Graphen schließen. In [Adleman 1994] wird gesprochen von etwa 3 ∗ 1013 . in der (lebenden) Zelle durchgeführt 3 sogenannte „Signed Graphs“: jeder Knoten ist mit einer Markierung aus {+, −} versehen 1

2


K APITEL 1. E INFÜHRUNG

1.2

3

Inhalt und Gliederung der Arbeit

Die vorliegende Diplomarbeit befaßt sich mit formalen Aspekten einer ausgewählten Bio-Operation bei Ciliaten. Als Ausgangspunkt dient dabei das Modell von Prescott/Ehrenfeucht/Rozenberg. Die drei dort eingeführten Operationen stellen aus sprachtheoretischer Sicht im wesentlichen die Extraktion, die Inversion sowie die Translokation markierter Teilsequenzen eines gegebenen Wortes dar. Für letztgenannte werden im Rahmen dieser Diplomarbeit die Inklusionsbeziehungen untersucht, die durch Anwendung dieser Operation auf die Sprachfamilien der Chomsky-Hierarchie induziert werden. Nachdem in Abschnitt 1.1 bereits ein kurzer Einblick in den Bereich des DNA-Computing gegeben wurde, befaßt sich Kapitel 2 zunächst noch einmal etwas eingehender mit den biologischen Grundlagen der bei Ciliaten vorzufindenen genetischen Prozesse. Der Leser wird dort zudem über den Ursprung der von Prescott/Ehrenfeucht/Rozenberg modellierten Operationen informiert. Kapitel 3 stellt den Hauptteil dieser Arbeit dar. Im ersten Abschnitt werden zunächst die notwendigen Definitionen sowie die verwendeten Modelle eingeführt, um in Anbetracht der verschiedenen existierenden Notationen einen Konsens mit dem Leser zu erreichen. Ein wichtiger Punkt hierbei ist die Definition der untersuchten Operation, welche aus Gründen, die im Zuge dessen benannt werden, von jener aus [Prescott u. a. 2001, Prescott 2001] bzw. [Harju u. a. 2004] abweicht. In Abschnitt 3.2 zeigt sich eingangs, daß auf Basis der gegebenen Definition bei Anwendung der Operation sich jeweils nur eine echte Teilmenge jeder Sprachfamilie der Chomsky-Hierarchie darstellen läßt. Dementsprechend wird daraufhin für jede sich ergebende Eingabe-Konstellation eine obere Schranke angegeben, die sich hinsichtlich der Inklusionsbeziehung zwischen dem Ergebnis der darauf angewandten Operation und den Sprachfamilien der Chomsky-Hierarchie ergibt. Im sich anschließenden Abschnitt 3.3 wird die Optimalität der zuvor zusammengetragenen oberen Schranken nachgewiesen. Kapitel 4 befaßt sich mit zwei Erweiterungen der in Abschnitt 3.1 gegebenen Definition der untersuchten Ciliaten-Operation, die sich im Rahmen der Bearbeitung dieses Themas als durchaus denkbar gezeigt haben. Für beide Erweiterungen werden wie schon zuvor in Kapitel 3 obere Schranken bestimmt sowie deren Optimalität im Kontext der Chomsky-Hierarchie nachgewiesen. Im abschließenden Kapitel 5 werden die Ergebnisse dieser Diplomarbeit in kompakter Form zusammengefaßt. Ein Ausblick auf mögliche Ansatzpunkte für weitergehende Untersuchungen bildet den Abschluß der vorliegenden Arbeit.


K APITEL 2. B IOLOGISCHER H INTERGRUND

4

Kapitel 2

Biologischer Hintergrund Bei Ciliaten handelt es sich um einen speziellen Stamm der Protozoa (Einzeller), dessen Vertreter sich in nahezu jeder Umgebung wiederfinden lassen, in der es Wasser gibt. In den schätzungsweise mehr als 2 Mrd. Jahren ihrer Existenz haben sich bis zum heutigen Tage über 8.000 verschiedene derzeit bekannte Arten entwickelt. Eingehende Untersuchungen der letzten Jahre brachten eine Vielzahl faszinierender Charakteristika dieser Lebewesen zum Vorschein. Zunächst zeichnen sich Ciliate durch die einzigartige Eigenschaft aus, daß sie – im Gegensatz zu so gut wie allen Organismen anderer Gattungen – mehrere Zellkerne innerhalb nur einer Zelle aufweisen, welche sich zudem ihrer unterschiedlichen Funktionalität nach in zwei Typen unterscheiden lassen: Micronuclei und Macronuclei. Im klassischen Sinne „genetisch aktiv“ sind davon jedoch nur letzere – d.h., lediglich die Macronuclei werden zur Bildung von Messenger-RNA (mRNA) herangezogen, welche die zur Erzeugung von Proteinen notwendigen Informationen codieren. Micronuclei dagegen sind den Großteil der Lebenszeit eines solchen Organismus über inaktiv, obwohl sie letztlich exakt dieselben Informationen codieren. Die Ursache hierfür liegt vor allem auch darin begründet, daß im Falle eines Micronucleus das genetische Material innerhalb der DNA in mitunter stark fragmentierter Form vorliegt, welche es nicht erlaubt, daß zur Erstellung von mRNA relevante Bereiche durch das Enzym am Stück gelesen werden könnten. Eine wichtige Rolle spielen die Micronuclei dagegen im Rahmen der Zellteilung. Statt zweier Macronuclei sind es nämlich ihre genetisch inaktiven Pendants, die während dieser Phase miteinander verschmelzen und zunächst einen neuen Micronucleus bilden. Durch Mitose verdoppelt sich dieser frisch erzeugte Kern anschließend und hinterläßt zwei identische Kopien. Eine dieser beiden bildet den Micronucleus der neuen Zelle – die andere dagegen transformiert in den für alle vitalen Funktionen der neuen Zelle essentiell notwendigen Macronucleus. Dieser Vorgang ist mit massiver Manipulation des vorhandenen Erbmaterials verbunden, die sich vor allem durch exzessives Löschen überflüssiger Teilstränge und Defragmentierung der DNA auszeichnet. Die Struktur der Micronucleus-DNA (siehe Abbildung 2.1) kann sich etwa wie folgt vorgestellt werden: Jedes Chromosom besteht aus einem einzigen langen DNA-Strang, in dem die darin enthaltenen Gene durch ausgedehnte nichtgenetische DNA-Sequenzen voneinander getrennt sind . Im Rahmen der Bildung des Macronucleus werden diese sogenannten Spacer-Segments in einem initialen Vorgang sämtlichst entfernt, nach dessen Abschluß lediglich DNA-Moleküle mit einer Länge von ein bis zwei Genen verbleiben.


K APITEL 2. B IOLOGISCHER H INTERGRUND

5

Spacer

Spacer Gen

Gen

MDS 3

IES

MDS 2

MDS 1

IES

MDS 5

MDS 2 MDS 3

IES

Gen

MDS 1

MDS 4

MDS 5

IES

MDS n

MDS 4

MDS n

Abbildung 2.1: Struktur eines Micronucleus-Chromosoms Nur wenige dieser Moleküle jedoch können unverändert übernommen werden. In den meisten Fällen sind innerhalb eines Genes die für den Macronucleus bestimmten Segmente („Macronuclear Destinated Segments“: MDS) durch nichtcodierende Sequenzen (“Internal Eliminated Segments”: IES) unterbrochen, welche im Rahmen der Bildung des Macronucleus ebenfalls entfernt werden1 . Eine schematische Darstellung dieses Sachverhaltes kann Abbildung 2.1 entnommen werden. Dort ist ebenfalls zu erkennen, daß die MDS nicht nur lokal separiert sind, sondern ihre Reihenfolge innerhalb des Gens von der für den Macronucleus vorgesehenen stark abweicht. Mitunter kann es sogar vorkommen, daß vereinzelt ein MDS selbst in inverser Ausrichtung vorliegt. In einem solchen Falle muß das betreffende MDS also nicht nur an der korrekten Position innerhalb des Macronucleus-Gens eingebracht, sondern darüber hinaus auch noch umgekehrt werden. An dieser Stelle ergibt sich die Frage, wie es der Zelle möglich ist, einerseits die Molekül-Sequenzen der MDS von solchen der IES zu separieren, andererseits aber die MDS in die für den Macronucleus vorgesehene Reihenfolge zu translozieren. Ein solcher Vorgang setzt im wesentlichen die korrekte Erkennung der relevanten (MDS-)Sequenzen sowie ihrer Beziehungen untereinander voraus, ohne die keine der genannten Transformationen fehlerfrei durchgeführt werden könnte.

In der Tat wurde in Untersuchungen (siehe [Prescott 1994]) die Existenz eines solchen Mechanismus nachgewiesen, der eine derartige Identifikation ↓ entsprechender DNA-Sequenzen ermöglicht und auf diese Weise die NeuZusammensetzung der macronuclearen Gene steuert: Es hat sich herausgestellt, daß an den Übergängen von MDS zu IES und vice versa spezielle Markierungen (– sogenannte Zeiger, engl.: Pointer –) in die DNA-Sequenz eingebaut sind. Jede der angesprochenen Transformationen (Elimination, In- Abbildung 2.2: Homoversion und Translokation) beruht nun letztlich darauf, daß jeweils ein oder loge Rekombination mehrere Paare gleicher Zeiger miteinander rekombinieren: Zunächst wird ein solches Paar übereinstimmender Sequenzen in eine parallele Anordnung gebracht. Ein spezielles Enzym trennt beide DNA-Doppelstränge innerhalb der markierten Bereiche längs auf. Der Schnitt quer zum Verlauf des DNA-Doppelstranges wird versetzt, jedoch auf beiden Markierungen an denselben Positionen getätigt. Die beiden Paare lagern sich wechselseitig aneinander an und ein weiteres Enzym repariert die Schnitte, wodurch die Moleküle in gekreuzter Weise wieder zusammengefügt werden. 1

Um eine Vorstellung der Größenordnung zu vermitteln, sei gesagt, daß es sich hierbei mitunter um durchaus mehr als 100.000 IES handeln kann und daß mit Spacer-Segments und IES zusammen etwa 95-98% des DNA-Materials entfernt wird (vgl. [Prescott 2002] und [Harju u. a. 2003]).


K APITEL 2. B IOLOGISCHER H INTERGRUND

6

Auf Basis derartiger Rekombinationen von DNA-Sequenzen werden im Rahmen der Transformation eines Micronucleus zum Macronucleus essentiell drei verschiedene Operationen durchgeführt, die im folgenden kurz skizziert werden sollen: Elimination (Loop with Direct Repeat – ld) Diese Operation ermöglicht es, aus einem vorhandenen DNA-Strang eine Teilsequenz zu eliminieren. In der Regel handelt es sich hierbei also entweder um ein Stück Spacer-DNA oder um ein IES, da nur in diesen beiden Fällen DNA aus dem Strang entfernt werden sollte. Die betreffende Sequenz ist von einem Paar gleicher Markierungen zu beiden Seiten flankiert. Beide Markierungen lagern sich nebeneinander an, wodurch die zu entfernende Zwischensequenz eine Art Schleife bildet. Diesem Umstand verdankt diese Operation letztlich ihren Namen: “Loop with Direct Repeat”-Excision (Schleife mit direkter Wiederholung [der Markierungen]). Der DNA-Strang wird an beiden Stellen aufgetrennt und rekombiniert (siehe Abb. 2.3). Durch diese Rekombination wird jedoch die Zwischensequenz vom Rest des DNA-Stranges isoliert und die ihr vor- und nachgelagerten Segmente gehen nun direkt ineinander über. (a)

(b)

(c)

(d)

−→

−→

−→

Abbildung 2.3: „Loop with Direct Repeat“-Excision (ld) Inversion (Hairpin with Inverted Repeat – hi) Diese Operation dient dem Zweck, eine markierte Teilsequenz innerhalb des DNA-Stranges umzukehren. Sie ist ähnlich dem Loop with Direct Repeat – mit dem Unterschied, daß sich die Sequenzen der entsprechenden Markierungen diesmal in zueinander entgegengesetzter Richtung anlagern (siehe Abb. 2.4). Entsprechend kann diese Operation nur dann durchgeführt werden, wenn einer Markierung an anderer Stelle dieselbe Markierung in invertierter Ausrichtung folgt. Aufgrund dieses gegenläufigen Prinzips bildet die Zwischensequenz lediglich eine “halbe Schleife” und wird bei der Rekombination der aufgetrennten Segmente umgekehrt, statt isoliert. (Dieser Ähnlichkeit zur Form eines Nadelöhrs in Verbindung mit der entgegengesetzten Ausrichtung der zweiten Markierung entspringt letztlich auch der Name dieser Operation: “Hairpin with Inverted Repeat”-Excision/Reinsertion.) An dieser Stelle sei jedoch auf eine grundlegende Eigenschaft der DNA hingewiesen: die komplementäre Polarität. Jedes DNA-Molekül besitzt eine durch ein Phosphat auf der einen Seite und ein Kohlenhydrat auf der anderen induzierte Polarität. Aufgrund dieser reihen sich DNA-Moleküle eines Einzelstranges grundsätzlich in einer vorgeschriebenen Ausrichtung aneinander an, die daraus resultiert, daß das Kohlenhydrat des einen Moleküls mit dem Phosphat des nachfolgenden2 eine Bindung eingeht. Bei einem DNA-Doppelstrang gilt darüber hinaus, daß die Polaritäten beider Einzelstränge entgegengesetzt zueinander sind. Infolge dessen werden die beiden komplementären Stränge eines Doppelstranges auch in zueinander entgegengesetzer Richtung gelesen. Die Polarität der (Ciliaten-)DNA hat nun allerdings eine entscheidene Auswirkung auf die HairpinOperation, auf die jedoch in [Harju u. a. 2003] leider nicht eingegangen wird, obwohl sie essentiell ist 2

Hierbei handelt es sich um eine allgemein anerkannte Notation, DNA-Stränge stets vom Phosphat ausgehend zu lesen.


K APITEL 2. B IOLOGISCHER H INTERGRUND

(a)

7

(b)

(c)

(d)

−→

−→

−→

Abbildung 2.4: „Hairpin with Inverted Repeat“-Excision/Reinsertion (hi) für die Korrektheit der Definitionen in der darauf aufbauenden Veröffentlichung [Harju u. a. 2004] ist. Ein eingehender Blick auf Abb. 2.4 zeigt, daß die Zwischensequenz nicht auf schlichte Weise umgekehrt wird, sondern zugleich – bedingt durch das Polaritätskriterium – sich jeder ihrer beiden DNA-Stränge nun an dem ihm zuvor komplementären Strang anlagert. Die Auswirkungen dieser Eigenschaft werden im Rahmen der Erweiterung der dlad-Operation in Kapitel 4 nochmals von Interesse sein. Translokation (Double Loop with Alternating Direct Repeat – dlad) Dies ist die Operation, die im Zentrum der vorliegenden Arbeit stehen soll. Kurz gesagt eröffnet sie die Möglichkeit, zwei entsprechend markierte Teilsequenzen innerhalb des DNA-Stranges gegeneinander auszutauschen. Abb. 2.5 verdeutlicht den prinzipiellen Ablauf: Zwei Paare jeweils gleicher Markierungen kennzeichnen die zu tauschenden Bereiche – das eine jeweils deren Änfänge, das andere ihre Enden. An diesen vier Stellen wird der Strang dann im Zuge dieser Operation aufgetrennt. Die beiden freigesetzten Zwischenstücke tauschen ihre Positionen und rekombinieren mit der jeweils anderen Anfangs- und End-Markierung. Dem Umstand, daß der DNA-Strang während dieses Vorganges die Form einer doppelten Schleife annimmt und die Markierungen sich abwechselnd wiederholen, verdankt diese Operation letztlich ihren Namen: „Double Loop with Alternating Direct Repeat“ (Doppelte Schleife mit abwechselnder direkter Wiederholung). (a)

(b)

(c)

(d)

−→

−→

−→

Abbildung 2.5: „Double Loop with Alternating Direct Repeat“ (dlad)


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

8

Kapitel 3

Untersuchungen zur dlad-Operation 3.1

Definitionen und verwendete Modelle

Im Rahmen dieser Diplomarbeit werden Notationen verwendet, die im folgenden erklärt werden sollen. Ein Alphabet V = {Îą1 , Îą2 , . . . , Îąn } ist eine nichtleere endliche Menge von Elementen Îąi , genannt Buchstaben. Ein Wort w = Îą1w Îą2w . . . Îąnww −1 Îąnww , nw ≼ 0 ist eine durch Konkatenation entstandene endliche Sequenz ausgewählter Buchstaben Îąiw ∈ V, 1 ≤ i ≤ nw . Mit V + bzw. V ∗ werden die Mengen aller WĂśrter Ăźber V ausschlieĂ&#x;lich des bzw. einschlieĂ&#x;lich dem leeren Wort Îť bezeichnet. Zusammen mit dem Konkatenationsoperator â—Ś bildet V + eine freie Halbgruppe Ăźber V mit Erzeugenden-System hV, â—Śi. Das korrespondierende Monoid ist durch (V ∗ , â—Ś) gegeben mit dem leeren Wort Îť als neutralem Element. Eine Sprache L ⊆ V ∗ ist eine Menge von WĂśrtern aus V ∗ – eine Menge L von Sprachen wird als (Sprach-)Familie bezeichnet. Die Länge |w| := nw eines Wortes w = Îą1w Îą2w . . . Îąnww −1 Îąnww ist die Anzahl der in w enthaltenen Buchstaben. Die Sprache aller WĂśrter Ăźber V der Länge n wird mit V n notiert. FĂźr ein Wort w ∈ V ∗ und ein nichtleeres Wort x ∈ V + bezeichne #x (w) die Anzahl der Vorkommen des Teilwortes x in w. Die Menge aller TeilwĂśrter x von w wird definiert als sub(w) := {x |w = Îąxβ, Îą, β ∈ V ∗ }. Das Kehrwort zu w = Îą1w Îą2w . . . Îąnww −1 Îąnww wird mit wR := Îąnww Îąnww −1 . . . Îą2w Îą1w notiert. DarĂźber hinaus sei

: V → V eine bijektive Abbildung, die invers zu sich selbst ist1 .

Diese Abbildung kann induktiv auf Worte w ∈ V ∗ erweitert werden: :

V∗ → V∗ 7→ w = a â—Ś w0 7→ w0 â—Ś a , a ∈ V

alph(w) bezeichne die Menge der in w enthaltenen Buchstaben, alph(L) := {alph(w) |w ∈ L } das bezĂźglich Inklusion minimale Basisalphabet der Sprache L . 1

Hierhinter verbirgt sich der Gedanke jener Eigenschaft der DNA, aus homologen Basen-Paaren aufgebaut zu sein – d.h. einer Base Adenin ist stets Thymin (bzw. im Falle von RNA: Urazil) gegenßbergestellt und einer Base Cytosin stets Guanin (bzw. jeweils vice versa).


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

9

Darüber hinausführende Definitionen und Notationen – insbesondere zu Regelgrammatiken, endlichen Automaten, Kellerautomaten, linear beschränkten Automaten sowie Turing-Maschinen – können, sofern nicht bekannt, [Dassow 2003b] und [Hopcroft und Ullmann 1994] entnommen werden. Entsprechend werden im folgenden durch FIN, REG, CF, CS und RE die Familien der endlichen, regulären, kontextfreien, kontextsensitiven sowie rekursiv aufzählbaren Sprachen referenziert. Die meisten der im Rahmen dieser Diplomarbeit verwendeten Modelle sind allerdings derart gängig, daß sie als dem Leser bekannt angenommen werden. Nichtsdestotrotz scheinen sich trotz gleicher Modelle mitunter stark differenzierte Notationen für diese herausgebildet zu haben. Da in Anbetracht dessen u. U. im einen oder anderen Falle die dem Leser vertraute Version von der des Verfassers dieser Arbeit abweichen könnte, sollen im folgenden noch kurz die Notationen der wesentlichen, in dieser Arbeit verwendeten Modelle gegeben werden: • Eine Grammatik (auch: Regelgrammatik) G wird als Quadrupel G = (N, T, P, S) notiert, wobei N das Alphabet der Nichtterminale ist, T das der Terminale, P die Menge aller Produktionsregeln und S das ausgezeichnete Start-Symbol. • Eine Turing-Maschine (TM) wird als Quintupel M = (X, Z, z0 , Q, δ) notiert, wobei X das Bandalphabet darstellt, Z die Menge internen Zustände, z0 den ausgezeichneten Start-Zustand, Q die Menge aller Stop-Zustände (auch: Finalzustände) und δ die Transitionsfunktion, die die Maschine beim Lesen eines Symbols x ∈ X des Eingabebandes im Zustand z ∈ Z in den neuen Zustand z 0 ∈ Z überführt, das gelesene Symbol mit x0 ∈ X überschreibt und den Lesekopf ggf. um eine Position nach rechts oder links bewegt. Eine akzeptierende Turing-Maschine M = (X, Z, z0 , Q, δ, F ) stützt sich als zusätzlichen sechsten Parameter auf eine Menge F ⊂ Q der akzeptierenden Finalzustände. • Unter einem (akzeptierenden) linear beschränkten Automaten (LBA) soll im Rahmen dieser Arbeit eine um die Parameter $ und § erweiterte (akzeptierende) Turing-Maschine verstanden werden, bei der die Anzahl verwendeter Zellen des Eingabebandes nach oben durch ein linares Polynom l(n) in der Länge n der Eingabe beschränkt ist. Zu diesem Zweck befinden sich – abhängig von der Länge n der Eingabe – auf dem Band zwei ausgezeichnete Markierungen $ und §, die einen (das Eingabewort vollständig enthaltenden) Bereich von genau l(n) Zellen des Bandes eingrenzen und vom LBA weder überschrieben noch vom Lesekopf des Automaten überschritten werden dürfen. • Ein endlicher Automat (EA) M = (X, Z, z0 , F, δ) besteht aus den fünf Komponenten des Eingabealphabetes X, der Menge Z der internen Zustände, dem ausgewählten Startzustand z0 , der Menge F aller Finalzustände sowie der Transitionsfunktion δ, die beim Lesen eines Symbols x ∈ X des Eingabebandes im Zustand z ∈ Z den Automaten in den neuen Zustand z 0 ∈ Z überführt. (Im Unterschied zur Turing-Maschine sind hier ein Rückschreiten auf dem Eingabeband sowie ein Schreibzugriff auf selbigem nicht zulässig.) • Ein Kellerautomat (KA) M = (X, Z, Γ, z0 , F, δ) besteht aus der zusätzlichen sechsten Komponente Γ, die das Kelleralphabet darstellt. Im Unterschied zum endlichen Automaten hat der Kellerautomat einen sogenannten Kellerspeicher (oder kurz: Keller), in dem initial ein ausgezeichnetes Symbol # ∈ / Γ, und zu jedem späteren Zeitpunkt immer ein Wort g = g 0 #, g 0 ∈ Γ∗ abgelegt ist. Die Transitionsfunktion δ überführt nun in jedem Schritt beim Lesen eines Symbols x ∈ X des Eingabebandes und dem Auftreten von γ als oberstem Symbol des Kellerwortes den


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

10

im Zustand z ∈ Z befindlichen Automaten in den neuen Zustand z 0 ∈ Z und tauscht γ durch eine endliche Zeichenkette α ∈ Γ∗ aus2 . (Auch beim Kellerautomaten sind hier ein Rückschreiten auf dem Eingabeband sowie ein Schreibzugriff auf selbigem nicht zulässig.) • Für jede der zuvor genannten Automaten-Typen wurde stets die deterministische Variante des Modells angegeben. Es existiert jedoch in jedem der Fälle auch eine Modellierung auf Basis einer nichtdeterministischen Arbeitsweise. Letzteres unterscheidet sich von ersterem im wesentlichen lediglich dadurch, daß die entsprechende Transitionsfunktion δ nicht mehr auf eine einzelne Reaktion (im Sinne einer Kombination von Zustandsänderung, Schreibzugriff und Bandbewegung) sondern auf eine Menge möglicher Reaktionen abbildet. (Es sei angemerkt, daß in der einschlägigen Literatur oft unter einem „Kellerautomaten“ – soweit nicht expliziert als „deterministisch“ deklariert – die nichtdeterministische Variante verstanden wird.) • Die von einem Automaten M eines der oben genannten (deterministischen) Typen akzeptierte Sprache L = T (M) stellt im Grunde die Menge aller Eingabe-Wörter w dar, nach deren Abarbeitung M sich in einem akzeptierenden Zustand (bzw. Finalzustand) befindet. Im Falle des Kellerautomaten wird darüber hinaus mitunter gefordert, daß sich im Keller nur noch das initial dort positionierte Symbol # befinden darf. Im Falle eines nichtdeterministischen Automatentyps genügt es, wenn es irgendeine Folge von Transitionen gibt, mit der bei Eingabe des Wortes w der Automat vom Start-Zustand ausgehend in einen der Finalzustände werden könnte. Es wird als bekannt vorausgesetzt, daß es eine (nichtexhaustive) Typisierung der Grammatiken in reguläre, kontextfreie und kontextsensitive Grammatiken sowie (– in ihrer allgemeinsten Form –) Regelgrammatiken gibt, welche sich letztlich in der Art der verwendeten Produktionsregeln begründet. Ebenfalls als bekannt wird vorausgesetzt, daß es gewisse semantische Äquivalenzen gibt zwischen diesen Grammatik-Typen und einigen der obig genannten Automaten-Typen. Diese Äquivalenzen manifestieren sich dahingehend, daß ein bestimmter Typ der o.g. Grammatiken genau eine Klasse von Sprachen erzeugen kann – und umgekehrt diese Klasse aus genau jenen Sprachen besteht, die durch einen Automaten eines korrespondierenden Types erkannt werden könnnen. Die Äquivalenzen seien in der folgenden Tabelle 3.1 kurz dargestellt – detaillierte Informationen zu diesem Thema kann der Leser der einschlägigen Literatur (z.B. [Hopcroft und Ullmann 1994] oder [Dassow 2003b]) entnehmen. Grammatik-Typ reguläre Grammatik

erzeugte Sprachklasse REG

kontextfreie Grammatik

CF

kontextsensitive Grammatik

CS

allgemeine Regelgrammatik

RE

Typ eines akzeptierenden Automaten (nicht)deterministischer endlicher Automat nichtdeterministischer Kellerautomat nichtdeterministischer linear beschränkter Automat (nicht)deterministische Turing-Maschine

Tabelle 3.1: Äquivalenzen zwischen Grammatik- und Automaten-Typen 2

Das ausgezeichnete Symbol # muß hierbei jedoch stets als letztes Symbol im Keller verbleiben und darf insbesondere nicht aus diesem entfernt werden.


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

11

Abschließend sei die den nachfolgenden Untersuchungen zugrundegelegte Definition der dladOperation angegeben: Definition 1. Sei V ein Alphabet, w ein Wort über V und P ⊆ V + eine Menge von Zeigern. Dann wird definiert:

dlad(w, P ) := x1 αvβx2 αuβx3 w = x1 αuβx2 αvβx3 , x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + , α, β ∈ P Zum besseren Verständnis wird die in Abbildung 2.5 gegebene Darstellung nochmals aufgegriffen und in Abbildung 3.1 um die Bezeichner der eben angeführten Definition erweitert: (a)

x1

(b)

α

x1

α

x1

α

α

α

x2 x3 x3

β β

β

−→

α

α

v

β

x3

β

x1

α

x1

α

α

α

β

x2 x3

(d)

α

x1

−→

u

x2

u

v β

x1

α u

x2

(c)

α

x1

β

x2

u v v

β

−→

v v

x2 x3

β

x3

β

α

α

β

u u

x2 x2 x3 x3

β

v v

β

β

u u

β

Abbildung 3.1: ”Double Loop, Alternating Direct Repeat” (dlad) Die Definition der dlad-Operation läßt sich auf Sprachen sowie Sprachfamilien erweitern: Definition 2. Seien L und P zwei Sprachen und L1 und L2 zwei Sprachfamilien. Dann seien dlad(L, P ) und dlad(L1 , L2 ) wie folgt definiert: [ dlad(L, P ) := dlad(w, P ) w∈L

dlad(L1 , L2 ) := {dlad(L, P ) |L ∈ L1 , P ∈ L2 } L möge im folgenden als Basissprache und P als Zeigermenge bezeichnet werden – L1 entsprechend als Familie von Basissprachen und L2 als Familie von Zeigermengen. Leider scheint in der verwendeten Literatur kein Konsens im Hinblick auf die Definition der dladOperation vorzuliegen. Die obig angegebene Version steht in Anlehnung an [Dassow und Vaszil 2003]. Sie ist gekennzeichnet durch die im zweiten Parameter angegebene Menge gültiger Zeiger. Die ursprüngliche, in [Prescott u. a. 2001] gegebene und in [Daley u. a. 2003] in ähnlicher Weise übernommene Modellierung weist nicht diesen zusätzlichen Freiheitsgrad auf, sondern betrachtet sämtliche (nichtleeren) Wörter über dem gegebenen Alphabet als zulässig für die Verwendung als Markierung. In dieser Hinsicht entspricht die dort angeführte Version im wesentlichen der obigen Definition unter Verwendung der Zeigermenge P = V + für ein beliebiges, aber festes Basisalphabet V . In anderen Veröffentlichungen (vgl. [Freund u. a. 2002]) wird im Rahmen der Durchführung der Operation jeweils ein Exemplar der verwendeten Markierung entfernt, was dem Autor dieser Diplomarbeit in Anbetracht des vermuteten biologischen Hintergrundes3 (siehe Abschnitt 2) allerdings höchstens als der eigentlichen Operation nachgestellter Vorgang nachvollziehbar erscheint. Mitunter (vgl. [Harju u. a. 2004]) wird sogar davon ausgegangen, daß beide Zeiger im Zuge der Durchführung der Operation aus dem DNA-Strang entfernt werden. 3 Beide Markierungen dürften zum Zwecke der Ausrichtung schlichtweg die gesamte Zeit der Durchführung einer Operation über von Nöten sein.


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

3.2

12

Obere Schranken

Aus den Definitionen des vorangegangenen Abschnittes ergibt sich bereits das folgende Lemma: Lemma 1. Für beliebige Sprachfamilien L1 ,L2 ,L3 ,L4 mit L1 ⊆ L2 und L3 ⊆ L4 gilt: dlad(L1 , L3 ) ⊆ dlad(L2 , L4 ) Diese Aussage erlaubt es künftig, aus einer bewiesenen Inklusionsbeziehung dlad(L2 , L4 ) ⊆ X die Gültigkeit von dlad(L1 , L3 ) ⊆ X zu folgern für Sprachfamilien L1 ⊆ L2 und L3 ⊆ L4 . Entsprechendes gilt umgekehrt auch für die Folgerung von dlad(L2 , L4 ) * X aus einer bewiesenen Aussage dlad(L1 , L3 ) * X (ebenfalls für Sprachfamilien L1 ⊆ L2 und L3 ⊆ L4 ). Weiterhin läßt sich schlußfolgern: Lemma 2. Für beliebige Sprachfamilien L1 ,L2 gilt: F IN * dlad(L1 , L2 ) Beweis. Nach Definition gilt, daß für beliebige Sprachen Y, Z über dem Alphabet V ein Wort w aus der Menge X = dlad(Y, Z) stets die Form besitzt: w = x1 αx2 βx3 αx4 βx5 . Da α, β ∈ P ⊆ V + , können beide grundsätzlich nur die Form nichtleerer Wörter annehmen, womit w mindestens die Länge |w| ≥ 4 haben muß. Offensichtlich existieren also Wörter, die nicht die strukturellen Anforderungen erfüllen, um für w in Frage zu kommen – z.B. alle w0 mit |w0 | ≤ 3, oder w0 = abcd. Das heißt, es existieren endliche Sprachen X 0 (hier: X 0 = {abcd}), für die es keine Y 0 , Z 0 gibt, sodaß X 0 = dlad(Y 0 , Z 0 ). Die folgenden ersten beiden Theoreme enthalten Aussagen zur Anwendung der dlad-Operation auf ein Paar (L1 , L2 ) einer Familie von Basissprachen L1 und einer Familie von Zeigermengen L2 , die im einen Fall beide jeweils CS und im anderen Fall RE angehören. Theorem 1. dlad(CS, CS) ⊂ CS Beweis. Seien L und P zwei kontextsensitive Sprachen. Dann existieren zwei linear beschränkte Automaten LBA L = (XL , ZL , zL,0 , QL , δL , FL , $L , §L ) und LBA P = (XP , ZP , zP,0 , QP , δP , FP , $P , §P ), die L, respektive P akzeptieren – mit den Bezeichnungen: Xi Zi zi,0 Qi Fi δi $i , § i

– – – – – – –

endliche Menge von erlaubten Bandsymbolen: Bandalphabet endliche Menge von Zuständen: Zustandsmenge ein ausgezeichneter Zustand aus Zi : Startzustand eine Teilmenge von Zi : Menge der Finalzustände eine Teilmenge von Qi : Menge der akzeptierenden Finalzustände eine Funktion (Zi \ Qi ) × (Xi ∪ {$i , §i }) → Zi × Xi × {R, L, N } : Transitionsfunktion zwei ausgezeichnete nicht in Xi enthaltene Symbole, die Anfang und Ende des beschreibbaren Teils des jeweiligen Bandes markieren: Bandanfangs- und Bandende-Markierung

Basierend auf den obigen Definitionen dieser beiden läßt sich nun ein dritter linear beschränkter Automat LBA dlad = (Xdlad , Zdlad , zdlad,0 , Qdlad , δdlad , Fdlad , $dlad , §dlad ) konstruieren, der die Sprache X = dlad(L, P ) akzeptiert. Das Konstruktionprinzip sei hier nur skizziert:


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

13

Das neue Bandalphabet Xdlad ergibt aus XL ∪ XP ∪ {$L , §L , $P , §P } – zuzüglich ggf. darüber hinaus benötigter Buchstaben. Die neue Zustandsmenge Zdlad ergibt sich aus ZL ∪ ZP ∪ {qdlad , zdlad,0 } – zuzüglich ggf. darüber hinaus benötigter Zustände. Der neue Startzustand ist zdlad,0 und die Menge der Finalzustände ist {qdlad }(welches ein akzeptierender Finalzustand ist). Die neue Transitionsfunktion δdlad ergibt sich aus δL ∪ δP zuzüglich weiterer Transitionen, die im Rahmen der Funktionsweise dieses linear beschränkten Automaten im folgenden nun erklärt werden: 1. Zunächst fügt LBA dlad am Ende von w jeweils vier $P und vier §P an sowie zwei #. 2. LBA dlad kopiert auf nichtdeterministische Weise jeweils vier sich nicht überschneidende Teilwörter α, β, γ, δ von w auf einen hinter dem Eingabewort befindlichen Bereich des Bandes, wobei α und β sowie γ und δ jeweils durch mindestens ein Zeichen in w getrennt sein müssen. Um sich die Anfangs- und Ende-Positionen dieser vier Teilwörter zu merken, werden die in Schritt (1) eingefügten Token $P und §P entsprechend verschoben, um das jeweilige Teilwort linksseitig und rechtsseitig zu terminieren. Die beiden # werden benutzt, um während des Kopier-Vorganges die aktuelle Position der Bearbeitung im Quell- und Zielbereich zu markieren. Darüber hinaus wird beim Kopieren der Wörter zuvor hinreichend viel Platz auf dem verfügbaren Band allokiert und die entsprechenden Bereiche jeweils linksseitig mit einem $P und rechtsseitig mit einem §P terminiert. Für jeden der auf diese Weise zu durchlaufenden Fälle für (α, β, γ, δ) werden die folgenden weiteren Schritte durchgeführt. 3. Zunächst wird geprüft, ob die Wörter α und γ sowie β und δ jeweils paarweise übereinstimmen. 4. Auf den ersten beiden dieser vier Wörter wird nun mittels δP die Arbeit von LBA P simuliert, um zu prüfen, ob das jeweilige Wort in P liegt. 5. Fällt eine der Prüfungen (3) oder (4) negativ aus, so wird der besagte Zweig nicht weiter verfolgt. Der durch (2) – (4) beschriebene Bereich wird gelöscht und nur noch die verbleibenden Fälle untersucht. Andernfalls hat das Eingabewort w offensichtlich die Form: w = x1 αvβx2 αuβx3 , mit x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + , α, β ∈ P . 6. Durch das Markieren von α und β in w mittels Token (siehe Schritt (2)) ist es nun möglich, auf einem weiteren gesonderten Bereich des Bandes – für den zuvor wieder hinreichend viel Platz allokiert, und der linksseitig mit $L sowie rechtsseitig mit §L terminiert wurde – das Wort w0 = x1 αuβx2 αvβx3 ∈ dlad−1 (w, P ) zu erzeugen: Zunächst wird unter Auslassung von $P und §P das Teilwort x1 α kopiert. Dann wird zum Beginn von u (d.h. dem dritten Auftreten von §P in w) vorgefahren und u kopiert. Daraufhin wird zum Ende von v (d.h. dem zweiten Auftreten von $P in w) zurückgefahren und unter Auslassung von $P und §P das Teilwort βx2 α kopiert. Als nächstes wird zum Beginn von v (d.h. dem ersten Auftreten von §P in w) zurückgefahren und v kopiert. Abschließend wird zum Ende von u (d.h. dem vierten Auftreten von $P in w) vorgefahren und unter Auslassung von $P und §P das verbleibende Teilwort βx3 kopiert. Während dieses Kopier-Vorganges werden wie gehabt die beiden # zum Markieren der jeweiligen Bearbeitungspositionen herangezogen.


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

14

7. Als letztes wird LBA L auf diesem Wort w0 simuliert. Nach Abschluß der Simulation von LBA L stoppt LBA dlad mit demselben Ergebnis. War die Rückgabe positiv, so gilt: w ∈ dlad(L, P ). War sie dagegen negativ, so liefert dieser nichtdeterministische Zweig der Untersuchung aller Kombinationen von (α, β, γ, δ) keine Lösung. (Liefert keiner der weiteren Zweige eine Lösung, so gilt: w ∈ / dlad(L, P ).) Bis zu diesem Punkt wurde lediglich bewiesen, daß die Frage „Gilt w ∈ dlad(L, P ) ?“ für Sprachen L, P ∈ {FIN, REG, CF, CS} durch eine Turing-Maschine entschieden werden kann. Es folgt eine grobe aber hinreichende Abschätzung für die Größe einer erreichbaren linearen Beschränkung: Sei lL (n) = aL ∗ n + bL die Länge, auf die das Band der Maschine LBA L bei Eingabe eines beliebigen Wortes w der Länge n beschränkt werden kann – lP (n) = aP ∗ n + bP respektive die für LBA P . Dann genügt es bei weitem, in Schritt (2) Speicherplatz der Größe 4 ∗ lP (n) zu reservieren, zzgl. 8 weiterer Speicherstellen für die vier Token-Paare ($P , §P ). In Schritt (6) genügt es ebenso mit Sicherheit, Speicherplatz der Größe lL (n) zu reservieren, zzgl. 2 weiterer Speicherstellen für die das Token-Paar ($L , §L ). Zusammen mit den benötigten Speicherstellen für das Eingabewort w der Länge |w| = n sowie für die initial hinzugefügten vier Token-Paare ($P , §P ) und die beiden # ergibt dies zusammen die folgende triviale obere Schranke für die lineare Beschränkung von LBA dlad : ldlad (n) = (4∗lP (n)+8)+(lL (n)+2)+(n+10) = (4aP +aL +1)∗n+(bP +bL +20) =: adlad ∗n+bdlad

Folgerung 1. dlad(L1 , L2 ) ⊂ CS für alle L1 , L2 ∈ {FIN, REG, CF, CS} . Theorem 2. dlad(RE, RE) ⊂ RE. Beweis. Der Beweis kann völlig analog zu dem von Theorem 1 geführt werden. Lediglich die lineare Beschränkung entfällt. Stattdessen werden die ($P , §P )-Paare einzig zum Erkennen der Begrenzung der Band-Bereiche verwendet, in denen die jeweils simulierte Turing-Maschine schreiben darf. Stößt diese an die rechts- bzw. linksseitige Grenze des Bereiches, so wird die Simulation temporär unterbrochen, sämtliche Folgesymbole des Bandes um endlich viele Stellen nach hinten verschoben, der Bandkopf an die links- bzw. rechtsseitig erste Stelle des geschaffenen Freiraumes gesetzt und mit der Simlation fortgefahren. Folgerung 2. dlad(L1 , L2 ) ⊂ RE für alle L1 , L2 ∈ {FIN, REG, CF, CS} . Die beiden vorangegangenen Theoreme sagten im Kern aus, daß CS und RE jeweils abgeschlossen4 sind unter Anwendung der dlad-Operation. Es folgt ein Lemma über die Anwendung der dlad-Operation auf endliche Basissprachen: Theorem 3. (a) dlad(FIN, FIN) = dlad(FIN, REG) = dlad(FIN, CF) = dlad(FIN, CS) = dlad(FIN, RE) (b) dlad(FIN, FIN) ⊂ FIN 4

abgeschlossen in dem Sinne, daß wenn beide Parameter einer Sprachklasse X ∈ {CS, RE} angehören, das Ergebnis der Operation ebenfalls in X liegt


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

15

Beweis. Offensichtlich gilt für alle Sprachen L, P : [ dlad(L, P ) = dlad(L, {π1 , π2 }) = π1 ,π2 ∈P

[

dlad(L, {π1 , π2 })

(3.1)

π1 ,π2 ∈P ∩sub(L)

= dlad(L, P ∩ sub(L)) Ist L ∈ FIN, dann ist sub(L) und somit auch P ∩ sub(L) ebenfalls endlich. Es gilt also einerseits: ∀L ∈ {REG, CF, CS, RE} : ∀P ∈ L : P ∩ sub(L) ∈ FIN und wegen P ∩ sub(P ) = P andererseits auch: ∀X ∈ FIN : ∃P, L | P ∩ sub(L) = X (z.B. für P = L = X). Hieraus folgt wegen Gleichung 3.1 die Gleichheit aller dlad(FIN, L) für L ∈ {FIN, REG, CF, CS, RE}, d.h.: dlad(FIN, L) = dlad(FIN, FIN) für alle L ∈ {REG, CF, CS, RE}. Es folgt der Beweis für dlad(FIN, FIN) ⊂ FIN. Zu zeigen ist: ∀X, P ∈ FIN : dlad(L, P ) ∈ FIN. Für jedes Wort wL ∈ L und jede Auswahl {π1 , π2 } ⊆ P ∩ sub({wL }) gilt: [ {x1 αvβx2 αuβx3 |w = x1 αuβx2 αvβx3 , x1 , x2 , x3 ∈ V ∗ , dlad(w, {π1 , π2 }) = u, v ∈ V + } α,β∈{π1 ,π2 } =

[ α,β∈{π1 ,π2 }

{x1 αvβx2 αuβx3 |w = x1 αuβx2 γvδx3 , x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + }

Für letztere Menge läßt sich nun relativ leicht die Kardinalität abschätzen: Die Menge umfaßt alle Wörter z, die aus w = x1 αuβx2 γvδx3 (x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + ) durch Vertauschen von u und v hervorgehen. Die Kardinalität dieser Menge ist somit nach oben hin beschränkt durch die Anzahl verschiedener Möglichkeiten für die Positionen der Zeiger α, β, γ, δ ∈ {π1 , π2 } . Dies entspricht, da eine Ordnung für die vier Positionen bereits gegeben ist, einer Kombination vierter Klasse ohne Wiederholung aus einer Menge, wobei n := #π1 (w) + #π2 (w). Somit gilt: n-elementigen n W = |dlad(w, {π1 , π2 })| ≤ Cn,k . 4 Hinsichtlich der Kardinalität von dlad(L, P ) läßt sich – mit oben angeführter Definition für n 5 – also feststellen :

[

[

|dlad(L, P )| =

dlad(w, {π1 , π2 })

w∈L π1 ,π2 ∈P ∩sub(L)

X X ≤ dlad(w, {π1 , π2 }) w∈L π1 ,π2 ∈P ∩sub(L)

=

X w∈L, π1 ,π2 ∈P ∩sub(L)

n ˜ 4

Aus der Endlichkeit von L und P folgt somit die von dlad(L, P ), was zu beweisen war. 5 In der nachfolgenden Formel wird ein n ˜ verwendet, um zu betonen, daß es sich hierbei nicht um eine Konstante, sonderen um eine Funktion über (w, π1 , π2 ) handelt.


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

16

Als letztes Theorem dieses Abschnittes soll eine Aussage getroffen werden zum Ergebnis von dlad(L, P ), wenn L eine reguläre Sprache und P eine endliche Sprache darstellt. Wie sich zeigen wird, kann das Resultat dlad(L, P ) in einem solchen Fall stets durch einen geeigneten endlichen Automaten erkannt werden. Theorem 4. dlad(REG, FIN) ⊂ REG Beweis. Sei L eine reguläre Sprache, welche durch den (deterministischen) endlichen Automaten A = (V, Z, z0 , F, δ) akzeptiert wird. Sei ferner P = {α1 , α2 , ..., αn } eine endliche Menge von Zeigern αi = ai,1 ai,2 ...ai,ri mit ai,j ∈ V, 1 ≤ i ≤ n, 1 ≤ j ≤ ri . Wir definieren nun wie folgt den nichtdeterministischen endlichen Automaten A0 , der genau dlad(L, P ) akzeptieren soll – d.h. alle Wörter w0 = x1 αvβx2 αuβx3 für w = x1 αuβx2 αvβx3 ∈ L, α, β ∈ P : A0 = (V, R × Z × Z˜ × Z˜ × Z˜ × Z˜ × K × K), (rd 1 , z0 , o, o, o, o, o, o), F 0 , δ 0 , wobei R = {rd 1 ,rd 2 , . . . ,rd 9 }, Z˜ = Z ∪ {o} , K = {fs i,j |1 ≤ i ≤ n, 1 ≤ j ≤ ri } ∪ {o} , F 0 = {(rd 9 , z¨, z, ˙ q, z¨, z,fs ˙ i,ri ,fs k,rk ) |z, ˙ z¨, ∈ Z, q ∈ F } und o,rd 1 ,rd 2 , . . . ,rd 9 sowie fs i,j , 1 ≤ i ≤ n, 1 ≤ j ≤ ri neue Symbole sind. δ 0 für diesen Automaten wird schrittweise wie folgt definiert: 1. Beginnend im Initialzustand von A und x1 lesend erreicht A0 durch Simulation von A in der zweiten Komponente den Zustand (rd 1 , δ(z0 , x1 ), o, o, o, o, o, o): Für alle a ∈ V, z ∈ Z : δ 0 ((rd 1 , z, o, o, o, o, o, o), a) 3 (rd 1 , δ(z, a), o, o, o, o, o, o) 2. A0 prüft nun, ob auf das Teilwort x1 in w0 ein Wort αi ∈ P folgt – hierzu wird die siebente Komponente des Zustandes verwendet. Parallel dazu wird in der zweiten Komponente des Zustandes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand (rd 3 , δ(z0 , x1 αi ), z, ˙ z, ˙ z¨, z¨,fs i,ri , o): Für alle z, z, ˙ z¨ ∈ Z, 1 ≤ i ≤ n, 2 ≤ j ≤ ri − 1 : δ 0 ((rd 1 , z, o, o, o, o, o, o), ai,1 ) 3 (rd 2 , δ(z, ai,1 ), o, o, o, o,fs i,1 , o) δ 0 ((rd 2 , z, o, o, o, o,fs i,j−1 , o), ai,j ) 3 (rd 2 , δ(z, ai,j ), o, o, o, o,fs i,j , o) δ 0 ((rd 2 , z, o, o, o, o,fs i,ri −1 , o), ai,ri ) 3 (rd 3 , δ(z, ai,ri ), z, ˙ z, ˙ z¨, z¨,fs i,ri , o) 3. Nun wird in der vierten Komponente des Zustandes von A0 die Arbeit von A simuliert und von z˙ ausgehend v gelesen. Mit Abschluß dieser Phase erreicht A0 einen Zustand(rd 3 , δ(z0 , x1 αi ), z, ˙ δ(z, ˙ v), o, o,fs i,ri , o): Für alle a ∈ V, z, z2 , z, ˙ z¨ ∈ Z, 1 ≤ i ≤ n : δ 0 ((rd 3 , z, z, ˙ z2 , z¨, z¨,fs i,ri , o), a) 3 (rd 3 , z, z, ˙ δ(z2 , a), z¨, z¨,fs i,ri , o)


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

17

4. A0 prüft nun, ob auf das Teilwort x1 αi v in w0 ein Wort αk ∈ P folgt – hierzu wird die achte Komponente des Zustandes verwendet. Parallel dazu wird in der sechsten Komponente des Zustandes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand (rd 5 , δ(z0 , x1 αi ), z, ˙ δ(z, ˙ v), z¨, δ(¨ z , αk ),fs i,ri ,fs k,rk ): Für alle z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 : δ 0 ((rd 3 , z, z, ˙ z2 , z¨, z¨,fs i,ri , o), ak,1 ) 3 (rd 4 , z, z, ˙ z2 , z¨, δ(¨ z , ak,1 ),fs i,ri ,fs k,1 , ) δ 0 ((rd 4 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4 , z, z, ˙ z2 , z¨, δ(z3 , ak,l ),fs i,ri ,fs k,l , ) δ 0 ((rd 4 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,rk −1 ), ak,rk ) 3 (rd 5 , z, z, ˙ z2 , z¨, δ(z3 , ak,rk −1 ),fs i,ri ,fs k,rk ) 5. In der sechsten Komponente des Zustandes von A0 wird weiter die Arbeit von A simuliert, um x2 zu lesen. Mit Abschluß dieser Phase erreicht A0 einen Zustand (rd 5 , δ(z0 , x1 αi ), z, ˙ δ(z, ˙ v), z¨, δ(¨ z , αk x2 ),fs i,ri ,fs k,rk ): Für alle a ∈ V, z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n : δ 0 ((rd 5 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 5 , z, z, ˙ z2 , z¨, δ(z3 , a),fs i,ri ,fs k,rk ) 6. A0 prüft nun, ob auf das Teilwort x1 αi vαk x2 in w0 wieder der bereits erfaßte Zeiger αi ∈ P folgt – hierzu wird wie in Schritt 2 die siebente Komponente des Zustandes verwendet. Parallel dazu wird wie gehabt in der sechsten Komponente des Zustandes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand (rd 7 , δ(z0 , x1 αi ), z, ˙ δ(z, ˙ v), z¨, δ(¨ z , αk x2 αi ),fs i,ri ,fs k,rk ): Für alle z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ j ≤ ri − 1 : δ 0 ((rd 5 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,rk ), ai,1 ) 3 (rd 6 , z, z, ˙ z2 , z¨, δ(z3 , ai,1 ),fs i,1 ,fs k,rk ) δ 0 ((rd 6 , z, z, ˙ z2 , z¨, z3 ,fs i,j−1 ,fs k,rk ), ai,j ) 3 (rd 6 , z, z, ˙ z2 , z¨, δ(z3 , ai,j ),fs i,j ,fs k,rk ) δ 0 ((rd 6 , z, z, ˙ z2 , z¨, z3 ,fs i,ri −1 ,fs k,rk ), ai,ri ) 3 (rd 7 , z, z, ˙ z2 , z¨, δ(z3 , ai,ri ),fs i,ri ,fs k,rk ) 7. A0 wechselt mit der Bearbeitung zurück auf die zweite Komponente seines Zustandes, um dort die Arbeit von A zu simulieren und u zu lesen. Nach Abschluß dieser Phase erreicht A0 einen Zustand (rd 7 , δ(z0 , x1 αi u), z, ˙ δ(z, ˙ v), z¨, δ(¨ z , αk x2 αi ),fs i,ri ,fs k,rk ): Für alle a ∈ V, z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n : δ 0 ((rd 7 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 7 , δ(z, a), z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,rk ) 8. A0 prüft nun, ob auf das bisher gelesene Teilwort x1 αi vαk x2 αi u in w0 wieder der bereits erfaßte Zeiger αk ∈ P folgt – hierzu wird wie in Schritt 4 die achte Komponente des Zustandes verwendet. Parallel dazu wird in der vierten Komponente des Zustandes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 den Zustand (rd 9 , δ(z0 , x1 αi u), z, ˙ δ(z, ˙ vαk ), z¨, δ(¨ z , αk x2 αi ),fs i,ri ,fs k,rk ): Für alle z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 : δ 0 ((rd 7 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,rk ), ak,1 ) 3 (rd 8 , z, z, ˙ δ(z2 , ak,1 ), z¨, z3 ,fs i,ri ,fs k,1 ) δ 0 ((rd 8 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 8 , z, z, ˙ δ(z2 , ak,l ), z¨, z3 ,fs i,ri ,fs k,l ) δ 0 ((rd 8 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,rk −1 ), ak,rk ) 3 (rd 9 , z, z, ˙ δ(z2 , ak,rk ), z¨, z3 ,fs i,ri ,fs k,rk )


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

18

9. Abschließend wird durch A0 in der vierten Komponente die Arbeit von A simuliert und versucht, das Restwort x3 zu lesen. Zum Ende dieser letzten Phase erreicht A0 einen Zustand (rd 9 , δ(z0 , x1 αi u), z, ˙ δ(z, ˙ vαk x3 ), z¨, δ(¨ z , αk x2 αi ),fs i,ri ,fs k,rk ): Für alle a ∈ V, z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n : δ 0 ((rd 9 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 9 , z, z, ˙ δ(z2 , a), z¨, z3 ,fs i,ri ,fs k,rk ) Essentiell an dieser Stelle ist die Definition von F 0 , der Menge aller Finalzustände von A0 . Sie stellt zunächst an einen Zustand von A0 die Forderung der Gleichheit der Komponenten 2 und 5 sowie 3 und 6, damit dieser als Finalzustand in Frage kommen kann. Dies bedeutet, daß letztlich für sämtliche Finalzustände des Automaten die Bedingung erfüllt sein muß, daß δ(z0 , x1 αi u) = z¨ und δ(¨ z , αk x2 αi ) = z˙ gilt. Hierdurch wird erreicht, daß für die vierte Komponente gilt: q = δ(z, ˙ vαk x3 ) = δ(δ(¨ z , αk x2 αi ), vαk x3 ) = δ(δ(δ(z0 , x1 αi u), αk x2 αi ), vαk x3 ) = δ(z0 , x1 αi uαk x2 αi vαk x3 ) Darauf aufbauend wird an dieses q in der Definition von F 0 die Forderung gestellt, daß q ∈ F gilt – also q ein Finalzustand des ursprünglichen Automaten A ist. Alles zusammen ergibt sich, daß A0 genau jene Wörter w0 akzeptiert, die sich einerseits darstellen lassen als w0 = x1 αi vαk x2 αi uαk x3 mit αi , αk ∈ P und für die andererseits gilt, daß das Wort w = x1 αi uαk x2 αi vαk x3 von A akzeptiert wird, also in L liegt.

3.3

Zur Optimalität der oberen Schranken

Als erstes Theorem dieses Abschnittes soll eine allgemeine Aussage getroffen werden über die Optimalität bestimmter Inklusionsbeziehungen bei Anwendung der dlad-Operation im Kontext von Sprachklassen-Hierarchien, die gewisse Eigenschaften erfüllen: Theorem 5. Für alle Sprachfamilien L1 , L2 mit L1 ⊃ L2 und der Eigenschaft, daß L1 abgeschlossen ist unter beidseitiger Konkatenation mit Buchstaben und L2 abgeschlossen ist unter beidseitiger Quotientenbildung mit Buchstaben6 , gilt: dlad(L1 , FIN) * L2 . Beweis. Es genügt zu zeigen, daß für alle Sprachfamilien L1 , L2 mit den obigen Eigenschaften Sprachen L ∈ L1 und P ∈ FIN derart existieren, daß gilt: dlad(L1 , P ) ∈ / L2 Sei dazu zunächst L ∈ L1 \ L2 und P := {α, β |α, β ∈ / alph(L) } ∈ FIN. Darauf aufbauend wird eine neue Sprache L0 definiert als: L0 := {w0 |w0 = αxβwαxβ, w ∈ L, α, β, x ∈ / alph(L) }. Dann gilt: L0 = dlad(L0 , P ). Da L1 abgeschloßen ist unter (beidseitiger) Konkatenation mit Buchstaben, gilt: L0 ∈ L1 und damit L0 ∈ dlad(L1 , FIN). Angenommen, es gilt ebenfalls L0 ∈ L2 . Dann ließe sich durch Löschen von genau drei Buchstaben jeweils zu Beginn und Ende des Wortes (– den beiden Paaren αxβ, die w in w0 ∈ L0 6

Hierhinter verbirgt sich die Möglichkeit, am Anfang bzw. Ende des Wortes successive einzelne Buchstaben zu löschen. In einschlägiger Literatur wird mitunter nur von „Quotientenbildung“ im allgemeinen gesprochen und darunter der rechtsseitige Fall verstanden . Im Kontext derartiger Konventionen wäre dann in Theorem 5 für L2 eine Abgeschlossenheit unter Quotientenbildung mit Buchstaben und Bildung von Kehrworten zu fordern.


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

19

umschließen, wobei α, β, x ∈ / alph(L) –) aus L0 die Sprache L erzeugen. Da aber L2 abgeschlossen ist unter beidseitiger Quotientenbildung, würde dann allerdings auch gelten: L ∈ L2 . Dies jedoch wäre ein Widerspruch zur Wahl von L. Aus der soeben gewonnenen Erkenntnis folgt sofort das folgende Theorem für die Sprachfamilien der Chomsky-Hierarchie: Theorem 6. dlad(L1 , FIN) * L2 für alle Sprachfamilien L1 , L2 ∈ {FIN, REG, CF, CS, RE} mit L1 ⊃ L2 . Beweis. Die Aussage folgt sofort aus Theorem 5 und der Tatsache, daß FIN, REG, CF, CS und RE abgeschlossen sind sowohl unter (beidseitiger) Konkatenation mit Buchstaben als auch unter (beidseitiger) Quotientenbildung mit Buchstaben. Darüber hinaus folgt aus Theorem 5 sogar die folgende, wesentlich allgemeinere Aussage: Folgerung 3. Sei M = {L1 , . . . , Ln } eine Menge Sprachfamilien mit L1 = FIN und Li ⊂ Li+1 für 1 ≤ i ≤ n − 1 sowie der Eigenschaft, daß die Li sämtlichst abgeschlossen sind unter (beidseitiger) Konkatenation mit Buchstaben und unter (beidseitiger) Quotientenbildung mit Buchstaben. Gilt darüber hinaus dlad(Li+1 , FIN) ⊆ Li+1 für ein 1 ≤ i ≤ n, so ist diese Abschätzung für das entsprechende i optimal bezüglich M. Hierbei handelt es sich um ein wesentliches Ergebnis, das nicht nur eine Aussage über die Sprachfamilien der Chomsky-Hierarchie darstellt. Für Sprachklassen-Hierarchien mit den obigen Eigenschaften kann „im optimalen Fall“ also höchstens nachgewiesen werden, daß einige der enthaltenen Sprachfamilien abgeschlossen sind unter Anwendung der dlad-Operation mit endlichen Sprachen als Zeigermengen – alle in der Hierarchie enthaltenen echten Teilmengen einer Sprachklasse können als Ergebnis der Operation, auf letztere angewendet, im Falle allgemeiner7 endlicher Zeigermengen ausgeschlossen werden. Vor allem im Hinblick auf die Tatsache, daß es in der Theorie der Formalen Sprachen eine Vielzahl relevanter Sprachfamilien gibt, die eine echte Obermenge von CF und gleichzeitig eine echte Teilmenge von CS bilden (vgl. u.a. [Dassow und Pˇaun ]), ist dieses Resultat von Bedeutung. Es erlaubt uns, den folgenden Schluß zu ziehen: Folgerung 4. dlad(CS, FIN) * L für alle L ⊂ CS, die abgeschlossen sind unter beidseitiger Quotientenbildung. D.h. dlad(CS, FIN) ⊂ CS ist optimal bzgl. jeder Hierarchie von Sprachfamilien, die CS enthält und deren Elemente sämtlichst abgeschlossen sind unter (beidseitiger) Quotientenbildung mit Buchstaben. Die folgenden zwei Theoreme zuzüglich der ihnen nachgestellten Schlußfolgerungen beweisen die Optimalität der ermittelten oberen Schranken für dlad(L1 , L2 ) für die Fälle L1 , L2 ∈ {REG, CF, CS} sowie L2 = RE, L1 ∈ {REG, CF, CS}. 7 Das Wort „allgemein“ möge hierbei als Gegenteil zu „konkret“ verstanden werden. D.h., die Aussage erstreckt sich über die Gesamtheit aller Fälle als Ganzes, nicht über jeden einzelnen Fall.


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

20

Theorem 7. dlad(REG, REG) * CF Beweis. Es genügt zu zeigen: dlad(REG, REG) enthält eine nichtkontextfreie Sprache. Sei dazu L = {a, b}+ {cde} {a, b}+ {cd} und P = {a, b}+ ∪ {d}. Beide Sprachen sind regulär: L wird erzeugt durch den regulären Ausdruck RL = (a + b)+ cde(a + b)+ cd, P durch RP = (a + b)+ + d.

Offensichtlich gilt nun aber: X = dlad(L, P ) = xcdexcd x ∈ {a, b}+ . Angenommen nun, diese Sprache sei kontextfrei. Da CF abgeschlossen ist unter k-beschränktem Löschen, wäre dann (durch

Löschen der c, d, e) auch X 0 = xx x ∈ {a, b}+ kontextfrei. Dem ist aber bekanntlich nicht so, womit ein Widerspruch hergeleitet werden konnte, welcher wiederum die einzig getätigte Annahme widerlegt, dlad(L, P ) sei für die gewählten Sprachen L und P kontextfrei. Folgerung 5. dlad(L1 , L2 ) * CF für L1 , L2 ∈ {REG, CF, CS, RE}. Für den Fall rekursiv aufzählbarer Sprachen als Zeigermengen sei dann entsprechend das folgende Theorem angeführt: Theorem 8. dlad(REG, RE) * CS Beweis. Es genügt zu zeigen: dlad(REG, RE) enthält eine nichtkontextsensitive Sprache. Sei L = {c} {0, 1}+ {ddd} {0, 1}+ {ccc} {0, 1}+ {ddd} {0, 1}+ {c}, P = {c}U {d} ∪ {d}U {c} und U eine Sprache aus RE \ CS über dem Alphabet {0, 1} (z.B. die universelle Sprache Lu , siehe [Hopcroft und Ullmann 1994, S. 198 & 244]). L ist regulär – es wird erzeugt durch den regulären Ausdruck RL = c(0 + 1)+ ddd(0 + 1)+ ccc(0 + 1)+ ddd(0 + 1)+ c. Offensichtlich gilt nun aber: dlad(L, P ) = {cw1 dddw2 cccw1 dddw2 c, |w1 , w2 ∈ U }. Diese Sprache kann jedoch auf U reduziert werden, da man basierend auf einem linear beschränkten Automaten LBA dlad , der dlad(L, P ) akzeptiert, einen solchen LBA U bauen kann, der U akzepiert. (LBA U überführt das Eingabewort w wird in ein Wort cwdddwcccwdddwc und simuliert anschließend darauf die Arbeit von LBA dlad . LBA U antwortet genau dann positiv, wenn auch LBA dlad dieses Ergebnis liefert. Hierfür genügt es, eine lineare Beschränkung für LBA U von lU (|w|) = ldlad (|cwdddwcccwdddwc|) = ldlad (4 ∗ |w| + 11) zu verwenden.) Dies bedeutet, daß für die definierten Sprachen L und P die Sprache X = dlad(L, P ) nichtkontextsensitiv ist. Folgerung 6. dlad(L, RE) * CS für L ∈ {REG, CF, CS, RE}. Die vorangegangen Theoreme und Schlußfolgerungen haben die Optimalität der im Abschnitt 3.2 ermittelten oberen Schranken für dlad(L1 , L2 ) für die folgenden Fälle bewiesen: • L1 ∈ {FIN, CS, RE}, L2 ∈ {FIN, REG, CF, CS} (siehe Theorem 3) • L1 = L2 = REG (siehe ebenfalls Theorem 3) • L1 , L2 ∈ {REG, CF, CS} (siehe Theorem 7 und Schlußfolgerung 5) • L1 ∈ {REG, CF, CS}, L2 = RE (siehe Theorem 8 und Schlußfolgerung 6)


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION

21

Der einzige noch offene Fall ist also L1 = CF, L2 = FIN, den das folgende letzte Theorem dieses Abschnittes behandelt: Theorem 9. dlad(CF, FIN) * CF Beweis. Es genügt zu zeigen: dlad(CF, FIN) enthält eine nichtkontextfreie Sprache. Sei hierzu L = {ai oci oobj odj |i, j ≥ 1 } ∈ CF. L ist kontextfrei, da es durch die kontextfreie Grammatik GL = (N, T, P, S) erzeugt werden kann mit:

N

= {S, S1 , S2 },

T

= {a, b, c, d, o},  S → S1 ooS2 ,      S1 → aS1 b, S1 → aob, =   S → cS  2 2 d,   S2 → cod

P

          

P sei definiert als P = {o}. Somit ist L2 := dlad(L, P ) = {ai ocj oobi odj |i, j ≥ 1 } – diese Sprache ist jedoch homomorph zu X = {ai cj bi dj |i, j ≥ 1 }, welche wiederum bekanntermaßen (siehe [Hopcroft und Ullmann 1994, S. 136]) nicht kontextfrei ist. Da aber CF abgeschlossen ist unter Homomorphismen, kann somit L2 ∈ dlad(CF, FIN) nicht kontextfrei gewesen sein.


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

22

Kapitel 4

Erweiterungen der dlad-Operation Im Rahmen der Bearbeitung dieses Diplomthemas hat sich zunehmend die Frage ergeben, inwiefern die gängige Form der Definition der dlad-Operation deren biologisches Pendant auf adäquate Weise widerspiegelt. Präziser formuliert steht zur Disposition, ob durch die gegebene Definition tatsächlich alle Fälle der Realität erfaßt werden – d.h. das Modell umfassend ist. Aus diesem Grunde sollen im folgenden zwei Erweiterungen vorgestellt werden, die sich als prinzipiell denkbar erwiesen haben. Es wird dabei zunächst erwähnt, worin sich die jeweilige Erweiterung letztlich begründet, anschließend eine entsprechend veränderte Version der Definition gegeben und abschließend eruiert, inwiefern sich diese auf die untersuchten Inklusionsbeziehungen bzgl. der Chomsky-Hierarchie auswirkt.

4.1

Erste Erweiterung

4.1.1

Definitionen

Im Rahmen der ersten Erweiterung wird die Frage erörtert, inwiefern die Anordnung der beiden bei der dlad-Operation involvierten Zeiger-Paare sich unter gewissen Umständen anders darstellen könnte. In Abbildung 4.1 ist eine solche Situation dargestellt. Zu erkennen ist, daß es sich strukturell um im Grunde genommen dieselbe Art der Rekombination handelt wie in Abbildung 2.5. Ein eingehender Blick1 zeigt allerdings, daß im Falle dieser alternativen Konstellation die beteiligten Markierungen in veränderter Reihenfolge und zudem auf einander paarweise verschiedenen Einzelsträngen der DNA angelagert vorliegen. (a)

(b)

β

x2

x2 x2

β u

x1

α

u

−→

(c)

β

ββ

x2

β

x2 x2

β u

x1

α

u

−→

(d)

β

β

β

x2 x2

β

x1

α

−→

v v

x1

x3

α α

x1

v v

x3

α

x3

x3

α

α

x1

v v

α

x3

x3

α α

β

β

α

ββ β

x1

α

u

v v

u

x1 x3

x3

α α α

Abbildung 4.1: ”Double Loop, Alternating Direct Repeat” – Alternative Konstellation (dlad2 ) 1

Man verfolge allein den Verlauf eines jeden der beiden Einzelstränge.

u u


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

23

Unter Beachtung dieser Randbedingungen ergibt sich für den gerade beschriebenen Fall die folgende Definition2 : Definition 3. Sei V ein Alphabet, w ein Wort über V und P ⊆ V + eine Menge von Zeigern. Dann wird definiert:

dlad2 (w, P ) := x1 αvβx2 β u αx3 w = x1 αuβx2 βvαx3 , x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + , α, β ∈ P Diese Definition läßt sich auf Sprachen sowie Sprachfamilien erweitern: Definition 4. Seien L und P zwei Sprachen und L1 und L2 zwei Sprachfamilien. Dann sei dlad2 (L, P ) und dlad2 (L1 , L2 ) wie folgt definiert: [ dlad2 (L, P ) := dlad2 (w, P ) w∈L

dlad2 (L1 , L2 ) := {dlad2 (L, P ) |L ∈ L1 , P ∈ L2 } Auf Basis dieser Definitionen sollen im folgenden nun obere Schranken für die Inklusionsbeziehungen bei Anwendung der Operation bestimmt werden, für welche wiederum im Abschnitt darauf die Optimalität nachgewiesen wird.

4.1.2

Obere Schranken

Bevor nun im folgenden obere Schranken für die Inklusionsbeziehungen auf Basis der oben gegebenen Definition von dlad2 ermittelt werden, sei zuvor noch kurz auf eine nicht unwesentliche Erkenntnis im Zusammenhang mit dieser ersten Erweiterung der dlad-Operation eingegangen. Führt man sich die Abbildungen 2.4 und 4.1 nochmals vor Augen, so läßt sich im Vergleich dieser beiden feststellen: Die im Rahmen dieser ersten Erweiterung modellierte alternative Konstellation der dladOperation kann im Grunde durch doppeltes Anwenden der Hairpin-Operation (hi) simuliert werden – zunächst einmal für das Paar der α und anschließend ein weiteres Mal für das Paar der β, beziehungsweise vice versa. Tatsächlich kann bei geeigneter Definition der Hairpin-Operation – anlehnend an [Dassow und Vaszil 2003], allerdings erweitert um den zusätzlichen Freiheitsgrad der der in Kapitel 3.1 eingeführten bijektiven Abbildung zur Modellierung homologer Basen-Paare – durch den Autor dieser Diplomarbeit formal lediglich bewiesen werden: dlad2 (w, P ) ⊆ hi(hi(w, P ), P ) Dies liegt im wesentlichen daran, daß für eine doppelte Anwendung der Hairpin-Operation auch Kombinationen für die Lage der beteiligten Zeiger auftreten können, die durch dlad2 nicht erfaßt werden. Würde gelten: dlad2 (w, P ) = hi(hi(w, P ), P ), so könnten (unter Beachtung der doppelten Anwendung von hi) bekannte obere Schranken durch Anwendung der hi-Operation induzierten Inklusionsbeziehungen auf dlad2 übertragen werden, und müßten lediglich hinsichtlich ihrer Optimalität bewiesen werden. 2 Das Auftreten der in Abschnitt 3.1 eingeführten Bijektion trägt dem Umstand Rechnung, daß die Zeiger-Paare auf verschiedenen Einzelsträngen angeordnet sind. Lediglich einen Strang betrachtet bedeutet dies, daß einmal der Zeiger selbst und an späterer Position dessen homologe Inversion als Teilsequenz auftreten.


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

24

Insofern stellt die obige Aussage zwar eine interessante Erkenntnis dar, doch liefert sie keinen Mehrwert im Hinblick auf die im Rahmen dieser Diplomarbeit durchgeführten Untersuchungen. Aus diesem Grunde wird auch auf einen Beweis der Aussage verzichtet und stattdessen direkt mit der Bestimmung der ersten oberen Schranken bei Anwendung von dlad2 fortgefahren. Auf Basis der dargelegten Beweise in den Kapiteln 3.2 und 3.3 kann bereits eine Vielzahl von Aussagen übernommen werden, da sich die Beweise für den Fall der Operation dlad2 völlig analog – bzw. mit nur minimalen Änderungen, die dem Leser überlassen bleiben mögen – ergeben. Hierzu zählen zunächst die Lemmata 1 und 2 sowie Theorem 3. Der Beweis zu Theorem 1 überträgt sich für den Fall der Operation dlad2 automatisch – einzige Ausnahme ist die Tatsache, daß die Teilwörter γ, δ in Schritt (2) des Beweises rückwärts und unter Verwendung der durch ¯ definierten Transformation auf den allokierten Speicherbereich geschrieben werden müssen; die Abschätzung der linearen Beschränkung kann ohne Änderung übernommen werden. Schlußfolgerung 1, Theorem 2 sowie Schlußfolgerung 2 übertragen sich automatisch. Theorem 4 bedarf allerdings einer kleinen Änderung: Theorem 10. dlad2 (REG, FIN) ⊂ REG Beweis. Der Beweis kann ziemlich analog zu dem für Theorem 4 geführt werden. Im wesentlichen müssen lediglich die Punkte 3, 6, 7 und 8 effektiv geändert werden. Da allerdings die dort durchgeführten Änderungen auch Einfluß auf die Zwischenzustände des Automaten haben, welche in der Abschlußbetrachtung zu der von ihm akzeptierten Sprache heranzuziehen sind, soll im folgenden die Definition der Transitionsfunktion δ 0 in vollständiger Weise angeführt werden. Der Automat A0 selbst wird analog zu jenem im Beweis zu Theorem 4 definiert als: A0 = (V, R × Z × Z˜ × Z˜ × Z˜ × Z˜ × K × K), (rd 1 , z0 , o, o, o, o, o, o), F 0 , δ 0 , ˜ K und F 0 ebenfalls mit den dort genannten übereinstimmen. wobei die Definitionen der Mengen R, Z, δ 0 für diesen Automaten sei schrittweise wie folgt definiert: 1. Beginnend im Initialzustand von A und x1 lesend erreicht A0 durch Simulation von A in der zweiten Komponente den Zustand (rd 1 , δ(z0 , x1 ), o, o, o, o, o, o): Für alle a ∈ V, z ∈ Z : δ 0 ((rd 1 , z, o, o, o, o, o, o), a) 3 (rd 1 , δ(z, a), o, o, o, o, o, o) 2. A0 prüft nun, ob auf das Teilwort x1 in w0 ein Wort αi ∈ P folgt – hierzu wird die siebente Komponente des Zustandes verwendet. Parallel dazu wird in der zweiten Komponente des Zustandes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand (rd 3 , δ(z0 , x1 αi ), z, ˙ z, ˙ z¨, z¨,fs i,ri , o): Für alle z, z, ˙ z¨ ∈ Z, 1 ≤ i ≤ n, 2 ≤ j ≤ ri − 1 : δ 0 ((rd 1 , z, o, o, o, o, o, o), ai,1 ) 3 (rd 2 , δ(z, ai,1 ), o, o, o, o,fs i,1 , o) δ 0 ((rd 2 , z, o, o, o, o,fs i,j−1 , o), ai,j ) 3 (rd 2 , δ(z, ai,j ), o, o, o, o,fs i,j , o) δ 0 ((rd 2 , z, o, o, o, o,fs i,ri −1 , o), ai,ri ) 3 (rd 3 , δ(z, ai,ri ), z, ˙ z, ˙ z¨, z¨,fs i,ri , o)


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

25

3. Nun wird in der dritten Komponente des Zustandes von A0 die Arbeit von A simuliert und von z˙ ausgehend v¯ gelesen. Da A allerdings die Eingabe v statt v¯ zu lesen hat, ist es aufgrund der Definition von ¯ notwendig, diese Simulation von A rückwärts durchzuführen und dabei zu jedem gelesen Buchstaben a zunächst jeweils das korrespondierende a ¯ zu bilden. Mit Abschluß dieser 0 −1 Phase erreicht A einen Zustand(rd 3 , δ(z0 , x1 αi ), δ (z, ˙ v), z, ˙ o, o,fs i,ri , o): Für alle a ∈ V, z, z2 , z, ˙ z¨ ∈ Z, 1 ≤ i ≤ n und alle z2−1 ∈ δ −1 (z2 , a) : δ 0 ((rd 3 , z, z2 , z, ˙ z¨, z¨,fs i,ri , o), a) 3 (rd 3 , z, z2−1 , z, ˙ z¨, z¨,fs i,ri , o) 4. A0 prüft nun, ob auf das Teilwort x1 αi v¯ in w0 ein Wort αk ∈ P folgt – hierzu wird die achte Komponente des Zustandes verwendet. Parallel dazu wird in der sechsten Komponente des Zustandes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand (rd 5 , δ(z0 , x1 αi ), δ −1 (z, ˙ v), z, ˙ z¨, δ(¨ z , αk ),fs i,ri ,fs k,rk ): Für alle z, z2 , z3 , z4 , z¨ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 : δ 0 ((rd 3 , z, z, ˙ z2 , z¨, z¨,fs i,ri , o), ak,1 ) 3 (rd 4 , z, z4 , z2 , z¨, δ(¨ z , ak,1 ),fs i,ri ,fs k,1 , ) δ 0 ((rd 4 , z, z4 , z2 , z¨, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4 , z, z4 , z2 , z¨, δ(z3 , ak,l ),fs i,ri ,fs k,l , ) δ 0 ((rd 4 , z, z4 , z2 , z¨, z3 ,fs i,ri ,fs k,rk −1 ), ak,rk ) 3 (rd 5 , z, z4 , z2 , z¨, δ(z3 , ak,rk −1 ),fs i,ri ,fs k,rk ) 5. In der sechsten Komponente des Zustandes von A0 wird weiter die Arbeit vonA simuliert, um x2 zu lesen. Mit Abschluß dieser Phase erreicht A0 einen Zustand (rd 5 , δ(z0 , x1 αi ), δ −1 (z, ˙ v), z, ˙ z¨, δ(¨ z , αk x2 ),fs i,ri ,fs k,rk ): Für alle a ∈ V, z, z2 , z3 , z4 , z¨ ∈ Z, 1 ≤ i, k ≤ n : δ 0 ((rd 5 , z, z4 , z2 , z¨, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 5 , z, z4 , z2 , z¨, δ(z3 , a),fs i,ri ,fs k,rk ) 6. A0 prüft nun, ob auf das Teilwort x1 αi v¯αk x2 in w0 das zum bereits erfaßten αk ∈ P korrespondierende αk folgt – hierzu wird wie in Schritt 2 die siebente Komponente des Zustandes verwendet. Parallel dazu wird wie gehabt in der sechsten Komponente des Zustandes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand (rd 7 , δ(z0 , x1 αi ), δ −1 (z, ˙ v), z, ˙ z¨, δ(¨ z , αk x2 αk ),fs i,ri ,fs k,rk ): Für alle z, z2 , z3 , z4 , z¨ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 : δ 0 ((rd 5 , z, z4 , z2 , z¨, z3 ,fs i,ri ,fs k,rk ), ak,rk ) 3 (rd 6 , z, z4 , z2 , z¨, δ(z3 , ak,rk ),fs i,ri ,fs k,rk −1 ) δ 0 ((rd 6 , z, z4 , z2 , z¨, z3 ,fs i,ri ,fs k,l ), ak,l ) 3 (rd 6 , z, z4 , z2 , z¨, δ(z3 , ak,l ),fs i,ri ,fs k,l−1 ) δ 0 ((rd 6 , z, z4 , z2 , z¨, z3 ,fs i,ri ,fs k,1 ), ak,1 ) 3 (rd 7 , z, z4 , z2 , z¨, δ(z3 , ak,1 ),fs i,ri ,fs k,rk ) 7. A0 wechselt nun zurück auf die fünfte Komponente des Zustandes, um dort von z¨ ausgehend die Arbeit von A zu simulieren und u ¯ zu lesen. Wie in Schritt 3 gilt auch hier: Da A die Eingabe v statt v¯ zu lesen hat, ist es aufgrund der Definition von ¯ notwendig, diese Simulation von A rückwärts durchzuführen und dabei zu jedem gelesen Buchstaben a zunächst jeweils das korrespondierende a ¯ zu bilden. Nach Abschluß dieser Phase erreicht A0 einen Zustand (rd 7 , δ(z0 , x1 αi ), δ −1 (z, ˙ v), z, ˙ δ −1 (¨ z , u), δ(¨ z , αk x2 αi ),fs i,ri ,fs k,rk ): Für alle a ∈ V, z, z2 , z3 , z4 , z5 ∈ Z, 1 ≤ i, k ≤ n und alle z5−1 ∈ δ −1 (z5 , a) : δ 0 ((rd 7 , z, z4 , z2 , z5 , z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 7 , z, z4 , z2 , z5−1 , z3 ,fs i,ri ,fs k,rk )


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

26

8. A0 prüft nun, ob auf das Teilwort x1 αi v¯αk x2 αk u in w0 das zum bereits erfaßten αi ∈ P korrespondierende αi folgt – hierzu wird wie in Schritt 4 die achte Komponente des Zustandes verwendet. Parallel dazu wird in der vierten Komponente des Zustandes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 den Zustand z , u), δ(¨ z , αk x2 αk ),fs i,ri ,fs k,rk ): (rd 9 , δ(z0 , x1 αi ), δ −1 (z, ˙ v), δ(z, ˙ αi ), δ −1 (¨ Für alle z, z2 , z3 , z4 , z5 ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ j ≤ ri − 1 : δ 0 ((rd 7 , z, z4 , z2 , z5 , z3 ,fs i,ri ,fs k,rk ), ak,rk ) 3 (rd 8 , z, z4 , δ(z2 , ai,ri ), z5 , z3 ,fs i,ri −1 ,fs k,rk ) δ 0 ((rd 8 , z, z4 , z2 , z5 , z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 8 , z, z4 , δ(z2 , ai,j ), z5 , z3 ,fs i,j−1 ,fs k,rk ) δ 0 ((rd 8 , z, z4 , z2 , z5 , z3 ,fs i,ri ,fs k,1 ), ak,1 ) 3 (rd 9 , z, z4 , δ(z2 , ai,1 ), z5 , z3 ,fs i,ri ,fs k,rk ) 9. Abschließend wird durch A0 in der vierten Komponente die Arbeit von A simuliert und versucht, das Restwort x3 zu lesen. Zum Ende dieser letzten Phase erreicht A0 einen Zustand (rd 9 , δ(z0 , x1 αi ), δ −1 (z, ˙ v), δ(z, ˙ αi x3 ), δ −1 (¨ z , u), δ(¨ z , αk x2 αk ),fs i,ri ,fs k,rk ): Für alle a ∈ V, z, z2 , z3 , z4 , z5 ∈ Z, 1 ≤ i, k ≤ n : δ 0 ((rd 9 , z, z4 , z2 , z¨, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 9 , z, z4 , δ(z2 , a), z5 , z3 ,fs i,ri ,fs k,rk ) Essentiell an dieser Stelle ist die Definition von F 0 , der Menge aller Finalzustände von A0 . Sie stellt zunächst an einen Zustand von A0 die Forderung der Gleichheit der Komponenten 2 und 5 sowie 3 und 6, damit dieser als Finalzustand in Frage kommen kann. Dies bedeutet, daß letztlich für sämtliche Finalzustände von A0 die Bedingung erfüllt sein muß, daß δ(z0 , x1 αi ) = δ −1 (¨ z , u) −1 und δ(¨ z , αk x2 αk ) = δ (z, ˙ v) gilt. Dies impliziert: δ(δ(z0 , x1 αi ), u) = δ(z0 , x1 αi u) = z¨ und δ(δ(¨ z , αk x2 αk ), v) = δ(¨ z , αk x2 αk v) = z˙ gilt. Hierdurch wird also erreicht, daß für die vierte Komponente gilt: z , αk x2 αk v), αi x3 ) = δ(δ(δ(z0 , x1 αi u), αk x2 αk v), αi x3 ) q = δ(z, ˙ αi x3 ) = δ(δ(¨ = δ(z0 , x1 αi uαk x2 αk vαi x3 ) Darauf aufbauend wird an dieses q in der Definition von F 0 die Forderung gestellt, daß q ∈ F gilt – also q ein Finalzustand des ursprünglichen Automaten A ist. Alles zusammen ergibt sich, daß A0 genau jene Wörter w0 akzeptiert, die sich einerseits darstellen lassen als w0 = x1 αi v¯αx2 αk u ¯ αi x3 mit αi , αk ∈ P und für die andererseits gilt, daß das Wort w = x1 αi uαk x2 αk vαi x3 von A akzeptiert wird, also in L liegt.

Für den Fall, daß sowohl die Basissprache als auch die Zeigermenge regulärer Sprachen darstellen, läßt sich im Gegensatz zu dlad für dlad2 eine bessere Abschätzung finden, wie das folgende Theorem zeigt: Theorem 11. dlad2 (REG, REG) ⊂ CF Beweis. Seien L, P reguläre Sprachen über o.B.d.A. demselben Alphabet X, die durch die (deterministischen) endlichen Automaten AL = (X, ZL , zL,0 , FL , δL ) und AP = (X, ZP , zP,0 , FP , δP ) akzeptiert werden.


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

27

Wir definieren nun basierend auf AL und AP den folgenden (nichtdeterministischen) Kellerautomaten K = (X, ZK , X, zK,0 , FK , δK ), mit: ZK = ZL × ZP × Z˜L × Z˜L × S , Z˜L = ZL ∪ {o} S = {rd x1 ,rd α ,rd v ,rd β ,rd x2 ,rd β , lrd u ,rd α ,rd x3 ,rd u ,rd v } , zK,0 = (zL,0 , zP,0 , o, o,rd 1 ) , [ FK = {zL } × FP × {zL } × FL × {rd x3 } zL ∈ZL

und der folgenden Definition für die Transitionsfunktion δK : 1. Ausgehend vom Initialzustand (zL,0 , zP,0 , o, o,rd 1 ) beginnt K mit der Verarbeitung des ersten Teilwortes x1 . In der ersten Komponente des Zustandes wird dabei die Arbeitsweise des Automaten AL simuliert. Mit Abschluß dieser Aktion erreicht K die Konfiguration (αvβx2 β u αx3 , (δL (zL,0 , x1 ), zP,0 , o, o,rd x1 ), #): Für alle x ∈ X, zL ∈ ZL : δK ((zL , zP,0 , o, o,rd x1 ), x, #) 3 ((δL (zL , x), zP,0 , o, o,rd x1 ), R, #) 2. K verarbeitet α und legt für jeden gelesenen Buchstaben x den Buchstaben x auf den Stack. In der ersten Komponente des Zustandes von K wird dabei weiterhin mit der Simulation von AL fortgefahren. Zum Erkennen, ob ein α aus der Zeigermenge P vorliegt, wird parallel in der zweiten Komponente von zP,0 ausgehend AP simuliert. Die abschließende Konfiguration ist (vβx2 β u αx3 , (δL (zL,0 , x1 α), δP (zP,0 , α), o, o,rd α ), α ¯ #): Für alle x, a ∈ X, zL ∈ ZL , zP ∈ ZP : δK ((zL , zP,0 , o, o,rd x1 ), x, #) 3 ((δL (zL , x), δP (zP,0 , x), o, o,rd α ), R, x#) δK ((zL , zP , o, o,rd α ), x, a) 3 ((δL (zL , x), δP (zP , x), o, o,rd α ), R, xa) 3. An dieser Stelle wird die Simulation von AL zunächst unterbrochen – der aktuelle Zustand von AL wird in der dritten Komponente von K als zLα = δL (zL,0 , x1 α) gemerkt. K liest v (verarbeitet wird dieses Teilwort erst zu einem späteren Zeitpunkt) und legt für jeden Buchstaben x dieses Wortes den Buchstaben x auf den Stack. Zunächst wird allerdings die Menge aller erlaubten initialen Zustände für diesen Schritt auf solche eingeschränkt, die in der zweiten Komponente einen Finalzustand fP für AP vorzuweisen haben. Diese Einschränkung gewährleistet, daß im Schritt zuvor das Teilwort α als Zeiger aus P erkannt wurde. Da das Teilwort u erst später gelesen werden kann, muß an dieser Stelle nichtdeterministisch jeder mögliche Fall untersucht werden, der als Zustand zLu = δL (zL,0 , x1 αu) = δL (zLα , u) für AL auftreten kann, wenn letzterer vom aktuellen Zustand zLα ausgehend das Teilwort u liest. Für jeden derartigen Fall wird sich in der dritten Komponente des Zustandes von AL besagtes zLu gemerkt (zum Zwecke eines späteren Vergleiches, um die ungültigen Fälle herauszufiltern), während in der vierten Komponente von diesem „geratenen“ Wert ausgehend später mit der Simulation von AL fortgefahren wird. Mit Abschluß dieses Schrittes erreicht K die Konfiguration (βx2 β u αx3 , (δL (zL,0 , x1 α), zP,0 , z˙Lu , z˙Lu ,rd α ), vα#):


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

28

Für alle x, a ∈ X, zLα , z˙Lu ∈ ZL , fP ∈ FP : δK ((zLα , fP , o, o,rd α ), x, a) 3 ((zLα , zP,0 , z˙Lu , z˙Lu ,rd v ), R, xa) δK ((zLα , zP,0 , z˙Lu , z˙L ,rd v ), x, a) 3 ((zLα , zP,0 , z˙Lu , z˙Lu ,rd v ), R, xa) 4. K verarbeitet β und legt für jeden Buchstaben x dieses Wortes den Buchstaben x auf den Stack. Um zu prüfen, ob β ∈ P gilt, wird in der zweiten Komponente wieder die Arbeit von AP simuliert. Parallel dazu wird – von dem im Schritt zuvor „geratenen“ Zustand zLu ausgehend – in der vierten Komponente die Arbeit von AL simuliert. Nach Durchführung dieses Schrittes erreicht K die Konfiguration (x2 β u αx3 , ((zL,0 , x1 α), δP (zP,0 , β), z˙Lu , δL (z˙Lu , β),rd β ), βvα#): Für alle x, a ∈ X, zLα , z˙Lu , z˙L ∈ ZL , zP ∈ ZP : δK ((zLα , zP,0 , z˙Lu , z˙Lu ,rd v ), x, a) 3 ((zLα , δP (zP,0 , x), z˙Lu , δL (z˙Lu , x),rd β ), R, xa) δK ((zLα , zP , z˙Lu , z˙L ,rd β ), x, a) 3 ((zLα , δP (zP , x), z˙Lu , δL (z˙L , x),rd β ), R, xa) 5. K schreitet mit der Simulation von AL (in der vierten Komponente) fort und verarbeitet x2 . Initial wird jedoch zunächst die Menge aller zulässigen Zustände auf solche eingeschränkt, für die in der zweiten Komponente ein fP ∈ FP erreicht werden konnte. Dies sichert, daß im Schritt zuvor β als zur Sprache P zugehörig erkannt wurde. Mit Beendigung dieses Schrittes erreicht K die Konfiguration (β u αx3 , (δL (zL,0 , x1 α), δP (zP,0 , β), z˙Lu , δL (z˙Lu , βx2 ),rd x2 ), βvα#): Für alle x, a ∈ X, zLα , z˙Lu , z˙L ∈ ZL , fP ∈ FP : δK ((zLα , fP , z˙Lu , z˙L ,rd β ), x, a) 3 ((zLα , fP , z˙Lu , δL (z˙L , x),rd x2 ), R, a) δK ((zLα , fP , z˙Lu , z˙L ,rd x2 ), x, a) 3 ((zLα , fP , z˙Lu , δL (z˙L , x),rd x2 ), R, a) 6. K verarbeitet β und vergleicht es schrittweise mit dem auf dem Stack gespeicherten Wort. Parallel dazu wird weiterhin die Arbeit von AL simuliert. Die abschließende Konfiguration lautet: (u αx3 , (δL (zL,0 , x1 α), δP (zP,0 , β), z˙Lu , δL (z˙Lu , βx2 β),rd β ), vα#): Für alle a ∈ X, zLα , z˙Lu , z˙L ∈ ZL , fP ∈ FP , prev ∈ {β, x2 } : δK ((zLα , fP , z˙Lu , z˙L ,rd prev ), a, a) 3 ((zLα , fP , z˙Lu , δL (z˙L , a),rd β ), R, λ) δK ((zLα , fP , z˙Lu , z˙L ,rd β ), a, a) 3 ((zLα , fP , z˙Lu , δL (z˙L , a),rd β ), R, λ) 7. K liest u und legt, da statt u das Wort u verarbeitet werden muß, für jeden gelesenen Buchstaben x den Buchstaben x auf den Stack. Somit wird sich die Konfiguration nur hinsichtlich des zu lesenden Restwortes, des Stacks und der fünften Komponente des Zustandes von K ändern und (αx3 , (δL (zL,0 , x1 α), δP (zP,0 , β), z˙Lu , δL (z˙Lu , βx2 β),rd u ), uvα#): Für alle x, a ∈ X, zLα , z˙Lu , z˙L ∈ ZL , fP ∈ FP : δK ((zLα , fP , z˙Lu , z˙L ,rd β ), x, a) 3 ((zLα , fP , z˙Lu , z˙L ,rd u ), R, xa) δK ((zLα , fP , z˙Lu , z˙L ,rd u ), x, a) 3 ((zLα , fP , z˙Lu , z˙L ,rd u ), R, xa) 8. K liest u vom Stack und verarbeitet es. Für diesen Schritt wird temporär mit der Simulation von AL auf die erste Komponente zurückgewechselt. K erreicht eine Konfiguration der Form (αx3 , (δL (zL,0 , x1 αu), δP (zP,0 , β), z˙Lu , δL (z˙Lu , βx2 β),rd u ), vα#):


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

29

Für alle x, a ∈ X, zLα , zL , z˙Lu , z˙L ∈ ZL , fP ∈ FP : δK ((zLα , fP , z˙Lu , z˙L ,rd u ), x, a) 3 ((δL (zLα , a), fP , z˙Lu , z˙L ,rd u ), N, λ) δK ((zL , fP , z˙Lu , z˙L ,rd u ), x, a) 3 ((δL (zL , a), fP , z˙Lu , z˙L ,rd u ), N, λ) 9. K liest v vom Stack und verarbeitet es. Die Simulation von AL geschieht nun wieder auf der vierten Komponente. Zu Beginn wird die erste und dritte Komponente auf Gleichheit geprüft, um die (nichtdeterministisch) untersuchten Fälle auf die zulässigen einzuschränken. Mit Abschluß dieses Schrittes wird K eine Konfiguration (αx3 , (δL (zL,0 , x1 αu), δP (zP,0 , β), z˙Lu , δL (z˙Lu , βx2 βv),rd β ), α#) angenommen haben: Für alle x, a ∈ X, zLα , z˙Lu , z˙L ∈ ZL , fP ∈ FP : δK ((z˙Lu , fP , z˙Lu , z˙L ,rd u ), x, a) 3 ((z˙Lu , fP , z˙Lu , δL (z˙L , x),rd v ), N, λ) δK ((z˙Lu , fP , z˙Lu , z˙L ,rd v ), x, a) 3 ((z˙Lu , fP , z˙Lu , δL (z˙L , x),rd v ), N, λ) 10. K liest α und vergleicht es schrittweise mit dem auf dem Stack gespeicherten Wort. Nach diesem Schritt wird der Stack vollständig geleert sein, sofern das Eingabewort die vom Automaten zu akzeptierende Struktur hat, und eine Konfiguration (x3 , (δL (zL,0 , x1 αu), δP (zP,0 , β), z˙Lu , δL (z˙Lu , βx2 βvα),rd β ), #) vorliegen: Für alle x, a ∈ X, z˙Lu , z˙L ∈ ZL , fP ∈ FP : δK ((z˙Lu , fP , z˙Lu , z˙L ,rd u ), x, a) 3 ((z˙Lu , fP , z˙Lu , δL (z˙L , x),rd α ), N, λ) δK ((z˙Lu , fP , z˙Lu , z˙L ,rd α ), x, a) 3 ((z˙Lu , fP , z˙Lu , δL (z˙L , x),rd α ), N, λ) 11. K verarbeitet nun das letzte Teilwort x3 . Dazu wird, wie gehabt, in der vierten Komponente die Arbeitsweise von AL simuliert. Der Stack muß an diesem Punkt leer sein – alle anderen Zustände wären invalid. Die für diesen Schritt (– und für die gesamte Arbeit von K –) abschließende Konfiguration lautet: (λ, (δL (zL,0 , x1 αu), δP (zP,0 , β), z˙Lu , δL (z˙Lu , βx2 βvαx3 ),rd x3 ), #): Für alle x, a ∈ X, z˙Lu , z˙L ∈ ZL , fP ∈ FP : δK ((z˙Lu , fP , z˙Lu , z˙L ,rd α ), x, #) 3 ((z˙Lu , fP , z˙Lu , δL (z˙L , x),rd x3 ), N, λ) δK ((z˙Lu , fP , z˙Lu , z˙L ,rd x3 ), x, #) 3 ((z˙Lu , fP , z˙Lu , δL (z˙L , x),rd x3 ), N, λ) Essentiell an dieser Stelle ist die Definition von FK , der Menge aller Finalzustände von K. Sie forciert die Gleichheit der Komponenten 1 und 3 für ein jedes Element von FK . Dies bedeutet, daß letztlich für sämtliche Finalzustände von K die Bedingung erfüllt sein muß, daß δL (zL,0 , x1 αu) = z˙Lu gilt. Hierdurch wird erreicht, daß für die vierte Komponente gilt:

q = δL (z˙Lu , βx2 βvαx3 ) = δL (δL (zL,0 , x1 αu), βx2 βvαx3 ) = δL (zL,0 , x1 αuβx2 βvαx3 ) Darauf aufbauend wird an dieses q in der Definition von FK die Forderung gestellt, daß q ∈ FL gilt – d.h. q ein Finalzustand des Automaten AL ist. Alles zusammen ergibt sich also, daß K genau jene Wörter w0 akzeptiert, die sich einerseits darstellen lassen als w0 = x1 αvβx2 β u αx3 mit α, β ∈ P und für die andererseits gilt, daß das Wort w = x1 αuβx2 βvαx3 von AL akzeptiert wird, also in L liegt.


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

4.1.3

30

Zur Optimalität der oberen Schranken

Anmerkung. Für die nachfolgenden Betrachtungen sei o. B. d. A. die Funktion : V → V gleich der Identität: = id, d.h. x := id(x) = x für alle x ∈ V . Hieraus folgt automatisch, daß die Erweiterung von auf ganze Wörter der Bildung des Kehrwortes entspricht: w = wR für alle w ∈ V ∗ . Die Annahme beschränkt aus folgendem Grunde nicht die Allgemeinheit zur Wahl von

:

Für jeden der im folgenden geführten Beweise gilt für den dort untersuchten Spezialfall der Anwendung von dlad2 auf gezielt konstruierte Sprachen L und P , daß es ein gewisses n gibt, mit: |alph(L)| = n. (D.h., dlad2 wird auf eine Basissprache mit insgesamt n verschiedenen Buchstaben angewandt.) Dann sei für den jeweiligen Beweis zunächst ein Alphabet V gewählt mit |V | = 2n. Für dieses V ist es nun für jede Funktion , die konform ist zur in Abschnitt 3.1 gegebenen Definition, auf alle Fälle möglich, abhängig von wie folgt n Buchstaben auszuwählen: Beginnend mit V 0 = V wird n-mal successive ein Buchstabe x ∈ V 0 gewählt und sowohl x als auch x aus V 0 entfernt. Für die Menge V˜ der nach diesem Schema selektierten Buchstaben gilt dann: Für jedes x ∈ V˜ gilt dann entweder: x = x, oder aber: x ∈ V \ V˜ . Für die Beweisführung werden nun lediglich Buchstaben aus V˜ verwendet – o.B.d.A. seien es genau jene, derer sich auch im Beweis bedient wird. Der Kontext des Beweises durchgeführten Anwendung von dlad2 wird dann folgende endliche Folge von Substitutionen nachgeschaltet: Für jeden Buchstaben aus x ∈ V˜ wird in dem entstehenden Wort jedes Vorkommen von x wieder durch x ersetzt. Der Rest des Beweises kann dann offensichtlich unverändert übernommen werden. Da nun jede der Sprachklassen der Chomsky-Hierarchie abgeschlossen ist unter λ-freien wie auch inversen Homomorphismen, ändert sich durch das Zwischenschalten dieser endlichen Folge von Buchstaben-Umbenennungen nichts an der (Nicht-)Zugehörigkeit der sich ergebenden Sprache zu den entsprechenden Sprachklassen. Unter dieser Voraussetzung können nun also Theorem 5 und die daraus gewonnenen Implikationen Theorem 6 und Schlußfolgerung 3 ohne Einschränkung auch für dlad2 übernommen werden. Theorem 12. dlad2 (REG, REG) * REG Beweis. Es genügt zu zeigen: dlad2 (REG, REG) enthält eine nichtreguläre Sprache. Seien dazu die Basissprache L = {xam1 xcxbn1 xxbn2 xcxam2 x | n1 , n2 , m1 , m2 > 1 } und die Zeigermenge P = {xam x, xbn x | n, m > 1 }. Beide Sprachen sind regulär – L wird erzeugt durch den regulären Ausdruck RL = xa+ xcxb+ xxb+ xcxa+ x, P durch RP = xa+ x + xb+ x. Offensichtlich gilt nun aber: X = dlad2 (L, P ) = {xam xcxbn xxbn xcxam x | n, m > 1 }, welche allerdings nicht regulär ist. Theorem 13. dlad2 (REG, RE) * CS Beweis. Dieser Beweis wird analog geführt zu jenem für Theorem 8. Es genügt zu zeigen: dlad2 (REG, RE) enthält eine nichtkontextsensitive Sprache. Sei L = {c} {0, 1}+ {ddd} {0, 1}+ {ccc} {0, 1}+ {ddd} {0, 1}+ {c}, P = {c}U {d} ∪ {d}U {c} und U eine Sprache aus RE \ CS über dem Alphabet {0, 1}. L ist regulär – es wird erzeugt durch den regulären Ausdruck RL = c(0 + 1)+ ddd(0 + 1)+ ccc(0 + 1)+ ddd(0 + 1)+ c.


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

31

Offensichtlich gilt nun aber: dlad2 (L, P ) = cw1 dddw2 cccw1R dddw2R c, |w1 , w2 ∈ U . Diese Sprache kann jedoch auf P 0 reduziert werden, da man basierend auf einem linear beschränkten Automaten LBA dlad2 , der dlad2 (L, U ) akzeptiert, einen solchen LBA U bauen kann, der U akzepiert. (LBA U überführt das Eingabewort w wird in ein Wort cwdddwcccwR dddwR c und simuliert anschließend darauf die Arbeit von LBA dlad2 . LBA U antwortet genau dann positiv, wenn auch LBA dlad2 dieses Ergebnis liefert. Hierfür genügt es, eine lineare Beschränkung für LBA U von lP (|w|) = ldlad2 (|cwdddwcccwR dddwR c|) = ldlad2 (4 ∗ |w| + 11) zu verwenden.) Dies bedeutet, daß für die definierten Sprachen L und P die Sprache X = dlad2 (L, P ) nicht kontextsensitiv ist. Analog zur aus Theorem 8 gewonnenen Schlußfolgerung 6 ergibt sich aus der eben bewiesenen Aussage weiterhin: Folgerung 7. dlad2 (L, RE) * CS für L ∈ {REG, CF, CS, RE}. Auf Basis der zu Beginn dieses Abschnittes getätigten Anmerkung kann weiterhin auch Theorem 9 ohne Einschränkung auf dlad2 übertragen werden. Darauf stützend läßt sich schlußfolgern: Folgerung 8. dlad2 (CF, L) * CF für L ∈ {REG, CF, CS, RE}. Theorem 14. dlad2 (REG, CF) * CF Beweis. Es genügt zu zeigen: dlad2 (REG, CF) enthält eine nichtkontextfreie Sprache. Sei dazu L = $ {a}+ {c}+ $$$ {c}+ {b}+ $$ {b}+ {c}+ $$$ {c}+ {a}+ $ und P = $ai ci $, $cj bj $ . L ist regulär – es wird erzeugt durch den regulären Ausdruck RL = $a+ c+ $$$c+ b+ $$b+ c+ $$$c+ a+ $. P ist kontextfrei, da es durch die kontextfreie Grammatik GP = (N, T, P, S) erzeugt werden kann mit: N

= {S, S1 , S2 },

T

= {a, b, c, $},  S →     S →    S1 → = S1 →      S →   2 S2 →

P

$S1 $, $S2 $, aS1 c, ac, cS2 b, cb

              

Offensichtlich gilt nun aber: L2 := dlad2 (L, P ) = $ai ci $$$cj bj $$bj cj $$$ci ai $ . Angenommen nun, L2 sei kontextfrei. Dann gilt das Pumping-Lemma für kontextfreie Sprachen – d.h., es existiert eine von L2 abhängige Konstante n, sodaß für jedes z = uvwxy ∈ L2 mit |z| ≥ n gilt: 1. |vx| ≥ 1 2. |vwx| ≤ n 3. ∀i ≥ 0 : uv i wxi y ∈ L2


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

32

Betrachtet wird nun die Zeichenkette z = $an cn $$$cn bn $$bn cn $$$cn an $. Für diese wird im folgenden das Wort z 0 = uwy = uv 0 wx0 y untersucht, das laut Pumping-Lemma in L2 enthalten sein müßte. Zunächst ist klar: Enthielte vx ein oder mehrere $, so widerspräche z 0 aus Mangel an $ der definierenden Struktur von L2 . Folglich kann vx nur eine der folgenden sieben Strukturen haben: 1. vx = ak , 0 ≤ k ≤ n 2. vx = ak cl , k, l ≥ 0, k, l > 1, 0 < k + l ≤ n 3. vx = ck , 0 < m ≤ n 4. vx = ck bl , k, l ≥ 0, 0 < k + l ≤ n 5. vx = bk , 0 < m ≤ n 6. vx = bk cl , k, l ≥ 0, 0 < k + l ≤ n 7. vx = ck al , k, l ≥ 0, 0 < k + l ≤ n Für den jeweils entsprechenden Fall hat z 0 dann eine der folgenden Strukturen: 1. z 0 = $am1 cn $$$cn bn $$bn cn $$$cn am1 $, mi < n für zumindest ein 1 ≤ i ≤ 2 2. z 0 = $am1 cm2 $$$cn bn $$bn cn $$$cn an $, mi < n für zumindest ein 1 ≤ i ≤ 2 3. z 0 = $an cm1 $$$cm2 bn $$bn cm3 $$$cm4 an $, mi < n für zumindest ein 1 ≤ i ≤ 4 4. z 0 = $an cn $$$cm1 bm2 $$bn cn $$$cn an $, mi < n für zumindest ein 1 ≤ i ≤ 2 5. z 0 = $an cn $$$cn bm1 $$bm2 cn $$$cn an $, mi < n für zumindest ein 1 ≤ i ≤ 2 6. z 0 = $an cn $$$cn bn $$bm1 cm2 $$$cn an $, mi < n für zumindest ein 1 ≤ i ≤ 2 7. z 0 = $an cn $$$cn bn $$bn cn $$$cm1 am2 $, mi < n für zumindest ein 1 ≤ i ≤ 2 Keiner der obigen Fälle entspricht allerdings der durch die Definition von L2 geforderten Struktur. D.h. jeder der Fälle führt zu einem Widerspruch, sodaß geschlußfolgert werden kann, daß die Annahme, L2 sei kontextfrei, nicht korrekt ist. Aus der obigen Aussage folgt automatisch: Folgerung 9. dlad2 (REG, L) * CF für L ∈ {CF, CS, RE}.


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

4.2 4.2.1

33

Zweite Erweiterung Definitionen

Im Zentrum dieser zweiten Erweiterung steht die Überlegung, ob die beiden mittleren der vier bei der dlad-Operation involvierten Zeiger tatsächlich, wie allgemein angenommen, unbedingt separiert sein müssen. In der bei [Dassow und Vaszil 2003]3 angegebenen Modellierung ist analog zu Definition 1 für das mittlere Teilwort x2 im Grenzfall das leere Wort λ erlaubt. Dies legt natürlich die Frage nahe, ob sich die beiden in diesem Fall direkt aufeinanderfolgenden Markierungen dann nicht auch überlappen dürften. Von biologischer Seite her läßt sich diese Frage im Rahmen der vorliegenden Diplomarbeit leider nicht adäquat beantworten. Aus sprachtheoretischer Sicht allerdings soll im folgenden untersucht werden, inwiefern eine dahingehende Anpassung der Definitionen sich in einer Veränderung der untersuchten Inklusionsbeziehugen niederschlagen würde. Basierend auf den Definitionen für dlad und dlad2 ergeben sich zunächst die folgenden veränderten Modellierungen: Definition 5. Sei V ein Alphabet, w ein Wort über V und P ⊆ V + eine Menge von Zeigern. Dann wird definiert4 :

dlad∗ (w, P ) = x1 αvπuβx3 w = x1 αuπvβx3 , βx12 = π = x22 α, x1 , x12 , x22 , x3 ∈ V ∗ , u, v ∈ V + , α, β ∈ P

dlad∗2 (w, P ) = x1 αvπu αx3 w = x1 αuπvαx3 , βx12 = π = x22 β, x1 , x12 , x22 , x3 ∈ V ∗ , u, v ∈ V + , α, β ∈ P Diese Definition läßt sich wie gehabt auf Sprachen sowie Sprachfamilien erweitern: Definition 6. Seien L und P zwei Sprachen und L1 und L2 zwei Sprachfamilien. Dann seien dlad∗ (L, P ) und dlad∗2 (L, P ) und sowie dlad∗ (L1 , L2 ) und dlad∗2 (L1 , L2 ) und wie folgt definiert: [ dlad∗ (L, P ) = dlad∗ (w, P ) w∈L ∗

dlad (L1 , L2 ) = {dlad∗ (L, P ) |L ∈ L1 , P ∈ L2 } dlad∗2 (L, P ) =

[

dlad∗2 (w, P )

w∈L

dlad∗2 (L1 , L2 ) 3

= {dlad∗2 (L, P ) |L ∈ L1 , P ∈ L2 }

Auch in anderen Veröffentlichungen wurde diesen Punkt betreffend in ähnlicher Weise modelliert. Es sein angemerkt, daß die angegebene Definition auch eine vollständige Überlagerung des mittleren Zeiger-Paares erlaubt. Unter Umständen könnte es sinnvoll sein, als Einschränkung nur x12 , x22 ∈ V + zuzulassen. 4


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

4.2.2

34

Obere Schranken

Zunächst können sowohl für dlad∗ als auch dlad∗2 die Lemmata 1 und 2 ohne Einschränkung übernommen werden. Für Theorem 1 sind im Falle von dlad∗ jedoch minimale Änderungen notwendig, die ihrer Trivialität wegen allerdings nur angedeutet sein sollen: • Die Wörter β und γ müßten ggf. „überschneidend“ kopiert werden. Das bedeutet, daß der Anfang von γ u. U. auch innerhalb des Wortes β liegen könnte und das Ende von β entsprechend innerhalb von γ. • Es könnte somit der Fall eintreten, daß das zu β gehörende Token §P sich mitunter rechtsseitig des zu γ gehörenden $P befindet, was im Schritt (2) des Algorithmus entsprechend Beachtung finden müßte. • Da in Schritt (6) ohnehin βx2 γ bereits am Stück kopiert wird, muß an diesem Teil des Algorithmus zum Kopieren von βx12 = π = x22 γ nichts verändert werden. • Auch die Abschätzung der im Beweis zu Theorem 1 angegebenen linearen Beschränkung kann unverändert übernommen werden. Für den Fall dlad∗2 muß zusätzlich die Anpassung getroffen werden, daß die Teilwörter γ, δ in Schritt (2) des Beweises rückwärts auf den zuvor allokierten Speicherbereich geschrieben werden. Auch für diesen Fall ist die Abschätzung der linearen Beschränkung in der im Beweis zu Theorem 1 gegebenen Form weiterhin gültig. Theorem 2 sowie die aus beiden Theoremen gewonnenen Schlußfolgerungen 1& 2 können somit nun wieder sowohl für dlad∗ als auch dlad∗2 ohne Einschränkung übernommen werden. Selbiges gilt auch für Theorem 3. Der Beweis für Theorem 4 müßte für dlad∗ minimal erweitert werden, um zusätzlich den Fall sich überschneidender Zeiger abzudecken. Hierzu wird ein neues Symbol rd 4/6 als weiteres Element der Menge R eingeführt. Die Wahl des Bezeichners rd 4/6 soll den Umstand widerspiegeln, daß dieser Fall einen alternativen Ablauf darstellt, der sich über die Schritte 4 bis 6 des ursprünglichen Beweises erstreckt. Die zusätzlichen Transitions-Regeln zur Behandlung sich überschneidender Zeiger sehen wie folgt aus: Für alle z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 : δ 0 ((rd 4 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4/6 , z, z, ˙ z2 , z¨, δ(z3 , ak,l ),fs i,1 ,fs k,l ), falls ak,l = ai,1 0

δ ((rd 4/6 , z, z, ˙ z2 , z¨, z3 ,fs i,j−1 ,fs k,l−1 ), ak,l ) 3 (rd 4/6 , z, z, ˙ z2 , z¨, δ(z3 , ak,l ),fs i,j ,fs k,l ), falls ak,l = ai,j δ 0 ((rd 4/6 , z, z, ˙ z2 , z¨, z3 ,fs i,j−1 ,fs k,rk −1 ), ak,rk ) 3 (rd 6 , z, z, ˙ z2 , z¨, δ(z3 , ak,rk ),fs i,j ,fs k,rk ), falls ak,rk = ai,j


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

35

Sowie für den laut Definition erlaubten Fall der vollständigen Überlagerung beider Zeiger: Für alle z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n : δ 0 ((rd 3 , z, z, ˙ z2 , z¨, z3 ,fs i,ri , o), ak,1 ) 3 (rd 4/6 , z, z, ˙ z2 , z¨, δ(z3 , ak,1 ),fs i,1 ,fs k,1 ), falls ak,1 = ai,1 : 0

δ ((rd 4/6 , z, z, ˙ z2 , z¨, z3 ,fs i,j−1 ,fs k,rk −1 ), ak,rk ) 3 (rd 7 , z, z, ˙ z2 , z¨, δ(z3 , ak,rk ),fs i,ri ,fs k,rk ), falls ak,rk = ai,ri Für dlad∗2 müßte entsprechend Theorem 10 erweitert werden um die folgenden Regeln: Für alle z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l, l0 ≤ rk − 1 : k −1 δ 0 ((rd 4 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4/6 , z, z, ˙ z2 , z¨, δ(z3 , ak,l ),fs i,ri ,fs k,r ), k,l

falls ak,l = ak,rk k,l0

0

−1 δ 0 ((rd 4/6 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4/6 , z, z, ˙ z2 , z¨, δ(z3 , ak,l ),fs i,j ,fs k,l ), k,l

falls ak,l = ak,l0 k,l0

δ 0 ((rd 4/6 , z, z, ˙ z2 , z¨, z3 ,fs i,ri ,fs k,rk −1 ), ak,rk ) 3 (rd 6 , z, z, ˙ z2 , z¨, δ(z3 , ak,rk ),fs i,j ,fs k,l0 −1 ), falls ak,rk = ak,l0 Sowie für den laut Definition erlaubten Fall der vollständigen Überlagerung beider Zeiger: Für alle z, z2 , z3 , z, ˙ z¨ ∈ Z, 1 ≤ i, k ≤ n : k −1 δ 0 ((rd 3 , z, z, ˙ z2 , z¨, z3 ,fs i,ri , o), ak,1 ) 3 (rd 4/6 , z, z, ˙ z2 , z¨, δ(z3 , ak,1 ),fs i,1 ,fs k,r ), k,1

falls δ 0 ((rd 4/6 , z, z, ˙ z2 , z¨, z3 ,fs i,j−1 ,fs k,1 k,rk −1 ), ak,rk )

ak,1 = ak,rk

3 (rd 7 , z, z, ˙ z2 , z¨, δ(z3 , ak,rk ),fs i,ri ,fs k,rk ), falls ak,rk = ak,1

Abschließend seien noch die notwendigen Anpassungen für den Beweis zu Theorem 11 angegeben. Hier genügt es voll und ganz, dem Punkt (4) den folgenden Fall zur Behandlung sich überschneidender Zeiger hinzuzufügen: 4’ K verarbeitet den Bereich, an dem sich β und β¯ ggf. überlagern. Ein solcher Bereich, so existent, müßte dann eine Art Palindrom5 darstellen. Bis zur Mitte dieses „Palindroms“ legt K für jeden gelesenen Buchstaben x den Buchstaben x auf den Stack. Ab der Mitte6 nimmt er in jedem Schritt wieder einen Buchstaben vom Stack herunter und vergleicht ihn mit dem gelesenen7 . Während der ganzen Zeit wird in der zweiten Komponente die Arbeit von AP simuliert, um zu prüfen, ob β ∈ P gilt. Parallel dazu wird in der vierten Komponente weiterhin die Arbeit von AL simuliert: 5 Es handelt sich hierbei nicht um ein Palindrom im herkömmlichen Sinne von w = wR (bzw. für |w| = n: wi = wn−i , 0 ≤ i ≤ n). Vielmehr muß gelten: w = w, d.h. für |w| = n: wi = wn−i , 0 ≤ i ≤ n. 6 An dieser Stelle müssen zwei Fälle unterschieden werden – nämlich für eine gerade Länge des Bereiches einerseits und eine ungerade andererseits. 7 Dies validiert, daß der Bereich tatsächlich ein Palindrom ist.


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION

36

Für alle x, a ∈ X, zLα , z˙Lu , z˙L ∈ ZL , zP ∈ ZP : δK ((zLα , zP , z˙Lu , z˙L ,rd β ), x, a) 3 ((zLα , δP (zP , x), z˙Lu , δL (z˙L , x),rd 1β/β¯), R, xa) δK ((zLα , zP , z˙Lu , z˙L ,rd 1β/β¯), x, a) 3 ((zLα , δP (zP , x), z˙Lu , δL (z˙L , x),rd 1β/β¯), R, xa) δK ((zLα , zP , z˙Lu , z˙L ,rd 1β/β¯), x, a) 3 ((zLα , δP (zP , x), z˙Lu , δL (z˙L , x),rd 2β/β¯), R, xa) δK ((zLα , zP , z˙Lu , z˙L ,rd 1β/β¯), x, a) 3 ((zLα , δP (zP , x), z˙Lu , δL (z˙L , x),rd 2β/β¯), N, xa) δK ((zLα , zP , z˙Lu , z˙L ,rd 2β/β¯), x, x) 3 ((zLα , δP (zP , x), z˙Lu , δL (z˙L , x),rd 2β/β¯), R, λ) Wird in der zweiten Komponente ein Finalzustand fP von AP erreicht, so bedeutet dies, daß das bisher gelesene β als zu P zugehörig erkannt wurde, dieses β vollständig gelesen wurde und somit der überlappende Bereich von β und β¯ beendet ist. Für diesen Fall geht K in der fünften Komponente (nichtdeterministisch) in den zum Lesen von β¯ vorgesehenen Zustand rd β¯ über:Für alle x ∈ X zLα , z˙Lu , z˙L ∈ ZL , fP ∈ FP : δK ((zLα , fP , z˙Lu , z˙L ,rd 2β/β¯), x, x) 3 ((zLα , fP , z˙Lu , δL (z˙L , x),rd β¯), R, λ) Für den laut Definition von dlad∗2 möglichen Fall, daß β und β¯ an gleicher Stelle anfangen (und aufhören), seien noch die folgenden Regeln angeführt: Für alle x, a ∈ X zLα , z˙Lu , z˙L ∈ ZL , fP ∈ FP : δK ((zLα , zP,0 , z˙Lu , z˙Lu ,rd v ), x, a) 3 ((zLα , δP (zP,0 , x), z˙Lu , δL (z˙Lu , x),rd 1β/β¯), R, xa) δK ((zLα , fP , z˙Lu , z˙L ,rd 2β/β¯), x, a) 3 ((zLα , fP , z˙Lu , δL (z˙L , x),rd u¯ ), R, xa)

4.2.3

Zur Optimalität der oberen Schranken

Offensichtlich stellen die Definitionen von dlad∗ und dlad∗2 genaugenommen lediglich Verallgemeinerungen von dlad und dlad2 dar. Mit anderen Worten: Durch dlad∗ und dlad∗2 werden alle Fälle von dlad und dlad2 vollständig erfasst. Führt man sich die in den Abschnitten 3.3 und 4.1.3 geführten Beweise vor Augen, so basieren diese auf Sprachen L und P , in denen Überschneidungen der involvierten Zeiger allerdings gar nicht auftreten können. Insofern gilt für diese Fälle stets: dlad∗ (L, P ) = dlad(L, P ) (bzw. entsprechend dlad∗2 (L, P ) = dlad2 (L, P )). Somit können sämtliche Theoreme, Lemmata und Schlußfolgerungen zur Optimalität der oberen Schranken für dlad und dlad2 unverändert auf die Fälle dlad∗ und dlad∗2 übernommen werden. Im Zusammenhang mit der Tatsache, daß die Gültigkeit der in den Abschnitten 3.2 und 4.1.2 bewiesenen oberen Schranken im Zuge des Abschnittes 4.2.2 unangetastet blieb, bedeutet dies, daß auf das Zusammentragen von Beweisen zur Optimalität verzichtet werden kann.


K APITEL 5. Z USAMMENFASSUNG

37

Kapitel 5

Zusammenfassung In diesem Kapitel sollen die Ergebnisse der vorliegenden Diplomarbeit nochmals in kompakter Form zusammengefaßt werden und ein Ausblick auf mögliche Ansatzpunkte für weiterführende Untersuchungen vorgeschlagen werden. Kapitel 3 beschäftigte sich mit den Inklusionsbeziehungen, die bei Anwendung der dlad-Operation auf Sprachfamilien der Chomsky-Hierarchie entstehen. Eine Zusammenfassung der gewonnenen Ergebnisse kann Tabelle 5.1 entnommen werden. Jede Zeile und jede Spalte ist mit einer Sprachfamilie L ∈ {FIN, REG, CF, CS, RE} gekennzeichnet. Für jede Kombination aus (Zeile X, Spalte Y) finden sich in der entsprechenden Zelle zwei Einträge, die sich auf das Ergebnis Z = dlad(X, Y ) beziehen: Der erste Eintrag gibt die gefundene obere Schranke an, in der Form: ⊂ L für das entsprechende L ∈ {FIN, REG, CF, CS, RE}. Der zweite Eintrag gibt eine untere Schranke an, die nachweislich nicht angenommen wird, in der Form: * L für das entsprechende L ∈ {FIN, REG, CF, CS, RE} – wodurch die Optimalität der oberen Schranke belegt wird.1 (dlad) FIN REG CF CS RE

FIN ⊂ FIN (T3) * ⊂ REG (T4) * * FIN (T6) ⊂ CS (F1) * CF (T9) ⊂ CS (F1) * * CF (T6) ⊂ RE (F2) * * CS (T6)

REG ⊂ FIN (T3) * ⊂ CS (F1) * CF (T7) ⊂ CS (F1) * CF (F5) ⊂ CS (F1) * * CF (F5) ⊂ RE (F2) * * CS (T6)

CF ⊂ FIN (T3) * ⊂ CS (F1) * CF (F5) ⊂ CS (F1) * CF (F5) ⊂ CS (F1) * * CF (F5) ⊂ RE (F2) * * CS (T6)

CS ⊂ FIN (T3) * ⊂ CS (F1) * CF (F5) ⊂ CS (F1) * CF (T7) ⊂ CS (T1) * * CF (F5) ⊂ RE (F2) * * CS (T6)

RE ⊂ FIN (T3) * ⊂ RE (F2) * CS (T8) ⊂ RE (F2) * CS (F6) ⊂ RE (F2) * CS (F6) ⊂ RE (T2) * * CS (T6)

Tabelle 5.1: Inklusionsbeziehungen bei Anwendung der dlad-Operation Hinter jedem Eintrag befindet sich in Klammern ein Vermerk, der Aufschluß darüber gibt, welchem Satz die angeführte Aussage entnommen werden kann. Ein T steht hierbei abkürzend für „Theorem“, ein F für „Folgerung“ und ein L für „Lemma“. 1

Einzige Ausnahme stellt hierbei die Zeile für X = FIN dar – dort wurde verständlicherweise auf den Hinweis der Optimalität von dlad(X, Y ) ⊂ FIN verzichtet.


K APITEL 5. Z USAMMENFASSUNG

38

Mitunter wurden im Rahmen der Diplomarbeit aber auch Beweise zu Aussagen gegeben, die über die Anwendung der Operation auf Familien der Chomsky-Hierarchie hinausgehen. So bedeutet z.B. die Markierung einiger Felder mit „*“, daß die darin enthaltene Schranke weiterhin optimal bleibt, selbst wenn die Hierarchie um weitere Sprachklassen erweitert würde, die zumindest abgeschlossen sind unter (beidseitiger) Konkatenation mit Buchstaben sowie unter (beidseitiger) Quotientenbildung mit Buchstaben (siehe Theorem 5 und Schlußfolgerung 3). Im Klartext bedeutet dies unter anderem, daß die obere Schranke dlad(CS, X) ⊂ CS für X ∈ {FIN, REG, CF, CS, RE} selbst unter Hinzunahme von Sprachklassen wie RC oder MAT – welche beide bekanntermaßen echte Obermengen von CF und zugleich echte Untermengen von CS sind (siehe hierzu [Dassow und Pˇaun ]) – weiterhin optimal bleibt. (dlad2 ) FIN REG CF CS RE

FIN ⊂ FIN (T3) * ⊂ REG (T10) * * FIN (T6) ⊂ CS (F1) * CF (T9) ⊂ CS (F1) * * CF (T6) ⊂ RE (F2) * * CS (T6)

REG ⊂ FIN (T3) * ⊂ CF (T11) * REG (T12) ⊂ CS (F1) * CF (F8) ⊂ CS (F1) * * CF (T6) ⊂ RE (F2) * * CS (T6)

CF ⊂ FIN (T3) * ⊂ CS (F1) * CF (T14) ⊂ CS (F1) * CF (F8) ⊂ CS (F1) * * CF (T6) ⊂ RE (F2) * * CS (T6)

CS ⊂ FIN (T3) * ⊂ CS (F1) * CF (F9) ⊂ CS (F1) * CF (F8) ⊂ CS (T1) * * CF (T6) ⊂ RE (F2) * * CS (T6)

RE ⊂ FIN (T3) * ⊂ RE (F2) * CS (T13) ⊂ RE (F2) * CS (F7) ⊂ RE (F2) * CS (F7) ⊂ RE (T2) * * CS (T6)

Tabelle 5.2: Inklusionsbeziehungen bei Anwendung der dlad2 -Operation Tabelle 5.2 enthält eine entsprechende Zusammenfassung der Ergebnisse, die sich im Rahmen von Abschnitt 4.1 basierend auf der Definition von dlad2 , der ersten Erweiterung von dlad, finden ließen. Wie gehabt kann im Kreuzpunkt (Zeile X, Spalte Y) die kleinste obere Schranke für dlad2 (X, Y ) entnommen werden, sowie die größte untere Schranke, welche jedoch nachweislich nicht angenommen wird. Analog zu Tabelle 5.1 wurden hier durch „*“ Schranken gekennzeichnet, die auch in einer um zusätzliche Sprachfamilien2 erweiterten Hierarchie optimal sind. Abschnitt 4.2 enthielt Untersuchungen zu einer zweiten Erweiterung der dlad-Operation, die im wesentlichen die Möglichkeit sich überschneidender Zeiger modelliert. Dort wurde festgestellt, daß für die definierten Operationen dlad∗ und dlad∗2 die zuvor für dlad, respektive dlad2 , gefundenen oberen Schranken übernommen werden können und zudem optimal sind. Für dlad∗ ergibt sich somit dieselbe Übersicht wie in Tabelle 5.1 bereits gegeben – für dlad∗2 dieselbe wie in Tabelle 5.2. Offen bleibt an dieser Stelle, inwiefern die beiden eingeführten Erweiterungen aus biologischer Sicht letztlich sinnvoll sind. Dies zu erörtern könnte Thema weitergehender Untersuchungen sein. Einen weiteren Ansatzpunkt für sich anschließende Arbeiten dürfte die Fragestellung bieten, wie sich die entsprechenden Inklusionsbeziehungen bei Anwendung der hi- bzw. der ld-Operation darstellen. Zumindest zu ersterer dürften mit den in [Dassow 2003a] getätigten Untersuchungen in Bälde entsprechende Ergebnisse zu erwarten sein. 2

Hierfür muß sich die entsprechende Sprachfamilie X allerdings orthogonal in die Hierarchie eingliedern lassen – d.h. die Hierarchie M = {L1 , . . . , Ln } erfüllt nach Aufnahme von X die Eigenschaft: Li ⊂ Li+1 für 1 ≤ i ≤ n − 1 und entweder Lj ⊂ X ⊂ Lj+1 für ein geeignetes 1 ≤ j ≤ n − 1 oder X ⊂ L1 oder Ln ⊂ X.


K APITEL 5. Z USAMMENFASSUNG

39

Diskussionsbedarf besteht allerdings weiterhin im Hinblick auf gewisse Randbedingungen, die sich für die biologischen „Originale“ der modellierten Operationen ergeben. Als Beispiel sei hierzu unter anderem auf die Fragestellung verwiesen, ob im Rahmen eines solchen Transformationsvorganges der micronuclearen Ciliaten-DNA die involvierten Zeiger-Paare vollständig (vgl. u.a. [Harju u. a. 2004]) oder teilweise (vgl. u.a. [Freund u. a. 2002]) aus der bearbeiteten Sequenz entfernt werden oder (zunächst3 ) erhalten bleiben (vgl. [Dassow 2003a], [Dassow und Vaszil 2003] sowie [Daley u. a. 2003]). Es bleibt zu hoffen, daß sich zumindest im Rahmen jedes der beiden Modelle Kari/Landweber und Prescott/Ehrenfeucht/Rozenberg beizeiten eine einheitliche Sichtweise ergeben wird – oder es sogar gelingt, beide Konzepte zu einem gemeinsamen umfassenden Modell zu migrieren.

3 Denkbar wäre z.B. auch, daß die Zeiger-Paare in der Tat entfernt werden – jedoch erst im Zuge eines der eigentlichen Operation nachgeschalteten Schrittes.


LITERATURVERZEICHNIS

40

Literaturverzeichnis [Adleman 1994] A DLEMAN, L. M.: Molecular Computation of Solutions to Combinatorial Problems. In: Science 266 (1994), S. 1021–1024 [Daley u. a. 2003] DALEY, Mark ; I BARRA, Oscar H. ; K ARI, Lila ; M C Q UILLAN, Ian ; NAKANO, Koji: The LD and DLAD Bio-Operations on Formal Languages. In: Journal of Automata, Languages and Combinatorics 8 (2003), Nr. 3, S. 477–498 [Daley u. a. 2004] DALEY, Mark ; K ARI, Lila ; M C Q UILLAN, Ian: Ciliate Operations on Multisets / University of Saskatchewan, Dept. of Computer Science Theory & Formal Bioinformatics Group. 2004 ( TR–2004-a). – Report ˇ [Dassow und Pˇaun ] DASSOW, Jürgen ; P AUN , G. (EATCS Monographs on Theoretical Computer Science)

[Dassow 2003a] DASSOW, Jürgen: A Ciliate Bio-Operation and Language Families. 2003a. – Manuskript [Dassow 2003b] DASSOW, Jürgen. Theoretische Informatik. November 2003b [Dassow und Vaszil 2003] DASSOW, Jürgen ; VASZIL, György: Ciliate Operations on Multisets. 2003. – Manuskript [Freund u. a. 2002] F REUND, R. ; M ARTIN -V IDE, C. ; M ITRANA, V.: On some operations suggested by gene assembly in ciliates. 2002. – New Generation Computing [Harju u. a. 2003] H ARJU, Tero ; P ETRE, Ion ; ROZENBERG, Grzegorz: Gene Assembly in Ciliates: Molecular Operations. In: Bulletin of the EATCS 81 (2003), Oktober, S. 236–249 [Harju u. a. 2004] H ARJU, Tero ; P ETRE, Ion ; ROZENBERG, Grzegorz: Gene Assembly in Ciliates: Formal Frameworks. In: Bulletin of the EATCS 82 (2004), Februar [Hopcroft und Ullmann 1994] H OPCROFT, John E. ; U LLMANN, Jeffrey D.: Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie. 3rd. Addison Wesley, 1994 [Kari u. a. 1999] Kap. Reversible molecular computation in ciliates In: K ARI, L. ; K ARI, J. ; L AND WEBER , L.: Jewels are forever. Springer Verlag, Berlin, Heidelberg, New York, 1999, S. 353–363. – J. Karhumaki and H. Maurer and G. P˘aun and G. Rozenberg (eds)


LITERATURVERZEICHNIS

41

[Landweber und Kari 1999a] Kap. Universal molecular computation in ciliates In: L ANDWEBER, L. F. ; K ARI, L.: Evolution as computation. Springer Verlag, Berlin, Heidelberg, New York, 1999a (Natural computing series), S. 257–274 [Landweber und Kari 1999b] L ANDWEBER, L. F. ; K ARI, L.: The Evolution of Cellular Computing: Nature’s Solution to a Computational Problem, Elsevier, 1999b, S. 3–13 [Prescott 1994] P RESCOTT, David M.: The DNA of ciliated protozoa. In: Microbiol. Rev. 58 (1994), Nr. 2, S. 233–267 [Prescott 2001] P RESCOTT, David M.: DNA Manipulations in Ciliates. In: Lecture Notes in Computer Science 2300 (2001), S. 394–417 [Prescott 2002] P RESCOTT, David M.: DNA Manipulation in Ciliates. In: Formal and Natural Computing (2002), S. 394–417 [Prescott u. a. 2001] P RESCOTT, David M. ; E HRENFEUCHT, A. ; ROZENBERG, Grzegorz: Molecular operations for DNA processing in hypotrichous ciliates. In: European Journal of Protistology 37 (2001), S. 241–260


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.