Überlegungen zur
Terminologiearbeit (TermHyperWork)
und
Terminologiesuche (TermHyperSearch)
der ”dritten
Generation”
Entwicklung einer
wissenschaftlichen
Terminologie-Markup-Language
von Helmuth Sagawe
d:\veröff\hyper.doc
in: LEBENDE SPRACHEN,
Zeitschrift für fremde Sprachen in Wissenschaft und Praxis.
Heft 3, 2000, Berlin, Seite 97 -101
Zusammenfassung: Die hier beschriebene Terminologiearbeit der dritten Generation verwendet Tags in HTML-Texten (Hypertext Markup Language) des World-Wide-Web. Bislang wurde HTML jedoch vornehmlich als Text-Layout-Sprache benutzt. Ferner dienten HTML-Tags dazu, Verbindungen ("Links" oder "Hypermedia-Links" genannt) über das Internet zu anderen HTML-Texten zu knüpfen, die sich irgendwo im Netz auf anderen Rechnern befinden. Nennen wir diese neue Kennzeichnungssystem im folgenden Term-Markup Language (TML oder Term-ML), die Terminologiearbeit im Internet TermHyperWork (THW) und Terminologiesuche TermHyperSearch (THS). Die Funktion einer Terminologie-Markup-Language besteht darin, die Struktur eines Textes hinsichtlich seiner Funktion für die Terminologiesuche zu beschreiben. Eine TERM-ML läßt sich zunächst HTML-orientiert entwerfen (oder gar dort einflechten). Die HTML sieht bis heute noch keine Möglichkeit vor, auf einen einzelnen Satz einer HTML-Seite Bezug zu nehmen, sofern dieser Satz nicht vom Linkgeber von vornherein mit einer Referenz-Marke versehen wurde. In einer TERM-ML müßten aber jeder einzelne Satz und jedes einzelne Wort adressierbar sein. Eine TERM-ML unterläge ihrerseits der Beobachtung durch den wissenschaftlichen Diskurs in der Translationswissenschaft. Eine TERM-ML könnte heute schon zur Anwendung kommen, wenn WWW-Suchmaschinen wie Altavista, Lycos, Webcrawler usw. TERM-ML-Tags auswerten könnten.
Spricht man heute von Terminologie, so denkt
man in erster Linie an Fachausdrücke im technischen oder
naturwissenschaftlichen ”Kauderwelsch”, die der Laie nicht versteht und die den
Übersetzer oder Dolmetscher oftmals beim Finden von Eins-zu-Eins-Äquivalenten
vor unlösbare Probleme stellen kann. Die fortschreitende Arbeitsteilung erzeugt
einen Bedarf an ständig neuen Bezeichnungen für neu entdeckte oder neu zu
interpretierende Gegenstände und Sachverhalte. Benennungen, die auf diesem Weg
entstehen, werden im akademischen Bereich Termini genannt. (Birkenmaier,
W. und Mohl I.:1991, S. 7). Sollen diese Termini nun in eine andere
Sprache übersetzt werden, so ist eine gründliche Terminologiearbeit
gefragt. Der Übersetzungs- oder Translationswissenschaftler-
schon hier ergeben sich in der Benennung unterschiedliche inhaltliche Wertungen, (vgl. zur TW Vermeer, Hans J.: 1994) - und der
Übersetzer bzw. Dolmetscher verstehen unter dem Begriff Terminologiearbeit
heute wie ehe und je, die Erarbeitung, Bearbeitung oder Verarbeitung von
Fachbegriffen. Diese wird nicht nur für Technik oder Naturwisssenschaften,
sondern für fast alle Lebens- und Fachbereiche geleistet.
Die "Terminologiearbeit" ist heute
primär dem Bereich der Normung zuzurechnen, jedoch ist sie nicht auf
diese Aufgabe beschränkt. So ist zwischen deskriptiver, d.h. den bestehenden
Sprachgebrauch beschreibender, und normender Terminologiearbeit zu
unterscheiden. Normende Terminologiearbeit setzt deskriptive Terminologiearbeit
voraus, weil in jedem Falle zunächst der sprachliche Ist-Zustand
ermittelt werden muß (Arntz, R. und Picht, H.: 1989, S. 3-5).
Die allgemeine Terminologie- oder terminologische
Grundsatzlehre, d.h. die Theorie bzw. interdisziplinäre Wissenschaft von
der Terminologie, wird als linguistisch-pragmatische Disziplin dargestellt, die
sich um die den einzelnen Fachterminologien gemeinsamen Prinzipien und
Gesetzmäßigkeiten bemüht und eine sinnvolle Begriffs- bzw. Sprachnormung
anstrebt (Wüster; E.: 1985). Die Terminologielehre geht von Begriffen bzw. Wörtern
aus, denen eine Bedeutung zugeordnet ist. Der spontan entstandenen Ist-Norm
wird die Soll-Norm der fachlichen Hochsprache entgegengesetzt, die sich
erfahrungsgemäß rasch zur internationalen Ist-Norm entwickelt. Empfohlen wird
bei der Anlage von Fachwörterbüchern die (fach-)systematische Anordnung, bei
der die einzelsprachliche Normung von Termini den Mittelweg zwischen
angemessener Übersetzung und internationaler Gültigkeit darstellt.
Die Terminologiearbeit ist in hohem Maße
interdisziplinär, da sie die enge Zusammenarbeit besonders von Linguistik,
formaler Logik, Informatik und der jeweiligen Sach- und Kulturwissenschaft
verlangt. In der Ausbildung der Übersetzer könnte dies für die Lehrenden eine
besondere Herausforderung darstellen, sofern dieses Fach nicht in eingefahrenen
Bahnen abgehandelt wird.
Wird den Studierenden der Übersetzungswissenschaft zu
Ende ihres Studiums eine Diplomarbeit abverlangt, so ist es heute oftmals Usus,
ihnen eine Terminologiearbeit zu empfehlen, in der sich der Studierende an klar
vorgegebene Strukturen zur Bewältigung der Aufgabe halten kann. Der
universitäre Anspruch einer Abschlußarbeit mit dem Prädikat eines akademischen
Abschlusses, in der neue wissenschaftliche Erkenntnisse dialektisch aufbereitet
dargestellt werden sollten, reduziert sich allerdings bei solchen Arbeiten
oftmals auf die Sammlung eines Fachvokabulars mit entsprechenden Informationen
und dessen Translation in eine Fremdsprache.
Ziel solch einer Terminologiearbeit ist dabei nach
Coners (Coners, M.: 1996) die möglichst vollständige Erfassung des Wortschatzes
in einem bestimmten Fachgebiet. Die fertige Arbeit soll es Dolmetschern
ermöglichen, sich in kurzer Zeit auf einen Dolmetschtermin vorzubereiten,
ferner Übersetzern als Hilfsmittel zur Übertragung von Fachtexten dienen. Der
Aufbau der Arbeit besteht - ebenfalls nach Coners - einerseits aus der
Darstellung des fachlichen Inhaltes (Hintergrundinformation für Benutzer),
andererseits aus dem Glossar, in dem unterschieden wird zwischen "harter" Terminologie
(naturwissenschaftlich-technische Gebiete) und "weicher" Terminologie
(gesellschaftliche Phänomene und Entwicklungen). Detailanalytische
Terminologiearbeiten beschäftigen sich mit dem fachsprachlichen Vokabular eines
Fachgebietes unter bestimmten sprachtheoretischen und sprachpraktischen
Gesichtspunkten (z. B. Anglizismen in bestimmten Fachsprachen).
Definitorisch-darstellende Terminologiearbeiten sollen zum Ziel haben, landes-
und kulturspezifische Besonderheiten mit definitorisch - explikatorischen Erläuterungen
zu den jeweiligen Begriffen darzustellen. Der Umfang dieser Arbeiten variiert
je nach Themenwahl, ein Richtmaß von mindestens 200 Einträgen wird vorgegeben,
außerdem wird ein Zeitrahmen von vier Monaten unter der Berücksichtigung
organisatorischer Aspekte wie Themenwahl, Expertenwahl, Literaturbeschaffung
etc. erwartet.
Für die an Terminologie-Diplomarbeiten interessierten
Professoren stellen solche Abschlußarbeiten eine Erleichterung bei den
Korrekturen und Bewertungen dar. Sie können ihre Tätigkeit auf eine
stichprobenartige Überprüfung der erarbeiteten Terminologie reduzieren, falls
dies nicht gar einem Fachmann auf diesem Gebiet überlassen wird. Auch setzen
sie sich nicht bei der Betreuung dieser Arbeiten mit eventuell neuen
Gedankenkonstrukten, wie Translationstheorie oder innovativen und
kritischen Modellen aus anderen Disziplinen, z.B. wie dies in einer kritischen
Soziologie üblich ist, auseinander.
Eine nicht originäre und überwiegend durch Linguisten
okkupierte Wissenschaft wie die Translationswissenschaft, sollte als eine
interdisziplinäre Wissenschaft durch Kultur-, Sozial- und Sprachwissenschaftler
paritätisch vertreten sein. Nur so könnte ihr verführerischer Reiz,
ausgestattet mit vielfältigen Analyse- und Erkenntnismöglichkeiten, jedoch
derzeit blockiert durch das ”Schneewittchen-Syndrom”, zur vollen
Entfaltung kommen.
Auch haben sich nach der Einführung der EDV in der
Terminologiearbeit bis heute kaum wissenschaftlich neue Erkenntnisprozesse
durchgesetzt. Liegt dies allgemein an der allseits bemängelten universitären
intellektuellen Abstinenz oder im einzelnen an dem z.B. von Austermühl und
Kornelius den Studierenden abverlangten und präferierten ”PC-technischen
Handlungswissen” (Austermühl, F. und Kornelius, J: 1994), das, mit Talcott
Parsons (Parsons, T.: 1937) gesprochen, dem normenregulierten Handeln
zuzurechnen ist und keine - wie Cornelius Castoriadis (Castoriadis, C.:
1984) es uns theoretisch deutlich macht - kreative Dimension des Handelns
offenläßt. Vielleicht ist inzwischen die Terminologiearbeit als normative
Tätigkeit deshalb auch im Lehr- und Prüfungsbetrieb der Universitäten so
beliebt geworden?
Der Einsatz der Elektronischen Datenverarbeitung hat
zu einem ersten gravierenden evolutionären Sprung beim Erarbeiten von Terminologie
geführt (Schmitt, Peter A.: 1987). Während die Terminologen vordigitaler Zeiten
ihre hauptsächliche Arbeit auf kleinen Karteikärtchen vermerkten und diese in
Holz- und Plastikkistchen oder gar in Schuhkartons sortierten (1. Generation
der Terminologiearbeit), wird heute meist der Computer zur Edition, Sortierung
und Selektion eingesetzt (2. Generation der Terminologiearbeit).
Terminologieverwaltungsprogramme ermöglichen dem mit technischem Verständnis
ausgestatteten Übersetzer, einfach und schnell Terminologiedatenbanken zu
erstellen und auch in externen Datenbanken vorgefertigte Terminologieeinträgen
zu recherchieren (Ahrens, Helga: 1997). Im Einsatz sind so z.B. am Institut für
Übersetzen und Dolmetschen der Universität Heidelberg die Terminologie-Verwaltungsprogramme
MultiTerm und Termex (Sagawe,
Helmuth: 19891,2). Es handelt sich hier um rein übersetzerspezifische
Terminologie-Datenbankprogramme, die auf den einfachen Gebrauch des Übersetzers
zugeschnitten sind. In der Erprobungsphase sind auch allgemeinübliche
Datenbankprogramme wie EXCEL und ACCESS.
Solche Datenbanken, auch als relationale Datenbanken
bekannt, haben zwar die Fähigkeit, umfangreiche Verweisstrukturen zu erstellen,
jedoch haben sie nichts mit der multimedialen digital vernetzten Welt und den
hieraus erwachsenden Möglichkeiten der modernen Informationsgesellschaft zu
tun. Es fragt sich deshalb, ob diese Art von Terminologiearbeit nicht an eine
andere, den heutigen intellektuellen Ansprüchen gerechter werdende vernetzte
Welt angepaßt werden müßte? (3. Generation der Terminologiearbeit).
Der Übergang von der Datenverarbeitung zur
Wissensverarbeitung und die immer stärker werdende Computerisierung der
Wissenschaften ergibt auch wissenschaftstheoretisch die Notwendigkeit einer
Neuorientierung der Überssetzungs- bzw. Translationswissenschaft -
eingeschlossen der Terminologiearbeit - an den gegenwärtigen Stand der
Informationstechnologie. Das dynamische, veränderungsfähige neue
Darstellungsmittel, bei dem die Struktur vom Prozeß des Erkennens nicht
getrennt werden kann, macht statisch linearistische Texte, Daten- und
Wortsammlungen zu multimedialen Hypertexten und globalen Datenbanken,
wissenschaftliche Theorien zu algorithmischen Computerprogrammen, setzt an die
Stelle logischer Widerspruchsfreiheit prozedurale Effektivität und eröffnet
neue Einsichten in den Zusammenhang von Entdeckung und Rechtfertigung
wissenschaftlicher Theorien und Erkenntnisprozessen.
Analog zu Vorschlägen zur Entwicklung einer
wissenschaftlichen Diskurs-Markup-Language aus dem Bereich der
Soziologie ist nun zu überlegen, ob nicht auch die Terminologiearbeit generell
revidiert und auf die Basis des HTML-Formates (Hypertext Markup Language)
gestellt werden müßte. Die Nutzung von Netzdiensten (E-Mail, Diskussionsforen,
World-Wide-Web, Suchmaschinen, WAIS, FTP-Archive, per Telnet erreichbare
Datenbanken usw.) ist erst für wenige Terminologen alltäglich geworden. Die
Informationsverarbeitung wird durch ihren Einsatz jedoch enorm beschleunigt,
und eine gründliche Recherche wird überhaupt erst durch den digitalen Einsatz
möglich gemach. Dennoch werden diese Techniken nur von einem kleinen Teil der
Terminologen genutzt, bzw. nur von einer Minderheit der Lehrenden in die
universitäre Ausbildung integriert. Dies liegt u.a. daran, daß die
Möglichkeiten digitaler Medien bislang überwiegend gemäß den Standards eines
auf Papier basierenden Publikationssystems genutzt werden. So werden digitale
Medien zwar bevorzugt und kostenintensiv eingesetzt, im Grunde jedoch nur alte
Inhalte in neue digitale Formen verpackt und durch eigene Verlage
kommerzialisiert. Die Erforschung neuer innovativ wissenschaftlicher
Anwendungsmöglichkeiten bleibt nicht selten dabei unberücksichtigt.
Vorschlag zu einer neuen (dritten) Generation der
Terminologiearbeit (TermHyperWork):
Geht man davon aus, daß in absehbarer Zeit in
Universitäten, Firmen und Haushalten nur noch vernetzte Computer in Betrieb
sein werden - am Beispiel der USA wird uns dies schon vor Augen geführt - so
müssen grundlegende Änderungen in der terminologischen Arbeit, zumindest im
universitären Bereich, gefordert werden.
Terminologie, also Fachvokabular, wird generell aus
Fachtexten oder verbalisierten Äußerungen unterschiedlicher Herkunft
selektiert. Bei einer Terminologiearbeit der dritten Generation (TermHyperWork)
entfällt die von Coners geforderte ”möglichst vollständige Erfassung
des Wortschatzes in einem Fachgebiet” (Coners, M.: 1996).
Primäres Ziel ist es, diese Quellen in
maschinenlesbare (digitalisierte) Form in ein HTML-Format zu transferieren,
falls die Fundstellen außerhalb des Internet zu finden sind. Meist jedoch sind
diese Original- bzw. Quelltexte bereits weltweit in den verschiedenen
Computersystemen (Servern) als HTML-Texte im Internet oder in Intranetzen zu
finden. Der Grundgedanke von TermHyperWork, der Terminologiearbeit der
dritten Generation, ist primär, HTML-Seiten eines zu erarbeitenden
Terminologiebereichs mit Hilfe unterschiedlicher Suchmaschinen zu lokalisieren
und dann zu speichern, mit neu zu erarbeitenden Markern und Links auszustatten
und in einem allgemein zugänglichen Bereich auf einem WWW Server zur Verfügung
zu stellen. Der Schwerpunkt dieser neuzeitlichen Terminologiearbeit liegt neben
dem Finden der Dokumente beim Aufarbeiten dieser Dokumente mit Markern und
Links, damit später bei der Vorbereitung auf Dolmetschkonferenzen oder für die
Übersetzertätigkeit die Terminologiesuche im Internet zu validen Ergebnissen in
unterschiedlichen Sprachenpaaren im Kontext der originalsprachlichen Webseiten
führt und Zusatzinformationen eingesehen werden können.
Der Vorteil dieses Verfahrens besteht darin, bei der
späteren Terminologierecherche (TermHyperSearch) Zugriff auf
Originalseiten zu haben, d. h. Textquellen in der Originalform mit Graphiken
und Bildern schnell und sicher in unterschiedlichen verlinkten
muttersprachlichen Textseiten auffinden zu können, sowie die Attribuierung
durch eine einheitliche Klassifizierung nach Fachgebieten, Genusangabe,
Sprachraum usw. einsehen zu können. Insofern muß auch über die Begriffe Ziel-
und Quell- bzw. muttersprachliche Texte neu nachgedacht werden,
da bei dieser Terminologiearbeit nur Originaltexte verwendet werden. Liegen
keine multilingualen Texte vor, müssen sie vom Nativspeaker erstellt werden.
Auch subjektive Einflüsse, die durch den Terminologen die Qualität der
Terminologiedatenbanken beeinträchtigen, werden durch die Vernetzung von Texten
in einem Globaltext ausgeblendet: Muß der Terminologe heute noch die Termini
quell- und zielsprachlich in eine Datenbank transferieren, Wortklassen und
Formen bestimmen, Kontexte auswählen, und ein Richtigkeitsniveau bestimmen, so
entfallen all diese zeitraubenden und letztlich für den Übersetzer
überflüssigen Fehlerquellen des Transfers. Damit sollen die bisher üblichen
Recherchen in externen Datenbanken jedoch nicht abgewertet werden, es kommen
einige Komponenten hinzu. Die einzelnen Phasen dieser dritten Generation der
Terminologiearbeit lassen sich folgendermaßen darstellen:
Erkundungsphase (Phase 1): Suche der URL (Uniform Ressource Locator)
für den Terminologiebereich: Die Suche nach dem Wortschatz in einem Fachbereich
sollte mit der Suche nach HTML-Seiten beginnen. Zu verwenden sind dabei
unterschiedliche Suchmaschinen wie ALTAVISTA (www.altavista.digital.com),
FIREBALL (www.fireball.de), INFOSEEK (www.infoseek.com),
INTERSEARCH (www.intersearch.de) EULE (www.eule.de), YAHOO (www.yahoo.de),
LYCOS (www.lycos.de), ALADIN (www.aladin.de) und viele andere.
Allein in Deutschland gibt es mindestens 42 Suchmaschinen unterschiedlicher
Qualität. (Breyer, K.: 1998, S. 60ff)
Analysephase (Phase 2): Wird eine
größere Anzahl von HTML-Seiten gefunden, deren fachsprachliche Auswertung durch
den Terminologen zu umfangreich erscheint, müssen die Seiten als PLAIN-Text
vorerst auf einen lokalen Rechner gespeichert und mit einem
Textanalyseprogramm, das z.B. leicht mit SAS[1] zu programmieren ist, analysiert werden.
Entscheidungsphase (Phase 3). Diese
Seiten werden dabei nach einem stufenweisen Abgleich mit einer Wortliste, die
aus den am häufigsten in allen Textsorten erscheinden Wörtern besteht, (ca. 500
Wörter), anschließend mit einer weiteren Liste von ca. 6000 am häufigsten
vorkommenden Wörtern und bei zu großer Komplexität der Selektionsergebnisse
nochmals mit einer Liste des Allgemeinwortschatzes (ca. 15000 Wörter)
verglichen. Nach dieser Prozedur bleiben die in den Listen nicht enthaltenen
Fachtermini in Listenform übrig. Danach kann der Terminologe entscheiden, ob
seine WWW-Seiten für ihn von terminologischer Relevanz sind.
Verifikationsphase (Phase 4): Zielsprachliche Äquivalente müssen zunächst unter
Zuhilfenahme elektronischer Medien aber auch in herkömmlicher Form (von
Wörterbüchern) erarbeitet, dann jedoch im Netz auf zielsprachlichen WWW-Seiten
oder aus Intra-Netzen kopierten HTML-Seiten verifiziert werden.
Aufbereitungsphase (Phase 5): Auf den nun zu bearbeitenden Textseiten sind ferner
linguistische Aspekte zu beachten. So werden darin Texteinstreuungen benutzt,
die z.B. in üblichen Terminologielisten bislang nicht erfaßt wurden. Der
Terminologe kann z.B. eine Interpretation für einen Terminus vermerken, die
ansonsten gleichberechtigt neben anderen Interpretationsmöglichkeiten stünde. Texteinstreuungen,
die auf diese Weise eine Passage kennzeichnen, werden "Markups"
oder "Tags" genannt. Tags entsprechen im Grunde
Kurzformen von Regie-Anweisungen in einem Drehbuch. Auch wenn diese Tags selbst
wiederum einer Interpretations-Unschärfe unterliegen, so ermöglichen sie doch
für den Terminologen und den Übersetzer eine insgesamt größere Kontrolle über
das Set möglicher Verweise und Hintergrundinformationen einer Textseite oder im
einzelnen eines Terminus. Ein Linguist würde ein Tag dieser Art als Perlokution
bezeichnen.
Tags werden in den HTML-Texten (Hypertext Markup
Language) des World-Wide-Web verwendet. Die HTML-Tags dienen hier
allerdings nicht als Interpretationsanweisung an die Terminologiesuchenden,
sondern zur Beschreibung der Textstruktur, die von Programmen zum Lesen von
HTML-Texten (WWW-Browser, etwa Netscape oder Mosaic) ausgewertet
werden. Bislang wird HTML jedoch vornehmlich als Text-Layout-Sprache benutzt.
Ein HTML-Tag wie beispielsweise der Container-Tag <B>Wort</B> sorgt
dafür, daß das Wort "Wort" auf dem Bildschirm fett dargestellt
wird. Ferner dienen HTML-Tags dazu, Verbindungen ("Links" oder
"Hypermedia-Links" genannt) über das Internet zu anderen HTML-Texten
zu knüpfen, die sich irgendwo im Netz auf anderen Rechnern befinden.
(z.B.: <a
href=”http://www.suchen.de”>Suchmaschine</a>
HTML wurde ausgehend von der SGML (Standard
Generalized Markup Language) entwickelt und stellt eine Art
Untermenge der letzteren dar. SGML wird zum Beispiel von Lexika-Redaktionen
benutzt, um aus einem einzigen, digitalisiert vorliegenden Ausgangstext
Publikationen für unterschiedliche Medien (z.B. Papier, Offline-Datenbanken auf
CD-Rom oder Online-Datenbanken im Netz) und für verschiedene Lexikaformen
(Personen-, Geschichts-, Sozial-, Technik-Lexikon) herzustellen. Firmen
benutzen für ihre internen Publikationen ebenfalls ein SGML-Format, weil es
dadurch möglich wird, je nach Anforderung - etwa der Techniker an
CMC-Maschinen, der Konstrukteure an CAD-Systemen und der Kaufleute mit ihren
Tabellenkalkulationen - aus einem Gesamttext-Korpus einzelne Dokumentationen zu
einem Produkt mit spezifischen Perspektiven zusammenzustellen und graphisch
aufzubereiten.
Den Strukturverlust, den ein Terminologiesuchender bei
einer auf Papier ausgedruckten Terminologieliste hinnehmen muß, ist sowohl
informationsökologisch als auch -ökonomisch gesehen, katastrophal, weil der
Informationsgehalt eines Lexikons so nur zu einem Bruchteil ausgeschöpft werden
kann. Blieben die SGML-Tags, mit denen die Terminologen ohnehin arbeiten
könnten, in den Publikationen erhalten, wäre ein Übersetzer in der Lage, mit
technischer Unterstützung Zusammenhänge im Lexikon selbst herzustellen. Die
Auswahl und alphabetische Anordnung der Stichworte trägt allein dem Medium
Papier Rechnung und stellt ansonsten keine besonders effiziente Form dar,
Ordnung in einen Text oder eine Datenbank zu bringen. Ein mit SGML-Tags
ausgestattetes Terminologielexikon müßte natürlich in einem digitalen Medium,
z.B. im Internet, publiziert werden, weil nur so die Meta-Ebene der SGML-Tags
ergonomisch akzeptabel aus- und eingeblendet werden kann.
Nun ließe sich - so die Kernaussage dieses Beitrags -
auch wissenschaftliche Terminologiearbeit mit speziellen Textkennzeichnungen
strukturieren. Nennen wir diese im folgenden Term-Markup Language (TML
oder Term-ML), die Terminologiearbeit im Internet TermHyperWork (THW)
und Terminologiesuche TermHyperSearch (THS). Die Funktion einer Terminologie-Markup-Language
bestünde darin, die Struktur eines Textes hinsichtlich seiner Funktion für die
Terminologiesuche zu beschreiben. Darüber hinaus müßte eine TERM-ML erlauben,
insbesondere die Verbindungen (Links) zwischen einzelnen Texten und Absätzen
sowie zwischen Einzelsätzen und Termini innerhalb eines Textabschnittes zu
kennzeichnen.
Für das universitäre Übersetzen und Dolmetschen, die
Übersetzungs- bzw. Translationswissenschaft dürfte die Entwicklung einer
wissenschaftlichen TERM-ML ein Politikum ersten Ranges darstellen. So vermuten
wir schon seit längerem, daß durch die Inanspruchnahme effizienter Techniken
auf Grundlage von Computernetzen ein Dokumentationsdruck auf die Industrie und
Wissenschaftsorganisationen bzw. Universitäten und deren Strukturen entsteht.
Das Ziel der Entwicklung einer TERM-ML besteht darin,
Möglichkeiten zu unterstützen, daß die Terminologieerstellung diskursiv
kontrolliert aufeinander Bezug nehmen kann. Auf diese Weise läßt sich auch die Evolution
von Fachtermini spezifisch beobachten. Diese kann ihrerseits wiederum einem
Diskurs mit anderen Fachleuten und Terminologen unterzogen werden. Technisch
wäre anzustreben, daß von Computer Texte möglichst "intelligent"
bearbeitetet werden können. Die vollgültige Anwendung einer TERM-ML, speziell
für einen wissenschaftlichen Gebrauch von Fachtexten für Übersetzer und Dolmetscher,
setzt die vollständige Digitalisierung des Fachkvokabulars voraus.
Auf diese Weise entsteht ein vernetzter Gesamttext,
bei dem die Werkshoheit nicht mehr von einem einzelnen Autor, sondern von einer
Gruppe von Fachleuten, Terminologen und Translatoren insgesamt beansprucht
werden kann. Der Text ist zu einem Kollektivprodukt geworden, das aus mit Tags
versehenen Originaltexten zusammengesetzt ist. Wichtig erscheint dabei das
Abrücken von einer sich allgemein eingebürgerten individuellen Sichtweise der
Übersetzer, die ihre eigene ständig erarbeitete Terminologie eifersüchtig gegen
Zugriffe von außen schützen wollen.
Der Wechsel vom Papier auf Computernetze ist nicht nur
eine technische Angelegenheit, sondern schließt enorme arbeits- und lerntechnische
Veränderungen im Lehrbetrieb mit ein. Dennnoch sind die Organisationen unseres
Wissenschaftssystems zunftartig strukturiert. Das Selbstverständnis des
Personals dieser Organisationen orientiert sich dementsprechend am Idealbild
des genialischen, technophoben Kunsthandwerkers, der in alter Tradition auf das
Medium Papier bezogene Produktionsmittel vorzieht, oder wenn es gar als
fortschrittlich gelten soll, die papierbezogenen Ergebnisse digitalisiert
publiziert.
Eine TERM-ML wäre sowohl als Produkt als auch als
Katalysator einer anstehenden Dokumentarisierung fachspezifischer
Wissensinhalte denkbar. Sie würde die Publikationsmodi standardisieren und
dadurch die diskurskontrollierte Arbeitsteilung Generierung, Selektion,
Bewertung und Differenzierung von Fachausdrücken ermöglichen. Damit würde im
Bereich der nicht trivialen Terminologieverarbeitung eine fachspezifische
Entwicklung nachgeholt werden, wie sie in anderen Wissenschaftsbereichen schon
gang und gäbe ist.
Eine TERM-ML sollte demnach technisch so konzipiert
sein, daß die darunter liegenden technischen Schichten eines Netzes, also etwa
die multilingualen Verweisstrukturen, ohne weiteres ausgewechselt werden
können, ohne daß dadurch das von der TERM-ML-geknüpfte virtuelle Netz zwischen
den Textseiten angetastet wird. Die TERM-ML müßte überdies so entworfen sein,
daß sie auch Links auf nichtdigitalisierte Publikationen zu setzen erlaubt.
Eine TERM-ML ließe sich zunächst HTML-orientiert
entwerfen (oder gar dort einflechten). Der maßgebliche Unterschied zwischen der
TERM-ML und der HTML bestünde darin, daß bei einer TERM-ML auch die Art der
Verwendung eines Terms durch einen Link ausgewiesen wäre. HTML sieht außerdem
keine Möglichkeit vor, auf einen einzelnen Satz einer HTML-Seite Bezug zu nehmen,
sofern dieser Satz nicht vom Linkgeber von vornherein mit einer Referenz-Marke
versehen wurde. In einer TERM-ML müßten aber jeder einzelne Satz und jedes
einzelne Wort adressierbar sein. Die Adreßvergabe für Texte (und daraus
abgeleitete Adressen für die Sätze und Wörter im Text) könnte ähnlich dem
ISBN-Verfahren geregelt werden, wonach sich Autoren bzw. Organisationen ein Set
von Nummern für Fachtermini reservieren.
HTML umfaßt einige Dutzend verschiedener Tags. Der
Erfolg des World-Wide-Web beruht vermutlich zu einem großen Teil darauf, daß
die Erstellung von mit HTML ausgezeichneten Texten leicht zu lernen ist und
mittlerweile auch von Textverarbeitungen als Textformat ausgegeben werden kann.
Das Set an TERM-ML-Tags sollte aus ergonomischen Gründen klein sein. Der Erfolg
einer Standardisierung bemißt sich primär an deren Akzeptanz, nicht vornehmlich
an der Stringenz oder einem erschöpfenden Umfang.
Eine TERM-ML ließe sich auch in Groupware-Systeme
integrieren. Wichtige Elemente einer TERM-ML sind in Groupware-Programmen
ohnehin schon heute eingebaut, etwa wenn einer Terminologengruppe
dementsprechend abgestuft umfassendere oder beschränktere Zugriffe auf den
gemeinsam zu bearbeitenden Text gestattet werden. Es bleibt allein der sozialen
Regelung der miteinander weltweit arbeitenden Personen überlassen, zu
verhindern, daß es zwischen den verschiedenen Terminologen, die zufällig an dem
gleichen Wort oder Satz arbeiten, unkontrolliert zu Lösch- und
Schreiboperationen kommt.
Schließlich sollten die TERM-ML-Tags von einem
TERM-ML-Browser in Layout-Anweisungen übersetzt werden, um den Lesekomfort am
Bildschirm zu erhöhen und Ausdrucke auf Papier zu ermöglichen, solange die
Bildschirme noch von ergonomisch miserabler Qualität sind.
Die Standardisierung einer TERM-ML sollte dem
bewährten Verfahren folgen, wie es im Internet bei Standardisierungspapieren
(RFC - "Request For Comment") angewandt wird. Hiernach werden
Verfahren in der Regel von verschiedenen, voneinander unabhängigen
Projektgruppen realisiert, ausgetestet, modifiziert und dann im Anschluß als
Modell formuliert, bei der ISOC (Internet Society) eingereicht. Deren
Aufgabe beschränkt sich darauf, das Modell in die Sammlung von RFCs
einzusortieren und auf seine Verfügbarkeit hinzuweisen.
Die Übersetzungswissenschaft müßte die Entwicklung
einer solchen TERM-ML für ihren Bereich weltweit initiieren. Die TERM-ML sollte
dabei so konzipiert sein, daß sie Fachtext- und Diskursstrukturen zu
beschreiben gestattet. Weder Deduktionen bei multilingualen Verweisen, noch
Induktionen oder Abduktionen dürfen durch eine TERM-ML strukturell im Vorteil
sein. Es ist damit zu rechnen, daß sich mehrere Standards bilden, die selbst
wiederum ausreichend Anlaß für Diskurse und Reflexionen geben. Insofern
unterläge eine TERM-ML ihrerseits der Beobachtung durch den wissenschaftlichen
Diskurs in der Translationswissenschaft. Anders als EDI ("Electronic
Document Interchange", Deutsch, M.: 1995), ein Format zum Austausch
von standardisierten Dokumenten vornehmlich im Geschäftsbereich, müßte eine
TERM-ML weiterentwickelbar sein.
Persönliche "intelligent agents", die
als Stellvertreter eines Terminologen im Netz fungieren, könnten zusätzlich bei
der individuellen Auswahl von Fachtexten und Publikationen helfen. Eine TERM-ML
wäre auch schon heute nützlich, sofern WWW-Suchmaschinen wie Altavista,
Lycos, Webcrawler usw. TERM-ML-Tags auswerten könnten.
Die Autoren von Fachtexten sollten ihre Texte in
eigener Regie indizieren (wie bisher auch, nur ungleich höher auflösend) und
weitgehend auch selbst einschätzen und bewerten. Dies ist dann nicht
problematisch, wenn die eingestreuten TERM-ML-Tags einem Diskurs unterworfen
werden, wie er bei Nicht-Angemessenheit der Tags ohnehin entstünde. Die
zutreffende Auszeichnung eines Textes mit einem TERM-ML-Tag ließe sich
problemlos einem Katalog von Tags einer Terminologielehre hinzufügen.
Qualitätsmerkmal einer Terminologiearbeit wäre dann, möglichst schnell,
unkompliziert, effizient und fehlerlos ein Gesamtfachtextkorpus zu indizieren.
Um die Tags einer TERM-ML festzulegen, könnte man sich
an den von Linguisten entwickelten Wortklassen (Schmidt, S.: 1976) orientieren.
So bezeichnen Präsuppositionen etwa jene
Voraussetzungen, die einem Term zugrunde liegen. Sie können zwar nicht
unmittelbar ausgesprochen, aber zumeist durch ein Link erschlossen werden.
Illokutionen
sind Sprechakte im Hinblick auf ihre kommunikative Funktion. Sie motivieren zu
einem Anschluß an eine weitere Kommunikation. Eine TERM-ML weist die Qualität
eines Links hinsichtlich dessen Funktion für den Diskurs aus. Problematisch
hierbei ist jedoch die Angabe der Richtung einer Bezugnahme: In klassischen
wissenschaftlichen Publikationen gilt, daß Sätze aus anderen Seiten importiert
werden müssen, um aus der Sicht des eigenen Beitrags eingeordnet und bewertet
zu werden. In elektronisch miteinander verknüpften Texten macht es umgekehrt
mehr Sinn, den eigenen Beitrag dort einzuordnen und die eigenen Termini in
Bezug zum Gesamt-Textkorpus zu kennzeichnen.
Propositionen
verstehen Linguisten als "Transformationen 'möglicher Welten' in
Wahrheits-Werte" (Schmidt, S.: 1976, S. 89) oder 'als das, was in
Akten der Feststellung, Behauptung etc. festgestellt oder behauptet wird."
(Schmidt, S.: 1976, S. 90). Propositionen kommen nicht allein vor, sondern
müssen in illokutionären Akten geäußert werden. Fachtermini stehen nicht nur im
Verhältnis zu anderen Fachtermini, sondern bezeichnen Sachverhalte in der Welt.
Es wäre zu überlegen, diese linguistischen Klassen an
die von Habermas entwickelten Kategorien einer des teleologischen,
normenregulierten und dramaturgischen kommunikativen Handelns einer TERM-ML
anzuschließen (Habermas, J.: 1981).
Außerdem müßten Index-Tags, Multilingua-Tags,
Attribut-Tags, logische Tags und Kontext-Tags in die TERM-ML eingeführt werden.
Die erste Komponente kennzeichnet den TERM durch eine Indexierung bezogen auf
Fundstelle, Fachbereich und Synonyme. Eine zweite den Bezug der Aussage/
Begriffs zur multilingualen Verwendung in der Welt (im Netz) und die dritte
Komponente die Aussage im Hinblick auf die Bewertung durch den Autor wie
Grammatik (grammatische Angaben zum Term wie Genus, Wortart und
Wortbildungsverfahren, das dem Term zugrunde liegt (Cartagena, N.: 1997). Die
vierte Komponente weist auf einen Verstehenszusammenhang hin und die fünfte
Komponente soll als Erklärungskomponente für einen Kontextbezug metasprachliche
Informationen auf der Hypertextseite enthalten.
Durch die Einführung einer TERM-ML entstehen nicht
zuletzt auch rechtliche Probleme: Die Digitalisierung fachspezifischer Texte
und die Industrialisierung wissenschaftlicher Kommunikation greift insgesamt in
Regelungen des Urheberrechts oder die angemessene Entlohnung von Terminologen
ein (Barlow, J. P.: 1995).
Ferner stellt sich das Problem der Rechte an den
Links. Gehen diese automatisch an die virtuelle Netzgesellschaft der
Wissenschaftler über, sobald ein Text als Link-Anker in einem offiziellen
Archiv landet? Oder bestehen Individual-Rechte, wonach ein Link nur gesetzt
werden darf, wenn sich Linkgeber und Linknehmer explizit einig sind und der
Linkgeber die Bezugnahme nicht verweigert. Bislang herrscht im WWW die Ansicht
vor, daß das Legen eines Links nicht verweigert werden darf, es sei denn, die
Aussage über die referenzierte Seite trifft nicht zu.
Sicherlich wären regelmäßige Update-Termine sinnvoll,
so daß bestimmte Textversionen in den Archiven auf jeden Fall bis zum nächsten
Update-Termin gültig blieben. Dies entspräche einer Art Taktung des
TERM-ML-Systems: Ein Update-Interrupt stellte für einen absehbaren Zeitraum
einen neuen, verläßlichen Zustand des TERM-ML-Systems her. Die Häufigkeit der
Updates bliebe Angelegenheit der Scientific Society. Eine
Treuhänder-Organisation, die auf den bereits bestehenden
Verwertungsgesellschaften aufbauen würde, könnte die Update-Taktungen und das
Versenden von Steuernachrichten übernehmen, die Verträge zwischen Linkgebern
und Liknehmern verwalten und die Abgaben auf die verschiedenen Speicher-,
Transport- und Darstellungsformen eintreiben, um sie als Honorare an die
Autoren weiter zu reichen.
Allein an diesem sehr klein dargestellten Ausschnitt
einer TERM-ML lassen sich die Folgen der Vernetzung für die Ausbildung von
Fachleuten, Übersetzern und Dolmetschern (Translatologen) und spezifisch von
Terminologen in der universitären Ausbildung abschätzen, sobald deren
Möglichkeiten nicht nur nach traditionellen Maßstäben genutzt werden. Mit den
Netzen stehen die alten Arrangements zwischen Sendern (Terminologen) und
Empfängern (Terminologiesuchende) neu zur Disposition. Die Radikalität der
sozialen sowie virtuellen Veränderung in der Übersetzungs- und
Translationswissenschaft und speziell bei der Terminologiearbeit dürfte
derjenigen vergleichbar sein, die mit dem Buchdruck und der Dampfmaschine
einher ging.
So wird Schneewittchen, noch schlummernd unter
Glas - bewacht von sieben Zwergen - vielleicht geküßt durch einen neuen Geist,
erwachen frisch und voller Lebenskraft.
Der Autor:
Helmuth Sagawe, promovierter Soziologe, richtete den
Bereich EDV und Sprachdatenverarbeitung am Institut für Übersetzen und
Dolmetschen der Universität Heidelberg inhaltlich wie curricular ein
und leitete ihn über 15 Jahre hinweg (Sagawe, H.:1989 1+2).
Literatur
Ahrens,
H. 1997: Der Computereinsatz in der Ausbildung
von Übersetzern und Dolmetschern unter Berücksichtigung translationsrelevanter
Aspekte; in: Fleischmann, Eberhard + Kutz, Wladimir + Schmitt, Peter A.
(Hrsg.): Translationsdidaktik. Grundfragen der Übersetzungswissenschaft;
Tübingen, Gunter Narr, S. 344-351.
Arntz,
R./Picht, H. 1989: Einführung
in die Terminologiearbeit, Hildesheim, georg Olms
Arntz,
R. 1986: Terminologievergleich und
internationale Terminologieangleichung. In: Snell-Hornby, M.
(Hrsg.):Übersetzungswissenschaft - eine Neuorientierung: Zur Integrierung von
Theorie und Praxis, Tübingen, Franke, S. 283-310
Austermühl,
F. und Kornelius, J: 1994: Über die
Verfügbarkeit elektronischer Hilfsmittel in Übersetzungsdiensten, Ergebnisse
einer Befragung, Heidelberg 1994 (unveröffentlichte Materialien aus einer
studentischen Befragung
Barlow,
J. P. 1995: Wein ohne Flaschen -
Globale Computernetze, Ideen-Ökonomie und Urheberrecht; in: Bollmann, St.,
Kursbuch Neue Medien, S 79-106
Birkenmaier,
W./Mohl, I. 1991: Russisch als
Fachsprache, Tübingen, Gunter Narr
Böhle,
K. 1996: Elektronisches Publizieren;
in: Buder, M./ Rehfeld, W./ Seeger, T./ Strauch, D. (Hrsg.), 1996: Grundlagen
der praktischen Information und Dokumentation, Band 1, München, Saur, S
397-424
Bollmann,
S. (Hrsg.) 1995: Kursbuch Neue Medien
- Trends in Wirtschaft und Politik, Wissenschaft und Kultur, 2. durchgesehene
Auflage 1996: S. 422
Breyer,
K. 1998: ”Wer sucht der flucht”, in
COM, T-Online &Internet, Mai 1998, Seite 60ff
Cartagena,
N./ Harslem, F./ Irgang, B. 1997:
Terminologiedatenbank: Muster einer Multiterm-Maske der spanischen Abteilung am
Institut für Übersetzen und Dolmetschen der Universität Heidelberg:
Arbeitspapier vom 26. Juli 1997
Castoriadis,
Cornelius, 1984: Die imaginäre
Institution der Gesellschaft, Frankfurt/M
Coners,
M., Terminology management - A
Student´s Guide, Trier 1996 (auf zwei Disketten für 20,- DM im
Wissenschaftlicher Verlag Trier zu beziehen)
Deutsch,
M. 1995: Unternehmenserfolg mit EDI;
Strategie und Einführung des elektronischen Datenaustausches, Wiesbaden
Dreyfus,
H. L./ Dreyfus, S. E. 1986:
Künstliche Intelligenz - Von den Grenzen der Denkmaschine und dem Wert der
Intuition, 1. Aufl., 1987, Reinbek bei
Hamburg
Elias,
N. 1970: Was ist Soziologie?, 4.
Aufl., 1981 München, Juventa
Felber,
H./Lang, F./Wersig, G. (Hrsg.) 1979:
Terminologie als angewandte Sprachwissenschaft, Gedenkschrift für Univ.-Prof.
Dr. Eugen Wüster, München
Habermas,
J. 1981: Theorie des kommunikativen
Handelns, Bd. 1 und 2, 3. Aufl., 1985, Frankfurt/ M., Suhrkamp
Heibach,
C./ Bollmann, S. (Hrsg.) 1996:
Kursbuch Internet - Anschlüsse an Wirtschaft und Politik, Wissenschaft und
Kultur
Lewandowski,
Th. 1990: Linguistisches Wörterbuch
(Bd. 1-3), Heidelberg/ Wiesbaden, UTB
Parsons, Talcott, 1937: The Structure of Social
Action, New York
Römer,
M./ Quendt, B./ Stenz, P. 1996:
Autopiloten fürs Netz, Intelligente Agenten - Rettung aus der Datenflut. In:
C´T 1996/ 03: 156-162
Rost,
M. Vorschläge zur Entwicklung einer wissenschaftlichen
Diskurs-Markup-Language, in: Heibach, Christiane/ Bollmann, Stefan (Hrsg.),
1996: Kursbuch Internet - Anschlüsse an Wirtschaft und Politik, Wissenschaft
und Kultur
Sagawe, H. 19891:
EDV-Aus- und Weiterbildung für Übersetzer und Dolmetscher am Institut für Übersetzen
und Dolmetschen der Universität Heidelberg, in: Modellversuch:
Studienkomponente Sprachdatenverarbeitung in der Übersetzer- und
Dolmetscherausbildung - Proceedings, herausgegeben von Karl-Heinz Freigang und
Klaus-Dirk Schmitz, Universität des Saarlandes, Fachrichtung 8.6; Saarbrücken
Sagawe, H. 19892:
EDV-Aus- und Weiterbildung für Übersetzer und Dolmetscher am Institut für
Übersetzen und Dolmetschen der Universität Heidelberg, in: Mitteilungsblatt für
Übersetzer und Dolmetscher, Jg. 35, Heft 3 Bonn
Schmitt,
P. A. 1987.: Computer statt Kartei?
Terminologiearbeit mit Mikrocomputer; in: Lebende Sprachen Jg. 32, Heft 2,
56-65.
Schmidt,
S. J. 1973: Texttheorie - Probleme
einer Linguistik der sprachlichen Kommunikation, 2. Aufl., München, Fink
Tanenbaum,
A. S., 1990: Computer Netzwerke:
Wolfram's Fachverlag
Vermeer,
H. J. 1986: Übersetzen als
kultureller Transfer; in: Snell-Hornby, Mary (Hrsg.): Übersetzungswissenschaft
- eine Neuorientierung. Zur Integrierung von Theorie und Praxis; Tübingen -
Basel, S. 30-53, Franke
Wüster,
E. 1985: Einführung in die allgemeine
Terminologielehre und die terminologische Lexikographie, Kopenhagen, Springer