Überlegungen zur Terminologiearbeit (TermHyperWork)

und Terminologiesuche (TermHyperSearch)

der ”dritten Generation”

Entwicklung einer wissenschaftlichen

Terminologie-Markup-Language

von Helmuth Sagawe

d:\veröff\hyper.doc

in: LEBENDE SPRACHEN,
Zeitschrift für fremde Sprachen in Wissenschaft und Praxis.
Heft 3, 2000, Berlin, Seite 97 -101

Zusammenfassung: Die hier beschriebene Terminologiearbeit der dritten Generation verwendet Tags in HTML-Texten (Hypertext Markup Language) des World-Wide-Web. Bislang wurde HTML jedoch vornehmlich als Text-Layout-Sprache benutzt. Ferner dienten HTML-Tags dazu, Verbindungen ("Links" oder "Hypermedia-Links" genannt) über das Internet zu anderen HTML-Texten zu knüpfen, die sich irgendwo im Netz auf anderen Rechnern befinden. Nennen wir diese neue Kennzeichnungssystem im folgenden Term-Markup Language (TML oder Term-ML), die Terminologiearbeit im Internet TermHyperWork (THW) und Terminologiesuche TermHyperSearch (THS). Die Funktion einer Terminologie-Markup-Language besteht darin, die Struktur eines Textes hinsichtlich seiner Funktion für die Terminologiesuche zu beschreiben. Eine TERM-ML läßt sich zunächst HTML-orientiert entwerfen (oder gar dort einflechten). Die HTML sieht bis heute noch keine Möglichkeit vor, auf einen einzelnen Satz einer HTML-Seite Bezug zu nehmen, sofern dieser Satz nicht vom Linkgeber von vornherein mit einer Referenz-Marke versehen wurde. In einer TERM-ML müßten aber jeder einzelne Satz und jedes einzelne Wort adressierbar sein. Eine TERM-ML unterläge ihrerseits der Beobachtung durch den wissenschaftlichen Diskurs in der Translationswissenschaft. Eine TERM-ML könnte heute schon zur Anwendung kommen, wenn WWW-Suchmaschinen wie Altavista, Lycos, Webcrawler usw. TERM-ML-Tags auswerten könnten.

 

Spricht man heute von Terminologie, so denkt man in erster Linie an Fachausdrücke im technischen oder naturwissenschaftlichen ”Kauderwelsch”, die der Laie nicht versteht und die den Übersetzer oder Dolmetscher oftmals beim Finden von Eins-zu-Eins-Äquivalenten vor unlösbare Probleme stellen kann. Die fortschreitende Arbeitsteilung erzeugt einen Bedarf an ständig neuen Bezeichnungen für neu entdeckte oder neu zu interpretierende Gegenstände und Sachverhalte. Benennungen, die auf diesem Weg entstehen, werden im akademischen Bereich Termini genannt. (Birkenmaier, W. und Mohl I.:1991, S. 7). Sollen diese Termini nun in eine andere Sprache übersetzt werden, so ist eine gründliche Terminologiearbeit gefragt. Der Übersetzungs- oder Translationswissenschaftler- schon hier ergeben sich in der Benennung unterschiedliche inhaltliche Wertungen, (vgl. zur TW Vermeer, Hans J.: 1994) - und der Übersetzer bzw. Dolmetscher verstehen unter dem Begriff Terminologiearbeit heute wie ehe und je, die Erarbeitung, Bearbeitung oder Verarbeitung von Fachbegriffen. Diese wird nicht nur für Technik oder Naturwisssenschaften, sondern für fast alle Lebens- und Fachbereiche geleistet.

Die "Terminologiearbeit" ist heute primär dem Bereich der Normung zuzurechnen, jedoch ist sie nicht auf diese Aufgabe beschränkt. So ist zwischen deskriptiver, d.h. den bestehenden Sprachgebrauch beschreibender, und normender Terminologiearbeit zu unterscheiden. Normende Terminologiearbeit setzt deskriptive Terminologiearbeit voraus, weil in jedem Falle zunächst der sprachliche Ist-Zustand ermittelt werden muß (Arntz, R. und Picht, H.: 1989, S. 3-5).

Die allgemeine Terminologie- oder terminologische Grundsatzlehre, d.h. die Theorie bzw. interdisziplinäre Wissenschaft von der Terminologie, wird als linguistisch-pragmatische Disziplin dargestellt, die sich um die den einzelnen Fachterminologien gemeinsamen Prinzipien und Gesetzmäßigkeiten bemüht und eine sinnvolle Begriffs- bzw. Sprachnormung anstrebt (Wüster; E.: 1985). Die Terminologielehre geht von Begriffen bzw. Wörtern aus, denen eine Bedeutung zugeordnet ist. Der spontan entstandenen Ist-Norm wird die Soll-Norm der fachlichen Hochsprache entgegengesetzt, die sich erfahrungsgemäß rasch zur internationalen Ist-Norm entwickelt. Empfohlen wird bei der Anlage von Fachwörterbüchern die (fach-)systematische Anordnung, bei der die einzelsprachliche Normung von Termini den Mittelweg zwischen angemessener Übersetzung und internationaler Gültigkeit darstellt.

Die Terminologiearbeit ist in hohem Maße interdisziplinär, da sie die enge Zusammenarbeit besonders von Linguistik, formaler Logik, Informatik und der jeweiligen Sach- und Kulturwissenschaft verlangt. In der Ausbildung der Übersetzer könnte dies für die Lehrenden eine besondere Herausforderung darstellen, sofern dieses Fach nicht in eingefahrenen Bahnen abgehandelt wird.

Wird den Studierenden der Übersetzungswissenschaft zu Ende ihres Studiums eine Diplomarbeit abverlangt, so ist es heute oftmals Usus, ihnen eine Terminologiearbeit zu empfehlen, in der sich der Studierende an klar vorgegebene Strukturen zur Bewältigung der Aufgabe halten kann. Der universitäre Anspruch einer Abschlußarbeit mit dem Prädikat eines akademischen Abschlusses, in der neue wissenschaftliche Erkenntnisse dialektisch aufbereitet dargestellt werden sollten, reduziert sich allerdings bei solchen Arbeiten oftmals auf die Sammlung eines Fachvokabulars mit entsprechenden Informationen und dessen Translation in eine Fremdsprache.

Ziel solch einer Terminologiearbeit ist dabei nach Coners (Coners, M.: 1996) die möglichst vollständige Erfassung des Wortschatzes in einem bestimmten Fachgebiet. Die fertige Arbeit soll es Dolmetschern ermöglichen, sich in kurzer Zeit auf einen Dolmetschtermin vorzubereiten, ferner Übersetzern als Hilfsmittel zur Übertragung von Fachtexten dienen. Der Aufbau der Arbeit besteht - ebenfalls nach Coners - einerseits aus der Darstellung des fachlichen Inhaltes (Hintergrundinformation für Benutzer), andererseits aus dem Glossar, in dem unterschieden wird zwischen  "harter" Terminologie (naturwissenschaftlich-technische Gebiete) und "weicher" Terminologie (gesellschaftliche Phänomene und Entwicklungen). Detailanalytische Terminologiearbeiten beschäftigen sich mit dem fachsprachlichen Vokabular eines Fachgebietes unter bestimmten sprachtheoretischen und sprachpraktischen Gesichtspunkten (z. B. Anglizismen in bestimmten Fachsprachen). Definitorisch-darstellende Terminologiearbeiten sollen zum Ziel haben, landes- und kulturspezifische Besonderheiten mit definitorisch - explikatorischen Erläuterungen zu den jeweiligen Begriffen darzustellen. Der Umfang dieser Arbeiten variiert je nach Themenwahl, ein Richtmaß von mindestens 200 Einträgen wird vorgegeben, außerdem wird ein Zeitrahmen von vier Monaten unter der Berücksichtigung organisatorischer Aspekte wie Themenwahl, Expertenwahl, Literaturbeschaffung etc. erwartet.

Für die an Terminologie-Diplomarbeiten interessierten Professoren stellen solche Abschlußarbeiten eine Erleichterung bei den Korrekturen und Bewertungen dar. Sie können ihre Tätigkeit auf eine stichprobenartige Überprüfung der erarbeiteten Terminologie reduzieren, falls dies nicht gar einem Fachmann auf diesem Gebiet überlassen wird. Auch setzen sie sich nicht bei der Betreuung dieser Arbeiten mit eventuell neuen Gedankenkonstrukten, wie Translationstheorie oder innovativen und kritischen Modellen aus anderen Disziplinen, z.B. wie dies in einer kritischen Soziologie üblich ist, auseinander.

Eine nicht originäre und überwiegend durch Linguisten okkupierte Wissenschaft wie die Translationswissenschaft, sollte als eine interdisziplinäre Wissenschaft durch Kultur-, Sozial- und Sprachwissenschaftler paritätisch vertreten sein. Nur so könnte ihr verführerischer Reiz, ausgestattet mit vielfältigen Analyse- und Erkenntnismöglichkeiten, jedoch derzeit blockiert durch das ”Schneewittchen-Syndrom”, zur vollen Entfaltung kommen.

Auch haben sich nach der Einführung der EDV in der Terminologiearbeit bis heute kaum wissenschaftlich neue Erkenntnisprozesse durchgesetzt. Liegt dies allgemein an der allseits bemängelten universitären intellektuellen Abstinenz oder im einzelnen an dem z.B. von Austermühl und Kornelius den Studierenden abverlangten und präferierten ”PC-technischen Handlungswissen” (Austermühl, F. und Kornelius, J: 1994), das, mit Talcott Parsons (Parsons, T.: 1937) gesprochen, dem normenregulierten Handeln zuzurechnen ist und keine - wie Cornelius Castoriadis (Castoriadis, C.: 1984) es uns theoretisch deutlich macht - kreative Dimension des Handelns offenläßt. Vielleicht ist inzwischen die Terminologiearbeit als normative Tätigkeit deshalb auch im Lehr- und Prüfungsbetrieb der Universitäten so beliebt geworden?

 

Der Einsatz der Elektronischen Datenverarbeitung hat zu einem ersten gravierenden evolutionären Sprung beim Erarbeiten von Terminologie geführt (Schmitt, Peter A.: 1987). Während die Terminologen vordigitaler Zeiten ihre hauptsächliche Arbeit auf kleinen Karteikärtchen vermerkten und diese in Holz- und Plastikkistchen oder gar in Schuhkartons sortierten (1. Generation der Terminologiearbeit), wird heute meist der Computer zur Edition, Sortierung und Selektion eingesetzt (2. Generation der Terminologiearbeit). Terminologieverwaltungsprogramme ermöglichen dem mit technischem Verständnis ausgestatteten Übersetzer, einfach und schnell Terminologiedatenbanken zu erstellen und auch in externen Datenbanken vorgefertigte Terminologieeinträgen zu recherchieren (Ahrens, Helga: 1997). Im Einsatz sind so z.B. am Institut für Übersetzen und Dolmetschen der Universität Heidelberg die Terminologie-Verwaltungsprogramme MultiTerm und  Termex (Sagawe, Helmuth: 19891,2). Es handelt sich hier um rein übersetzerspezifische Terminologie-Datenbankprogramme, die auf den einfachen Gebrauch des Übersetzers zugeschnitten sind. In der Erprobungsphase sind auch allgemeinübliche Datenbankprogramme wie EXCEL und ACCESS.

Solche Datenbanken, auch als relationale Datenbanken bekannt, haben zwar die Fähigkeit, umfangreiche Verweisstrukturen zu erstellen, jedoch haben sie nichts mit der multimedialen digital vernetzten Welt und den hieraus erwachsenden Möglichkeiten der modernen Informationsgesellschaft zu tun. Es fragt sich deshalb, ob diese Art von Terminologiearbeit nicht an eine andere, den heutigen intellektuellen Ansprüchen gerechter werdende vernetzte Welt angepaßt werden müßte? (3. Generation der Terminologiearbeit).

Der Übergang von der Datenverarbeitung zur Wissensverarbeitung und die immer stärker werdende Computerisierung der Wissenschaften ergibt auch wissenschaftstheoretisch die Notwendigkeit einer Neuorientierung der Überssetzungs- bzw. Translationswissenschaft - eingeschlossen der Terminologiearbeit - an den gegenwärtigen Stand der Informationstechnologie. Das dynamische, veränderungsfähige neue Darstellungsmittel, bei dem die Struktur vom Prozeß des Erkennens nicht getrennt werden kann, macht statisch linearistische Texte, Daten- und Wortsammlungen zu multimedialen Hypertexten und globalen Datenbanken, wissenschaftliche Theorien zu algorithmischen Computerprogrammen, setzt an die Stelle logischer Widerspruchsfreiheit prozedurale Effektivität und eröffnet neue Einsichten in den Zusammenhang von Entdeckung und Rechtfertigung wissenschaftlicher Theorien und Erkenntnisprozessen.

Analog zu Vorschlägen zur Entwicklung einer wissenschaftlichen Diskurs-Markup-Language aus dem Bereich der Soziologie ist nun zu überlegen, ob nicht auch die Terminologiearbeit generell revidiert und auf die Basis des HTML-Formates (Hypertext Markup Language) gestellt werden müßte. Die Nutzung von Netzdiensten (E-Mail, Diskussionsforen, World-Wide-Web, Suchmaschinen, WAIS, FTP-Archive, per Telnet erreichbare Datenbanken usw.) ist erst für wenige Terminologen alltäglich geworden. Die Informationsverarbeitung wird durch ihren Einsatz jedoch enorm beschleunigt, und eine gründliche Recherche wird überhaupt erst durch den digitalen Einsatz möglich gemach. Dennoch werden diese Techniken nur von einem kleinen Teil der Terminologen genutzt, bzw. nur von einer Minderheit der Lehrenden in die universitäre Ausbildung integriert. Dies liegt u.a. daran, daß die Möglichkeiten digitaler Medien bislang überwiegend gemäß den Standards eines auf Papier basierenden Publikationssystems genutzt werden. So werden digitale Medien zwar bevorzugt und kostenintensiv eingesetzt, im Grunde jedoch nur alte Inhalte in neue digitale Formen verpackt und durch eigene Verlage kommerzialisiert. Die Erforschung neuer innovativ wissenschaftlicher Anwendungsmöglichkeiten bleibt nicht selten dabei unberücksichtigt.

 

Vorschlag zu einer neuen (dritten) Generation der Terminologiearbeit (TermHyperWork):

Geht man davon aus, daß in absehbarer Zeit in Universitäten, Firmen und Haushalten nur noch vernetzte Computer in Betrieb sein werden - am Beispiel der USA wird uns dies schon vor Augen geführt - so müssen grundlegende Änderungen in der terminologischen Arbeit, zumindest im universitären Bereich, gefordert werden.

Terminologie, also Fachvokabular, wird generell aus Fachtexten oder verbalisierten Äußerungen unterschiedlicher Herkunft selektiert. Bei einer Terminologiearbeit der dritten Generation (TermHyperWork) entfällt die von Coners geforderte ”möglichst vollständige Erfassung des Wortschatzes in einem Fachgebiet” (Coners, M.: 1996).

Primäres Ziel ist es, diese Quellen in maschinenlesbare (digitalisierte) Form in ein HTML-Format zu transferieren, falls die Fundstellen außerhalb des Internet zu finden sind. Meist jedoch sind diese Original- bzw. Quelltexte bereits weltweit in den verschiedenen Computersystemen (Servern) als HTML-Texte im Internet oder in Intranetzen zu finden. Der Grundgedanke von TermHyperWork, der Terminologiearbeit der dritten Generation, ist primär, HTML-Seiten eines zu erarbeitenden Terminologiebereichs mit Hilfe unterschiedlicher Suchmaschinen zu lokalisieren und dann zu speichern, mit neu zu erarbeitenden Markern und Links auszustatten und in einem allgemein zugänglichen Bereich auf einem WWW Server zur Verfügung zu stellen. Der Schwerpunkt dieser neuzeitlichen Terminologiearbeit liegt neben dem Finden der Dokumente beim Aufarbeiten dieser Dokumente mit Markern und Links, damit später bei der Vorbereitung auf Dolmetschkonferenzen oder für die Übersetzertätigkeit die Terminologiesuche im Internet zu validen Ergebnissen in unterschiedlichen Sprachenpaaren im Kontext der originalsprachlichen Webseiten führt und Zusatzinformationen eingesehen werden können.

Der Vorteil dieses Verfahrens besteht darin, bei der späteren Terminologierecherche (TermHyperSearch) Zugriff auf Originalseiten zu haben, d. h. Textquellen in der Originalform mit Graphiken und Bildern schnell und sicher in unterschiedlichen verlinkten muttersprachlichen Textseiten auffinden zu können, sowie die Attribuierung durch eine einheitliche Klassifizierung nach Fachgebieten, Genusangabe, Sprachraum usw. einsehen zu können. Insofern muß auch über die Begriffe Ziel- und Quell- bzw. muttersprachliche Texte neu nachgedacht werden, da bei dieser Terminologiearbeit nur Originaltexte verwendet werden. Liegen keine multilingualen Texte vor, müssen sie vom Nativspeaker erstellt werden. Auch subjektive Einflüsse, die durch den Terminologen die Qualität der Terminologiedatenbanken beeinträchtigen, werden durch die Vernetzung von Texten in einem Globaltext ausgeblendet: Muß der Terminologe heute noch die Termini quell- und zielsprachlich in eine Datenbank transferieren, Wortklassen und Formen bestimmen, Kontexte auswählen, und ein Richtigkeitsniveau bestimmen, so entfallen all diese zeitraubenden und letztlich für den Übersetzer überflüssigen Fehlerquellen des Transfers. Damit sollen die bisher üblichen Recherchen in externen Datenbanken jedoch nicht abgewertet werden, es kommen einige Komponenten hinzu. Die einzelnen Phasen dieser dritten Generation der Terminologiearbeit lassen sich folgendermaßen darstellen:

 

Erkundungsphase (Phase 1):  Suche der URL (Uniform Ressource Locator) für den Terminologiebereich: Die Suche nach dem Wortschatz in einem Fachbereich sollte mit der Suche nach HTML-Seiten beginnen. Zu verwenden sind dabei unterschiedliche Suchmaschinen wie ALTAVISTA (www.altavista.digital.com), FIREBALL (www.fireball.de), INFOSEEK (www.infoseek.com), INTERSEARCH (www.intersearch.de) EULE (www.eule.de), YAHOO (www.yahoo.de), LYCOS (www.lycos.de), ALADIN (www.aladin.de) und viele andere. Allein in Deutschland gibt es mindestens 42 Suchmaschinen unterschiedlicher Qualität. (Breyer, K.: 1998, S. 60ff)

 

Analysephase (Phase 2): Wird eine größere Anzahl von HTML-Seiten gefunden, deren fachsprachliche Auswertung durch den Terminologen zu umfangreich erscheint, müssen die Seiten als PLAIN-Text vorerst auf einen lokalen Rechner gespeichert und mit einem Textanalyseprogramm, das z.B. leicht mit SAS[1] zu programmieren ist, analysiert werden.

 

Entscheidungsphase (Phase 3). Diese Seiten werden dabei nach einem stufenweisen Abgleich mit einer Wortliste, die aus den am häufigsten in allen Textsorten erscheinden Wörtern besteht, (ca. 500 Wörter), anschließend mit einer weiteren Liste von ca. 6000 am häufigsten vorkommenden Wörtern und bei zu großer Komplexität der Selektionsergebnisse nochmals mit einer Liste des Allgemeinwortschatzes (ca. 15000 Wörter) verglichen. Nach dieser Prozedur bleiben die in den Listen nicht enthaltenen Fachtermini in Listenform übrig. Danach kann der Terminologe entscheiden, ob seine WWW-Seiten für ihn von terminologischer Relevanz sind.

 

Verifikationsphase (Phase 4): Zielsprachliche Äquivalente müssen zunächst unter Zuhilfenahme elektronischer Medien aber auch in herkömmlicher Form (von Wörterbüchern) erarbeitet, dann jedoch im Netz auf zielsprachlichen WWW-Seiten oder aus Intra-Netzen kopierten HTML-Seiten verifiziert werden.

 

Aufbereitungsphase (Phase 5): Auf den nun zu bearbeitenden Textseiten sind ferner linguistische Aspekte zu beachten. So werden darin Texteinstreuungen benutzt, die z.B. in üblichen Terminologielisten bislang nicht erfaßt wurden. Der Terminologe kann z.B. eine Interpretation für einen Terminus vermerken, die ansonsten gleichberechtigt neben anderen Interpretationsmöglichkeiten stünde. Texteinstreuungen, die auf diese Weise eine Passage kennzeichnen, werden "Markups" oder "Tags" genannt. Tags entsprechen im Grunde Kurzformen von Regie-Anweisungen in einem Drehbuch. Auch wenn diese Tags selbst wiederum einer Interpretations-Unschärfe unterliegen, so ermöglichen sie doch für den Terminologen und den Übersetzer eine insgesamt größere Kontrolle über das Set möglicher Verweise und Hintergrundinformationen einer Textseite oder im einzelnen eines Terminus. Ein Linguist würde ein Tag dieser Art als Perlokution bezeichnen.

Tags werden in den HTML-Texten (Hypertext Markup Language) des World-Wide-Web verwendet. Die HTML-Tags dienen hier allerdings nicht als Interpretationsanweisung an die Terminologiesuchenden, sondern zur Beschreibung der Textstruktur, die von Programmen zum Lesen von HTML-Texten (WWW-Browser, etwa Netscape oder Mosaic) ausgewertet werden. Bislang wird HTML jedoch vornehmlich als Text-Layout-Sprache benutzt. Ein HTML-Tag wie beispielsweise der Container-Tag <B>Wort</B> sorgt dafür, daß das Wort "Wort" auf dem Bildschirm fett dargestellt wird. Ferner dienen HTML-Tags dazu, Verbindungen ("Links" oder "Hypermedia-Links" genannt) über das Internet zu anderen HTML-Texten zu knüpfen, die sich irgendwo im Netz auf anderen Rechnern befinden.

(z.B.: <a href=”http://www.suchen.de”>Suchmaschine</a>

HTML wurde ausgehend von der SGML (Standard Generalized Markup Language) entwickelt und stellt eine Art Untermenge der letzteren dar. SGML wird zum Beispiel von Lexika-Redaktionen benutzt, um aus einem einzigen, digitalisiert vorliegenden Ausgangstext Publikationen für unterschiedliche Medien (z.B. Papier, Offline-Datenbanken auf CD-Rom oder Online-Datenbanken im Netz) und für verschiedene Lexikaformen (Personen-, Geschichts-, Sozial-, Technik-Lexikon) herzustellen. Firmen benutzen für ihre internen Publikationen ebenfalls ein SGML-Format, weil es dadurch möglich wird, je nach Anforderung - etwa der Techniker an CMC-Maschinen, der Konstrukteure an CAD-Systemen und der Kaufleute mit ihren Tabellenkalkulationen - aus einem Gesamttext-Korpus einzelne Dokumentationen zu einem Produkt mit spezifischen Perspektiven zusammenzustellen und graphisch aufzubereiten.

Den Strukturverlust, den ein Terminologiesuchender bei einer auf Papier ausgedruckten Terminologieliste hinnehmen muß, ist sowohl informationsökologisch als auch -ökonomisch gesehen, katastrophal, weil der Informationsgehalt eines Lexikons so nur zu einem Bruchteil ausgeschöpft werden kann. Blieben die SGML-Tags, mit denen die Terminologen ohnehin arbeiten könnten, in den Publikationen erhalten, wäre ein Übersetzer in der Lage, mit technischer Unterstützung Zusammenhänge im Lexikon selbst herzustellen. Die Auswahl und alphabetische Anordnung der Stichworte trägt allein dem Medium Papier Rechnung und stellt ansonsten keine besonders effiziente Form dar, Ordnung in einen Text oder eine Datenbank zu bringen. Ein mit SGML-Tags ausgestattetes Terminologielexikon müßte natürlich in einem digitalen Medium, z.B. im Internet, publiziert werden, weil nur so die Meta-Ebene der SGML-Tags ergonomisch akzeptabel aus- und eingeblendet werden kann.

 

Nun ließe sich - so die Kernaussage dieses Beitrags - auch wissenschaftliche Terminologiearbeit mit speziellen Textkennzeichnungen strukturieren. Nennen wir diese im folgenden Term-Markup Language (TML oder Term-ML), die Terminologiearbeit im Internet TermHyperWork (THW) und Terminologiesuche TermHyperSearch (THS). Die Funktion einer Terminologie-Markup-Language bestünde darin, die Struktur eines Textes hinsichtlich seiner Funktion für die Terminologiesuche zu beschreiben. Darüber hinaus müßte eine TERM-ML erlauben, insbesondere die Verbindungen (Links) zwischen einzelnen Texten und Absätzen sowie zwischen Einzelsätzen und Termini innerhalb eines Textabschnittes zu kennzeichnen.

Für das universitäre Übersetzen und Dolmetschen, die Übersetzungs- bzw. Translationswissenschaft dürfte die Entwicklung einer wissenschaftlichen TERM-ML ein Politikum ersten Ranges darstellen. So vermuten wir schon seit längerem, daß durch die Inanspruchnahme effizienter Techniken auf Grundlage von Computernetzen ein Dokumentationsdruck auf die Industrie und Wissenschaftsorganisationen bzw. Universitäten und deren Strukturen entsteht.

Das Ziel der Entwicklung einer TERM-ML besteht darin, Möglichkeiten zu unterstützen, daß die Terminologieerstellung diskursiv kontrolliert aufeinander Bezug nehmen kann. Auf diese Weise läßt sich auch die Evolution von Fachtermini spezifisch beobachten. Diese kann ihrerseits wiederum einem Diskurs mit anderen Fachleuten und Terminologen unterzogen werden. Technisch wäre anzustreben, daß von Computer Texte möglichst "intelligent" bearbeitetet werden können. Die vollgültige Anwendung einer TERM-ML, speziell für einen wissenschaftlichen Gebrauch von Fachtexten für Übersetzer und Dolmetscher, setzt die vollständige Digitalisierung des Fachkvokabulars voraus.

Auf diese Weise entsteht ein vernetzter Gesamttext, bei dem die Werkshoheit nicht mehr von einem einzelnen Autor, sondern von einer Gruppe von Fachleuten, Terminologen und Translatoren insgesamt beansprucht werden kann. Der Text ist zu einem Kollektivprodukt geworden, das aus mit Tags versehenen Originaltexten zusammengesetzt ist. Wichtig erscheint dabei das Abrücken von einer sich allgemein eingebürgerten individuellen Sichtweise der Übersetzer, die ihre eigene ständig erarbeitete Terminologie eifersüchtig gegen Zugriffe von außen schützen wollen.

 

Der Wechsel vom Papier auf Computernetze ist nicht nur eine technische Angelegenheit, sondern schließt enorme arbeits- und lerntechnische Veränderungen im Lehrbetrieb mit ein. Dennnoch sind die Organisationen unseres Wissenschaftssystems zunftartig strukturiert. Das Selbstverständnis des Personals dieser Organisationen orientiert sich dementsprechend am Idealbild des genialischen, technophoben Kunsthandwerkers, der in alter Tradition auf das Medium Papier bezogene Produktionsmittel vorzieht, oder wenn es gar als fortschrittlich gelten soll, die papierbezogenen Ergebnisse digitalisiert publiziert.

Eine TERM-ML wäre sowohl als Produkt als auch als Katalysator einer anstehenden Dokumentarisierung fachspezifischer Wissensinhalte denkbar. Sie würde die Publikationsmodi standardisieren und dadurch die diskurskontrollierte Arbeitsteilung Generierung, Selektion, Bewertung und Differenzierung von Fachausdrücken ermöglichen. Damit würde im Bereich der nicht trivialen Terminologieverarbeitung eine fachspezifische Entwicklung nachgeholt werden, wie sie in anderen Wissenschaftsbereichen schon gang und gäbe ist.

Eine TERM-ML sollte demnach technisch so konzipiert sein, daß die darunter liegenden technischen Schichten eines Netzes, also etwa die multilingualen Verweisstrukturen, ohne weiteres ausgewechselt werden können, ohne daß dadurch das von der TERM-ML-geknüpfte virtuelle Netz zwischen den Textseiten angetastet wird. Die TERM-ML müßte überdies so entworfen sein, daß sie auch Links auf nichtdigitalisierte Publikationen zu setzen erlaubt.

Eine TERM-ML ließe sich zunächst HTML-orientiert entwerfen (oder gar dort einflechten). Der maßgebliche Unterschied zwischen der TERM-ML und der HTML bestünde darin, daß bei einer TERM-ML auch die Art der Verwendung eines Terms durch einen Link ausgewiesen wäre. HTML sieht außerdem keine Möglichkeit vor, auf einen einzelnen Satz einer HTML-Seite Bezug zu nehmen, sofern dieser Satz nicht vom Linkgeber von vornherein mit einer Referenz-Marke versehen wurde. In einer TERM-ML müßten aber jeder einzelne Satz und jedes einzelne Wort adressierbar sein. Die Adreßvergabe für Texte (und daraus abgeleitete Adressen für die Sätze und Wörter im Text) könnte ähnlich dem ISBN-Verfahren geregelt werden, wonach sich Autoren bzw. Organisationen ein Set von Nummern für Fachtermini reservieren.

HTML umfaßt einige Dutzend verschiedener Tags. Der Erfolg des World-Wide-Web beruht vermutlich zu einem großen Teil darauf, daß die Erstellung von mit HTML ausgezeichneten Texten leicht zu lernen ist und mittlerweile auch von Textverarbeitungen als Textformat ausgegeben werden kann. Das Set an TERM-ML-Tags sollte aus ergonomischen Gründen klein sein. Der Erfolg einer Standardisierung bemißt sich primär an deren Akzeptanz, nicht vornehmlich an der Stringenz oder einem erschöpfenden Umfang.

Eine TERM-ML ließe sich auch in Groupware-Systeme integrieren. Wichtige Elemente einer TERM-ML sind in Groupware-Programmen ohnehin schon heute eingebaut, etwa wenn einer Terminologengruppe dementsprechend abgestuft umfassendere oder beschränktere Zugriffe auf den gemeinsam zu bearbeitenden Text gestattet werden. Es bleibt allein der sozialen Regelung der miteinander weltweit arbeitenden Personen überlassen, zu verhindern, daß es zwischen den verschiedenen Terminologen, die zufällig an dem gleichen Wort oder Satz arbeiten, unkontrolliert zu Lösch- und Schreiboperationen kommt.

Schließlich sollten die TERM-ML-Tags von einem TERM-ML-Browser in Layout-Anweisungen übersetzt werden, um den Lesekomfort am Bildschirm zu erhöhen und Ausdrucke auf Papier zu ermöglichen, solange die Bildschirme noch von ergonomisch miserabler Qualität sind.

Die Standardisierung einer TERM-ML sollte dem bewährten Verfahren folgen, wie es im Internet bei Standardisierungspapieren (RFC - "Request For Comment") angewandt wird. Hiernach werden Verfahren in der Regel von verschiedenen, voneinander unabhängigen Projektgruppen realisiert, ausgetestet, modifiziert und dann im Anschluß als Modell formuliert, bei der ISOC (Internet Society) eingereicht. Deren Aufgabe beschränkt sich darauf, das Modell in die Sammlung von RFCs einzusortieren und auf seine Verfügbarkeit hinzuweisen.

Die Übersetzungswissenschaft müßte die Entwicklung einer solchen TERM-ML für ihren Bereich weltweit initiieren. Die TERM-ML sollte dabei so konzipiert sein, daß sie Fachtext- und Diskursstrukturen zu beschreiben gestattet. Weder Deduktionen bei multilingualen Verweisen, noch Induktionen oder Abduktionen dürfen durch eine TERM-ML strukturell im Vorteil sein. Es ist damit zu rechnen, daß sich mehrere Standards bilden, die selbst wiederum ausreichend Anlaß für Diskurse und Reflexionen geben. Insofern unterläge eine TERM-ML ihrerseits der Beobachtung durch den wissenschaftlichen Diskurs in der Translationswissenschaft. Anders als EDI ("Electronic Document Interchange", Deutsch, M.: 1995), ein Format zum Austausch von standardisierten Dokumenten vornehmlich im Geschäftsbereich, müßte eine TERM-ML weiterentwickelbar sein.

Persönliche "intelligent agents", die als Stellvertreter eines Terminologen im Netz fungieren, könnten zusätzlich bei der individuellen Auswahl von Fachtexten und Publikationen helfen. Eine TERM-ML wäre auch schon heute nützlich, sofern WWW-Suchmaschinen wie Altavista, Lycos, Webcrawler usw. TERM-ML-Tags auswerten könnten.

Die Autoren von Fachtexten sollten ihre Texte in eigener Regie indizieren (wie bisher auch, nur ungleich höher auflösend) und weitgehend auch selbst einschätzen und bewerten. Dies ist dann nicht problematisch, wenn die eingestreuten TERM-ML-Tags einem Diskurs unterworfen werden, wie er bei Nicht-Angemessenheit der Tags ohnehin entstünde. Die zutreffende Auszeichnung eines Textes mit einem TERM-ML-Tag ließe sich problemlos einem Katalog von Tags einer Terminologielehre hinzufügen. Qualitätsmerkmal einer Terminologiearbeit wäre dann, möglichst schnell, unkompliziert, effizient und fehlerlos ein Gesamtfachtextkorpus zu indizieren.

Um die Tags einer TERM-ML festzulegen, könnte man sich an den von Linguisten entwickelten Wortklassen (Schmidt, S.: 1976) orientieren.

So bezeichnen Präsuppositionen etwa jene Voraussetzungen, die einem Term zugrunde liegen. Sie können zwar nicht unmittelbar ausgesprochen, aber zumeist durch ein Link erschlossen werden.

Illokutionen sind Sprechakte im Hinblick auf ihre kommunikative Funktion. Sie motivieren zu einem Anschluß an eine weitere Kommunikation. Eine TERM-ML weist die Qualität eines Links hinsichtlich dessen Funktion für den Diskurs aus. Problematisch hierbei ist jedoch die Angabe der Richtung einer Bezugnahme: In klassischen wissenschaftlichen Publikationen gilt, daß Sätze aus anderen Seiten importiert werden müssen, um aus der Sicht des eigenen Beitrags eingeordnet und bewertet zu werden. In elektronisch miteinander verknüpften Texten macht es umgekehrt mehr Sinn, den eigenen Beitrag dort einzuordnen und die eigenen Termini in Bezug zum Gesamt-Textkorpus zu kennzeichnen.

Propositionen verstehen Linguisten als "Transformationen 'möglicher Welten' in Wahrheits-Werte" (Schmidt, S.: 1976, S. 89) oder 'als das, was in Akten der Feststellung, Behauptung etc. festgestellt oder behauptet wird." (Schmidt, S.: 1976, S. 90). Propositionen kommen nicht allein vor, sondern müssen in illokutionären Akten geäußert werden. Fachtermini stehen nicht nur im Verhältnis zu anderen Fachtermini, sondern bezeichnen Sachverhalte in der Welt.

Es wäre zu überlegen, diese linguistischen Klassen an die von Habermas entwickelten Kategorien einer des teleologischen, normenregulierten und dramaturgischen kommunikativen Handelns einer TERM-ML anzuschließen (Habermas, J.: 1981).

Außerdem müßten Index-Tags, Multilingua-Tags, Attribut-Tags, logische Tags und Kontext-Tags in die TERM-ML eingeführt werden. Die erste Komponente kennzeichnet den TERM durch eine Indexierung bezogen auf Fundstelle, Fachbereich und Synonyme. Eine zweite den Bezug der Aussage/ Begriffs zur multilingualen Verwendung in der Welt (im Netz) und die dritte Komponente die Aussage im Hinblick auf die Bewertung durch den Autor wie Grammatik (grammatische Angaben zum Term wie Genus, Wortart und Wortbildungsverfahren, das dem Term zugrunde liegt (Cartagena, N.: 1997). Die vierte Komponente weist auf einen Verstehenszusammenhang hin und die fünfte Komponente soll als Erklärungskomponente für einen Kontextbezug metasprachliche Informationen auf der Hypertextseite enthalten.

Durch die Einführung einer TERM-ML entstehen nicht zuletzt auch rechtliche Probleme: Die Digitalisierung fachspezifischer Texte und die Industrialisierung wissenschaftlicher Kommunikation greift insgesamt in Regelungen des Urheberrechts oder die angemessene Entlohnung von Terminologen ein (Barlow, J. P.: 1995).

Ferner stellt sich das Problem der Rechte an den Links. Gehen diese automatisch an die virtuelle Netzgesellschaft der Wissenschaftler über, sobald ein Text als Link-Anker in einem offiziellen Archiv landet? Oder bestehen Individual-Rechte, wonach ein Link nur gesetzt werden darf, wenn sich Linkgeber und Linknehmer explizit einig sind und der Linkgeber die Bezugnahme nicht verweigert. Bislang herrscht im WWW die Ansicht vor, daß das Legen eines Links nicht verweigert werden darf, es sei denn, die Aussage über die referenzierte Seite trifft nicht zu.

Sicherlich wären regelmäßige Update-Termine sinnvoll, so daß bestimmte Textversionen in den Archiven auf jeden Fall bis zum nächsten Update-Termin gültig blieben. Dies entspräche einer Art Taktung des TERM-ML-Systems: Ein Update-Interrupt stellte für einen absehbaren Zeitraum einen neuen, verläßlichen Zustand des TERM-ML-Systems her. Die Häufigkeit der Updates bliebe Angelegenheit der Scientific Society. Eine Treuhänder-Organisation, die auf den bereits bestehenden Verwertungsgesellschaften aufbauen würde, könnte die Update-Taktungen und das Versenden von Steuernachrichten übernehmen, die Verträge zwischen Linkgebern und Liknehmern verwalten und die Abgaben auf die verschiedenen Speicher-, Transport- und Darstellungsformen eintreiben, um sie als Honorare an die Autoren weiter zu reichen.

Allein an diesem sehr klein dargestellten Ausschnitt einer TERM-ML lassen sich die Folgen der Vernetzung für die Ausbildung von Fachleuten, Übersetzern und Dolmetschern (Translatologen) und spezifisch von Terminologen in der universitären Ausbildung abschätzen, sobald deren Möglichkeiten nicht nur nach traditionellen Maßstäben genutzt werden. Mit den Netzen stehen die alten Arrangements zwischen Sendern (Terminologen) und Empfängern (Terminologiesuchende) neu zur Disposition. Die Radikalität der sozialen sowie virtuellen Veränderung in der Übersetzungs- und Translationswissenschaft und speziell bei der Terminologiearbeit dürfte derjenigen vergleichbar sein, die mit dem Buchdruck und der Dampfmaschine einher ging.

So wird Schneewittchen, noch schlummernd unter Glas - bewacht von sieben Zwergen - vielleicht geküßt durch einen neuen Geist, erwachen frisch und voller Lebenskraft.

 

 

Der Autor:

Helmuth Sagawe, promovierter Soziologe, richtete den Bereich EDV und Sprachdatenverarbeitung am Institut für Übersetzen und Dolmetschen der Universität Heidelberg inhaltlich wie curricular ein und leitete ihn über 15 Jahre hinweg (Sagawe, H.:1989 1+2).

 

Literatur

Ahrens, H. 1997: Der Computereinsatz in der Ausbildung von Übersetzern und Dolmetschern unter Berücksichtigung translationsrelevanter Aspekte; in: Fleischmann, Eberhard + Kutz, Wladimir + Schmitt, Peter A. (Hrsg.): Translationsdidaktik. Grundfragen der Übersetzungswissenschaft; Tübingen, Gunter Narr, S. 344-351.

Arntz, R./Picht, H. 1989: Einführung in die Terminologiearbeit, Hildesheim, georg Olms

Arntz, R. 1986: Terminologievergleich und internationale Terminologieangleichung. In: Snell-Hornby, M. (Hrsg.):Übersetzungswissenschaft - eine Neuorientierung: Zur Integrierung von Theorie und Praxis, Tübingen, Franke, S. 283-310

Austermühl, F. und Kornelius, J: 1994: Über die Verfügbarkeit elektronischer Hilfsmittel in Übersetzungsdiensten, Ergebnisse einer Befragung, Heidelberg 1994 (unveröffentlichte Materialien aus einer studentischen Befragung

Barlow, J. P. 1995: Wein ohne Flaschen - Globale Computernetze, Ideen-Ökonomie und Urheberrecht; in: Bollmann, St., Kursbuch Neue Medien, S 79-106

Birkenmaier, W./Mohl, I. 1991: Russisch als Fachsprache, Tübingen, Gunter Narr

Böhle, K. 1996: Elektronisches Publizieren; in: Buder, M./ Rehfeld, W./ Seeger, T./ Strauch, D. (Hrsg.), 1996: Grundlagen der praktischen Information und Dokumentation, Band 1, München, Saur, S 397-424 

Bollmann, S. (Hrsg.) 1995: Kursbuch Neue Medien - Trends in Wirtschaft und Politik, Wissenschaft und Kultur, 2. durchgesehene Auflage 1996: S. 422

Breyer, K. 1998: ”Wer sucht der flucht”, in COM, T-Online &Internet, Mai 1998, Seite 60ff

Cartagena, N./ Harslem, F./ Irgang, B. 1997: Terminologiedatenbank: Muster einer Multiterm-Maske der spanischen Abteilung am Institut für Übersetzen und Dolmetschen der Universität Heidelberg: Arbeitspapier vom 26. Juli 1997

Castoriadis, Cornelius, 1984: Die imaginäre Institution der Gesellschaft, Frankfurt/M

Coners, M., Terminology management - A Student´s Guide, Trier 1996 (auf zwei Disketten für 20,- DM im Wissenschaftlicher Verlag Trier zu beziehen)

Deutsch, M. 1995: Unternehmenserfolg mit EDI; Strategie und Einführung des elektronischen Datenaustausches, Wiesbaden

Dreyfus, H. L./ Dreyfus, S. E. 1986: Künstliche Intelligenz - Von den Grenzen der Denkmaschine und dem Wert der Intuition, 1.  Aufl., 1987, Reinbek bei Hamburg

Elias, N. 1970: Was ist Soziologie?, 4. Aufl., 1981 München, Juventa

Felber, H./Lang, F./Wersig, G. (Hrsg.) 1979: Terminologie als angewandte Sprachwissenschaft, Gedenkschrift für Univ.-Prof. Dr. Eugen Wüster, München

Habermas, J. 1981: Theorie des kommunikativen Handelns, Bd. 1 und 2, 3. Aufl., 1985, Frankfurt/ M., Suhrkamp

Heibach, C./ Bollmann, S. (Hrsg.) 1996: Kursbuch Internet - Anschlüsse an Wirtschaft und Politik, Wissenschaft und Kultur

Lewandowski, Th. 1990: Linguistisches Wörterbuch (Bd. 1-3), Heidelberg/ Wiesbaden, UTB

Parsons, Talcott, 1937: The Structure of Social Action, New York

Römer, M./ Quendt, B./ Stenz, P. 1996: Autopiloten fürs Netz, Intelligente Agenten - Rettung aus der Datenflut. In: C´T 1996/ 03: 156-162 

Rost, M. Vorschläge zur Entwicklung einer wissenschaftlichen Diskurs-Markup-Language, in: Heibach, Christiane/ Bollmann, Stefan (Hrsg.), 1996: Kursbuch Internet - Anschlüsse an Wirtschaft und Politik, Wissenschaft und Kultur

Sagawe, H. 19891: EDV-Aus- und Weiterbildung für Übersetzer und Dolmetscher am Institut für Über­setzen und Dolmetschen der Universität Heidelberg, in: Modellversuch: Studienkomponente Sprachdatenverarbeitung in der Übersetzer- und Dolmetscherausbildung - Proceedings, herausgegeben von Karl-Heinz Freigang und Klaus-Dirk Schmitz, Universität des Saarlandes, Fachrichtung 8.6; Saarbrücken

Sagawe, H. 19892: EDV-Aus- und Weiterbildung für Übersetzer und Dolmetscher am Institut für Übersetzen und Dolmetschen der Universität Heidelberg, in: Mitteilungsblatt für Übersetzer und Dolmetscher, Jg. 35, Heft 3 Bonn

Schmitt, P. A. 1987.: Computer statt Kartei? Terminologiearbeit mit Mikrocomputer; in: Lebende Sprachen Jg. 32, Heft 2, 56-65.

Schmidt, S. J. 1973: Texttheorie - Probleme einer Linguistik der sprachlichen Kommunikation, 2. Aufl., München, Fink

Tanenbaum, A. S., 1990: Computer Netzwerke: Wolfram's Fachverlag

Vermeer, H. J. 1986: Übersetzen als kultureller Transfer; in: Snell-Hornby, Mary (Hrsg.): Übersetzungswissenschaft - eine Neuorientierung. Zur Integrierung von Theorie und Praxis; Tübingen - Basel, S. 30-53, Franke

Wüster, E. 1985: Einführung in die allgemeine Terminologielehre und die terminologische Lexikographie, Kopenhagen, Springer



[1] SAS Statistik Analyse System