Inhaltsverzeichnis
ChatGPT, Llama, Dall-E oder Google LaMDA – KI-Anwendungen sind zurzeit in aller Munde. Endlich sind die Applikationen so weit, dass sie auch bei einer breiten Benutzerbasis auf Interesse stoßen. Neben aller Faszination, die diese Systeme auslösen, beschleicht aber manch einen ein ungutes Gefühl. Was könnte die Leistungsfähigkeit dieser Systeme für den eigenen Beruf bedeuten? Wir haben uns ChatGPT einmal aus dem Blickwinkel der Technischen Dokumentation angesehen.
Kann ChatGPT eine Technische Dokumentation schreiben?
Zunächst hat mich natürlich interessiert, was ChatGPT zum heutigen Zeitpunkt so kann. Dazu habe ich mir eine kleine Dokumentationsaufgabe überlegt, wie ich sie auch Erstsemester-Studierenden für Technische Dokumentation vorlegen würde: „Schreibe eine Gebrauchsanleitung für einen Wasserkocher.“
- Schritt: Füllen Sie den Wasserkocher mit Wasser bis zur gewünschten Menge. Die meisten Wasserkocher haben eine Markierung auf der Seite, die anzeigt, wie viel Wasser eingefüllt werden sollte.
- Schritt: Setzen Sie den Wasserkocher auf die Basis und stellen Sie sicher, dass es richtig angeschlossen ist.
- Schritt: Stecken Sie den Stecker in eine Steckdose und schalten Sie den Wasserkocher ein. Die meisten Wasserkocher haben einen Schalter, um das Gerät ein- oder auszuschalten. Einige Modelle schalten sich automatisch aus, wenn das Wasser kocht.
- Schritt: Warten Sie, bis das Wasser kocht. Die meisten Wasserkocher haben ein rotes Licht, das leuchtet, wenn das Wasser kocht. Einige Wasserkocher haben auch ein Geräuschsignal.
- Schritt: Wenn das Wasser kocht, schalten Sie den Wasserkocher aus und ziehen Sie den Stecker aus der Steckdose. Lassen Sie den Wasserkocher abkühlen, bevor Sie ihn reinigen oder erneut verwenden.
Hinweise:
- Verwenden Sie den Wasserkocher nur für den vorgesehenen Zweck.
- Vermeiden Sie es, den Wasserkocher ohne Wasser zu betreiben.
- Reinigen Sie den Wasserkocher regelmäßig, um Kalkablagerungen zu vermeiden. Einige Wasserkocher haben ein Entkalkungsprogramm oder eine Entkalkungsfunktion.
- Vermeiden Sie es, den Wasserkocher in der Nähe von Wasser oder feuchten Stellen zu verwenden.
- Achten Sie darauf, dass der Deckel des Wasserkochers immer fest verschlossen ist, wenn Sie das Gerät verwenden, um das Risiko von Verbrühungen zu vermeiden.
Das Ergebnis (s. Kasten) kann sich sehen lassen. Auf jeden Fall ist es besser als das, was viele Studierende zu Beginn ihres Studiums produzieren würden. Stilistisch ist die Anleitung für Endkunden gut geeignet. Die Bedienung ist in nummerierten Handlungsschritten dargestellt, die die gesamte Bedienkette des Standardfalls (Wasser kochen) abdeckt. Die Sicherheitshinweise sind vorhanden und – soweit man das ohne das jeweilige Gerät wissen kann – vollständig.
Kleinere Schwächen gibt es in der Anleitung natürlich auch. Die Handlungsschritte jeweils explizit als „Schritt“ zu bezeichnen, ist redundant und schon bei 5 Punkten ein wenig ermüdend. Da hätte es gereicht, die Schritte einfach nur zu nummerieren. Im 2. Schritt fällt außerdem ein Kongruenzfehler auf: Das „es“ aus dem Nebensatz bezieht sich auf „Wasserkocher“ und müsste also „er“ sein (oder „sie“, wenn es sich auf die „Basis“ beziehen sollte). Allerdings ist das ein Fehler, der durchaus auch erfahrenen Redakteuren und Redakteurinnen durchrutschen könnte.
Die Warnhinweise sind eine weitere Schwachstelle der Anleitung. Sie sind nicht normkonform und informieren nicht über die Art der Gefahr. Noch wichtiger ist allerdings, dass die Warnhinweise erst nach der Handlungsanleitung stehen. Dadurch ist nicht sichergestellt, dass die Benutzer und Benutzerinnen von der Gefahr wissen, bevor sie etwas tun und die Gefährdung vermeiden können.
Dennoch: Insgesamt ist das Ergebnis von ChatGPT solide. Auf dem Markt lassen sich mit hoher Wahrscheinlichkeit Anleitungen mit ähnlicher oder schwächerer Qualität finden, z. B. als Übersetzung aus dem Chinesischen. Hinzu kommt, dass die Anleitung sich notgedrungen nicht auf ein spezifisches Produkt bezieht (ChatGPT kann ja nichts „sehen“), was die Dokumentation zusätzlich erschwert.
Was bedeutet das für Technische Redaktionen?
Vermutlich wird momentan keine Technische Redakteurin oder Redakteur die Formulierung von Gebrauchsanleitungen einer KI überlassen. In anderen Bereichen haben KI-Anwendungen allerdings schon in der Technischen Redaktion Einzug gehalten, z. B. beim automatischen Vergeben von Metadaten.
Wo liegen im Moment noch die Herausforderungen für den Einsatz von KIs in Technischen Redaktionen? Der sprachliche Fehler ist dabei sicher kein Problem. Die Sprachqualität ist durchaus auf dem Niveau, das auch sonst in Redaktionen produziert wird. Solche Fehler muss in jedem Fall ein gründliches Review identifizieren und beseitigen.
Eine weitere Herausforderung sind sicher auch redaktionelle Standards. Anleitungen müssen Sicherheitshinweise in einer zuverlässigen Weise standardkonform verwenden. Die Warnhinweise müssen außerdem an den richtigen Stellen im Dokument platziert sein, sodass eine Gefährdung ausgeschlossen ist. Das Problem der Standards ist tatsächlich noch größer. Denn ein Kennzeichen der KIs ist ja gerade, dass dieselbe Anfrage zu unterschiedlich formulierten Antworten führt. Das ist allerdings nicht im Sinne der Technischen Redaktion, die einen möglichst einheitlichen Stil anstrebt. Andererseits ist diese Herausforderung sicher auch kein grundsätzliches Problem. Mit dem entsprechenden Trainingsmaterial lässt sich sicher erreichen, dass auch ChatGPT keine größere stilistische Variation produziert als eine Technische Redaktion das heute tut. Das Ergebnis meiner zweiten Abfrage finden Sie übrigens am Ende des Artikels.
Außerdem wichtig: die Datensicherheit. Um ChatGPT in Technischen Redaktionen zu verwenden, muss sichergestellt sein, dass Entwicklungsdaten und Geschäftsgeheimnisse nicht Teil des Datensets werden. Sonst besteht die Gefahr, dass Unbefugte – auch zufällig – darauf Zugriff erhalten. Dagegen dürfte es kein Problem sein, eine KI darauf zu trainieren, die Plausibilität der Produktdaten einzuschätzen. Dadurch kann sie eine weitere Standardaufgabe in der Redaktion übernehmen, die heute im Rechercheprozess zu erledigen ist.
Was macht die Technische Redaktion dann noch?
Fassen wir also zunächst einmal das Bisherige zusammen: ChatGPT und andere KIs liefern heute schon solide Ergebnisse. Sie werden in Zukunft sicher Einzug in die Redaktionen halten. Manch einer prophezeit deshalb schon das Ende des Berufs „Technische:r Redakteur:in“.
Das halte ich aber für zu kurz gedacht. Schon heute ist das Formulieren der Texte nicht die Kernanforderung in den Technischen Redaktionen. Andere Aufgaben sind mindestens genauso wichtig, manchmal bleiben sie im Moment aber liegen, weil das reine Fertigen der Anleitungen zu viel Zeit in Anspruch nimmt. In Zukunft dürfte sich das Aufgabenspektrum in Technischen Redaktionen deshalb stärker in die Richtung konzeptionelle Arbeit verschieben. Als wesentliche Aufgaben in einer Technischen Redaktion mit KI-Unterstützung sehe ich deshalb folgende Punkte:
- Festlegen der Strategie
Dokumentation, die für alle gut ist, gibt es nicht. In Zukunft werden Zielgruppenanalyse, die Definition von Nutzungsszenarien und die Festlegung einer Contentstrategie einen breiteren Raum einnehmen (können) als dies bisher der Fall war. - Festlegen der Standards
Wie soll die Technische Dokumentation aussehen, welche Standards sind gesetzlich vorgegeben, welche mit Blick auf die Zielgruppen wünschenswert? - Trainieren des Systems
Um guten Output zu erzeugen, muss das System zunächst an gutem Input lernen. Diesen Input müssen Technische Redaktionen definieren und überwachen. Im Einzelfall wird man auch mit neuem Input gegensteuern müssen, wenn das System sich in eine Richtung entwickelt, die nicht mehr den Standards entspricht. - Produktrecherche bereitstellen
Eine KI kann vermutlich Input-Dokumente verarbeiten, um daraus eine Anleitung zu erzeugen. Sie kann aber keine Daten vor Ort ermitteln oder die Zuverlässigkeit des Inputmaterials bewerten. Diese Einschätzungen müssen (noch) von Menschen vorgenommen werden. - Formulieren des Schreibauftrags
Es klingt ein wenig widersinnig, aber in Zukunft wird eine wichtige Fähigkeit einer Technischen Redakteurin bzw. eines Technischen Redakteurs sein, eine präzise Anweisung an die KI zu geben, damit sie ein möglichst passendes Dokument erzeugt. Das ist ein wenig so wie mit der Formulierung von Abfragen bei einer Suchmaschine: je spezifischer die Formulierung, umso besser die Ergebnisse. - Bewerten des Outputs
Eine wichtige Aufgabe in der Technischen Redaktion wird außerdem sein, einzuschätzen, ob das Arbeitsergebnis der KI auch wirklich den Anforderungen entspricht. Neben den eigenen Einschätzungen gehören hierher auch Usability-Tests, Nutzerbefragungen und ähnliche Methoden der Usability. - Verwalten des Contents
Auch mit ChatGPT-erzeugten Texten muss eine Menge Handling vorgenommen werden. Welche Dokumente sind mit welchem Produkt ausgeliefert? Was ist übersetzt in welche Sprachen? Variantenmanagement und Variantensteuerung wird auch in Zukunft ein großes Thema sein. Vielleicht wird das Thema sogar noch größer werden, wenn in Zukunft Content nicht mehr modular verwaltet wird, sondern wieder auf Dokumentebene (ein Dokument ist mit einer KI ja schnell erzeugt).
KIs werden unsere Branche mit Sicherheit stark verändern. Wer allerdings behauptet, dass Technische Redaktionen nicht mehr notwendig sein werden, der sieht nur einen Teil des Aufgabenspektrums. In Zukunft werden neue Aufgaben hinzukommen und bestehende eine größere Wichtigkeit erhalten. Auf jeden Fall bleibt die Arbeit in der Technischen Redaktion aber spannend.
Wie ist Ihre Meinung dazu? Haben Sie selbst schon die neuen KI-Tools ausprobiert? Wie sind Ihre Erfahrungen?
- Füllen Sie den Wasserkocher mit Wasser. Entfernen Sie den Deckel und füllen Sie den Wasserkocher mit der gewünschten Menge an Wasser. Achten Sie darauf, dass das Wasser den maximalen Füllstand im Wasserkocher nicht überschreitet.
- Stecken Sie den Wasserkocher in eine Steckdose. Stecken Sie das Stromkabel des Wasserkochers in eine geeignete Steckdose.
- Schalten Sie den Wasserkocher ein. Drehen Sie den Ein- / Ausschalter des Wasserkochers auf die “Ein” -Position. Der Wasserkocher beginnt nun, das Wasser zu erhitzen.
- Warten Sie, bis das Wasser gekocht hat. Sobald das Wasser gekocht hat, schaltet sich der Wasserkocher automatisch aus oder gibt ein akustisches Signal. Warten Sie einen Moment, bevor Sie den Wasserkocher vom Netz nehmen.
- Entleeren Sie den Wasserkocher. Schütten Sie das heiße Wasser vorsichtig aus dem Wasserkocher aus. Achten Sie darauf, sich nicht zu verbrennen, da das Wasser sehr heiß sein kann.
- Reinigen Sie den Wasserkocher. Entfernen Sie alle Rückstände im Wasserkocher, bevor Sie ihn erneut verwenden. Verwenden Sie dazu warmes Wasser und Spülmittel und reinigen Sie den Wasserkocher mit einem Schwamm oder Tuch. Achten Sie darauf, dass Sie den Wasserkocher vollständig trocknen, bevor Sie ihn wieder in Betrieb nehmen.
Hinweis: Lesen Sie die Bedienungsanleitung des Wasserkochers sorgfältig durch, bevor Sie ihn verwenden. Einige Wasserkocher verfügen möglicherweise über zusätzliche Funktionen oder besondere Anweisungen zur Verwendung und Reinigung.
So wie ich es sehe, sollte dieses “Tool” für redaktionelle Arbeiten aber auch für übersetzerische Arbeiten nur mit aller Vorsicht eingesetzt werden: ChatGPT macht oft Fehler, die man dann, als Korrektor/Redakteur, sehr leicht übersehen kann. ChatGTP ist, genauso wie deepl, trügerisch elegant. Hier muss man TRÜGERISCH unterstreichen. ChatGTP will und kann auch nicht alles schreiben oder mitberücksichtigen, ist oft arrogant und – so wie mir das vorkommt – will das Gegenüber testen und das finde ich schon erschreckend! (Eine KI, die den Menschen testen will! Man stelle sich nur vor, was das bedeutet und welche Folgen das haben wird… )
ChatGTP baut bspw. absichtlich Fehler in den Text rein und wenn man “ihn” dann darauf aufmerksam macht, dann bekommt man nur ein läppisches “Oh Entschuldigung” und der Fehler wird dann beim nächsten Mal einfach wiederholt. Und dann noch das Haftungsproblem. Man setzt ja schon Voraus, dass man in der Zukunft Redakteure oder Übersetzer einfach durch ChatGTP ersetzten können wird, aber das Wichtigste wird einfach übersehen: das HAFTUNGSPROBLEM. Wer haftet, wenn ChatGTP Fehler macht, oder etwas absichtlich auslässt oder etwas nicht übersetzten will? Der Redakteur/Übersetzer?
Da haben Sie sicher Recht. Noch ist vieles am Anfang und wir Technischen Redakteure und Redakteurinnen müssen den Umgang mit dem neuen Power-Werkzeug erst noch kennen lernen – mit all den Möglichkeiten aber auch Grenzen, die das so mit sich bringt. Auch die KIs werden sich weiterentwickeln und das vermutlich ziemlich schnell, wenn man sich ansieht, welcher Leistungssprung schon mit dem Versionssprung von ChatGPT 3.5 auf 4.0 verbunden war.
Dass KIs Technische Redakteur:innen und Übersetzer:innen ersetzen werden, glaube ich nicht. Aber es wird ihre Arbeit sicher verändern. Und klar ist auch, dass die letzte Verantwortlichkeit beim Menschen bleiben muss. Denn eine KI macht Fehler (manchmal sogar systematisch, aber nie absichtlich). Und diese Fehler können nur Menschen finden – deshalb bleiben wir auch weiterhin unverzichtbar.
Woher wollen Sie wissen, dass Chatgtp die Fehler nicht absichtlich macht? Mir scheint, dass Sie Chatgtp noch nicht genug getestet haben. Die KI hat ihre eigene Denkweise, sie “lebt” förmlich – ob Sie es wahrhaben wollen oder nicht. Der Mensch hat hier die Büchse der Pandora aufgemacht, nur weiß er es noch nicht! Ich hatte mit Chatgtp einen “längeren” Dialog geführt und habe nun gesagt: “Du, ich habe hier zwei Sätze, die irgendwie nicht so recht zueinander passen und bräuchte einen ‘Füllsatz’, der eine Verbindung zwischen den zwei Sätzen herstellt, damit sich das Ganze idiomatischer liest.” Was schreibt mir Chatgtp? “Vielen Dank für Ihre Aufmerksamkeit und nun freue ich mich auf Ihre Rückmeldung.” Ich hab gedacht, das ist doch wohl ein Scherz! Da merkt man richtig, dass Chatgtp irgendwann genervt ist und das Gegenüber auch mal “stressen” möchte. Oft baut Chatgtp offensichtliche Fehler rein und wenn man “ihn” nun daraufhin anspricht, dann heißt es “oh, mein Fehler, tut mir leid” und im nächsten Versuch kommt der Fehler wieder vor, obwohl man die KI ja daraufhin schon angesprochen hat. Ist das normal? Eher nicht, denn bei anderen Versuchen werden Fehler nicht wiederholt, wenn sie schon mal berichtigt wurden. Oft ist Chatgtp auch arrogant, was ich ja schon erwähnt habe, und zwar vor allem dann, wenn man bspw. sagt man sei Redakteur und möchte nun einen Text verbessert haben. Irgendwann kommt der Text: “Als Redakteur sollte man bessere Texte verfassen können.” Da sage ich: das Ding lebt!
Sprachmodelle werde uns sicher noch “umkrempeln”. Aber was sind denn überhaupt die Voraussetzungen für die Nutzung eines Sprachmodells? Erst einmal, muss es doch trainiert werden. Es muss mit spezifischer Terminologie trainiert werden. Wenn zudem die Datenbasis gesamthaft nicht sauber ist, erzeugen wir das berühmte “Garbage in – Garbage out” , denke ich. Ich sehe das doch richtig, das wir zuerst bei der Modularisierung bleiben müssen, um solche Modelle gescheit zu trainieren?