ChatGPT

Ich habe jetzt auch mal mit ChatGPT herumgespielt, man kommt an dem Thema ja nicht vorbei.

Zuerst saß ich davor und dachte: Ja, und nun? Was fragt man denn da jetzt?

Nach den üblichen Aufforderungen (den sog. “prompts”), die so durchs Netz gingen, wie: “Schreibe einen Aufsatz über Thema X” und: “Beantworte diese Mail in Gedichtform”, habe ich jetzt aber durchaus sinnvolle Einsatzmöglichkeiten gefunden.

“Erklär mir das”

Wenn man in irgendeinem Text viele Fachausdrücke vorfindet, kann ChatGPT eine echte Hilfe sein.

In der Wikipedia bin ich (fragt mich nicht, in welchem Rabbithole ich da war) auf folgenden Satz gestoßen: “In der Biologie, genauer der Phylogenetik und Kladistik, spricht man von einer Polytomie, wenn Taxa hinsichtlich ihrer Abstammungslinie nicht konkret in einen dichotomen Stammbaum eingegliedert werden und stattdessen mehrere Linien an einem Punkt zusammengefasst werden.”

Lässt man sich das von ChatGPT erklären, (z.B. mit der Aufforderung “Erkläre in einfachen Worten diesen Satz”) liefert es zurück:

“Wenn man die Abstammung von Lebewesen in einem Stammbaum darstellen möchte, dann gibt es manchmal Situationen, in denen es nicht klar ist, welche Zweige zusammengehören. In diesem Fall spricht man von einer Polytomie. Das bedeutet, dass man an einem Punkt im Stammbaum mehrere Zweige zusammenfasst, weil man nicht genau weiß, welche Zweige zusammengehören und welche nicht.”

ChatGPT

Und das kapiere dann sogar ich. Ob es stimmt? Keine Ahnung. Aber so hat man zumindest erstmal einen Anhaltspunkt.

“Schreib mir eine Abfrage”

Wer jemals zum Beispiel mit LDAP-Filtern zu tun hatte, wird irgendwann die polnische Notation, bei der die Operatoren vorne stehen und lauter öffnende und schließende Klammern jegliche Übersicht zerstören, zu hassen gelernt haben.

Mit ChatGPT kann man solche Abfragen sehr einfach erzeugen lassen.

“Schreibe einen LDAP-Filter, der nur aktivierte Benutzer zurückgibt, die entweder in Gruppe A oder in Gruppe B sind.”

(&(objectClass=user)(objectCategory=person)(!(userAccountControl:1.2.840.113556.1.4.803:=2))(|(memberOf=CN=Gruppe A,OU=Gruppen,DC=beispiel,DC=com)(memberOf=CN=Gruppe B,OU=Gruppen,DC=beispiel,DC=com)))

ChatGPT liefert zudem eine Erläuterung jedes Klammerinhalts und weist darauf hin, dass die Gruppennamen noch auf den eigenen Anwendungsfall angepasst werden müssen.

Das Ergebnis ist auf jeden Fall syntaktisch korrekt und funktioniert.

Der umgekehrte Weg geht übrigens auch. Füttert man ChatGPT mit dem o.a. Code und fragt, was das ist, liefert es zurück:

Dies ist ein LDAP-Filterausdruck, der verwendet wird, um nach Benutzerobjekten in einem Active Directory-Verzeichnis zu suchen, die bestimmte Kriterien erfüllen.

Der Filterausdruck sucht nach Objekten mit den folgenden Eigenschaften:

  • ObjectClass = user
  • ObjectCategory = person
  • userAccountControl nicht gleich 2 (was bedeutet, dass das Benutzerkonto aktiv ist)
  • Mitglied der Gruppe A in der OU Gruppen des beispiel.com-Domänencontrollers ODER Mitglied der Gruppe B in der OU Gruppen des beispiel.com-Domänencontrollers

Dieser Filterausdruck könnte zum Beispiel verwendet werden, um eine Liste aktiver Benutzer in einer bestimmten Gruppe in einem Active Directory-Verzeichnis abzurufen.

ChatGPT

“Interpretiere diese Tabelle”

Als Beispiel habe ich wahllos eine Tabelle vom Statistischen Bundesamt heruntergeladen, es geht um unterschiedliche Straßenlängen verschiedender Straßenarten in den einzelnen Bundesländern.

Kopiert man den Inhalt direkt aus Excel nach ChatGPT mit der Aufforderung “Interpretiere diese Tabelle”, so antwortet es zunächst mit einer Beschreibung, was in dieser Tabelle zu sehen ist, nämlich:

“Die Tabelle gibt einen Überblick über die Verteilung und Länge der verschiedenen Arten von Straßen in den Bundesländern.”

ChatGPT

Dann habe ich gefragt: “Gibt es da Auffälligkeiten?”

Und ChatGPT hat tatsächlich ein paar Dinge zurückgeliefert:

Ja, es gibt einige Auffälligkeiten in der Tabelle:

  1. Bayern hat mit Abstand die längste Gesamtstraßenlänge, sowohl innerorts als auch außerorts. Dies könnte aufgrund seiner geografischen Größe und Bevölkerungsdichte sein.
  2. Berlin hat verglichen mit anderen Bundesländern eine vergleichsweise geringe Straßenlänge insgesamt, was auf seine relativ kleine Größe und hohe Bevölkerungsdichte zurückzuführen sein könnte.
  3. Nordrhein-Westfalen hat die längste Gesamtstraßenlänge an Bundesstraßen und Landesstraßen, was möglicherweise auf seine hohe Bevölkerungsdichte und seine Rolle als Industriestaat zurückzuführen ist.
  4. Die ostdeutschen Bundesländer haben insgesamt eine niedrigere Straßenlänge als die westdeutschen Bundesländer, was auf die unterschiedliche Bevölkerungsdichte und die Auswirkungen der Teilung Deutschlands zurückzuführen sein könnte.

Diese Auffälligkeiten können jedoch durch verschiedene Faktoren beeinflusst werden, wie z.B. geografische Größe, Bevölkerungsdichte, Wirtschaftsstruktur und politische Entscheidungen.

ChatGPT

Zugegeben, ein paar Allgemeinplätze sind auch dabei. Aber ich finde das ganz brauchbar für einen ersten Eindruck, der sich durch weitere Fragen wie “Wo gibt es besonders viele Autobahnkilometer?” und “Wie lässt sich das erklären?” vertiefen lässt.

Fazit

Ich war zugegebenermaßen in erster Linie vom Hype genervt, den ChatGPT hervorgerufen hat, dazu kam der Umstand, dass Elon Musk seine Finger darin hat.

Aber dass es – für bestimmte Anwendungsfälle – ein nützliches Werkzeug sein kann, würde ich mittlerweile nicht mehr bestreiten. Ein interessantes Spielzeug ist es allemal.

Daher fände ich es falsch, dieses Tool komplett zu ignorieren (oder sogar zu verdammen), ebenso, wie es völlig unkritisch als die ultimative Revolution von allem hochzujubeln.

Klar, ChatGPT erzeugt immer wieder auch Fehler, und es wird auch Schüler*innen geben, die damit versuchen, ihre Hausaufgaben abzukürzen.

Aber während manche hierzulande in Panik ausbrechen, dass jetzt das gesamte Schulsystem den Bach runtergehen würde (das tut es möglicherweise auch ohne ChatGPT, aus anderen Gründen), gibt es auch Lehrkräfte, die das ganze kreativ und sinnvoll nutzen:

Ein*e Geschichtsprofessor*in (aus dem Englischen lässt sich das Gender nicht zweifelsfrei herleiten) ließ ChatGPT Essays über verschiedene Themen schreiben, und die Student*innen mussten mittels Quellenrecherche nachweisen, wo ChatGPT fehlerhaft war. Die wiederum lernten dabei nicht nur die Fakten zum Thema, sondern auch, wie man solche Texte auf Korrektheit überprüft. (via Mastodon)

Wer sich darüberhinaus mit den ethischen Problemen, die so eine KI aufwirft, mal beschäftigen möchte, der findet bei John Oliver eine gute (und wie immer unterhaltsame) Zusammenfassung:

Ein Gedanke zu “ChatGPT

  1. Ich denke, ich hätte ChatGPT auch während der MA gebrauchen können, da mir gerade zu Beginn das weiße Blatt (bzw. der weiße Bildschirm) jegliche Formulierungen aus dem Gehirn gezogen haben.

    Für eine Einleitung usw. hätte man so etwas gut gebrauchen können — die Inhalte selber stammen ja von mir, weswegen ich kein schlechtes Gewissen gehabt hätte.

Die Kommentarfunktion ist geschlossen.