KI an der Uni II

Was das für Studierende bedeutet und ob man Hausarbeiten mit ChatGPT schreiben sollte. Drei Redakteure geben ihren Senf dazu.

Schummelt, was das Zeug hält!

Im Studium macht man ja allen möglichen Scheiß – zum Beispiel Hausarbeiten schreiben oder, besser gesagt, langweilige Zusammenfassung des aktuellen Forschungsstandes. Wissenschaftliche Sprache ist angesagt: Nichtssagende Floskeln, undurchschaubare Passivkonstruktionen. Jede einzelne selbstverständliche Aussage muss von Hand mit einem Zitat belegt werden. Am Ende bringt ein Vergleich der vorgestellten Positionen Trost. Das Ergebnis schimpft sich dann Erlernen des wissenschaftlichen Arbeitens. Hausarbeiten können zu einer Notenbeschaffungsmaßnahme mutieren, wenn sie zur bloßen Zusammenfassung einer beliebigen Vorlage und Abarbeitung steifer Formalitäten verkommen. Und wer kann das nochmal besonders gut? – ChatGPT! Alles, was sich auf bloßes maschinelles Anwenden reduzieren lässt, kann doch bitte auch von einer Maschine erledigt werden. Wenn die Uni keine zeitgemäßen Prüfungsformate zu bieten hat, dann ist sie selbst schuld. 

Aber würde niemand mehr lesen und lernen wollen? Nein! Das KI-Werkzeug erstellt im besten Fall nur das Fundament, auf dem Forschende dann aufbauen können. Denn ChatGPT kann keine Urteile fällen, sondern versteckt sich hinter abwägenden Formulierungen. Genau wie bei von Menschen geschriebenen Texten wird es erst problematisch, wenn Vorannahmen als vermeintlich neutral hingestellt und unhinterfragt bleiben. Und wer könnte das besonders gut ändern? – Menschen! ChatGPT zeigt einmal mehr, dass unser Bildungssystem auf schon lange veraltete Lehr- und Lernmethoden setzt. Wenn wir den Fokus auf Kompetenzen legen, die Selbstwirksamkeit fördern, dann ergibt sich manches von selbst. Fähigkeiten zur Textbearbeitung müssten in Zusammenhang mit KI sogar viel mehr trainiert werden als heute. Aber Ehrlichkeit wäre nett: Anwendung von Fähigkeiten ist nicht das Ziel von Wissenschaft, sondern der Weg zum Ziel. Wenn sich der Weg mit KI als Stütze einfacher bestreiten lässt, dann immer her damit. 

Menschen werden schon nicht aufhören, Dinge zu machen, die wirklich Originalität verlangen. Immerhin haben wir nach Goethe auch nicht aufgehört, zu schreiben. Schummelt, was das Zeug hält, aber lasst euch nicht erwischen!

Ein Kommentar von Götz Wagner

Cyborgs gegen Chatgpt

Wir alle sind Cyborgs, das heißt, wir sind Hybriden aus Technologischem und Menschlichem. Mit Computer und Smartphone verbringe ich manchmal ähnlich viel oder sogar mehr Zeit als mit Menschen und Maschinen erbringen für mich Dienstleistungen wie Menschen. Technologien beeinflussen mindestens im selben Maß unsere Lebenswelt wie Menschen, dementsprechend befinden wir uns nicht nur mit anderen Menschen in einem Geflecht der Verantwortung, sondern auch mit Technologien.

Die Frage, ob und wie wir mit Technologien umgehen wollen und wer diese Fragen stellen kann und beantworten darf, geht uns alle an. Es sind keine wirtschaftlichen Fragen, sondern ethische und politische Angelegenheiten.Mit ChatGPT drängen sich nochmals verstärkt Fragen der globalen Verantwortung auf. Der universitäre Alltag ist davon nicht ausgeschlossen. In einer kapitalistischen und naturzerstörerischen Gesellschaft muss deshalb gefragt werden: Ist es vertretbar, Menschen und Natur weltweit verstärkt auszubeuten und zu schädigen, nur damit Justus in Jena seine Hausarbeit in Wirtschaftswissenschaften von ChatGPT schreiben lassen kann, um dadurch mehr Zeit für Netflix oder Gym zu haben?

Ich verneine.

Zudem bin ich skeptisch, ob ich Texte von ChatGPT in meiner Hausarbeit überhaupt lesen mag. Statistische Verfahren sind eben nicht mit kritisch-analytischem Denken gleichzusetzen und generieren deshalb auch keine radikalen Antworten, sondern nichtssagende Floskeln.

Auch zu beachten ist, dass teilweise erst durch die Quellenarbeit die eigene Position gebildet wird. Wer sich Quellenarbeit durch ChatGPT sparen will, verkennt, dass die Arbeit im und mit dem Text notwendig ist. Die geistige und körperliche Arbeit ist also wesentlich und schafft eben manchmal Leiden. Wer zudem meint, es gehe bei einer Hausarbeit nur um die Note und ChatGPT sei für eine gute Note hilfreich, kann sich gleich dem System ganz unterwerfen und sich beim Arbeitsamt für eine Umschulung melden oder versuchen, TikTok-Star zu werden.Bildung ist kein Zertifikat und lässt sich nicht durch ChatGPT erlangen, sondern ist eine Verwandlung, durch die ich idealerweise befähigt werde, meine Verantwortung als Cyborg ernst zu nehmen.

Ein Kommentar von Lars Materne

Und Sie wissen nicht, was sie tun

Größer, schneller, breiter, tiefer – „einfach mehr von allem“ ist der Grundgedanke der aktuellen Entwicklung von künstlichen Intelligenzen. Die Frage, ob das alles überhaupt sinnvoll ist, wird in der breiten Öffentlichkeit dabei wenig diskutiert und beschäftigt nur einige wenige Experten.

Eine KI, oder genauer ein neuronales Netzwerk, ist im Grunde genommen nur eine Aneinanderreihung von einfachen Rechenoperationen, die am Ende eine sinnvolle Ausgabe produzieren sollen. Dazu müssen extrem viele, im Falle von ChatGPT einige Millionen, Parameter festgelegt werden. Das passiert im sogenannten Training, in dem man der KI so lange Eingaben vorsetzt, zu denen man die gewünschten Ausgaben kennt, und dann sukzessive die Parameter anpasst, bis die KI das Gewünschte reproduziert.

Und genau darin liegt das Problem: Am Ende steht man vor einem Ding und dieses Ding „kann“ dann Bilder malen, reden, virale Videos vorschlagen oder forschen. Aber wir wissen nicht, warum. Es gibt große Anstrengungen nachzuvollziehen, wie ein neuronales Netzwerk funktioniert, wie es „denkt“. Aber im Endeffekt ist die Antwort ein Schulterzucken und ein lapidares „es funktioniert halt“. Das kann gruselige Begleiterscheinungen haben: Die textgenerierende KI hat rechtsextreme Ansichten, die bildermalende zeichnet mit Vorliebe blutige Szenen. Die KI scheint Dinge zu wollen, die nicht vorgesehen waren, ein internal misalignment. Offensichtlich ist dies kein unbekanntes Phänomenen, doch fehlt die eine grundlegende Lösung; die meisten versuchen, das Problem möglichst zu umgehen. Es überrascht nicht, dass Stimmen von Forschenden laut werden, zunächst einmal Grundlagenforschung zu betreiben, anstatt immer weiter kompliziertere KIs zu bauen. Die Argumentation: Erst wenn wir verstehen was in der Black Box zwischen In- und Output passiert, können wir informiert entscheiden, welche Verantwortungen wir an KI übertragen wollen und welche eben nicht.

ChatGPT zeigt: Was da ist, wird auch benutzt. Mit möglicherweise unvorhergesehenen Folgen.

Ein Kommentar von Alexander Bernet

Fortsetzung: Wie gehen Uni und Hochschule mit KI um?

Eine Antwort auf KI an der Uni II

Schreibe einen Kommentar

*