Campus Rostock
The Datadriver im Oktober 2024
Okt 24
Ex-Olympionikin und Neuronale-Netze-Fan Annika Walter fragt sich diesen Monat:
Schafft Chat-GPT die Wissenschaft ab?
Das Training von K.I.-Modellen und auch ihr Betrieb fressen Energie und Geld. ChatGPT-Erfinder OpenAI muss sich wohl auch deshalb ein paar zusätzliche Milliärdchen besorgen. Für die nächste Geldspritze sind Medienberichten zufolge neben Microsoft nun auch Apple und der Chip-Produzent Nvidia im Boot. ChatGPT ist der Textgenerator, der einen medialen Hype um K.I. entfachte. Gute Textgeneratoren sind in vielerlei Hinsicht praktisch und können Texte auf dem Level eines mittelmäßig wortgewandten Menschen verfassen und Informationen zusammenfassen. Und schon wird geunkt, dass die Wissenschaft tot ist, Maschinen das Denken übernehmen und bald landen wir in der Matrix. Durchatmen, liebe Schwarzseher*innen! Textgeneratoren sind weder in der Lage, Informationen mit absoluter Zuverlässigkeit zu verarbeiten, noch qualitative Schlüsse daraus zu ziehen. Zudem "halluzinieren" sie. Das heißt, sie erfinden Zusammenhänge, Namen und Quellen. Eine Forschungsarbeit ist aber mehr als Kopieren und Wiedergeben von Informationen. Eine gute Doktorarbeit zum Beispiel lebt von kritischer Auseinandersetzung, eigenen Erkenntnissen, geeigneten Querverweisen und von einer klaren Struktur. Etwas, das ChatGPT nicht leisten kann. Anfang September war ich beim Big-Data-Workshop 3.0 mit Schwerpunkt LLMs in Rostock und wurde von echten Wissenschaftlern bestätigt. Prof. Brendel von der Uni Wismar Chat-GPT wollte mit einem „Teachbot“ für Studierende, die Nachbereitung der Vorlesungsinhalte unterstützen. Bei der Bedingung „Fragen inhaltlich richtig beantworten“ schwankte der Bot jedoch zwischen Brillianz und grobem Unfug und zeigte ein erratisches, also unberechenbares Antwortverhalten. Fazit: So ein Bot kann ganz nützlich sein als Assistenz für Experten, aber nicht bei fehlendem Fachwissen. Der angebliche Zeitvorteil ist kleiner als erhofft, denn es braucht ein aufwendiges Prompt-Engineering und eine gründliche Ergebniskontrolle. Teodor Stoev von der Uni Greifswald kam zu einem ähnlichen Ergebnis. Large Language Modelle (LLMs) zeigen eine unterschiedliche Ergebnisqualität, abhängig von der Vielschichtigkeit der Domäne. Die Ergebnisse sind oft „verwässert“ bei wenig spezifischen Inhalten und – da ist es wieder, dieses lustige Wort -erratisch. Die Verwendung von LLms durch Experten kann allerdings produktiv sein. Schlussfolgerung ist also, K.I. – Tools sind im wahrsten Sinne des Wortes Werkzeuge, die unterstützen können. Ihren Kopf müssen Sie allerdings noch ein wenig selber nutzen.
Liebe Grüße! #thedatadiver
/*