Mit Sprachmodellen wie ChatGPT lassen sich Wissenschaftsartikel zusammenfassen. Es kennt aber Gepflogenheiten und Hintergrundwissen von Forscher:innen nicht. Die Folge: Es erzählt Oberflächliches und Unwichtiges, versteht manche Inhalte falsch und produziert so Fehler.
Bei akademischen Texten wünscht sich manch einer, es gäbe per Knopfdruck eine leicht verdauliche Zusammenfassung. Wer den Artikel in ein Sprachmodell wie ChatGPT einspeist, erhält jetzt genau das. Sind diese Zusammenfassungen verlässlich oder sind alle Angaben ohne Gewähr?
ChatGPT schreibt, Forscher:innen bewerten
Wir haben ChatGPT 3.5 über die Seite ChatPDF.com drei aktuelle Wissenschaftsartikel auf 1000 Zeichen zusammenfassen lassen. Die Autor:innen der Publikationen selbst haben daraufhin die Ergebnisse evaluiert.
Menschen ziehen aus wissenschaftlichen Texten Information, die zwischen den Zeilen stehen. Abbildung: CurvaBezler / Adobe Stock</