Akademische Integrität

Letzter Update: 07. Februar 2024

中国足球彩票: dies ist ein lebendiges Dokument, gedacht als FAQ. Nichts auf dieser Seite ist ein offizielles Reglement oder eine Weisung der ETH Zürich.

Künstliche Intelligenz und der Verlust der akademischen Integrit?t sind nicht von Natur aus miteinander verbunden. Wir haben schon immer Werkzeuge benutzt, um Aufgaben zu erledigen, und künstliche Intelligenz ist in erster Linie ein Werkzeug. Probleme entstehen, wenn dieses Werkzeug auf unehrliche Weise eingesetzt wird oder wenn es menschliche Zeit vergeudet.

Die Lehrkr?fte werden nachdrücklich aufgefordert, Regeln und Richtlinien für die Aufgaben, Projekte und Bewertungen in ihren Kursen aufzustellen; es gibt keine "One-Size-Fits-All". Die Festlegung dieser Regeln kann auch ein Teil der Diskussion in Ihrem Kurs sein, in der Ihr Kurs als Lerngemeinschaft pragmatische und faire Konsensl?sungen erarbeiten kann.

Diese Frage wird in Wissenschaft und Gesellschaft viel diskutiert. Es wird argumentiert, dass Large Language Models auf einem Textkorpus basieren, der die Arbeit anderer Menschen ist - daher wird ein Argument vorgebracht, um die Verwendung von KI-generiertem Text als Plagiat zu bezeichnen.

Gleichzeitig reproduzieren diese proabilistischen Modelle kein bestimmtes schriftliches Dokument; stattdessen werden Dokumente aus dem Textkorpus lediglich verwendet, um einen im Wesentlichen assoziativen Autovervollst?ndigungsalgorithmus zu trainieren. In nicht unerheblichem Masse tun Menschen das Gleiche, wenn sie das erzeugen, was als Originaltext gilt: Wir schreiben auf der Grundlage von Assoziationen, und unsere Assoziationen beim Schreiben stammen von dem, was wir zuvor von anderen Menschen geh?rt oder gelesen haben. Nachdem wir ein Buch gelesen haben, fangen wir als Menschen vielleicht sogar an, wie der Autor zu klingen. In diesem Sinne ist ein KI-Tool eher so, als würde jemand anderes einen Text für uns auf der Grundlage seiner Assoziationen erstellen, und die Verwendung von KI-generierten Texten ist eher mit Ghostwriting vergleichbar.

Wesentlich ist das Konzept der eigenen Arbeit: Einen Text direkt oder leicht abgewandelt aus einem KI-Tool einzureichen und zu behaupten, es sei die eigene Arbeit, ist akademische Unredlichkeit, unabh?ngig von der Diskussion über Plagiat oder Ghostwriting.

Ein wichtiges Instrument ist daher die DownloadEigenst?ndigkeitserkl?rung (PDF, 175 KB) (DownloadDeclaration of Originality (PDF, 183 KB)), in welcher nun der Einsatz von KI deklariert werden kann.

Es kann aber auch sein, dass der Dozierende die Verwendung von KI-Tools zul?sst oder einfach eine Erkl?rung über deren Verwendung erwartet ... all das h?ngt vom Dozierenden und der jeweiligen Aufgabe ab.

Einige Lernende verwenden KI-Werkzeuge, andere versuchen alles, um sich so weit wie m?glich von diesen Werkzeugen fernzuhalten, um nicht auch nur im Entferntesten der Unredlichkeit bezichtigt zu werden. Diese Diskrepanz kann zu unfairen Vorteilen führen.

In Anbetracht des breiten Spektrums an Kursen, Projekten, Aufgaben usw. ist es nicht m?glich oder sogar wünschenswert, eine einheitliche Richtlinie zu formulieren. Stattdessen müssen die Lehrkr?fte entscheiden, was erlaubt und angemessen ist, und sie sollten diese Richtlinien für jeden einzelnen Kurs und jede einzelne Aufgabe mitteilen. Die Studierenden sollten sich auch frei fühlen, den Dozenten einfach von Mensch zu Mensch zu fragen.

Ziel ist es, aussagekr?ftige Beurteilungen mit aussagekr?ftigen Noten zu erhalten. Die Vorbereitung einer Aufgabe beinhaltete immer die Festlegung, welche Hilfsmittel erlaubt sind, welche nicht erlaubt sind und welche angegeben werden müssen: Taschenrechner, W?rterbuch, Lehrbuch, Rechtschreibprüfung, Literaturdatenbank usw. Large Language Models und andere KI-Systeme sind nur ein weiteres Hilfsmittel. Sagen Sie Ihren Studierenden, ob ChatGPT, Bard, Copilot, Gemini und dergleichen erlaubt sind oder nicht; wenn ja, muss ihre Verwendung angegeben werden und wie?

Für traditionelle, ver?ffentlichte Ressourcen wie Artikel oder Bücher sollten Lernende wissen, wie sie diese zitieren, aber für von KI erzeugten Text gibt es keine ursprüngliche Quelle mehr - alle Verbindungen zur Originalquelle gehen im Trainingsprozess verloren. Dennoch kann das Prompt zitiert werden, zum Beispiel

[ChatGPT23b] ChatGPT, Modell GPT-4. Liste von Argumenten für und gegen die Ausweitung der Nutzung der Kernenergie in der Schweiz. Zugriff am 12.07.2023.

Für das Zitieren von KI wurden spezifischere Stile entwickelt, beispielsweise für externe SeiteAPA und externe SeiteMLA.

Da oft Schlussfolgerungen in einem Dialog erreicht werden und da Prompt-Antworten nicht stabil sind, k?nnte eine noch bessere L?sung die "Share"-Funktion in ChatGPT sein, die es erm?glicht, eine teilbare, schreibgeschützte URL für einen Dialog zu erzeugen.

Natürlich w?re diese Referenz allein nicht ausreichend, um Argumente zu stützen. Autorinnen und Autoren müssen die ChatGPT-Ausgabe als eigene Eingabe nehmen und Behauptungen und Fakten mit ver?ffentlichter, insbesondere peer-geprüfter Literatur untermauern - ein Aufsatz, der nur ChatGPT zitiert, wird wahrscheinlich einfach ein schlechter Aufsatz sein.

Nein! In den Anf?ngen der Large Language Models hielten es Autorinnen und Autoren für angemessen, interessant, lustig, geistreich, ... ChatGPT als Mitautor bei wissenschaftlichen Arbeiten aufzuführen, aber mittlerweile haben die meisten Zeitschriften ausdrückliche Regeln dagegen. Man würde ja auch seinen Taschenrechner nicht als Autor aufführen.

In jedem Fall muss jemand für die Arbeit verantwortlich sein, und das muss ein Mensch sein; ein KI-Werkzeug hat keine Pers?nlichkeit. Ein menschlicher Autor oder eine menschliche Autorin kann die Verantwortung kaum an ein KI-Werkzeug delegieren, und KI-Werkzeuge (oder die hinter ihnen stehenden Unternehmen) k?nnen nicht für die Halluzinationen, Fehler und Vorurteile der Algorithmen verantwortlich gemacht werden - ein Mensch muss deren Ausgabe überprüfen, validieren, genehmigen, anpassen usw., und am Ende ist er oder sie verantwortlich.

Die ETH Zürich hat klare DownloadRichtlinien zur akademischen Integrit?t (PDF, 1.2 MB), die unter anderem (dem gesundem Menschenverstand entsprechende!) Regeln für die Autorenschaft beinhalten. ChatGPT k?nnte zitiert oder in den Acknowledgements erw?hnt werden.

Nein. Trotz Werbebehauptungen und Geschichten über "Signaturen" dieser Werkzeuge zeigen Studien, dass selbst die besten Erkennungswerkzeuge nur eine Genauigkeit von 80% haben und jedes von ihnen falsch-positive sowie falsch-negative Ergebnisse liefert. Da Large Language Models probabilistisch sind, gibt es keinen ursprünglichen Quelltext, den man als Beweis verwenden k?nnte, und die Behauptung eines Studierenden, er oder sie habe ein falsch-positives Ergebnis erhalten, kann nicht widerlegt werden.

Menschen sind h?ufig bessere Beurteiler für den Einsatz von KI als Computer, und als Dozierender k?nnten Sie ein Gespür für studentisches im Vergleich zu KI-generiertem Schreiben entwickeln. Als Dozierender k?nnen Sie den Studierenden dazu auffordern, den Text zu verteidigen und die darin gemachten Behauptungen zu begründen, zum Beispiel entlang der Linien "Was bringt Sie zu dieser Aussage? Wie k?nnen Sie das beweisen? Gibt es Referenzen dafür?"

Es kann sehr frustrierend sein: Man liest einen Text, der geradezu nach reinem ChatGPT riecht, und man fragt sich, ob man mehr Zeit mit der Bewertung verbringen sollte, als der sogenannte Autor oder die sogenannte Autorin für die Erstellung gebraucht hat.

Trotzdem ist es wichtig, die Integrit?t der Bewertung zu bewahren:

  • Wenn Sie die Verwendung von KI-Werkzeugen erlaubt haben und diese gem?? den von Ihnen festgelegten Regeln verwendet wurden, sollte der Aufsatz wie jeder andere Aufsatz bewertet werden. Wenn es ein schlechter Aufsatz ist, sollte er dementsprechend bewertet werden.
  • Wenn jedoch die Verwendung eines KI-Werkzeugs nicht erlaubt war und Sie einen starken Verdacht haben, sollten Sie einen Disziplinarprozess einleiten, damit das gebührende Verfahren eingehalten wird. Auch wenn den Studierenden die Verwendung von KI-Werkzeugen erlaubt war, sie dies aber entgegen den Anweisungen des Dozierenden nicht angeben, handelt es sich um T?uschung im Sinne des Prüfungsrechts.

KI-Werkzeuge sind derzeit sehr gut darin, plausible Fiktion zu produzieren, aber sie sind auch respektabel gut in einführenden MINT-Kursen. Wenn es nur von den Aufgaben abh?nge, k?nnten sie wahrscheinlich Kurse wie Physik oder Einführung in die Informatik bestehen. Wenn es jedoch um akademische Unehrlichkeit in MINT-Kursen geht, sind die traditionellen Methoden wie das Abschreiben von Mitstudierenden immer noch effizienter.

In solchen Kursen k?nnte eine ?berlegung sein, den Einsatz aller KI-Werkzeuge w?hrend bestimmter Phasen des Kurses oder Teilen von Prüfungen ausdrücklich zu erlauben, da die Studierenden solche Werkzeuge in ihrem zukünftigen Berufsleben wahrscheinlich verwenden werden.

Viele der Dinge, die Sie vielleicht schon vor der weiten Verbreitung von KI getan haben, nur strenger:

Erinnern Sie die Studierenden auch daran, dass sie vollst?ndig verantwortlich für die Arbeiten sind, die sie einreichen, und dass es ihre Verantwortung ist, genügend Material und Hintergrund zu liefern, damit Sie ihre Kompetenzen beurteilen k?nnen.

Wie bei jedem anderen Werkzeug auch: Wenn der Dozent Richtlinien für Werkzeuge festlegt, die für eine Aufgabe verwendet werden k?nnen, oder wie deren Einsatz offengelegt werden muss, und ein Lernender diese Vorgaben verletzt, handelt es sich um einen bedauerlichen, aber normalen Fall von akademischer Unehrlichkeit. Die ETH Zürich verfügt über solide Mechanismen, um akademische Unehrlichkeit zu behandeln, siehe externe SeiteDisziplinarverordnung (Ordinance on Disciplinary Measures).

Die Bibliothek offeriert Kurse zum wissenschaftlichen Schreiben, insbesondere "Wissenschaftliches Schreiben – Einsatz von ChatGPT effektiv und verantwortungsbewusst".

Kommentare, Anregungen, etc.: Gerd Kortemeyer,

JavaScript wurde auf Ihrem Browser deaktiviert