Umgang mit generativer KI im UNIGIS-Studium

Generative Künstliche Intelligenz (KI) Systeme bieten für Studium und Lehre vielfältige Potenziale, aber auch neue Herausforderungen. Wichtige Fragen rund um Studium und der Verwendung generativer KI sollen Ihnen auf dieser Webseite beantwortet werden. Werfen Sie auch unbedingt einen Blick in unseren Leitfaden zum Umgang mit generativer KI.

Uns ist wichtig, dass Sie trotz oder eben mit generativen KI Systemen Ihre Lernprozesse eigenverantwortlich lenken und sich einen Lernzuwachs sichern können. Letztendlich muss der intellektuelle Prozess und die Verantwortung über die produzierten Inhalte immer beim Menschen bleiben, und darf nicht an eine Maschine ausgelagert werden. Der Entscheidungsbaum von Aleksandr Tiulkanov hilft dabei:

Basiert auf Aleksandr Tiulkanov (2023): Is it safe to use ChatGPT for your task? Online verfügbar (© https://creativecommons.org/licenses/by/4.0/deed.de)

Was genau ist Generative Künstliche Intelligenz?

Generative Künstliche Intelligenz (KI) ist eine Art von KI, die in der Lage ist, Inhalte wie Texte, Bilder, Videos, Audios oder Softwarecode zu erstellen. Sie stützt sich auf anspruchsvolle Deep-Learning-Modelle, die mithilfe riesiger Datenmengen in einem sogenannten "self-supervised" Ansatz trainiert werden. Muster und Beziehungen werden dabei selbstständig identifiziert und kodiert. In einem zweiten Schritt, der Inferenz-Phase, werden diese Informationen verwendet, um auf einen Prompt hin Inhalte zu generieren, die den erlernten Mustern und Beziehungen ähneln.

Die wichtigsten Fragen und Antworten

Hier finden Sie Fragen und Antworten zum Thema, die neben dem Leitfaden zum Umgang mit generativer KI eine erste Orientierung für den Einsatz von Systemen generativer KI im UNIGIS-Studium bieten. Bitte beachten Sie, dass sich die verfügbaren Systeme kontinuierlich weiterentwickeln und die Situation derzeit recht dynamisch ist. Es ist daher durchaus möglich, dass auch dieser Leitfaden angepasst werden muss. Schauen Sie gerne wieder hier vorbei, bleiben Sie kritisch und nutzen Sie mehr denn je Ihren Hausverstand.

Stand: 02.12.2024

Sofern die Nutzung von generativen KI-Systemen im UNIGIS Studium von der/dem Lehrbeauftragten nicht dezidiert untersagt wird, unterliegt ihr Einsatz grundsätzlich Ihrem eigenen verantwortungsvollen Umgang mit dieser Technologie. Wurde generative KI verwendet, so ist dies jedenfalls kennzeichnen (siehe Abschnitt „Wie gebe ich die Verwendung von generativer KI richtig an?”). Nutzung von generative KI in Masterarbeiten wird separat behandelt (siehe “Darf generative KI in der Masterarbeit verwendet werden?”).

Gut eignet sich generative KI zur Verschaffung eines ersten Überblicks über ein bestimmtes Thema, oder eine initiale Ideengebung. Je tiefer und spezifischer eine Fragestellung ist, desto problematischer ist der generierende Prozessschritt („Inferenz Phase“), in dem aus einzelnen Komponenten der trainierten Grundgesamtheit ein neues Produkt (Text, Bild, etc.) kombiniert wird. Je tiefer Sie selbst schon das Themenfeld durchdrungen haben, desto eher werden Sie über die Kompetenz verfügen, um die Validität der Ergebnisse tatsächlich einschätzen zu können.

Wir raten klar davon ab, generativer KI in der Masterarbeit zu verwenden. Dies gilt auch für das Lektorat durch generative KI. Mehr dazu im Abschnitt „Warum sollte KI nicht für das Lektorat der Masterarbeit verwendet werden?“.

Hier ein Beispiel, warum das Übernehmen von generierten Texten, die nicht selbst gedacht wurden, problematisch sind:

Method xy offers a flexible solution by including smooth spatial terms to non-parametrically model complex spatial patterns (Author, date).

Haben Sie die mathematischen Grundlagen dieser Methode tatsächlich so tief durchdrungen, dass dieser Satz originär von Ihnen stammt?

Könnten Sie bei einer Defense erklären, was konkret ein „smooth spatial term“ ist?

Diese Tiefe des Verständnisses, welche nur durch eigenständiges, mentales Prozessieren von Grundlagen erlangt werden kann, ist mit der Eigenständigkeitserklärung „Ich übernehme die volle Verantwortung für den Inhalt dieser Arbeit” gemeint.

Schreiben ist nicht jedermanns Sache. So erscheint es unverfänglich und sogar förderlich nach getaner Arbeit die generative KI um ein Lektorat des eigenen Textes zu bitten und holprige Formulierungen zu glätten.

Genau davon raten wir jedoch ab! Die akkordierte Überzeugung der Betreuer:innen von UNIGIS Masterarbeiten ist, dass wir Ihre eigenen Formulierungen bevorzugen, selbst wenn sie holprig erscheinen,

  1. weil auch wenn Sinn-Verschiebungen durch generative KI oft nur klein sind, Ihr eigener Text immer exakter das formuliert, was Sie aussagen möchten.
  2. weil Sie sich ohne Not in die Situation bringen, sich rechtfertigen zu müssen, wenn der KI-Scanner anschlägt, und vor allem
  3. weil genau dieses Ringen nach den richtigen Worten exaktes Arbeiten und tiefes Durchdringen der Materie bewirkt.

Zur Illustration zwei konkrete Beispiele studentischer Arbeiten, die als KI-generiert erkannt wurden und überarbeitet werden mussten. Öffentlich zugängliche Texte wurden aus Datenschutzgründen abstrahiert:

Beispiel 1: Grundsätzliche Veränderung der Aussage

Ursprüngliche Formulierung:

“In studies using spatial data, it is essential to address … “

Mit generativer KI überarbeitet:

“In the case of further studies, it is essential to better address …

Beispiel 2: Grundsätzliche Veränderung der Aussage

Die folgende Formulierung stammt aus dem Themenvorschlag für eine Seminararbeit. Eine holprige, aber nach den Standards wissenschaftlichen Arbeitens korrekt formulierte Fragestellung wurde durch die generative KI „verschlimmbessert“. Der Fokus der Arbeit wurde verschoben, ein nachgelagerter operativer Teilschritt wurde zum aim (Leitziel) der Arbeit, und das ‚Problem eines Handlungsreisenden‘ wurde von der generativen KI nicht als Methode, sondern als Problemstellung der Arbeit interpretiert.

Ursprüngliche Formulierung:

“The aim of this study is to optimise route-planning for <field of application> under the situation of Travelling Salesman Problem. I utilize <some specific> algorithms to develop <some prototype>.“

Mit generativer KI überarbeitet:

“This study optimizes <field of application> route-planning, addressing the Travelling Salesman Problem. I aim to develop <some specific> algorithm for <some prototype> “

Wenn Sie generative KI wie ChatGPT, Microsoft Copilot, Gemini oder ähnliche Systeme für studienrelevante Leistungen (z.B. Aufgabenstellungen) verwenden, geben Sie dies in einer „Deklaration zur Nutzung generativer KI“ an. Diese Deklaration sollte Folgendes enthalten und am Ende einer Lösungseinsendung stehen:

  • Die verwendete Software einschließlich der Versionsnummer.
  • Eine klare Angabe, welche Textabschnitte oder Arbeitsschritte durch die generative KI wie beeinflusst oder erstellt wurden.

Hier ein Beispiel aus einer Aufgabeneinsendung einer Studierenden:

Deklaration zur Nutzung generativer KI:
Während der Erstellung dieser Aufgabeneinsendung nutzte die Autorin ChatGPT (Version 3.5, April 2024), um den Schreibstil zu verbessern sowie Rechtschreibung und Grammatik zu überprüfen. Der inhaltliche Gehalt wurde nach der Nutzung des Tools durch die Autorin geprüft und bei Bedarf überarbeitet. Die Autorin übernimmt die volle Verantwortung für den Inhalt dieser Arbeit.

Falls Sie sich, aus welchen Gründen auch immer, gezielt Texte oder Code generieren lassen, empfehlen wir den MLA-Zitierstil, um diese Passagen kenntlich zu machen. Seien Sie sich aber bewusst, dass generierter Text als graue Literatur gilt und somit nicht als verlässliche Quelle in Arbeiten verwendet werden kann.

Hier ein Beispiel:

“Describe the symbolism of the green light in the book The Great Gatsby by F. Scott Fitzgerald” prompt. ChatGPT, 13 Feb. version, OpenAI, 8 Mar. 2023, chat.openai.com/chat.

Für mehr Infos und Beispiele, bitte konsultieren Sie die MLA-Webseite.

Das ungekennzeichnete Verwenden von KI-generierten Inhalten wird als wissenschaftliches Fehlverhalten gewertet, ähnlich einem Plagiat, und kann zu einer negativen Note oder sogar, im schlimmsten Fall, zum Ausschluss aus dem Studium führen.

Die Modelle, welche den sprachbasierten Systemen generativer KI zugrunde liegen, werden als “large language models” (LLMs) bezeichnet. Welchen Nutzen solche Systeme in Verbindung mit Benutzeroberflächen von GI-Systemen haben könnten, oder inwieweit sie für kartographische Anwendungsgebiete einsetzbar sind, ist Gegenstand aktueller Forschung.

Hochmair et al. (2024) stellten fest, dass generative KI-Modelle wie ChatGPT-4, Gemini, Claude-3 und Copilot bei verschiedenen räumlichen Fragestellungen unterschiedlich gut abschneiden. Während diese Modelle bei allgemeinen Fragen zu Konzepten und Methoden der Geoinformatik (spatial literacy) und der Interpretation von Programmiercode und Funktionen solide Leistungen erbringen, zeigen sie deutliche Schwächen in Bereichen wie Kartenerstellung, Codegenerierung und räumlichem Denken. Dies zeigt, dass LLMs derzeit noch Schwierigkeiten haben, spezialisierte geoinformatische Aufgaben zuverlässig zu bewältigen. Eine fundierte Kenntnis der Theorien und Konzepte der Geoinformatik sowie deren Anwendung bleibt daher vorerst unverzichtbar.

Die hohen Energieverbräuche sowie bedenkliche Arbeitsbedingungen durch den Einsatz von Clickworkern oder die Marktmacht großer Unternehmen sind Aspekte, die Intransparenz und Unsicherheit verursachen. Schätzungen darüber, wie groß der Energieverbrauch einer Anfrage bei einem KI-Bot im Vergleich zu einer herkömmlichen Google-Suche ist, variieren zwischen dem 28- und 160-Fachen[1][2][3][4]. Laut einer Studie der Cornell University verursachte das Training von OpenAIs KI-Modell „GPT-3“ 552 Tonnen CO2[5] – in etwa so viel wie alle 2.900 PLUS-Bediensteten durch ihre Arbeitswege innerhalb eines Jahres.

In Anbetracht dessen sollten Sie, im Einklang mit dem Grundsatz der Verhältnismäßigkeit, daten-, energie- und ressourceneffizienten KI-Methoden den Vorzug geben. Zertifizierungen der Rechenzentren, auf denen das Training und die Inferenz stattfinden, bieten Auskunft über die Nachhaltigkeit der Rechenleistung. Hier gibt es weitverbreitete Standards wie das CEEDA (Certification of Energy Efficiency for Data Centers). Zur Messung der CO2-Emissionen Ihrer KI-Nutzung können Werkzeuge wie CodeCarbon.io oder der ML CO2 Impact- Rechner[6] herangezogen werden.

Weniger ist mehr:

Falls Sie

  • für Ihre Programmziele und die gewünschten Ergebnisse den Einsatz von KI-Tools nicht unbedingt benötigen,
  • sich nicht sicher sein können, dass der Anbieter Ihres KI-Tools erneuerbare Energien für den Betrieb des Rechenzentrums nutzt,
  • und Ihre KI-Methode einen hohen CO2-Ausstoß verursacht,

verzichten Sie bewusst auf die Nutzung von Künstlicher Intelligenz!

[1] Nitin Sreedhar. “AI and its carbon footprint: How much water does ChatGPT consume?” Mint lounge, 22 Oct. 2023, https://lifestyle.livemint.com/news/big-story/ai-carbon-footprint-openai-chatgpt-water-google-microsoft-111697802189371.html.
[2] Kasper Groes Albin Ludvigsen.  “ChatGPT’s energy use per query.” Medium, 6 Aug. 2023, https://towardsdatascience.com/chatgpts-energy-use-per-query-9383b8654487.
[3] Chris Pointon. “The carbon footprint of ChatGPT”. Medium, 22 Dec. 2022, https://medium.com/@chrispointon/the-carbon-footprint-of-chatgpt-e1bc14e4cc2a. 
[4] de Vries, Alex. “The growing energy footprint of artificial intelligence.” Joule 7.10 (2023): 2191-2194. DOI: https://doi.org/10.1016/j.joule.2023.09.004
[5] Patterson, David, et al. “Carbon emissions and large neural network training.” arXiv preprint arXiv:2104.10350 (2021). DOI: https://arxiv.org/abs/2104.10350
[6] Lacoste, Alexandre, et al. “Quantifying the carbon emissions of machine learning.” arXiv preprint arXiv:1910.09700 (2019). DOI: https://arxiv.org/abs/1910.09700

Weitere Ressourcen