Vorbemerkung: Die folgenden Ausführungen wurden anhand von drei Leitfragen bzw. Themenkomplexen individuell verfasst und geben damit eine persönlich gebiaste Sicht des Autors wider. Die Aussagen sind nicht als offizielles Statement der Institution oder Gremien zu verstehen, wobei die dahinterstehenden Überlegungen sehr wohl auf abgestimmte Meinungsbildung zurückzuführen sind. Weder für den Entwurf noch beim Überarbeiten dieses Textes kam genKI zum Einsatz.
KI Strategie an der PLUS
15.09.2024
Die PLUS verfolgt im Umgang mit Werkzeugen der sog. generativen KI (genKI) eine doppelte Strategie, die einerseits den Einsatz der schnelllebigen Technologie in einem kontrollierten Umfeld ermöglicht und andererseits Leitlinien erstellt, die den Umgang mit generativer KI grundsätzlich regeln sollen. Zur Erarbeitung und Umsetzung dieser Strategie wurde speziell eine KI Task force eingerichtet, die an der Schnittstelle Lehre, Forschung und Verwaltung angesiedelt ist. Sie ist möglichst umfassend und inklusiv ausgerichtet und betrifft die folgenden Themen: digitale Ressourcen in einer geschützten und kontrollierbaren Umgebung, Datenschutz, Forschung an und mit KI, ethische Überlegungen, zukunftsorientierte Skills in der Hochschullehre und nicht zuletzt Nachhaltigkeitsaspekte in der KI-Nutzung. Aufbauend auf einer Sammlung von 12 Tipps der Hochschuldidaktik zum Umgang mit KI in der Lehre, die schon seit dem ersten Hype von genKI eine Orientierung bieten, wurde ein grundlegendes Set an Leitlinien erstellt, die laufend weiterentwickelt werden. Diese Leitlinien zur Nutzung von KI an der PLUS wurden von der Task Force KI erarbeitet und stehen in einem allgemein zugänglichen Teil der PLUS-Webseite zur Verfügung. Details zur eigentlichen Umsetzung finden sich in einem dezidierten Bereich des Intranets.
Die Bereitstellung einer kontrollierbaren Softwareumgebung erfolgt in Abstimmung mit der österreichischen Universitätenkonferenz (uniko) und dem dort angesiedelten Forum Digitalisierung, einem Expertengremium aus Vertretungen der Rektorate und zentralen IT Diensten der beteiligten Universitäten. Wichtig ist neben der technischen Lösung auch die Abstimmung bestimmter use cases in unterschiedlichen Anwendungsszenarien und ein entsprechender Erfahrungsaustausch untereinander, ohne die ein rasches und breites upskilling von Universitätsangehörigen kaum möglich wäre. Dies erfolgt an der PLUS auch gestützt durch die Personalentwicklung im Rahmen eines disziplin-übergreifenden Profilaufbaus in Richtung eines sog. Digital Ambassador mit drei ergänzenden datenbezogenen Kompetenzen: data generation, data sharing/curating, data protection.
An der PLUS sind ab Herbst 2024 folgende genKI Komponenten implementiert:
- Blackboard AI Design Assistent: dient zur Erstellung von Assignments und anderen Formaten zur Leistungsfeststellung im Rahmen der Lernplattform Blackboard. Das Plugin basiert auf einem durch die kurspezifischen Materialien angereicherten LLM und schlägt Übungs- oder Prüfungsfragen vor. Optimiert für englische Texte, läuft der Assistent mittlerweile auch für andere Sprachen (u.a. Deutsch) verlässlich verfügbar.
- Microsoft Copilot: ein in der Suchmaschine des Edge-Browsers sowie in anderen Office Produkten integriertes Hilfswerkzeug zur Optimierung von Routinen im akademischen Umfeld wie dem Verfassen von Texten, Erstellen von Abbildungen, Präsentationen, Tabellen, etc.
- Academic ChatGPT. Dies vom uniko Digitalisierungsforum initiierte und von AcoMarket in einer Microsoft Azure umgesetzte Projekt stellt die eigentliche genKI Umgebung dar unter Nutzung der aktuellsten OpenAI LLMs zur Verfügung sowie etliche Zusatzkomponenten wie DALL-E und Wolfram Alpha in einer weiteren Entwicklungsphase.
Zentral ist bei letzterem dass alle Interaktionen mit dem dahinterstehenden Sprach-Modell (prompts, completions, embeddings) nur 1-direktional erfolgen, sprich nicht an Open AI zurückfließen. Dies mag auf den ersten Blick einschränkend klingen und auch ambivalent gesehen werden – denn warum soll eine akademische Einrichtung nicht auch das eingebrachte Wissen wieder an die Community zurückgeben? Es sind hier insbesondere Datenschutzgründe, die dies erfordern. Die Nutzung führt auch nicht automatisch zu einer Verbesserung der Azure OpenAI LLMs der beteiligten Universitäten; ein fine-tuning des Modells muss explizit angestoßen werden. Dahingehend kann jedoch mittelfristig und kontrolliert ein ganz spezifisches in-house Asset aufgebaut werden. Zunächst wird im Rahmen des uniko Projektrahmens „Academic AI Services“ die genKI Umgebung Lehrenden und Verwaltungsmitarbeitenden in bestimmten Task Gruppen angeboten. Für Studierende steht Academic GPT im Rahmen von Lehrveranstaltungen oder begleitenden Kursen für Abschlussarbeiten zur Verfügung. Die Abrechnung erfolgt entweder im Rahmen bestehender Lizenzgebühren (wie bei BlackBoard) oder über ein token-System.
KI Nutzung und Entwicklung im (europäischen) Hochschulraum
Wer wenn nicht die Universitäten und Hochschulen soll die Entwicklung von genKI-Systemen vorausschauend, kritisch und richtungsweisend mitgestalten? Wir repräsentieren diejenigen Institutionen, die aufgrund des inneren Kompetenzgefüges wirklich verstehen, wie KI-Systeme aufgebaut sind, welche Limitierungen diese aufweisen und welche Risiken sie bergen. Wir sind die Einrichtungen, die zuvorderst vom Potential von KI profitieren aber – ganz im Sinne der wissenschaftlichen Integrität – auch einem hohen Preis zahlen, wenn nicht kontrollierend eingreifen. Dahingehend werden Fragen des Arbeitsrechts, der Autonomie von Forschung und Lehre, der guten wissenschaftlichen Praxis, der zukunftsorientierten Schlüsselqualifikationen und der ethischen Grundsätze aufgeworfen, die in Gremien mit stark komplementären Kompetenzen eruiert werden. Im Rahmen der European University Association (EUA) werden dazu europaweit Positionen bezogen und Handlungsfelder bestimmt. Das Selbstverständnis von höheren Bildungseinrichtungen sieht sich hier in der Tat einer starken Herausforderung gegenüber und erfordert einen konzertierten, abgestimmten Umgang, jenseits von plakativen Alleingängen. Es bringt dem gesamten Hochschulraum mehr, bestimmte Formate und Anforderungen, z.B. im Rahmen von Bachelorarbeiten, zu überdenken und den neuen Rahmenbedingungen anzupassen, als diese schlichtweg abzuschaffen. Grundsätzlich soll und muss eine Universität KI-Kompetenz entwickeln und gleichzeitig Studierende und Mitarbeitende dafür sensibilisieren, welche Risiken im Sinne des europäischen AI Acts allenfalls bestehen und welche gesellschaftlichen Kosten mit der Nutzung von KI verbunden sind.
Das europäische KI-Gesetz, der sogenannte AI Act, ist als historische Errungenschaft in der europäischen Rechtsprechung zu sehen, was eine grundlegende, wertebasierte Begleitung von Technologieentwicklung betrifft. Es ist als rechtliche Rahmenvereinbarung weltweit gesehen die erste ihrer Art und zielt darauf ab, die in Europa registrierten KI-Systeme sicher(er) zu machen, was primär die Betreiber durch eine Folgeabschätzung in Bezug auf die Grundrechte in die Pflicht nimmt. Das KI-Gesetz baut auf einem risiko-basierten Ansatz auf: je höher das implizierte Risiko, desto strenger die Vorschriften. Das reicht von Kontrollierung und Einschränkung von KI Systemen mit hohem Risiko (z.B. Spielwaren, autonome Verkehrsmittel) bis hin zu Verboten von KI-Systemen mit unannehmbaren Risiko (z.B. social scoring via biometrische Identifikation). Die risiko-abhängige Regulierung zielt vor allem auf alltagsweltliche Anwendungen und schützt breite Nutzergruppen, die primär als Rezipienten gelten. Dies schließt aber auf jeden Fall auch den Bereich der akademischen Bildung und Berufsausbildung mit ein. Die Balance zu finden zwischen Innovation und Regulation ist dabei ein schwieriges Unterfangen, was auch bedeutet das KI-Systeme die „ausschließlich für Forschung und Innovation“ verwendet werden davon ausgenommen sind. Ähnliches gilt für militärische Anwendungen, was ohnehin einen äußerst kritischen und gesellschaftlich sensiblen Bereich darstellt.
Grundsätzlich sind die Möglichkeiten des Einsatzes von genKI im akademischen Umfeld enorm. In einem „Digital Dialog“, der sich an Mitarbeitende der PLUS richtete, wurden diese vom Leiter der IT Services, Gerald Steiner, Mitglied der KI Task Force, eindrücklich illustriert. Prinzipiell soll KI universitäres Lernen und das Arbeiten im akademischen Umfeld erleichtern, beschleunigen, teilweise automatisieren und damit letztendlich Produktivität freisetzen, weil weniger Routinearbeiten geleistet werden muss und Prozesse optimiert werden können. Gleichzeitig – so die Hoffnung – ermöglicht KI niederschwelliger Zugänge zu Bildungssystemen, damit mehr Gleichberechtigung, Personalisierung und Inklusion, im Rahmen einer vereinfachten, aber hochsicheren IT-Umgebung. Einschränkend ist dahingegen anzumerken dass es naturgemäß auch viele unerwünschte Nebeneffekte gibt. So zeigen zahlreiche Studien beispielsweise, dass LLMs aufgrund des Biases im eingelernten Wissen diese genderbezogenen oder kulturell-sozialen Wertevorstellungen replizieren, oder dass die Nutzung von KI Systemen derzeit nach wie vor stark von männlichen Nutzern dominiert ist. Viele Sorgen sind auch gespeist von negativen Szenarien der Redundanz menschlicher Arbeitskraft bis hin zu drohendem Jobverlust. Auch hier liegt es an universitärer Ausbildung, die künftigen Berufsfelder aufzuzeigen und ein positives Bild der Technologieintegration zu vermitteln.
KI und die Zukunft akademischen Arbeitens
Der Umgang mit KI wird die Tradition des wissenschaftlichen Arbeitens grundlegend verändern, weil der disruptive Übergang von einer graduellen Digitalisierung im Rahmen der bestehenden akademischen Praxis (sprich online-Zugang zu Publikationen, digitale Identifier, Plagiatscheck, Überwachung von IP Rechten, konsistentes Literaturverzeichnis, etc.) hin zu generativen Tools geradezu ein neues Paradigma hervorbringen muss. Wir stehen als wissenschaftliche Community grundsätzlich vor der Herausforderung, von Grund auf neu zu definieren was gute wissenschaftliche Praxis ist und bleibt, wo wir uns selbst Grenzen und Kontrollen auferlegen bzw. ja was wir uns selbst aus akademisch-ethischen Gründen möglicherweise sogar verbieten. Und nicht nur das: es wird auch schlichtweg eine Ressourcen-Frage sein. Die Digitalität im beruflichen und persönlichen Alltag sollte ja eher Ressourcen schonen, was derzeit angesichts des enormen Energieverbrauchs eher konterkariert wird. Hier benötigt es ein neues Verständnis indem wir eine neue Dimension der akademischen Praxis betreten: Nur weil etwas grundsätzlich machbar ist, muss es nicht die erste Wahl sein – gezielter Einsatz bedeutet auch mitunter bewusster Verzicht? Das erfordert jedoch absolut ein tiefes Verständnis für das Potential und die Limitierungen von generativer KI (genKI).
Bei den gängigen LLM-Architekturen handelt es sich um eine gigantische Mittelwertbildung des bestehenden Wissens-Corpus, was eben mittelfristig sprichwörtlich zu einer Mittelwert-„Bildung“ führen kann. Kreative Lösungen außerhalb des Gelernten und Trainierten erscheinen nicht leicht möglich, es wird de facto reproduziert. Das Trainieren neuronaler Netze mit Fach- und Allgemeinwissen ermöglicht äußerst präzise und gut formulierte Antworten auf quasi beliebige Fragen. Neues zu erfinden, im wahrsten Sinne des Wortes kreativ zu sein und wirklich out-of-the-box zu denken, ist dahingehend äußerst schwierig bis nahezu undenkbar. Ähnliche Probleme sehen wir, wenn wir von genKI einfache wissenschaftliche Grundpraktiken erwarten, wie z.B. das präzise Wiedergeben von Zitaten – denn hier ist die Schaffung von lediglich ‚wahrscheinlichen‘ Zitaten absolut nicht erwünscht. KI-Erkennungssoftware muss hinsichtlich dieser neuen Anforderungen optimiert werden. So achtet eine auf Plagiatserkennung aufbauende Software wie Turnitin spezifisch auf Übereinstimmungen. Dies bedeutet im Umkehrschluss im Kontext von Zitaten, dass diese als solche nicht erkannt werden, wenn sie im Kontext eines wissenschaftlichen Textes gefaket werden. Solche generierten Zitate folgen den Regeln der genKI und klingen äußerst realistisch, entsprechen aber eben nicht real existierenden Publikationen.
Wir sind also mit einer Technologie konfrontiert, die äußerst viel ermöglicht, aber auch viele gängige Praktiken infrage stellt. Abschließend deshalb bewusst noch ein optimistischer Ausblick: wie bei allen neuen Technologien, so wird sich auch im Rahmen von genKI das Pendel einschwingen: Wir werden in ein paar Jahren – im wahrsten Sinne des Wortes – dazu gelernt haben und hoffentlich einen reflektierten, mitunter auch distanzierten, Umgang mit generativer künstlicher Intelligenz entwickeln.