Künstliche Intelligenz
Die Einsatzmöglichkeiten und Grenzen von Künstlicher Intelligenz (KI) werden auch in der Universitätsbibliothek diskutiert. Von den vielfältigen möglichen Anwendungen spielen sich manche in der bibliothekarischen Hintergrundarbeit ab (z. B. der Einsatz von KI zur Verbesserung der Suche oder zur Erstellung von Begleittexten für digitale Kulturobjekte), während andere für die Nutzer:innen der Bibliothek direkter sichtbar sind. Auf dieser Seite werden die Aktivitäten und Services zum Thema Künstliche Intelligenz an der Universität Kassel sowie weitere, überregionale Angebote zusammengestellt.
Handlungsempfehlungen
Diese Empfehlungen sind Auszüge aus den "Leitlinien für den Umgang mit generativen KI-Systemen in Studium und Lehre an der HAWK (V1)", erstellt von der KI-Taskforce der HAWK – Hochschule für angewandte Wissenschaft und Kunst Hildesheim/Holzminden/Göttingen, sowie von der Webseite der HAWK-Servicestelle für Qualität in der Lehre.
Die folgenden Fragen sollten sich alle Nutzer:innen von KI-Tools stellen:
- Muss ggf. gekennzeichnet werden (z. B. bei der Textproduktion)?
Die Kennzeichnung KI-generierter Inhalte ist üblich und wird in manchen Kontexten explizit gefordert. Beim wissenschaftlichen Arbeiten gebietet die Gute Wissenschaftliche Praxis, die Unterstützung durch KI transparent zu deklarieren. - Könnte versehentlich ein Plagiat kreiert oder urheberrechtlich geschützte Inhalte verwendet worden sein?
Es kann vorkommen, dass die Inhalte, die von einer KI generiert werden, einem existierenden Original zu ähnlich sind. Ein Beispiel findet sich in “The AI Index 2024 Annual Report” vom AI Index Steering Committee der Stanford University (Chapter 3, Abschnitt 5. "LLMs can output copyrighted material").
- Dürften die an die KI weitergegebenen Informationen theoretisch veröffentlicht werden?
Im Hinblick auf Informationssicherheit, Datenschutz und Privatsphäre müssen Hochschulangehörige bei der Nutzung von generativer KI die Privatsphäre anderer respektieren und alle geltenden Datenschutzbestimmungen, inkl. der EU-Gesetzgebung zur künstlichen Intelligenz, einhalten. Die Verwendung personenbezogener und urheberrechtlich geschützter Daten sowie sensibler Informationen Dritter beim Prompten muss vermieden werden und ist nur mit ausdrücklicher Zustimmung der betroffenen Personen zulässig. Beispiele für personenbezogene Daten und sensible Informationen sind z.B. Klarnamen, Geburtsdaten, Kontaktdaten, Gesundheitsdaten und schützenswerte Forschungsdaten, die unter anderem auch in Abschlussarbeiten, Gutachten oder Beurteilungen enthalten sein können.
- Kann Verantwortung für das Ergebnis übernommen werden?
Unabhängig davon, ob eine wissenschaftliche Arbeit mit oder ohne generative KI erstellt wurde, trägt die erstellende Person die Verantwortung für die Richtigkeit, Güte und Qualität dieser. Dementsprechend liegt, wie bei wissenschaftlichen Quellen, die Übernahme von KI-generierten Inhalten in der Verantwortung der jeweils nutzenden Personen. Sie müssen die Übernahme entsprechend kennzeichnen. Durch die Übernahme der Verantwortung wird sichergestellt, dass die akademische Integrität gewahrt bleibt und generative KI-Werkzeuge als unterstützende Ressource im Forschungs- und Lehr-Lern-Prozess dienen, ohne die für das wissenschaftliche Arbeiten wesentliche kritische Reflexions- und Urteilsfähigkeit der Nutzenden zu ersetzen. - Wie können die Ergebnisse der KI verifiziert werden?
Es ist bekannt, dass KI-Tools fehlerhafte Ergebnisse produzieren können ("halluzinieren" oder vielmehr "bullshitten", siehe Hicks, M.T., Humphries, J. & Slater, J. ChatGPT is bullshit. Ethics Inf Technol26, 38 (2024). https://doi.org/10.1007/s10676-024-09775-5). Es ist daher nötig, die Ergebnisse kritisch zu prüfen und ggf. weitere Quellen hinzuzuziehen. - Könnte eine systematische Verzerrung (Bias) vorliegen?
Die meisten Anbieter von LLMs (Large Language Models) legen nicht offen, welche Daten sie für das Training ihrer Modelle verwendet haben, wie u. a. “The AI Index 2024 Annual Report” vom AI Index Steering Committee der Stanford University (Chapter 3, Abschnitt 6. "AI developers score low on transparency, with consequences for research") feststellt. Es kann also weder ausgeschlossen werden, dass die KI verzerrte Ergebnisse produziert, noch kann dies auf einfache Art evaluiert werden. In der wissenschaftlichen Forschung ist deshalb besondere Aufmerksamkeit geboten, da die potentiellen Verzerrungen nicht nur zu wiederum verzerrten Forschungsergebnissen führen können, sondern auch zu einer Beeinträchtigung der Eigenwahrnehmung (siehe u. a. Messeri, L., Crockett, M.J. Artificial intelligence and illusions of understanding in scientific research. Nature627, 49–58 (2024). https://doi.org/10.1038/s41586-024-07146-0).
Weiterführende Links
- AI Act Explorer der EU (öffnet neues Fenster)
- AI report – By the European Digital Education Hub’s Squad on artificial intelligence in education (öffnet neues Fenster)
- Artificial Intelligence in Science: Challenges, Opportunities and the Future of Research (OECD) (öffnet neues Fenster)
- Virtuelles Kompetenzzentrum Künstliche Intelligenz und wissenschaftliches Arbeiten (VK:KIWA) (öffnet neues Fenster)