Wie die EBZ Business School mit künstlicher Intelligenz umgeht
Künstliche Intelligenz kommt in der Mitte der Gesellschaft an. Die EBZ Business beschreitet Wege, neue Technologien sinnvoll in Lehre und Prüfungswesen einzubinden.
Künstliche Intelligenz (KI) hält in ihren verschiedenen Ausprägungen – etwa als Text- oder Bild-Generator – Einzug in alle denkbaren Bereiche der Gesellschaft. Als Hochschule ist die EBZ Business School offen für die großen Potenziale der noch jungen Technologie. Die Herausforderung ist es, die benötigten Kompetenzen im Umgang mit KI-Tools wie ChatGPT zu schärfen und neue Technologien sinnvoll einzubinden – auch bei Prüfungen.
Im Interview erklären Rektor Prof. Dr. Daniel Kaltofen, der Prorektor für Studium und Lehre Prof. Dr. Raphael Spieker MRICS und Prof. Dr. Tobias Keller, Vorsitzender des Senats und des Prüfungsausschusses, wie die EBZ Business School mit KI-Tools umgeht und arbeitet.
Wie intensiv wird das Thema ChatGPT schon in der Hochschule diskutiert?
Daniel Kaltofen: Viel, das können Sie sich sicher vorstellen. Insbesondere bei Prüfungsfragen stellt uns das vor neue Herausforderungen.
Raphael Spieker: Einigen Profs fiel schon Ende letzten Jahres bei der Korrektur wissenschaftlicher Hausarbeiten auf, dass diese aus in sich geschlossenen deskriptiven Grundlagenteilen bestanden, die sich aber nicht in einen schlüssigen Gedankengang der Gesamtarbeit einordnen ließen. Ob hier gezielt eine künstliche Intelligenz genutzt wurde, konnten wir nicht mit Sicherheit feststellen.
Wie reagiert die Hochschule nun? Wird die Nutzung von KI untersagt?
Daniel Kaltofen: Übertragen gesprochen befinden wir uns gerade im Jahr 2007 und dem iPhone 1 – da wird noch einiges kommen. Da entsteht gerade etwas ganz Neues, das sich tief in unseren Arbeitsalltag hineinarbeiten wird. Die EBZ Business School begrüßt KI-Tools als Teil der modernen Wissensgesellschaft. Sie bergen hohe Potenziale für Wissensgewinn und Kreativität. Unsere Aufgabe ist es, diese neue Digitalkompetenz bei unseren Studierenden künftig nachhaltig, verantwortungsvoll und medienkritisch herauszubilden, etwa im Rahmen unserer „Schreibwerkstatt“.
Raphael Spieker: Ich habe in einigen meiner Veranstaltungen das Thema angesprochen und hatte den Eindruck, dass es bei einem Großteil der Studierendenschaft noch nicht bekannt war. Lediglich einige Studierende mit größerer IT-Affinität wirkten „wissend“. In der anschließenden offenen Diskussion habe ich dann für die Gefahren sensibilisieren können, die aus einer ungeprüften Übernahme von durch KI erzeugten Inhalten entstehen können. Intern haben wir verschiedene Strategien entwickelt, wie wir mit dieser Herausforderung umgehen sollten. Statt den technischen Fortschritt zu verteufeln, werden wir in verschiedenen Modulen einen wissenschaftlich fundierten Umgang damit lehren. Für die Kontrolle ich Prüfungen nutzen wir ebenfalls KI-Tools, welche uns Hinweise auf einen möglichen (unerlaubten) Einsatz geben.
Tobias Keller: Als Hochschule sind wir fest davon überzeugt, dass ein pauschales Verbot von KI in allen Prüfungsformaten nicht zeitgemäß und auch nicht durchsetzbar ist. Da, wo KI genutzt werden kann, wird sie auch genutzt werden. Anstatt Prüfungsregularien immer enger zu fassen und die Nutzung von KI pauschal als Täuschungsversuch zu werten, sehen wir es als eine Herausforderung, Prüfungsaufgaben so zu gestalten, dass diese eindeutig zwischen der Eigenleistung der Studierenden und der Leistung von KI differenzieren. Da die Entwicklung der KI dynamisch ist, heißt das eben auch, die Entwicklungen zu beobachten und Prüfungsmodalitäten immer wieder anzupassen.
ChatGPT und andere KI-Tools sind also auch in Prüfungen erlaubt?
Daniel Kaltofen: Im Prinzip schon, aber sicher nicht im Sinne von Copy and Paste. Das Prüfungsgeschehen dient dem Nachweis der persönlichen Kompetenzen und folgt dem Grundsatz der Eigenständigkeit. Wenn der Einsatz von KI-Tools zur Vorbereitung als ein neuer Weg der Auseinandersetzung mit den prüfungsrelevanten Materialien zu soliden Wissensgewinnen beigetragen hat, ist dagegen wenig einzuwenden. ChatGPT zu bedienen ersetzt aber weder die erforderliche wissenschaftlich-kritische Quellen- und Literaturarbeit noch den eigenen Wissensaufbau.
Tobias Keller: KI kann durchaus ein hilfreiches Tool für die Bearbeitung von Prüfungsthemen sein, etwa bei Hausarbeiten. So, wie Studierende heute das Internet ganz selbstverständlich und vollkommen legal für ihre Literaturrecherche nutzen, so können zukünftig auch KI-Anwendungen die Auseinandersetzung mit Prüfungsinhalten fördern. Oberstes Gebot bleibt die Transparenz. Alle verwendeten Quellen zur Erstellung einer wissenschaftlichen Arbeit müssen vom Autor der Arbeit angegeben werden. Dieses Transparenzgebot wird von uns im Rahmen von Prüfungsleistungen eingefordert und gilt selbstverständlich auch für die Nutzung von KI.
Was wird sich ändern – und was darf sich nicht ändern?
Tobias Keller: Auch zukünftig werden wir Studierende an unserer Hochschule zum selbständigen kritischen Denken befähigen. Das darf und wird sich nicht ändern. Diese Kompetenz müssen sie dann in den Modulprüfungen unter Beweis stellen. Wir fördern Eigenleistungen und fordern diese dann eben auch in den Prüfungen ein.
Ändern wird sich, dass Prüfungskriterien, die eine stärkere Eigenleistung der Studierenden belegen, weil sie nicht durch KI erbracht werden können, höher gewichtet werden als Kriterien, die weniger Eigenleistung verlangen. Eine starke Eigenleistung ist beispielsweise in der Bearbeitung von stark kreativen Aufgaben mit einem hohen Neuigkeitsgehalt gefordert. Für den Transfer von vorhandenem Wissen auf neue Themengebiete oder die Sammlung und Auswertung eigener Daten und Informationen ist KI ebenso (noch) nicht sehr hilfreich.