Faszinierend und zugleich erschreckend
Künstliche Intelligenz (KI) beflügelt viele und verspricht große Erleichterungen im gesamten Hochschulbetrieb. Noch probieren viele Hochschulen aus, wie und wo sie KI sinnvoll einsetzen können. Doch gleichzeitig gilt es auch, kritisch auf die neuen Tools und Technologien zu schauen. Natürliche und Künstliche Intelligenz unterscheiden sich nämlich ganz wesentlich
Künstliche Intelligenz war die längste Zeit ein spannendes, aber wenig sichtbares Forschungsfeld. Das hat sich in den letzten Jahren geändert. Nun liefert die KI mächtige Werkzeuge und ihre Anwendung erschüttert in vielen Bereichen bereits etablierte Routinen – auch in den Hochschulen. KI-gestützte Verfahren verändern Forschung und Lehre, Prüfungswesen und Verwaltung. Sie machen neue Forschungsfragen, neue Methoden und Arbeitsfelder möglich und versprechen, die Forschung insgesamt zu beschleunigen, in der Medizin ebenso wie in den Natur-, den Sozial- und den Geisteswissenschaften. KI-gestützte Verfahren können helfen, Planungs- und Verwaltungsprozesse zu beschleunigen und teilweise zu automatisieren, man kann sie etwa verwenden, um Unterlagen auf Vollständigkeit zu prüfen oder den Einkauf für die Mensa zu optimieren. Man kann mit ihrer Hilfe Texte bewerten, aber auch eigene Leistungen vortäuschen, wo tatsächlich nur die Ausgabe eines Chatbots kopiert wurde. Viele Verfahren aus dem Werkzeugkasten der KI-Forschung haben zudem Eigenheiten, die man nicht außer Acht lassen kann, um die wichtigste Aufgabe zu meistern, vor die die Künstliche Intelligenz uns derzeit stellt: ihre Fähigkeiten zu prüfen und zu entscheiden, wo welche ihrer Verfahren zum Einsatz kommen sollen, um die natürliche Intelligenz bestmöglich zu unterstützen.
Die Frage nach sinnvollen Einsatzmöglichkeiten stellt sich bei jeder neuen Technologie, bei der Künstlichen Intelligenz scheint sie jedoch besonders schwer zu beantworten zu sein. Weil wir unweigerlich durch die Brille all der Science-Fiction, die wir gelesen oder gesehen haben, auf die neuen Bots und Algorithmen schauen. Und weil wir dazu neigen, sie zu vermenschlichen. Damit überschätzen wir ihre Fähigkeiten in manchen Bereichen und unterschätzen sie in anderen. Deshalb ist es wichtig, erst einmal zu verstehen, womit wir es eigentlich zu tun haben.
Künstliche Intelligenz ist kein neues Phänomen. Die grundlegenden Ideen für die Techniken, die den heutigen Systemen zugrunde liegen, wurden im letzten Jahrhundert entwickelt, die ersten bereits in den 1940er- und 1950er-Jahren. Heute spricht man gerne von der Künstlichen Intelligenz und meint damit Verfahren des maschinellen Lernens, wie sie in den bekannten großen Sprachmodellen, den Chatbots und Bildgeneratoren eingesetzt werden. Tatsächlich haben wir es nicht mit einer bestimmten Technik, nicht mit einem bestimmten Verfahren zu tun, sondern mit einer ganzen Reihe verschiedener Ansätze, die immer wieder neu kombiniert und weiterentwickelt werden.
Vor allem zwei Ansätze prägen die Geschichte der KI-Forschung seit ihren Anfängen: die wissensbasierten oder symbolischen und die lernenden oder subsymbolischen Verfahren. Mal hatten die einen und mal die anderen die Nase vorn, heute weiß man, dass beide ihre inhärenten Stärken und Schwächen haben, und bemüht sich, beide Ansätze zu verbinden, um ihre Stärken zu nutzen und ihre Schwächen auszugleichen.
Künstliche versus natürliche Intelligenz
Die wissensbasierten Verfahren — zu Beginn nannte man sie Expertensysteme, heute spricht man eher von Wissensgraphen — beruhen im Kern darauf, Wissen, das Menschen über die Welt gewonnen haben, gut sortiert in einer Art Datenbank zu erfassen. Dabei kann es sich um medizinisches oder juristisches Wissen handeln, um Wissen über Produktionsprozesse in Unternehmen oder etwa das Reisekostenrecht eines Bundeslandes. Hinzu kommt eine „reasoning engine“, ein Programmteil, der logische Schlüsse aus dem vorhandenen Wissen ziehen kann – auch so komplexe Schlüsse, dass Menschen sie nur mit Mühe nachvollziehen können. Der Vorteil dieser Systeme: Die Antworten, die sie geben, sind zuverlässig – vorausgesetzt natürlich, man hat ihnen keine falschen Daten einprogrammiert. Schon in den 1970er-Jahren hatten Forschende wissensbasierte Systeme entwickelt, die Medizinerinnen und Medizinern bei der Diagnose von Infektionen helfen konnten.
Diese Programme haben allerdings auch ihre Nachteile: Sie zu erstellen ist aufwendig und teuer, denn das Wissen muss beschafft, eingegeben und immer wieder aktualisiert werden. Zudem können wir längst nicht alles, was wir wissen, in Sätze fassen. Wie etwa bringen Sie es fertig, ein bekanntes Gesicht in einer Menschenmenge zu erkennen?
Hier kommt das maschinelle Lernen, insbesondere das maschinelle Lernen mit künstlichen neuronalen Netzen, ins Spiel. Diese, ganz im Groben der neuronalen Aktivität des Gehirns nachempfundenen Systeme, werden nicht Satz für Satz programmiert, sondern bekommen Beispielaufgaben und Rückmeldungen über die Qualität ihrer Lösungen. Wie biologische Neuronen ihre Verbindungen verändern, können die künstlichen neuronalen Netze ihre Einstellungen anhand dieser Rückmeldungen so lange zurechtrütteln, bis sie eine Aufgabe zufriedenstellend lösen. So können sie Fähigkeiten erlernen, von denen wir gar nicht wissen, wie wir sie zuwege bringen. Diese Verfahren liegen den Chatbots und Bildgeneratoren zugrunde, die gerade so viel von sich reden machen. Mit ausreichend Daten trainiert, können sie lernen, Fragen zu beantworten, Texte zusammenzufassen, eigene Texte zu verfassen, Computercode zu generieren, Bilder oder Videos zu erstellen und vieles mehr.
Doch auch diese Systeme haben ihre Probleme, die immer deutlicher werden, je häufiger sie zum Einsatz kommen. Sie sind abhängig von riesigen Mengen immer wieder aktualisierter Trainingsdaten, sie nehmen die Einseitigkeiten, die in diesen Datenbeständen enthalten sein können, auf und verstärken sie, man kann nicht recht nachvollziehen, wie sie zu ihren Ergebnissen kommen, und sie neigen zu „Halluzinationen“. Das heißt: Sie geben die wahrscheinlichste Antwort auf eine Ausgangsfrage, aber nicht unbedingt die richtige. So erfinden sie bisweilen nicht nur Aussagen, sondern auch die Quellen dazu, samt Autorennamen, Aufsatztiteln und DOIs. Und das bedeutet: Ohne andauernde menschliche Korrektur und Nachhilfe können Unternehmen diese Systeme gar nicht veröffentlichen; man kann sie nur bei Themen verwenden, von denen man genug versteht, um die Ergebnisse beurteilen zu können; und in sicherheitskritischen Bereichen haben sie gar nichts verloren.
Hybride Verfahren sollen nun die Vorteile beider Ansätze, der wissensbasierten und der lernenden, kombinieren und ihre Nachteile minimieren. Dabei könnten die lernenden Verfahren zum Beispiel verwendet werden, um in natürlicher Sprache formulierte Anfragen an eine Datenbank entgegenzunehmen und für die Datenbank umzuformulieren und deren wissensbasierte Antwort wiederum wohlformuliert auszugeben. Das wäre nicht die Superintelligenz, die uns versprochen (oder auch angedroht) wurde, aber es wäre immerhin eine Art, komfortabel und zuverlässig mit großen Datenbeständen umzugehen, für die sich in Hochschulen zahlreiche Verwendungsmöglichkeiten vorstellen lassen.
Hochschulen nutzen KI ganz unterschiedlich
Quer zu der Unterscheidung von lernenden und wissensbasierten Verfahren hat sich die zwischen analytischer und generativer KI etabliert. Analytische Systeme suchen Muster in Datenmengen und schätzen deren Entwicklung in der Zukunft ab. Generative Systeme erstellen selbst Texte, Bilder und andere Daten. Die generativen Systeme finden derzeit die meiste Aufmerksamkeit. Vor allem im Bereich der Optimierung sind aber oft die analytischen Verfahren das Mittel der Wahl, sei es zur Bereinigung von Forschungsdaten oder zur Optimierung des Einkaufs.
Die aktuelle Situation ist also eher unübersichtlich: Gerade in den Hochschulen kommen unter dem Namen „KI“ längst ganz unterschiedliche Dinge in ganz unterschiedlichen Zusammenhängen zum Einsatz. Kaum noch aus dem Alltag wegzudenken sind Helferlein wie Übersetzungsprogramme und solche, die Texte verbessern. Auch wenn man diese nicht unkritisch nutzen sollte, sparen sie viel Zeit und sind, insbesondere wenn Texte in einer anderen als der Muttersprache abgefasst werden sollen, sehr hilfreich. In der Forschung sind es Programme wie Transcribus, das bei der Transkription von Handschriften hilft, oder AlphaFold, das die dreidimensionale Struktur von Proteinen abschätzen kann. In allen Disziplinen stellt sich derzeit die Frage, welche Programme wo verwendet werden können, um die Forschung voranzubringen. Materialwissenschaft, Teilchenphysik und Molekularbiologie werden diese Frage anders beantworten als Philosophie und Geschichtswissenschaft, aber alle werden sich zu ihr verhalten müssen.
Für alle Disziplinen geht es darum, mit dem allgegenwärtigen Übermaß an Informationen zurechtzukommen, ohne die Übersicht zu verlieren. Hier tun sich neue Fragen auf, die forschungspraktisch ebenso spannend sind wie erkenntnistheoretisch: Verstehen die Forscherinnen und Forscher eigentlich noch, wie sie zu ihren Ergebnissen kommen? Welche Rolle bleibt der natürlichen Intelligenz, wenn die künstliche in der Lage ist, Forschungsfragen zu identifizieren und auch gleich zu bearbeiten? Verhelfen die „klugen“ Programme wirklich zu besseren Ergebnissen und wissenschaftlichen Durchbrüchen oder beschleunigen sie vor allem das Rennen um die meisten Publikationen?
KI-Ausstattung kostet viel Geld
Der aktuelle Boom der Künstlichen Intelligenz hat Auswirkungen auf die technischen Kenntnisse, die von Verwaltungsmitarbeitenden ebenso erwartet werden wie von Forscherinnen und Forschern, und er erhöht die Anforderungen an die IT-Ausstattung der Fakultäten. An vielen Hochschulen stellt man sich derzeit zudem die gleichen Fragen: Können Chatbots wirklich in der Lehre helfen, etwa mit individualisierten Angeboten? Sind die Zusammenfassungen von Forschungsarbeiten, die generative Systeme liefern, verlässlich genug? Können „kluge“ Datenbanken neuen Kolleginnen und Kollegen den Einstieg in die Universitätsverwaltung erleichtern? Ist allen, die damit arbeiten, klar, womit sie es zu tun haben und was die Stärken und Schwächen der Systeme sind?
Wie sind die Verantwortlichkeiten geregelt, wenn jemand vom Votum eines Algorithmus abweicht und einen Fehler macht? Oder dem Ergebnis des Algorithmus folgt und das Ergebnis ist falsch? Wie begegnet man Ängsten von Mitarbeiterinnen und Mitarbeitern, die neuen Programme nicht meistern zu können oder gar von ihnen ersetzt zu werden? Und wie sollen Studierende sie verwenden? Was sind sinnvolle Prüfungen, wenn man davon ausgehen muss, nicht sicher feststellen zu können, ob ein Text von einem Programm generiert worden ist oder nicht? Wie vermeidet man die absurde Situation, dass Studierende Arbeiten mithilfe generativer KI erstellen, die Lehrende dann von ebensolcher bewerten lassen?
Es ist die Zeit des Ausprobierens, des Prüfens und Überdenkens. Wie die natürliche Intelligenz die künstliche am besten nutzen kann, ist noch längst nicht geklärt. Vielleicht ist es aber gar nicht schlecht, dass die KI-Systeme uns nun zwingen, etablierte und lange nicht hinterfragte Strukturen auf den Prüfstand zu stellen und uns zu fragen, worauf es uns eigentlich ankommt, beim Lehren und Forschen, beim Prüfen und Verwalten und beim täglichen Miteinander. Wichtig ist: Auch wenn sie noch so kluge Antworten geben, wir haben es nicht mit künstlichen Kollegen zu tun, sondern mit Werkzeugen, bei denen es sorgfältig zu entscheiden gilt, wo sie zum Einsatz kommen können und sollen. //
Bild: KI-generiert für das Ausstellungsprojekt "New Realities", Museum für Kommunikation Nürnberg und Berlin
DUZ Magazin 11/2024 vom 15.11.2024