Von außen sieht die Bochumer Schiller-Schule aus wie viele andere im Land. Auf dem Pausenhof des Gymnasiums stehen betongraue Tischtennisplatten, das Gebäude ist aus rotem Backstein. Den Unterricht, der in seinem Inneren stattfindet, dürfte man aber nicht so häufig finden.
Wie in dieser Deutschstunde einer sechsten Klasse Anfang des Schuljahres: Die Schüler sollen einen Unfallbericht schreiben. Lehrer Eike Völker könnte jetzt einfach Arbeitsblätter mit Zeugenaussagen verteilen. Doch er hat einen Umweg eingebaut. Um an Augenzeugenberichte zu kommen, müssen seine Schüler einen Chatbot um Hilfe bitten. „Ich bin sehr gespannt“, sagt Völker vor der Stunde. „Was rauskommt, ist eine totale Blackbox.“ Wenn alles klappt, lernen seine Sechstklässler dabei mehr Kompetenzen, als der Lehrplan vorsieht.
Wer KI nutzen will, muss die richtigen Befehle geben
„Okay, habt ihr verstanden, was ihr tun müsst?“, fragt Völker seine Klasse. Eifriges Nicken. Die Schüler benötigen drei Zeugenaussagen zu einem Unfall, bei dem ein Auto und ein Fahrrad beteiligt waren und niemand ernsthaft verletzt worden ist. Es ist das erste Mal, dass sie im Unterricht einen Chatbot mit Informationen füttern. Was die künstliche Intelligenz macht und kann, wissen sie aber längst. „Wer kann mir erklären, was ein Prompt ist?“, fragt Völker sicherheitshalber. Fünf, sechs Hände schießen in die Höhe. „Ein Befehl für den Chatbot“, antwortet eine Schülerin. „Und warum ist der wichtig?“, hakt Völker nach. „Damit der Chatbot weiß, was er machen soll“, sagt ein Schüler. Der Lehrer nickt zufrieden. „Dann an die Arbeit. Ohne einen guten Prompt können wir nicht weitermachen.“
Spätestens seit der Chatbot ChatGPT frei zugänglich ist, kommen Schulen nicht mehr am Thema KI vorbei. Schnell hat sich rumgesprochen, dass der Textgenerator auf die Fragestellungen von Hausaufgaben Antworten geben und ganze Aufsätze schreiben kann. Doch wie Schulen mit solchen Programmen umgehen sollen, ist umstritten – erst recht, seitdem in Hamburg ein Schüler beim Schummeln mit der KI während einer Abiturprüfung erwischt worden ist. Die Debatte erinnert an die Einführung von Taschenrechnern vor einigen Jahrzehnten. Damals gab es Befürchtungen, dass die Schüler das Rechnen auf dem Papier und das Kopfrechnen verlernen könnten. Programme wie ChatGPT, fürchten Eltern und Lehrer heute, könnten die Kreativität oder die Fähigkeit des selbstständigen Lernens mindern.
Die zuständigen Bildungsministerien der Bundesländer tun sich schwer mit einer klaren Position. Verbieten wollen sie den Einsatz von künstlicher Intelligenz im Unterricht nicht. Im Gegenteil. Sie sehen in KI eine Chance. Entsprechende Tools könnten lernschwachen Schülern beim Formulieren helfen oder Aufgaben auf das Niveau des einzelnen Schülers zuschneiden. Doch viel mehr als Appelle, sich nicht vor der neuen Technik zu verschließen, muten die Ministerien ihrem Personal bisher nicht zu.
Aus gutem Grund. Es liegt an der Bereitschaft der einzelnen Lehrkräfte, ob sie KI-Tools im Unterricht behandeln – und daran, wie gut die digitale Ausstattung der jeweiligen Schule ist. Deshalb dürfte es noch dauern, bis KI flächendeckend zum Einsatz kommt, vermutet die Bildungswissenschaftlerin Katharina Scheiter. „Es gibt natürlich Leuchttürme. Aber gleichzeitig gibt es Schulen, an denen Lehrkräfte noch nie von ChatGPT gehört haben.“
Bis heute gibt es an vielen Universitäten keine Pflicht, Kurse zu digitalem Lernen zu belegen
Die Professorin für Digitale Bildung an der Universität Potsdam beobachtet seit Jahren, wie schwer sich viele Lehrkräfte mit dem Einsatz von digitalen Medien tun. Das liege auch an der Ausbildung, so Scheiter. Bis heute gebe es an vielen Unis keine Pflicht, Kurse zu digitalem Lernen zu belegen. Von ihren eigenen Fortbildungskursen und Uni-Seminaren weiß sie, wie verbreitet die Skepsis gegenüber KI-Tools ist – selbst bei der kommenden Lehrergeneration. Aus ihrer Sicht wäre es aber wichtig, dass sich Lehrkräfte mit ChatGPT & Co. befassen: „Die Jugendlichen kommen so oder so damit in Berührung“, so Scheiter. „Deshalb ist es besser, die neue Technik von Anfang an zu begleiten.“ Dafür müsse das Kollegium aber vorbereitet sein. Dazu gehört, dass sich die Schule um den Datenschutz, passende Unterrichtsmaterialien und die nötige Hardware kümmert.
Die Bochumer Schiller-Schule hat diese Themen früh angepackt. Seit 2015 setzt das Gymnasium voll auf digitalen Unterricht. Alle Lehrkräfte und Schüler arbeiten mit Tablets. Neue Kollegen werden im Umgang mit Tools und Technik geschult, jeder neue Schüler bekommt einen Medienpaten aus einer höheren Klasse zur Seite gestellt. In schulinternen Workshops werden neue Programme eingeübt – seit ein, zwei Jahren auch verstärkt KI-Tools wie Übersetzungsprogramme oder Chatroboter. In der achten Klasse wird aktuell in Mathe ein Programm getestet, das die Aufgaben automatisch an die Stärken und Schwächen jedes einzelnen Schülers anpasst. Den Lehrern kann das bei der Einschätzung des Lernfortschritts helfen und damit auch bei der Notenvergabe.
Um Lizenzen und Datenschutz kümmert sich die Schule selbst. „Wir haben sogar einen Datenschutzbeauftragten“, sagt Deutschlehrer Eike Völker, der seit vier Jahren auch stellvertretender Schulleiter der Schiller-Schule ist. „Bei jedem Tool, das wir nutzen, muss klar sein, wohin die Daten gehen.“ Für die unbedenkliche Nutzung von ChatGPT in seiner Deutschstunde etwa hilft ihm ein Programm, das ihm eine Firma testweise zur Verfügung stellt; es verhindert, dass sich die Schüler bei ChatGPT anmelden müssen und somit Daten auf Servern im Ausland landen.
Mehr zum Thema KI
Alle sprechen über Künstliche Intelligenz, aber woher nimmt ChatGPT eigentlich sein Wissen, helfen Algorithmen beim Flirten und könnten sie mal mächtiger werden als der Mensch? Hier geht's zum fluter-Special!
Neben dem alltäglichen Unterricht gibt es noch besondere KI-Projekte, erzählt Völker. So haben Fünftklässler im vergangenen Schuljahr ein Märchen mithilfe einer Programmiersprache visualisiert und interaktiv so gestaltet, dass sie die Handlung selbst beeinflussen können. Mit dabei waren Justus und Emilia. Ihre Eltern seien schon ein bisschen beeindruckt gewesen, erzählen sie. „Die Schule ist cooler, wenn wir solche Projekte machen“, sagt Justus. Auch Emilia findet „Unterricht mit KI besser als ohne“.
Und in der Oberstufe hat der Informatikkurs ein neuronales System geschaffen – also ein KI-System, das sich andauernd selbst analysiert und dabei stetig dazulernt. Mit Kameras und 3-D-Tracking haben die Schiller-Schüler Wasserflöhe – winzige Krebse – gefilmt und aus deren Bewegungsabfolgen einen Algorithmus entwickelt. Mit diesen Informationen „lernen“ die Punkte des neuronalen Systems, sich wie die gefilmten Wasserflöhe zu verhalten.
Wenn die Zehntklässlerin Deborah über das Projekt spricht, gerät sie ins Schwärmen. „Das Tolle ist, dass wir für unser neuronales System Daten von echten Tieren verwenden.“ Deborah kann sich vorstellen, so etwas später auch beruflich zu machen. „Es fasziniert mich, biologische Prozesse mithilfe von KI sichtbar zu machen“, sagt sie. Dennoch sieht die 15-Jährige auch die Grenzen von KI. „In meiner Klasse nutzen manche ChatGPT für Hausaufgaben. Aber wir merken, dass die KI auch Fehler macht.“ Dass viele Lehrkräfte an ihrer Schule mit KI-Tools experimentieren, findet Deborah aber gut. „So lernen wir, auf die Gefahren zu achten.“
Auch die Nachteile von ChatGPT werden behandelt
KI-Experten warnen schon länger, dass sich Programme wie ChatGPT oder KI-Bildgeneratoren bestens für die Verbreitung von Fake News und Propaganda missbrauchen lassen. An der Schiller-Schule in Bochum ist die kritische Reflexion deshalb ein zentraler Bestandteil des digitalen Unterrichts. Eike Völker sieht seine Schüler und Schülerinnen gut gerüstet: „Auch in der fünften Klasse wissen bei uns alle, dass sie in den sozialen Medien keine Fotos oder Adressen hochladen sollen.“ Datenschutz und digitale Sicherheit nähmen sie im Kollegium sehr ernst. „Das Wunderbare an KI-Tools ist: Sie eignen sich sehr gut, um über Onlinequellen und Faktenchecken zu sprechen.“
Das schärft Völker auch seiner Deutschklasse ein. Am Ende der Stunde haben die Sechstklässler verschiedene Prompts formuliert und mit ihrer Hilfe KI-generierte Zeugenaussagen erhalten. „Habt ihr überprüft, ob die Zeugenaussagen zusammenpassen?“ Haben sie. Die Zeugenaussagen widersprechen sich, hat eine Schülerin bemerkt. Ein Junge berichtet, dass die Straßennamen nicht übereinstimmen. Woanders hat ChatGPT kein Datum mitgeliefert. „Ihr seht, ihr dürft ChatGPT nicht trauen“, ruft Völker. Dann gibt er die Hausaufgabe auf. Auf Grundlage der Zeugenaussagen sollen die Schüler nun einen Unfallbericht schreiben – ohne weitere Hilfe der KI.
Illustration: Verena Mack