Fake News, Ki und Deep Fakes – Workshop am Schmeller Gymnasium

Am Mittwoch, den 31. Januar nahmen die Schüler*innen des Schmeller Gymnasiums an einem Workshop des BayernLab teil. Frau Anja Plonner und Herr Stefan Schnurrer klärten die Siebtklässler zu den Themen Fake News, Künstliche Intelligenz und Deep Fakes auf.

Die Medienschulung begann mit einer Folie, auf der Albert Einstein gezeigt wurde. Dieser sagte angeblich: Das Dumme an Zitaten aus dem Internet ist, dass man nie weiß, von wem sie stammen. Dass dies keinesfalls ein Statement von ihm sein konnte, erkannten die Schüler*innen natürlich sofort.

Fake News, so Plonner, sind falsche Nachrichten in Text-, Video- oder Bildform und damit unbewiesene Behauptungen, gezielte Desinformation oder schlichtweg manipulative Lügen. Ihr Ziel ist es, Stimmung für oder gegen eine Sache, eine Person oder Bevölkerungsgruppe zu machen und sie verbreiten sich leider über die sozialen Medien deutlich schneller als wahre Informationen. Dadurch dass sie die öffentliche Meinung beeinflussen, können sie zur Gefahr für die Gesellschaft und die Demokratie werden.

Im weiteren Verlauf stießen die Jugendlichen durchaus auf Schwierigkeiten, Fake News von richtigen Informationen, Werbung, Satire, persönlichen Meinungen oder schlechtem Journalismus zu unterscheiden. Ihnen wurden Webseiten gezeigt und sie mussten auf ihrem Smartphone mit dem Umfragetool Mentimeter abstimmen, in welche Kategorie die von der Referentin gezeigte Folie fiel. Danach wurde jeweils besprochen, wie man erkennen kann, um welche Art von Beitrag es sich handelt. So werden in Fake News häufig Großschreibungen und Ausrufezeichen verwendet, der Stil ist meist emotional und die Überschriften werden reißerisch formuliert. Außerdem enthalten sie keine Quellenangabe, die Informationen werden aus dem Zusammenhang gerissen und häufig werden auch alte Bilder in gegenwärtige Kontexte transferiert. Man sollte also immer hinterfragen und nachprüfen, wenn man im Netz auf zweifelhafte Inhalte stößt. Bei einer Webseite kann man beispielsweise das Impressum helfen, Ort, Datum der Veröffentlichung können aufschlussreich sein oder man kann sich bei kostenlosen Faktencheckern im Internet Auskünfte einholen. Bei Bildern kann die Rückwärtssuche bei Google Bilder zu Rate gezogen werden oder auch ein Check der Foto-Metadaten ist empfehlenswert. Auch hier bekamen die Jugendlichen interessantes Material zu sehen. Wenn beispielsweise nur ein Bildausschnitt von einer mäßig besuchten Veranstaltung gezeigt wird, suggeriert man dem Betrachter, dass eine Menschenmasse anwesend war. Außerdem können Fotos durch veränderte Lichtverhältnisse oder falsche Perspektiven zu Fake News werden. Ein Beispiel hierfür war ein Bild von Prinz William, der von vorne gesehen drei Finger hochhielt, um die Geburt seines dritten Kindes zu signalisieren. Von der Seite fotografiert, hatte es den Anschein, als zeige er den Journalisten den Mittelfinger.

Die nächste Frage der Referentin an die Schüler lautete: Was macht ihr, wenn ihr, ohne es zu wissen, eine Falschinformationen über WhatsApp weitergeleitet habt und erst später bemerkt habt, dass es sich um Fake News handelte? Die Jugendlichen meinten zu Recht, dass man dem Empfänger und dem Absender Bescheid geben und die Nachricht melden sollte. Da auf Social-Media-Plattformen keine redaktionelle Prüfung stattfindet und keine Konten angegeben werden müssen, tummeln sich die Fake News förmlich auf TikTok & Co. Außerdem sind die Nutzer von sozialen Netzwerken so genannten Filterblasen ausgesetzt. Das heißt, dass die Informationen, die jemand bekommt, vorher mit Hilfe von Algorithmen ausgesiebt werden. Man kriegt nur das zu sehen, was einen vermeintlich interessiert und wird dadurch immer mehr bestärkt. Dies kann ebenfalls gefährlich sein, wenn sich jemand in eine bedenkliche Richtung bewegt und dadurch permanent in seiner Meinung bestätigt wird.

Den zweiten Teil der Veranstaltung bestritt Stefan Schnurrer und stieg ganz Old School mit der Definition von Künstlicher Intelligenz ein: KI ist die Fähigkeit einer Maschine , menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. Hierbei seien die Grenzen natürlich schwammig. Der Referent betonte, dass die Anfänge der KI bereits in den 1960er liegen. Auf KI basierende Filter sind auf jedem Smartphone zu finden, beispielsweise bei der Gesichtserkennung, Fokuseinstellung, Schärferegulierung und der automatischen Voreinstellung zum Verjüngen oder Verschönern einer Porträtaufnahme. Man begegnet also der KI also tagtäglich.

Im weiteren Verlauf des Workshops wurde den Schüler*innen erklärt, wie man die künstliche Intelligenz trainiert. Mittels der kostenlosen Internetseite „teachable machine“ wurden Trainingsdaten per Web Cam übermittelt, sodass sich die KI ein Muster für den Daumen nach oben und den Daumen nach unten suchen konnte. Das funktionierte so weit einwandfrei, doch als der Referent im Hintergrund zu sehen war, war sich die KI nicht mehr sicher, um welche Handbewegung es sich handelte. Man muss also einer KI alle möglichen Situationen antrainieren und sie muss häufig getestet werden.

KI wird auch zur Lokalisierung genutzt, was den Jugendlichen am Beispiel von GeoGuessr gezeigt wurde. Bei der Erkennung des Standorts von bekannten Sehenswürdigkeiten schnitt die KI gut ab, Landschaften u.Ä. konnte sie weniger gut oder gar nicht verorten.

Natürlich wurde auch die den Jugendlichen durchaus bekannte generative KI ChatGPT erörtert. Doch der Referent warnte davor, dass sich die von ihr produzierten Texte häufig nur gut anhörten, also schön formuliert seien, aber inhaltlich absolut nicht stimmen müssten. Die angegeben Quellen sind häufig falsch oder nicht auffindbar. Wer also seine Hausaufgaben von ChatGPT erledigen lässt, ist nicht unbedingt gut beraten.

Der letzte Teil des Workshops hatte so genannte Deep Fakes zum Thema. Deep Fakes sind Fotos, Videos oder Audio-Dateien, die mit Hilfe von Künstlicher Intelligenz vorsätzlich verändert werden. Man sieht oder hört Personen, die Sachen tun oder sagen, die diese in Wahrheit gar nie getan oder gesagt haben. Es handelt sich um eine Zusammensetzung aus den Wörtern „Deep Learning“ (Methode, durch die die KI lernt) und „Fake“. Bis vor wenigen Jahren konnte man noch einigermaßen gut erkennen, ob ein Foto echt oder unecht war und die Schüler bekamen auch je zwei Fotos gezeigt: eines von einer realen Person und eines von einer künstlich generierten. Tatsächlich lagen sie aber auch hier teilweise daneben. Heute kann man die Realität von der Fiktion nur noch sehr schwer unterscheiden und man muss wirklich genau hinsehen. Zudem werden die Fotos in Sekundenschnelle generiert, was Schnurrer mit der „aus Text mach Bild“-Methode zeigte, indem er die KI mit dem Befehl drei Hunde mit Hut zu zeigen, fütterte. Es war auf die Schnelle kein perfektes Foto, aber man kann jederzeit nachbessern. Natürlich haben Deep Fakes auch positive Seiten, wenn man beispielsweise an die Stimme von Hans Clarin denkt, die bei den neuen Pumuckl-Verfilmungen künstlich generiert wird. Aber die Gefahren und Probleme überwiegen. So könnten zum Beispiel künftige Enkeltricks tatsächlich mittels der geklonten Stimme des richtigen Enkels am Telefon durchgeführt werden.

Text und Fotos: OStRin Dr. Nadine Kilgert-Bartonek