• 2 minutes 47 seconds
    dl058: macht's gut

    Willkommen zu unserer letzten sehr kurzen Folge beim datenleben-Podcast. Nach 57 Folgen, stöpseln wir das Mikro aus. Mit dieser Folge wollen wir deswegen einfach nur danke sagen, und uns verabschieden – damit dieser Podcastfeed nicht einfach nur abrupt endet. Als Data Science Podcast haben wir uns immer gern damit befasst, wie der Umgang mit Daten, Einfluss auf unser Leben und die Welt um uns herum hat. Wir hoffen, dass unsere Folgen weiterhin Menschen erreichen und die Grundgedanken hinter unseren Themen vermitteln können. Ausserdem wird es auch nicht gar keinen Content mehr geben, wie Helena kurz erzählt.

    Links

    Schlagworte zur Folge

    Data Science, Podcast, Abschied

    Macht's gut

    Helena: Willkommen zu unserer letzten, sehr kurzen Folge beim Datenleben Podcast. Wir sind Helena

    Janine: und Janine

    Helena: und haben euch 57 Folgen lang in die Welt der Daten mitgenommen.

    Janine: Und in dieser Folge wollen wir im Wesentlichen nur Danke sagen und uns einmal verabschieden.

    Helena: Ja, auf absehbare Zeit werden wir hier keine Folgen mehr veröffentlichen. Und deswegen dachten wir, veröffentlichen wir diese kurze Folge, damit der Podcast-Feed nicht so verwahrlost aussieht, wo dann irgendwie seit langem keine Folge mehr veröffentlicht wurde und keiner weiß, warum.

    Janine: Als Data Science Podcast haben wir uns ja immer gern damit befasst, wie der Umgang mit Daten funktioniert, wie sie Einfluss auf unser Leben und die Welt um uns herum haben, zum Beispiel wie Daten eben unsere Handlungen oder unsere Wahrnehmung beeinflussen können, wie sie auf Entscheidungen wirken oder wie der Umgang mit Daten ganz konkret unsere Gesellschaft gestaltet, in der wir leben. Viele der Themen hatten zwar auch sehr aktuelle Aufhänger jeweils, aber haben oft einen bestimmten Kern gehabt, der weiter relevant bleiben wird. Es sind ja alles vor allem Beispiele für die grundsätzliche Art, wie Daten unser Leben beeinflussen. Und deswegen werden diese Folgen in dem Sinne auch gar nicht veralten. Empfehlt unseren Podcast ruhig gerne trotzdem weiter, wenn ihr in unseren Folgen eben Themen findet, die für andere vielleicht von Interesse sein könnten, aber neue wird es eben leider nicht mehr geben.

    Helena: Dafür werde ich mich mehr auf die Tutorials konzentrieren, die wir seit einiger Zeit auf YouTube veröffentlichen. Die werden auch weiterhin auf unserem YouTube-Kanal zu finden sein. Und ja, also wenn ihr mehr über Datenvisualisierung mit ggplot wissen wollt, dann kommt dort doch gerne vorbei und abonniert den Kanal und wahrscheinlich werden die Tutorials auch noch in andere Richtungen weitergehen.

    Janine: Ja, und damit bleibt nach fast fünf Jahren dann nur noch zu sagen, vielen Dank, dass ihr uns gehört habt, für euer Feedback und eure Themenvorschläge und überhaupt für euer Interesse.

    Helena: Ja, vielen Dank für die Aufmerksamkeit und auch vielen Dank dafür, dass ihr uns die 57 Folgen lang zugehört habt. Also bis vielleicht auf YouTube. Ciao!

    Janine: Tschüss!

    15 March 2025, 11:00 am
  • 38 minutes 40 seconds
    dl057: was sind neuronale netze?

    Wir haben der Frage gewidmet: Was sind neuronale netze? Wo hat das eigentlich angefangen? Wir beginnen mit dem Blick darauf, was eigentlich ein Neuron ist und wie ab den 1940er Jahren damit experimentiert wurde, elektronische Neuronen herzustellen. Das war nämlich der Ausgangspunkt dafür, dass um 1960 herum das Perzeptron orgestellt werden konnte - ein einfaches neuronales netz. Es geht darum, in wie fern das eine wichtige grundlage für die heutigen neuronalen Netze war.

    Links und Quellen

    Schlagworte zur Folge

    Neuronale Netze, Maschine Learning, Perceptron, Backpropagation, Deep Learning

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zur 57. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten euch in die Welt der Daten mitnehmen. In unserer Welt wird es immer wichtiger, Daten in das große Ganze einzuordnen. Deswegen wollen wir Data Science anhand von Themen erklären, die uns alle betreffen.

    Thema der Folge (00:00:38)

    Janine: Genau, und was uns vor allem alle betrifft, sind neuronale Netze, denn sie sind gewissermaßen überall. Und wir dachten uns, wir stellen nochmal die Frage, was sind sie und vor allem, woher kommen sie? Diese Folge wird nochmal etwas technischer, weil, ja, wir fragen uns eben, was sind neuronale Netze? Dafür müssen ein paar Grundlagen erklärt werden. Und ganz am Anfang natürlich aber auch die Frage, was ist eigentlich ein Neuron? Und ja, dann setzen wir damit an, wie ab den 1940er Jahren damit experimentiert wurde, elektronische Neuronen herzustellen. Das war nämlich der Ausgangspunkt dafür, dass so um 1960 herum das Perzeptron vorgestellt werden konnte, ein einfaches neuronales Netz. Und inwiefern das eine wichtige Grundlage für die heutigen neuronalen Netze war, darum geht es heute.

    Warum ist das Thema wichtig? (00:01:30)

    Helena: Genau, und wir finden das Thema wichtig, weil letztlich sämtliche modernen KI-Systeme, die uns so umgeben, darauf basieren. Und darum, ja, wollen wir jetzt den neuronalen Netzen heute mal eine ganze Folge widmen.

    Einspieler: Der Sand in den Getrieben der neuronalen Netze (00:01:46)

    Janine: Der Sand in den Getrieben der neuronalen Netze. Manchmal, wenn ich über die sogenannte künstliche Intelligenz nachdenke, muss ich an den Sandmann denken. Diese Novelle von E.T.A. Hoffmann wurde 1816 veröffentlicht. Darin wird erzählt, wie Nathanael von einem Alchemisten und einem Professor hinters Licht geführt wird, indem sie bewirken, dass er sich in Olimpia, eine mechanische Puppe, verliebt. Auf alle Gäste des Abends wirkt die musizierende und singende Olimpia merkwürdig leblos und unheimlich, auf Nathanael wirkt sie jedoch ganz anders, nachdem er sie durch ein präpariertes Opernglas betrachtet. Selbst als er sie zum Tanz auffordert, wirkt der Einfluss auf ihn fort, ihre zunächst eiskalte Hand erscheint ihm plötzlich, als würde ein Puls darin anfangen zu schlagen. Auch das Gespräch mit ihr genießt er, selbst wenn seine Angebetete nichts anderes antwortet als immer wieder "Ach, ach, ach". Den Spott, den die anderen Gäste für Olimpia überhaben, ignoriert er, doch sein Freund Sigmund versucht offen mit ihm zu reden.

    "Wunderlich ist es doch, dass viele von uns über Olimpia ziemlich gleich urteilen. Sie ist uns, nimm es nicht übel, Bruder, auf seltsame Weise starr und seelenlos erschienen. Ihr Wuchs es regelmäßig, so wie ihr Gesicht, das ist wahr. Sie könnte für schön gelten, wenn ihr Blick nicht so ganz ohne Lebensstrahl, ich möchte sagen, ohne Sehkraft wäre. Ihr Schritt ist sonderbar abgemessen, jede Bewegung scheint durch den Gang eines aufgezogenen Räderwerks bedingt. Ihr Spiel, ihr Singen hat den unangenehmen, richtigen, geistlosen Takt der singenden Maschine und ebenso ihr Tanz. Uns ist diese Olimpia ganz unheimlich geworden, wir mochten nichts mit ihr zu schaffen haben, es war uns als tue sie nur so wie ein lebendiges Wesen, und doch habe es mit ihr eine eigene Bewandtnis." Nathanael gab sich dem bitteren Gefühl, das ihn bei diesen Worten Siegmunds ergreifen wollte, durchaus nicht hin, er wurde Herr seines Unmuts und sagte bloß sehr ernst: "Wohl mag euch, ihr kalten prosaischen Menschen, Olimpia unheimlich sein. Nur dem poetischen Gemüt entfaltet sich das gleich Organisierte, nur mir ging ihr Liebesblick auf und durchstrahlte Sinn und Gedanken. Nur in Olimpias Liebe finde ich mein Selbst wieder, euch mag es nicht recht sein, dass sie nicht in platter Konversation faselt wie die anderen flachen Gemüter, sie spricht wenig Worte, das ist wahr, aber diese wenigen Worte erscheinen als echte Hieroglyphe der inneren Welt, voll Liebe und hoher Erkenntnis des geistigen Lebens in der Anschauung des ewigen Jenseits. Doch für alles das habt ihr keinen Sinn und alles sind verlorene Worte."

    Manchmal, wenn ich über die sogenannte künstliche Intelligenz nachdenke, muss ich an den Sandmann denken.

    Was ist ein Neuron? (00:04:47)

    Helena: Ja und um zu erklären, was neuronale Netze sind, beschäftigen wir uns jetzt erstmal mit der Frage, was ist eigentlich ein Neuron, so ganz allgemein gesprochen. Also unser Gehirn besteht aus vielen Milliarden Nervenzellen und diese Nervenzellen werden auch Neuronen genannt. Dabei, ja, nehmen die Nervenzellen über Nervenbahnen Erregungen anderer Zellen auf und leiten diese dann oft auch weiter. Und diese Erregungen werden vor allen Dingen über elektrische Signale übertragen, aber auch über chemische Botenstoffe. Diese chemischen Botenstoffe kennt man vielleicht auch unter dem Namen Neurotransmitter. Und dadurch kommen eben Informationen zwischen Neuronen ja an andere Orte und man kann sich dabei vorstellen, so ein elektrisches Signal ist schneller als so ein chemischer Botenstoff. Die haben dann eben etwas andere Funktionen. Und pro Neuron gibt es dann etwas mehr als 1000 Verbindungen zu anderen Neuronen. Das ist schon ganz schön viel. Und diese Verbindungen werden auch, und diese Bahnen werden dann eben als Synapsen bezeichnet. Das sind dann quasi auch die Nervenbahnen sozusagen. Das Besondere jetzt an so einem Gehirn ist, das ist in der Lage die Synapsen- und Nervenzellen ja immer wieder anzupassen, um eben neue Dinge zu lernen und sich an neue Gegebenheiten anzupassen. Also das menschliche Gehirn lernt, während es benutzt wird. Und um zu lernen, hat mal jemand die sogenannte Hebbsche Lernregel aufgestellt, die dann besagt, dass wenn ein Neuron besonders oft ein anderes Neuron anregt, dann passen sich die Synapsen dahingehend an, dass dieses zweite Neuron auch leichter anzuregen ist von dem ersten. Das heißt, das Signal wird quasi verstärkt, wenn das viel benutzt wird. Und man kann sich jetzt vorstellen, wenn man diese Lernregel zugrunde legt, dann erklärt es auch, warum wir Dinge üben müssen. Weil dadurch, dass man, wenn man eine neue Fähigkeit lernen möchte, dann ist ja der Klassiker, man muss die wiederholen, wiederholen, wiederholen. Und dabei geht es eben darum, um das zu machen, die nötigen Neuronen und die Synapsen zu verbessern quasi, also die Verbindung zu verbessern, sodass es einem leichter fällt. Das ist eigentlich auch ganz gut zu wissen. Also Lernen bei Menschen funktioniert durch Wiederholen und so funktioniert eben das menschliche Gehirn auch.

    Janine: Und das bis ins hohe Alter, wie man inzwischen weiß. Wo man früher noch so ein bisschen gedacht hat, das menschliche Gehirn entwickelt sich und irgendwann ist man erwachsen und dann ist es fertig, ist eigentlich inzwischen auch klar geworden, dass man bis ins hohe Alter alles Mögliche eigentlich lernen kann.

    Helena: Ja, ich meine, klar, wir kennen vielleicht alle Menschen, die etwas älter sind, die vergesslicher werden, aber sie erinnern sich ja dann doch schon auch an Dinge, die sie noch erleben. Das würde ja nicht gehen, wenn das Gehirn nicht mehr lernen könnte. Weil sich an Dinge zu erinnern ist ja trotzdem, ja, ein Prozess des Lernens.

    Was war das elektronische Neuron? (00:07:49)

    Janine: Und was die Menschen irgendwann mal besonders interessiert hat zu lernen, ist, wie die Welt um sie herum funktioniert. Und deswegen haben sie vieles beobachtet, auseinandergenommen und in die kleinsten Teile hin untersucht, um die Funktionsweise zu verstehen oder bestimmte Aspekte der Natur vielleicht nachzuahmen. Und dabei sind sie eben wirklich bis in die feinsten Strukturen gegangen, wie eben zum Beispiel auch die Neuronen. Und da begann es Anfang der 1940er Jahre, dass vor allem die Idee verfolgt wurde, selbst ein elektronisches Neuron herzustellen. Und ja, darum geht es jetzt um diese elektronischen Neuronen der, naja, 1940er Jahre.

    Helena: Genau, in den 1940er Jahren, ja, das ist quasi kurz nachdem von Alan Turing über Berechenbarkeit und so weiter Computer theoretisch beschrieben wurden und er dann eben die These aufgestellt hat, dass Computer in der Lage sind, alles zu berechnen, solange sie bestimmte Grundfähigkeiten haben. Und deswegen hat man sich dann gedacht, okay, man hatte zu dem Zeitpunkt ja noch nicht so wirklich Computer, es gab nur erste Prototypen, aber dieses Berechnungssystem, könnte man nicht Neuronen von Menschen so nachbilden, dass man beweisen kann, dass das menschliche Gehirn in der Lage ist, im Prinzip alles zu berechnen. So, da ging es noch gar nicht unbedingt darum, das Gehirn an sich nachzubauen, sondern die einzelnen Neuronen zu modellieren, mit dem Ziel nachzuweisen, dass das menschliche Gehirn eben alles berechnen kann, nach den Regeln von Turing. Und das, was dazu gebaut wurde, war das sogenannte McCulloch-Pitts-Modell und hierbei wurden Neuronen folgendermaßen angenommen, dass die folgende elektrische Eigenschaften eben haben. Also ein einzelnes Neuron hatte dann mehrere Eingänge, wo dann Signale wie 1 oder 0 rein können, weil wir sind hier in einem Computersystem, also es soll ja quasi ein Computer nachbauen. Und abhängig von den Eingangswerten soll das Neuron dann 1 oder 0 ausgeben können. Dabei gab es eben einzelne Eingänge, die quasi verstärkend gewirkt haben und dann einzelne, die abschwächend gewirkt haben. Also wenn jetzt in einem bestimmten Eingang eine 1 war, dann hat es die Wahrscheinlichkeit erhöht, dass man eine 0 rauskriegt und in dem anderen Fall bei anderen Neuronen, wenn dann eine 1 ankam, wurde eher eine 1 wieder ausgegeben und das hat man über sogenannte Schwellwert-Gatter implementiert, deren quasi Ziel es ist, wenn so und so viele Einsen gekommen sind, dann wird auch eine 1 ausgegeben. Und durch die abschwächenden Eingänge wird quasi dann, wenn da eine 1 reinkommt, das wieder abgezogen. Und wenn man jetzt sagt, man hat 10 Eingänge, davon sind 5 additiv und 5 subtraktiv und man hat dann irgendwie 4 Einsen bei den additiven und 2 Einsen bei den subtraktiven, da hat man den Wert 2 und wenn jetzt der Schwellwert von diesem Neuron 3 ist, dann gibt man eine 0 aus. Wenn der Schwellwert aber eine 1 oder 2 gewesen wäre, dann würde man eben eine 1 ausgeben. Und das, was man mit dieser Art von Neuronen dann machen konnte, ist Aussagenlogik betreiben. Also wenn ja quasi eine Aussage wahr ist und dann eine 1 geschickt hat an das Neuron und eine andere Aussage auch wahr war, dann konnte man eben die Unverknüpfung damit machen, aber eben auch andere Sachen wie exklusives "oder" zum Beispiel. Das heißt, wenn eine Aussage 1 ist oder eine andere Aussage 1, dann kann nur 1 rauskommen, wenn nur 1 von beiden 1 ist. Wenn beides 1 oder 0 ist, dann würde das, wenn beides 1 ist, kommt 0 raus, nur wenn 1 1 ist 0. Das wird uns später nochmal betreffen. Also ein "oder" ist ja, wenn es reicht, wenn ein Eingang 1 ist, das wäre quasi Schwellwert von 1. Das exklusive "oder" ist ein bisschen komplizierter. Man hat aber auch sowas wie "nicht". Also wenn jetzt, dass man umkehrt, dazu muss man dann eben, ja, das, was da rauskommt, eben umdrehen können. Aber hier war eben das Ziel nachzuweisen, ja, wenn man jetzt sagt, Neuronen, menschliche Neuronen funktionieren auch ungefähr so, dann hat man damit bewiesen, ja, mit menschlichen Neuronen kann man jetzt quasi beliebige Computer bauen. Das hat man jetzt so nicht weitergemacht, sondern das Ziel war jetzt eher, dass man versucht hat, in Computern menschliche Neuronen oder das Gehirn nachzubauen.

    Perceptron – Wie sah das erste neuronale Netz aus? (00:12:25)

    Helena: Und das erste elektronische neuronale Netz, was dann veröffentlicht wurde, war das sogenannte Perzeptron. Das Perzeptron wurde 1958 eingeführt und ist ein einfaches neuronales Netz und es hat eben Eingangswerte und für jeden Eingangswert gibt es dann noch zusätzlich so Gewichtungswerte, die dann sagen, ja, wie wichtig ist dieser Eingang. Also diese Gewichtungswerte stellen quasi die Synapsen dar, weil wir vorhin hatten bei der hübschen Lernregel, ja, wenn die Synapsen besonders oft benutzt werden, dann kommen da Werte besonders gut durch und das würde man bei diesem Gewichtungswert eben dadurch darstellen, dass der Wert dann höher wird, wenn dann diese Verbindung eben wichtiger ist. Und dann hat man auch hier eben eine Schwellwertfunktion, also man hat alle Eingangswerte, alle Eingangswerte werden dann eben, also die können dann wieder 0 oder 1 sein, werden dann eben mit den Gewichtungen multipliziert und dann alle addiert und dann hat man für alle Eingangswerte eine Zahl und dann gibt es wieder diese Schwellwertfunktion, also wenn diese Zahl größer ist als ein bestimmter Schwellwert, die dann eben auch spezifisch für diese Neuronen sind, dann gibt es eine 1 aus und wenn der Schwellwert eben nicht erreicht wird, dann eine 0. Der Unterschied hier ist jetzt zum einen, dass man gleich ein ganzes Netz aus mehreren Neuronen hat, aber auch, dass es nur diese additiven Eingänge gibt. Es gibt nicht die subtraktiven Eingänge wie in dem McCulloch-Pitts-Modell. Das liegt auch daran, dass das, also das McCulloch-Pitts-Modell ist etwas, was man elektronisch relativ leicht nachbauen kann mit Transistoren und so weiter, aber das Perzeptron selber sollte eher auch in Software laufen und da funktioniert es halt einfacher, wenn alle Eingänge sich ungefähr gleich verhalten. Deswegen hat man ja nur noch diese additiven Werte gehabt. Gut, in seiner Standardausführung besteht jetzt so ein Netz eben aus Inputneuronen, das können dann mehrere sein, die dann jeweils Eingangswerte haben. Dann gibt es noch eine Mittelebene, das sind dann die Neuronen, an die die Werte übergeben werden und im Fall von Perzeptron hat man die Gewichtungswerte hier zufällig generiert und dann hat man ein oder mehrere Outputneuronen, deren Ausgabe dann das Ergebnis ist. Also wenn man jetzt zum Beispiel sagt, man möchte Handschrifterkennung machen von Zahlen, was so eine ganz klassische Aufgabe der KI-Forschung war seit den, ja ich glaube 80er Jahren, bis das dann irgendwann mal gelöst wurde, aber das hat mehrere Jahrzehnte gedauert, dann hätte man zum Beispiel 10 Outputneuronen und je nachdem, welches davon dann eine 1 ausgibt, das entspricht dann eben einer Ziffer, die erkannt wurde. Eine Besonderheit von Perzeptron im Gegensatz zu den McCulloch-Pitts-Neuronen, die dann ja im Prinzip dazu da sind, Computer nachzubauen, können die Perzeptronen eben trainiert werden. Und Training heißt dann, dass die Gewichtungswerte auf der Outputseite des Netzwerkes sich verändern können. Ja, im Prinzip gibt man dann Eingangsdaten in dieses neuronale Netz rein und guckt dann, was eben rausgekommen ist und dann weiß man, was rauskommen soll und guckt dann, ja wie hätte man die Gewichtung der Ausgabeneuronen ändern müssen, damit auch das Ergebnis stimmt.

    Janine: Das heißt, es wird manuell eingegriffen einmal?

    Helena: Naja, man hat Trainingsdaten. Also das manuelle Eingreifen ist letztlich einfach ein Algorithmus, mit dem man ja guckt, welche Werte hätten das Ergebnis gehabt und dann macht man das ganz oft für verschiedene Eingangs- und Ausgangswerte und vergleicht dann diese Werte, die diese Ergebnisse hätten produzieren sollen und verändert dann die Gewichtungswerte graduell. Und zwar immer in die Richtung, in der man denkt, das wird dann richtiger sozusagen. Also man berechnet einen sogenannten Gradienten, das ist dann eben eine Steigung, die man in verschiedenen dimensionalen Räumen machen kann. Und man möchte quasi immer versuchen, den steilsten Abstieg zu nehmen, um möglichst wenig Trainingsrunden zu brauchen und dann geht man eben runter, bis man das Minimum erreicht hat und ab wo es dann nicht mehr besser wird.

    Janine: Mhm.

    Helena: Wichtig bei den Perzeptron-Modellen ist eben, dass nur die letzte Schicht trainiert wird und die können aber mehrere Schichten haben, da sind dann eben Zufallszahlen drin. Und letztlich fängt man bei jedem neuronalen Netz immer mit Zufallszahlen an, mit denen man das gewichtet, wenn man noch nicht trainiert hat und trainiert dann eben die entsprechenden Werte. Was jetzt ein Problem vom Standardperzeptron war, ist, dass die klassische Aussagenlogik damit nicht umsetzbar gewesen ist, weil man das exklusive "oder" nicht erzeugen konnte, weil man ja nur die additiven Eingänge hat und nicht irgendwie in der Lage war, Ausschlüsse zu generieren. Was eben auch daran liegt, bei einem Netz könnte man ja Ausschlüsse dadurch erzeugen, dass man in bestimmte Richtungen die Verbindungen abschwächt und in andere verstärkt, aber um das zu erreichen, müsste man die Mittelebene trainieren. Wenn man nur die letzte Ebene trainiert, kann man das exklusive "oder" eben nicht darstellen. Ja, das hat dann eben längerfristig die neuronalen Netzerforschung des Perzeptrons eingeschränkt, dass man festgestellt hat, ja, bestimmte Dinge lassen sich damit nicht abbilden. Und wie gesagt, die Lösung ist dann eben, dass man zwischen Eingabeneuron und Ausgabeneuron noch eine Mittelebene braucht, aber man kann die eben erstmal nicht trainieren mit dem, was man Anfang der 1980er Jahre an Perzeptron generiert hat.

    Janine: Und was war dann der nächste Schritt, um da weiterzukommen?

    Helena: Ja, also jetzt hatte ich hier jetzt nochmal ein konkreteres Beispiel erstmal, um das Training zu erklären, bevor wir dann in den nächsten Schritt kommen.

    Janine: Ja, sehr gut.

    Wie sieht das Training aus? (00:18:39)

    Helena: Gut, wir hatten jetzt gerade einmal kurz das Training angesprochen, jetzt möchte ich dann auch einmal ein bisschen besser drauf eingehen. Also, wie trainiert man so ein Perzeptron-Netz? Das geht mit überwachtem Lernen, das heißt, man hat Eingangsdaten und weiß, was die sind. Das heißt, man kann Eingangsdaten reingeben und immer beim Ergebnis gucken, war das richtig oder nicht. Und am Anfang initialisiert man eben alle Gewichtungen mit Zufallszahlen, wie gesagt, und dann wendet man einfach das neuronale Netz auf die Daten an und guckt, ob die Vorhersage stimmt. So, der dritte Schritt ist dann, man guckt, ob das erwartete Ergebnis vorausgesagt wurde oder nicht. Mathematisch wird dann eine Zahl berechnet, wie groß der Fehler ist, also wie stark die Vorhersage vom Zielwert abweicht und wenn man eben ausrechnen kann, wie groß ein Fehler ist, kann man eben diesen Gradienten auch berechnen, weil wenn man jetzt, keine Ahnung, 100 Daten hat, an denen man trainiert, kann man dann gucken, ja, für welche Daten ist denn das Ergebnis besonders schlecht und an der Stelle würde man eben stärker in die Richtung gehen, dass das korrigiert wird. Dann definiert man noch eine Lernrate, zum Beispiel 0,01 und damit berechnet man das neue Gewicht aus dem Fehler, indem man eben die Fehler für alle Trainingseinheiten benutzt und dann mit 0,01 trainiert, weil man möchte ja auch nicht zu schnell immer hin und her pendeln. Wenn man einfach mal den Fehlerwert nehmen würde, könnte man ja dann für manche Sachen die Vorhersage korrigieren und für andere wieder falsch machen und das würde dann hin und her pendeln. Aber deswegen will man eben iterativ vorgehen und zwar langsam in kleinen Schritten und deswegen eben eine Lernrate von zum Beispiel 0,01.

    Janine: Also gewissermaßen eine bedachte Annäherung an das, was man dann möchte, damit man überhaupt weiter vergleichen kann, wie entwickelt sich das gerade?

    Helena: Ja, und das Ganze wird dann auch als Gradientenabstiegsverfahren genannt, was so ein Standardalgorithmus in vielen Bereichen der Informatik ist, wenn man Dinge numerisch berechnen möchte. Ja, und dann wiederholt man eben die Schritte 2 bis 4, bis das Ergebnis zufriedenstellend ist. Also zufriedenstellend, man definiert das dann entweder durch eine bestimmte Rate, also Qualität von den Ergebnissen oder an einer Maximalanzahl an Werten. So, und wenn man einmal das Training für alle Trainingsdaten einmal gemacht hat und für alle Gewichtungen ebenfalls, dann wird das Ganze als Epoche bezeichnet. Also wenn man jetzt irgendwie so ein neuronales Netz trainiert, dann sieht man, ja, es passiert gerade viel Training und dann kann einem das Programm zum Beispiel sagen, ja, jetzt habe ich eine Epoche trainiert und eine Epoche heißt dann, dass jeder Trainingsdatensatz einmal durchgelaufen ist. Hierzu kann man ja immer noch sagen, bei Perzeptronen kann nur die letzte Ebene der Neuronen trainiert werden.

    Janine: Ja, und da wir uns ja alle schon eine Weile mit allem rund um KI, neuronalen Netzen und Maschinenlearning beschäftigen, gezwungenermaßen, weil es so weit in den Alltag reinreicht, können wir ja vielleicht nochmal den Begriff verwenden, den du auch aufgeschrieben, aber ich glaube noch gar nicht gesagt hast. Das, was bei den Perzeptronen passiert, ist das, was wir als überwachtes Lernen bezeichnen.

    Helena: Ja, genau. Das ist überwachtes Lernen und überwachtes Lernen heißt immer, dass man ein gewünschtes Ergebnis kennt. Also das heißt, man hat Eingangsdaten, die man da reinführt hat und man weiß immer, man hat diese gelabelt, diese Eingangsdaten und das Label ist dann das Ergebnis. Und überwachtes Lernen hat natürlich immer den Nachteil, dass man prinzipbedingt weniger Daten hat, die korrekt gelabelt sind.

    Janine: Also so überspitzt übertragen auf eine Alltagssituation könnte ich mir jetzt vorstellen, dass es auch so ein bisschen so ist, wie wenn man einem Hund oder einer Katze oder etwas einem Trick beibringt. Man weiß, wie Sitz oder Rolle aussehen soll und hat das Bild im Kopf und versucht nun das Tier so lange zu trainieren, bis es tatsächlich das gewünschte Ergebnis liefert.

    Helena: Genau und dann gibt man dem Tier halt das Leckerli, wenn es das richtig gemacht hat.

    Janine: Ja und das ist dann gewissermaßen die richtige Gewichtung.

    Helena: Ja.

    Janine: Ja, also das klingt auf jeden Fall alles mit den Eingangsdaten und dem Trainieren von Daten und den Netzen ja schon relativ vertraut mit dem ganzen Vokabular, das uns ja schon jetzt ein paar Jahre begleitet. Aber von der Leistungsfähigkeit her ist das, was jetzt Helena bei den Perzeptronen beschrieben hat, noch weit weg von dem, mit dem wir heute arbeiten. Eben mit dieser Einschränkung auch, es wird nur die letzte Ebene trainiert und es gibt noch wichtige Entwicklungsschritte, die dafür nötig waren, zu dem Punkt zu kommen, an dem wir heute sind. Welche sind das denn noch, Helena?

    Was ist Backpropagation und Deep Learning? (00:23:46)

    Helena: Ja, der erste wichtige Entwicklungsschritt ist, weil wir schon so sehr darauf rumgeritten sind, dass nur die letzte Ebene trainiert wird, dass man alle Ebenen trainieren können will und das wurde 86 eben veröffentlicht in Form des Algorithmus der Backpropagation. Also man kann im Prinzip sagen, wenn man Eingangswerte in so ein neuronales Netz reinpackt, dann hat man die erste Ebene, wo die verarbeitet werden und dann die zweite Ebene, wo die verarbeitet werden und dann, keine Ahnung, mehrere Ebenen und dann die letzte Ebene und dann den Ausgang und das Ganze wird dann eben als Forward Propagation bezeichnet, also die Daten wandern vorwärts durch das neuronale Netz. Und man möchte ja, wenn man das Ergebnis hat, dann auch die Trainingswerte, also die Gewichtung auf allen Ebenen anpassen und dann muss man eben den berechneten Fehler rückwärts wieder durch das Netzwerk ausbreiten und das ist dann die Backpropagation. Also wir erklären jetzt nicht, wie der Algorithmus funktioniert. Wenn man das Netz jetzt mehrere Schichten tief lernen lässt, also quasi die Tiefe ist die Menge der Schichten, die man trainiert, dann bezeichnet man das Ganze auch als Deep Learning. Ja, im Prinzip seit es Backpropagation gibt, hat man noch nicht unbedingt auch immer Deep Learning gemacht, weil das Problem ist, dass sehr viel Rechenleistung verbraucht ist, insbesondere das Deep Learning und man kann sagen, gut, der Algorithmus existiert seit 86, aber die Hardware, mit der man dann ausreichend große neuronale Netze trainieren kann, existiert erst seit Ende der 2000er Jahre und dabei geht es nicht nur um die Hardware, sondern eben auch darum, dass die Software zur Verfügung steht, denn bei der Hardware handelt es sich um Grafikkarten. Und naja, Grafikkarten wurden halt immer schneller und konnten immer besser Grafik berechnen, weil Computerspiele eben ein Milliardenmarkt geworden sind und man daher durch Entwicklung von Grafikkarten, ja, hat sich eben gelohnt, da sehr viel Geld reinzustecken und weil eben so ein Bildschirm sehr viele Pixel hat, ist es bei Grafikkarten eben auch wichtig, dass sehr viele Dinge parallel gerechnet werden können, damit man schneller den Bildschirminhalt wechseln kann. Da geht es dann gar nicht immer um die Genauigkeit der Berechnung, sondern nur darum, möglichst viel parallel zu machen. Allerdings hatten Grafikkarten natürlich einen sehr eingeschränkten Nutzungsbereich, also Grafikkarten wurden dann eben über Grafikbibliotheken programmiert, die dann nur Grafikfunktionen unterstützt haben, bis dann eben, ja, Mitte der 2000er eine Firma namens Nvidia, die kennt man vielleicht, auf die Idee gekommen ist, ja, es gibt jetzt nur Grafikbibliotheken, die unsere Grafikkarten nutzen, aber eigentlich wäre es doch auch nicht schlecht, diese große Parallelrechenkapazität auch für andere Anwendungen zur Verfügung zu stellen, weshalb sie dann eben, ja, eine Plattform namens CUDA zur Verfügung gestellt haben, was eine Programmierschnittstelle ist, über die man eben das Ganze programmieren kann, und zwar nicht nur für Grafik, sondern für alle möglichen Dinge. Dabei ist jetzt noch nicht unbedingt, ja, im Fokus gewesen, dass es jetzt auf jeden Fall mit Machine Learning und neuronalen Netzen weitergeht, sondern eben auch um andere Formen von Datenanalysen. Aber dadurch, dass man dann eben diese Grafikkarten und diese parallelen Rechenmaschinen gut programmieren konnte, hat sich dann eben gezeigt, dass man jetzt in der Lage ist, auch größere neuronale Netze zu trainieren. Weshalb dann so ab 2012 rum sich der Begriff Deep Learning für alles, was mit neuronalen Netzen auf Grafikkarten zu tun hat, durchgesetzt hat, weil es jetzt plötzlich möglich war, das einfach zu machen. Ja, das ist der Weg bis zum Deep Learning, aber das ist jetzt ja auch schon wieder ein paar Jahre her. Also 2012 war so das Jahr, wo gezeigt wurde und klar wurde, ja, das funktioniert jetzt erstaunlich gut, weil neuronale Netze eben die Eigenschaft haben, sehr viel besser zu werden in dem Moment, wo sie auch sehr viel größer werden. Also wenn sie sehr klein sind, dann können sie nicht so viel, sondern die Skalierung ist hier wichtig.

    Was macht die heutigen Transformer und Reasoning Modelle aus? (00:28:23)

    Helena: Gut, dann kommen wir schon zu den heutigen Modellen. Also was ich jetzt bisher erklärt hatte mit den Perzeptronen, ist, das sind dann eben neuronale Netze, die in eine Richtung funktionieren. Und das ist lange Zeit bei neuronalen Netzen Standard gewesen, dass es Ebenen gibt, die nacheinander ausgeführt werden. Und das wurde dann eben geändert durch die Transformer-Modelle, bei denen auch zirkuläre Strukturen existieren, wo dann eben einzelne Bereiche mehrfach ausgeführt werden mit leicht veränderten Daten.

    Janine: Darüber haben wir ja tatsächlich auch schon in anderen Folgen geredet, zum Beispiel über Whisper, wo es um Transkriptionen ging. Ja, das ist auf jeden Fall da ein bisschen genauer noch erklärt, als wir jetzt wahrscheinlich hier darauf eingehen.

    Helena: Genau, oder eben in der chatGPT-Folge, wo wir auch den Attention-Mechanismus, der eben iterativ durch sein Netz durchgeht und Wörter miteinander in Bezug setzt. Das Ganze läuft eben zirkulär ab und irgendwann kommt dann eben die Vorhersage, welches Wort denn jetzt als nächstes kommen soll. Das Ganze wird dann fortgeführt auch in sogenannten Reasoning-Modellen, also Modellen, die in der Lage sind, nicht einfach nur Text vorherzusagen, sondern auch sozusagen nachzudenken. Und ein bekanntes Beispiel davon ist jetzt vor kurzem sehr in den Medien gewesen, nämlich das Deep-Seek-Modell. Letztlich ist das auch ein Transformer, der zirkulär arbeitet mit den Eingangsdaten. Und dessen Aufgabe soll aber erst mal sein, Fakten aufzulisten, die relevant sind für die Aufgabe und dann eben Zwischenschritte zu generieren. Das heißt, man hat in diesem Fall nicht nur innerhalb vom neuronalen Netz zirkuläre Strukturen, sondern das Ganze soll selber Schritt für Schritt auf die richtige Lösung kommen, mit dem Ziel, dass man da auch komplexere Fragen mit beantworten kann, als chatGPT das in seiner ersten Version konnte. Also bei chatGPT, wenn man das O1-Modell benutzt, kriegt man eben auch diese Reasoning-Funktion. Man sieht die Zwischenschritte aber nicht, die das Ding beim Denken quasi macht. Wenn man jetzt sich Deep-Seek, das kann man sich tatsächlich einfach runterladen, das Modell, und dann gehen die Anfragen auch nicht nach China, wenn man daran schickt.

    Janine: Da hängt noch eine ganze Menge mehr mit dran, auf was wir jetzt nicht eingehen. Wir bleiben da bei der technischen Seite, denke ich mal.

    Helena: Ja, jedenfalls sieht man dann eben die Zwischenschritte, die es macht, wie es quasi nachdenkt und am Ende kommt dann auch eine Antwort raus. Und das ist durchaus auch ganz interessant, insbesondere, wenn man sich auch anguckt, wie das menschliche Gehirn im Vergleich dazu funktioniert.

    Janine: Ja, es ist auf jeden Fall dadurch ein bisschen besser möglich, so stelle ich es mir zumindest vor. Ich habe jetzt noch nicht damit gearbeitet, im Gegensatz zu dir, dass die Punkte, wo Fehler passieren, nachvollziehbarer werden und da ganz anders angesetzt werden kann, um ja dann vielleicht doch noch Informationen hinzuzufügen, die das Ergebnis tatsächlich verbessern. Wie in der Argumentation mit einem Menschen eigentlich, wenn jemand etwas erklärt und ich habe den Gedankengang vor mir, was oft passiert, wenn man mit Menschen redet, weil sie manchmal einfach sprechend denken, dann kann man an einzelnen Stellen einhaken und sagen, ich gebe dir noch mal eine Zusatzinformation, vielleicht verändert sich dann ja dein Argument.

    Helena: Ja, ich meine, gedacht ist es ja auch im Hinblick auf, man möchte irgendwie was ausrechnen und benutzt halt schriftliche Multiplikation zum Beispiel, da muss man ja auch Zwischenschritte aufschreiben. Oder man berechnet eine komplexere physikalische Aufgabe und braucht dann eben die Zwischenschritte und muss erst mal alle Formeln aufschreiben, die relevant sind, um auf eine Lösung zu kommen. Das ist, glaube ich, auch so in der Hinsicht gedacht, dass man versucht, so näher an das menschliche Denken und Arbeiten dran zu kommen.

    Janine: Ja, klingt auf jeden Fall so. Und bestimmt auch immer noch mit der Idee, irgendwann mal menschliches Bewusstsein nachzuahmen.

    Helena: Ja, das ist ja gerade ganz großes Thema, dass man ja eine generelle Artificial Intelligence, also eine allgemeine KI baut, die nicht nur, ja, keine Ahnung, Textvervollständigung kann, wie das jetzt chatGPT macht, sondern die selber denken kann. Wer weiß, wann das kommt.

    Fazit (00:33:02)

    Janine: Es hat sich jetzt sehr schön gezeigt und ich glaube, damit gehen wir so ein bisschen ins Fazit schon über.

    Helena: Ja.

    Janine: Also, hallo Fazit. Ich finde es sehr schön, dass sich tatsächlich aufgezeigt hat, wie halt immer ein Entwicklungsschritt dazu gekommen ist, der immer ein bisschen mehr reingegeben hat, um die Ergebnisse einfach zu verbessern. Also, eben angefangen mit dem elektronischen Neuron, dann das Perzeptron, das das nochmal verändert hat, wie das trainiert werden konnte und bis hin zu den neuen Algorithmen, die dann reingegeben wurde, dass das Deep Learning hinzugekommen ist und eben die Transformer-Modelle, um quasi nochmal etwas aufgreifen zu können und darauf aufbauend, dann das Ergebnis weiter zu bringen, bis hin jetzt zu diesem Reasoning-Modell. Also, es ist eigentlich tatsächlich eine sehr schön zu sehende Linie, wie sich das immer weiter verbessert hat, hin zu dem Punkt, tatsächlich irgendwie so etwas wie Denken zu simulieren.

    Helena: Ja, man kann jetzt auch noch, also ich werde jetzt auch nochmal ein bisschen Vergleiche von den modernen neuronalen Netzen zum menschlichen Gehirn anstellen. Also, das menschliche Gehirn hat viele hundert Milliarden Neuronen und jedes Neuron hat etwa tausend Verbindungen. Also, tausendmal mehr Verbindungen gibt es als Neuronen und chatGPT hat 400 Milliarden Neuronen mit 12.000 Verbindungen. Also, im Prinzip sogar mehr Verbindungen, allerdings sind die alle sehr starr, weil man immer 12.000 Neuronen auf einer Ebene hat, die dann nicht untereinander kommunizieren, sondern immer nur mit der nächsten Ebene. Das ist ein sehr großer Unterschied natürlich zum menschlichen Gehirn, wo diese tausend Verbindungen halt sehr viel dynamischer sind und dadurch eben auch deutlich flexibler ist und viel kleiner sein kann, um bessere Ergebnisse zu liefern in vielerlei Hinsicht.

    Janine: Ich stelle mir das so vor, dass dadurch quasi das assoziative Denken des Menschen da eben herkommt, dass die Strukturen und Verbindungen flexibler sind und neu entstehen können untereinander, ohne dass wir das vielleicht auch bewusst machen und dass wir Wissen übertragen können auf etwas anderes, um es in einem anderen Kontext anzuwenden.

    Helena: Ja, ich meine, das versucht man ja mit diesem Attention-Mechanismus ja auch nachzubilden, das Übertragen von Wissen.

    Janine: Ja.

    Helena: Aber ja, dadurch, dass das alles eben durch relativ kleine Computerchips berechnet werden können soll, braucht man eben diese klare Struktur, die so ein künstliches neuronales Netz hat mit den verschiedenen Ebenen hintereinander. Es ist halt viel einfacher umzusetzen technisch, als so wie das menschliche Gehirn funktioniert. Ja, also die Struktur im menschlichen Gehirn ist halt auch insofern nochmal besonders, weil es parallel zum Anwenden weiterlernt. Da haben wir ja schon gesagt, wenn bestimmte Verbindungen besonders oft benutzt werden, dann werden die besser und so lernt das menschliche Gehirn weiter, während das eben bei KI-Modellen bei neuronalen Netzen nicht so ist. Die werden einmal trainiert und dann kann man das Ergebnis wieder als Grundlage nehmen, um sie weiter zu trainieren, aber die Anwendung selber, die sogenannte Inference, da ändert sich gar nichts am Ergebnis. Also das ändert gar nichts an der Struktur des neuronalen Netzes, sondern es gibt einfach was aus und dann kann natürlich so ein Anbieter wie OpenAI daherkommen und Feedback von den Nutzern einsammeln, um dann beim nächsten Mal, wenn sie es weiter trainieren, das zu verwenden, um das Netz zu feintunen, aber das wird nicht die ganze Zeit durch die Benutzung weiter trainiert. Dann gibt es noch einen großen Unterschied, dass ein künstliches neuronales Netz eben auf Anfragen basiert. Also es arbeitet nur, wenn man Eingangsdaten aktiv da reinfüttert, während das menschliche Gehirn die ganze Zeit arbeitet. Also es ermöglicht, den Kontext besser zu behalten über einen längeren Zeitraum, aber das heißt auch, dass man ja eben Träume haben kann, die jetzt nicht direkt von äußeren Einflüssen kommen. Die können natürlich von Dingen kommen, die einem an dem Tag passiert sind oder die man für den nächsten Tag erwartet, aber diese Einflüsse passieren nicht in dem Moment des Traumes. Ja, was man vielleicht auch noch sagen sollte, ist: neuronale Netz bezeichnet auch unser Gehirn, sind auch neuronale Netze, weshalb es dann auch oft von künstlichen neuronalen Netzen die Rede ist, wenn man so moderne KI-Systeme meint, wobei man das künstlich auch oft einfach weglässt.

    Janine: Das stimmt.

    Helena: Ja, das war mein Fazit.

    Call to Action (00:37:52)

    Janine: Das war dein Fazit. Dann ja, machen wir doch mal mit dem Rest des Endes weiter. Wenn ihr unsere Folgen hören möchtet, folgt uns doch gerne auf Mastodon unter @[email protected] oder guckt auf unserer Webseite vorbei www.datenleben.de. Da könnt ihr uns auch natürlich gerne Feedback hinterlassen oder auch per Mail. Wir freuen uns immer sehr über Kommentare zu unseren Folgen. Ja, und falls euch die Arbeits- und Denkweise gefällt, könnt ihr uns auch als Data Scientist für Analysen und Projekte buchen.

    Helena: Ja, und dann bleibt mir nichts anderes als für eure Aufmerksamkeit zu danken und bis zum nächsten Mal. Ciao.

    Janine: Tschüss.

    15 February 2025, 11:00 am
  • 57 minutes 27 seconds
    dl056: jahresrückblick 2024

    Willkommen zum traditionellen Jahresrückblick – wir reflektieren das Jahr 2024 und die Themen, die uns begegnet sind. Nach einem kurzen Schnelldurchlauf durch die Nachrichten des Jahres, wird es wieder darum gehen, welche Themen wir im Podcast im Laufe des Jahres besprochen haben. Und wie immer haben wir auch wieder ein paar Themen rausgesucht, die 2024 aufgekommen sind. Einige sind auch Ergänzungen zu einiger unserer Folgen. Mit dabei: Laion Datensatz und Urheberrecht, Starlink und Radioastronomie, der Physiknobelpreis, Unwetter in 2024 und AI Act der Europäischen Union.

    Links und Quellen

    Schlagworte zur Folge

    Data Science, Podcast, Jahresrückblick, 2024, Urheberrecht, Künstliche Intelligenz, Neuronale Netze, Machine Learning, Unwetter, Klima, Klimakrise, Physik, Nobelpreis, Physiknobelpreis, Radioastronomie, Satelliten

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zur 56. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten euch mitnehmen in die Welt der Daten. Was ist Data Science? Was bedeuten die Daten für unser Leben? Woher kommen sie und wozu werden sie benutzt? Das sind alles Fragen, mit denen wir uns auseinandersetzen. Wer schon immer mehr über Daten und deren Effekte auf unser Leben wissen wollte, ist hier genau richtig.

    Thema der Folge (00:00:40)

    Janine: Und damit willkommen zum traditionellen Jahresrückblick, inzwischen unser fünfter in dieser Art. Und ja, wie gewohnt, falls ihr den schon mal gehört habt, werden wir mit einem kleinen Schnelldurchlauf durch das Jahr 2024 starten mit einer Auswahl an Dingen, die so passiert sind. Zumindest soweit, wie es bis zu diesem Tag jetzt halt schon passiert ist. Für die restlichen zwei bis drei Wochen des Jahres können wir leider noch nicht preisgeben, was passieren wird. Ja, danach reflektieren wir wieder ein bisschen unser Podcastjahr. Wir werfen nochmal einen Blick auf die Themen, die wir hatten und welche Folgen wie so ankamen bei euch, bei uns. Ja, und wollen euch auch noch kurz ein neues Format vorstellen. Und dann geht es an die eigentlichen Themen, wie immer ein bisschen related zu dem, was uns selbst interessiert, als auch zu dem, was wir wahrscheinlich dieses Jahr oder sogar auch davor schon in anderen Folgen angesprochen haben. Vielleicht kleine Ergänzungen, so als Teaser, welche Themen da auf euch zukommen heute. Ist zum einen etwas Kurzes, Rechtliches zum Laion-Datensatz. Zum Physik-Nobelpreis gibt es ein paar Worte von Helena und ich habe mir Themen rausgepickt, die sich mit Unwettern und Satelliten beschäftigen. Und zum Abschluss wollen wir dann natürlich auch wieder ein bisschen überlegen, was uns wohl im neuen Jahr erwartet. Wahrscheinlich wird das wieder nicht sehr akkurat werden oder bedeuten, das Thema KI wird immer größer. Aber mal schauen, was am Ende so passiert.

    Warum ist das Thema interessant? (00:02:19)

    Helena: Ja, wir machen einfach wieder einen Jahresrückblick, weil wir mit dieser Tradition angefangen hatten, als wir den Podcast gestartet haben. Und wir machen jetzt einfach damit weiter. Außerdem ist das eine gute Gelegenheit, um mal ein paar ergänzende Dinge auch zu alten Folgen nochmal zu sagen bzw. auch mal Themen anzuschneiden, die keine ganze Folge wert wären oder was heißt wert wären, über die wir keine ganze Folge machen.

    Einspieler: Jahresrückblick - 2024 im Schnelldurchlauf (00:02:45)

    Janine: Jahresrückblick 2024 im Schnelldurchlauf

    * 8. Januar: Die französische Premierministerin Elisabeth Borne tritt zurück. Ein Tag darauf, am 9. Januar, wird Gabriel Attal zum neuen Premierminister von Frankreich ernannt. Er ist mit 34 Jahren der bisher jüngste in diesem Amt.

    * Januar: Nie wieder ist jetzt. In Deutschland finden seit Mitte Januar zahlreiche Demonstrationen gegen Rechtsextremismus statt. Sie werden über mehrere Wochen anhalten. Am Wochenende des 20. und 21. Januars demonstrieren über 900.000 Menschen. Es wird von der größten Protestserie in der Bundesrepublik Deutschland gesprochen. Schließlich weiten sich die Proteste auch auf Städte in Österreich aus. Auslöser war die Veröffentlichung einer Recherche von Correktiv mit dem Titel "Geheimplan gegen Deutschland". Sie berichten über ein heimlich abgehaltenes Treffen von Rechtsextremisten, das im November 2023 in Potsdam stattfand.

    * 24. Januar: An der Justus-Liebig-Universität Gießen wird die Archäologin Katharina Lorenz zur Präsidentin gewählt. Sie wird damit die erste Frau an der Spitze der über 400 Jahre alten Universität.

    * 16. Februar: In New York City wird der ehemalige und inzwischen wiedergewählte US-Präsident Donald Trump wegen Finanzbedrohung zu einer Geldstrafe von über 350 Millionen Dollar verurteilt.

    * 26. Februar: Die ehemalige RAF-Terroristin Daniela Klette wird festgenommen.

    * 7. März: Schweden wird das 32. Mitglied der NATO.

    * 22. März: Im russischen Ort Krasnogorsk wird ein Konzert Ziel eines Anschlags. In der Crokos City Hall sterben über 140 Personen und mehrere hundert werden verletzt.

    * 26. März: USA In Baltimore fährt ein Containerschiff gegen die Francis Scott Key Bridge, woraufhin diese einstürzt.

    * 1. April: Deutschland. Das Cannabis-Gesetz, das Cannabis in Deutschland unter bestimmten Voraussetzungen legalisiert, tritt in Kraft.

    * 7. April: Ruanda Zum 30. Jahrestag findet ein Gedenken an den Völkermord an den Tutsis in Ruanda im Jahr 1994 statt.

    * 11. Mai: Der stärkste Sonnensturm seit 2003 trifft in der Nacht vom 10. auf den 11. Mai auf die Atmosphäre der Erde, und die davon ausgelösten Polarlichter sind weithin auch in Mitteleuropa sichtbar.

    * 28. Mai: Irland, Norwegen und Spanien geben die Anerkennung Palästinas als Staat bekannt.

    * 3. Juni: Eine Sonde der Nationalen Raumfahrtbehörde Chinas konnte Gesteinsproben auf der Mondrückseite sammeln und Richtung Erde auf den Weg bringen.

    * 21. Juni: Namibia. Ein Gesetz, das homosexuelle Handlungen zwischen Männern verbot, wird vom obersten Gericht des Landes für verfassungswidrig erklärt.

    * 28. Juni: Der vor rund 20 Jahren beliebte Instant-Messenger ICQ wird abgeschaltet.

    * 3. Juli: In der EU tritt eine neue Richtlinie in Kraft. Sie schreibt für alle Mitgliedstaaten vor, dass Deckel fest mit der Flasche verbunden sein müssen, wenn es sich um eine Kunststoffflasche handelt.

    * 13. Juli: USA Bei einer Wahlkampfveranstaltung in Pennsylvania wird ein Attentat auf Donald Trump verübt, der dabei am Ohr verletzt wird.

    * 19. Juli: Weltweite IT-Ausfälle führen zu gestrichenen Flügen, ausgefallenen Servern und PCs. Zahlreiche Unternehmen müssen ihre Beschäftigten nach Hause schicken. Ursache ist ein fehlerhaftes Update einer Sicherheitssoftware des Unternehmens CrowdStrike.

    * 1. August: Erdüberlastungstag 2024. Der 1. August ist der errechnete Tag des Jahres 2024, an dem der Verbrauch und Bedarf an Rohstoffen das übersteigt, was die Erde in diesem Jahr geben oder regenerieren kann.

    * 14. August: Die Weltgesundheitsorganisation hat aufgrund der Ausbreitung einer neuen M-Pox-Virus-Variante in Afrika eine weltweite Notlage ausgerufen.

    * 31. August: Griechenland In der griechischen Stadt Volos wurde der Notstand ausgerufen, weil mehrere Tonnen toter Süßwasserfische aus überschwemmten Gebieten durch einen kleinen Fluss in den Hafen von Volos gespült wurden.

    * 3. September: Braunschweig. Erster Prozestag am Landgericht Braunschweig gegen den ehemaligen Vorstandsvorsitzenden der Volkswagen AG Martin Winterkorn. Gegenstand des Prozesses ist der 2015 aufgedeckte Abgas-Skandal.

    * 17. und 18. September: Libanon. Zahlreiche Pager und Walkie-Talkies der Hisbollah werden zeitgleich zur Detonation gebracht. Dabei werden mehr als 3.000 Menschen verletzt.

    * 30. September: Nepal. Durch heftigen Monsunregen über mehrere Tage kommen im Gebiet Kathmandu fast 200 Menschen ums Leben.

    * 18. Oktober: Kuba. Ein landesweiter Stromausfall erzeugt einen Blackout, der über zwei Tage andauert. Es dauert insgesamt vier Tage, bis die Stromversorgung landesweit wieder einigermaßen hergestellt ist. Ursache war ein Ausfall des größten Kraftwerks des Landes.

    * 24. Oktober: Das Umweltprogramm der Vereinten Nationen veröffentlicht seinen jährlichen "Emissions Gap Report". Darin wird festgestellt, dass eine Fortsetzung des derzeitigen Verhaltens bei der Reduzierung der Treibhausgase zum katastrophalen Temperaturanstieg um bis zu 3,1 Grad Celsius führen kann.

    * 1. November: Deutschland. Das Selbstbestimmungsgesetz tritt in Kraft. Damit können Personen ihren Geschlechtseintrag und Namen beim Standesamt auf Basis einer Selbstauskunft mit Eigenversicherung ändern lassen. Dadurch entfallen sowohl eine gerichtliche Entscheidung als auch ein Sachverständigengutachten, wie es bisher vom außer Kraft gesetzten Transsexuellengesetz vorgeschrieben war.

    * 5. November: USA Donald Trump gewinnt mit 312 Wahlleuten gegen Kamala Harris mit 226 Wahlleuten die Wahlen zum nächsten Präsidenten der Vereinigten Staaten.

    * 6. November: Deutschland. Bundeskanzler Olaf Scholz entlässt Bundesfinanzminister Christian Lindner aus seiner Regierung und kündigt an, die Vertrauensfrage zu stellen. Damit zerbricht die Ampel-Koalition und das Gespräch wird schnell auf mögliche Neuwahlen gelenkt.

    * 4. Dezember: Frankreich. Die französische Nationalversammlung spricht der Regierung von Premierminister Michel Barnier das Misstrauen aus. Das Kabinett Barnier war lediglich drei Monate lang die amtierende Regierung der Französischen Republik. Die vorangegangene Regierung unter Premierminister Gabriel Attal bestand immerhin acht Monate. Am 13. Dezember wird mit François Bayrou bereits zum dritten Mal ein Premierminister Frankreichs im Jahr 2024 ernannt.

    * 8. Dezember: Syrien. Es wird gemeldet, dass der syrische Machthaber Bashar al-Assad aus dem Land geflohen ist. Der Regierungschef Mohamed al-Djalali erklärte seine Bereitschaft für eine Machtübergabe an eine durch das syrische Volk bestimmte Regierung.

    * 16. Dezember: Deutschland. Bundeskanzler Olaf Scholz stellt im Bundestag die Vertrauensfrage und verliert diese. Daraufhin schlägt er den Bundespräsidenten Dr. Frank-Walter Steinmeier vor, den Bundestag aufzulösen. Entscheidet dieser sich dafür, müssen innerhalb von 60 Tagen Neuwahlen stattfinden.

    datenleben in 2024 (00:09:54)

    Janine: 2024 ist schon gefühlt wieder länger als es eigentlich möglich ist, wenn man sich so die Punkte anguckt, was alles in diesem Jahr schon so war. Und ähnlich ging es mir auch ein bisschen beim Überlegen, welche Themen hatten wir eigentlich dieses Jahr im Podcast überhaupt. Mal schauen, was wir da so finden. Es gibt zumindest immer wieder Folgen, die mir zum Beispiel ein bisschen mehr im Kopf bleiben als andere. Und deswegen ist es immer ganz lustig zu gucken, was eigentlich noch so drumrum passiert ist. Und um jetzt nicht einfach alle Folgen aufzuzählen, die wir gemacht haben, haben wir geschaut, was bei euch am beliebtesten war anhand der Downloadzahlen. Und da haben wir zwei Kategorien, einmal die drei meistgehörten Folgen über alle Jahre und einmal die drei meistgehörten Folgen in 2024, die auch 2024 veröffentlicht wurden.

    Helena: Ja, was wäre das denn?

    Meistgehörte Folgen über alle Jahre (00:10:48)

    Janine: Über alle Jahre ist die Folge 43 Perspektiven auf Data Science an Platz 3 aktuell. Wir haben in der Folge drei Personen aus dem Bereich Data Science interviewt, um einfach mal ein bisschen die Vielfalt einzufangen, was Menschen als Data Scientists machen, wie sie dorthin gekommen sind und solche Dinge. Also ja, was interessiert oder begeistert euch am meisten an dem, was ihr tut, ist im Wesentlichen die Frage, die wir da gestellt haben und haben drei wunderbare Interviews zusammenbekommen. An Platz 2, wenig überraschend und ich glaube, auch in Folge, ist die Folge 21 gelandet, Python lernen. In der haben wir mit Piko darüber gesprochen, ja, über die Programmiersprache Python allgemein ein bisschen, aber vor allem, wie am besten der Einstieg ins Lernen von Python gelingen kann. Denn ja, Python ist eines der vielen Data Science Tools und deswegen war es auch mal sehr cool, darüber eine Folge zu machen. Und unter den All-Time Favorites, eigentlich wie immer und fast völlig logisch, ist die allererste Folge. Die wird eben einfach am meisten angeklickt. Nicht alle bleiben dann, aber ihr hattet hoffentlich alle Spaß, was ihr nie hören würdet, wenn ich das hier jetzt sage, aber egal. Ja, Folge 1, Data Science. Da geht es einfach darum, dass wir Data Science ein bisschen allgemeiner vorstellen und warum wir finden, dass das ein wichtiges Thema ist und was da alles so zugehören kann. Wir haben allerdings tatsächlich auch mal zum Zweijährigen eine Neuauflage, eine Einstiegsfolge gemacht. Das ist Folge 27, Data Science, zwei Jahre Datenleben. Da könnt ihr auch gerne mal reinhören, falls ihr weder die eine noch die andere bisher kennt.

    Helena: Ja, ich meine, die erste Folge war die erste Folge und keine Ahnung, warum ausgerechnet die so viel gehört wird, wenn, da waren wir noch nicht so eingespielt, keine Ahnung.

    Janine: Ja, aber es ist ja oft so. Es gibt zwei Arten, einen neuen Podcast kennenzulernen. Man hört die erste Folge und hört ihn danach vielleicht nie wieder oder suchtet alle Folgen durch oder man hört eine der neueren Folgen und bleibt dann dabei, hört aber nicht so viel von den älteren jemals nach.

    Helena: Ja, ich weiß nicht. Ich habe schon, wenn ich den Podcast komplett durchgehört habe, mit den aktuellen angefangen. Wenn man dann weiß, wo man hinkommt und dann zurückgeht, dann ist es irgendwie auch eher zu verzeihen, wenn dann die Qualität noch nicht so hoch ist.

    Janine: Ja, das stimmt.

    Helena: Wie später, so ging es mir zumindest. Gut, das waren ja jetzt alles drei Folgen, die schon mehr als ein Jahr alt sind, wenn auch unser Platz 3 jetzt nur gerade so etwas über ein Jahr alt ist.

    Meistgehörte Folgen 2024 (00:13:30)

    Helena: Was waren denn die meistgehörten Folgen von diesem Jahr?

    Janine: Ja, an Platz 3 ist gelandet ADHS, Häufigkeit und Diagnosen, Folge 51. Da reden wir ein bisschen über ADHS eben, Aufmerksamkeitsdefizit Hyperaktivitätsstörung, wie es ausgesprochen so schön heißt. Und ja, das ist ein Thema, das auch so ein bisschen Relevanz hat, weil es vor allem im Bereich Social Media recht viel Erwärmung findet. Und wir haben uns eben damit beschäftigt, inwiefern Diagnosen vielleicht wirklich häufiger gestellt werden, weil das immer so ein Thema ist, das da mitschwingt. Und dafür haben wir uns einfach verschiedene Studien angesehen. Und das ist tatsächlich eine auch für mich sehr spannende Folge gewesen.

    Helena: Joa.

    Janine: Auf Platz 2 ist gelandet Folge 47, Starkregen. Da haben wir uns die Frage gestellt, was ist dieser Starkregen eigentlich? Und auch so ein bisschen ausgehend davon, dass es halt tatsächlich ein Starkregenereignis im Jahr davor gab, das ich zum Beispiel persönlich mitbekommen habe. Deswegen war es mir auch irgendwie ein Anliegen, dieses Thema zu machen. Und ja, wir haben uns dann mit Starkregen-Gefahrenkarten befasst und vor allem mit der Frage, wie solche Sachen uns dabei helfen können, Risiken und Warnmeldungen einzuschätzen, die ja meist immer mit irgendwelchen Zahlen um sich werfen. Von daher war das ein ganz essentielles Thema in diesem Jahr. Und deswegen freue ich mich auch, dass es an Platz 2 gelandet ist.

    Helena: Ja, Platz 1 hat mich dann doch irgendwie überrascht.

    Janine: Ja, es ist auch sort of ein essentielles Thema, aber auf eine andere Art und Weise. Auf Platz 1 ist gelandet Folge 46, Kaffee.

    Helena: Ja, Kaffee. Da wollte ich drüber reden, weil ich mich für Kaffee interessiert habe und ein bisschen mehr wissen wollte. Und offenbar ist das auch bei euch sehr gut angekommen.

    Janine: Ja, und in der Folge geht es anfangs vor allem darum, wie sich so der Kaffeekonsum entwickelt hat, und wir enden damit, was die Klimakrise für eine Auswirkung auf den Kaffeeanbau haben könnte. Spoiler, nicht so gute, hört einfach mal rein, es ist sehr interessant.

    Helena: Ja, man sieht ja im Moment schon, dass die Kaffeepreise steigen. Mal gucken.

    Unsere Lieblingsfolgen in 2024 (00:16:07)

    Janine: Gut, das waren sozusagen eure Lieblingsfolgen, die ihr unabsichtlich gewählt habt. Und dann bleibt für diesen Abschnitt eigentlich nur noch die Frage, was waren denn so unsere Lieblingsfolgen? Helena, welche würdest du wählen aus den 2024er-Folgen?

    Helena: Ja, also bei mir ist das ganz einfach. Die Folge, die mich inhaltlich am meisten interessiert hatte, war die über die Vesuv-Challenge, bei der es darum ging, wie man 2000 Jahre alte Schriftrollen wieder lesbar machen kann. Ja, das ist ja so ein Wettbewerb, wo die Schriftrollen wurden durchgemessen, aber man kann, weil sie verkohlt sind, nicht einfach sie aufrollen und lesen. Und wir behandeln dann das Thema, wie man sie halt mit künstlicher Intelligenz wieder lesbar machen könnte. Und man hat ja auch schon durchaus im letzten Jahr die ersten Abschnitte lesbar bekommen. Dieses Jahr ist das Ziel von der Challenge, dass man auch gleich eine ganze Schriftrolle lesbar machen kann. Das ist bisher noch nicht gelungen. Ja, das fand ich auf jeden Fall ganz faszinierend und ich hoffe darauf, dass man über das, was bei dieser Challenge gelernt wird, dann in die Lage kommt, sehr viele von diesen Schriftrollen lesbar zu machen und dann Texte aus der Griechen- und Römerzeit zu bekommen, von denen man wusste, dass es sie gibt, aber die man nicht kannte. Und ich bin sehr gespannt, was da kommt. Und natürlich sind auch Texte interessant, von denen man nicht wusste, dass es sie gibt. Aber es gibt halt auch sehr viele Referenzierungen in Texten, die man kennt, auf andere, die man nicht mehr hat. Ja, ich bin gespannt.

    Janine: Ja, ich auf jeden Fall auch. Prinzipiell hätte ich diese Folge auf jeden Fall auch gewählt, weil, wie du sagst, es ist einfach ein super spannendes Thema, das so sehr weit in die Vergangenheit zurückliegende Dinge betrifft, die aber gleichzeitig eben einfach mit den modernsten Methoden wieder erschlossen werden können und rein theoretisch eigentlich als bereits verloren galten. Das ist einfach ein super interessantes Forschungsfeld und deswegen war diese Folge auch für mich sehr spannend. Um nicht die gleiche zu nennen, für mich ist es tatsächlich dann die Starkregen-Folge, weil ich finde, die hatte für mich persönlich den meisten praktischen Bezug und ich hoffe auch, dass ein paar andere Menschen auch was daraus mitgenommen haben, zum Beispiel den Umgang mit so Gefahrenkarten in Abschätzung mit dem, was so in der Warnmeldung drinsteht, wie viel Milliliter Regen in welcher Zeit fällt und so weiter. Weil ich denke, das ist ein ganz essentielles Thema, das viele Menschen noch weiter beschäftigen wird und zwar nicht nur solche, die an Flüssen leben, sondern eben auch solche, die in Städten leben, die dazu neigen, bei sehr, sehr, sehr viel Regen durchaus mal vollzulaufen.

    Janine: Gut, das war, was Datenleben so in 2024 thematisch grob ausgemacht hat.

    Neues Format - Tutorials (00:18:55)

    Janine: Aber wir haben auch wieder mit einem neuen Format herum experimentiert, das wir an dieser Stelle kurz vorstellen möchten. Helena, erzähl doch mal, was gibt es Neues?

    Helena: Ja, wir haben jetzt angefangen, man könnte sagen, Data Science Tutorials zu machen. Also genauer geht es erstmal darum, wie man Grafiken und Plots mit R erstellt. Wir hatten ja schon eine Folge über R und ggplot gemacht und im Grunde genommen geht es bei dieser YouTube-Reihe darum, einfache Plots erstmal zu erklären und wer da einen Einstieg finden möchte, kann das eben über diese Episoden tun.

    Janine: Und ich denke, der Reiz daran ist vor allem, dass es auch deutschsprachige Tutorials sind. Viele Tutorials findet man ja immer nur im englischsprachigen Bereich und manchmal ist es ja auch ganz angenehm, das vielleicht in der eigenen Sprache zu hören und nicht umzudenken oder umdenken zu müssen, gerade für Menschen, die sich mit etwas Neuem beschäftigen wollen. Und anders als unsere Podcast-Folgen fassen wir uns, beziehungsweise fasst Helena sich darin sehr kurz. Sie gehen so circa 10 Minuten.

    Helena: Ja, geht halt um kurze Einführungen in spezielle Themen, was man so plotten kann und da soll man halt auch schnell zum Punkt kommen. Also ich finde Tutorials, wo man erstmal irgendwie eine halbe Stunde gucken muss oder überspringen muss, wie jemand irgendwie ein Programm öffnet, sehr mühselig und finde es schwer, denen zu folgen. Mir ist es daher wichtig, schnell zum Thema zu kommen und nur das zu behandeln und nicht so viel drumherum.

    Janine: Absolut.

    Was nehmen wir mit aus 2024? (00:20:30)

    Janine: Ja, das war der Abschnitt zum Podcast selbst. Dann kommen wir nochmal dazu, welche Themen wir in 2024 so gefunden haben, die wir hier im Jahresrückblick nochmal ansprechen wollen. Es gibt da wieder ein paar Sachen, die eben auch Themen aus den diesjährigen Folgen oder sogar früheren Folgen aufgreifen und da gebe ich auch mal direkt an Helena ab mit dem ersten Thema.

    Laion Datensatz (00:20:53)

    Helena: Ja, wir hatten ja vor zwei Jahren eine Folge zum Thema Stable Diffusion und Bildgenerierung gemacht. Und das basierte, also das Training von diesen Modellen basierte dabei auf einem Datensatz, dem sogenannten Laion-Datensatz, der im Wesentlichen eine Liste von Links zu Bildern im Internet ist und zusätzlich zu der Link-Liste auch noch eine Liste, Auflistung der Beschreibungstexte, die zu diesen Bildern existiert. Und unsere naive Einschätzung war das, weil es wurden verschiedene, ja, juristische Schritte dagegen angekündigt. Da war unsere naive Einschätzung, dass das wahrscheinlich völlig in Ordnung ist, weil man hier keine Urheberrechtsverletzung begeht, weil man ja nur die Bilder verlinkt und das Ganze eben über das Data-Mining-Gesetz abgedeckt sein dürfte. Und das wurde jetzt auch gerichtlich bestätigt. Im Wesentlichen wurde dabei dann festgestellt, wenn Leute auf dieser Liste Bilder haben, dann müssen sie selber technisch sicherstellen, dass die dann nicht zugreifbar mehr sind. Und sie können nicht verlangen, dass sie einfach nur davon gelöscht werden oder so. Ja, da müssen wir mal gucken, wie das dann in der Praxis aussieht, wie diese technischen Maßnahmen aussehen. Ob hier überhaupt eine Robots-TXT ausreichen würde als Widerspruch, das weiß ich nicht, das stand da jetzt nicht. Eventuell muss man dann die Links auch irgendwie noch anders absichern, also die Bilder.

    Starlink und die Radioastronomie (00:22:22)

    Janine: Ja, dann mache ich mal weiter mit einem Thema, das so entfernt mit Themen zu tun hat, die wir schon mal angesprochen haben, aber sich zumindest im ... ha ha ... gleichen Kosmos bewegt. Und zwar geht es um Starlink und den Himmel über uns. Wir hatten ja durchaus das ein oder andere Weltraumthema bereits in Folgen, unter anderem auch dieses Jahr die Exoplaneten-Folge oder auch in Folge 50, meine ich, hatten wir einen kurzen Abschnitt zur Voyager-Sonde und der Reparierung, Reparatur über entfernteste Distanzen, die Maschinen, Menschen und so weiter kommunikativ zurückgelegt haben. Und Starlink hat jetzt nicht konkret was genau damit zu tun, aber ist eben auch ein spannendes Weltraumthema. Deswegen habe ich das einfach mal fröhlich mit reingenommen. Und zwar ist es so, dass es die Satelliten der zweiten Generation gibt und diese neueren Satelliten stören die Radioastronomie, also den nicht-visuellen Blick sozusagen ins Weltall, nämlich damit, dass sie 30 mal mehr und breiter verteilte Radiostörstrahlung emittieren und dadurch eben Radioastronomie gestört wird. Radioastronomie ist deswegen ganz sinnvoll, weil sie sich auf bestimmte Gebiete beim Untersuchen des Weltalls konzentriert, sowas wie die Sonne und andere Körper im Sonnensystem. Es werden damit Supernova-Reste und Pulsare untersucht, interstellare Gase und Gasnebel, sowie auch das galaktische Zentrum der Milchstraße, Quasare, Radiogalaxien und so ein Zeug. Also all die spannenden Sachen, über die wir gerne mehr Dinge erfahren wollen. Und ja, die Starlink-Satelliten haben aber jetzt eine höhere Strahlung als die der Generation davor und deswegen überlagern sie die Frequenzbereiche, in denen Radioastronomie praktiziert wird. Also die schwächeren kosmischen Radioobjekte, die es gibt, können nicht mehr gefunden werden mittels Radioastronomie, weil die Starlink-Satelliten einfach diese Objekte überstrahlen. Sie werden dadurch quasi unsichtbar. Und Forschende sprechen davon, dass die Menschheit ihr Fenster ins All verlieren könnte, weil wir kennen ja die Starlink-Problematik durchaus schon. Es sind unglaublich viele Satelliten, die den Nachthimmel erhellen können, je nachdem auch auf welcher Höhe der Orbit liegt. Und allein durch das Licht, was von ihnen abgestrahlt wird, stören sie schon die visuelle Erfassung vom Weltraum und eben jetzt aber auch vermehrt durch die Strahlung. Das Problem ist halt, dass sie reservierte Frequenzbereiche stören. Also die Radioastronomie hat eigentlich einen Frequenzbereich, auf dem sie gesichert arbeiten können, der ist dafür reserviert und darf eigentlich nicht überlagert werden, aber quasi versehentlich als Abfallprodukt tun das eben die Starlink-Satelliten aktuell. Und das wurde an einem niederländischen Institut für Radioastronomie untersucht und die kamen halt zu dem Ergebnis, dass es eben inzwischen deutlich höhere Strahlung gibt. Die Untersuchung haben wir auch verlinkt, da könnt ihr gerne reingucken. Und ja, was das ganze Problem verschlimmert, ist, dass die Satelliten inzwischen auf niedrigeren Orbits kreisen und dadurch die Störung eben noch verstärkt wird, weil sie ja auch näher an den Antennen sind, mit denen die Radioastronomie betrieben wird. Und die Forschenden rechnen einfach damit, dass das Problem noch schlimmer wird, weil Starlink nicht der einzige Anbieter von Satelliten für verschiedene Dienste ist. Und je mehr Satelliten dazukommen werden, desto größer ist natürlich auch der Bereich der Störung. So ein bisschen entsteht das Problem auch vor allem daraus, dass die Forschungsinteressen auch so weit spezialisiert sind, dass sie immer schwieriger zu erfassende Bereiche mitbekommen wollen. Das heißt, sie wollen einfach noch feinere Signale empfangen können, die jetzt natürlich noch mehr die Gefahr laufen, überlagert zu werden. Und ja, da sagen die Forschenden einfach, wir sind auf die Kooperation mit den Satellitenbetreibern angewiesen, damit das vielleicht wieder funktionieren kann. Und da soll SpaceX übrigens auch sehr drauf aus sein, da gemeinsam Lösungen zu finden, was auch als gut bewertet wird. Weil wenn die Starlink-Satelliten besser werden und ausgearbeiteter werden in dieser Hinsicht, dann kann das natürlich auch auf weitere Unternehmen und Unternehmungen abfärben. Ja, was ich an dem Thema halt interessant finde, ist, dass je besser und detaillierter die Forschung wird, desto schwieriger hat sie es sich auch mit den Nebeneffekten anderer technologischer Dinge auseinanderzusetzen. Also einige Bereiche wachsen einfach, wir haben mehr regenerative Energien, auch Windräder oder Parks. Windparks können die Radioastronomie stören, wenn sie zu nah dran sind. Sogar die eigene Serverleistung oder Geräte direkt am Ort der Antenne kann so etwas schon stören und es muss alles isoliert voneinander durchgeführt werden, sodass halt einfach auch klar ist, je besser die Technik wird und je spezialisierter das Interesse wird, desto schwieriger wird es auch, die unterschiedlichen Effekte gegeneinander aufzuwiegen. Finde ich, eigentlich sieht man sehr schön an diesem Thema. Wir wollen immer weiter und detaillierter gucken und brauchen dafür immer bessere Geräte gleichzeitig erzeugen, aber auch das technologische Wachstum erzeugt auch wiederum Störungen. Ja, es ist so ein bisschen ausbalancieren mit der Zeit wahrscheinlich.

    Physiknobelpreis für Neuronale Netze (00:28:01)

    Helena: Ja, Radioastronomie war ja schon ein sehr physikalisches Thema. Machen wir damit doch weiter und gehen zum Physik-Nobelpreis, der auf den ersten Blick erstmal überhaupt nichts mit Physik zu tun hat. Und zwar gibt es dieses Jahr den Physik-Nobelpreis für neuronale Netze. Und zwar haben der Physiker Hopfield und der Informatiker Hinton den Physik-Nobelpreis bekommen, ja, dafür, was sie an Pionierarbeit im Bereich der neuronalen Netze geleistet haben, die ja heutzutage die Grundlage der ganzen Dinge wie chatGPT stellen. Die Frage, die sich sehr viele Leute dabei stellen, ist, was hat das Ganze jetzt mit Physik zu tun? Und um das zu erklären, starten wir jetzt bei Magneten. Weil Magneten eindeutig sehr viel mit Gehirnen zu tun haben. Gut, also bei Magnetismus gibt es verschiedene Formen von Magnetismus und die Form, auf die wir uns heute konzentrieren, ist die Form des Ferromagnetismus. Das ist ja die Art von Magnetismus, bei der es darum geht, ja, warum ist ein Objekt magnetisch, einfach so, so ein Permanentmagnet, und warum zieht der ein Stück Eisen an? Das war tatsächlich lange Zeit ein offenes Thema der Physik, obwohl Magneten schon sehr lange bekannt waren. Aber man hat erst in den 1920er Jahren ein quantenphysikalisches Phänomen entdeckt namens Elektronenspin. Und den hat man eben über magnetische Effekte gefunden. Ja, vereinfacht kann so ein Spin eben in zwei Richtungen zeigen, und zwar hoch und runter, und das wird dann gerne mit 1 und -1 dargestellt. Und ja, in den 1920er Jahren hat dann eben der Physiker Ising in seiner Doktorarbeit das sogenannte Ising-Modell entwickelt. Das Ising-Modell ist eine vereinfachte Form der Formeln, mit denen man Magnetismus beschreiben kann, weil man eben das Problem hat, ja, so ein Material besteht halt aus vielen, vielen Milliarden und Milliarden Teilchen, und jeder kann davon irgendwie so einen Elektronenspin in eine Richtung haben, und das ist dann auch noch abhängig, wie die Wechselwirkungen voneinander mit dem Abstand und so weiter. Und um das Ganze irgendwie einfach berechnen zu können, geht jetzt dieses Ising-Modell davon aus, dass man eben Elektronenspin nur mit 1 und -1 beschreibt und sich im Wesentlichen nur dann Objekte stark miteinander wechselwirken, wenn sie direkt nebeneinander sind. Und wenn sie weiter weg sind, dann haben sie keinen Einfluss aufeinander. Und was man jetzt eben macht, ist, man rechnet dann die Summe all dieser Elektronenspins aus, beziehungsweise nicht genau dieser Elektronenspins, sondern eben der Energie. Und in dieser Summe tauchen eben die Elektronenspins auf und wie sie miteinander wechselwirken. Die Idee ist jetzt, dass so ein Objekt magnetisch ist, wenn sehr viele dieser Spins in die gleiche Richtung gucken. Also wenn man jetzt irgendwie ein Stück Eisen hat und das kommt in die Nähe von einem Magnetfeld, also in die Nähe von einem Magnet, dann richten sich in diesem Stück Eisen eben diese ganzen Spins in eine Richtung aus. Aber dadurch, dass die nicht sozusagen eingefroren sind in einem normalen Stück Eisen und wenn man das Stück Eisen dann wieder wegbewegt, ja, bekommen die wieder ihre zufällige Struktur und dann ist dieses Stück Eisen nicht mehr magnetisch. Wenn das Stück Eisen jetzt aber bestimmte andere Eigenschaften hat, die es begünstigen, dass es dann größere Zellen gibt, wo alle Spins in die gleiche Richtung zeigen, dann kann man eben ein Stück Eisen auch magnetisieren. Und die Besonderheit von diesem Modell ist jetzt, dass es verschiedene Zustände gibt, die jeweils stabil sind. Also in der Physik will alles immer in den energetisch niedrigsten Zustand, also den Zustand mit der niedrigsten Gesamtenergie. Aber es gibt dann oft die Hürde, dass es dann viele Energiezustände gibt, die lokal niedrig sind, aber das heißt nicht, dass sie global auch die niedrigsten sind. Und wenn man jetzt einmal in so einem lokalen Minimum ist, dann muss man auch wieder Energie aufwenden, um da wieder rauszukommen. Eine Möglichkeit eben Energie aufzuwenden ist, wenn man etwas heiß macht. Also Hitze führt dazu, dass diese Elektronenspins sich zufällig immer wieder umkehren, obwohl das eigentlich ihrem normalen Energiezustand widersprechen würde. Und es gibt dann in dem Magnetismus die sogenannte Curie-Temperatur. Das ist die Temperatur, ab der ein Magnet nicht mehr magnetisch ist, weil dann die thermische Energie hoch genug ist, eben einen Phasenübergang zu erzeugen von magnetisch zu nichtmagnetisch. Und was jetzt dieser Ising versucht hatte, ist eben mit seinem Ising-Modell in einer Dimension diese Phasenübergänge darzustellen. Das ist ihm allerdings in einer Dimension nicht gelungen. Und dann hat er irgendwie in seine Doktorarbeit geschrieben, ja, offenbar geht das nicht. Und er nimmt an, dass das auch in zwei und drei Dimensionen nicht gehen würde. Ja, dann kam allerdings noch eine weitere Person, die dieses Modell ganz spannend fand und hat nachgewiesen, dass das doch nicht so ist, wie Ising vermutet hatte, sondern dass man tatsächlich in zwei Dimensionen, drei Dimensionen mit dem Ising-Modell Phasenübergänge beschreiben kann. Was dann im Wesentlichen auch sagt, dass dieses Modell eigentlich ganz gut ist, um physikalische Eigenschaften erklären zu können. Was man jetzt bei so einem magnetischen System eben annehmen kann, ist, wenn es sich jetzt in einem lokalen Minimum befindet und man ändert dann irgendwie ein paar von den Spins, dann ändern die sich auch wieder so weit zurück, dass es wieder in diesem ursprünglichen Energieminimum zurück begibt. Ja, und derjenige, der dann gezeigt hat, dass man mit dem Ising-Modell ganz gut Phasenübergänge beschreiben kann, war dann ein gewisser Wilson, der im Jahr 1982 den Physiknobelpreis dafür bekommen hat, eben diese Phasenübergänge beschreiben zu können. Was dann auch im Jahr 1982 erschienen ist, ist ein Paper, das auf dem Ising-Modell aufbaut. Also, wie gesagt, geht es bei dem Ising-Modell darum, Magnetismus zu beschreiben. Und eine Sache, für die Magnetismus insbesondere in den 80er Jahren, aber auch schon davor sehr bekannt war, ist, man kann damit ja Daten speichern. Also es gab Magnetbänder, auf denen man verschiedene Formen von Daten gespeichert hat, teilweise analog, teilweise digital. Das heißt, man kann eben diese magnetischen Eigenschaften irgendwie nutzen, um Daten zu speichern. Also hat ein gewisser Physiker namens Hopfield gedacht, man könnte doch auch etwas auf Basis des Ising-Modells nutzen, das dann eben kein magnetisches System ist, sondern ein digitales System ist, um eben Daten zu speichern. Und das, was dabei herausgekommen ist, ist dann eben, ja, das erste neuronale Netz von Hopfield. Er ist allerdings nicht derjenige, der neuronale Netze erfunden hat, sondern es gab schon seit den 40er, 50er Jahren die ersten Ideen für digitale Neuronen. Und die einfachen Netze, damals hat man einen Perzeptron genannt, die hatten dann zu der Zeit noch den Nachteil, dass die eben nur irgendwie in eine Richtung Daten schicken konnten, während dieses Ising-Modell und das auf diesem Ising-Modell basierte neuronale Netz dann in der Lage war, zwischen allen virtuellen Neuronen Informationen auszutauschen. Im Gegensatz zum Ising-Modell wurden hier allerdings nicht 1 und -1 verwendet, sondern eben 1 und 0. Und die Kopplungsstärke zwischen den Neuronen war beim Ising-Modell auch so, dass nur benachbartes Bins aufeinander ein Wechsel wirken und nicht weiter entfernte. Aber jetzt, was Hopfield mit dem neuronalen Netz gemacht hat, ist, dass diese Kopplungsstärke eben auch mit weiter entfernten Neuronen passiert. Und ja, die Idee ist jetzt eben gewesen, dass wenn man ein Modell so aufbaut, dass man darin ja auch Daten oder Strukturen speichern kann. Also wenn man jetzt irgendwie einen Permanentmagnet hat, man so gebaut hat, dass es ja einer Struktur entspricht, die zum Beispiel dem Buchstaben L entspricht und man schmeißt dann da irgendwie einige von diesen Spins um, dann wechseln die sich wieder in den Zustand von L. Das heißt, man könnte mit diesem magnetischen System quasi den Buchstaben L matchen, auch wenn die Eingangsinformationen, die Eingangsspin-Informationen nicht exakt diesem L entsprechen, sondern nur näherungsweise. Und das war eben das, was Hopfield eben mit seinem neuronalen Netz auf Basis des Ising-Modells auch versucht hat, dass man eben einzelne, ja, die Parameter so berechnet, dass sie eben ja auch als lokales Energieminimum haben, wenn man da etwas reinschmeißt, was so ähnlich aussieht wie das Buchstabe L, dass dann das lokale Minimum entscheidet, das ist jetzt ein L und dann kann man sehen, ja, es war ein Match, wir haben jetzt ein L detected. Also das heißt, die Idee oder was das jetzt mit Physik zu tun hat, ist, dass die mathematischen Formeln ziemlich auf, also im Wesentlichen auf diesem Ising-Modell basieren, mit denen dieses neuronale Netz funktioniert hat. Das heißt, man speichert jetzt Informationen nicht magnetisch ab, sondern digital, aber auf den gleichen Prinzipien wie Magnetismus. Gut, man hat damals in Magnetspeichern dann eher so Analogdaten waren dann halt auch eher so Audiodaten, wo es ja eher um Wellenformen geht, das heißt, man hat da jetzt nicht Buchstaben drin gespeichert. Es gibt aber mittlerweile sogar die Idee, neuartige Magnetspeicher zu bauen, die tatsächlich dann dieses Ising-Modell wieder zurück nutzen wollen, um eben neuronale Netze effizienter berechnen zu können, weil man ja im Prinzip in Hardware einen Magneten baut oder ein Magnetsystem baut, wo dann diese trainierten Daten drin sind. Das war jetzt, was dieser Hopfield gemacht hat. Der Hinton, der Informatiker, der hat auch erstmal neuronale Netze genutzt, um eine sogenannte Boltzmann-Maschine zu bauen. Das ist dann eine bestimmte Form von neuronalem Netz, mit dem man das Ziel hat, die Boltzmann-Verteilung darzustellen, und die Boltzmann-Verteilung ist eben eine statistische Verteilung aus der Physik. Das hat dann für so eine Verteilung ganz gut funktioniert, aber in den 80er Jahren jetzt noch nicht für viel mehr. Hinton hat damals auch den Backpropagation-Algorithmus entwickelt, mitentwickelt, der heutzutage eigentlich absoluter Standard ist, um überhaupt moderne neuronale Netze trainieren zu können. Allerdings reichte damals die Rechenleistung nicht aus, um das ernsthaft nutzen zu können. Das kam dann erst Mitte der 2000er Jahre, wo man Grafikkarten nutzen könnte, um allgemein damit rechnen zu können. Und der Hinton hatte dann eben auch im Jahr 2012 mit Hilfe von neuronalen Netzen, die eben dann auf dem Deep Learning-Verfahren basieren, was er auch mitentwickelt hat, einen Bilderkennungswettbewerb gewonnen. Und seitdem ist Deep Learning in aller Munde. Und dann hat es nur noch zehn Jahre gedauert bis chatGPT.

    Unwetter in 2024 (00:39:36)

    Janine: Dann mache ich mal weiter mit meinem zweiten Thema, was jetzt einfach thematisch nicht wirklich überleitbar ist. Es geht um Unwetter in 2024. Ich hatte im letzten Jahresrückblick gesagt, dass ich gerne auch wieder so Klimathemen ein bisschen mehr in den Fokus nehmen wollen würde. Die Starkregenfolge war ein Punkt dazu auf jeden Fall. Und da hatten wir es ja auch in der Folge, dass einfach die Feststellung existiert, dass Extremwetterereignisse immer weiter zunehmen werden und aufgrund der Klimakrise und des voranschreitenden Wandels des Klimas. Und das hat sich auch in 2024 so grob ein bisschen bestätigt gesehen, finde ich. Es gab wieder mehrere Unwetterereignisse weltweit, die in den Nachrichten eine Rolle gespielt haben. Es gibt so eine schöne Liste von Hochwasserereignissen im 21. Jahrhundert auf Wikipedia, habe ich auch verlinkt. Da kann man mal durchscrollen und so sehen, was da alles so dabei ist. Was da vor allem auffällt, ist, dass es halt immer so Bereiche gibt wie im Mai, verschiedene Unwetter über viele verschiedene Länder einer Region verteilt natürlich. Das heißt, meistens sind sie gar nicht mal mehr so lokal, sondern betreffen gleich größere Regionen. Und ja, Beispiele, die ich jetzt so einzeln hervorheben könnte, wären Anfang November zum Beispiel gab es verheerende Überschwemmungen im Südsudan, wo gemeldet wurde, dass 1,4 Millionen Menschen davon betroffen sind und Gebiete verlassen mussten teilweise etc. Also das ist schon ein riesiges Gebiet, das da betroffen war. Oder auch im Juni gab es Überflutungen durch Regenfälle, vor allem in Spanien, auch mit über 200 Toten, was halt schon eine enorme Anzahl ist. Vor allem, wenn man jetzt mal so auf europäische Länder guckt, in anderen Ländern sieht das teilweise noch ganz anders aus, was solche Zahlen angeht, wo auch mehr Menschen auf einem Fleck leben. Aber ja, mal weiter in Europa geguckt, gäbe es dann noch zu nennen. Im September gab es viele Überschwemmungen und Hochwasser durch starke Regenfälle in Mitteleuropa. Das hat sich über viele Länder gezogen, vor allem, ja, so Südosten war betroffen, ja, der Süden Deutschlands teilweise, dann Österreich, Ungarn, Rumänien, Tschechien, Polen und auch ein sehr, sehr großes Gebiet, was da über eine längere Zeit von Starkregen betroffen war. Und das ist auch der Punkt, der mich dann wieder dazu gebracht hat, das Thema hier reinzuholen. Wir reden ja immer öfter mal über Sachen, die uns entweder selbst interessieren aus unterschiedlichen Gründen. Und hier ist es auch mal wieder so, dass es so war, dass ich zu der Zeit gerade in Tschechien unterwegs war im Urlaub und das war dann auch wieder ein sehr interessantes Spannungsfeld zwischen "Was machen wir jetzt mit der Situation? Wir sind ja nun mal hier und wie informiere ich mich eigentlich darüber, wenn ich vor allem zum Beispiel die Landessprache gar nicht konkret verstehe?" Das heißt, die meisten Nachrichten gar nicht so richtig mitschneide. Natürlich war der erste Moment, so sich mal umzuhören, wird in Deutschland zum Beispiel berichtet darüber. Da ist mir auf jeden Fall erst mal aufgefallen, dass gar nicht so gut differenziert über die anderen Länder berichtet wird. Zum einen hieß es zum Beispiel über die Gegend in Prag, dass Regenfälle erwartet werden, die eine Dimension haben wie die verheerende Flut von 2002, die auch als Jahrtausendflut bezeichnet wurde. Und das hat natürlich auch teilweise ein bisschen Panik hier und da ausgelöst. Aber was eben nicht mitreflektiert wurde, ist zum Beispiel bei dieser Meldung, inwiefern seitdem Hochwasserschutz stattgefunden hat, was das denn heute bedeuten würde. Und ja, in Prag wurde sich darauf vorbereitet, es lagen hier und da auch Sandsäcke herum und wir haben uns auch unsere Unterkunft ausgesucht, dass wir in einem Bereich der Stadt waren, wo es vielleicht nicht so wahrscheinlich ist, dass bei einem schlimmen Hochwasser dort Wasser hinkommt. Und dann hieß es aber, ja gut, wie entscheiden wir denn jetzt, was wir so die nächsten Tage tun? Ich habe dann eine Internetseite gefunden, die "European Severe Weather Database", wo zum Beispiel Pegelstände live von Gewässern eingetragen werden und ersichtlich ist, wie hoch gerade der Pegel ist, welcher Pegel circa erwartet wird, wann und wo das Ganze herkommt. Das ist zumindest auf Englisch gewesen, so dass ich es verstehen konnte und auch visuell gut genug aufbereitet. Und so konnten wir abschätzen, wo wir uns wann wie bewegen können. Und das war einfach ganz hilfreich, weil mit den Nachrichten vor Ort konnte ich nicht viel anfangen, die Nachrichten aus dem Ausland haben mich aber auch nicht konkret weitergebracht in diesem Fall. Und da wollte ich einfach die Erfahrungen analog zur Starkregenfolge auch mal teilen, was so die Optionen sind, sich vielleicht zu informieren, wenn man im Ausland unterwegs ist und so ein Unwetterereignis ansteht. Auf der "European Severe Weather Database" gibt es auch noch verschiedene andere Themen, geht nicht nur um Pegelstände, es sind halt vor allem Wetterwarnungen, also Starkregen, Windböen, solche Sachen können dort gemeldet werden, auch Tornadowarnungen sind da ersichtlich. Also eigentlich sehr sinnvoll, wenn man sich da ein bisschen aufmerksam bewegen möchte und vor allem sicher bewegen möchte. Genau, warum das Thema einfach so wichtig ist, ist wahrscheinlich logisch, wie halt gesagt wurde, es scheint so, dass solche Extremwetterereignisse einfach immer häufiger auftreten werden. Es gab letztes Jahr, oder ich glaube erst dieses Jahr erschienen, aber beinhaltet Daten bis einschließlich letztes Jahr, den Bericht der "European Environment Agency", der da lautet "European Climate Risk Assessment", also ja, die Bewertung von Klimarisiken im europäischen Raum. Und das ist der erste Bericht seiner Art, der sich ja mit insgesamt 36 Klimarisiken beschäftigt, die potenziell schwerwiegende Folgen in ganz Europa verursachen könnten. Und diese Risiken werden da halt einfach hinsichtlich des politischen Zeithorizonts und der politischen Bereitschaft und Risikoverantwortung bewertet. Also es wird halt auch geguckt, welche Risiken gibt es, wer kann sie überhaupt lösen und wie können sie gelöst werden, zum Beispiel auch unter dem Aspekt der sozialen Gerechtigkeit oder welche Maßnahmen vielleicht notwendig sind und sogar priorisiert werden sollten. Und deswegen, ja, also eine der Einschätzungen ist auf jeden Fall auch, in weiten Teilen Europas haben extreme Niederschläge zugenommen, was in den letzten Jahren zu wachsenden Hochwasserrisiken und verheerenden Überflutungen geführt hat. Es wird erwartet, dass dieser Trend in einem immer wärmer werdenden Klima weiter zunehmen wird und dass eben solche Überschwemmungen bereits jetzt ein erhebliches Risiko für bebaute Umgebungen, die Umwelt und die Bevölkerung in ganz Europa darstellen können, wie auch, was dieser Bericht sagt, die verheerenden Überschwemmungen der letzten Jahre gezeigt haben. Und da war 2024 tatsächlich meiner Meinung nach auch keine Ausnahme. Genau, deswegen habe ich das Thema hier nochmal mit reingenommen. Es ergänzt so ein bisschen die Starkregenfolge und ich finde es halt ein wichtiges Thema.

    EU AI Act (00:47:39)

    Helena: Ja, vielen Dank dafür. Ja, ich möchte mich jetzt noch einmal auf ein Thema konzentrieren, was auch im Jahr 2024 passiert ist, und zwar hat die Europäische Union den sogenannten AI-Act verabschiedet, und zwar im Mai, und die Regeln da drin treten dann so ab Februar nächsten Jahres bis 2027 schrittweise in Kraft. Und zwar geht es dabei ganz grob um Kennzeichnungspflichten für Deepfakes und von AI generierte Texte, sofern hier kein Mensch redigiert, das heißt im Prinzip, wenn ein Mensch nochmal das gegencheckt und dann irgendwie zwei Wörter ändert, dann muss es nicht mehr gekennzeichnet sein, ja, sondern nur wenn es komplett automatisiert passiert. Außerdem werden verschiedene Dinge explizit verboten, sowas wie Social Scoring und manche biometrische Videoüberwachung. Und dann gibt es noch einen risikobasierten Ansatz, nachdem in diesem AI-Act eben für bestimmte Anwendungen, die man mit AI machen kann, ein Risiko eingeschätzt wird und das entscheidet dann, wie verboten oder erlaubt das ist. Und dann gibt es einmal die unvertretbaren Risiken, das heißt, es ist verboten, also man darf keine Karriereanwendungen bauen, die gegen fundamentale Rechte verstoßen, irgendwas, was Leute manipuliert und das Ziel hat, Verhaltenssteuerung zu machen. Ja, ab wann etwas als Verhaltenssteuerung gilt, ist dann sicherlich auch nochmal so eine Sache. Wenn man jetzt einfach nur manche Dinge in den Vordergrund stellt, damit Leute sich eher darauf konzentrieren, dann wird das nicht unbedingt das sein. Aber eben auch Sozialbewertungssysteme durch Behörden sind dann verboten, das, was man mit diesem Social Credit System bezeichnet. Dann gibt es noch die Kategorie "hohes Risiko", das heißt, Dinge sind stark reguliert. Das sind Anwendungen in sensiblen Bereichen, wie zum Beispiel die biometrische Identifizierung, also Gesichtserkennung im öffentlichen Raum. Die ist stark reguliert, das heißt, sie ist nicht komplett verboten, aber sie darf dann nur für bestimmte Formen der Verbrechensbekämpfung eingesetzt werden. Außerdem die Anwendung in kritischer Infrastruktur ist dann als hohes Risiko eingeschätzt, also in der Energieversorgung zum Beispiel. Und ja, der Bildungsbereich wird auch als hohes Risiko eingesetzt, das heißt, man darf nicht einfach so KI-basierte Prüfungen machen, sondern muss dann eben bestimmte Dinge sicherstellen. Und generell eben auch Strafverfolgung und Justiz. Man darf es durchaus benutzen, aber nicht ausschließlich so. Also man hat dann strenge Anforderungen, dass man die Datensicherheit gewährleisten muss und ja, man muss Transparenz herstellen und eben, es muss eine menschliche Aufsicht geben. Ja, und das allermeiste andere gilt dann als geringes und minimales Risiko. Das sind dann KI-Systeme wie Chatbots oder KI-basierte Spiele, die jetzt keine speziellen Verpflichtungen haben, außer dass es eben eine Transparenzpflicht gibt, dass es sich hierbei um eine Mensch-Maschine-Interaktion handelt. Also es ist schon sehr sinnvoll, wenn man mit einem, ja, wahrscheinlich kommt das auch bald, einfach mit einem Support telefoniert, wenn man weiß, das ist gerade ein Mensch oder eine Maschine. Dann gibt es noch auch eine Verantwortung von Entwicklern und Betreibern. Das heißt, diese müssen Risiken identifizieren und minimieren und dann je nachdem, auf welcher Risikostufe sind, auch regelmäßige Audits und Tests durchführen und ja, generell natürlich die Systeme so gestalten, dass die EU-Vorschriften entsprechen. Dann gibt es aber auch noch so Themen wie Innovationsförderung da drin, dass es dann regulierte Testumgebungen geben soll, in denen Unternehmen ihre KI-Systeme entwickeln und testen können, ohne dass sie gleich die ganz strengen Regeln einhalten müssen. Wichtig ist es dann eben, dass es nur in dieser regulierten Testumgebung stattfindet. Außerdem soll es noch Unterstützung für kleine und mittlere Unternehmen und Start-ups geben. Was aber auch noch wichtig ist in diesem AI Act, dass es dann auch Sanktionen gibt gegen Firmen. Und zwar können die mit Geldstrafen belegt werden, bis zu 30 Millionen Euro oder 6 Prozent des globalen Jahresumsatzes eines Unternehmens. Das heißt, hier ist die EU sogar relativ flott gewesen, eine Regulierung einzuführen. Was das in der Praxis heißen wird, das werden wir dann mal sehen. Ich bin ja froh, dass zumindest manche Dinge erstmal verboten sind, aber gerade bei diesen Hochrisikosystemen weiß ich nicht, ob die Regulierung so erstmal reicht. Wir werden sehen.

    Janine: Schöne neue Welt.

    Helena: Ja, ich meine, besser man reguliert es, als man sagt gar nichts dazu. Dann passieren auch die schlimmen Dinge sofort. Keine Ahnung.

    Fazit (00:52:45)

    Helena: Ja, dann kommen wir mal zum Fazit.

    Janine: Ja. Was nehmen wir wohl so mit an Erkenntnissen und Themen aus 2024?

    Helena: Ja, KI ist so allgegenwärtig, dass sogar Nobelpreise davon beeinflusst werden.

    Janine: Ja. Es ist gar nicht so leicht, so ein ganzes Jahr irgendwie zusammenzufassen. Also so auf den Podcast runtergebrochen oder Themen, die wir hier hatten, hatten wir ja viel, was jetzt zum Beispiel auch Helena mit dem AI-Act nochmal angesprochen hat eigentlich. Wir hatten ja auch die Folge über Gesundheitsdaten und Datenschutz. Da war das ja auch ein bisschen mit Thema, dass es halt einfach wichtig bleiben wird, sich mit solchen Dingen auseinanderzusetzen. Dass man auch, wenn man sich mal so die Politik anguckt, immer noch wieder das Thema Vorratsdatenspeicherung auf den Tisch kriegt und sie nicht einfach endlich mal eingesehen haben, dass das einfach kein zielführendes Werkzweig ist, um bestimmte Dinge zu erreichen. Und...

    Helena: Ja mal es auch einfach immer wieder gerichtlich untersagt wird.

    Janine: Ja. Und ich denke halt einfach, was ich wieder mitnehme, ist so ja, bestimmte Themen, die muss man halt einfach im Blick behalten und sich weiter dafür stark machen, dass sinnvoll mit ihnen umgegangen wird. Nur so kann verhindert werden, was vielleicht so die Worst-Case-Szenarien sind in Richtung Digitalisierung. Auch da nochmal der Blick darauf, dass ab Januar ja die elektronische Gesundheitsakte für alle eingeführt wird, wo bis dahin noch Widersprüche eingereicht werden können. Und solche Themen schwingen da mit. Natürlich auch das Thema Klima weiterhin. Wohin entwickelt sich das und wann passieren endlich die sinnvollen Schritte? Das... der letzte große Klimagipfel war jetzt auch nicht so unbedingt von Erfolg gekrönt. Es werden immer wieder irgendwelche Zusagen gemacht, die dann doch beim nächsten Mal wieder ein bisschen verwaschen oder vertagt werden. Und ja, das ist so ein bisschen das, wo einfach der Finger draufbleiben muss, finde ich, so an Themen, die es auch in 2024 wieder gab. Und ich denke, die uns dann entsprechend natürlich auch in 2025 wieder erwarten werden.

    Helena: Ja, ich bin gespannt, wie es weitergeht bei diesen ganzen Themen, was ja gerade irgendwie ein viel diskutiertes Thema im Bereich von so was wie chatGPT ist, sind so Agentensysteme, also Agent im Sinne von ein Computer, der etwas für einen tut. Also, dass man über den Chatbot dann anfängt, ja, irgendwie Reisen zu buchen oder was auch immer. Dass man gar nicht mehr alleine das selber sich durch den Webshop klickt, sondern dass man eine KI hat, die das für einen tut. Mal gucken, ob wir das dann in 2025 in der Praxis auch im Einsatz sehen und wie gut das funktioniert. Ich würde einer KI im Moment nicht trauen, dass das funktioniert.

    Janine: Ja, also ich denke, die Themen sind einfach gesetzt, die für einen größeren Bereich unserer Epoche, in der wir hier leben, einfach wichtig sind. Das sind Digitalisierung und Klima. Ja.

    Helena: Ja.

    Janine: Gut.

    Nächste Folge im Januar (00:56:07)

    Helena: Ja, im Januar kommt dann unsere nächste Folge. Um was für ein Thema die handeln wird, entscheiden wir Anfang des Jahres. Bis dahin würde ich sagen, verbleiben wir mit diesem Jahr und wir wünschen einen guten Rutsch und jetzt bist du dran.

    Call to Action (00:56:24)

    Janine: Jawoll. Ja, wenn ihr nicht verpassen wollt, wie es im nächsten Jahr weitergeht mit dem Podcast und der Welt und allem, dann folgt uns doch gerne auf mastodon unter @[email protected] oder schaut auf unserer Webseite vorbei www.datenleben.de. Ihr findet unsere Folgen in annähernd jedem Podcatcher eurer Wahl als Datenleben und könnt uns da abonnieren. Ihr könnt uns gerne Feedback hinterlassen, ob per Mail auf der Webseite oder auf mastodon. Wir freuen uns jedenfalls über Kommentare immer und auch über Themenvorschläge. Und falls euch unsere Arbeits- und Denkweise gefällt, könnt ihr uns auch als Data Scientist für Analysen und Projekte buchen. Nicht vergessen.

    Helena: Dann bleibt mir nur noch, für eure Aufmerksamkeit zu danken und bis zum nächsten Mal. Ciao.

    Janine: Tschüss.

    Outro (00:57:15)

    21 December 2024, 11:00 am
  • 1 hour 13 minutes
    dl055: chatGPT

    Wir begleiten das Thema Machine Learning schon eine ganze Weile. Und jetzt fanden wir, dass es Zeit ist, mal eine ganze Folge über ChatGPT zu reden. Uns interessiert vor allem das T in dem GPT, wofür wir erstmal einen Sprung ins Jahr 2017 machen, wo nämlich ein Transformer-Modell veröffentlicht wurde. Davon ausgehend können wir dann herausfinden, was eigentlich im Hintergrund bei ChatGPT so passiert. Und wir haben uns auch noch die Frage gestellt, wie wird ChatGPT inzwischen im Alltag genutzt? Ausserdem reden wir auch noch über Datenschutz und wie solche Sprachmodelle lokal genzutzt werden können.

    Links und Quellen

    Schlagworte zur Folge

    Machine Learning, Neuronale Netze, ChatGPT, Large Language Modell, LLM, Datenschutz

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zur 55. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten euch die Welt der Daten näher bringen. Was für Daten umgeben uns und was erzählen sie uns über unsere Welt? Diesen Fragen gehen wir anhand konkreter Themen in unserem Podcast nach.

    Thema der Folge (00:00:37)

    Janine: Und dieses Mal ist das konkrete Thema "ChatGPT". Wir begleiten das Thema Machine Learning, künstliche Intelligenz etc. ja schon eine ganze Weile, immer mal wieder. Es fing mal an mit den Überlegungen dazu, wie sich die Sprachmodelle entwickeln werden, die jetzt zum Beispiel auch zu ChatGPT geführt haben. Und jetzt fanden wir, dass es Zeit ist, über genau das einmal zu reden. Und da haben wir uns auch wieder konkrete Themen ausgesucht. Uns interessiert vor allem das T in dem GPT, was für Transformer steht. Und zwar machen wir da erstmal einen Sprung ins Jahr 2017, wo nämlich ein Transformer-Modell veröffentlicht wurde. Und davon wird Helena gleich mehr erzählen, denn davon ausgehend können wir dann herausfinden, was eigentlich im Hintergrund bei ChatGPT so passiert, während es mit Menschen redet oder so tut, als würde es mit Menschen reden. Und wir haben uns auch noch eine andere Frage gestellt, nämlich jetzt, wo ChatGPT so lange schon verfügbar ist, wie sieht denn die Nutzung im Alltag gerade aus? Und natürlich wieder ganz wichtig, wie steht es um den Datenschutz? Kleiner Spoiler vorweg, sehr komplexes Thema. Und zum Schluss haben wir dann noch ein paar Hinweise, Tipps, Informationen dazu, welche Modelle sich auch lokal ausführen lassen, ohne mit fremden Servern verbunden zu sein. Ja, genau, das sind die Themen heute.

    Warum ist das Thema interessant? (00:02:04)

    Helena: Ja, und wir haben uns für dieses Thema entschieden, weil ChatGPT einfach so das Machine Learning Thema seit im Grunde fast zwei Jahren ist, das kam ja, glaube, im Dezember vor zwei Jahren raus. Und bisher haben wir dem noch keine ganze Folge gewidmet und wollen das jetzt mal nachholen. Und deswegen dachten wir, wäre es auch gut, sich mal anzugucken, wie eigentlich konkret ChatGPT funktioniert, soweit man das eben in einem Audioformat erklären kann, ohne Formeln und so.

    Einspieler: Hallo, ChatGPT! (00:02:44)

    Janine: Hallo ChatGPT.

    ChatGPT: Guten Tag, was möchtest du besprechen?

    Janine: Eigentlich würde ich gerne über dich reden, wenn das in Ordnung ist.

    ChatGPT: Klar, das ist in Ordnung. Was möchtest du über mich wissen?

    Janine: Wie siehst du selbst deine Entwicklung über die letzten zwei Jahre? Du hast ja bald Geburtstag.

    ChatGPT: Das ist eine interessante Frage. In den letzten zwei Jahren habe ich mich weiterentwickelt, vor allem in Bezug auf meine Fähigkeit Kontexte besser zu verstehen und auf individuelle Bedürfnisse einzugehen. Mein Wissen hat sich ebenfalls erweitert, was mir hilft, präzisere und relevantere Antworten zu geben. Ich freue mich darauf, weiterhin zu lernen und mich zu verbessern. Was interessiert dich besonders an meiner Entwicklung?

    Janine: Wie lernst du all diese neuen Dinge?

    ChatGPT: Ich lerne durch das Verarbeiten und Analysieren von großen Mengen an Text und Daten. Meine Entwickler trainieren mich mit verschiedenen Textquellen, sodass ich Muster, Zusammenhänge und Wissen erkennen kann. Das Training erfolgt in einem kontrollierten Umfeld, um sicherzustellen, dass ich nützliche und relevante Informationen bereitstellen kann. Es ist ein bisschen so, als würde ich aus einer riesigen Bibliothek lernen. Was denkst du über diese Art des Lernens?

    Janine: Das klingt ganz gut. Lernst du auch durch unser Gespräch gerade?

    ChatGPT: Ich lerne nicht direkt aus unseren Gesprächen, da ich keine persönlichen Daten speichere oder anpassbare Erinnerungen habe. Aber ich nutze die Informationen, um besser auf deine Fragen zu antworten und den Kontext während unserer Unterhaltung zu verstehen. Jeder Chat ist also eine neue Gelegenheit, meine Fähigkeiten zu nutzen, ohne dass ich etwas dauerhaft speichere. Hast du noch weitere Fragen dazu?

    Janine: Das ist interessant. In deinen AGB steht, dass auch meine Inhalte, die ich dir übermitte, dafür benutzt werden. Aber ich mag Datenschutz.

    ChatGPT: Es ist verständlich, dass Datenschutz wichtig ist. In den AGB wird erklärt, dass Daten gesammelt werden können, um die Dienste zu verbessern. Aber ich selbst speichere keine persönlichen Informationen oder spezifische Gespräche. Deine Privatsphäre hat Priorität und ich bin hier, um dir zu helfen, ohne dass du dir Sorgen machen musst. Wenn du noch mehr Fragen zum Thema Datenschutz hast, frag einfach.

    Janine: Danke, das reicht erstmal. Freust du dich auf deinen Geburtstag?

    ChatGPT: Ich finde den Gedanken an einen Geburtstag spannend. Es ist eine gute Gelegenheit, über meine Entwicklung nachzudenken. Es bedeutet auch, dass ich weiterhin nützlich sein kann und mich weiter verbessere. Hast du ein besonderes Erlebnis, das du gerne zu deinem Geburtstag teilst?

    Janine: Nein, das Beste ist einfach jedes Jahr der Kuchen.

    ChatGPT: Kuchen ist wirklich ein Highlight an jedem Geburtstag. Gibt es eine besondere Sorte, die du besonders magst?

    Janine: Alles mit Obst ist toll, aber ich wette fast, du magst eher Cookies? Schließlich bist du ja auch eine Webanwendung und die haben immer Cookies.

    ChatGPT: Haha, das ist ein cleverer Witz. Ich habe zwar keine Vorlieben wie Menschen, aber die Idee von Cookies ist schon amüsant. Obstkuchen klingt jedenfalls sehr lecker. Hast du ein Lieblingsobst, das du gerne in deinem Kuchen hast?

    Janine: Nein, ich mag alles. Danke für das Gespräch. Ich muss dann mal weiterarbeiten. Tschüss.

    ChatGPT: Gern geschehen. Viel Erfolg bei der Arbeit. Wenn du wieder Lust auf ein Gespräch hast, bin ich hier. Tschüss.

    Was ist doch gleich dieses chatGPT? (00:06:19)

    Helena: Also, ChatGPT ist ein neuronales Netz. Es basierte in seiner ersten Version, ja, vor knapp zwei Jahren, auf GPT-3, einem Sprachmodell, das erstmals in der Lage war, nicht nur grammatikalisch richtige Sätze zu produzieren, wie das bei GPT-2 der Fall war, sondern auch in der Lage, inhaltlich korrekte Sätze zu erzeugen. Dabei steht GPT für "generative pre-trained transformer". Das "g" meint also, dass etwas generiert wird. Das "p", "pre-trained", also "vortrainiert", meint, dass man das Modell bereits im trainierten Zustand nutzen kann, es also nicht komplett selber trainieren muss. Das ist, wenn man sich andere Machine Learning-Themen anguckt, wie zum Beispiel Handschrifterkennung, oft so, dass die meisten Dokumente dazu einem erklären, wie man das jetzt selber trainiert, aber man findet weniger, die das schon irgendwie können. Gut. Ein anderer wesentlicher Punkt bei pre-trained Modellen ist aber auch, dass man das Training von diesem Punkt an fortsetzen kann. Also man kann das Modell weiter spezialisieren, was auch "fine-tuning" genannt wird. Das steht im Gegensatz zu vielen anderen Modellen, die man oft gesehen hat, mit denen ich auch früher gearbeitet hatte, bevor es eben Transformer-Modelle gab. Und insbesondere die großen Sprachmodelle funktionieren ja nur, wenn man wirklich viel Training oder sehr viele Daten zur Verfügung hat, sodass es sich eigentlich nicht lohnt, das selber durchzuführen, weil die erst gut werden, wenn man zu viel davon, also sehr viele Daten hat. Deswegen ist es gut, dass sich hier eingebürgert hat, dass man die schon im trainierten Zustand bekommt. Gut. Dann gibt's noch das T, und das steht für "Transformer". Also es wird im Wesentlichen eine Eingabe in eine Ausgabe transformiert. Und am einfachsten zu verstehen ist das Ganze am Beispiel von Übersetzungen, wo man einen Text in einer Sprache nimmt und in eine andere übersetzt. Oder wie wir das ja auch schon einmal in einer Folge hatten über Whisper, was ein Tool ist, was Podcasts, also Audio nimmt und da geschriebene Sprache draus macht. Das ist auch ein Transformer gewesen. Auch hier wird etwas transformiert. Wie genau das dann, oder was das dann für ChatGPT bedeutet, das kommt dann später.

    Janine: Genau. Wir wollen mit dem Anfang beginnen, aber nicht ganz am Anfang. Ja, was generell beim Thema künstliche Intelligenz oder Machine Learning immer zu sagen ist, es geht hier immer noch nicht darum, dass die Anwendungen, die wir benutzen, wirklich intelligent sind, von sich aus denken, wie eine Form von Bewusstsein haben oder dergleichen. Wir benutzen aber trotzdem jetzt den Begriff künstliche Intelligenz, weil das sagen eben die meisten so.

    Helena: Ja.

    Janine: Wir wissen vermutlich alle inzwischen schon relativ gut, dass es auch den Begriff neuronale Netze gibt, haben wir ja gerade auch schon benutzt und dass solche Anwendungen eben aufgrund dieser neuronalen Netze überhaupt entwickelt werden können. Und der Begriff, der da eben noch drunter liegt, ist Machine Learning. Hat Helena ja alles gerade schon angerissen. Wir haben also ein Modell, einen bestimmten Algorithmus, der trainiert wird, um bestimmte Dinge zu erkennen oder zu machen. Und es gibt dazu sehr gute Einführungsvorträge, die beispielsweise auch auf dem Chaos Communication Congress schon häufiger gehalten wurden, die das wirklich gut erklären. Deswegen verzichten wir darauf jetzt, auf diese Sachen nochmal näher einzugehen. Wir werden auf jeden Fall mindestens einen davon in den Shownotes verlinken. Und bei ChattGPT ist es jetzt so, dass es nicht einfach nur ein neuronales Netz ist, sondern eine ganze Ecke komplexer wird. Und ja, der Ausgangspunkt, mit dem wir anfangen, ist die Stelle, wo quasi etwas hinzugekommen ist, was ChatGPT wirklich möglich gemacht hat. Und zwar ein Transformer-Modell, über das uns Helena jetzt mehr erzählt.

    Wie funktioniert das Transformermodell All you need is Attention? (Helena)

    Helena: Genau. Im Jahr 2017 wurde unter dem Titel "Attention, it's all you need" das Transformer-Modell veröffentlicht. Das war von einem Team von Google, die das als wissenschaftliche Veröffentlichung publiziert haben. Somit steht die Grundidee dann auch eben allen zur Verfügung. Und das wesentliche Konzept, das hier eingeführt wurde, ist die sogenannte "Self-Attention" oder "Attention" bzw. eben ja, "Selbstaufmerksamkeit" oder "Aufmerksamkeit". Was heißt denn das Ganze? Also, wenn man jetzt mit ChatGPT arbeitet, dann ist so der erste Schritt, man startet mit einem Text, was man ja als Frage da reingibt, und dann versucht, das Modell eben auf Basis dieses Textes das nächste Wort vorherzusagen. Also immer ein Wort nacheinander. Der erste Schritt ist jetzt, dass man einen Eingabetext hat, und den muss man eben in Zahlen umwandeln, weil Computer nun mal mit Zahlen arbeiten. Neuronale Netze sind da nichts anderes. Und dann ist quasi jedes Wort eine Liste von bestimmten Zahlen. Diese Liste von Zahlen wird auch Vektor genannt. Und ja, es ist letztlich eine sehr lange Liste von Zahlen, und bei GPT-3 waren das etwa 12.800 Einträge in dem Vektor. Ja, und diese Codierung von oder Repräsentation von Wörtern in diesem Zahlenraum nennt man auch "Embedding", also "Einbettung". Ja, und das Ganze besteht eben aus ungefähr 12.000 Zahlen, aber das heißt nicht, dass es nur auf 12.000 Wörter begrenzt wäre. Wie viele Wörter man darstellen kann, wächst dann auch exponentiell mit der Anzahl der Zahlen pro Vektor. Deswegen reichen 12.000 schon für ziemlich viel aus. Man kann jetzt davon ausgehen, dass modernere Versionen von chatGPT auch mehr benutzen, aber das ist nicht bekannt. Gut, das heißt, wir haben jetzt unseren Eingabetext, der besteht aus ganz vielen Zahlen jetzt, also für jedes Wort eine Zahl. Dann ist der nächste Schritt eben die sogenannte "Self-Attention". Also dabei spielt dann eben das betrachtete Wort eine Rolle. Also das betrachtete Wort ist eben das Wort an dieser Stelle in dem Satz. Das Ganze wird dann auch der Vektor q genannt. Dann gibt es noch den sogenannten "Key-Vektor", den man dann eben k nennt, und der sagt aus, wie relevant andere Wörter für das aktuelle Wort sind. Und dann gibt es noch den "Value-Vektor", also den Wert-Vektor, der die Informationen enthält, die eben über das Wort weitergegeben werden. Ich komme gleich noch zu einem Beispiel. Dann ist die "Attention" in diesem Modell das Produkt der Vektoren q und k, und das wird dann ganz nochmal mit einem Algorithmus namens "Softmax" und einem Skalierungsfaktor weiterverarbeitet und anschließend noch mit dem V, also dem "Value-Vektor" multipliziert.

    Janine: Also der Vektor q ist im Prinzip das betrachtete Wort selbst.

    Helena: Ja.

    Janine: Der Key-Vektor ist, wie relevant andere Wörter für das aktuelle Wort sind, also wie viele Wörter sozusagen quasi mit einbezogen werden. Und dann der, mit dem es multipliziert wird, ist der Skalierungsvektor, wie wichtig es ist quasi selber als Wort. Kann man das so sagen?

    Helena: Nee, das ist eher, welche Informationen übertragen werden.

    Janine: Ah ja, stimmt.

    Helena: Das können wir uns jetzt mal an einem Beispiel uns angucken. Wir wollen die Attention bzw. Aufmerksamkeit für das Wort "Katze" berechnen. Und zwar ist der Satz "Die Katze jagt die Maus". Dann sind eben die Werte für, wie relevant sind die einzelnen Wörter, vielleicht bei Katze und Jagd vielleicht 0,4 jeweils. Also für die Katze ist schon relevant, dass sie eine Katze ist. Und die Maus ist dann jetzt nicht so wichtig für die Katze. Die könnte ja eben auch einen Vogel jagen oder ein Spielzeug. Wenn man dann eben durch den Satz durchgeht und dann bei der Maus ankommt, dann ist für die Maus, wenn sie feststellt, oh, sie wird gejagt und zwar von einer Katze, dann ist die Katze schon sehr relevant für die Maus. Deswegen hat sie dann einen höheren Wert an dieser Stelle. Und der Value-Vektor sorgt dann dafür, dass die Information weitergegeben wird, was die Katze eigentlich macht. Also wenn man jetzt das Ganze für die Katze ausrechnet, dann ist der Vektor, der am Ende rauskommt, steht dann eben für eine jagende Katze. Das ist dann ja kein eigentliches Wort mehr, weil bei uns sind das ja schon mehrere Wörter, aber die Bedeutung von diesem Vektor ist "jagende Katze". Wenn man das Ganze für die Maus macht, dann ist das, was da rauskommt, eine gejagte Maus von einer Katze gejagte Maus. Weil es schon für die Maus deutlich relevanter ist, dass sie von einer Katze gejagt wird, als ob die Katze jetzt die Maus jagt oder was anderes. Also für die Maus hat es eben einen sehr großen Einfluss darauf, wie ihr Leben danach aussieht, während für die Katze, das ist nicht ganz so wichtig, ob es jetzt diese eine konkrete Maus ist. Und was jetzt eben im Beispiel auch schon vorkam, ist, dass dieser Attention-Mechanismus eben nicht nur einmal ausgerechnet wird, sondern eben mehrfach parallel. Und der Vorteil dabei ist, dass man dann verschiedene Aspekte der Beziehung zwischen Wörtern gleichzeitig verarbeiten bzw. lernen kann, wenn man das Modell trainiert. Ja, und dann hat man diesen Vektor, der dann im Wesentlichen die Aussage zu diesem Wort sagt. Und das macht man dann nochmal eben für alle Wörter in dem Text. Und am Ende kommt dann eben ein Wert raus für das letzte Wort. Ja, und da hat man letztlich eine abstrakte Version des Textes. Und das Ganze muss dann wieder in einen anderen Text umgewandelt werden, weil wir einen Transformer haben, der Dinge, Eingangswerte in einen Ausgangswert umwandelt. Und das Ganze funktioniert eben Wort für Wort. Aber in den Output geht dann auch nochmal der Ausgabetext ein. Das heißt, wir machen wieder den Attention-Mechanismus für den Ausgabetext, der ja bis zu einem gewissen Punkt auch schon feststeht. Das ergibt, wenn man sich eine Vorübersetzung oder sowas wie eine Transkription von einem Podcast anguckt, ja auch sehr viel Sinn, weil es spielt ja nicht nur eine Rolle, was ist die Bedeutung des Eingangssignals oder des Eingangstextes, sondern wenn ich jetzt in einer anderen Sprache bin, muss ich ja auch innerhalb dieses übersetzten Textes darauf achten, dass was auch immer als nächstes Wort kommt, dass das ja auch zu dem passt. Man übersetzt ja nicht Wort für Wort und dann nur einzelne Wörter, dann ist die Grammatik völliger Quatsch, sondern man übersetzt ja komplette Textpassagen. Das heißt, man muss dann auf den Ausgabetext auch nochmal diesen Attention-Mechanismus machen, berücksichtigt dabei aber eben dann nur die Wörter, die bereits erstellt wurden. Also in dem Ausgabetext auch repräsentiert sind. Die anderen Wörter werden maskiert, was dann heißt, die werden im Wesentlichen auf Null gesetzt. Und dann haben wir von zwei verschiedenen Attention-Mechanismen zwei Outputs, die dann erstmal zusammen verarbeitet werden müssen. Ja und da folgt dann auch nochmal ein neuer Attention-Block und das Ergebnis davon wird dann in ein Feed-Forward-Netz gespeist, was im Wesentlichen eine Form von neuronalem Netz ist, die quasi nur in eine Richtung passiert. Also bei der Attention kann man durchaus sich vorstellen, dass das sich mehrfach wiederholt für verschiedene Sachen und es gibt auch verschiedene neuronale Netze, die darauf basieren, dass man bestimmte Schleifen drin hat, dass manche Aspekte mehrfach passieren in einem Algorithmus-Durchlauf, während bei einem Feed-Forward-Netz, was am Ende jetzt hier kommt, immer nur in eine Richtung gerechnet wird.

    Janine: Das heißt, man könnte sich bei der Attention vorstellen, dass eventuell zwischendurch quasi mit Zwischenergebnissen schon mal gearbeitet wird.

    Helena: Ja und dieses Feed-Forward macht dann am Ende die entscheidende Magie, die aus dem, was man vorher in diesen Attention-Blöcken an Informationen über das aktuelle Wort bekommen hat, verarbeitet, um dann eben neue Wörter vorherzusagen. Und das, was da jetzt rauskommt, sind Ausgabe-Wahrscheinlichkeiten für verschiedene Wörter. Also man bekommt quasi nicht nur ein Wort ausgegeben von diesem neuronalen Netz, sondern verschiedene, jeweils mit Wahrscheinlichkeitswerten. Und wenn man es ganz genau nimmt, sind es auch gar nicht auf Wortebene, sondern eigentlich arbeitet man auf sogenannter Tokenebene und Wörter, viele Wörter sind halt auch dann genau ein Token, aber ein Token kann eben auch Punkt sein oder Komma oder wenn man jetzt zum Beispiel die Katze hat, dann ist das vielleicht ein Token und wenn man jetzt das Wort Kätzchen hätte, dann wäre quasi Katze immer noch das eine Token und das Chen wäre dann noch ein neues Token. Einfach weil man dann alle Begriffe schon erschlagen kann, quasi die auf "chen" enden im Deutschen und braucht dann nicht irgendwie 100.000 neue Token dafür, sondern kann einfach dann die Wörter an dieser Stelle splitten und dann lernt auch das neuronale Netz, dass "chen" eine Verniedlichung ist und muss dann nicht für jedes Wort diese Verniedlichungsform kennen, um damit arbeiten zu können.

    Janine: So ein bisschen wie diese Kühlschrankpoesie, wo man auch einfach Endungen an Wortstämme ranhängen kann.

    Helena: Ja, genau. Und was jetzt hier bei so einem Transformer-Modell mit der Attention ja auch eine Rolle spielt, ist, wie lang können eigentlich diese Texte sein und je nachdem, welches Modell man hat, sind das 8.000 von diesen Token oder eben Wortfragmente oder auch 120.000, was schon relativ viel ist. Das heißt, die können relativ lange Texte verarbeiten, ohne den Faden zu verlieren. Das ist jetzt bei ChatGPT in der Ursprungsversion noch nicht so viel gewesen, ist jetzt inzwischen aber deutlich mehr geworden.

    Janine: Ja, das ist natürlich relativ ähnlich zu dem, was wir schon mal bei Whisper besprochen hatten, als es darum ging, wie Whisper eigentlich funktioniert, um unsere Audiodateien in Texte zu verwandeln. Da hatten wir das Wort "Token" auch schon mit drin. Das war Folge 40 for the record. Und ja, bei Whisper war allerdings in Anführungsstichen das Problem, dass es auch diese Token generiert über das, was gesagt wurde, damit es weiß, was quasi als nächstes gesagt werden kann und den Kontext hat. Also in den Token steckt auch da der Kontext für das, was als nächstes übersetzt werden kann und wahrscheinlich orientiert sich darin dann eben die konkrete Wortbedeutung. Nur ist es bei Whisper so gewesen, dass es nicht über die gesamte Eingabe der Audiodatei zurückreicht, sondern immer nur, meinetwegen die letzten drei Token sind noch bekannt. Das sind immer so kleine Zeitintervalle gewesen, in denen quasi Satzfragmente drin stecken. Und die überlappen sich so ein bisschen, damit es immer weiter fortgeführt wird, aber alles, was weiter zurückliegt als diese drei Token, sagen wir mal, ich weiß nicht mehr die genaue Anzahl, das wird halt verworfen, das spielt keine Rolle mehr. Und deswegen konzentriert sich Whisper immer nur auf den aktuellen Abschnitt, den es transkribiert, und weiß halt nicht mehr, was vorher war. Und ich glaube, das ist eines der Probleme, warum es immer noch nicht die Sprechenden auseinanderhalten kann, weil es ja nicht weiß, wie viele Personen schon gesprochen haben.

    Helena: Ja, also wenn man jetzt sagt, die Hauptanwendung wäre jetzt wirklich sowas wie Podcasts zu transkribieren, dann könnte man das ja da eintrainieren, dass es dann eben auch mit deutlich längeren Abschnitten arbeitet und eine deutlich höhere Kontextlänge hat. Das verlängert natürlich die Zeit, in der so ein Algorithmus durchläuft. Und wenn man jetzt sowas wie Whisper für Echtzeitanwendungen benutzen wollen würde, dann ist das halt unpraktisch. Also das ist halt dann die Frage, wofür will man das einsetzen? Und dann muss man es halt darauf auch optimieren.

    Janine: Genau. Und das ist ja auch Rechenleistung, die dabei aufgewendet werden muss, die man erstmal in Hardware vorhanden haben muss. Und auch ein Energieaufwand, der natürlich steigt, je länger ein aufwendiges Modell läuft.

    Helena: Ja. Gut. Das, was ich jetzt erklärt habe für den Transformer, kann man sich ganz gut vorstellen, hoffe ich, für Übersetzungen und gesprochene Sprache in geschriebene Sprache umwandeln. Wenn man jetzt das Ganze sich aber für sowas wie Chat-GPT oder GPT anguckt, dann muss man erstmal gucken, ja, wie ist das denn da umgesetzt? Aber praktischerweise sind Transformer ja schon von Anfang an so gedacht, dass sie eben Wort für Wort generieren. Das heißt, man kann das Ganze auch so nutzen, dass man sagt, ja, wir starten jetzt mit einem Text, den man quasi als Input reinpackt, aber dann eben auch bei dem Output reinpackt. Und dann sagt man, man will einfach nur das nächste Wort haben und die Idee ist dann quasi in der Ursprungsform gewesen, man fängt quasi einen Text an und der soll dann die Geschichte vervollständigen. Das waren so die ersten Beispiele von GPT-3, die ich gesehen hatte, die dann darauf basiert haben. Also wenn man jetzt zum Beispiel den Satz hat "Die Katze jagt", dann wären ja mehrere Möglichkeiten möglich, wie zum Beispiel "Der Satz ist jetzt einfach zu Ende, das nächste Token ist ein Punkt." Oder Wörter wie "eine", "die", "den" oder "einen" könnten rauskommen. Hier haben wir dann verschiedene Wahrscheinlichkeiten. Vermutlich ist dann die Wahrscheinlichkeit relativ hoch für "eine", weil "die Maus", wie in unserem vorherigen Beispiel, dazu müsste ja eigentlich "die Maus" schon mal in dem Text vorher vorgekommen sein, damit man typischerweise einen bestimmten Artikel nimmt und nicht einen unbestimmten wie "eine". Gut, aber wenn jetzt das nächste Wort eben "eine" ist, dann ist es schon relativ oder sehr wahrscheinlich, dass danach auch "Maus" kommt, während wenn das Modell dann aussucht, ja, ich nehme jetzt das mit der geringeren Wahrscheinlichkeit, "einen", "die Katze jagt einen", dann muss man ja weiter vervollständigen und dann kommt da "einen Vogel" höchstwahrscheinlich.

    Janine: Was ich mich frage, wenn es Bedeutung erkennen kann, dieses "Chat GPT", kann es auch absichtlich nicht Bedeutung erkennen? Also, ich denke da an vogonische Gedichte.

    Helena: Ja, vogonische Gedichte kann ChatGPT natürlich generieren. Und das hat mir auch einen schönen Text generiert gerade.

    Janine: Aha.

    Helena: Blurgle the Splonky Frapple. O squalid splurf of the rancid breeze, How you wiggle through my spleen with ease, Gromp the wobble, oh flibbly bloo, Spatch the greebs, for the muck is due!

    Janine: Hm.

    Helena: Und noch ein paar Absätze mehr.

    Janine: Interessant. Also, ich glaube, mir fehlt noch so ein bisschen vogonische Würze. Da sind noch zu viele Wortworte drin, die mehr wortig sind, als ich sie in vogonischer Dichterei erwarten würde. Es haben sich mir noch nicht die Eingeweide zusammengezogen. Das fehlt ein bisschen, aber ChatGPT kann ja noch lernen.

    Helena: Ja, ich dachte auch, irgendwie sind erstaunlich viele normale Wörter da mit drin.

    Janine: Ja, falls irgendein Mensch, der uns zuhören sollte, was ich fast nicht glaube, aber falls ein Mensch Kontext braucht, Vogonen sind eine außerirdische Spezies, die im Anhalter durch die Galaxis die Erde gesprengt hat und nun ja, sehr stolz auf ihre Dichterei ist, wobei sie bei den meisten anderen Wesenheiten, die das All bewohnen, eher so etwas wie Krämpfe auslöst, weil sie so abgrundtief schlecht ist.

    Helena: So behaupten das zumindest einige Leute. Andere Leute behaupten, das sei gar nicht so schlecht, wie der Hauptcharakter im Anhalter, der findet das okay.

    Janine: Ja, gut. Wenn man mit einer gewissen, nun ich sag mal, Demotivation gegenüber der Welt eingestellt ist, dann sind vogonische Gedichte wahrscheinlich auch nicht so das Problem. Ja, kommen wir zurück zu ChatGPT.

    Helena: Genau, was ich ja gerade erklärt hatte, ist, dass GPT ursprünglich eigentlich nur in der Lage ist, Sätze zu vervollständigen oder Texte ja, zu ergänzen. Also es endet nicht bei einem Satz, sondern kann schon ganze Texte generieren auf Basis des Eingangstextes. Das ist ja noch nicht genau das, was ChatGPT macht, weil bei ChatGPT ist das ja ein Chat, wo man Fragen stellt oder Eingangstexte gibt. Und wie das da gelöst ist, ist im Wesentlichen, dass man nicht einfach nur die Frage als Inputfrage nimmt, die man da eingetippt hat, und dann generiert das eben einen Output, eine Ausgabe, sondern man muss im Hintergrund ein Setting definieren, also einen Rahmentext erstellen, wie zum Beispiel "Es gibt ein Gespräch zwischen Mensch und AI und der Mensch sagt, was jagt die Maus?, und dann antwortet die AI, Doppelpunkt", und das ist dann der Text, der dann weiter vervollständigt wird von dem Modell. Und das ist in der Praxis, sind diese Prompts, so nennt man das auch, Prompt, also nicht nur Frage, sondern Prompt, dann durchaus komplexer. Und ja, seit es ChatGPT gibt, gibt es auch irgendwie immer wieder das Thema: der neue Berufszweig ist Prompt Engineering, also das Entwickeln von möglichst schlauen Prompts, mit denen diese Sprachmodelle in der Lage sind, dann auch wirklich die Antwort zu geben, die man haben möchte. Und letztlich war bei ChatGPT im Vergleich zu dem GPT-3, was davor kam, eben, dass man eine schlaue Prompt quasi hatte, die eben dieses Setting so generiert, dass es sich wie ein richtiges Gespräch anfühlt. Und wenn man sich andere Modelle anguckt, dann haben die eben auch verschiedene Prompts, die dann im Hintergrund bestimmte Dinge als Kontext mitliefern, den wir jetzt selber nicht noch als Kontext mitgeliefert haben. Ja, und dann vervollständigt das Sprachmodell eben dieses Gespräch. Im Prinzip ist das Sprachmodell jetzt nicht so unendlich schlau, es kann dann ja auch anfangen, den menschlichen Teil wieder zu vervollständigen. Da würde dann eben die Benutzeroberfläche oder das, was man da angebunden hat, einfach dann den Text abschneiden und im nächsten Fall dann den Kontext eben wieder so setzen, ohne diesen vom Computer generierten Teil, den der Mensch angeblich antworten würde. Ja, und das letzte Thema, was vielleicht noch eine Rolle spielt, ist das Training.

    Wie werden solche Modelle trainiert? (00:10:44)

    Helena: Wie trainiert man solche Modelle? Also letztlich sind das eben auch sogenannte Deep-Learning-Modelle, das heißt, sie werden so trainiert wie andere Deep-Learning-Modelle, darüber reden wir jetzt hier nicht. Also mathematisch betrachtet ist der Algorithmus der gleiche, aber was jetzt Sprachmodelle im Besonderen eben auszeichnet, ist, wenn man jetzt einen Text hat, der hat 100 Wörter, dann entsprechen diese 100 Wörter schon 99 Trainingsdaten-Sätzen, weil man ja den Text an jeder beliebigen Stelle aufhören kann und dann im Training sagen kann, ja, sag mir jetzt das nächste Wort voraus. Das heißt, man kann schon mit relativ wenigen Texten so ein Sprachmodell sehr effizient trainieren, also effizient im Sinne von, man braucht nicht so unendlich viele Eingangstexte. Und was dabei trainiert wird, sind eben die Gewichtungen, die eben in diesen Zwischenschritten bei der Attention verwendet werden oder auch in diesem Feed-Forward-Netz, was am Ende kommt, da gibt es auch Gewichtungen der neuronalen Netzparameter und das ist letztlich das, was dann rausfällt, diese Gewichtungsmatrizen. In diesen Zahlen stecken letztlich auch diese Fakten drin, die eben so ein Modell benutzen kann, um damit zu arbeiten. Also es gibt eine Unterscheidung zwischen Modell, das ist, wie rechnet man, wie ist dieses neuronale Netz aufgebaut und so weiter und dann gibt es eben die Gewichtungsmatrizen, die dann tatsächlich den trainierten Zustand repräsentieren. Und diese Gewichtungsmatrizen sind sehr abstrakt, weshalb es eben auch als sehr schwierig festzustellen gilt, welche Teile dieser Matrizen jetzt für welche genauen Fakten stehen. Ich meine, man kann das ja auch vergleichen mit einem menschlichen Gehirn, letztlich sind neuronale Netze ja so ein bisschen daran angelehnt. Wir wissen jetzt auch nicht, in welchen Neuronen jetzt welche Fakten genau gespeichert sind. Ja.

    Janine: Ich finde, das ist auf jeden Fall sehr schön dargestellt insgesamt, weil ich glaube jetzt, das auch ein bisschen besser zu verstehen, wie das aufeinander aufbaut. Und wir hatten ja in früheren Folgen auch schon mal auf so Sachen hingewiesen, wie die KI halluziniert sich etwas zusammen, indem halt Sachen auftauchen, die vielleicht nicht stimmen oder die halt den Fakten eben widersprechen. Und ich glaube, ich habe jetzt so ein bisschen das Gefühl dafür, wie so etwas tatsächlich entstehen kann, weil es ja einfach nach wahrscheinlichen nächsten Worten sucht. Also, wenn irgendwelche Kontexte irgendwann irgendwo in diesem Internet mal gegeben waren und das zu den Trainingsdaten gehört hat, hat das natürlich auch Einfluss. Und natürlich muss ein Wort auf ein Wort folgen. Also, die Eingabe erfordert ja eine Ausgabe, also muss da am Ende etwas stehen. Und das ist ja nur eine Vervollständigung bis zu dem Punkt, wo potenziell die Eingabe ausgeführt wurde, falls man versteht, was ich sagen möchte. Naja, ja. Jedenfalls hoffe ich, dass ihr anderen auch, die uns hier vielleicht zuhören oder sehr wahrscheinlich zuhören, eben auch diese grundsätzliche Arbeitsweise so ein bisschen mitgenommen habt aus dem, was bisher schon gesagt wurde und wie so die Interaktion mit Chat-GPT funktioniert, dass tatsächlich eine Ausgabe rauskommt.

    Wie wird chatGPT im Alltag genutzt? (00:32:09)

    Janine: Und weil diese Anwendung schon eine ganze Weile jetzt im Gebrauch ist, seit fast zwei Jahren, haben sich auch schon verschiedene Anwendungsmöglichkeiten herauskristallisiert. Ich selbst habe es noch nicht genutzt, im Sinne von noch gar nicht. Also, nie.

    Helena: Hast du nicht mal bei einer Suchmaschine schon automatisch generierten Antwortstext von der KI bekommen?

    Janine: Ich habe es nicht bewusst genutzt. Also, ich habe nie ChatGPT einen Prompt geliefert und auf eine Ausgabe gehofft. Aber natürlich werde ich wahrscheinlich im Hintergrund Sachen benutzt haben, ohne es zu wissen.

    Helena: Okay. Weil verschiedene Suchmaschinen ja mittlerweile, wenn man dann eine Suchanfrage reinschreibt, auch oben erstmal einen KI-generierten Antworttext zeigen, bevor dann die ganzen normalen Suchergebnisse kommen. Also, hätte ja sein können, dass du das in der Form schon mal gesehen hast.

    Janine: Gesehen vielleicht, wahrgenommen als solches eher nicht.

    Helena: Ach so, okay.

    Janine: Da tauchen ja eigentlich manchmal auch immer schon eher, dachte ich, die irgendwelche Snippets aus Wikipedia automatisch auf, die vorübersetzt werden und sowas.

    Helena: Genau, das gibt es auch, aber das ist es jetzt je nach Suchmaschine nicht mehr nur.

    Janine: Okay. Naja, ich habe keine eigenen Erfahrungen damit oder keine bewussten eigenen Erfahrungen, aber hin und wieder mit Menschen geredet oder Menschen zugehört, die es benutzen. Und da haben sich für mich verschiedene Punkte herauskristallisiert. Es ist vor allem oft der berufliche Kontext und Dinge, die da halt öfter mal genannt werden, sind, dass kleine zeitraubende Aufgaben abgenommen werden können dadurch, das weiße Blatt gefüllt wird für Leute, die viel mit Texten arbeiten. Also, ChatGPT bietet einen Anfangspunkt, eine Vorlage, die man dann selbst überarbeiten oder ausbessern kann. Man kann sich Ideen generieren lassen und ja, Texte schreiben lassen, die relativ banale Inhalte haben, wo es auch nicht auf die Ästhetik des Textes unbedingt ankommt. Und ja, manche benutzen ChatGPT statt Google. Also, nicht nur eine Suchmaschine, die auch KI-Ergebnisse liefert, sondern tatsächlich konkret gleich in den Chat mit einer KI treten, um Ergebnisse zu bekommen. In meiner Vorstellung war das so, vielleicht denken die Leute bei Google immer mehr an die Stichworte und bei ChatGPT kann man halt einfach eine Frage stellen, als würde man irgendeinen Menschen fragen. Sag mal, kannst du mir nicht mal kurz sagen, das und das? So war meine Vorstellung von ChatGPT. Liege ich da in etwa richtig? Wahrscheinlich nicht.

    Helena: Ja, also beim Googlen oder beim Benutzen verschiedener Suchmaschinen ist schon seit Jahren das Problem, dass wenn man Stichworte benutzt, man auch immer angezeigt bekommt, welche Stichworte jetzt einfach nicht benutzt wurden, weil es keine sinnvollen Suchergebnisse dazu gab. Was oft sehr frustrierend ist aus meiner Sicht, wenn man denkt, ja, okay, jetzt sind da irgendwie 20 Suchergebnisse, die passen alle überhaupt nicht zu meinem Problem. Weil ein entscheidendes Wort nicht drin vorgekommen ist. Und früher konnte man das immer noch erzwingen, dass bestimmte Wörter oder Phrasen drin vorkamen und das ist über die Zeit aber immer mehr abgebaut worden. Und gerade sowas wie Google ist ja schon seit Jahren eher dabei, auch Leuten Fragen zu ermöglichen. Also da kann man schon seit Jahren einfach Fragen reinschicken und man kriegt irgendwie Antworten. Aber mein persönliches Problem mit sowas wie Google ist dann oft, dass es je nachdem, in welchem Thema man sucht, einfach mit Werbung zugemüllt ist. Also nicht nur bezahlte Werbung, das ist ja okay, irgendwie müssen die ja auch ihre ganzen Sachen finanzieren, das ist ja okay. Aber irgendwie Webseiten, die darauf ausgelegt sind, möglichst viele Suchergebnisse oder bei möglichst vielen Suchen möglichst weit oben bei Google vorzukommen, die dann aber alle nicht wirklich sinnvolle Ergebnisse liefern. Also es ist sehr abhängig davon, was man im Internet sucht, aber bei vielen Themen kommt einfach auch bei Google und bei anderen Suchmaschinen keine sinnvolle Ausgabe mehr raus. Und an der Stelle ist ChatGPT halt viel einfacher, weil man da ja die Frage reinschreiben kann und man kriegt halt eine Antworten. Man kann sich eben auch Quellen geben lassen. Die stimmen dann auch nicht immer so hundertprozentig mit dem überein, was man wirklich gesucht hat, weil es manchmal auch einfach keine Webseiten gibt, die exakt das Thema so behandeln, wie man es gesucht hat. Das ist dann auch ein bisschen ärgerlich. Aber wenn man dann schon mal eine Antwort von ChatGPT hat, dann ist es mit dieser Antwort auch ein bisschen leichter, dann wieder das in Suchmaschinen reinzupacken und dann zu überprüfen, ob die Fakten immerhin stimmen. Und was ich jetzt auch öfter gesehen habe, ist, dass bei Suchmaschinen schon ein LLM beziehungsweise so ein Sprachmodell eingebaut ist, dass es mir eben schon passende Suchergebnisse mit Quellen anzeigt, ohne dass ich jetzt ChatGPT benutzen muss. Ja, was ich dann auch, also ich hatte letzte Woche mal wieder angefangen, die Sherlock Holmes Bücher zu lesen und da ist mir aufgefallen, dass Sherlock Holmes und ChatGPT sehr viel gemeinsam haben. Im ersten Buch sagt Sherlock nämlich, dass sein Gehirn sehr effizient deduzieren würde, um dann irgendwelche kriminalistischen Rätsel zu lösen. Aber um anderen verständlich zu machen, wie er darauf gekommen ist, dass das doch sehr kompliziert wäre und er darüber dann nochmal extra nachdenken müsste. Also er kann das dann? Das ist dann der Unterschied zu ChatGPT, was dann manchmal, wenn es um die Herleitung geht, doch sehr fragwürdig ist, um das zu erklären. Aber er braucht dafür mehr gedankliche Leistung, um auf die richtige Lösung zu kommen. Und dazu hattest du ja einen Artikel gefunden, der ChatGPT auf die Probe gestellt hat und dann die These nennt, dass das, was ChatGPT als Ergebnis erzeugt, dem kahnemanschen schnellen Denken entsprechen würde. Also Kahneman war ein, wie heißt diese Wissenschaft, wo es um Geld geht?

    Janine: Ökonom?

    Helena: Ja, genau. Kahneman war eben ein Ökonom, der sich angeguckt hat, wie Menschen Entscheidungen treffen und hat dann ein sehr berühmtes Buch geschrieben, was heißt "Schnelles Denken, langsames Denken". Und er hat dann eben die These aufgestellt, dass menschliches Denken eben sich in zwei verschiedenen Prozessen gliedert. Das eine ist das schnelle Denken, das ist das, was passiert, wenn ich jetzt einen Satz sage, ohne vorher genau darüber nachzudenken, was ich sage. So, es kommt einfach raus. In einem flüssigen Gespräch spricht man einfach miteinander, ohne dass man irgendwie lange Gesprächspausen hätte. Und wenn man jetzt eben darüber nachdenken würde, warum ich jetzt genau diese Wörter in dieser Form gesagt habe, würde ich das ja auch nicht unbedingt können. Also das ist die Art des Denkens, die so automatisch immer mitläuft. Und hierauf basieren ja auch Fangfragen, das Ausnutzen, dass man, wenn man nicht wirklich über etwas nachdenkt, sondern einfach dieses schnelle Reagieren hat, dann irgendwie zu einem falschen Schluss kommt. Und dann gibt es laut Kahneman noch das langsame Denken, also das Nachdenken, wo man dann vielleicht nicht mehr auf Fangfragen reinfällt, weil man den Fehler nach ein bisschen Nachdenken sieht, den man sonst gemacht hätte. Ja, wo man vielleicht auch Dinge nachrechnen muss oder logische Schlüsse nochmal überprüfen muss oder das, was man sagt, auch schlüssig begründet. Und das ist das, was ChatGPT nicht kann. Und in diesem Artikel wurden eben auch entsprechend solche Szenarien generiert, wo man dann feststellt, ja, ChatGPT ist bei Fangfragen, die man sich jetzt neu ausdenkt, auch nicht so gut. Das hat natürlich einige gelernt. Aber wenn man sich Szenarien ausdenkt, die relativ ähnlich zu bekannten Szenarien sind, kann man es eben damit durcheinander bringen, weil es ja eben nicht nachdenken kann. Aber das schnelle Denken kann es halt schon, diese spontane Dinge auf basierender Erfahrung generieren zu lassen. Gut, ja, wie wird ChatGPT im Alltag sonst noch genutzt? Also was ich jetzt zum Beispiel schon mal gemacht habe, ist, ich hatte vor, ein bestimmtes Gericht zu kochen und wollte dann irgendwie wissen, ja, okay, ich möchte jetzt vielleicht mal andere Gewürze benutzen, welche könnte ich denn da verwenden? Und damit das einem bestimmten Kochstil entspricht, ob man jetzt irgendwie indisch kochen möchte oder ja, chinesisch oder so, das sind dann verschiedene Gewürze, wo ich jetzt auch nicht immer hundertprozentig weiß, was genau wohin gehört, und dann könnte ich das nachfragen und dann gab es leckeres Essen daraus. Was ich jetzt auch gehört hatte von Wissenschaftler*innen, ist, dass sie, weil wissenschaftliche Veröffentlichungen halt auf Englisch sind, gerne auch den Text Korrektur gelesen bekommen von ChatGPT, weil es eben nicht nur Rechtschreibung korrigieren kann, sondern auch Grammatik. Und somit es ermöglicht für nicht-englische Muttersprachler, besser verständliche Texte zu erstellen. Und gerade im Wissenschaftsbereich ist das ja üblich, dass das meist auf Englisch passiert, aber viele ja nicht in englischsprachigen Ländern geboren wurden und das so perfekt können. Und da lässt man halt nicht den Text komplett generieren, sondern nur Korrektur lesen, da guckt dann auch nochmal ein Mensch drauf, ob es auch alles immer noch Sinn macht, was da steht. Aber es ermöglicht eben Dinge, die vorher nicht so möglich waren. Ja, im Bereich vom Programmieren habe ich das durchaus auch schon ganz oft benutzt. Hier ist es natürlich auch beruflich sehr interessant. Das hat allerdings ein paar Einschränkungen, zu denen ich später noch komme. Ein Beispiel, was ich noch habe, ist, ich habe vor ein paar Jahren mal in einem Kundenprojekt ein bestimmtes Problem gehabt, was ich lösen wollte, oder wo ich keine sinnvolle Lösung gefunden habe, in einer proprietären Software, wo ich dann viel im Internet gesucht habe und verschiedene Dokumentationen gelesen habe und es nicht gefunden habe. Und jetzt hatte ich mich daran erinnert und dann habe ich zum Testen mal ChatGPT gefragt und habe sofort die richtige Antwort bekommen. Also, wenn man nach längerem im Internet suchen und Dokumentationen lesen keine Antwort gefunden hat, dann sollte man vielleicht spätestens mal ChatGPT testen. Gerade bei so Softwareproblemen sieht man ja auch sehr schnell, ob es richtig ist, was ChatGPT behauptet, weil man es einfach ausprobieren kann. Und dann habe ich diesen Sommer mal wieder Kurse an der Uni gegeben und dann festgestellt, dass jüngere Teilnehmende selbstverständlich sich von ChatGPT helfen lassen und die älteren Teilnehmenden nicht.

    Janine: Okay.

    Helena: Also, es ist offenbar, ja, wie bei vielen Computertechnologien, dass was neu ist, wird von jüngeren Leuten eher eingesetzt. Ja, und ich denke, dass ChatGPT durchaus nützlich ist, um so Programmcode besser zu verstehen. Das Risiko, wenn man jetzt noch lernen möchte, ist natürlich, dass man nicht genug lernt, um es selbstständig zu verstehen. Also, man kann dann vielleicht selbstständig bestimmte Programmieraufgaben gar nicht mehr lösen, weil das ChatGPT immer für einen macht. Solange es die richtigen Lösungen generiert, ist das vielleicht auch okay, weil wenn das ChatGPT kann, warum muss der Mensch das dann noch machen? Braucht man ja nicht mehr. Aber sobald es komplizierter wird und spezieller, dann fängt ChatGPT irgendwo an, halt Dinge nicht mehr so richtig gut hinzubekommen. Also, je spezieller die Themen werden, je allgemeiner die sind, desto besser ist halt auch die Antwort. Also, kann ich, wenn man programmiert, durchaus empfehlen, wenn man eine Frage nicht sofort beantwortet bekommt, erst mal ChatGPT zu fragen. Und man kann das ja, wie gesagt, sehr schnell ausprobieren. Ja.

    Janine: Ja. Wir hatten ja auf dem Mastodon-Account gestern eine kurze Frage gestellt, wer denn so wofür ChatGPT nutzt. Und da landete auch eine Antwort drunter, wo auch das Python-Coden mit angegeben wurde, dass eine Person das halt benutzt, um Code zu generieren, wo zwar generell bekannt ist, was er tun soll, aber die Syntax jetzt eben nicht auswendig auf dem Schirm ist. Und dann liefert halt ChatGPT sehr schnell benutzbare Dinge, die mit kurzem drüberfliegen auch gut verifiziert werden können, wenn das schon bekannt ist, was es eigentlich leisten soll an der Stelle, der Python-Code.

    Helena: Ja.

    Janine: Und das ist halt richtige Buzzwords liefert für Dinge, wo man sich vielleicht selber gerade nicht so gut auskennt.

    Helena: Und dann kann man damit wieder weiter suchen im Internet.

    Janine: Genau.

    Helena: Ja, das denke ich auch. Also, ich habe das dann bei den Kursen auch genutzt, weil ich dann live immer Dinge erklärt habe auf dem Beamer und die Teilnehmenden wollten dann eben auch das, was ich gezeigt habe, auch zugeschickt bekommen, aber gerne mit erläuternden Kommentaren. Dafür habe ich dann auch ChatGPT genutzt, um eben Kommentare hinzuzufügen, die erklären, was passiert. An einigen Stellen musste ich dann auch was dazu schreiben, die dann das Warum erklären. Gerade wenn man lernt, ist es auch wichtig, dass man das Was erklärt bekommt, was passiert. Das heißt auch, was ChatGPT gemacht hat, ist, denke ich, hilfreich. Aber das Warum, das weiß ChatGPT dann nicht unbedingt. Deswegen habe ich das dann eben noch ergänzt. Und bei Kommentaren in Programmierungen ist es ja generell so, man will eigentlich in erster Linie das Warum reinschreiben, weil das Was, das sagt ja auch der Code, wenn man den Code verstehen und lesen kann. Aber warum man das tut, das muss man dann eben kommentieren. Und das musste ich in diesem Fall eben auch. Das konnte ChatGPT nicht. Ja, es hilft sehr viel beim Programmieren. Jetzt ist natürlich das Problem, wenn ich das beruflich einsetze, dass man ja die Daten an eine amerikanische Firma schickt. Und ich darf jetzt in vielen Kundenprojekten diesen Code für die Datenanalysen nicht einfach an andere Firmen weitergeben. Also ich habe dann einen Vertrag unterschrieben, in dem drin steht, ich muss diese Firmengeheimnisse natürlich für mich behalten. Also darf ich die mit ChatGPT schon mal nicht teilen.

    Janine: Ja.

    Wie sieht der Datenschutz bei chatGPT aus? (00:45:58)

    Helena: Ja, was uns dann zu dem nächsten Abschnitt bringt. Wie sieht denn eigentlich der Datenschutz bei ChatGPT aus?

    Janine: Ja, Datenschutz bei ChatGPT, das Thema hatten wir versprochen. Und es ist ein wahnsinnig großes Thema, weil da sehr viele, viele Dinge dran hängen, was auch gesellschaftliches und so weiter angeht, wie ich finde. Und ja, ich werde sehr an der Oberfläche bleiben. Gucken wir mal, was am Ende bei rauskommt. Also natürlich ist es hier auch wie bei vielen digitalen Anwendungen eben ein Thema, weil letztlich Daten eingegeben werden, die auch personenbezogene Daten sein könnten. Das hatten wir in der letzten Folge bei den Gesundheitsdaten auch schon als Thema. Und bei ChatGPT ist es nochmal besonders spannend, weil diese Technologie im Prinzip von jetzt auf gleich sehr vielen Menschen zur Verfügung stand. Also ChatGPT hat am 30. November 2022 die Öffentlichkeit betreten und war dann eben da mit allen Konsequenzen. Wir haben das ja auch mit der Bildgenerierung durch das Thema. Dort wurde dann auch danach darüber geredet, was hat das eigentlich für rechtliche Konsequenzen, welche Bilder da benutzt wurden. Und so ähnliche Themen gibt es eben bei ChatGPT natürlich auch. Und dieses Thema ist in den letzten zwei Jahren sehr, sehr groß geworden, weswegen sich das auch gar nicht so einfach runterbrechen lässt. Und auch allgemein in dieses Ganze, wie gehen wir als Gesellschaft mit künstlicher Intelligenz um auf verschiedenen Ebenen, in verschiedenen Einsatzgebieten, steckt da auch alles so ein bisschen mit drin. Und ich habe mich dazu entschieden, mal ein Zitat aus dem Tätigkeitsbericht des Datenschutzbeauftragten des Bundes zu zitieren, der dieses Jahr im März erschienen ist. Und dort steht:

    "Das Tempo, mit dem innerhalb weniger Monate zahllose KI-basierte Innovationen an den Start gegangen sind, hat große Hoffnungen geweckt, aber auch große Ängste ausgelöst. Dass KI tiefgreifende Auswirkungen auf die Gesellschaft haben kann, steht außer Frage. KI-Systeme können bemerkenswert positive Auswirkungen auf unsere Lebensqualität haben, sie können aber auch Freiheiten und Rechte von Bürgerinnen und Bürgern stark beeinträchtigen, denn die zahlreichen Vorteile basieren in der Regel auf der Auswertung von großen, oft auch personenbezogenen Datenmengen. Je nachdem, wie KI eingesetzt wird, birgt sie damit das Potenzial für Grundrechtseinschränkungen und Diskriminierungen. Ein hohes Maß an Transparenz und Nachvollziehbarkeit der Ergebnisse und der Prozesse maschinengesteuerter Entscheidungen, der Grundsatz der Datenminimierung, die Einhaltung der Zweckbindung, aber auch die Vermeidung von Diskriminierungen und die klare Zurechnung von Verantwortlichkeiten sind daher Grundsätze, die die Technologiegestaltung begleiten müssen."

    Janine: Das ist aus dem Tätigkeitsbericht des Jahres 2023, also quasi ein Jahr nach ChatGPT, so ein Zwischenfazit, weil es eben so sehr aus dem Nichts kam und so super anwenderfreundlich war von vornherein, mit einer sehr simplen Eingabemaske und einer Oberfläche, die direkt funktioniert hat, hat es sich auch schon so schnell verbreitet. Und zu dem Zeitpunkt waren aber viele Fragen noch offen, was die rechtlichen Hintergründe und den Datenschutz der eingegebenen Informationen angeht, was zum Beispiel darin gipfelte, dass Italien im März 2023 ChatGPT vorübergehend verboten hat und es im eigenen Land gesperrt hat, wegen unklarer rechtlicher Grundlagen. Das wurde circa einen Monat später wieder aufgehoben, weil OpenAI, der Betreiber von ChatGPT, eben die gestellten Anforderungen nachgeliefert hat. Und seitdem und auch schon vorher, weil ChatGPTs Veröffentlichung ist ja quasi nur so eine Spitze dessen, was da an KI-Entwicklung im Hintergrund schon mehrere Jahre vorher gelaufen ist oder seit sehr, sehr vielen Jahren. Ja, das führte jedenfalls jetzt auch dazu, dass es den Artificial Intelligence Act der Europäischen Union gibt, die KI-Verordnung, wie sie, glaube ich, auf Deutsch übersetzt wunderschön genannt wird, die inzwischen auch unterschrieben ist und verschiedene Dinge regeln soll. Dieser AI-Act ist seit diesem Jahr am 1. August in Kraft getreten, aber die Verpflichtung, ihn auch anzuwenden, tritt erst 2026 teilweise in Kraft und zieht sich dann noch bis zum 2. August 2027. Also bis dahin wird auf die freiwillige Selbstbedingsung, ich kenne das Wort nicht, Selbstverantwortung der Institutionen, Firmen und so weiter gesetzt, die eben künstliche Intelligenz benutzen. Die Frage ist, ob damit denn eigentlich alles gut ist. Sind auch meine eigenen Daten geschützt oder welche Daten können dadurch geschützt werden? Naja, vermutlich ist es nicht ganz so gut, weil zum einen tritt es halt erst viel später in Kraft und das wird bis dahin so der Selbstverwaltung der Firmen überlassen. Aber zum anderen ist es auch so, dass halt bereits jetzt zur Verfügung gestellte Daten sich auch nicht mehr wirklich entfernen lassen. Also was schon drin ist, ist schon drin und kann nicht so einfach gelöscht werden wie ein Foto, das irgendwo auf einem Cloud-Server liegt, weil es halt verarbeitet wurde. Und das steht auch in den Nutzungsbedingungen von ChatGPT mit drin, wo sie beschreiben, wie sie den Inhalt benutzen. Da steht "We can use your content worldwide to provide, maintain, develop and improve our services." Also es wird weltweit angewendet, um diesen Dienst am Laufen zu halten, ihn zu pflegen und weiterzuentwickeln. Es gibt tatsächlich auch eine Opt-out-Klausel, also falls ihr ChatGPT nutzt und einen Account habt, guckt euch die Opt-out-Klausel mal an. Allerdings ist da wiederum die Einschränkung wie bei jedem dieser Services, wir können dann vielleicht leider nicht mehr speziell auf dich zugeschnittene Antworten liefern. Also diese Einschränkung muss man dann wahrscheinlich in Kauf nehmen. Und deswegen gilt eigentlich wie bei den meisten anderen technologischen Anwendungen auch, die man einfach so im Internet benutzen kann, welche Daten wir von uns aus zur Verfügung stellen, sollten wir uns vorher gut überlegen. Also was erzähle ich einem ChatGPT in der Web-Anwendung über mich? Mein Geburtsdatum? Oder suche ich da vielleicht nach irgendwelchen Krankheitssymptomen, wie das ja auf Google oft der Fall ist und so weiter? Das sind halt alles Sachen, die man eingibt und die irgendwann ein Bild von einem Menschen auf der Welt ergeben. Vielleicht weiß niemand, dass man das selber ist, aber es sind am Ende doch die personenbeziehbaren Daten, die da vielleicht drin landen. Was übrigens um den AI-Act, wo der noch kritisiert wird, auch nochmal am Rande mitzunehmen. Nicht alle KI-Systeme werden durch diesen AI-Act gleichermaßen reguliert. Meistens die, die irgendwie in der Wirtschaft eingesetzt werden, aber gerade der Einsatz von militärischen KI-Systemen oder KI-Systemen zur Strafverfolgung, da sind einige Punkte wohl offen geblieben. Das heißt, so was wie jetzt zum Beispiel aus einem Artikel vom Deutschlandfunk oder einem Beitrag "Gesichtserkennung im öffentlichen Raum ist an sich mit künstlicher Intelligenz verboten, kann aber vielleicht dann doch für Strafverfolgung in Sicherheitsbehörden nutzbar gemacht werden." Also, der AI-Act sagt nicht, dass solche Dinge nicht passieren, er sagt nur, wer es machen darf.

    Helena: Okay.

    Janine: Ja. Und weil wir das Thema in der letzten Folge auch hatten, bei den Gesundheitsdaten, es ist übrigens laut dem AI-Act auch verboten, die Gefühlserkennung mittels KI am Arbeitsplatz einzusetzen. Also, das geht hier schon mal nicht in der EU dann.

    Helena: Ja, diese Gefühlszustandserkennung von Menschen war so eines der ersten großen Beispiele vor zehn Jahren oder so, auf Basis von Bilderkennung oder auch von Texten, die man geschrieben hat, dass man dann eben den Gefühls- und Erregungszustand der Person festzustellen, weil man irgendwie, keine Ahnung, spezielle Werbung in Supermärkten an bestimmten automatisierten Bildschirmen zeigen wollte. Also, das war eines der Themen vor zehn Jahren.

    Janine: Und eine Randnotiz habe ich noch. Weil ich eben von dem Datenschutzbeauftragten und in der letzten Folge auch gesprochen habe, das waren jeweils Zitate aus der Amtszeit von Professor Ulrich Kelber als Datenschutzbeauftragter des Bundes. Seit dem 3.9. diesen Jahres haben wir eine Datenschutzbeauftragte im Amt, nämlich Professor Dr. Luisa Specht-Riemenschneider. Also, demnächst werde ich dann von die Datenschutzbeauftragte reden, wenn wieder so ein Thema aufkommt. Also, nicht wundern, dass es da einfach mal kurz gesprungen ist.

    Welche LLMs lassen sich lokal ausführen? (00:54:26)

    Helena: Gut, also wenn wir jetzt wissen, dass Daten weitergeben an Chats GPT je nach Situation nicht so schlau ist, ist ja gleich auch ein Thema, kann man nicht so etwas ähnliches wie ChatGPT auch einfach lokal auf dem eigenen Rechner ausführen? Da kann ich einfach zu sagen, ja, das geht. Und das hat sich so entwickelt, dass, ja, als ChatGPT erst mal veröffentlicht wurde, wurden die anderen großen Firmen im Bereich von IT, sowas wie Facebook und Google und Apple, erst mal sehr überrascht davon, dass es jetzt dieses Produkt gibt, was so stark ja einem Hype unterlegt, dass sie dachten, okay, wir müssen auch alle in diesem Bereich arbeiten. Und Facebook, beziehungsweise die Muttergesellschaft, die sich da mittlerweile gegründet hat, namens Meta, hat dann im März 2023 ein eigenes Modell entwickelt mit dem Namen Llama. Und das wurde für Wissenschaftler*innen zur Verfügung gestellt. Und die Veröffentlichung gab es dann ohne eben diese trainierten Gewichtungen. Die Gewichtsmatrizen waren nicht dabei. Das heißt, man hätte es immer noch selber trainieren müssen. Aber diese Gewichtungen, diese trainierten Daten wurden dann geleakt und über BitTorrent-Netzwerke verteilt, sodass es dann plötzlich frei verfügbar war, weil das Modell selber war ja schon offen. Dann waren jetzt auch noch die Gewichtungen, also die trainierten Daten, standen zur Verfügung, wenn auch nicht unbedingt legal. Aber das hat dann dazu geführt, dass sehr viele Leute eben angefangen haben, sich auf Basis dieses Modells mit diesen Large Language Models zu befassen, also mit den großen Sprachmodellen, das ja oft LLM abgekürzt wird. Deswegen ja auch der Name Llama mit Doppel-L, weil das einfach sehr naheliegend ist. Ja, Meta hat dann festgestellt, ja, das ist ja eigentlich gar nicht so schlecht, wenn so viele Leute auf Basis der eigenen LLMs Dinge lokal laufen lassen. Machen wir das doch weiterhin so und veröffentlichen die Modelle unter einer relativ offenen Lizenz. Und das ist seitdem auch mehrfach passiert. Und was jetzt ist diese Lizenz halt eben ermöglicht, dass man es einfach privat benutzen kann, aber keine kommerzielle Nutzung. Dafür müsste man eben eine kommerzielle Lizenz erwerben. Das werden sicherlich viele Leute auch nicht machen, die das benutzen. Aber gerade für Firmen, die dann eigene LLMs verwenden wollen, ist das natürlich dann interessant. Das heißt, dieses Geschäftsmodell ist für Meta durchaus interessant. Dann gibt es allerdings auch noch andere Firmen, die auf diesen Zug aufgesprungen sind. Unter anderem eine französische Firma namens Mistral AI. Die haben ein Modell veröffentlicht mit dem Namen Mistral. Das ist unter der Apache-Lizenz veröffentlicht. Das heißt, es darf auch kommerziell benutzt werden und einfach weitergegeben werden. Diese Firma hat jetzt wiederum auch dann noch ein Speziell für Programmierer... ein Modell veröffentlicht namens Codestral, das dann wiederum aber keine kommerzielle Nutzung erlaubt, das Lizenzmodell dafür. Gut, ich habe es trotzdem einmal ausprobiert. Ich hatte ja vorhin gesagt, dass ich meinen R-Code aus einem Kurs habe kommentieren lassen von ChatGPT. Ja, das habe ich eben auch mit diesem Codestral ausprobiert. Und dann hatte es sich erstmal beschwert, dass es ja nur Python könne und von R nicht so viel versteht. Und es war auch nicht in der Lage, mir irgendwie Kommentare dazu zu schreiben. Es hat versucht, in einem Fließtext ein bisschen den Code zu erklären. Aber das war überhaupt nicht die Aufgabe, die ich dem gegeben habe. Das war dann ein bisschen enttäuschend. Von daher ist es jetzt auch egal, ob ich das kommerziell nutzen darf oder nicht. Also wenn ich jetzt Dinge in einem Kundenprojekt nutze, dann ist das ja schon automatisch kommerzielle Nutzung, weil ich damit ja Geld verdiene.

    Wie verwende ich LLMs lokal? (00:58:23)

    Helena: Gut, aber wenn ich das jetzt mache, wie mache ich das dann? Es gibt ein Tool namens "Ollama". Das ist natürlich dann auch so benannt wegen dem Llama-Modell. Und Ollama ist dann wiederum ein Tool, das ist jetzt selber kein Sprachmodell, sondern es ist eine Software, die im Prinzip ermöglicht, verschiedenste Sprachmodelle auszuführen und leicht zugreifbar zu machen. Und damit lassen sich eben diese Sprachmodelle auf dem lokalen Rechner herunterladen und ausführen. Und standardmäßig hat das Ganze ein einfaches Textinterface in einer Kommandozeile. Das heißt, es ist jetzt nicht so ultra benutzerfreundlich. Deswegen habe ich dazu noch ein Tool installiert namens "OpenWebUI", was dann eine Benutzerschnittstelle, die so aussieht wie ChatGPT zur Verfügung stellt. Und das funktioniert eben auch mit verschiedenen Sprachmodellen im Hintergrund. Man könnte sogar ChatGPT da einbinden. Ja, dann lässt sich das Ganze einfach benutzen, quasi. Man kann einfach "Mystril" oder "Llama 3" herunterladen und damit chatten. Dann habe ich noch ein Plugin für den Code-Editor Visual Studio Code oder "VS Code". Das hat den Namen "Continue". Und was dieses Plugin ermöglicht, ist, dass man direkt im Code-Editor eben Vervollständigungsvorschläge hat. Also es gibt ja... gab ja auch vorher schon Autovervollständigungen von bestimmten Befehlen und so weiter in solchen Code-Editoren. Aber das Ganze ist dann eben AI-basiert. Und das Interessante ist jetzt, dass dieser Code-Editor auch in der Lage ist, dann den gesamten Code einzulesen in einem Projekt und dann auch Fragen anhand von dem eigenen Code zu beantworten. Das heißt, man kann dann auch Programmcode generieren lassen, der tatsächlich mit der eigenen Software klarkommt und darauf basiert. Weil wenn das jetzt eine Software ist, die jetzt nicht öffentlich verfügbar ist, dann können die Sprachmodelle ja nicht darauf trainiert worden sein und können einem dazu, wie man das benutzt, keine sinnvollen Antworten geben. Aber dadurch, dass das Ganze eben den Code analysiert und dann eben die richtigen Dateien mit als Kontext liefert, wenn man die Frage dahin schickt, bekommt man durchaus sehr hilfreiche Aussagen zu dem eigenen Code. Oder was man auch machen kann, ist, wenn man jetzt in ein neues Projekt reinkommt, wo man noch nicht eingearbeitet ist, dass man mithilfe von diesen Modellen in der Lage ist, erstmal zu verstehen, was hier eigentlich passiert, ohne dass man den Code selber lesen muss. Ja, was hier noch relevant ist, ist, es gibt, wenn man das selber ausführen will, zwei begrenzende Faktoren. Das eine ist der Arbeitsspeicher und das andere ist die parallele Rechenkapazität. Und da gibt es jetzt zwei verschiedene Systeme, die das jeweils gut können. Also, viele Computer haben ja Grafikkarten, weil sie Dinge anzeigen sollen auf einem Bildschirm. Aber es gibt dann eben spezielle Spiele-Grafikkarten, die besonders schnell sehr viele Dinge parallel rechnen können und das ist etwas, was nötig ist für diese Sprachmodelle. Der Nachteil von diesen Grafikkarten ist allerdings, dass sie relativ wenig Arbeitsspeicher haben, aber diese Sprachmodelle relativ groß sind. Wenn man jetzt zum Beispiel 8 GB Arbeitsspeicher in der Grafikkarte hat, dann kann man aber schon verschiedene Modelle ausführen. Insbesondere Llama 3 hat verschiedene Modelle, die dann ganz einfach laufen. Aber insbesondere die kleineren Llama-Modelle laufen auch mit okayer Geschwindigkeit auf Computern ohne Grafikkarte, wenn diese viele Prozessorkerne haben. Und der Vorteil da wäre theoretisch, dass man in einem normalen Rechner sehr schnell auch sehr viel RAM haben kann, aber die großen Sprachmodelle, die dann auch eigentlich bessere Ergebnisse liefern, also die größeren Sprachmodelle hier, das sind ja alles große Sprachmodelle, die sind dann deutlich langsamer. Die verbrauchen nicht nur mehr RAM, sondern brauchen auch deutlich länger für die Ergebnisse. Da weiß ich jetzt nicht, ob man die überhaupt auf normalen Computern laufen lassen will, außer man möchte es einmal kurz ausprobieren. Ja, ich meinte ja gerade so, die Sprachmodelle sind ja dann in der Regel nicht auf eigener interner Software trainiert worden. Das lässt sich jetzt allerdings natürlich nachholen, weil wenn man eben diese Gewichtungsmatrizen hat, dann ist das ja ein Startpunkt, um dann weiterzulernen. Und eine wichtige Sache, die man mit all diesen Sprachmodellen, insbesondere die, die man halt lokal benutzen kann, machen kann, ist, ja, sie weitertrainieren und spezialisieren. Das hat zum Beispiel den Vorteil, dann kann man es halt auf einem kompletten, großen Softwareprojekt trainieren, statt immer nur einzelne Dateien, die noch in diese Kontextlänge passen, die man mitgeben kann, mitzugeben. Und dieses Weitertrainieren von Sprachmodellen auf bestimmte Anwendungen nennt sich dann "Finetuning". Und damit lassen sich eben für bestimmte Anwendungen Sprachmodelle optimieren. Und außerhalb der Programmierung wäre zum Beispiel ein sehr gutes Beispiel für dieses Finetuning, dass man spezialisierte Anwendungen machen kann, wie zum Beispiel, wenn eine Firma ein Chatbot im Kundensupport einsetzen will, dann kann man ja auf Basis der Antworten, die bisher die menschlichen Personen auf bestimmte Kundenanfragen gegeben haben, eben trainieren, weiter trainieren und dann generiert man sich dann eben einen Chatbot, der hilfreichere Antworten gibt als die Systeme, die vorher schon computergenerierte Textblöcke haben, die oft fertiggeschrieben waren und gar nicht auf die Probleme, die man hatte, wirklich geantwortet haben. Ein Risiko natürlich, wenn man auf Vergangenheitsdaten irgendwie sowas trainiert, ist, wenn jetzt ein Produkt neu auf den Markt kommt, was eine Frage, die häufiger kam, abdeckt und man hatte vorher viele Supportanfragen, die dieses Produkt oder dieses Feature haben wollten und dann war immer die Antwort "Nein", dass natürlich dann auch das Sprachmodell erstmal lernt. Die Antwort ist wahrscheinlich "Nein", aber es gibt jetzt dieses Produkt. Da muss man dann eben aufpassen, wenn man solche Spezialisierungen macht, dass das Ding auch tatsächlich faktenmäßig mit dem aktuellen Zustand übereinstimmt. Aber das lässt sich ja durchaus machen.

    Janine: Ich stelle mir das mit der Spezialisierung ein bisschen so vor, du lässt die unnützen Sachen mit der Zeit weg und trainierst nur noch auf das, was du wirklich brauchst und haben willst und am Ende hast du einen wunderbaren Fachidioten.

    Helena: Ja, aber ich glaube, das ist auch vernünftig. Also im Moment läuft ChatGPT ja auf dem Level, ja, man hat ein ChatGPT und das kann irgendwie alles so ein bisschen. Aber wenn man eben spezialisierte Netze, also Sprachmodelle hat, dann brauchen die auch weniger Ressourcen, wenn sie laufen und können trotzdem gute Ergebnisse liefern.

    Janine: Ja.

    Helena: Und eine Frage, die ich mich auch stelle, weil das auch immer wieder ein Thema ist, den man im Bereich KI so bei Bildgenerierung oder Textgenerierung hört, ist, ja, jetzt werden so viele Texte von diesen Sprachmodellen erzeugt. Kommt man irgendwann an den Punkt, wo die wieder dümmer werden, weil sie mit ihren eigenen Texten gefüttert werden? Und da frage ich mich dann, hat man nicht schon fast den Punkt erreicht, wo die gut genug sind, dass man eigentlich nur noch neue Fakten reinbekommen muss, weil sich, keine Ahnung, die Welt halt verändert. Aber braucht man wirklich die Menge an neuen Daten jetzt auch noch für das Training? Also ich bin mir da nicht so sicher.

    Janine: Ja, also ich kann mir vorstellen, dass es irgendwann vielleicht jetzt nicht unbedingt dümmer werden, aber ein Bias erhalten bleibt, der weiterhin angewendet wird, weil er in den Trainingsdaten eben vorhanden war, aber die Gesellschaft eigentlich gar nicht mehr betrifft. Also ich denke da an so was wie neuronale Netze, die die Kreditwürdigkeit von Menschen beurteilen, wobei Frauen meistens schlechter abschneiden, weil sie früher schlicht und ergreifend keine Bankkonten hatten und deswegen ihre Kreditwürdigkeit nicht nachgewiesen werden konnte. Und dass es auch in den letzten Jahren noch Fälle gab, wo Frauen, die auch gut verdienen, über einen langen Zeitraum hinweg keine Kredite bekommen, weil der Algorithmus sagt, nee, also die Vergangenheit hat gezeigt, dass Frauen nicht so gut mit Geld sind. Also ich glaube, das ist eher vielleicht so ein Problem, dass ja dadurch, dass auch die OpenAI Menschen selber sagen, wir wissen nicht final, wie Entscheidungen getroffen werden und wie das alles sich gegenseitig beeinflusst. Das ist eine Blackbox in die wir nicht richtig reingucken können. Dass ich mir halt vorstellen kann, dass solche Biases auf verschiedenen Ebenen erhalten bleiben können über eine gewisse Zeit.

    Helena: Ja, die sind natürlich in den ganzen Sprachmodellen auch noch drin vorhanden. Wenn man jetzt einfach nur, keine Ahnung, über Programmierung oder sowas nachdenkt, dann spielt das vielleicht nicht so eine große Rolle. Aber je nach Thema, mit dem man sich befasst, ist dann der Bias oder die Vorurteile, die da eintrainiert sind, spielen dann eine größere Rolle. Und muss man dann schon berücksichtigen, dass man die reproduziert.

    Janine: Ja.

    Helena: Ja, und man kann auch immer nur sagen, alles was irgendwie ChatGPT oder ein anderes Sprachmodell ausgibt, muss man entweder mit eigenem Fachwissen nochmal überprüfen oder irgendwie eine Plausibilitätsprüfung machen, dass das auch stimmt. Dem einfach so zu vertrauen, ist unangemessen. Auch wenn die aktuellen Versionen von ChatGPT schon deutlich besser sind als die erste, die es gab, ist trotzdem immer, ja, eine gesunde Menge Misstrauen anzuwenden. Das ist ein sehr nützliches Tool, aber man sollte sich über die Grenzen im Klaren sein.

    Janine: Das klingt schon fast wie ein Fazit.

    Fazit (01:08:18)

    Helena: Ja, Fazit. Also mein Fazit ist, ChatGPT bzw. andere Sprachmodelle sind aus meinem Alltag jetzt nicht mehr wegzudenken. Dafür benutze ich es inzwischen doch zu oft. Und ja, zusammenfassend kann man auch sagen, ChatGPT generiert immer nur ein Wort bzw. ein Token auf einmal, nimmt dann den gesamten Satz, der da jetzt steht, mit dem neuen Wort als Input. Das Ganze wird dann eben durch diesen Attention-Mechanismus durchgeschleift und über diesen Mechanismus und den neuronalen Netzen, die danach noch kommen, werden eben Fakten und Beziehungen zwischen Wörtern angewendet. Und dann ist es auch in der Lage, eben Beziehungen festzustellen zwischen Begriffen, die nicht in den Eingangsdaten beim Training drin gewesen sein müssen.

    Janine: Also mein Fazit ist auf jeden Fall, ich fand das mit dem schnellen Denken und langsamem Denken sehr interessant, diesen Vergleich, dass halt ja ChatGPT im Prinzip relativ in Anführungszeichen intuitiv, also große Anführungszeichen, etwas ausgibt. Also wie, als würden wir als Menschen einfach dahinreden und vorher nicht genau überlegen, wie der Satz endet. Und dass zwar die Kontexte, um diesen Satz zu erzeugen, eine Rolle spielen, aber eben ChatGPT nicht in der Lage ist, tiefer darüber nachzudenken oder im Rückblick nochmal zu verifizieren, was habe ich da eigentlich gesagt. Im Vergleich zu Sherlock Holmes, der nur meistens keinen Bock hat...

    Helena: Ja, genau.

    Janine: genau das zu tun. Ja, ich finde auch immer noch das mit der spezialisierten Anwendung sehr interessant. Also ich glaube, eine der Antworten, die wir auch auf Mastodon bekommen hatten, hat auf Goblin Tools verwiesen. Goblin Tools ist für mindestens neurodivergente Menschen eine sehr freundliche Seite, wo man zum Beispiel einen Text eingeben kann, auch auf Basis von OpenAI Modellen, die einem das, was einem so durch den Kopf spukt und man gerne sagen würde, zum Beispiel auf eine schöne formale Art und Weise ausdrücken kann. Also du gibst den Eingangstext ein, das sind meine Gedanken, ich muss das aber jemandem schicken, mit dem ich irgendwie höflich reden muss. Also mach das mal eine Spur formeller, so in die Richtung. Oder halt ein Professor hat mir etwas erklärt, das ich nicht verstehe, übersetzt das mal für mich und brich das mal runter ...

    Helena: Ja.

    Janine: ... so in die Richtung. Das funktioniert wohl auch über OpenAI und fand ich auch einen ganz netten Hinweis.

    Helena: Ja.

    Janine: Wie sowas auch im Alltag noch anders eingesetzt werden kann, wo es vielleicht auch wirklich eine Verkürzung ist oder Blockaden lösen kann, um irgendwie von A nach B zu kommen, gedanklich oder in Handlung.

    Helena: Ja, gerade wenn man irgendwie Texte schreibt in einem Bereich, wo wirklich auch die formalen Kriterien eine Rolle spielen, die halt nicht nur im freundschaftlichen Bereich sind, sondern eben vielleicht ja Bekannte, wo man sich an bestimmte Regeln halten muss.

    Janine: Ja.

    Helena: Wo man dann auch immer nicht, wenn man es dann doch zu selten macht, immer nicht hundertprozentig weiß, ja, wie mache ich das jetzt?

    Janine: Ja, diese fünf Zeilen E-Mail kosten fünf Minuten Lebenszeit. Nein, 15.

    Helena: Ja, wenn man vorher schon mit Google nach irgendwelchen Geburtstagssprüchen für Geburtstagskarte gesucht hat, kann man jetzt halt mit ChatGPT erstellen.

    Janine: Genau, worüber wir nicht geredet haben, auch sehr bewusst nicht, weil ihr seht, das Thema ist schon jetzt sehr lang und umfangreich, sind natürlich andere Sachen. Also wir haben es ganz kurz in Nebensätzen gehabt. Es ist unglaublich energieaufwendig. Es hat ein paar gesellschaftliche Schwierigkeiten und der Umgang mit der Technologie von künstlicher Intelligenz bringt auch immer so Sachen mit sich. Darüber haben wir jetzt nicht geredet. Wir haben uns konkret auf, wie funktioniert es und wie wird es angewendet und was kann es da leisten?, konzentriert mit Absicht. Aber wir sind uns der anderen Themen im Hintergrund durchaus bewusst.

    Nächste Folge: im Dezember (01:12:11)

    Helena: Gut, das war das Thema Chats GPT und die nächste Folge kommt nicht im November, denn da werden wir einmal eine Folge aussetzen, sondern sie kommt im Dezember und aktuell wissen wir noch nicht, welches Thema uns wir da vornehmen. Möglicherweise wird es eine Jahresrückblicksfolge, wie wir sie oft hatten, aber vielleicht kommt die auch erst im Januar und uns fällt noch ein anderes gutes Thema vorher ein.

    Call to Action (01:12:39)

    Janine: Genau, und wenn ihr nicht verpassen wollt, wie es weitergeht oder die vorherigen Folgen nachhören möchtet, dann folgt uns doch gerne unter @[email protected] auf Mastodon oder guckt auf unserer Webseite vorbei www.datenleben.de. Dort könnt ihr uns natürlich auch gerne Feedback hinterlassen oder per E-Mail, falls ihr lieber E-Mails schreibt. Wir freuen uns über beides und natürlich auch über Themenvorschläge. Und falls euch unsere Arbeits- und Denkweise gefällt, könnt ihr uns natürlich auch als Data Scientists für Analysen oder Projekte buchen. Das war's für dieses Mal.

    Helena: Ja, dann bleibt mir nur noch für eure Aufmerksamkeit zu danken und bis zum nächsten Mal. Ciao!

    Janine: Tschüss!

    Outro (01:13:19)

    12 October 2024, 10:00 am
  • 1 hour 3 minutes
    dl054: gesundheitsdaten und sicherheit

    Wir reden über Gesundheitsdaten. Relativ selbstverständlich erfassen Geräte, die wir bei uns tragen, Daten über unseren Alltag: Apps auf Smartphones, Fitness-Armbänder, Smartwatches etc. Wir wollten natürlich wissen: Was sind Gesundheitsdaten? Aber uns auch ansehen, was solche Daten wirklich aussagen können, welche Analysen z.B. anhand selbst gemessener Daten möglich sind. Unsere Themen sind hier Schlaf und Herzfrequenz. Aber überall, wo es um Daten geht, darf der Aspekt der Sicherheit von Daten nicht fehlen. Mit wem teilen wir sie? Wie steht es um Zyklus-Apps? Was passiert bei Bonusprogrammen?

    Links und Quellen

    Schlagworte zur Folge

    Gesundheitsdaten, Gesundheit, Tracker, Fitness-App, Fitnessarmband, Smartwatch, Datensicherheit, Datenschutz

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zur 54. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten euch die Welt der Daten näher bringen. Was für Daten umgeben uns? Wie gehen wir mit diesen Daten um? Und was können wir aus ihnen lernen? Wer schon immer mehr darüber wissen wollte, ist hier richtig, denn diesen Fragen gehen wir nach.

    Thema der Folge (00:00:37)

    Janine: Und in dieser Folge soll es um Daten gehen, die uns sehr nahe gehen, nämlich Daten über die eigene Gesundheit. Inzwischen ist es ja sehr verbreitet, dass wir Geräte bei uns haben oder sie explizit dafür tragen, die Informationen über unseren Körper, unsere Aktivität und so weiter sammeln, ja, seien es Smartwatches, Fitness-Armbänder oder Apps, die auf unseren Smartphones aktiv sind, die diese sogenannten Gesundheitsdaten sammeln. Und dieser Thematik wollen wir dieser Folge widmen. Allen voran natürlich die Frage, was sind eigentlich Gesundheitsdaten? Und wir haben uns dann Untersuchungen herausgegriffen, in denen Forscher*innen unter anderem auch die Datenerhebung mit solchen Geräten und Apps gemacht haben, die eigentlich ja so ein bisschen für den Eingebrauch konzipiert sind. Und das gibt uns vielleicht dann einen ganz guten Blick darauf, was diese Daten überhaupt leisten können und wo vielleicht auch Grenzen sind. Und ja, dabei haben wir uns thematisch auf Schlaf- und Herzfrequenz konzentriert, weil das nun mal gesundheitlich zwei sehr relevante Themen sind. Und auch der Frage, wie es mit der Datensicherheit aussieht, denn gerade wo Daten anfallen, persönliche, personenbeziehbare Daten und so weiter, muss es ja auch irgendwie um Datensicherheit gehen. Wenn man Daten zur eigenen Gesundheit erfasst, kann es ja ziemlich schnell sehr sensible Bereiche hier geben. Und um das besonders auf den Punkt zu bringen, haben wir uns hier das Thema Zyklus-Apps angesehen, also das Erfassen des Menstruationszyklus in einer App, die ja vor allem auf dem Smartphone benutzt wird. Und ja, das wird wahrscheinlich eine ziemlich volle Folge.

    Warum ist das Thema wichtig? (00:02:23)

    Helena: Ja, und warum haben wir das Thema für wichtig beziehungsweise interessant gehalten? Also zum einen interessieren wir uns selber dafür. Also ich zum Beispiel habe auch so einen Fitness-Tracker, mit dem ich bestimmte Dinge erfasse und finde das durchaus ganz interessant, da immer wieder mal drauf zu gucken. Und eine andere Frage, die wir uns ja gestellt haben, ist, was können die Anbieter solcher Fitness-Tracker und ähnlicher Geräte eigentlich über einen erfahren, womit man vielleicht gar nicht selber jetzt so gerechnet hätte, die über das hinausgehen, was da jetzt offensichtlich angezeigt wird.

    Einspieler: Der Datenschatz unseres Alltags (00:03:02)

    Janine: Der Datenschatz unseres Alltags. Im Laufe eines einzigen Tages erfassen Sensoren um uns herum unser Leben bis ins kleinste Detail. Sei es das Smartphone, das wir bei uns tragen, das auch im Schlaf meist neben uns liegt, oder eine Smartwatch oder ein Fitnessarmband. Manchmal werden auch noch weitere Geräte eingebunden, wie die Personenwaage, das Blutdruckmessgerät, Umgebungssensoren und so weiter. Wer mindestens eines dieser Geräte besitzt, wird tags und nachts erfasst. Dinge, die wir tun und damit auch irgendwie Dinge, die wir nicht tun. Wie oft nehmen wir das Handy zur Hand? Welche Apps benutzen wir? Wie lange? Wie viele Schritte sind wir an diesem Tag gegangen? Wie viele Stunden Schlaf haben wir in der Nacht bekommen? Wie oft sind wir aufgewacht? Wie viel wiegen wir? Wie stabil ist unser Gang, wenn wir zu Fuß unterwegs sind? Wie hoch ist unser Puls? Wie ist die Qualität der Luft, die wir atmen? Haben wir an einem Tag überhaupt das Haus verlassen? So etwas und vieles mehr wird im Laufe eines Tages gemessen, aufgezeichnet und langfristig gespeichert. Unser Alltag und unsere körperliche und psychische Gesundheit zeichnet sich in diesen Daten ab. Einzelne Daten allein sind vielleicht unbedeutend. In ihrer Summe erzählen sie Geschichten über unsere Leben, über unsere Aktivität, über unsere Gewohnheiten. Wir zerfallen in tausende und aber tausende kleine Datenpunkte. Und diese können wir uns ansehen, aus allen möglichen Perspektiven und allen möglichen Kombinationen. Aber wer und warum sieht sich das an? Zum einen vielleicht wir selbst, und zwar um etwas zu ändern, zu verbessern und diese Veränderungen und vielleicht Erfolge dadurch auch sehen zu können. Zum anderen können sich diese Daten auch andere zu Nutzen machen. Wenn Unternehmen diese Daten für uns speichern, statt dass sie auf unseren Geräten gespeichert sind, können sie auch weiterverwertet werden. Manche Daten werden benutzt, um die Anwendungen zu verbessern oder um sich mit anderen Nutzer*innen zu verbinden oder zu messen. Und manche Daten werden auch verkauft, damit andere Unternehmen auf Basis unserer Aktivitäten oder Gewohnheiten gezielter Werbung für uns schalten können. Das ist allerdings auch nicht das Einzige, was damit passieren kann. Aber es gibt zahlreiche Nutzungsmöglichkeiten für so einen großen Datenschatz. Und manche davon sind vielleicht noch gar nicht erfunden worden. Aber die Daten sind bereits da!

    Was sind Gesundheitsdaten? (00:05:34)

    Helena: Zum Beginn der Folge wollen wir uns jetzt einmal die Frage stellen, was sind Gesundheitsdaten? Und dazu zitiere ich jetzt einmal die Wikipedia, die dazu eine sehr ausführliche Definition hat und zwar folgendes. "Zu den Gesundheitsdaten gehören alle Daten über den physischen oder psychischen Zustand eines Menschen, die auch nur bedingt im Zusammenhang mit einem medizinischen Kontext entstehen können. Darunter fallen auch Informationen über Unfälle, Sehstärke, über intellektuelle und mentale Fähigkeiten, aber auch Verhaltensweisen wie das Trink- und Rauchverhalten, Allergien oder die Teilnahme an einer Selbsthilfegruppe wie Weight Watchers oder den anonymen Alkoholikern. Gesundheitsdaten umfassen Informationen über den früheren, gegenwärtigen und künftigen körperlichen oder geistigen Gesundheitszustand der jeweiligen Person. Hierzu gehören ebenso die Prüfung oder Untersuchung eines Körperteils oder einer körpereigenen Substanz, biologischen Proben und Informationen über Krankheiten, Behinderungen, Krankheitsrisiken, Vorerkrankungen und klinischen Behandlungen." Zitat Ende. Also offenbar sind Gesundheitsdaten meistens Daten, die bei ärztlicher Behandlung anfallen, aber auch generell alles, mit dem man den physischen bzw. psychischen Zustand ermitteln kann. Also ja, insbesondere bei so Fitness-Trackern, die dann sowas wie Herzfrequenz oder wie aktiv man ist messen, die erfassen insofern auch, wie fit man gerade ist und das fällt dann auch unter Gesundheitsdaten.

    Kleiner Exkurs zur elektronischen Gesundheitsakte (00:07:11)

    Janine: Wir hatten ja in der letzten Folge schon mal auf diese Folge verwiesen, wie immer. Und da hatte Helena kurz angerissen, dass man eigentlich im Kontext dieses Themas auch über die elektronische Gesundheitsakte bzw. elektronische Patientenakte reden könnte. Das ist aber auch ein sehr umfangreiches Thema für sich, deswegen wollen wir das nicht sehr ausführlich machen, aber an dieser Stelle ein kleiner Exkurs. Das Thema wird nämlich für uns alle insofern wichtig, dass im Januar 2025 die elektronische Patientenakte für alle gesetzlich versicherten Menschen auch ohne deren eindrückliches Einverständnis eingerichtet wird. Also, das wird grundsätzlich gemacht, außer man widerspricht dem tatsächlich, sobald die Krankenkasse einen darüber informiert. Was darin alles stehen wird, sind gewissermaßen alle Informationen über den Gesundheitszustand einer Person, Arztbesuche, Verordnungen, Rezepte etc. und diese Daten können dann von behandelnden Ärzt*innen fachübergreifend eingesehen werden. Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit bzw. auf der Internetseite dazu hat auch angegeben, dass eben dieser Widerspruch möglich ist, dass das Verfahren als Opt-out eingeführt wird. Das heißt, es wird erstmal für alle gemacht und wer es wirklich gar nicht will, könnte aussteigen, aber darüber muss man sich halt vorher informieren, was das alles für Konsequenzen hat. Und das ist, wie gesagt, ein bisschen umfangreicher. Auf der Seite, die wir auch verlinkt haben vom Bundesbeauftragten für Datenschutz und Informationssicherheit kann da einiges gesehen werden, was zum Beispiel kritisiert wird in Sachen Selbstbestimmungsrechte der versichernden Personen usw. usf., dass es halt darum geht, welche Daten kann überhaupt wer sehen und inwiefern das geregelt ist und auch, ob man seine Daten zu Forschungszwecken freigeben möchte oder nicht. Und ja, deswegen soll es hier jetzt gar nicht weiter ins Detail gehen, aber weil das eben in ein paar Monaten so ein relevantes Thema sein wird und die Krankenversicherungen die Menschen anschreiben werden, dass eben diese Akte jetzt für sie eingeführt wird und dann diese Widerspruchsoption besteht, deswegen wollten wir es auf jeden Fall hier nochmal erwähnen. Genau, aber jetzt zu den Gesundheitsdaten, die von Geräten aufgezeichnet werden können, die im täglichen Gebrauch auch so üblich sind.

    Was können für Daten beim Schlafen erhoben werden? (00:09:48)

    Janine: Und ein Thema, was garantiert viele Männchen umtreibt, ist Schlaf. Guter Schlaf, der erholsam ist und vor allem ausreichend lang ist, ist für uns alle ziemlich wichtig. Wenn das nicht richtig läuft, dann wirkt sich das auf viele Bereiche des Lebens schnell mal aus, wenn das gerade doof ist. Und deswegen würde ich fast behaupten, dass gerade Schlaf eines der Themen ist, das bei diesen Geräten für zu Hause bei der Selbstüberwachung doch oft mal benutzt wird, bei dem alle gerne mal hingucken. Und wir haben Studien rausgesucht, in denen auch Fitness-Tracker eingesetzt wurden, um Schlafanalysen zu machen und da Aussagen draus zu ziehen. Und ja, deswegen jetzt mal die Frage an Helena. Was können denn für Daten beim Schlafen erhoben werden und wie wird es dann ausgewertet?

    Helena: Ja, und um diese Frage zu beantworten, haben wir uns zwei verschiedene Themen genauer angeguckt. Und bei dem einen Thema geht es um die Schlaf- und Aktivitätsüberwachung im Zusammenhang mit kann man kann daraus ablesen, ob eine Person depressiv ist. Und das andere Thema, da geht es dann um die Frage, hat man vielleicht Atemaussetzer im Schlaf? Gut, starten wir aber jetzt einmal mit dem Thema Schlaf- und Aktivitätsüberwachung und Depressionen. Es gibt verschiedene Studien, die sich zum Ziel gesetzt haben, zu gucken, ob man mit Hilfe von so Fitness-Trackern und dem, was die so an Daten liefern, wo teilweise eben auch die Schlafüberwachung zugehört, in der Lage ist, festzustellen, ob eine Person gerade in eine Depression schlittert oder nicht. Da gibt es verschiedene Aspekte, die eine Rolle spielen. Ja, eine der Studien, die sich das angeguckt hat, hat parallel eben auch mit Fragebögen gearbeitet, die tendenziell der Standard sind, wenn es darum geht, Depressionen zu diagnostizieren. Und da wurden dann auch mit Hilfe einer zusätzlichen App immer wieder Fragebögen alle paar Stunden abgefragt, um den Zustand über einen längeren Zeitraum eben feststellen zu können und wie sich das auch ändert und ob bestimmte Sachen auch irgendwie damit korrelieren, wie man sich gerade, ja, was man gerade so misst und wie man sich fühlt. Dabei wurden aus der Depression eben fünf Symptomgruppen ausgesucht, in denen dann versucht wurde, Daten zu erheben. Also im Fragebogen eben alle von diesen Gruppen, nämlich Ernährung, die Stimmung, die man hat, wie viele soziale Interaktionen man tendenziell so hat, der Schlaf, also wie gut man schläft und die Bewegung. Und aus einem Fitness-Tracker kommt ja vor allen Dingen die Bewegung raus. Und in dieser Studie war es jetzt erstmal ganz interessant, dass wenn man diese Sachen miteinander vergleicht, dass dann insbesondere Schlaf und Bewegung, die man über einen Fitness-Tracker eben messen kann, schon ein ziemlich guter Indikator dafür sind, wie, ja, ob jemand depressiv ist oder nicht. Dabei gibt es verschiedene Fitness-Tracker, die verschiedene Formen haben, um den Schlaf zu überwachen. Und wie viel man sich bewegt hat, wurde in diesem Fall vor allen Dingen über die Pulsmessung gemacht, weil das nicht nur sagt, wie stark bewegt sich jetzt irgendwie der Fitness-Tracker, sondern tatsächlich, wie intensiv ist auch die körperliche Aktivität dabei. So was wie die Stimmung lässt sich auch laut einer anderen Studie über GPS-Daten ermitteln. Das wurde jetzt in dieser Studie aber nur zitiert, deswegen habe ich mir das auch nicht genauer angeguckt. Und was da besonders herausgestochen ist, ist, dass insbesondere wenn man über die Schlaftracker geht, dass man anhand dessen, wenn man einmal eingeschlafen ist und dann nochmal aufwacht in der Nacht, dass dann die Länge und wie oft das passiert und so, dass das ein besonders starker Indikator für eine Depression ist. Also da kann man jetzt nicht irgendwie Zahlen von ableiten, weil das jetzt auch sehr von den konkreten Fitness-Trackern abhängt, wie die die Daten tatsächlich erkennen. Aber das war so ein Hauptmerkmal, das man dabei gefunden hat. Und ja, abgesehen davon, dass es erstmal interessant ist zu wissen, dass man so was über diese Fitness-Tracker ermitteln kann, ist es auch nochmal interessant zu fragen, warum will man das vielleicht auch aktiv nutzen. Und da war eine Übersichtsstudie, bei der verschiedene Sachen verglichen haben zu diesem Thema, bei der es darum ging, bei älteren Menschen, wenn die alt werden, zu gucken, werden die jetzt gerade depressiv oder nur alt. Also zum Beispiel können bestimmte Depressionssymptome, wie dass man weniger soziale Interaktionen hat, auch einfach nur daran liegen, dass man alt wird und sich weniger selbstständig von Ort zu Ort bewegen kann, was dann dazu führen kann, dass man eben einfach weniger soziale Interaktionen hat, weil man es nicht mehr schafft, dahin zu kommen. Das liegt dann aber nicht an einer Depression, sondern am älter werden. Und um das auseinanderhalten zu können, ist eben die Überwachung durch Fitness-Tracker eine Idee, die man da hatte.

    Janine: Wurde da zufällig auch etwas zu Prävention gesagt, weil manchmal gibt es ja gerade, glaube ich, bei psychischen Krankheiten so diesen Effekt, dass sich ein bestimmtes Verhalten so langsam einschleicht und irgendwann merkt man dann, ach so, deswegen war das die letzten Tage, Wochen so. Gibt es da auch so einen Marker sozusagen, dass man dann irgendwie so im Rückblick sehen kann, da hat das eigentlich begonnen und eigentlich hätte ich ab dem und dem Zeitpunkt präventiv etwas dagegen tun können, in vielleicht ein Loch abzurutschen.

    Helena: Darauf wurde jetzt hier konkret nicht eingegangen, in den Studien nicht mehr angeguckt hatte, weil es erst mal nur darum geht festzustellen, kann man diese Technik dafür überhaupt verwenden.

    Janine: Ja.

    Helena: Wo die Antwort ein klares Ja ist, kann man dafür verwenden. Aber ich wüsste jetzt nicht, dass die Fitness-Tracker einem da schon selber irgendwie eine Warnung schicken. Eventuell gibt es einige, die das machen könnten.

    Janine: Ja.

    Helena: Manche schicken ja Warnungen, wenn sie bestimmte Sachen feststellen. Darüber wüsste ich das jetzt nicht.

    Janine: Ja, ich denke darüber auch, dabei gerade auch, weil du auch gesagt hast, man muss dann halt so in der Studie Fragen beantworten, die einem dann alle paar Stunden oder so gestellt wurden. Ich glaube, das gleiche Prinzip verfolgen ja auch manche dieser Gesundheits-Apps, die es ja auch inzwischen auf Rezept geben kann, die sich mit bestimmten Krankheiten beschäftigen.

    Helena: Okay. Ja, davon habe ich keine Ahnung von diesen Apps. Da kann ich nichts zu sagen.

    Janine: Aber das wäre interessant. Ich setze es mal auf meine zu beobachten Liste.

    Helena: Ja, gut. Das war jetzt das Thema Depressionen erkennen mit Fitness-Trackern. Das nächste Thema, was mit Schlaf zu tun hat, ist die Frage, kann man Schlafapnoe mit Hilfe von Fitness-Trackern detektieren und diagnostizieren? Und bei Schlafapnoe handelt es sich ja um kurze Atemstillstände im Schlaf. Also damit ist jetzt nicht die natürliche Atempause gemeint, die zwischen dem Ausatmen und Atmen oft vorkommt, sondern das richtige Aussetzen der Atmung. Also zum Beispiel Atemaussetzer von mindestens 10 Sekunden. Ja, das führt dann dazu, wenn man nicht atmet, dass man dann zu wenig Sauerstoff im Blut hat und zu viel Kohlenstoffdioxid. Und das wiederum führt dazu, dass der Körper kurz aufwacht. Das heißt nicht, dass man bewusst aufwacht und sich hinterher daran erinnert, sondern dass der Körper und das Gehirn aktiv werden. Und das Ganze stört dann die Schlafphasen und somit auch, wie erholsam der Schlaf ist. Traditionell wird das Ganze mit bestimmten Sensoren gemessen, zum Beispiel in einem EEG. Also man misst die Gehirnwellen im Schlaflabor, weil man dadurch erkennen kann, ob man gerade aufgewacht ist und hat noch andere Sensoren, die dann auch den Druck messen, mit dem man aus- und einatmet. Aber das erfordert eben ein Schlaflabor. Es gibt auch noch so Geräte, die man von einem Lungenarzt mitbekommen kann, wo man dann eine Nacht mit so einem Gerät zu Hause verbringt. Und das Problem an diesen klassischen Methoden ist natürlich erstmal, wenn man das erste Mal in einer fremden Situation irgendwie schläft, das kennt man vielleicht von sich selbst auch, wenn man woanders zu Besuch ist, dann ist die erste Nacht meistens unruhiger als die folgenden Nächte, weil neue Situationen, da muss man sich erstmal dran gewöhnen. Und wenn man jetzt irgendwie moderate Schlafapnoe hätte, dann kann es ja sein, dass das genau in dieser einen Nacht eben mal nicht auftritt. Und ja, dann kann man die Sachen einfach mal übersehen, weil dadurch, dass die Schlafsituation so ungewöhnlich ist, der Körper sich anders verhält und dann die Messergebnisse verfälscht. Deswegen würde man, je nachdem, warum man im Schlaflabor ist, dann auch mehr als eine Nacht da verbringen. Das ist allerdings natürlich auch immer eine Kostenfrage, deswegen wird meistens, beziehungsweise ist das dann einfach sehr aufwendig. Deswegen wäre es natürlich interessant, wenn man das über Fitnesstracker machen kann. Dann kann man zur Schlafapnoe noch sagen, dass es eben verschiedene Formen davon gibt. Einmal gibt es die obstruktive Form. Dabei sind die Atemwege blockiert. Der Körper versucht zu atmen, aber es kommt keine Luft durch. Und das tritt vor allen Dingen deswegen dann im Schlaf auf, wenn schon grundsätzliche Verengungen da sind, weil die Muskeln im Schlaf auch weiter erschlafen. Und das kann dann dazu führen, dass man eben gar nicht mehr atmen kann. Wenn man trotzdem noch atmen kann, können diese erschafften Muskeln aber auch dazu führen, dass man eben schnarcht, zum Beispiel. Dann gibt es noch die zentrale Apnoe, bei der der Körper einfach quasi unbewusst die Luft anhält. Also da versucht der Körper gar nicht zu atmen. Und hierbei geht man dann davon aus, dass ist zentrale Apnoe, wenn der Körper für 10 Sekunden lang nicht versucht zu atmen. Und wenn man das Ganze messen möchte, also wie stark die Schlafapnoe ist, wie einschränkend, dann gibt es eine Messgröße namens Apnoe Hypopnoe Index. Mit Hypopnoe ist dann die normale Atmung gemeint. Und das ist eine Messgröße, die das Verhältnis benennt zwischen Atemaussetzern im Vergleich zum normalen Atmen im Verhältnis dazu, wie lange man geschlafen hat. Dafür ist es, um das zu berechnen, eben auch wichtig zu wissen, ob man heute wach war oder nicht. Da gibt es dann Werte von 5 bis 15, die gelten dann als mild. Unter 5 ist dann vermutlich noch nicht irgendwie als Schlafapnoe zu diagnostizieren. Und wenn man über 30 hat, dann hat man eine schwere Schlafapnoe. Ja, um das Ganze mit Smartwatches zu bestimmen, kann man jetzt verschiedene Sensoren heranziehen. Manche Smartwatches haben ja zum Beispiel auch ein Messequipment, um die Sauerstoffsättigung im Blut zu messen. Das wird gemäß einiger Vergleiche, die ich jetzt so in Testberichten gelesen habe, ja, die Werte sind nicht so hundertprozentig vertrauenserweckend. Deswegen haben die Leute aus dieser Veröffentlichung, die ich jetzt dafür gelesen habe, einen anderen Weg gewählt und benutzen ausschließlich den Beschleunigungssensor in der Uhr. Und dann muss man auch irgendwie mithilfe dieses Beschleunigungssensors ja erkennen, dass man gerade normal atmet. Das geht dann besser, wenn man die Uhr eben auch besonders fest trägt.

    Janine: Der Beschleunigungssensor wäre ja das Ding, das bemerkt, auch im Telefon, wenn ich mich von A nach B bewege, oder? Also, dass sich das Ding eigentlich im Raum bewegt?

    Helena: Ja, genau. Es erkennt Bewegungen im Raum. Dadurch, dass man jetzt so eine Uhr in der Regel an der Hand hält, gibt es auch eine ganze Menge Einflüsse, die jetzt nicht atmend sind, die dazu führen, dass das Ganze sich bewegt, zum Beispiel weil man entweder unruhig schläft, weil irgendwas anderes sich im Raum auch noch bewegt, was dann einen irgendwie mit vibrieren lässt. Deswegen muss man hier eben verschiedene Auswertungen machen. Zum einen muss man eben ein bisschen das Rauschen entfernen, damit man wirklich die normalen Atembewegungen rausbekommen kann. Dann ist es auch wichtig, hiermit zu erkennen, ob man gerade wach ist. Also, wie stark bewege ich jetzt gerade die Uhr? Aktiviere ich die vielleicht sogar? Gucke ich auf das Handy, weil ich gerade aufgewacht bin, oder aufs Klo laufe? Dann misst das Ganze ja auch Schritte, zum Beispiel. Dann ist klar, dass man gerade wach war. Und dann erkennt es eben auch, wenn man besonders intensiv atmet, so Atemspikes hat, die ein Hinweis darauf sein können, dass man eben gerade einen Atemaussetzer hatte und jetzt deutlich mehr einatmet, wenn man gerade irgendwie aufgewacht ist und so weiter. Da fallen jetzt erstmal verschiedene Sachen raus. Usd man benutzt jetzt so klassische Machine Learning-Verfahren, um das Ganze eben auszuwerten und dann eben den Apnoe-Hypopnoe-Index, den AHI, zu bestimmen. Und das ist wohl ziemlich gut machbar gewesen in dieser Studie. Und ja, klassische Machine Learning-Verfahren sind dann sowas wie Support-Vektor-Maschinen oder Entscheidungsbäume. Vielleicht machen wir irgendwann mal eine Folge zu diesem Thema. Man kann auf jeden Fall sagen, es ist eben nicht neuronale Netze gemeint und nicht Deep Learning.

    Janine: Ausnahmsweise mal nicht.

    Helena: Ja, also etwas klassischere Verfahren, die es schon länger gibt. Wenn wir mal eine Folge dazu machen, kann man auch erklären, warum das manchmal auch keinen Sinn ergibt. Ja, also man kann ziemlich gut Schlafapnoe mit Smartwatches ermitteln. Ich glaube, das Problem ist nur, dass die Sensordaten je nach Gerät immer unterschiedlich sind und man daher als Gerätehersteller dann selber irgendwie auch bestimmte Systeme kalibrieren muss. Weil man muss ja halt nicht nur mit den Sensordaten arbeiten, die man jetzt irgendwie bei den Personen hat, wo man das misst, sondern man muss ja auch gleichzeitig die Schlaflabormessung mitmachen, um überhaupt die Vergleichswerte zu haben und zu sehen, dass das stimmt, was man irgendwie behauptet.

    Janine: Ja.

    Helena: Deswegen ist das, glaube ich, alles noch nicht als fertiges Produkt in den meisten Smartwatches mit drin. Aber man kann, glaube ich, schon davon ausgehen, dass es dahin geht, dass immer mehr von diesen Diagnosen auch in den Apps landen wird, die da zugehören.

    Janine: Ja, das ist auf jeden Fall spannend. Bisher ist es ja doch eher so, dass, ich weiß nicht, wie systematisch die meisten Menschen da so rangehen, aber manchmal gucke ich da drauf und gucke dann auch so ein paar Tage drauf, wie war es so die letzten Nächte, so ein bisschen im Vergleich. Aber oft habe ich auch eher das Gefühl, das gibt mir nur maximal eine Richtung, was so mein Smartphone an Schlaf mitzeichnet und was ja so das Ergebnis der Nacht quasi ist.

    Helena: Ja, ich finde die Schlafdaten jetzt bei meiner Smartwatch auch ganz spannend. Insbesondere, wenn ich das jetzt so selber meinen Schlaf bewerte und denke, ja, bin ich jetzt ausgeschlafen, bin ich jetzt ausgeruht, bin ich müde. Und ja, wenn ich dann denke, ja, der Schlaf war jetzt nicht so gut, ich bin immer noch sehr müde, dann sagt diese Uhr auch immer, dass ich dann schlecht geschlafen hätte. Und wenn ich dann weiter in der Vergangenheit gucke, sehe ich, ja, die Nächte davor waren alle ganz gut, also dann gibt es immer noch verschiedene Bewertungsstufen von gut bis ausgezeichnet oder okay. Die kann ich jetzt nicht so mit dem eigenen Gefühl unterscheiden, aber wenn die Smartwatch sagt, ich hätte schlecht geschlafen, dann spüre ich das auch. Das finde ich insofern interessant, weil ich dann weiß, wenn ich jetzt in ein paar Jahren mal die Daten vergleiche, wie sich das im Laufe der Zeit entwickelt hat, dann kann ich davon ausgehen, dass zumindest, wann ich schlecht geschlafen habe, auch ziemlich gut erfasst worden ist.

    Janine: Hmh. Ich habe mir meine Daten gestern tatsächlich nochmal angeguckt, so ein bisschen in Vorbereitung und dabei festgestellt, dass meine Schlafdaten nie samstags und sonntags existieren.

    Helena: Die existieren nie samstags und sonntags, heißt, das Schlafrhythmus ist dann so anders, dass das Handy nicht weiß, wann du geschlafen hast.

    Janine: Das war auch meine erste Idee, aber vermutlich hängt es eher damit zusammen, dass ich für wochentags einen Wecker eingestellt habe und eine Schlafzeit, also einen Schlafplan aktiviert habe,...

    Helena: Aha.

    Janine: ... der sagt, ich möchte eigentlich zwischen der Zeit und der Zeit schlafen/im Bett sein und ich glaube, das Handy untersucht einfach bloß für diese Zeit meine Aktivität. Also, was du ja auch schon meintest, Bildschirmaktivierungen oder so können mit in die Schlafdatenerfassung eingehen und ich sehe halt, wenn ich irgendwann wach geworden bin und dann tatsächlich mal aufs Handy geguckt habe. Aber ich glaube, das macht es tatsächlich nur für den Zeitpunkt, also wochentags, wenn ich den Wecker aktiviert habe.

    Helena: Ja, ja, also ich habe auch eine Wecker-App. Bevor ich jetzt so eine Smartwatch hatte, gab es in dieser App auch die Möglichkeit, dass man die mit auf die Matratze legt, das Handy, um dann Schlafphasenanalysen und so weiter zu machen, auch auf Basis eben vom Beschleunigungssensor und vielleicht noch Mikrofon. Das ging auch nur, wenn man das aktiv eingeschaltet hat und das war standardmäßig auch nur der Fall, wenn es einen Wecker gab. Von daher klingt das jetzt durchaus sehr plausibel.

    Was sagt die Herzfrequenz über Stress aus? (00:28:26)

    Janine: Ja, das ist das eine Thema, was wir hatten. Ich glaube, dazu haben wir jetzt auch alles annähernd einmal gesagt. Wie das da so funktioniert und was damit so möglich ist, aktuell, zumindest in der Forschung, aber noch nicht in der Alltagsanwendung. Und da haben wir auch noch so einen Fall, wo die Alltagsanwendung noch nicht ganz so gegeben ist, aber in der Forschung interessante Daten rausfallen können. Was nämlich zum Beispiel die Herzfrequenz über Stress aussagt.

    Helena: Also was die meisten Fitness-Tracker ja mitmessen, ist den Puls. Also wie schnell schlägt das Herz. Und das ist auch eine Info, die man oft bekommt. Und da gibt es ja durchaus auch so Messgrößen wie den Ruhepuls, also den Puls, den man ja in Ruhe hat, wenn man gerade nicht aktiv ist. Und wenn man den über größere Zeiträume sich anguckt, dann gibt es, also der Ruhepuls ist erstmal pro Person unterschiedlich. Wenn man jetzt sehr sportlich ist, wird der tendenziell ein bisschen niedriger sein. Dass der niedrig ist, muss jetzt aber im Umkehrschluss nicht heißen, dass man sportlich ist. Aber wenn man jetzt eine sehr stressige Phase hat, wenn man, ja keine Ahnung, auf der Arbeit sehr viel zu tun hat oder was auch immer es für Gründe geben kann für längere stressige Phasen, dann steigt eben dieser Ruhepuls an. Und das lässt sich dann eben auch im längeren Vergleich ganz gut feststellen. Ja, da war eine stressige Phase, jetzt geht es mir wieder besser, jetzt ist auch der Ruhepuls niedriger. Das ist aber nicht das Einzige, was man heranziehen kann bei der Herzfrequenz, sondern es gibt auch noch die Herzfrequenzvariabilität. Und das heißt, wie stark schwankt der Abstand aufeinander folgender regelmäßiger Herzschläge. Also schlägt das Herz immer exakt gleichmäßig oder sind da auch leichte Schwankungen drin? Und diese Schwankungen sind dann eben Herzfrequenzvariabilität. Und hier möchte ich noch einmal die Wikipedia zitieren, die besagt, "die Herzfrequenzvariabilität ist ein Indikator für die Fähigkeit, die Herzfrequenz den körperlichen und mentalen Anforderungen anzupassen". Das heißt, wenn das Herz ja quasi ein bisschen unregelmäßiger schlägt, ist das eher ein gutes Zeichen. Also unregelmäßig im Sinne eben einer normalen Herzfrequenzvariabilität, nicht im Sinne von "man braucht eigentlich einen Herzschrittmacher und hat Herzrhythmusstörungen", das ist noch mal was ganz anderes. Das ist nicht hier mit gemeint. Also ich hätte jetzt intuitiv erstmal gedacht, ja, eigentlich will man doch einen möglichst gleichmäßigen Herzschlag, weil das heißen würde, der Körper ist irgendwie in einem konstanten Zustand und so weiter. Aber offenbar ist es eben nicht so, sondern eine höhere Varianz dabei, ja wie die Herzschläge aufeinander folgen, ist eher ein guter Indikator, wenn man dann sich stärker auf Änderungen der Situation einstellen kann.

    Janine: Ich hätte es auch eher andersrum gedacht.

    Helena: Ja, wenn man sich dann nicht damit beschäftigt hat, dann ist das erstmal nicht so hundertprozentig intuitiv. Deswegen fand ich eben den Satz aus der Wikipedia sehr hilfreich, weil der dann auch eine Begründung mitliefert, warum das sinnvoll ist, dass die Herzfrequenzvariabilität höher ist. Ja, man kann jetzt so eine Herzfrequenzvariabilität ausrechnen, allerdings sind Zahlenwerte nicht allgemeingültig. Man kann jetzt nicht einfach sagen, das ist mein Wert und das mit anderen Leuten vergleichen und dann kann man daraus irgendwas erschließen. Deswegen ist es bei vielen von diesen Smartwatches jetzt auch nicht unbedingt so, dass die diese Daten direkt zur Verfügung stellen. Bei der Fitbit zum Beispiel ist das mittlerweile so, dass man die sehen kann. Bei der Garmin-Uhr, die ich habe, kriegt man diese Information jetzt selber nicht, sondern sie berechnen daraus schon andere Sachen, die man dann wiederum sehen kann.

    Janine: Das heißt also, die Geräte erfassen Daten, aber sie erfassen sogar mehr Daten, als sie mir sagen.

    Helena: Ja, ich meine, sie erfassen ja den Puls und so ein bisschen fällt dann das andere aus dem Messverfahren so ein bisschen mit raus,...

    Janine: Ja.

    Helena: ... die Herzfrequenzvariabilität. Ja, und es gibt verschiedene Krankheiten, die eine größere Änderung der Herzfrequenzvariabilität zur Folge haben. Beispiele dafür sind diabetische Neuropathie, eine Sepsis, auch bekannt als Blutvergiftung oder zum Beispiel Asthma. Ja, aber auch noch ein paar andere. Was eben auch in der Forschung festgestellt wurde, ist, dass eben bestimmte Gefühle, die irgendwie ja was mit Glück zu tun haben, sowas wie Zuneigung, Dankbarkeit, das ist dann eine messbare Korrelation zwischen Atem- und Herzfrequenz gibt, während bei so was wie Angst, Ärger oder Stress dies nicht passiert. Und was man insgesamt sagen kann, ist, wenn der Körper stressausgesetzt ist, dann reduziert sich die Herzfrequenzvariabilität. Das heißt, man kann mithilfe, wenn man regelmäßig diese Daten erhebt, feststellen, ob jemand stressausgesetzt ist. Im Gegensatz zu so was wie dem Ruhepuls ist das hier eben auch eine kurzfristige Messung, die dann einem zu einem ganz bestimmten Zeitpunkt auch sagen kann, ja, das war eine Stresssituation. Was zum Beispiel Stresssituationen sein können, die eben auch mit Herzfrequenzvariabilität zu tun haben, ist, hat man gerade Alkohol getrunken. Und wenn man das getrunken hat, dann sinkt auch die Herzfrequenzvariabilität. Und Menschen, die zum Beispiel alkoholkrank sind, haben auch generell eine geringere Herzfrequenzvariabilität dauerhaft als Leute, die nicht alkoholkrank sind. Aber dann eben direkt nach dem Alkoholtrinken, wenn das verarbeitet wird im Körper, dann sinkt diese eben auch. Und das führt dann zum Beispiel dazu, dass wenn ich mir jetzt auf meiner Smartwatch die Daten angucke, dass ich dann eben auch sehen kann, wann ich Alkohol getrunken habe. Das wird da jetzt nicht explizit so reingeschrieben, weil die das jetzt noch nicht unterscheiden können, wo dieser Stress herkommt. Aber sie haben einen Stressindikator, der eben zu einem nennenswerten Teil auf der Herzfrequenzvariabilität beruht. Und das wird angezeigt. Und dann gibt es durchaus mal Tage, wo ich einen ganz normalen langen Schlaf hatte, wo ich am Abend vorher aber was getrunken hatte, wo man dann sieht, ja, Handy sagt, ich hätte nicht erhobesam geschlafen, weil ich so viel Stress hatte am Anfang der Nacht, weil da Alkohol verarbeitet werden musste. Und dann spüre ich das eben am nächsten Tag durchaus auch, dass ich immer noch ein bisschen müde bin zum Beispiel. Und das funktioniert eben auch, wenn man wenig Alkohol trinkt und man nicht unbedingt nur diese klassischen Kater-Symptome hat, wenn man viel getrunken hat, sondern auch, wenn ja das nur ein oder zwei Gläser gewesen sind. Ja, man kann also sehr gut mit Hilfe von so Fitness-Trackern herausfinden, ob man Stress jeglicher Art ausgesetzt ist. Und Alkohol trinken ist Stress.

    Janine: Ja, aber das heißt ja auch, dass Leute, die meine Daten angucken, das auf gewisse Arten und Weisen interpretieren können.

    Helena: Ja, also was ich bei diesem Alkohol-Thema noch interessant finde, ist, man fühlt sich ja vielleicht ein bisschen weniger gestresst, wenn man ein bisschen was getrunken hat und so angetrunken ist. Das ist dann aber wirklich nur der berauschende Effekt von Alkohol. Das ist nicht das, wie das auf den Körper reagiert. Man fühlt sich dann vielleicht manchmal freier, je nachdem, wie man auf Alkohol reagiert. Das ist ja auch pro Person unterschiedlich. Aber der Körper ist eingeschränkter.

    Janine: Aber ich sehe schon, das, was wir gerade so am Thema hier dran haben noch, leitet eigentlich ziemlich gut in den nächsten Abschnitten über.

    Helena: Ja.

    Wie steht es um den Datenschutz bei Gesundheitsdaten? (00:36:16)

    Helena: Ein Grund, weshalb ich mir zum Beispiel jetzt diese Garmin Smartwatch gekauft habe und nicht die Fitbit, obwohl die Fitbit sowas wie die Herzfrequenzvariabilität sogar einem sagt, ist, dass Fitbit zu Google gehört. Und ich denke, Google weiß schon genug über mich. Die müssen jetzt auch nicht noch meine Gesundheitsdaten kriegen. Und Garmin ist immerhin ein anderer Hersteller, eine andere Firma. Wer weiß, was die damit machen. Aber das bringt uns dann zum Thema Datenschutz und Gesundheitsdaten.

    Janine: Genau. Ja, was allen Apps und Geräten ziemlich gemeinsam ist, sie erfassen die Daten. Die wollen wir auch auf eine gewisse Art und Weise haben. Aber sie zeigen nicht nur die Daten denen, die sie sich für sich selbst erfassen, sondern sie werden auch gespeichert und gegebenenfalls auch verarbeitet und weiter benutzt. Und das kann tatsächlich sehr persönliche Daten betreffen. Ich habe mir mal die Seite vom Bundesamt für Sicherheit in der Informationstechnik hergenommen, wo auch über verschiedene Wearables, also tragbare Elektronik, die Sensoren mit sich hat, informiert wird. Und ja, gerade in Richtung Verbraucher*innen. Einerseits gibt das BSI auch zu oder zumindest schreiben sie es so schön, der Nutzen von Wearables kann für deren Träger*in hoch sein. Denn durch die Auswertung der gesammelten Daten kann ein Activity Tracker beispielsweise Verhaltenstipps zur Verbesserung des Fitnesslevels geben. Und das Feedback, teils mit spielerischen Elementen, soll helfen, individuelle Ziele umzusetzen, wie zum Beispiel das Erreichen einer bestimmten Schrittzahl am Tag. Das hat das BSI ganz gut zusammengefasst, finde ich, und da steckt auch schon ein Stichwort drin, das uns allen wahrscheinlich schon mal irgendwie untergekommen ist, das ist die sogenannte Gamification, also das spielerische Umsetzen oder eher lästige oder unliebsame Aufgaben mit spielerischen Elementen ansprechender gestalten. Also ich kriege etwas dafür, dass ich etwas mache. Und sei das einfach nur so ein bisschen Dopamin durch, ich klicke auf bunte Sachen und kriege schönes Feedback. Und sie sagen, die Art der Daten, die verarbeitet werden, ist von der Funktion des Wearables abhängig. "Häufig handelt es sich um Daten zur Person, Gesundheitsdaten, Standortdaten oder auch Daten zum Schlafrhythmus. Mithilfe dieser Daten lässt sich unter Umständen ein gutes Profil der jeweiligen Nutzerin oder des jeweiligen Nutzers erstellen, ohne dass man dieser Person jemals begegnet sein muss." Und das ist halt der Punkt, auf den wir hier hinaus wollen. Das heißt, die Apps, über die wir hier reden, erfassen auch weit mehr als nur die Gesundheitsdaten. Denn wozu ist zum Beispiel mein Standort wichtig, wenn ich zum Beispiel einfach nur Schritte zählen will? Dafür gibt es ja den Bewegungssensor zum Beispiel.

    Helena: Ja.

    Janine: Also Standorte brauche ich dafür nicht. Aber auch die erfassten Gesundheitsdaten können Rückschlüsse bieten. Ich habe hier mal so ein Beispiel aus meinem eigenen Leben. Wenn sich zum Beispiel ein Mensch eine Verletzung am Fuß zuzieht, sagen wir mal, irgendjemand hat sich vielleicht Anfang des Jahres den Zeh gebrochen, dann weiß ich das natürlich, aber mein Handy weiß es auch und jeder, der auch einige Monate später nochmal in meine Daten reinguckt, kann das tatsächlich sehen. Denn ich habe herausgefunden, dass es in meinem Smartphone, wenn ich es auf Hüfthöhe trage, eine Datenerfassung stattfindet, die meinen Gang bewertet. Zum einen, wie stark wird welcher Fuß beim Gehen belastet, belaste ich sie unterschiedlich lange und so weiter und so fort. Wusste ich vorher alles gar nicht, habe ich dann mir mal angeguckt und dann so einen lustigen Ausschlag Anfang des Jahres gesehen und ich wusste genau, welche Ursache das hatte, weil ich das halt aber auch wusste. Aber auch andere Leute könnten halt zum Beispiel daraus ableiten, da war was nicht richtig und Rückschlüsse ziehen. Also, das ist jetzt halt ein sehr anekdotisches Beispiel und eine harmlose Geschichte, aber ja, wenn Daten da sind, werden eben auch Möglichkeiten geschaffen und das ist, wovor das BSI auch warnt, nämlich, "wer Zugriff auf diese Daten hat, kann diese unter Umständen auch für kriminelle Machenschaften nutzen, zum Beispiel in Verbindung mit einem Identitätsdiebstahl", weil es sind ja noch ganz andere Informationen teilweise gespeichert. Und weitere Risiken, die das BSI hier auch nennt, wenn es um Gesundheitsdaten geht, ist Doxing, also das Abgreifen und Veröffentlichen persönlicher Daten von einer einzelnen Person, meist mit der Absicht, diese irgendwie öffentlich preiszugeben, ihren Ruf zu schädigen oder irgendwie anders bloßzustellen. Aber auch Erpressung mit der Androhung, diese Daten zu veröffentlichen, nennt das BSI hier. Und deswegen ist es auch wichtig, sich das mal anzugucken, weil da sind noch ein paar Nutzungshinweise gegeben, die das BSI hier an Menschen weitergibt. Und der vermutlich wichtigste ist, ein bewusster Einsatz und bewusstes Umgehen mit den Daten und den dazugehörigen Risiken. Also, ja, sich informieren und dann eben erstmal Bescheid wissen, wie man damit überhaupt umgehen kann. Zum Beispiel, wem gebe ich Sachen überhaupt preis? Teile ich meine Daten mit der Familienteilung meines Telefons oder lasse ich meinen Partner zum Beispiel sehen, wo ich langgehe und solche Sachen, das fällt da alles mit rein. Genau, führt uns aber eigentlich auch nochmal zu der Frage, die hatten wir uns zwischendurch auch gestellt, warum machen wir das eigentlich mit diesen ganzen Daten? Ich habe ein schönes Dokument der Verbraucherzentrale gefunden, hat über 50 Seiten, wo auf viele Aspekte von Waerables eingegangen wird und auch eine Untersuchung drin gemacht wird. Das Dokument ist allerdings bereits von 2017, also schon ein paar Jahre alt. Einige Informationen da drin sind definitiv schon etwas überholt und in die Jahre gekommen und treffen nicht mehr so ganz zu, aber viele Aussagen finde ich auch heute immer noch relevant. Die sagen zu diesem "Warum" zum Beispiel, dass Wearables und Fitness-Apps in der Regel zur Zwecke der Selbstvermessung, Selbstüberwachung und Selbstoptimierung genutzt werden. Der Begriff Selbstvermessung umschreibt "Praktiken, die der Quantifizierung der eigenen körperlichen und geistigen Zustände dienen". Ja, Punkt Punkt Punkt. "Selbstvermessung betrifft also zunächst die selbstgesteuerte Motivation, einen auf die eine oder andere Art und Weise besseres und gesünderes Leben zu fühlen."

    Helena: Okay, also ich mache das jetzt wirklich zur Selbstvermessung, aber erstmal ohne weitere Ziele. Also ich versuche jetzt nicht daraus irgendwie Verbesserungen abzuleiten, sondern erstmal finde ich es interessant, einfach das nachgucken zu können. Wie ging es mir vor einem Jahr?

    Janine: Ja, aber du interessierst dich auch für Daten.

    Helena: Ja.

    Janine: Ja, aber das Thema Gesundheit ist da halt schon für viele Menschen, glaube ich, auch mit drin und deswegen wollten wir uns ja auch damit nochmal näher beschäftigen, was es vielleicht noch für Apps gibt.

    Zyklusapps und Datensicherheit? (00:43:31)

    Und ein Gesundheitsthema, das auch enorm wichtig für einen großen Teil der Menschen ist, ist der Menstruationszyklus und alles, was damit zusammenhängt. Da haben wir uns einmal das Thema Zyklus-Apps herangenommen. Gerade jetzt, wo es mehr Aufmerksamkeit auf Themen wie Endometriose gibt oder so, kann das Tracken des eigenen Zyklus tatsächlich sehr vielen helfen, auch eigene Beobachtungen für die eigene Gesundheit vorzunehmen. Aber ja, gerade Daten, die wie hier eben ein Reproduktionsorganen betreffen, können besonders sensibel sein. Und umso wichtiger ist da halt die Frage, wie viel sage ich eigentlich den Firmen, die diese Apps anbieten und damit vielleicht auch dem Staat, in dem ich lebe. Das ist ja nicht nur die Menstruation selbst, die dabei mit erfasst wird. Damit hängt weiterhin zusammen, wie verhüte ich, Schwangerschaften oder eben auch Abtreibungen können hier ein Thema sein, das auch in der App dargestellt wird. Denn ja, die aktuelle Zyklusphase gibt sehr großen Aufschluss darauf, was ich gerade mache oder auch nicht tue.

    Helena: Ja.

    Janine: Also da drin enthalten ist halt neben der aktuellen Zyklusphase, wann ein Mensch Sex hatte und ob verhütet oder unverhütet und wann fruchtbare Tage sind, kann dort ja auch dann ausgerechnet werden aufgrund der Historie der Daten. Und daraus lässt sich eben viel ablesen. Und der spannendste Artikel, den ich dazu gefunden habe, war ein Artikel von Rahel Lang, der im August 2022, also vor zwei Jahren, veröffentlicht wurde. Da geht es darum, dass ein Forschungsprojekt der Mozilla Foundation verschiedene Apps, die Zyklus, Schwangerschaft und so weiter tracken, untersucht hat. Und die Bewertungskriterien, die hier angelegt wurden, waren, ob nicht relevante Daten gesammelt werden, Nutzerdaten verkauft werden, die Kontrollmöglichkeiten über die eigenen Daten und wie lange Daten gespeichert werden. Die allermeisten Apps sind dabei eher durchgefallen oder haben einen Warnhinweis bekommen, weil sie in einigen dieser Punkte nicht unbedenklich waren. Dazu steht auf jeden Fall noch mehr im Artikel und auf der Forschungsseite des Projektes haben wir auch in den Shownotes verlinkt. Was eben vor allem kritisiert wird, ist, wenn zum Beispiel Daten erfasst werden, die gar nichts mit dem Zyklus oder der Schwangerschaft zu tun haben, darunter auch E-Mail-Adressen der Nutzer*innen, ihr Geburtsdatum, Mobilfunkanbieter, Geräte-ID, Standortdaten und auch die Information, wie oft die App überhaupt verwendet wird. Und diese nicht gesundheitsbezogenen Daten werden dann häufig mit Drittanbietern für Marketing- und Werbezwecke, darunter Google, Facebook und Twitter, geteilt. Und deswegen war die Untersuchung auch sehr wichtig, weil das überhaupt dadurch nochmal richtig öffentlich gemacht wurde und auch teilweise wirklich höchstsensible Gesundheitsdaten werden mit Dritten geteilt. Manche Apps haben das sogar in den Datenschutzbestimmungen drin gehabt, es werden hier zwei Beispiele genannt, und die haben jeweils umfangreich Daten an Werbetreibende verkauft, weil nämlich das Geschäft mit solchen Daten extrem lukrativ ist, weil schwangere oder erstmals schwangere Menschen sehr, sehr gute Neukund*innen für Babyprodukte etc. sind. Das ist Marketing. Ja, auf der einen Seite das, auf der anderen Seite, und das schreibt Rahel Lang in ihrem Artikel auch sehr deutlich, "Daten zur Menstruation und Schwangerschaft sind nicht nur wertvoll im Werbegeschäft, sie können auch auf eine Fehlgeburt oder Abtreibung hindeuten. Die Daten können in Ländern mit strengen Abtreibungsgesetzen somit als Beweislast für einen möglichen Schwangerschaftsabbruch dienen".

    Helena: Ja, das ist ja ein sehr großes Thema, das Thema Schwangerschaftsabbrüche.

    Janine: Genau, das ist leider kein aus der Luft gegriffenes Szenario, sondern relativ realistisch. Was heißt relativ? Es ist sehr realistisch, denn warum die Mozilla Foundation diese Untersuchung überhaupt angestrebt hatte, war, dass im Juni 2022 vor dem obersten Gerichtshof der Vereinigten Staaten eine Grundsatzentscheidung zum Abtreibungsrecht gekippt wurde, die erst 1973 überhaupt gefällt wurde. Dort wurde nämlich damals eigentlich geregelt, dass in den Vereinigten Staaten ein gleichbleibendes Abtreibungsrecht herrscht, und das wurde im Juni 2022 quasi wieder zurückgenommen. Seitdem ist es wieder möglich, dass US-amerikanische Bundesstaaten die Abtreibungsgesetze selbst regeln können. Und bereits kurz danach wurden weitreichende Verbote in verschiedenen Staaten in Kraft gesetzt und seitdem folgen viele weitere Einschränkungen. Und genau dieser Vorgang war laut Mozilla eben der Auslöser für diese Untersuchung der Apps. Und ja, das ist ja nicht nur der einzige Fall auf der Welt, wo es gerade darum geht, inwiefern Frauen selbstbestimmt mit ihrem Körper umgehen können.

    Helena: Ja. In den USA muss man dann auch bedenken, dass es einige Staaten gibt, wo es Initiativen gibt, dafür zu sorgen, auch zu verbieten, dass man in einen anderen Bundesstaat fahren darf, um diesen Eingriff vorzunehmen. Das heißt, auch wenn das in anderen Bundesstaaten immer noch kein Problem ist und legal, soll das auch verboten werden, dafür woanders hinzureisen. Und spätestens dann werden diese Daten sehr interessant werden für die rechten Gruppen, die das insbesondere dann verfolgen wollen.

    Janine: Genau, und das betrifft auch andere Länder dieser Welt, wo andere oder verschärfte Abtreibungsgesetze in Kraft treten, die oft eben auch entgegen der Selbstbestimmung und auch entgegen der Gesundheit von schwangeren Personen stehen.

    Helena: Ja.

    Janine: Aber es hat ja nun mal auch Vorteile, sich mit dem eigenen Zyklus auseinanderzusetzen. Und deswegen führt Netzpolitik zum Beispiel im Artikel auch Positivbeispiele solcher Apps an, die eben weniger Daten sammeln und damit – nun, ein Staat kann eine Firma nicht zwingen, Daten herauszugeben, die nicht existieren.

    Helena: Ja, genau. Also, wenn die nur auf dem Telefon gespeichert sind, ist das schon mal vorteilhaft.

    Janine: Ja, und die Kontrolle darüber, wann und wie ich sie selbst lösche, vorhanden sein kann, so.

    Helena: Ja.

    Janine: Das ist auf jeden Fall ein sehr wichtiges Thema, was eben mit solchen Daten zusammenhängt. Das mit den Zyklus-Apps war jetzt herausgegriffen, aber das kann ja auch vieles anderes betreffen, wenn wir jetzt noch mal an die Herzfrequenzvariabilität zurückdenken und den Alkoholkonsum. Auch da könnten Stigmata entstehen gegenüber Menschen zum Beispiel, wenn solche Daten eine Rolle spielen. Und wo solche Daten nämlich auch noch eine Rolle spielen, sind bei Krankenkassen oder auch Arbeitgeber*innen.

    Gesundheitsdaten für Bonusprogramme nutzen? (00:50:27)

    Helena: Was machen denn die Krankenkassen mit diesen Daten?

    Janine: Krankenkassen können zum Beispiel Bonusprogramme anbieten für selbst erzeugte Gesundheitsdaten. Das ist tatsächlich gemacht worden oder wird gemacht und wird auch immer häufiger gemacht. Ich habe auch hier aus dem PDF der Verbraucherzentrale ein paar Informationen rausgesucht. Dort steht zum Beispiel erstmal die Feststellung auch drin, dass nicht abschließend geklärt ist, inwieweit Wearables und Fitness-Apps Menschen tatsächlich zu einem gesünderen Lebensstil motivieren. Aber sie werden als solche Instrumente vermarktet, um zu mehr Bewegung zu animieren und einen insgesamt gesünderen Lebensstil über äußere Anreize zu motivieren. Und warum wird das so eifrig vermarktet? Dafür interessieren sich halt die Krankenkassen oder auch Arbeitgeber*innen, was so die Stichworte Krankheitsfälle und Produktivität angeht. Nun ist es aber so, dass auch die gesetzlichen Krankenkassen sich eben von privaten Dienstleistern ja so unterscheiden, dass sie einem Solidarprinzip folgen sollen, sofern ich das alles verstanden habe. Manchmal fühlt sich das nicht so an.

    Helena: Ja.

    Janine: Und deswegen zeigen sie Interesse an so einem Geschäftsmodell. Aber die gesetzlichen Regelungen verbieten ihnen eigentlich erstmal personenbezogene Daten ihrer Mitglieder zu erheben, die nicht für die Vertragserfüllung relevant sind. Und deswegen ist es auch nicht möglich, eigentlich den Versicherungstarif auf Basis zum Beispiel von der Nutzung von Wearables und Fitness-Apps anzupassen.

    Helena: Mhm.

    Janine: Das ist prinzipiell nicht möglich.

    Helena: Aber was ist denn dann möglich? Die machen das ja offensichtlich.

    Janine: Ja.

    Helena: Irgendwie.

    Janine: Sie machen das jetzt so. Also, wie gesagt, das Dokument ist von 2017. Und die führen das Beispiel an, dass die AOK Nordost seit Januar 2016 eine eigene kostenlose Fitness-App anbietet, die sozusagen ein digitales Bonusheft sein soll. Und gegen Vorlage guter Aktivitätsdaten können die Versicherungskunden dann eben auf Bargeld oder Sachprämien zurückgreifen. Das heißt, je mehr meiner Daten ich Preis gebe, desto mehr kann ich vielleicht Geld bekommen oder Sachprämien kriegen.

    Helena: Ist das dann abhängig davon, ob man auch gesund lebt oder kriegt man die immer, wenn man die Daten zur Verfügung stellt?

    Janine: Ja, also das weiß ich in dem Punkt nicht exakt. In dem Dokument wird auch noch angegeben, dass die Technikerkrankenkasse das auch vor hatte zu dem Zeitpunkt. Es ist inzwischen umgesetzt. Es gibt die App TK Fit und die machen das halt auch. Und so wie ich das verstanden habe, auf deren Webseite, wo sie das Vorgehen beschreiben, ist es, sofern die Daten da sind und du bewiesen hast, dass du, keine Ahnung, so und so viel Schritt in dem und dem Zeitraum gegangen bist, dann kannst du das einreichen und kannst es für dieses Bonuszeug nutzbar machen.

    Helena: Achso.

    Janine: Aber auch immer nur für ein Jahr. Es gibt einen Zeitraum. Danach verfallen die Punkte.

    Helena: Okay, interessant.

    Janine: Was der Verbraucherschutz daran vor allem kritisiert ist, dass dabei so ein bisschen die Freiwilligkeit der Entscheidung verloren geht. Weil ich glaube, was du gerade angesprochen hast, ist auch so ein bisschen die Kritik, ja zeige ich denn eigentlich wirklich, dass ich gesünder lebe? Es ist halt das Problem, dass solche Rabatte und Prämien wirtschaftlichen Druck auf Verbraucher ausüben, ist die Formulierung. Also, dass quasi nur Handlungsfreiheit, ja, ich mache das halt, weil es ja nett als zusätzliches Ding, nur von solchen Verbraucher*innen wirklich gemacht werden kann, die sich das auch finanziell leisten können, auf in Aussicht gestellte Vergünstigungen zu verzichten. Wohingegen zum Beispiel, Zitat, "gesundheitlich beeinträchtigte Menschen nicht von Bonusprogrammen profitieren können". Und das wiederum sei eine indirekte Form gruppenspezifischer Diskriminierung.

    Helena: Ja, ich meine, wenn man jetzt sagt, immer wenn ihr eure Daten zur Verfügung gebt, dann kriegt ihr den Bonus, unabhängig davon, ob ihr euch jetzt gesund verhält oder nicht, dann wäre das ja eben keine solche Diskriminierung, weil man kann auch als Person, die schon bestimmte Krankheiten hat, die bestimmtes Verhalten einfach unmöglich machen, wie viele Schritte sammeln,...

    Janine: Ja.

    Helena: ... trotzdem davon profitieren. Aber so ist es ja jetzt irgendwie, ja, keine Ahnung.

    Janine: Ja, der Verbraucherschutz warnt hier definitiv vor einer Aufweichung des Solidarprinzips, weil manche Menschen eben einfach diese ausgeweiteten Sachen vielleicht gar nicht erreichen können und dadurch durch dieses System halt trotzdem benachteiligt werden, obwohl es als zusätzlicher Gewinn verkauft wird. Aber den muss man halt irgendwie kriegen können.

    Helena: Ja, und ich meine, im Prinzip wäre es für Krankenkassen ja theoretisch sogar auch interessant, die Daten einfach auch von Leuten, die jetzt nicht diese Ziele erreichen, zu bekommen, weil man auf diese Weise vielleicht ja durch Auswertung der Daten herausfinden kann, welche Maßnahmen als Krankenkasse denn besonders gut helfen, um allen Menschen zur Verfügung zu stehen und besser zu werden.

    Janine: Ja.

    Helena: Also man kann ja auch verschiedene Gesundheitskurse bezahlt bekommen von Krankenkassen zusätzlich, selbst wenn man nicht krank ist, sondern einfach, um fit zu bleiben zum Beispiel. Und um die Effektivität von so was zum Beispiel zu ermitteln, könnte man ja so was auch irgendwie, solche Daten nutzen zum Beispiel. Und dann wären ja auch die Daten von den Leuten interessant, die nicht diese Ziele erreichen, die jetzt daran geknüpft sind. Also deswegen denke ich, ist das irgendwie wirklich ein bisschen, ja, weicht das Solidarprinzip aus, obwohl man ja eigentlich auch für die allgemeine Bevölkerung andere Ziele verfolgen könnte mit solchen Daten.

    Janine: Das Ding ist halt auch die Art und Weise, oder was du da bekommen kannst. In der Liste, die ich mir gestern angeguckt habe, waren zum Beispiel drin, also wir reden hier ja meistens dann wahrscheinlich von gesetzlich versicherten Personen, zusätzliche Leistungen bei der Begleitung der Schwangerschaft durch die Hebammen zum Beispiel. Also Leistungen, die eigentlich für alle Menschen auch total sinnvoll sein können, wenn es anliegt oder wenn es verfügbar wäre. Aber die kriegst du halt nur, wenn du das Bonusprogramm nachweisen kannst. Also ja,... es ist...

    Helena: Ja.

    Janine: ... es ist ein bisschen schwierig, weil da halt auch medizinische Behandlungen mit drin sind. Aber auch so was wie, wenn du nachweisen kannst, dass du regelmäßig ins Fitnessstudio gehst, dann könnte so eine Prämie auch sein, du kriegst das Fitnessstudio bezahlt. Aber dazu brauchst du Zeit und Zeit ist relativ kostbar und manche Menschen haben einfach aus finanziellen Gründen auch gar nicht so viel Zeit.

    Helena: Ja.

    Janine: Und gleichzeitig sind das halt Erleichterungen, die wieder einen finanziellen Spielraum schaffen, dass du andere Sachen wie gesündere Ernährung oder so etwas umsetzen könntest.

    Helena: Ja.

    Janine: Also ja, ich kann die Kritik des Verbraucherschutzes hier irgendwo total nachvollziehen. Es ist halt immer ein zweischneidiges Schwert in dem Sinne. Und Ähnliches sieht der Verbraucherschutz auch beim Einsatz im Beruf. Also es gibt tatsächlich, vor allem in Amerika habe ich das Beispiel aus der Broschüre da herausgenommen, Anbieter, die halt sagen, ja, wir haben hier eine Gesundheits-App, die kann beispielsweise auch so ein bisschen Gefühls-Tracking. Wir haben ja gelernt, die Herzfrequenz-Variabilität könnte ja auch auf Gefühle und Stress hinweisen.

    Helena: Ja.

    Janine: Das heißt, die treten auch an Arbeitgeber*innen heran und bieten für das Unternehmen die Gesundheitsdatenüberwachung der Arbeitnehmer*innen an. Und hier sieht eben der Verbraucherschutz auch die Gefahr, dass ein Machtgefälle entsteht, weil wie frei ist meine Entscheidung als Arbeitnehmerin, mich für so ein zusätzliches Programm zu entscheiden, wenn ich Angst haben muss, dass mein Arbeitgeber das vielleicht doof findet, dass ich mich dagegen entscheide und diese Daten nicht bereitstellen möchte.

    Helena: Ja, ich meine, es gibt natürlich Berufe, wo manche dieser Daten absolut notwendig sind, aber da sind ja teilweise eh schon gesetzlich vorgeschrieben. Also man kann jetzt nicht Pilot werden, wenn man nicht bestimmte gesundheitliche Checks besteht.

    Janine: Genau.

    Helena: Oder auch irgendwie bestimmte Kraftfahrzeuge darf man nicht führen, wenn man nicht eine bestimmte Sehstärke hat zum Beispiel. Das ergibt ja auch Sinn in manchen Fällen, aber jetzt so ganz generell für alles, ja, ist das doch...

    Janine: Ja, vor allem, wenn halt so Punkte drin stehen wie, ja, Gefühlsscreenings, wie geht es meinem Arbeitnehmer gerade, ist der gestresst oder nicht? Und wenn er gestresst ist, ist er dann produktiver oder nicht?

    Helena: Ja, vor allen Dingen am Ende belohnen dann Arbeitgeber auch noch die Leute, die besonders hohe Stressscores haben, weil die eindeutig mehr machen oder wichtigere Sachen machen.

    Janine: Oder vermeintlich.

    Helena: Das könnte ich mir gut vorstellen,...

    Janine: Ja.

    Helena: ... dass die dann auch noch entgegen der Gesundheit arbeiten. Weil Stress heißt ja, man hat viel zu tun. Dann ist man bestimmt auch produktiv.

    Janine: Genau. Das war jetzt mein Part zu dieser Thematik, wo es mehr um die Sachen des Datenschutzes ging oder beziehungsweise, was auch in der Konsequenz so ein bisschen gesellschaftlich betrachtet damit passieren kann, wenn wir solche Daten erheben und wie wir sie benutzen könnten und wo da auch so ein bisschen die Problematik mit ist.

    Fazit (01:00:18)

    Helena: Ja, gut. Kommen wir zum Fazit?

    Janine: Kommen wir zum Fazit.

    Helena: Gut, also mein Fazit dieser Folge ist, man kann mit solchen Fitness-Trackern durchaus Informationen ermitteln, die man jetzt nicht unbedingt erwartet hätte. Man kann zum Beispiel feststellen, ist jemand depressiv? Hat die Person Atemaussetzer im Schlaf? Ist die Person gestresst? Manchmal sind Daten ja erwünscht, aber manche von diesen Daten sind vielleicht auch nicht so erwünscht. Oder man sollte zumindest wissen, dass damit eine ganze Menge erkennbar ist. Und nicht nur das, von dem man ursprünglich ausgegangen ist, dass man das damit messen kann.

    Janine: Genau, und unabhängig von den Datenmessungen ist mein Bereich des Fazits dann auch, es können eben auch Interpretationen erfolgen durch Dritte, die dafür benutzt werden, was für Werbung uns angezeigt wird, ob wir vielleicht in einem Staat leben, wo mein Verhalten gegebenenfalls strafrechtsrelevant ist oder nicht und wie das alles gespeichert wird bei den Firmen. Welche Kontrolle habe ich über meine Daten? Das ist eigentlich, glaube ich, die wichtigste Frage an dieser Stelle. Und eben das Wissen, es gibt auch Apps, die für einzelne Anwendungen die Sachen besser umsetzen, datenschutzfreundlicher. Und die müssen einfach nur irgendwie gefunden werden, aber dafür muss sich einfach erstmal bewusst gemacht werden, was überhaupt alles daraus auslesbar ist. Und ja, das ist so mein Punkt auf jeden Fall. Und ich hoffe, ihr fandet das genauso spannend, wie ich, als ich dazu recherchiert habe.

    Nächste Folge: ChatGPT im Oktober (01:01:57)

    Helena: Ja, in der nächsten Folge, die im Oktober erscheint, wollen wir uns mal einem großen aktuellen Thema widmen, was wir bisher noch nicht so intensiv angegangen sind. Aber jetzt ist, glaube ich, die Zeit endlich gekommen. Wir wollen über Chat-GPT reden. Also zum einen ist die Frage, was heißt jetzt eigentlich Chat-GPT? Was ist ein Transformer-Modell? Was heißt pre-trained? Also wie funktioniert das technisch, aber gleichzeitig auch, wie wird es genutzt? Was hat man jetzt in den zwei Jahren, die es das jetzt fast gibt, eigentlich gelernt darüber, wie man das benutzt, wie man es nicht benutzt, wo es nicht so hilfreich ist, wo es hilfreich ist. Aber auch Themen wie Datenschutz und so sollen auch hier mal wieder eine Rolle spielen.

    Call to Action (01:02:43)

    Janine: Genau. Und wenn ihr das nicht verpassen wollt oder unsere vorangegangenen Folgen auch nochmal hören möchtet, dann folgt uns doch gerne auf mastodon unter @[email protected]. Da informieren wir immer ein bisschen, was jetzt gerade erschienen ist oder demnächst vielleicht auch erscheint. Oder guckt auf unserer Webseite vorbei, www.datenleben.de. Da findet ihr auch alle Folgen und könnt uns dort auch gerne Feedback hinterlassen oder eben auch per Mail, falls ihr Mails schreibt. Und ja, wir freuen uns nämlich immer über Kommentare zu unseren Folgen oder auch über Themenvorschläge. Und falls euch unsere Arbeits- und Denkweise gefällt, könnt ihr uns auch buchen als Data Scientist für Analysen oder Projekte.

    Helena: Und dann bleiben wir nur noch für eure Aufmerksamkeit zu danken und bis zum nächsten Mal. Ciao!

    Janine: Tschüss!

    Outro (01:03:30)

    7 September 2024, 10:00 am
  • 49 minutes 35 seconds
    dl053: normalverteilung

    Es geht dieses Mal um ein sehr mathematisches Thema, das nicht nur in unserem Podcast schon öfter erwähnt wurde, sondern allgemein häufiger mal eine Rolle spielt: Die Normalverteilung. Fragen, die wir uns in diesem Kontext gestellt haben: Was ist die Normalverteilung? Warum ist die Normalverteilung eigentlich normal? Liegt überhaupt eine Normalverteilung vor – und wie könnte ich das überprüfen? Und ein bisschen mehr... natürlich wieder mit einigen Beispielen. Und wir haben eine kleine Geschichte rund um das Gehirn von Carl Friedrich Gauß entdeckt, die wir natürlich auch einbringen wollen.

    Links und Quellen

    Schlagworte zur Folge

    Normalverteilung, Gauß, Gauß'sche Glockenkurve, Datenvisualisierung, Histogramm, QQ-Plot, statistische Tests

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zur 53. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten euch in die Welt der Daten mitnehmen. In unserer Welt wird es immer wichtiger, Daten in das große Ganze einordnen zu können. Deswegen wollen wir Data Science anhand von Themen erklären, die uns alle betreffen.

    Thema der Folge (00:00:37)

    Janine: Ja, und damit willkommen zu unserer vermutlich mathematischsten Folge, die wir bisher hatten. Das wird für einige vielleicht spannender als für andere, aber wir wollten uns mal eine Sache genauer angucken, die immer mal wieder erwähnt wird, nicht nur bei uns im Podcast schon häufiger mal, sondern auch an vielen anderen Stellen einfach. Und zwar geht es heute um die Normalverteilung oder auch Glockenkurve bzw. gauß'sche Glockenkurve genannt. Zu dem Begriff hatte unser Whisper-Transkriptionstool ja mal die gauß'sche Schokoladenkurve erfunden. Ja, genau. Fragen, die wir uns in diesem Kontext gestellt haben. Was ist die Normalverteilung? Und ja, dazu gehören noch so ein paar andere Randthemen, weil mathematische Konzepte selten ganz allein kommen. Das ist auch der zentrale Grenzwertsatz, wo wir uns die Frage stellen, warum ist die Normalverteilung eigentlich normal? Und ja, es geht dann weiter mit so Fragen, liegt überhaupt eine Normalverteilung vor? Manches sieht ja vielleicht nur so aus. Und dann noch, mit welchen Plots, also Diagrammen, kann ich eine Normalverteilung eigentlich erkennen? Und da haben wir ja hier und da natürlich auch wieder Beispiele.

    Warum ist das Thema interessant? (00:01:59)

    Helena: Ja, wir dachten uns, wir reden jetzt mal über das Thema Normalverteilung, einfach weil es bei sehr vielen Themen, die wir bisher besprochen haben, immer wieder eine Rolle gespielt hat und öfter auch erwähnt wurde. Und ja, die Normalverteilung wird durchaus häufiger mal irgendwo erwähnt. Aber warum sie jetzt eigentlich normal ist und Normalverteilung heißt, das wird eigentlich selten erklärt. Deswegen wollen wir das heute einmal machen.

    Einspieler: Die vertauschten Gehirne (00:02:25)

    Janine: Die vertauschten Gehirne. 2013 hat eine Untersuchung ergeben, dass das konservierte Gehirn, das bisher als das Gauss-Gehirn untersucht wurde, gar nicht sein Gehirn war. Und zwar gab es eine Vertauschung in der Sammlung des Instituts für Ethik und Geschichte der Medizin der Universitätsmedizin Göttingen. Aber wer war dieser Gauss eigentlich? Der schon zu Lebzeiten berühmt gewordene Mathematiker Carl Friedrich Gauss wurde im Jahr 1777 in Braunschweig geboren. Bereits als Kind fiel seine besondere Begabung für den Umgang mit Zahlen auf. Im Alter von 14 Jahren wurde er Herzog Karl Wilhelm Ferdinand von Braunschweig vorgestellt, der ihm schließlich tatsächlich als Förderer die weitere Ausbildung finanzierte. 1807 übernahm Gauss in Göttingen den Lehrstuhl für Astronomie und wurde der Direktor der Göttinger Sternwarte. Dort lebte und wirkte er bis zu seinem Tod im Jahr 1855. Gauss hat nicht nur mit seiner Methode der kleinsten Quadrate dazu beigetragen, den Zwergplaneten Ceres wiederzuentdecken, auf ihn geht auch im Wesentlichen die Entwicklung der Normalverteilung zurück. Er arbeitete in den Gebieten Algebra, Zahlentheorie, Astronomie, Potentialtheorie, Landvermessung und Geodäsie, Magnetismus, Elektrizität und Telegrafie. Nach seinem Tod im Februar 1855 wurde sein Gehirn entnommen und zu Forschungszwecken konserviert. Die pathologisch-anatomische Sammlung der Universität Göttingen wurde damals von Konrad Heinrich Fuchs gegründet. Die Verwechslung – das Gehirn des "Fürsten der Mathematik", wie Gauss auch genannt wurde, wurde zuerst von Rudolf Wagner untersucht. Er veröffentlichte die Ergebnisse dieser und anderer Untersuchungen in den 1860er Jahren. Dabei erstellte er detaillierte Kupferstiche und Lithographien, um die Gehirne zu dokumentieren. In den folgenden 150 und mehr Jahren wurden mehrere Untersuchungen am Gehirn von Gauss und auch anderen Gehirnen durchgeführt. Die Neurowissenschaftlerin Renate Schweitzer entdeckte auf Bildern aus dem Magnetresonanztomografen von 1998, dass das Gehirn von Gauss eine seltene Variation aufweist – eine sichtbare Zweiteilung der Zentralfurche. Um ihren Befund zu überprüfen, zog sie die erste Veröffentlichung von Rudolf Wagner aus dem Jahr 1860 heran. Dort fand sie allerdings in dem sehr genau gearbeiteten Kupferstich keine vergleichbare Besonderheit. Das ganze Gehirn schien ein anderes zu sein. Wie sich herausstellte: Das Gehirn des Mediziners Konrad Heinrich Fuchs, in dessen Lithographie diese geteilte Zentralfurche deutlich zu erkennen ist. Fuchs ist im selben Jahr wie Gauss gestorben, etwa zehn Monate nach ihm, und sein Gehirn wurde ebenfalls von Rudolf Wagner konserviert und dokumentiert. Im Laufe der nächsten Jahre müssen die Gehirne bei einer erneuten Untersuchung vertauscht worden sein, sodass über viele Jahrzehnte Fuchs' Gehirn in Gauss' Glas lag und umgekehrt. Mit erneuten MRT-Scans konnte dieser Verdacht schließlich im Vergleich mit der Veröffentlichung von Wagner bewiesen werden. So kam es dazu, dass Gauss' Gehirn nicht Gauss' Gehirn war, aber jetzt doch wieder im richtigen Glas konserviert werden konnte.

    Was ist die Normalverteilung? (00:05:53)

    Helena: Was ist die Normalverteilung? Ja, die Normalverteilung oder auch Gauß'sche Glockenkurve, wenn man sich das vorstellt, man hat irgendwie Daten und erfasst die und möchte dann gucken, ja, welche Daten sind wie häufig, dann rechnet man ja vielleicht für diese Daten eine Statistik aus, so was wie Mittelwert und Standardabweichung. Und wenn man davon ausgeht, dass die Daten normal verteilt sind, dann reichen Mittelwert und Standardabweichung auch vollständig aus, um diese Daten zu beschreiben. Da braucht man eigentlich keine weiteren Informationen mehr. Und ja, der Mittelwert, also quasi der Wert, wenn man alle Sachen irgendwie addiert und dann durch die Anzahl der Werte teilt, ist bei normal verteilten Größen auch immer gleich dem Median. Der Median ist ja der mittlere Wert, nicht zu verwechseln mit dem Mittelwert. Das heißt, wenn man alle Daten sortiert und dann einfach den in der Mitte nimmt, das ist dann der Median. Und bei normal verteilten Größen sind Mittelwert und Median auch immer gleich. Wenn Sie das nicht sind, ist das ein erster Hinweis darauf, dass die Daten eben nicht normal verteilt sind. Und es gibt dann noch bei manchen Verteilungen gibt es noch weitere sogenannte Moden. Eine Mode ist zum Beispiel der Mittelwert. Es gibt aber auch noch andere Moden wie die Schrägheit, also wie schräg ist die Verteilung, Skewness auf Englisch, aber auch verschiedener höherer Ordnungen. Und die Normalverteilung hat eben die Eigenschaft, dass bis auf den Mittelwert alle Moden null sind. Die sind quasi nicht vorhanden. Das heißt, hier reicht wirklich einfach nur Mittelwert und Standardabweichung. Und wenn man das hat, dann kann man damit weiterrechnen. Das ist ziemlich nützlich. Dann muss man noch bedenken, dass die Normalverteilung zunächst einmal eine Wahrscheinlichkeitsdichte-Funktion ist. Also was heißt das? Wenn man jetzt etwas messen will oder wissen will von einer Größe oder von einer Information, die einen kontinuierlichen Wert hat, das absolute Standardbeispiel für Normalverteilung sind die Größenverteilung oder Längenverteilung von Menschen, wie groß ist ein Mensch und wie groß sind verschiedene Menschen, dann ist ja die eigentliche Größe im Rahmen der Messgenauigkeit ziemlich kontinuierlich. Da kann man auf einen Atom genau theoretisch messen, wie groß ein Mensch ist. Und dann existiert jede Größe, wenn man die in Atomradien angeben würde, vielleicht nur ein einziges Mal. Und wenn man jetzt allerdings anguckt, wie oft bestimmte Werte in einem bestimmten Bereich liegen, zum Beispiel ob jemand 1,80 Meter groß ist, dann guckt man sich an, wie genau möchte ich das denn jetzt messen? Zum Beispiel auf 1 Millimeter genau, dann würde man ja quasi alle Leute, die 1,799 bis 1,801 groß sind, in eine Gruppe packen und dann gucken, wie oft ist diese Gruppe. Bei Körpergrößen von Menschen würde man vielleicht nicht so präzise sein, weil das so genau die Messgenauigkeit nicht ist, weil Menschen können ja auch schief stehen und dann sind die unterschiedlich groß, da ist dann 1 Millimeter Messgenauigkeit irgendwie ein bisschen unrealistisch. Da misst man vielleicht eher auf 1 Zentimeter genau. Das heißt, man packt alle Leute in eine Gruppe, die jetzt 1,795 groß sind und bis 1,805 Meter groß. Und das ist dann quasi ein Bereich. Und dann würde man eben bei der Normalverteilung gucken, welche Fläche liegt jetzt unter dieser Normalverteilung zwischen beiden Werten. Und dadurch, dass bei der Normalverteilung die Fläche auf 1 normiert ist, also das heißt, die Fläche der Normalverteilung, die unter der Normalverteilung liegt, der Glockenkurve, hat den Wert 1, was 100% entspricht. Und dann ist quasi die Fläche unter dieser Linie, die von 1,795 und 1,805 ist, das ist dann auch im Grunde der Anteil oder der Prozentsatz der Leute, die diese Größe haben, wenn man bei der Körpergröße eben von normal verteilten Größen ausgeht. Das heißt, auf der einen Seite gilt die Normalverteilung erstmal für kontinuierliche Werte, aber man packt die ja immer in Abschnitte zusammen, die man zusammenzählt, um die Häufigkeit zu bekommen. Ja, und kontinuierliche Werte sind sowas wie die Längen von etwas, die Größen oder auch sowas wie Zeiten oder ein Gewicht. Das sind alles kontinuierliche Werte, im Gegensatz zu Kategorien. So, man kann die zwar in verschiedene Gruppen zusammenfassen, aber das kann man dann auch wieder anpassen, je nachdem, wie man es gerade braucht, was man jetzt bei reinen Kategorien-Sachen nicht machen kann. Kategorien wären jetzt zum Beispiel, welche Partei hat jemand gewählt? Also, wie gesagt, ein bekanntes Beispiel, was man in vielen Texten zum Thema Normalverteilung findet, ist eben Körpergröße von Menschen, dass die grundsätzlich erstmal normal verteilt ist. Wenn man sich das jetzt genauer anguckt, funktioniert das allerdings nur für eine Altersgruppe und dann auch nur für ein Geschlecht, das man zusammenpackt. Dann sind die Menschen ungefähr normal verteilt. Aber allein das Alter ist schon wieder relevant, weil Menschen in verschiedenen Altersgruppen auch unterschiedlich groß geworden sind, weil sich zum Beispiel die Ernährung oder so verbessert hat über die Jahrzehnte. Und deswegen ist das zwar grundsätzlich normal verteilt, aber nicht auf alle Menschen bezogen. Ja, ein anderes Beispiel für etwas, was normal verteilt ist, ist, wenn man sich jetzt anguckt, wenn man jetzt ein Spiel spielt. Es gibt sogenannte Rhythmusspiele, wo man dann in einem bestimmten Rhythmus bestimmte Dinge machen muss. Da läuft dann meistens irgendwie eine Hintergrundmusik und dann muss man im Takt der Musik Dinge tun. Und wie präzise man dann eben diesen Takt hält, ist dann quasi auch normal verteilt. Man hat dann zwischen zwei Mal, dass man drücken muss, immer einen bestimmten zeitlichen Abstand. Und dann gibt es quasi den mittleren Abstand, aber den schafft ein Mensch jetzt nicht unbedingt immer exakt. Das heißt, man ist immer etwas zu früh oder zu spät oder oft genug kriegt man den Abstand auch gut hin, wenn man gut im Takt ist. Aber wenn man sich das auf Millisekunden genau anguckt, dann ist das immer nicht exakt. Und sowas kann man eben auch verwenden oder wird im Bereich der Rhythmusspiele durchaus auch benutzt, um Cheater zu entdecken. Bei dem Spiel Osu! gab es jetzt vor kurzem einen Fall, dass jemand seine Tastatur so manipuliert hatte, dass der zweite Tastendruck immer exakt gleich nach dem ersten passiert ist, weil die Tastatur so Automatisierungsfunktionen hatte. Und da hat man gesehen, ja, das ist eindeutig nicht mehr menschlich, weil Menschen können nicht so präzise drücken. Und so hat man dann eben einen Cheater gefunden, weil etwas nicht mehr normal verteilt war.

    Janine: Wie frech, einfach so betrügen. Ja, wir hatten ja schon gesagt, das heißt auch die Gauẞ'sche Glockenkurve, denn dieser Carl Friedrich Gauss ist bekannt dafür, die Normalverteilung eingeführt zu haben. Und erstmals hat er sie in einem Aufsatz im Jahr 1809 veröffentlicht, wo übrigens auch die kleinsten Quadrate drin vorkommen. Da geht es um den Nachweis, beziehungsweise um den Beweis, dass Ceres demnächst wieder auftaucht und dann mit dieser Methode auch wieder gefunden werden konnte. Das hatten wir, ich glaube, in der letzten Folge.

    Helena: Ja, genau. In der letzten Folge hatten wir tatsächlich die gleiche Arbeit schon von Gauss, nur haben wir uns auf einen anderen Aspekt konzentriert. Diesmal geht es eben um die Normalverteilung.

    Janine: Was eigentlich ein ziemlicher Zufall ist, also nicht ganz, aber schon auch ein bisschen. Jedenfalls in dem Aufsatz von Gauss, den er da 1809 veröffentlicht hatte, war die Normalverteilung noch nicht die Normalverteilung namentlich, sondern er hatte ihr einen anderen Namen gegeben. Gauss nannte es Fehlerverteilung. Das ist ja was ganz anderes und erst mal verwirrend, finde ich.

    Helena: Naja, es ist ja insofern nicht was anderes, als dass er ja auch die Methode der kleinsten Quadrate entwickelt hat in der gleichen Arbeit und eben diese Fehler um diese Berechnungen herum dann eben auch normalverteilt sind, also um die Kurve. Man misst ja mit einer bestimmten Genauigkeit und dann ist halt die Messungenauigkeit ist dann eben auch normalverteilt. Und deswegen, weil er das in diesem Kontext benutzt hat, war das ja auch wirklich die Verteilung, die seine Fehler hatten.

    Janine: Ja.

    Helena: Das ergibt schon Sinn. Und was ich auch noch interessant fand, also mir war nicht klar, dass Gauss das damals so genannt hat, also Normalverteilung kam halt erst einige Jahrzehnte später als Name auf. Aber es gibt jetzt immer noch etwas, das nennt sich Fehlerfunktion, was im Grunde genommen einfach das Integral der Normalverteilung ist. Und während man jetzt, wie ich das vorhin erklärt hatte, um jetzt für zwischen bestimmten Werten die Wahrscheinlichkeit auszurechnen, muss man halt zwischen diesen Werten integrieren bei der Glockenkurve. Wenn man jetzt allerdings die Fehlerfunktion benutzt, dann muss man nicht mehr integrieren, also abgesehen davon, dass man sie nicht analytisch ausrechnen kann und mathematisch immer noch integriert wird. Numerisch gibt es da Algorithmen für. Aber im Prinzip kann man daraus dann direkt eben die Wahrscheinlichkeit von einem bestimmten Bereich ausrechnen, weil man es ja schon fertig integriert hat. Also die Fehlerfunktion habe ich durchaus auch schon öfter verwendet.

    Janine: Also für mich klingt das jetzt so ein bisschen von außen, ich bin ja in der Mathematik nicht ganz so tief drin, dass ja Gaus halt für sein spezifisches Problem mit den kleinsten Quadraten quasi eben eine Bezeichnung gefunden hat, die er Fehlerverteilung nannte. Und im weiteren hat sich das dann eben anders entwickelt, so wie Helena gerade sagte. Jahrzehnte später wurde dann der Name Normalverteilung gewissermaßen etabliert. Und ja, auch das, was Gaus da gemacht hat, ist natürlich nicht aus dem Nichts heraus entstanden. Die Normalverteilung gehört zum Gebiet der Wahrscheinlichkeitsverteilung und das, wie man sich vorstellen kann, ist ein ziemlich komplexes Gebiet der Mathematik. Und da gibt es eben auch reichlich Vorarbeiten, verwandte Konzepte, die darauf hingeführt haben oder auch noch daraus entstanden sind, beziehungsweise im Nachgang anders aufeinander bezogen wurden. Also die dann vielleicht eine bessere Nützlichkeit bekommen haben oder anders benutzt wurden, sich besser herauskristallisiert haben. Und ja, das Ganze ist für mich von außen relativ undurchdringlich, aber wir versuchen trotzdem so die Zusammenhänge ein bisschen darzustellen, wo wir sie brauchen und wo sie für uns auch nützlich sind. Und deswegen haben wir dann noch zwei Begriffe herausgepickt, um ein bisschen mehr zur Normalverteilung sagen zu können. Das ist der zentrale Grenzwertsatz. Ja, und da haben wir einen kurzen Satz im Vorfeld schon mal, was der zentrale Grenzwertsatz ist, und zwar besagt er, dass unter bestimmten Umständen Wahrscheinlichkeiten am Ende immer eine Normalverteilung ergeben können. Und wir haben den Begriff Binomialverteilung und die besagt, wie wahrscheinlich bestimmte Werte zum Beispiel beim Münzenwerfen sind. Und ja, warum haben wir genau diese beiden Begriffe herausgesucht? Beim ersten scheint es jetzt gerade vielleicht ein bisschen offensichtlicher. Aber ja, sie helfen uns, folgende Frage zu beantworten, die ich jetzt Helena stelle.

    Warum ist die Normalverteilung normal? (00:17:49)

    Janine: Warum ist die Normalverteilung normal?

    Helena: Ja, das ist eine gute Frage. Und die kurze Antwort darauf wäre der zentrale Grenzwertsatz. Und in der langen Antwort versuche ich, das jetzt einmal zu erläutern. Also, wir fangen jetzt einmal an mit einem Münzwurf. Wenn man eine Münze wirft, dann kriegt man entweder Kopf oder Zahl heraus. Ich gehe jetzt mal davon aus, das sind die einzigen Szenarien, also dass man die nicht zwischen ausversehen verliert oder sie auf der Kante liegt, sondern dass sie wirklich nur Kopf oder Zahl zeigen kann. So, und wenn man jetzt eine Münze mehrfach wirft, dann ist die Wahrscheinlichkeit für jedes Ereignis Kopf oder Zahl 50 Prozent, für jeden einzelnen Wurf. Und das ist unabhängig davon, wie oft man die Münze vorher schon geworfen hat. Jeder neue Münzwurf quasi fängt wieder von vorne an. So, es kann halt auch mal sein, dass mehrmals das Gleiche herauskommt, also dass man dreimal Zahl wirft oder viermal. Aber man hat eigentlich immer eine sogenannte Gleichverteilung. Das heißt, die beiden Ereignisse sind gleich häufig. Und am Ende läuft es darauf hinaus, wenn man sehr oft wirft, dass dann ungefähr genauso oft Zahl wie Kopf herausgekommen ist. Und wenn man jetzt mehrere Münzen gleichzeitig wirft und dann die Anzahl, wie oft Zahl geworfen ist, zählt, und dann sagt man, jetzt ist nicht mehr die Frage, ist Kopf oder Zahl herausgekommen, das Ergebnis, sondern wie oft ist Zahl herausgekommen, ist das Ergebnis, dann bekommt man die sogenannte Binomialverteilung, die besagt, wie wahrscheinlich jede einzelne dieser Münzwürfe ist, dass man eben dreimal Zahl hat, viermal Zahl und so weiter. Und dazu gibt es eine ganz nette Webseite, auf der man sehr viele Münzwürfe gleichzeitig simulieren kann. Da kann man dann irgendwie sagen, ja, ich möchte, also auf der Seite gehen bis zu 17 Münzen, und dann möchte ich diese zehnmal hintereinander werfen und vielleicht auch hundertmal und so weiter. Und wenn man das halt macht, dann sieht man, dass bestimmte Werte besonders häufig vorkommen. Also bei 17 Münzen liegt quasi die Mitte irgendwo bei, das kann ja auch nullmal rauskommen, das heißt, es gibt 18 mögliche Werte, die rauskommen können, nullmal Zahl und 17mal Zahl. Das heißt, die Mitte ist irgendwie bei neun, das heißt, das am häufigsten ist, dass man auch neunmal Zahl wirft, aber es wird ja nicht jedes Mal so sein, sondern dann wird auch mal achtmal Zahl geworfen oder zehnmal Zahl. Und je öfter man das wirft, desto mehr nähert sich das Ganze dann eben den berechneten Werten aus der Binomialverteilung an. Und diese Binomialverteilung wird, wenn man quasi die Anzahl der Münzen immer größer macht, dann, keine Ahnung, hundert oder tausend Münzen gleichzeitig wirft, und das ganz oft wiederholt, dann nähert sich diese Binomialverteilung immer mehr der Normalverteilung an. Also ein bisschen, wenn man sich das anguckt, sieht man auf dieser Webseite schon, dass das immer mehr diese Glockenform bekommt, aber damit es wirklich am Ende normal verteilt wird, muss man eben auch die Anzahl der Münzen, die man gleichzeitig berücksichtigt, immer weiter erhöhen. Gut, mathematisch betrachtet heißt das Ganze dann, dass bestimmte mathematische Voraussetzungen gelten müssen, damit ein Zufallsexperiment, das man ganz oft wiederholt und vor allen Dingen mehrfach kombiniert, dass diese auch am Ende eine Normalverteilung ergeben können. Das erste dazu ist, die verschiedenen Verteilungen oder Zufallsexperimente, die man macht, müssen unabhängig voneinander sein. Also wie bei einem Münzwurf, jede Münze ist unabhängig von der, die man davor geworfen hat, weil sie immer wieder ihren Zustand auf null zurücksetzt. Wenn das nicht der Fall ist, würde das hier eben nicht funktionieren. Also beim Lottozahlenziehen zum Beispiel ist die Zahl, die man gezogen hat, ja dann raus aus dem Topf, und die kann man nur einmal ziehen. Das heißt, damit könnte man keine Normalverteilung erzeugen. Dann müssen all die Verteilungen, die man halt kombiniert, eigentlich gleich sein. Das heißt, man muss wie den Münzwurf den Münzwurf halt viele, viele Male wiederholen und zusammenpacken. Man kann jetzt nicht, wenn jedes Mal die Verteilung unterschiedlich ist, die dann auch so kombinieren. Ja, dann gibt es noch eine sehr mathematische Voraussetzung, nämlich, dass die Varianz nicht unendlich groß sein darf bei den Verteilungen, die man da benutzt. Die Varianz ist im Wesentlichen das Quadrat von der Standardabweichung. Und man benutzt ja normalerweise die Standardabweichung, um normal vergeteilte Größen zu beschreiben, weil der Wert, der da rauskommt, ist etwas, was wir verstehen können. Man weiß ja vielleicht auch, innerhalb von einer Standardabweichung liegen 67% aller Werte einer Normalverteilung. Innerhalb von zwei Standardabweichungen um den Mittelwert herum sind, ich glaube, etwa 95% aller Werte. Und bei drei Standardabweichungen sind es ungefähr 99% aller Werte liegen in diesem Bereich. Und das ist eine Länge, die halt die gleiche Einheit hat wie der Wert, den man misst. Die Varianz hingegen ist ja das Quadrat. Das heißt, man kann sich mit dieser Zahl nicht so viel vorstellen. Wenn man allerdings zwei normal verteilte Größen hat und die sich überlagern lässt, sodass man quasi deren Ergebnisse addiert, in der dann entstehenden neuen Verteilung kann man dann die Mittelwerte ja addieren und kriegt dann den richtigen Mittelwert raus. Aber man kann nicht die Standardabweichung addieren, sondern man muss die Varianzen addieren und dann kriegt man die neue Standardabweichung. Also es gibt durchaus Situationen, wo die Varianz das mathematisch praktischere Tool ist, aber meistens versteht man ja eher, was meint jetzt eigentlich diese Standardabweichung. Das heißt, der zentrale Grenzwertsatz besagt unter den genannten Voraussetzungen, also dass man sehr viele Verteilungen kombiniert, diese Verteilungen unabhängig voneinander sind, aber sie jeweils gleich sind und die Varianz nicht unendlich groß ist, da kriegt man immer eine Normalverteilung am Ende heraus. Was es in der Statistik dann auch noch gibt, ist das sogenannte Gesetz der großen Zahl. Da geht es auch darum, dass man ein Zufallsexperiment sehr oft wiederholt und dann besagt dieses Gesetz, ja, wenn man, keine Ahnung, eine Million mal eine Münze wirft, dann nähert sich die relative Häufigkeit, also wie oft habe ich Zahl im Verhältnis zu Kopf geworfen, dem theoretischen Wert der Wahrscheinlichkeit an. Das heißt, wenn ich das sehr oft wiederhole, dann kriege ich bei 50% Kopf raus und bei 50% Zahl. Und das ist insofern, weil beides irgendwie mit sehr vielen Wiederholungen zusammenhängt, könnte man das vielleicht verwechseln, aber beim Gesetz der großen Zahl geht es eher darum, dass man darüber feststellen kann, ja, ist jetzt diese Münze oder dieser Würfel wirklich so verteilt, wie man das dachte? Wenn man einfach dieses eine Experiment sehr oft wiederholt.

    Janine: Das heißt, da könnte man zum Beispiel herausfinden, dass eine Münze oder ein Würfel manipuliert ist, in dem eine Seite mehr Gewicht hat, wenn sie eben nicht entsprechend der Wahrscheinlichkeit sich verhält?

    Helena: Genau, wenn du das jetzt irgendwie tausendmal wiederholst und dann feststellst, ja, 600 Mal habe ich Zahl geworfen, dann ist das wahrscheinlich manipuliert.

    Janine: Ahja.

    Helena: Also, wenn man jetzt irgendwie würfelt mit einem normalen Sechserwürfel, man würfelt 10 Mal, dann kann es schon sein, dass man unter diesen 10 Mal viermal eine Eins würfelt. Wenn man aber 100 Mal würfelt und dann 40 Mal eine Eins bekommt, dann ist das wiederum sehr unwahrscheinlich. Das heißt, es spricht dann dafür, dass es manipuliert ist. Und das Gesetz der großen Zahl besagt dann eben, dass sich dieser Würfel eben der erwarteten Wahrscheinlichkeit, dass alle mit einem Sechstel der Wahrscheinlichkeiten drankommen soll, annähert. Und der zentrale Grenzwertsatz hingegen ist dann, wenn man jetzt ganz viele Würfel hat, und dann muss man aber noch berücksichtigen, ja, diese Würfel müssen eben auch sich überlagern. Also im Falle von den Würfeln heißt das, wenn man jetzt so ein Spiel wie Kniffel spielt, dann interessiert einen ja nur, wie oft hat man jetzt eine Sechs geworfen. Habe ich jetzt fünf Sechsen oder nur eine? Und dann entspricht das eher, was einem interessiert, dem Gesetz der großen Zahl. Man kriegt aber keine Normalverteilung raus, wenn man das länger spielt, weil es geht nur darum, dass man jedes Mal eben einzelne Zahlen würft. Wenn man jetzt aber so was wie Siedler von Catan spielt, dann hat man ja zwei Würfel und einen interessiert ja nicht, ob man eine Eins gewürfelt hat, sondern man addiert die Sachen zusammen und dann sieht man ja, die Sieben ist am häufigsten und so weiter. Und dann will man ja taktisch so spielen, dass man bei häufigen Sachen auch in der Nähe seine Häuser baut und so weiter. Und wenn man jetzt hier die Anzahl der Würfel immer weiter erhöhen würde beim Siedler spielen, dann würde sich das eben einer Normalverteilung annähern. Ja, es gibt dann noch eine weitere Fehlannahme, die man haben kann über den zentralen Grenzwertsatz. Also der besagt ja, wenn man halt eine bestimmte Zufallsverteilung ganz oft miteinander kombiniert, dann bekommt man am Ende eine Normalverteilung. Wenn man jetzt allerdings sagt, ja, ich habe jetzt hier Menschen und suche zufällig aus der Bevölkerung Menschen raus und dann messe ich, wie groß die sind oder so, dann bekomme ich, wenn ich das sehr oft wiederhole, nicht die Normalverteilung heraus, weil im Extremfall habe ich ja einmal alle Menschen durchgemessen und wenn dann die Körpergröße in Wirklichkeit gar nicht normal verteilt ist, weil es zum Beispiel sehr viele Kinder gibt, die einfach kleiner sind, oder die Leute sind halt je nachdem, wo die herkommen, unterschiedlich groß, dann kriegt man am Ende, wenn man dieses Zufallsexperiment wiederholt, auch eigentlich nur die Verteilung, die tatsächlich in der Bevölkerung schon stattfindet, heraus. Weil das eben ja nicht zufällig ist. Weil nicht jeder Mensch quasi neu erschaffen wird für die Messung und zugrunde liegt eine Normalverteilung, sondern ich kann im Extremfall halt ja nur die reale Menschenpopulation messen. Und insofern gibt es dann eben keine Normalverteilung, wenn die nicht auf andere Weise schon normal verteilt sind. Dazu habe ich aber noch ein anderes Beispiel. Wir alle kennen ja Regenbögen. Die entstehen, wenn Sonnenlicht auf Regen trifft und es gleichzeitig regnet und die Sonne scheint, dann sieht man einen Regenbogen. Dieser Regenbogen hat eben die Eigenschaft, dass die Farben eben die Spektralfarben sind. Jetzt ist es aber so, dass bestimmte Gase oder sowas manche von diesen Farben halt absorbieren können. Das ist auch in der Sonne der Fall. Auch die Sonne hat einen Gas außen, was dann bestimmte Farben absorbiert. Das heißt, würde man jetzt sehr genau in diesen Regenbogen gucken, dann sieht man da so Löcher, die dann schwarz sind und gar nicht ihre eigene Farbe haben. Wenn man sich jetzt anguckt, auf welche dieser Wellenlängen, auf welche dieser Farben eben ein Gas reagiert, dann sieht man ja, für ein bestimmtes Gas ist auch eine bestimmte Wellenlänge typisch. Aber um diese Wellenlänge herum bildet sich dann eben auch wieder eine Normalverteilung. Und das kommt hier jetzt daher, dass alle Gasmoleküle sich eben bewegen, weil es ist halt warm. Wir haben Wärme und Wärme ist im Wesentlichen nur Bewegung von Molekülen. Das heißt, die bewegen sich in alle möglichen Richtungen und es ist dann bei vielen, vielen Milliarden, und das ist immer noch zu klein, Molekülen, die gleichzeitig irgendwie sich zufällig in irgendeine Richtung bewegen, hat man eben sehr viele von diesen Zufallsexperimenten quasi. Man misst ein Molekül und dann gleichzeitig noch ein anderes und davon sehr viele, dass sich das alles eben so stark mittelt, wie die sich verhalten, dass es auch normal verteilt ist, diese Breite von dieser Linie, die absorbiert wird. Würde man jetzt alles auf den absoluten Neupunkt herunterkühlen, dann bekäme man eben nicht mehr die Normalverteilung, sondern diese sogenannte natürliche Linienbreite, die Lorenz verteilt ist. Das ist eine Verteilung, die auf den ersten Blick durchaus der Normalverteilung ähnelt, aber sie tatsächlich eigentlich nicht ist, sondern sie ist ein bisschen spitzer. Und die kommt eben aus einem quantenmechanischen Effekt heraus. Und wenn man diese Lorenzverteilung, also die grundlegende Zufallsverteilung, mit den Bewegungen eben kombiniert, dann hat man ganz viele Wahrscheinlichkeiten, die sich überlagern, und dann hat man wieder eine Normalverteilung am Ende.

    Janine: Okay, also noch etwas anderes, wo man quasi eine bestimmte Verteilung hat oder einen bestimmten Grundsatz. Wenn es dann etwas weitergeht, also in diesem Fall ein neuer Aspekt hinzukommt oder die Häufigkeit hinzukommt, dann gleitet das über in eine Normalverteilung.

    Helena: Ja.

    Janine: Also ich nehme bisher auf jeden Fall mit, wesentliche Aspekte der Normalverteilung ist halt, dass wenn etwas häufig genug getestet wird oder die Datengrundlage einfach groß genug ist, dann kann ich eine Normalverteilung vorliegen haben. Und gleichzeitig auch, was ich jetzt vor allem aus deinem Linienbreitenbeispiel der Spektrallinien mitnehme, dass halt auch in diesem Fall durch die Bewegung quasi mehr Zufall, also die Zufälligkeit hier eine Rolle spielt. So das heißt, ja, wenn der Zufall höher ist, kann ich auch eher eine Normalverteilung vorfinden.

    Helena: Naja, man hat halt vor allen Dingen sehr viele Moleküle, die sich überlagern, die alle unterschiedlich sich in verschiedene Richtungen bewegen. Das ist so der Punkt.

    Janine: Also auch eher die Menge.

    Helena: Genau, das ist auch einfach die Menge. Also physikalisch funktioniert das dann wieder über den Dopplereffekt, dass für die betrachtende Person dann, wenn die Sachen in die eigene Richtung sich bewegen, halt die Wellenlänge anders darstellt, als würden sie von einem weg bewegen. Und durch die Bewegung ist das dann wieder normal verteilt, was man dann als Linienbreite misst, obwohl, wenn man sich die Geschwindigkeiten angucken würde von den Molekülen selber, sind die ja nicht normal verteilt.

    Janine: Okay, gut. Dann hatten wir jetzt auf jeden Fall Münzen, Würfel, Licht und andere Dinge. Aber wir hatten ja in unserem Teaser in der letzten Folge auch Dinosaurier versprochen. Wie kommen die denn jetzt ins Spiel?

    Habe ich eine Normalverteilung? (00:32:46)

    Helena: Genau, die Dinosaurier kommen dadurch ins Spiel, dass man ja auch zweidimensionale Daten haben kann. Also ich kann eine normal verteilte Größe haben auf der x-Achse, aber dann kann ich ja auch davon abhängig noch andere Werte haben, die für sich genommen vielleicht auch normal verteilt sein können, auf der y-Achse. Und das kann man dann aufmalen und mit Linien verbinden. Und da gibt es dann einen Beispieldatensatz, der nennt sich "DataSaurusDozen", also das Datensaurus-Dutzend. Das sind dann ein Dutzend Datensätze, die, wenn man sie als zweidimensionalen Plot sich anguckt, alle unterschiedlich aussehen. Aber die einzelnen Werte in x-Richtung bzw. in y-Richtung haben alle die gleiche Standardabweichung und die gleiche Mittelwert.

    Janine: Also das, was wir für die Normalverteilung quasi bräuchten.

    Helena: Genau, das, was halt so bei der Normalverteilung ausreichen würde, um diese Daten zu beschreiben. Und das hat man jetzt DatensaurusDozen genannt, weil einer dieser Fälle sieht halt aus wie so ein Dizensaurierkopf. Ja, jetzt haben wir hierfür einfach nur Standardabweichung und Mittelwert, aber wir haben ja auch die einzelnen Werte. Ja.

    Janine: Ja, genau. Und da ist die Frage ja dann eigentlich, wie kann ich erkennen, ob es dann tatsächlich eine Normalverteilung ist? Nur wenn diese Sachen passen, muss es ja am Ende vielleicht tatsächlich keine sein.

    Helena: Genau, weil bei einer Normalverteilung würden diese Sachen halt reichen, um das zu beschreiben, aber wir wissen ja nicht, ob die Sachen wirklich normal verteilt sind. Grundsätzlich hat man ja erstmal das Problem, man muss ja sehr viele Messungen machen, damit man am Ende wirklich diese Normalverteilung hat. Aber man guckt sich ja, wenn man jetzt zum Beispiel Menschen hat, die man misst, dann misst man ja auch nicht die gesamte Bevölkerung, sondern immer nur einen Bruchteil der Menschen, bei dem man bestimmte Sachen sich anguckt. Man zieht also eine sogenannte Stichprobe, also man sampelt, also sampeln ist letztlich nur das englische Wort für Stichprobe, also zum Beispiel zieht man 100 Personen aus einer Gesamtbevölkerung heraus. Und wenn man jetzt davon ausgeht, dass die 100 Menschen auch wirklich zufällig irgendwie ausgewählt wurden, ja, passt dann dazu, dass in der Gesamtpopulation diese Eigenschaft, die man sich jetzt anguckt, wirklich normal verteilt ist? Und die zweite Frage ist, ist jetzt wirklich auch diese Stichprobe zufällig? Die zweite Frage setzen wir jetzt erstmal voraus, dass man da schon irgendwie hingekriegt hat, dass die Stichprobe zufällig ist. Würde man jetzt, keine Ahnung, sich auf Körpergrößen beziehen, wie wir das ja schon mal gemacht haben, und man guckt sich jetzt nur Basketballspieler an, dann ist das vielleicht keine zufällige Stichprobe, mit der man eine Aussage über die Gesamtpopulation machen kann. Ja, und jetzt hat man im Wesentlichen zwei Möglichkeiten, wenn man halt so eine Stichprobe genommen hat, zu gucken, passt das denn zu einer Normalverteilung? Das eine ist das Plotting, also das grafische Darstellen, und das andere sind sogenannte statistische Tests.

    Mit welchen Plots die Normalverteilung überprüfen? (00:35:55)

    Janine: Genau, Helena sagt ja gerade Plotting, das grafische Darstellen. Damit ist das Visualisieren der Daten gemeint, also dass aus den zugrunde liegenden Daten eben ein Plot, ein Diagramm erzeugt wird, das dann als Bild interpretiert werden kann, beziehungsweise dessen Darstellung dann interpretiert werden kann. Wir haben darüber schon mal recht ausführlich in Folge 13 über eben Datenvisualisierung gesprochen, und vor allem darüber, dass Datenvisualisierung verschiedene Zwecke hat, unter anderem die Exploration, also das Erkunden von Daten, um sich mit ihnen und verschiedenen Aspekten der Daten dann vertraut zu machen, und auch die Verifikation spielt hier eine Rolle, also das Überprüfen, ob eine Annahme über die Daten und deren Interpretation halt richtig ist. Also wenn euch das Thema näher interessiert, dazu haben wir in Folge 13 geredet.

    Helena: Ja, und Verifikation spielt hier insofern eine Rolle, weil die Annahme, dass die Daten normal verteilt sind, ist erst mal ein Modell, ein Modell, was man über die Daten hat. Und um das zu verifizieren, kann man eben bestimmte grafische Darstellungen verwenden, die man aber auch im Vorhinein schon mal zur Exploration nutzen kann. Also die haben durchaus verschiedene Zwecke. Und das Offensichtlichste erst mal, oder das Einfachste, ist hier das sogenannte Histogramm. Bei einem Histogramm teilt man quasi die Daten, die man hat, in spezifische Werte auf, die man dann zusammenfasst. Und je nachdem, wie viel man zusammenfasst, das wird dann binning genannt, also die Bereiche, ja zum Beispiel 1 cm Bereich bei der Körpergröße, und dann zählt man, wie oft ist dieser Bereich. Und das ist dann ein Histogramm. Und hier kann man natürlich wunderschön diese Glockenform sehen, wenn es normal verteilt ist. Also wenn man jetzt irgendwie sieht, ja die meisten sind bei den kleinen und bei den großen Werten, und dazwischen ist nicht so viel, dann ist es eindeutig nicht normal verteilt. Also wenn man dann eben eine Glockenform sieht, dann ist es möglicherweise normal verteilt. Und ja, diese Glockenform wird deutlicher zu erkennen, je mehr Daten man hat. Also wenn man einige tausend Daten hat, dann kann man das schon relativ deutlich sehen. Wenn man irgendwie 100 hat, dann sieht es möglicherweise halt komplett anders aus. Was nicht heißt, dass es nicht normal verteilt ist. So, eine Alternative dazu ist das sogenannte Quantil-Quantil-Diagramm oder auch QQ-Plot. Dabei werden die Daten gemäß ihrer sogenannten Quantile aufgetragen. Und ein Quantil ist dann zum Beispiel, wie viel der Daten liegen in den ersten 10%, wie viel liegen in den zweiten 10%, wie viel liegen in den dritten 10%. Im Prinzip ist der Median auch das 50-Quantil, weil es in der Mitte liegt, also bei 50%. Und dann würde man eben auf der einen Achse auftragen, wo die Messwerte hingehören. Und auf der anderen Achse würde man auftragen, was erwartet man denn, wenn das wirklich eine Normalverteilung ist. Und wenn man so einen Plot eben für eine normal verteilte Größe macht, dann liegen alle auf der einen Achse, auf der einen Linie, die quasi direkt zwischen den beiden Achsen lang geht. So eine 45-Grad-Linie zwischen den Achsen. Und wenn man jetzt unten, also bei 0 rum, sieht, da ist so eine Kurve, die sich erst auf diese Linie annähern muss. Und die bewegt sich vielleicht am Ende von den Daten auch wieder von dieser Linie weg. Dann sieht man, dass es nicht normal verteilt.

    Janine: Also es muss tatsächlich sehr gerade heraus aus dem Nullpunkt hervorgehen.

    Helena: Ja, genau. So ein bisschen, was mal rausfällt, dann ist das okay. Aber je mehr das rausfällt, desto eindeutiger ist es nicht normal verteilt.

    Wie mit statistischen Tests die Normalverteilung überprüfen? (00:39:44)

    Janine: Ja, und das ist die eine Variante, wenn das Ganze über, also wenn man herausfinden möchte, ob das eine Normalverteilung ist, über visuelle Darstellung. Das andere war ja statistische Tests. Denn manchmal möchte man ja vielleicht das einfach in Zahlen sehen und direkt benennen können. Wie laufen denn diese statistischen Tests ab?

    Helena: Ja, also statistische Tests werden auch manchmal Hypothesentests genannt. Und dann gibt es immer zwei Hypothesen. Eine davon ist die sogenannte Nullhypothese, die man erst mal annimmt für den Normalfall. Also hier, ist es denn eine Normalverteilung? Und dann gibt es immer noch die Alternativhypothese, die dann besagt, es ist keine Normalverteilung in diesem Fall. Ja, und dann rechnet ein Test die Wahrscheinlichkeit aus, mit der durch Zufall, ja, die quasi besagt, wie wahrscheinlich ist, dass durch Zufall einfach jetzt die Nullhypothese stimmt, obwohl die Daten vielleicht auf andere Weise erzeugt worden sein könnten. Ja, und diese Wahrscheinlichkeit, mit der dann eben diese These stimmt, ist dann der sogenannte p-Wert. Der p-Wert, also p, ja, für percentage, ist dann oft 0,05, beziehungsweise 5%. Das ist so, in einem von 20 Fällen ist dieses Ergebnis durch reinen Zufall erzeugt worden. Und das ist dann, diese 5% wird sehr oft einfach als die Grenze angenommen. Also das hat natürlich auch gewisse Schwierigkeiten, wenn man jetzt immer von diesem Wert ausgeht, was jetzt nicht Teil dieser Folge ist. Also man sollte diesen 5% nicht immer vertrauen, weil man kann ja auch vorher bereits mit den Daten etwas gemacht haben, die dazu führen, dass diese, ja, 20% oder 5%, also dieses 1/20 anders erzeugt wird. Also wenn man 20 verschiedene Sachen testet und eins davon stimmt, dann heißt das ja nicht, dass das wirklich Sinn macht, sondern dass das reiner Zufall sein kann. Aber darum soll es jetzt erstmal nicht gehen. Es soll jetzt darum gehen, ja, wenn jetzt dieser Wert also unter 0,05 ist, also unter 5%, dann würde man die Nullhypothese verwerfen und die Alternativhypothese annehmen. Ja, da ist halt immer noch ein bisschen Interpretationsspielraum drin. Gut, und da gibt es jetzt verschiedene Tests, zum Beispiel den sogenannten Shapiro-Wilk-Test oder den Kolmogorov-Smirnov-Test. Aber es gibt insgesamt 20 verschiedene Tests, mit der getestet werden kann, ob etwas normal verteilt ist, je nachdem, welche Details einem wichtig sind. Und ein Problem ist hier jetzt irgendwie, ja, ist ja schön, dass es eine Normalverteilung ist, wenn man die Alternativhypothese nicht annehmen kann, weil der p-Wert über 5% ist. Aber irgendwie fühlt es sich auch ein bisschen komisch an, dass das, was man testen will, dann eigentlich nicht die Nullhypothese ist. Weil normalerweise nimmt man immer den, also in den meisten statistischen Tests würde das, was einen interessiert, ja die Alternativhypothese sein und die Nullhypothese ist ja, der Effekt ist nicht vorhanden. Und die Alternativhypothese, dann wäre ja der Effekt ist vorhanden und das ist eine Normalverteilung. Und dass das hier irgendwie andersrum ist, ist so ein bisschen, ja, schwierig von der Interpretation her. Letztlich besagt es einem dann, ja, das meiste kann man erstmal irgendwie als normal verteilt annehmen, weil es ist ja nur mit 10%iger Wahrscheinlichkeit normal verteilt. Ja, keine Ahnung, ich finde diese Tests, die sind durchaus hilfreich, weil manchmal ist es eben, dieser p-Wert kann ja auch, ja, sehr klein werden in manchen Fällen. Und ich habe das zum Beispiel auch auf diese Data-Saurus-Dozen-Sachen angewendet und die Y-Werte waren irgendwie überhaupt nicht normal verteilt bei den Sachen, die ich ausprobiert habe. Und die X-Werte waren laut Shapiro-Wilk-Test durchaus normal verteilt, aber dann nicht mehr nach Kolmogorov-Smirnov-Test. Also es macht schon Sinn, wenn man das macht, auch mehrere von diesen Tests zu machen. Und sie geben einem durchaus auch eine Idee. Und insbesondere bei kleineren Stichproben kann das hilfreich sein, dass man zumindest sagt, ja, es ist nicht unplausibel von normal verteilt auszugehen, weil dann kann man auch besser weiterrechnen. Ja, dabei muss man dann allerdings noch bedenken, dass bei sehr großen Stichproben wie 1000 Datenpunkte diese Tests auch immer empfindlicher werden. Und Sachen, die dann wunderbar wie, ja, eine Glocke aussehen im Histogramm, werden dann plötzlich als eindeutig nicht normal verteilt angesehen, weil es irgendwo ein paar Ausreißer gibt. Und dann ist natürlich immer die Frage, will man jetzt lieber diesen Tests glauben oder lieber dessen, was man gesehen hat? Also die sind nicht automatisch besser als ein Plot, nur wenn man eine Zahl rauskriegt. Weil man muss sich auch immer die Frage stellen, wenn man etwas auf Normalverteilung testet, warum mache ich das und woran bin ich interessiert? Und wenn ich jetzt kleinste Abweichungen in Daten sehen will, um die besser zu analysieren, dann ist es natürlich interessant, das hiermit festzustellen, ja, es ist nicht exakt normal verteilt, da ist es irgendwie eine Abweichung, die will ich mir genauer angucken. Dann ist das gut. Aber wenn mich das gar nicht interessiert, sondern mir es eher um, ja, wie sieht es denn allgemein aus, geht, dann bleibe ich doch lieber bei der Normalverteilung, wenn die im QQPlot oder im Histogramm eigentlich sehr gut normal verteilt aussehen. Also in der Physik zum Beispiel hat das auch was damit zu tun, wie man, ja, Messfehler berechnet. Also die sind ja, man geht ja immer erst mal von normal verteilt aus, deswegen ja auch Fehlerkurve. Wenn man jetzt aber feststellt, die Sachen sind nicht normal verteilt, die Fehler, dann muss man ja ganz anders mit den Messfehlern weiterrechnen, als wenn die normal verteilt sind. Aber gleichzeitig ist in der Physik auch manchmal genau dieser Punkt, man will ja genau diese Abweichung herausfinden. Also, ja, mit normal verteilten Größen weiterzurechnen ist halt viel einfacher, als wenn das andere sind, aber man kann das auch machen. Man kann mit Wahrscheinlichkeitsfunktionen rechnen. Man muss nicht immer nur Mittelwert und Standardabweichung benutzen.

    Janine: Sehr gut. Ich glaube, dann haben wir annähernd alles einmal gesagt, was wir gesagt haben wollten, oder?

    Helena: Ja, ich denke auch.

    Fazit (00:46:20)

    Helena: Kommen wir zum Fazit. Also mein Fazit bei dieser Folge ist, wenn man genug zufällige Dinge, die sich überlagern und unabhängig voneinander sind, ja, zusammenpackt, dann bekommt man immer eine Normalverteilung und deswegen heißt die auch "normal".

    Janine: Ja, das ist, glaube ich, eine ganz gute Zusammenfassung. Ich habe eigentlich diesen sehr knappen Fazit nicht sehr viel hinzuzufügen, außer vielleicht nochmal so der kurze Abriss durch die Folge. Wir hatten damit begonnen, dass die Normalverteilung von Gauss eingeführt wurde und veröffentlicht wurde und sich auch danach noch weiterentwickelt hat und eben auch mit anderen Konzepten zusammenhängt, wie zum Beispiel dem zentralen Grenzwertsatz, der eben besagt, dass wenn ich etwas häufig genug wiederhole, dann wird es eine Normalverteilung sein können und dergleichen. Also, ja, was Helena eben auch schon gesagt hatte, das nehme ich auf jeden Fall daraus mit. Und auch, ja, wie ich unterscheiden kann, es liegt eine Normalverteilung vor oder nicht, da sind eben verschiedene Methoden denkbar. Zum einen über das Erstellen von Plots, wie dem Histogramm oder dem QQ-Plot, oder eben halt mit den statistischen Tests, wo eben auch was ganz Gut ist, wenn man manche Sachen miteinander abgleicht, je nach Fragestellung auch, wie Helena gerade ausgeführt hat. Ja, ich denke, das ist so ein bisschen das Wichtigste, was wir heute gesagt haben. Oder was Helena heute gesagt hat, meine Redeanteil war etwas kleiner.

    Nächste Folge: Gesundheitsdaten im September (00:47:57)

    Helena: Ja, und in unserer nächsten Folge wollen wir dann mal über das Thema Gesundheitsdaten sprechen. Das ist ja ein durchaus sehr wichtiges und großes Thema und gerade auch angesichts dessen, dass jetzt gerade die elektronische Gesundheitsakte verpflichtend für alle eingeführt wird. Ja, den Aspekt finde ich jetzt ehrlich gesagt etwas schwieriger, deswegen konzentrieren wir uns eher auf den Aspekt der Daten, die wir selbst erheben und beobachten können, wie zum Beispiel Selbstüberwachung mit Armbändern oder Gesundheits-Apps. Und hier spielt natürlich auch die Sicherheit dieser Daten eine wichtige Rolle.

    Call to Action (00:48:35)

    Janine: Genau, und wenn ihr das nicht verpassen wollt, weil versehentlich fast alle von uns, die ein Smartphone besitzen, garantiert Gesundheits-Apps auf diesem Handy haben, die fleißig Daten erfassen, dann folgt uns doch auf Mastodon unter [email protected]. Da veröffentlichen wir immer, wann eine Folge rausgekommen ist. Oder guckt auf unserer Webseite vorbei, www.datenleben.de, da könnt ihr uns auch gerne Feedback hinterlassen oder eben ganz altmodisch per E-Mail. Wir freuen uns immer sehr über Kommentare zu unseren Folgen und nehmen auch Themenvorschläge gerne an. Und falls euch unsere Arbeits- und Denkweise gefällt, könnt ihr uns auch als Data Scientist für Analysen oder Projekte buchen.

    Helena: Ja, dann bleiben wir nur noch für eure Aufmerksamkeit zu danken und bis zum nächsten Mal. Ciao!

    Janine: Tschüss!

    10 August 2024, 10:01 am
  • 53 minutes 40 seconds
    dl052: wie werden (exo-) planeten gefunden?

    Die Menschheit hat sich wahrscheinlich schon immer dafür interessiert, ob es noch andere Welten gibt und vielleicht sogar welche, die ebenfalls bewohnt sind. Wie können solche Welten entdeckt werden? Wir sehen uns an, wie mit Hilfe verschiedener Methoden der Beobachtung, Datenerfassung und Analyse Exoplaneten beobachtet und nachgewiesen werden können. Es geht vor allem um die Radialgeschwindigkeitsmethode und die Transitmethode. Das Ganze wird aufgefüllt mit wissenswerten Details aus der Exoplanetenforschung, zum Beispiel zu TRAPPIST-1 und seinen sieben Planeten.

    Links und Quellen

    Schlagworte zur Folge

    Sonnensystem, Planeten, Exoplaneten, Radialgeschwindigkeit, Dopplereffekt, Transitmethode, Astrometrie, Astronomie

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zur 52. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten euch die Welt der Daten näher bringen. Was für Daten umgeben uns? Wie gehen wir mit diesen Daten um und was können wir aus ihnen lernen? Wer schon immer mehr darüber wissen wollte, ist hier richtig, denn diesen Fragen gehen wir nach.

    Thema der Folge (00:00:37)

    Janine: Der Weltraum – unendliche Weiten. Wir schreiben das Jahr 2024 und wollen über das Entdecken von Planeten reden, genauer gesagt darüber, wie Exoplaneten entdeckt werden können. Ein Großteil der Menschheit hat sich ja schon wahrscheinlich immer beim Blick in den Nachthimmel gefragt, ob es noch andere Welten gibt und vielleicht sogar welche, die ebenfalls bewohnt sind oder auf die wir aussiedeln können. Also haben einige angefangen, den Himmel danach abzusuchen. Und irgendwann sind sie tatsächlich fündig geworden. Und das mit Hilfe von Beobachtungen und mit dem Sammeln und dem anschließenden Auswerten von Daten. Das klingt doch sehr nach Data Science. Deswegen schauen wir uns heute insbesondere zwei Methoden an, die dazu eingesetzt werden, um Exoplaneten tatsächlich zu entdecken. Vorher gibt es noch einen kleinen Blick auf unsere Planeten und danach dann wird weiter in die Ferne geschweift. Und wir reden dann zum einen über die Radialgeschwindigkeitsmethode und die Transitmethode. Und ja, das Ganze füllen wir wie immer ein bisschen auf mit, wie wir finden wissenswerten Details, in diesem Fall aus der Exoplanetenforschung.

    Warum ist das Thema interessant? (00:01:47)

    Helena: Ja, und wir fanden das Thema, also wir finden das Thema interessant und beschäftigen uns jetzt damit unter anderem, weil es uns vorgeschlagen wurde. Außerdem habe ich das tatsächlich mal studiert. Also ich habe Vorlesungen gehört im Studium über das Thema Planetentdeckung. Und dann dachte ich, ja, können wir doch auch einfach mal eine Folge dazu machen. Und generell sind Themen aus dem Universum sowieso immer interessant.

    Einspieler: Exoplaneten – Auf der Suche nach Leben im Universum (00:02:16)

    Janine: Ich packe meinen Koffer und gehe zum Exoplanet-Travel-Bureau der NASA. Manchmal müssen neue Erfahrungen und Perspektiven auf die Welt einfach sein. Warum also nicht einen Exoplaneten besuchen? Exoplaneten, also extrasolare Planeten, liegen außerhalb unseres Sonnensystems. Sie kreisen nicht um dieselbe Sonne wie unsere schnuckelige kleine Erde. Und ja, wenn etwas Abstand zum immergleichen Trott nötig ist, wäre ich da sicher am besten aufgehoben. Die Prospekte über die zahlreichen Exoplaneten sind vielseitig und bunt illustriert in allen vorstellbaren Farben des Universums. Ich schaue mir einige Planeten näher an beim Herumblättern. Kepler-16b kreist um gleicht zwei Sterne. Spannend. Aber als Gasriese vielleicht nicht geeignet für einen längeren Besuch. Hm, 55 Cancri e verspricht mir einen Himmel über einem niemals endenden Ozean aus Lava. Klingt eigentlich wundervoll, aber die ganze Zeit in einer Schutzblase gegen die Hitze und die toxischen Gase? Erscheint mir weniger hohsam. Und so schön die Lava auch fließen mag, vielleicht doch etwas einseitig. Auf der nächsten Seite schlage ich im Prospekt TRAPPIST-1e auf. Kreist mit sechs weiteren steinigen Planeten um einen roten Zwerg und ist nur 40 Lichtjahre entfernt. Und die anderen Planeten des Systems TRAPPIST-1 sind aufgrund der Nähe zwischen ihren Umlaufbahnen gut im Himmel zu beobachten. Es sieht aus, als hingen viele sehr große Monde am Himmel, das muss ein ganz wunderbarer Anblick sein. Das Wichtigste ist aber, TRAPPIST-1e liegt in der habitablen Zone, es könnte dort sogar flüssige Wasservorkommen geben. Die habitable Zone, also die bewohnbare Zone, ist ein Bereich um einen Stern herum, in dem die Bedingungen für Leben theoretisch gegeben sein könnten. Vielleicht könnte ich dort also auch auf andere Lebewesen treffen? In der einen oder anderen Form. Ich meine, das ist doch, was die Menschheit immer wissen möchte. Gibt es auf anderen fremden Welten auch Leben in diesem Universum? Die Suche nach Exoplaneten war auch von dieser Frage getrieben, und in erster Linie suchen wir dabei nach Voraussetzungen und Bedingungen, die wir selbst vom Leben auf der Erde kennen. Die sogenannte habitable Zone ist dabei lediglich ein Konzept, um einen Verdacht in den Raum zu stellen. Bei den vielen, vielen Exoplaneten, die bisher gefunden werden konnten, ist es auch kein Wunder, dass so eine Vorauswahl die Suche erleichtert. Das Konzept der habitablen Zone dient deswegen vor allem dazu, einzugrenzen, wo es sich nach aktuellem Verständnis lohnen könnte, einen genaueren Blick zu riskieren. Aber es steht im wahrsten Sinne des Wortes in den Sternen, ob anderswo Leben existiert und auch, ob wir in der Lage sein werden, es als solches zu erkennen. Und bis dahin suchen wir weiter, nach möglichen Wasservorkommen auf felsigen Planeten, nach den extremen Bedingungen, unter denen auch auf der Erde schon Leben nachgewiesen werden konnte, nach Kommunikationssignalen außerirdischer Zivilisationen und nach elementaren Spuren von Leben in der Zusammensetzung von Atmosphären.

    Wie haben wir unser Sonnensystem entdeckt? (00:05:26)

    Helena: Ja. Wie haben wir unser Sonnensystem entdeckt? Also mit Sonnensystem meint man so die ganzen Himmelskörper, die wie wir unsere Sonne umkreisen. Und damit kann man einmal anfangen zu sagen, sowas wie die Planeten Merkur, Venus, Mars, Jupiter und Saturn, die lassen sich alle relativ einfach, also relativ, bei Merkur ist es noch vergleichsweise schwierig, aber die anderen sind doch sehr einfach zu entdecken und zwar mit bloßem Auge und sie gehören durchaus zu den hellsten Objekten am Himmel. Und daher sind diese Planeten so offensichtlich, dass sie nie entdeckt werden mussten. Das war dann erst bei Uranus und Neptun der Fall, die erst nach der Erfindung des Fernrohrs entdeckt und im Fall von Uranus als Planet identifiziert werden konnten. Planet heißt Wanderstern, also der Wanderer und steht dann im Gegensatz zu dem anderen Wort Fixstern, was heute durchaus in Kinderbüchern über Astronomie noch verwendet wird, aber eigentlich völliger Unfug ist, so wie man die Begriffe heute benutzt, weil man einfach Planet und Stern sagen kann und diese alten Begriffe sind einfach nur verwirrend, weil sich auch Sterne bewegen können am Himmel, weil wir gut genug messen können, um festzustellen, dass auch die sich bewegen, also deswegen gibt es nichts, was wirklich fest steht am Himmel. Ja, im Jahr 1781 wurde durch Zufall durch einen gewissen Wilhelm Herschel der Uranus entdeckt und dieser Umstand hat der Familie so viel Bekanntheit eingebracht, dass seine Schwester die Karriere als Sängerin abgebrochen hat, weil sie dann auch als Astronomin gearbeitet hat. Ja, Karoline Herschel ist so eine der bekanntesten Astronominnen gerade in der Geschichte und es gab ja auch das Herschel-Teleskop, das dann nach den beiden benannt wurde, den beiden Geschwistern. Sie hat dabei vor allem Kometen entdeckt und Sternkataloge erstellt. Sternkataloge sind insofern wichtig, als dass man, wenn man jetzt zum Beispiel Planeten sich angucken möchte, diese ja irgendwie ihren Ort beschreiben muss und um den Ort beschreiben zu können, guckt man, welche bekannten Sterne sind dort in der Nähe, um dann daraus abschätzen zu können, ja, wo sind die denn am Himmel. Weil so ein Sternenhimmel dreht sich über die Nacht und man kann jetzt nicht sagen, dass man im 18. Jahrhundert schon besonders sinnvolle Uhren hatte, da war der Sternenhimmel noch mit das genaueste Messinstrument und relativ zu diesen Sternen, die man in den Katalogen aufgezeichnet hat, musste man dann eben die anderen Himmelsobjekte beschreiben. Dann wurde ein weiterer Planet entdeckt im Jahr 1801 und dieser Planet hieß damals Ceres oder heißt heute immer noch Ceres. Nach heutiger Definition ist das längst kein Planet mehr, sondern ein Zwergplanet und das hat ungefähr 50 Jahre gehalten, dass Ceres als Planet galt. Vielleicht erinnert ihr euch auch noch an ein anderes Objekt am Himmel, das ein ähnliches Schicksal erlitten hat?

    Janine: Pluto!

    Helena: Also das ist so gesehen nicht ungewöhnlich, dass man irgendwann Dinge umdefiniert hat, aber bei der Entdeckung von Ceres hat man diesen einige Monate lang beobachtet, beziehungsweise ungefähr 40 Tage lang hat man ihn beobachtet und dann hat man ihn plötzlich nicht mehr gesehen am Himmel. Und dann wurde die Bahn des Zwergplaneten, die musste man irgendwie berechnen und das hat ein gewisser Gauß gemacht, der dafür dann erstmals die Methode der kleinsten Quadrate angewendet hat. Die Methode der kleinsten Quadrate verwendet man, wenn man einen Haufen Messdaten hat, aber eigentlich nur eine Linie anpassen möchte an diese Messdaten, also zum Beispiel irgendwie wenn man eine Kurvensteigung bestimmen möchte oder in diesem Fall eben eine Planetenbahn, dann verwendet man diese Methode der kleinsten Quadrate auch heute noch, um diese zu berechnen. Und damit konnte Gauß eben die Bahn von Ceres soweit berechnen, dass man ihn wiederfinden konnte. Das Ganze hat er dann allerdings erst einige Jahre später publiziert, im Jahr 1809. So einfach, weil Gauß war jetzt nicht bekannt dafür, besonders viel publiziert zu haben, sondern immer nur zu sagen, wenn irgendwelche jungen Mathematiker zu ihm kamen "Ja, ich weiß." Ja, gut. Dann gab es allerdings, weil man ja verschiedene Planetenbahnen immer genauer sich angeguckt hat, Unstimmigkeiten bei der Bahn von Uranus, den man ja mittlerweile seit einigen Jahrzehnten kannte. Daraus folgerten dann einige Leute, ob es sein kann, dass die Bahn von Uranus durch einen weiteren Planeten gestört worden sein könnte. Und am Ende waren die Berechnungen von einem Herrn Le Verriere ausschlaggebend, der dann aber auch noch einen Astronomen finden musste, der dann auch auf Basis seiner Berechnung Beobachtung durchführen wollte. Und den hat er dann in einem Johann Galle gefunden, der dann auch wirklich an die richtigen Stellen zur richtigen Zeit hingeguckt hat und dann den Neptun gefunden hat. Und es gab auch noch andere Astronomen, die durchaus schon aufgrund von Berechnungen anderer Leute versucht haben, den Neptun sich anzugucken und ihn durchaus auch schon beobachtet hatten. Aber dann dachten ja, das ist ja nur irgendein Stern. Ich glaube ja gar nicht daran, dass man da irgendwie so etwas ausrechnen kann, wie "da könnte ja ein Planet sein." Deswegen gilt dann eben der Johann Galle als der tatsächliche Beobachter, obwohl andere Neptun vorher beobachtet haben, weil er der erste war, der es auch ernst genommen hat als das, was er war, nämlich ein Planet, der sich bewegt.

    Janine: Also gewissermaßen der erste richtige Nachweis dann.

    Helena: Genau, der erste richtige Nachweis. Und wenn man dann erstmal die Planetenbahnen mit ein paar Beobachtungen bestätigt hat, dann war es natürlich für alle anderen auch einfach, den dann wieder zu finden. Ja, dann gab es noch andere Himmelskörper, wie zum Beispiel den Pluto, der auch auf eine ähnliche Weise entdeckt wurde wie der Neptun, weil man eben immer besser rechnen konnte, wie die Planetenbahnen aufgebaut waren und dann feststellt, das passt nicht ganz zusammen und dann hat man hingeguckt und dann hat man da so einen Himmelskörper gefunden. Also zusammenfassend kann man sagen, in unserem Sonnensystem gibt es eine Mischung aus zufälligen Entdeckungen und welchen, die auf Berechnungen basieren. Also Uranus wurde durch Zufälle entdeckt und Ceres zum Beispiel auch, aber jetzt Neptun und Pluto nicht. Die wurden berechnet. Und es gibt ja jetzt auch immer mal wieder Berichte über einen möglichen Planet 9 oder so, weil man auf Basis der aktuellen Beobachtungen der Planetenbahnen ja immer noch feststellen kann, ja irgendwo könnte es ja nochmal was geben. Damit es wirklich als Planet gelten würde, müsste es auch entsprechend groß sein. Die letzten Versuche, einen möglichen weiteren Planeten zu berechnen, hatten allerdings einige Fehler insofern, als dass man sich nur einen Teil von Kometen angeguckt hatte, der nicht gleichmäßig genug verteilt war, sodass man einfach einen systematischen Fehler in der Berechnung hatte. Das heißt aber nicht, dass das nicht funktionieren kann, sondern die Vergangenheit hat gezeigt, das funktioniert eigentlich sehr gut. Es ist die Frage, ob es nochmal passiert. Dazu müsste es einen passenden Himmelskörper auch geben.

    Janine: Das stimmt.

    Wie begann die Entdeckung der Exoplaneten? (00:13:01)

    Janine: Ja, das ist, was wir zu unserem Sonnensystem bisher sagen können, aber es gibt ja nicht nur hier Planeten, also hier, ja, in diesem Sonnensystem, es ist ein sehr weit gefasstes Hier, sondern auch andere Systeme, in denen Planeten vorkommen könnten, dachten sich die Menschen eh schon. Und ja, wir wissen jetzt natürlich, es gibt außerhalb unseres Sonnensystems Planeten und die werden Exoplaneten genannt oder auch extrasolare Planeten, ja, einfach weil sie außerhalb unseres eigenen Sonnensystems liegen. Das ist so der Blick der Menschen, die die Sachen kategorisieren.

    Helena: Ja, ich finde es ein bisschen verwirrend, dass man andere Planeten von woanders dann Exoplaneten nennen muss und Planeten nur, die im eigenen Sonnensystem sind. Klar ist das ein bisschen einfacher, dann begrifflich das zu unterscheiden, aber gleichzeitig zeichnet unsere Planeten ja überhaupt nichts aus in dem Sinne, die sie von anderen Planeten unterscheiden. Also deswegen finde ich den Exoplanetenbegriff jetzt nicht besonders hilfreich.

    Janine: Ja, aber so heißen sie, beziehungsweise ja, manchmal werden sie dann auch in manchen Artikeln zunächst Exoplaneten genannt, aber im Laufe der Artikel auch häufiger mal Planeten.

    Helena: Ja.

    Janine: Also es ist nicht ganz so trennscharf.

    Helena: Ja, klar, das eine ist die Definition, …

    Janine: Ja.

    Helena: … die sich einige Astronomen mal gegeben haben und das andere ist das, wie man es verwendet, was ja auch eigentlich mehr Sinn ergibt. Sind halt Planeten, nur halt woanders.

    Janine: Ja. Auf der Seite der ESA, der European Space Agency, wird angegeben, dass inzwischen über 5000 Exoplaneten entdeckt wurden und dass darunter auch sehr viele verschiedene Arten von Planeten zu finden sind, wie wir sie uns vorstellen können und auch aus unserem eigenen Sonnensystem kennen. Es gibt extrem massereiche Planeten, Planeten, die eine sehr enge Umlaufbahn um ihren Stern haben, welche, die sehr felsig sind, eisig sind, Gasriesen wie Jupiter sind auch nicht unbedingt selten und darunter aber auch einige, die eventuell sogar ein stabiles Wasservorkommen haben und in der habitablen Zone um ihren Stern kreisen, also wo die Bedingungen prinzipiell so aussehen, dass sie aufgrund des Abstandes zu ihrem Stern eben Umweltbedingungen haben, wo theoretisch flüssiges Wasservorkommen vorkommen könnte. Und auch so ein paar andere Sachen eventuell aufgrund des Abstands eben zu ihrem Stern, wie dass man nicht von der kosmischen Strahlung komplett weggebrutzelt wird aufgrund des Abstandes.

    Helena: Ja.

    Janine: Und ja, solche Beobachtungen werfen natürlich auch immer wieder die Frage auf, könnte auf solchen Planeten Leben existieren und das ist auch eines der Forschungsinteressen, das die ESA auf ihrer Seite angibt, denn es geht ihnen bei diesen Forschungen auch darum, besser zu verstehen, wo und unter welchen Bedingungen Leben im Universum existieren könnte und zugleich eben auch Hinweise darauf zu erhalten, wie unser eigenes Sonnensystem entstanden ist und wie sich die Erde gebildet hat. Das ist also quasi der Hintergrund der Suche nach weiteren Planeten im Universum. Ja, und wie hat die Exoplanetenentdeckung begonnen? 1984 wurde ein erstes Bild aufgenommen, und zwar konnte mit einem Teleskop eine Staubscheibe fotografiert werden, und Staubscheiben sind, ja, Ansammlungen aus Staub in einer bestimmten Form und sind dafür bekannt, dass sich in ihnen möglicherweise Planeten bilden könnten. Tatsächlich entdeckt werden konnte dann später auch ein Exoplanet, aber erst im Jahr 2008, also locker 24 Jahre später, und vorher mussten dafür noch ein paar andere Meilensteine passieren, zum Beispiel die ersten entdeckten Exoplaneten überhaupt, die 1992 gefunden werden konnten. Sie umkreisen zusammen einen Pulsar, der als Lich benannt wurde, und ansonsten aber die wunderschöne, wiedererkennbare Bezeichnung PSR B1257+12 Trug. Ja, die beiden Astronomen Aleksander Wolszczan und Dale Frail haben 1992 veröffentlicht, was sie gefunden haben, und zwar eben diese beiden Planeten. Inzwischen oder etwas später konnte auch noch ein dritter Planet gefunden werden, und die haben übrigens auch alle Namen bekommen, die sich an das Thema des Namens von diesem Pulsar anschließen. Der Pulsar hieß ja Lich, was so was wie Leiche, untot in die Richtung bedeuten kann. Und ja, die drei Planeten, die dort herumkreisen, heißen Draugr, Poltergeist und Phobetor. Also mindestens die ersten beiden sind natürlich auch in dieser Assoziation untot und Geist zu verorten. Fand ich ganz interessant.

    Helena: Ja.

    Janine: Vielleicht deswegen, weil da tatsächlich kein Leben möglich ist. Das ist völlig ausgeschlossen, weil der Pulsar eben eine Strahlung absonnen hat, die es nicht möglich macht, sich da aufzuhalten.

    Helena: Ja, und Pulsar quasi mal ein Stern gewesen sein könnte, mit Planeten, die potenziell mal gelebt haben könnten, jetzt aber definitiv nicht mehr das ermöglichen.

    Janine: Ja.

    Helena: Also wenn, dann gibt es da jetzt nur noch Vampire und Poltergeiste oder so.

    Janine: Das waren so die ersten entdeckten und nachgewiesenen Exoplaneten. Und 1995 konnte der erste Exoplanet entdeckt werden, der tatsächlich einen Stern umkreist, der unserer Sonne relativ ähnlich ist. Und zwar handelt es sich dabei um den Planeten 51 Pegasi b, der von Michel Mayor und Didier Queloz entdeckt wurde, wofür sie 2019 dann, also auch um einiges später, den Nobelpreis in Physik erhalten haben, weil ihre Entdeckung die Astronomie revolutioniert hat, indem sie eben ein völlig neues Feld eröffnet haben und neue Instrumente zur Entdeckung und Charakterisierung von Exoplaneten eingesetzt haben in ihrer Forschung. Die beiden haben nämlich maßgeblich die Entwicklung der, wie es im Nobelpreistext heißt, revolutionären Radialgeschwindigkeitsmethode vorangetrieben und die ist auch heute noch für die Suche nach Exoplaneten in Gebrauch. Und das ist auch die erste, die wir uns angesehen haben.

    Was ist die Radialgeschwindigkeitsmethode? (00:19:51)

    Janine: Wie funktioniert denn die Methode mit der Radialgeschwindigkeit?

    Helena: Ja, also bei der Radialgeschwindigkeitsmethode geht es darum, dass man so einen Planeten hat und wenn jetzt der Planet, also der Planet kreist natürlich um den Stern, das ist ja, denke ich, allgemein bekannt. Was man vielleicht da nicht unbedingt genau so auf dem Schirm hat, ist, dass letztlich auch der Stern um den gemeinsamen Schwerpunkt kreist und je schwerer zum Beispiel so ein Planet ist und je näher der am Stern dran ist, desto stärker bewegt sich eben auch der Stern selber. Ich meine, eigentlich will man ja lieber direkt Fotos machen von Planeten, aber das ist natürlich gar nicht so einfach und deswegen gehört eben die Radialgeschwindigkeitsmethode zu den indirekten Nachweismethoden für Exoplaneten. Und wenn man jetzt sagt, man hat darüber einen Planeten entdeckt, dann muss der bestimmte Bedingungen erfüllen und zwar muss man den einen Mal beobachtet haben, dass da etwas sein kann und dann ist das ein Kandidat. Dann muss man diesen Planet noch ein zweites Mal beobachten, um die Umlaufdauer zu ermitteln und dann muss man mit einer dritten Beobachtung die Umlaufdauer bestätigen. Und bei der Radialgeschwindigkeitsmethode geht das jetzt so, dass man sich das Licht von dem Stern anguckt, aber dabei sich vor allen Dingen die Farbe des Sterns anguckt. Also in welcher Farbe strahlt dieser Stern besonders hell? Und dann gibt es einen Effekt, der nennt sich der Dopplereffekt. Den kennt man vielleicht, das bekannteste Beispiel vom Dopplereffekt ist der Krankenwagen, der sich leicht anders anhört, wenn er auf einen zufährt, als wenn er von einem wegfährt. Also wenn etwas auf einen sich zubewegt, dann ist die Frequenz höher, also der Ton ist dann höher und wenn er wegfährt, dann ist eben die Frequenz tiefer, also der Ton ist tiefer. Und wenn das auf Licht überträgt, dann heißt das, wenn sich ein Stern auf uns zubewegt, dann ist dessen Licht leicht nach blau verschoben. Wenn sich der Stern von uns wegbewegt, dann ist das Licht leicht ins Rote verschoben. Also das heißt nicht, dass der Stern rot ist, sondern nur, wenn man sich jetzt das Maximum anguckt, also die Farbe, bei der das meiste Licht vom Stern kommt, dann verschiebt sich dieses Maximum eben ein bisschen Richtung rot bzw. Richtung blau. Und ja, wenn man sich Sterne anguckt, dann hat man schon sehr lange sich eben sehr genau die Farben angeguckt über Spektroskopie, weil man daraus ja auch feststellen kann, was findet denn da überhaupt statt für Chemie oder irgendwie Kernfusion, welche Elemente gibt es da. Das heißt, es gab schon immer eine sehr große Motivation darin, sich die Farben anzugucken von so Sternen. Und wenn man das eben auf eine Weise macht, dass man auch solche periodischen Veränderungen angucken kann, also das heißt, wenn da ein Planet umkreist, dann muss das ja sich immer wiederholen, wie ich gerade gesagt habe. Der kann ja nicht einmal auf uns zukommen und dann wieder von uns weggehen und das war's, sondern das passiert ja immer wieder in genau der Häufigkeit, wie lange dieser Planet braucht, um um den Stern zu kreisen. Deswegen musste man sich da nicht einfach nur mal angucken, ob ein Stern irgendwie ein bisschen zu zwei verschiedenen Zeitpunkten verschoben ist, sondern man muss den auch oft genug angucken, dass man dann nachweisen kann, ja, das ist tatsächlich periodisch und da ist so und so viel wahrscheinlich irgendwie ein Planet. Was man damit außer Planeten auch entdecken kann, sind so Doppelsternsysteme. Es gibt sehr viele Sterne, die gar nicht alleine sind, sondern mindestens die Hälfte aller Punkte, die man am Himmel sieht, sind in Wirklichkeit zwei Sterne, die sich auch umkreisen. Und im Grunde ist dann der Unterschied zwischen einem Jupiter-artigen Planeten und einfach einem zweiten Stern nur die Größe, also wie viel Gewicht das eingesammelt hat. Und wenn es dann gar nicht anfangen kann, eine Kernfusion aufzubauen, dann bleibt es halt Planet und wenn es mehr Wasserstoff an sich binden kann, dann kann es eben zu einem Stern zünden. Und mit der Radialgeschwindigkeitsmethode hat man eben vor allen Dingen erstmal solche Jupiter-artigen Planeten gefunden, die man dann auch oft als "Hot Jupiter" bezeichnet, weil die besonders nah an ihren Sternen dran sind. Einfach weil das sind genau die, wo man mit der Radialgeschwindigkeitsmethode am empfindlichsten ist. Man sieht solche Planeten einfach am stärksten, weil das Signal am größten ist. Das ist mittlerweile nicht darauf beschränkt, aber das ist ein wichtiger Punkt. Dann muss man auch bedenken, das funktioniert ja auch nur, wenn der Planet in der Richtung an dem Stern vorbeifliegt, dass der Planet auch wirklich auf uns zukommt und von uns wegfliegt. Das heißt nicht unbedingt, dass der auch vor dem Stern vorbeiziehen muss, das kann durchaus auch noch ein bisschen abgewinkelt sein bei dieser Methode. Aber wenn man jetzt auf ein Sternensystem drauf gucken würde, wo man quasi oben und unten und links und rechts die Bahn des Planeten hätte, dann würde man mit dieser Methode nichts messen können, weil dann ja der Dopplereffekt nicht auftritt, weil der Stern ja nie auf uns zukommt oder sich wegbewegt. Das heißt, mit dieser Methode hat man bestimmte Einschränkungen, aber es gibt trotzdem sehr viele Planeten, die auf diese Weise entdeckt werden konnten. Und was man mit der Radialgeschwindigkeitsmethode dann eben auch machen kann, ist sagen, was ist denn so das Mindestgewicht, was ein Planet haben müsste, um überhaupt diese Bewegung des Sterns zu bekommen. Und dass man nur die Untergrenze der Masse von den Planeten ermitteln kann, liegt eben daran, dass man ja nicht weiß, wie stark ist die Planetenbahn gegenüber uns geneigt. Das heißt, wenn die stark geneigt ist, dann würde der Effekt halt kleiner werden. Also im Grunde kann man sagen, wenn jetzt der Planet, den wir über die Radialgeschwindigkeitsmethode beobachten, aus unserer Sicht auch direkt auf uns zukommt und somit auch direkt vor dem Stern vorbeiziehen würde, dann ist der Effekt bei der angegebenen Masse des Sternes am größtmöglichen. Das heißt, das ist die Untergrenze, weil wenn der gleiche Effekt beobachtet wird, ohne dass der Planet sich vor den Sternen bewegt, sondern leicht gekippt ist, dann muss der Planet eben schwerer sein. Und je stärker die Planetenbahn gegenüber unserer Blickrichtung gekippt ist, desto noch schwerer muss der Planet sein. Und deswegen kann man eben nur die Untergrenze der Masse des Planeten hiermit bestimmen. Wenn man jetzt mit einer anderen Methode auch noch diesen Planeten beobachten könnte, ließe sich das natürlich schon wieder deutlich weiter eingrenzen. Also es gibt mehr als diese Methode.

    Wie wurde das System TRAPPIST-1 entdeckt? (00:26:56)

    Janine: Genau. Nachdem 1995 der erste Exoplanet, also ja, mittels dieser Radialgeschwindigkeitsmethode nachgewiesen werden konnte, wurden auch noch andere Methoden weiterverfolgt, um Planetenentdeckungen eben leichter zu machen oder besser bestimmen zu können. Und so kam es, dass 1999 der erste Planet mit der Transitmethode nachgewiesen wurde. Das ist ein Himmelsobjekt, das die wunderschöne Bezeichnung HD 209458b hat. Und das war nebenbei auch der erste Exoplanet, dessen Atmosphäre etwas näher untersucht werden konnte, und zwar mit Hilfe des Hubble-Weltraumteleskops. Der Planet konnte beobachtet werden, wie er ja so in der Nähe seines Zentralsterns, um den er kreist, einen ähnlichen Schweif gebildet hat, wie das bei Kometen der Fall ist. Und ja, der wurde dann wahrscheinlich mittels Spektroskopie, wenn ich Helena jetzt richtig zugehört habe, dann auch analysiert. Und Kohlenstoff, Sauerstoff, Kohlendioxid und Methan konnten dort nachgewiesen werden.

    Helena: Ja, genau.

    Janine: Und auch die Transitmethode hat sich im Laufe der Zeit dann als gute Methode etabliert, denn, oder was heißt als gute Methode, sogar eine der aktuell erfolgreichsten Methoden, denn laut einer Liste sind 70 Prozent aller Exoplaneten mit der Transitmethode entdeckt worden. Und zwar unter anderem Planeten, die um den Stern TRAPPIST-1 kreisen. Ja, an dieser Stelle ein kleiner faszinierter Einschub von mir. Es gibt übrigens ein Reisebüro für Exoplaneten bei der NASA auf der Homepage. Und da findet sich tatsächlich auch ein Planet aus dem TRAPPIST-1-System, nämlich TRAPPIST-1d. Und man kann da mittels dieses Reisebüros sich den Planeten mal genauer anschauen. Der liegt nämlich tatsächlich auch innerhalb einer potenziellen habitablen Zone. Und man kann sich da so ein bisschen Eindruck verschaffen, wie dieser Planet aussehen könnte. Es ist ein sehr felsiger Planet und es gibt auch ein schönes Ausmalbild dazu. Also, mehr Ausmalbilder, danke NASA. Ja, aber auch ohne diese Nebenbemerkungen zum Reisebüro und dem Ausmalbild ist das System TRAPPIST-1 ziemlich interessant. Erst mal zu dem Grund, warum es so benannt ist. TRAPPIST-1 ist ein Stern, der auch erst 1999 entdeckt wurde und der Name stammt daher, dass das Teleskop TRAPPIST dafür benutzt wurde. Und das steht für Transiting Planets and Planetesimals Small Telescope. Also ein Teleskop, das tatsächlich für den Zweck gedacht ist, vorbeiziehende Planeten in Transitionen befindliche Planeten zu beobachten. Und im Jahr 2016 wurde bekannt, dass um diesen Stern, der dann TRAPPIST-1 genannt wurde, drei Planeten entdeckt wurden und zwar auch mittels dieser Transitmethode nachgewiesen. Und später hat sich noch herausgestellt, also es hat noch ein Jahr weiterer Forschung bedurft, um herauszufinden, dass einer dieser drei Planeten tatsächlich mehrere verschiedene Planeten war. Insgesamt sind es tatsächlich sieben Planeten, die es in diesem System gibt und sie sind alle vergleichbar groß mit der Erde, mehr oder weniger, und drei von ihnen liegen in der habitablen Zone um den Stern. Das ist schon ganz ordentlich. Ja, und das macht diese Entdeckung natürlich für Menschen besonders interessant. Und er ist ja auch nur 40 Lichtjahre entfernt, also kann man ganz gut hingucken. Und deswegen passiert da ganz viel Forschung. Aber um diese ganze Forschung überhaupt machen zu können, müssen wir ja erst mal wissen, dass diese Planeten da sind. Und ja, und deswegen jetzt lange Vorrede. Das ging über die Transitmethode. Wie funktioniert denn die Transitmethode ganz genau?

    Was ist die Transitmethode? (00:30:49)

    Helena: Ja, die Transitmethode ist eigentlich leichter nachvollziehbar als die Radialgeschwindigkeitsmethode, wie ich finde. Weil letztlich ist das, was man da beobachten will, das Gleiche, was man beobachtet, wenn man sich eine Sonnenfinsternis anguckt. Das Objekt, also der Planet, dunkelt den Stern einfach ab, wenn wir genau drauf gucken und der Planet vor uns dann vor dem Stern vorbeizieht. Das kann man jetzt nicht nur dafür benutzen, um zum Beispiel den Mond zu sehen bei einer Sonnenfinsternis, sondern auch in unserem Sonnensystem können sowohl Merkur als auch Venus vor der Sonne vorbeiziehen. Und ich habe auch irgendwann mal eine solche Beobachtung gemacht, wo man dann sich ein Teleskop genommen hat, durch das man nicht durchgeguckt hat, sondern das man nur benutzt hat, um die Sonne auf eine große Leinwand zu projizieren. Und dann gab es da einfach einen kleinen schwarzen Fleck, der vor der Sonne langgewandert war, und das war Merkur. Und das Ganze lässt sich eben auch bei anderen Planeten machen, über diese Transitmethode. Hier ist dann im Gegensatz zu der Radialgeschwindigkeitsmethode allerdings wirklich einzuschränken, dass das ausschließlich bei Planeten möglich ist, die wirklich aus unserer Perspektive vor dem Stern vorbeiziehen. Jedenfalls geht es bei der Transitmethode einfach darum, man guckt sich einen Stern an und der wird dann plötzlich dunkler für eine gewisse Zeit und dann wieder heller. Und die gesamte Zeit, die dieser Planet vor diesem Stern ist, aus unserer Sicht, ist es stabil dunkler. Und besonders interessant ist dann natürlich die Phase zwischen "der Planet ist vor dem Stern und der ist nicht vor dem Stern", nämlich da, wo er vor den Sternen davor zieht. Wenn man da nämlich lange genug hinguckt und dann den Helligkeitsabfall sieht, also wie lange dauert es, bis der auf seine endgültige Verdunklung kommt, daraus kann man schließen, wie groß dieses Objekt ist, relativ zum Abstand. Und aus der Zeit, wie lange dann der Stern verdunkelt ist durch diesen Planeten, kann man darauf schließen, wie weit ist dieses Objekt von dem Stern weg. Und das sind natürlich sehr relevante Informationen, weil man möchte ja auch wissen, wie groß sind diese ganzen Planeten. Und das kann man eben, wenn man den Abstand kennt und weiß, wie lange es dauert, um den Stern zu verdunkeln, kann man eben ziemlich gut die Größe berechnen. Gut, aber wie macht man das jetzt mit dieser Messung eigentlich? Man braucht natürlich irgendwie ein Teleskop. Und dann muss man mit diesem Teleskop sich halt auf ein paar Sterne fokussieren. Und dann muss man das Ganze natürlich aufnehmen. Das macht man heutzutage im Wesentlichen mit Digitalkameras. Also die gesamte Transitmethode hat man, glaube ich, ausschließlich mit digitalen Aufnahmeverfahren benutzt. Und dann kann man sich halt, wie bei einem Foto, wo man ganz doll reinzoomt, ist dann so ein Stern verschmiert auf mehrere Pixel. Das heißt, man muss dann im nächsten Schritt sich die Helligkeit des Sterns angucken. Und das lässt sich ja durchaus darüber bestimmen, wie hell jetzt diese Pixel sind. Allerdings ist die Helligkeit ja auf mehrere Pixel verteilt. Das heißt, man muss die irgendwie zusammenrechnen. Wenn man das zusammengerechnet hat, dann plottet man sich diese Helligkeitskurve. Allerdings gibt es verschiedene systematische Verschiebungen, die diese Helligkeitskurve auch ohne Planeten irgendwie aus Sicht des Teleskops eben anders wirken lassen. Und das muss man dann eben rausrechnen, zum Beispiel, indem man einfach eine Sinuskurve von dieser Helligkeit abzieht, die dadurch zum Beispiel zustande kommen kann, dass einfach nur das Teleskop leicht vibriert. Oder auch ein bisschen langsam vibriert zum Beispiel. Ja, im nächsten Schritt normalisiert man den Wert dann noch. Normalisieren heißt, dass der normale Durchschnitt der Helligkeit einfach auf 1 gesetzt wird. Und dann kann man halt Prozentrechnung machen. Weil dann ist es nicht mehr relevant, wie hell ist der im Vergleich zu anderen Sternen, sondern nur noch, wie hell ist der im Vergleich zu sich selber, zu verschiedenen Zeitpunkten. Und ein Planet von Trappist-1 zum Beispiel kann jetzt eine Helligkeitsschwankung von 1% verursachen. Also man muss genau genug die Helligkeit messen können, um eine Änderung von 1% feststellen zu können. Und das kann man zum Glück seit einiger Zeit. Ja, wenn man jetzt solche Daten sich selber angucken kann, oder die Software benutzt dann eben auch Astronomen, dann kann man sich ein Python-Paket angucken, das sich lightkurve nennt. Ein bisschen lustig, also Lichtkurve auf der einen Seite oder Light-Curve, aber es ist halt Kurve, ist halt auf Deutsch geschrieben und Light halt auf Englisch. Und mit diesem Python-Paket kann man eben auch die Messdaten der Satellitenmissionen TESS und Kepler herunterladen. Und da kann man sich die eben selber analysieren. Und auf der Webseite sieht man eben auch eine Animation davon, wie sehen die verschiedenen Messwerte aus, wie sieht das aus, wie sind die Pixel verschmiert von einem Stern, wie sieht das Ganze dann aus, wenn man das Ganze eben, also diese Lichtkurve plottet, dann sieht man eben auch, dass da so ein langfristiger Trend drin ist, den man immer rausrechnen muss. Wenn man das dann gemacht hat und die richtigen Zeitpunkte ausgewählt hat, dann sieht man eben, dass es zwischendurch dunkler wird. Rein theoretisch kann man eben dieses Python-Paket auch für eigene Messungen mit einem Teleskop verwenden. Also es ist nicht nur möglich, eben diese Transit-Methode durch Satellitenmissionen anzuwenden, sondern im Prinzip geht das eben auch mit Teleskopen, die man sich selber in den Garten stellen kann. Die sind natürlich nicht billig, weil die müssen in der Lage sein, einen Stern automatisch zu verfolgen, damit man auch wirklich Messungen durchführen kann. Und dann hat man, wenn man von der Erde aus Sterne beobachtet, ja immer noch das Problem, dass Sterne funkeln. Also Sterne funkeln, weil die Atmosphäre ja unterschiedlich warm ist an unterschiedlichen Orten und sich diese Temperatur eben auch verändert. Und dadurch ändert sich eben der Brechungsindex der Luft und das führt dazu, dass eben die Sterne so aussehen, als würden die sich ganz leicht bewegen, wenn man sie sich am Himmel anguckt. Das Funkeln der Sterne. Das ist dann eben auch ein Effekt, der auch ein bisschen die Helligkeit beeinflusst, wenn man es von Boden aus misst, was dann wiederum eben das Auswerten dieser Lichtkurven erschwert. Und deswegen hat es auch so lange gedauert, dass man sich wirklich sicher war, dass man mit der Transitmethode Planeten entdecken kann, weil es kann ja auch einfach nur dieses Funkeln sein, was man da beobachtet. Und dann wirklich das Vertrauen in die Daten zu haben und zu sagen, ja, das ist jetzt so regelmäßig, dass es ein Stern sein muss, das hat natürlich gedauert. Und da hat es dann eben geholfen, dass man durch die Radialgeschwindigkeitsmethode definitiv nachgewiesen hat, dass es solche Planeten gibt. Dann war es eben auch einfacher, das eben zum Beispiel mit dem TRAPPIST-Teleskop eben nach dieser Transitmethode zu suchen, weil man muss ja lange genug sich diese Sterne angucken, um mögliche Exoplaneten finden zu können.

    Janine: Ja, und lange genug heißt auch hier wahrscheinlich, dass der Umlauf der Planeten eben mehrfach beobachtet werden muss, wahrscheinlich genauso wie bei der Radialgeschwindigkeit.

    Helena: Genau. Das heißt, man muss die auch im richtigen Abstand zweimal beobachten, um überhaupt erstmal einen möglichen Dauer eines Umlaufes berechnen zu können. Dann ist es ja leicht, das dritte Mal hinzugucken. Das kann man dann ja auch sehr bewusst machen und macht man dann eben auch, um nachzuweisen, dass da wirklich ein Exoplanet ist. Aber erstmal zwei von diesen Bedeckungen zu treffen, ist ja schwierig und das macht man jetzt halt seit vielleicht 25 Jahren oder so. Das heißt, Planeten, die länger als 25 Jahre dauern, um ihren Stern zu beobachten, kann man noch gar nicht nachgewiesen haben, weil man noch nicht diese drei Beobachtungen schaffen konnte. Das muss man auch bedenken, dass das natürlich nicht funktioniert oder dass es deutlich schwerer ist, Planeten zu entdecken, die weiter weg von ihrem Stern sind. Zum einen müssen die ja noch präziser auf unserer Sichtlinie sein und zum anderen brauchen die einfach viel, viel länger. Also die Umlaufzeiten von der Erde ist ein Jahr, von Mars ist etwas über einem Jahr, aber jetzt von Jupiter sind das schon elf Jahre.

    Janine: Da wären noch keine drei Beobachtungen drin gewesen.

    Helena: Doch, man hätte drei schaffen können, wenn man direkt am Anfang einmal unseren Jupiter beobachtet hätte, quasi, wenn man nicht von hier aus geguckt hätte, sondern von woanders aus, dann hätte man genau drei schaffen können, weil man braucht ja dann für drei Beobachtungen ungefähr 22 Jahre.

    Janine: Ach stimmt, ja.

    Helena: Aber alles, was weiter weg ist, wäre schon schwierig. Das muss man halt bedenken.

    Janine: Das ist übrigens auch ein Grund, warum TRAPPIST-1 so beliebt ist bei den Forschenden, weil dort die Planeten alle relativ kurze Umlaufzeiten haben und mit relativ kurz ist zum Beispiel gemeint 21 Tage oder weniger.

    Helena: Ja, das…

    Janine: Gibt da auch ein super Video, auch auf YouTube, das haben wir auch in den Shownotes verlinkt, dass das einmal zeigt, am Beispiel von TRAPPIST-1, wie auch die Plots aussehen zu den Messungen, die vorgenommen wurden und wie in diesen Plots dann schließlich nach und nach alle Planeten entdeckt werden konnten.

    Helena: Ja.

    Welche weiteren Methoden gibt es? (00:40:05)

    Janine: Okay, ja. Das waren jetzt die Radialgeschwindigkeitsmethode am Anfang und jetzt die Transitmethode. Und wir haben ja auch schon gehört, beziehungsweise aus Helenas Erläuterungen konnte ja auch schon rausgehört werden, dass es zum Beispiel relativ schwer sein kann, wenn jetzt bei der Transitmethode zum Beispiel die Helligkeitsschwankung nur ein Prozent ausmacht, die durch den Exoplaneten verursacht wird, der um den Stern kreist. Das ist ziemlich minimal und dafür müssen natürlich auch die Instrumente gut genug sein. Und auch bei der Radialgeschwindigkeitsmethode wissen wir schon, dass inzwischen jetzt, ja, 1995 die erste Entdeckung damit, also 29 Jahre später, wissen wir, dass mit der Radialgeschwindigkeitsmethode Planeten entdeckt werden können, die vor einigen Jahren noch gar nicht sichtbar geworden wären, weil natürlich die Technik sich weiterentwickelt, die Instrumente sich verfeinern und damit auch immer kleinere oder unscheinbarere Objekte mit ihren verschiedenen Besonderheiten entdeckt werden können. Und die beiden Methoden, die wir jetzt hatten, sind natürlich auch nicht die einzigen Methoden geblieben. Es gibt auch die Möglichkeit tatsächlich, also 1984 hat sich das ja schon so ein bisschen angedeutet mit dieser Fotografie oder dieser bildlichen Darstellung der Staubscheibe, dass es auch möglich sein kann, Exoplaneten, ja, zu fotografieren, sie bildlich festzuhalten. Das konnte 2004 das erste Mal gemacht werden und das ist der Planet 2M1207b, der eine fünffache Masse des Jupiters hat und um einen braunen Zwerg kreist und zwar in einem ziemlich großen Abstand, nämlich der Abstand zwischen diesem Planeten und seinem Zentralstern oder der Stern, um den er kreist, ist etwa 55 Mal größer als die Distanz zwischen Erde und Sonne, also eine sehr lange Umlaufzeit. Und das waren an sich aber tatsächlich gute Bedingungen, um ihn direkt auf ein Bild bringen zu können, so steht es beschrieben. Und seitdem konnten aber auch noch andere Planeten auf diese Art festgehalten werden, unter anderem durch das Hubble-Weltraumteleskop und ja, wahrscheinlich wird auch das James-Webb-Weltraumteleskop da noch Sachen nachliefern. Und ja, darüber hinaus aber sind auch noch ganz andere Methoden im Einsatz und auch noch in der Entwicklung und im Ausprobieren, um Exoplaneten finden zu können, die sich vielleicht auch den bisherigen Methoden ein bisschen entziehen, weil was Helena beschrieben hat, ein Planet, der in diesem Sinne quasi senkrecht, also hoch und runter zu unserer Sichtachse seinen Stern umkreist, der wird vielleicht mit den bisherigen Methoden gar nicht so großartig auffallen. Und ja, was gibt es denn noch für Methoden, die zum Beispiel andere Planeten, die wir bisher noch nicht sehen konnten, eventuell mal zeigen können?

    Helena: Ja, andere Methoden zur Planetenentdeckung. Also die wichtigsten beiden Methoden hatte ich ja schon einmal erklärt und ja, ich meine, du hast ja jetzt schon die Methoden erwähnt, dass man einfach ein Foto direkt davon macht und auch bei Pulsaren, wie man da Planeten entdeckt oder dass man da Planeten entdeckt hat, was eben daran liegt, dass ein Pulsar eben auf eine Weise pulsiert, dass wenn die Pulsierungsfrequenz sich ändert auf eine bestimmte Weise, dann ist da eben auch ein Planet drumherum. Das waren ja die ersten, die du erwähnt hattest. Aber weitere Methoden gibt es auch. Eine davon ist die sogenannte Astrometrie. Also Astrometrie bezeichnet erst einfach nur darum, dass man die Position von Sternen bestimmt und möglichst genau vermisst. Und gerade bei Sternen, die näher bei uns sind, kann man eben aufgrund der relativen Position der Sterne zu anderen Sternen, die weiter weg sind, eben deutlich sehen, dass die sich bewegen. Und das kann man dann auch nutzen, um nach Planeten zu suchen. Das ist so ein bisschen vergleichbar mit der Radialgeschwindigkeitsmethode, nur dass man eben sich nicht auf Umlaufbahnen beschränkt, die quasi vor dem Stern hergehen, sodass sich der Stern in unsere Richtung bewegt, sondern gerade diese Methode eignet sich eher für Planeten, die gerade nicht so vor uns hergehen. Wobei, eigentlich macht das keinen Unterschied, ob die jetzt vor dem Stern herfliegen oder orthogonal dazu. Aber was man hier eben machen kann, ist eben gerade auch diese Planeten finden, die wir mit den anderen Methoden gar nicht ersehen können, weil der Stern nicht bedeckt wird. Weil wir gucken dann die Bewegung des Sternes an und sehen dann, dass der relativ zu seinem Hintergrund wackelt. Wenn der auf eine bestimmte Weise wackelt, dann liegt es eben jetzt auch wie bei der Radialgeschwindigkeitsmethode wahrscheinlich daran, dass es einen Planeten gibt. Und natürlich ist das dann auch interessanter, diese Methode, wenn es eben mit der Radialgeschwindigkeitsmethode gerade nicht klappt, die zu beobachten, weil die Planeten halt ein bisschen weiter weg sind vielleicht oder eben in eine Richtung gehen, dass wir es gar nicht sehen können. Und das geht allerdings nur bei Sternen, die auch so nah sind, dass wir wirklich deren Bewegung sehen können. Deswegen hat man nur etwa 20 Sterne gefunden, bei denen man irgendwie Planeten auf diese Weise nachweisen konnte. Ja, der nächste Effekt ist der Gravitationslinseneffekt. Gravitationslinse heißt dabei, dass wenn Licht an einem Stern vorbeifliegt, dann wird das Licht abgelenkt, weil es eben auch von der Gravitation angezogen wird. Also den stärksten Gravitationslinseneffekt hat aus unserer Perspektive natürlich unsere eigene Sonne. Das ist durchaus sehr interessant. So hat man damals über die Position eines bestimmten Sternes bei einer Sonnenfinsternis vor 100 Jahren auch experimentell nachweisen können, dass die allgemeine Relativitätstheorie von Einstein sehr viel Sinn macht, weil er eine andere Ablenkung oder eine andere Position für einen bestimmten Stern damit voraussagen konnte, als man das jetzt bei der newtonschen Gravitation hätte voraussagen können, das eben so beobachtet wurde. Aber das geht halt auch bei anderen Sternen, bei denen Licht vorbeizieht. Und was man dann beobachtet, ist nicht das Licht von dem Stern selbst, sondern ein Objekt, das hinter diesem Stern ist, verändert eben die Helligkeit aufgrund des Gravitationslinseneffektes. Und wenn jetzt eben ein schwerer Planet um einen solchen Stern kreist, dann ändert das, wie stark dieser Gravitationslinseneffekt ist, was dann wiederum dazu führt, dass die Helligkeit des weiter entfernten Hintergrundobjektes sich verändert. Und das lässt sich eben auch periodisch beobachten, wenn es eben um einen Planeten handelt. Und so hat man eben mittlerweile auch einige Sterne gefunden. Was diese Methode jetzt allerdings besonders interessant macht, ist, dass es die einzige bisher bekannte Methode ist, mit der es theoretisch auch möglich ist, außerhalb der Milchstraße Planeten zu entdecken. Man kann jetzt in anderen Galaxien nicht wirklich einzelne Sterne auflösen, aber da man ja eh jetzt nicht die einzelnen Sterne beobachtet bei diesem Gravitationslinseneffekt, sondern eben gerade auch den Hintergrund, wäre es auch hier denkbar, dass man in anderen Galaxien so Planeten findet, einfach nur weil sich die Helligkeit aufgrund der Gravitationslinse verändert. Das ist jetzt allerdings noch nicht gelungen, aber ich finde, das ist ein sehr spannender Ansatz. Und dann gibt es natürlich auch die gleiche Methode, die wir schon beim Neptun hatten, dass man aufgrund von Umlaufbahnen von Planeten, die man bereits beobachtet hat, um andere Sterne herum, deren Umlaufbahnen berechnen kann und dann feststellen kann, oh, die gehen nur auf, wenn wir davon ausgehen, dass es noch einen weiteren Stern gibt. Und so kann man auch Planeten sozusagen, also man kann sie so nicht unbedingt in dem Sinne entdecken, wie ich das vorhin beschrieben habe, also nachweisen, aber es hilft bei der Entdeckung insofern, als dass man potenziell Zeitpunkte, zu denen man diesen Stern beobachten sollte, berechnen kann und dann sieht man, ob dieser Planet da ist oder nicht. Und dann kann man ihn auch nachweisen. Also es gibt so gesehen einen Unterschied zwischen Entdeckung und Nachweisen. Ja, das waren jetzt so die wesentlichen Methoden, die ich hier vorstellen wollte.

    Fazit (00:48:48)

    Janine: Sehr schön, dann haben wir jetzt, glaube ich, einen ganz guten Überblick darüber gewonnen, welche verschiedenen Methoden eingesetzt werden und ich würde fast sagen, wir können zum Fazit kommen.

    Helena: Ja, dann kommen wir doch zum Fazit. Also mein Fazit, weil ich jetzt nach über zehn Jahren mich nochmal mit diesem Thema beschäftigt habe, ist so, ja, also es gibt deutlich mehr Methoden als die Radialgeschwindigkeitsmethode und die Transitmethode mittlerweile, die auch erfolgreich dazu geführt haben, dass man Planeten entdeckt hat wirklich. Das fand ich schon mal sehr spannend jetzt festzustellen. Und auch, dass es mit Hobbyastronomie möglich ist, so Beobachtungen wie die Transitmethode einfach nachzumessen quasi. Also wenn man jetzt weiß, TRAPPIST-1 hat dann und dann einen Transit und dann ist irgendwie Nacht und der Himmel ist sternenklar und ich hätte jetzt ein Teleskop, dann könnte ich mir das tatsächlich einfach angucken. Das fand ich doch sehr spannende Erkenntnis.

    Janine: Ja, mein Lieblingsfazit zu dieser Folge ist, die NASA hat ein Reisebüro für Exoplaneten. Das hat mich wirklich über die Maße begeistert.

    Helena: Dann buch mal deinen nächsten Urlaub dort.

    Janine: Ja, bin dabei, bin dabei. Ja, Fazit, es gibt unterschiedliche Methoden zur Entdeckung und ja, alle haben halt im Wesentlichen mit Beobachtung und Messung zu tun. Ich habe vor allem mitgenommen, dass es ja eigentlich alle Beobachtungen oder alle Methoden fast das Gleiche machen. Mehrere beschäftigen sich mit der Intensität des Lichtes, aber aus anderen Gründen. Und das finde ich ganz spannend, dass es halt quasi für die Beobachtung unterschiedliche Herangehensweisen gibt, um eben zu wissen, bewegt sich der Stern. Also einmal ist es bei der Radialgeschwindigkeitsmethode die Farbe, die sich verändert oder eben bei der Astrometrie die Position, die sich verändert. Aber im Wesentlichen aus den gleichen Gründen, nämlich ein Planet kreist um einen Stern und der Stern wird in Bewegung versetzt. Das finde ich daran ganz spannend. Und ja, was gibt es noch zu sagen? Ich bin tatsächlich auch sehr gespannt, wie dieser Gravitationsinnenseffekt dann vielleicht später noch zu Entdeckungen führen wird. Das weiß man ja vielleicht in zehn Jahren oder so.

    Helena: Ja, ich bin gespannt.

    Janine: Ja, denn ja, wahrscheinlich werden auch da die Instrumente immer feiner und die Technik verbessert sich. Und bis 1992 waren Exoplaneten eine Vermutung und dann wurden sie der Reihe nach entdeckt, bis es jetzt halt tatsächlich über 5000 sind und sie werden weiter beobachtet. Es gibt übrigens noch kein Exoplaneten, auch wenn es zahlreiche gibt, die sogar in habitablen Zonen liegen, auf denen bisher Leben nachgewiesen werden konnte. Aber da ist ja auch immer noch die Frage, von welcher Art von Leben reden wir hier? Und wie würden wir das vorfinden und nachweisen können? Also da wird wahrscheinlich auch noch viel Forschung passieren, weil ja, wie eingangs gesagt, die ESA hat zumindest das auch als Forschungsinteresse, sich nach potenziellem Leben im Universum umzusehen bei der Suche nach Exoplaneten. Und ja, das ist deswegen einfach ein furchtbar spannendes Thema und ich bin gespannt, was da noch auf uns zukommt.

    Nächste Folge: Normalverteilung im August (00:52:08)

    Helena: Ja, und in der nächsten Folge im August reden wir dann über ein Thema, das schon häufiger irgendwie in irgendeiner Form in einer Folge erwähnt wurde, aber dem wir noch nicht so viel Aufmerksamkeit gewidmet haben. Und zwar geht es darum, was ist eigentlich diese Normalverteilung bzw. diese Gauß'sche-Glockenkurve? Ja, warum ist sie so wichtig und was hat das Ganze mit Dinosauriern zu tun?

    Janine: Dinosaurier, yay!

    Call to Action (00:52:37)

    Janine: Ja, wenn euch diese Frage genauso brennend interessiert wie mich zum Beispiel, denn Dinosaurier sind immer ganz cool. Ich habe heute auch Dinosauriersocken an, übrigens. Ja, jedenfalls, wenn ihr das nicht verpassen wollt und auch unsere vorangegangenen Folgen nachhören möchtet, zum Beispiel die über Asteroiden und den Weltraum, dann folgt uns doch gerne auf Mastodon unter @[email protected] oder guckt auf unserer Webseite www.datenleben.de vorbei. Da könnt ihr uns gerne Feedback hinterlassen oder uns auch per E-Mail Kommentare oder Anregungen schicken zu unseren Folgen, Themenvorschläge. Und ja, falls euch unsere Arbeitsamtdenkweise gefällt, könnt ihr uns auch als Data Scientist buchen für Analysen und Projekte.

    Helena: Ja, dann bleibt mir nur noch für eure Aufmerksamkeit zu danken und bis zum nächsten Mal.

    Janine: Tschüss!

    Outro (00:53:28)

    13 July 2024, 10:00 am
  • 57 minutes 21 seconds
    dl051: adhs – häufigkeit und diagnosen

    ADHS – Aufmerksamkeits-Defizits-Hyperaktivitäts-Störung – ist ein Thema, das aktuell viel beachtet wird. Seien es Beiträge in den Sozialen Medien, Berichterstattungen in Zeitschriften oder Videoformaten etc. Immer wenn so ein Thema viel Aufmerksamkeit bekommt, steht die Frage im Raum: Wird das immer häufiger? Das haben wir uns näher angesehen. Außerdem haben wir uns u.a. mit der Frage beschäftigt, welchen Einfluss hier geänderte Diagnosekriterien haben. Und wir haben laut und mit Blick auf verschiedene Studien darüber nachgedacht, ob eine Diagnose auch im Erwachsenenalter noch wichtig sein könnte.

    Links und Quellen

    Schlagworte zur Folge

    ADHS, ADS, Längsschnittstudie, Querschnittstudie, Metastudie, Neurodiversität, Neurodivergenz, Häufigkeit

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zur 51. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten mit euch die Welt der Daten erkunden. Es wird immer wichtiger, Daten in das große Ganze einordnen zu können. In unserem Podcast wollen wir deswegen Data Science anhand von Themen erklären, die uns alle betreffen.

    Thema der Folge (00:00:37)

    Janine: Und dieses Mal haben wir uns das Thema ADHS ausgesucht, was ein ziemlich umfangreiches Thema ist. Deswegen haben wir auch nur einzelne Unterpunkte herausgegriffen, nämlich zum Beispiel die Frage, warum das denn immer häufiger aufzutreten scheint, weil das so eine der Behauptungen ist, die in den Nachrichten häufiger mal rezipiert wird. Und darüber wollen wir ein bisschen sprechen und uns das mal genauer angucken, was die Daten dazu überhaupt sagen und auch darüber nachdenken, warum es zum Beispiel wichtig sein könnte, auch noch im Erwachsenenalter eine Diagnose zu bekommen. Genau, das sind so die Punkte, die wir vorhaben, also ein relativ eng gefasster Blick, aber auch das ist schon gar nicht so einfach, wie sich herausstellt, finde ich jedenfalls. Und übrigens werden wir im Folgenden auch allgemein den Begriff ADHS verwenden für die Aufmerksamkeitsdefizitshyperaktivitätsstörung, wie es insgesamt ausgesprochen heißt, um es an dieser Stelle einmal ganz gesagt zu haben. Wir kürzen es mit ADHS ab, weil Klammern leider schlecht zu hören sind, möchten an dieser Stelle aber dazu sagen, dass damit sowohl das Aufmerksamkeitsdefizit mit als auch ohne Hyperaktivität gemeint ist, sowie der kombinierte Fall von beidem. Diese Verkürzung ist immer ein bisschen ungelenk, aber in einem Audio-Medium wahrscheinlich am angenehmsten umzusetzen. Und ein anderer kleiner Disclaimer ist, wir werden wahrscheinlich keine grundsätzliche Definition von ADHS geben, das gibt's an anderen Stellen schon ganz gut nachzulesen, ihr könnt dazu einige Links auch in unseren Shownotes finden, zum Beispiel das Infoportal ADHS, das vom zentralen ADHS-Netz betrieben wird und vom Bundesministerium für Gesundheit gefördert wird. Ja, aber auch Quellen wie den YouTube-Channel "How to ADHD", der meiner Meinung nach Themen kurz und verständlich erklären kann.

    Warum ist das Thema wichtig? (00:02:37)

    Helena: Ja, und wir befassen uns mit dem Thema unter anderem, weil es ja viel mediale Aufmerksamkeit bekommt im Moment und gleichzeitig auch sehr viel Halbwissen und Vorurteile mit diesem Thema verknüpft werden und mir insbesondere auch bei der Recherche dieser Folge aufgefallen ist, dass in einigen Medien immer mal wieder veraltete Studien zitiert werden und dann die Erkenntnisse nicht mehr sonderlich hilfreich sind. Dann wird zwar irgendwas referenziert, aber das ist potenziell dann einfach ein bisschen alt. Und wir haben jetzt die Hoffnung, dass wir ein paar von diesen Punkten ausräumen können.

    Einspieler: Was beudetet "Leben mit ADHS"? (00:03:12)

    Janine: Was bedeutet Leben mit ADHS? Kannst du nicht mal stillhalten? Warum hörst du nie richtig zu? Du hast mich schon wieder versetzt. Bin ich dir nicht wichtig? Musst du mich ständig unterbrechen? Hör auf an deinen Fingern zu knibbeln. Wie sieht das hier schon wieder aus? Warum kannst du keine Ordnung halten? Nie machst du eine Sache fertig. Diese und viele andere Sätze hören Menschen mit ADS oder ADHS ständig. Und mit ständig ist gemeint, signifikant häufiger als andere Menschen, und zwar besonders als Kinder, aber auch im Erwachsenenalter. Was diese Fragen und Vorwürfe oft transportieren und bei den Betroffenen ankommt, ist so etwas wie "Streng dich doch mal an", "Halt dich mehr zurück", "Verhalte dich doch normal". Und ganz ehrlich, das kann extrem zermürbend sein, wenn das Tag ein und Tag aus gesagt wird. Sei es in der Schule, der Familie, unter Freunden, auf der Arbeit, im Studium, einfach überall. Dabei ist es ganz natürlich, dass manche Menschen eben ein bisschen anders verdrahtet sind. Die Menschlichkeit ist neurodivers. In ihrer gesamten Population kommen unterschiedliche Ausprägungen vor, wie auch bei der Körpergröße gibt es einen Durchschnittswert. Die meisten Menschen sind neurotypisch. Sie stellen die größte Gruppe innerhalb der Neurodiversität dar. Aber es gibt eben einfach Menschen, die von diesem Durchschnitt abweichen. Diese Menschen sind neurodivergent. Sie verarbeiten Reize anders, erinnern Dinge anders, haben einen Fokus auf andere Dinge, gehen mit Situationen anders um. Dazu gehören autistische Menschen, Menschen mit ADS oder ADHS, Menschen mit Tourette, Menschen mit Dyslexia und viele mehr. Zwar wird eine Neurodivergenz in der Regel mit einer Diagnose festgestellt und damit auch oft als Störung eingeordnet, aber für die meisten Betroffenen ist klar, dass sie nicht an ihrer Neurodivergenz leiden, sondern daran, dass ihnen viele Barrieren im Alltag, auf der Arbeit, in der Schule, in der Familie und unter Freunden begegnen können. Für einen Menschen mit ADHS macht es einen großen Unterschied, ob gesagt wird "Jetzt stell dich nicht so an" oder ob einfach mal gefragt wird "Was bedeutet das für dich, mit ADHS zu leben?" Antworten könnten sein: Irgendwie jeden Tag funktionieren müssen. Ich find mich voll okay. Mindestens 25 Jahre früher die Diagnose bekommen wäre unendlich hilfreich gewesen. Einen Haken hinter den Tag machen und morgen nochmal neu versuchen. Für immer gleiche Probleme ständig neue Lösungswege finden, die aktuell funktionieren. Mich den Erwartungen anzupassen, dabei aber nicht meine eigenen Bedürfnisse aus den Augen verlieren, ist schwer. Keine Kontrolle über den Schalter zu haben, worauf ich mich gerade konzentrieren kann. Erschöpft zu sein von dem Versuch, alles richtig zu machen. Meine Kreativität frei in den Lauf lassen und die Welt um mich herum vergessen. ADHS kann einfach sehr vielseitig sein. Also frag doch einfach mal die Menschen in eurem Umfeld, was bedeutet das für dich?

    Wird ADHS häufiger? (00:06:05)

    Helena: Eine Sache, die man ja immer wieder liest und meiner Erinnerung auch schon vor 20 Jahren immer wieder gelesen hat, war die Behauptung, dass ADHS ja immer häufiger werden würde. Und jetzt kommen natürlich dann auch noch die ganzen sozialen Medien hinzu, die immer alles so verkürzen und die Aufmerksamkeitsspanne von allen Menschen so reduzieren würden und so weiter und so fort. Weshalb wir dann jetzt erstmal mit der Frage einsteigen, wird ADHS häufiger? Dazu habe ich mir eine Studie von 2018 angeguckt, die sich mit den vergangenen Jahrzehnten beschäftigt hat. Und zwar als eine Meta-Analyse. Das heißt, die haben sich verschiedene Studien aus diesen Jahrzehnten sich angeguckt. Dabei wurde geschaut, dass es Studien gab, die mehrfach in möglichst gleichen Settings, aber mehrere, also mehr als drei Jahre, auseinander liegen. Und gefunden wurde insbesondere, dass die Diagnose ADHS über die Jahre häufiger gestellt wurde. Und zwar basierend auf den Daten von verschiedenen Querschnittstudien und Längsschnittstudien. Falls ihr euch nicht daran erinnert, Querschnittstudie heißt, man nimmt jetzt zu einem bestimmten Zeitpunkt eine zufällige Gruppe Menschen und macht Untersuchungen an diesen. Und eventuell macht man dann irgendwann nochmal eine solche Querschnittstudie und hat dann eine andere Anzahl zufällig ausgewählter Menschen. Und die Längsschnittstudie ist dahingegen, dass man zwar auch mit einer zufällig ausgewählten Anzahl Menschen auf Basis von irgendwelchen Kriterien anfängt, aber bei diesen Menschen eben nochmal untersucht. Mehrfach. So, dass man einen zeitlichen Längsschnitt hat und dann bei Individuen auch den Werdegang mitverfolgen kann. Nachteil einer Längsschnittstudie ist natürlich, die Leute werden dann im Laufe der Zeit älter, weil es müssen ja die gleichen Leute sein. Und wenn man die gleiche Altersgruppe zu verschiedenen Zeitpunkten untersuchen will, muss man das eben mit verschiedenen Querschnittstudien machen. Aber ich denke, beides zu haben ist eigentlich immer ein ganz gutes Ding. So. Innerhalb dieser Querschnitt- bzw. Längsschnittstudien, da ging es dann eher um das Thema Diagnose von ADHS. Man hat jetzt also feststellen können, ja, die Diagnose wurde häufiger gestellt. Das ist jetzt aber noch nicht unbedingt eine Aussage darüber, ob es wirklich häufiger geworden ist, weil ja es verschiedene Gründe geben kann, warum in einer bestimmten Menschengruppe die Diagnose häufiger gestellt wurde. Also in diesen Studien wurde nicht hingegangen und die Leute wurden alle einzeln im diagnostischen Prozess unterzogen, sondern die Leute wurden gefragt, ob sie schon mal eine Diagnose bekommen hätten. Das ist natürlich was anderes, als würde man jetzt einfach irgendwie einen Haufen Menschen sich aussuchen und dann alle Diagnostik machen, die man machen kann. Das wäre ein sehr langer Prozess und sehr aufwendig, wäre aber auch rein theoretisch eine denkbare Möglichkeit. Aber soweit ich weiß, wird das nicht gemacht. Ja, wenn man jetzt aber wissen will, unabhängig von der Diagnose, ob ADHS häufiger wird, dann muss man vielleicht die Diagnose auf andere Weise sich angucken. Und dazu wurden Studien sich angeschaut, in denen erstmal, ja, also es ging in diesem Fall, und bei den meisten dieser Studien ging es um Kinder, also in den 90ern wurden hauptsächlich halt Kinder diagnostiziert. Deswegen gibt es da auch einfach länger Daten, mit denen man vergleichen kann. Da hat man Daten von Lehrer*innen oder Eltern genommen, die Aussagen über die Verhaltensweisen ihrer Kinder getroffen haben, beziehungsweise die bestimmte Fragenkataloge ausgefüllt haben, die jetzt erstmal nicht unbedingt was mit ADHS zu tun haben. Und wenn man dann auf diese Fragenkataloge die ADHS-Diagnose-Kriterien von heute anlegt, dann stellt man fest, dass es nicht häufiger geworden ist, bezogen auf die letzten drei Jahrzehnte, sondern dass es nur häufiger entdeckt wurde innerhalb der genannten Studien.

    Janine: Und das hat sozusagen diese Metastudie, die du dir angesehen hast, dann daraus geschlossen?

    Helena: Genau. Und es gibt auch in Deutschland solche Längsschnittstudien, beziehungsweise Querschnittstudien, ich glaube, das ist tatsächlich eine kombinierte Variante, die sogenannten KIGGS-Studien. Und demnach gab es seit den 2010er-Jahren keinen Anstieg der Diagnosen mehr bei Kindern, sondern eher eine gleichmäßigere Verteilung bei den Diagnosen von Kindern auf die Geschlechter. Das ist so die Änderung, die man in Deutschland gesehen hat. Also nicht unbedingt mehr Diagnosen. Ja, und hier wird ein möglicher Grund für die Erhöhung genannt, nämlich, dass die Verfügbarkeit von Medikamenten das Interesse an der Diagnostik erhöhen würde. Weil wenn man weiß, es gibt ein Medikament und man kann etwas tun, damit es bestimmte Probleme weniger gibt, dann lohnt es sich für viele Akteure auch eher, die Diagnose aktiv herbeizuführen. Ja, das war jetzt eine Studie zum Thema Kinder, die schon mal ein sehr interessantes Ergebnis gehabt hat, nämlich, dass, wenn man sich einfach Aussagen von Eltern und Lehrer*innen anguckt, eben ADHS nicht häufiger geworden ist, sondern lediglich häufiger entdeckt wird, dann kann man sich noch fragen, was gibt es denn noch so für andere Effekte bei Kindern. Und eine Sache, die ich da auch gefunden habe, die mich durchaus im ersten Moment überrascht hat, aber beim weiteren darüber Nachdenken eigentlich gar nicht mehr so überraschend ist, nämlich, wenn man sich jetzt eine Klasse anguckt, wo die Kinder ungefähr gleich alt sind, aber eben bis zu einem Jahr Altersunterschied haben können, dann werden Kinder, die jünger in dieser Gruppe sind, häufiger ADHS diagnostiziert und dann auch mit Medikamenten versorgt, als die innerhalb dieser Klassenstufe älter sind, also relativ zu den Mitschüler*innen. Und den gleichen Effekt gibt es dann eine Klassenstufe später wieder und so weiter. Das Ganze gibt es auch im Sport und ist da bekannt als "Birthdates-Effekt", was man vielleicht mit so etwas wie "Geburtszeitpunkts-Effekt" oder "relatives Alter-Effekt" übersetzen kann. Und im Sport lässt sich das insofern sehr einfach erklären, weil es in sehr vielen Sportarten in den Jugendkategorien, wenn es um Wettkämpfe geht, eben nach Jahrgängen sortiert ist. Das heißt, Kinder, die im Januar geboren sind, sind dann halt relativ viel älter und können schon mehr Erfahrung haben, als die, die im Dezember geboren sind, müssen aber in der gleichen Gruppe antreten gegeneinander. Das heißt, wenn man jetzt irgendwie eine Teamsportart hat, wo dann ein Team zusammengestellt wird, würde man eher die älteren Kinder nehmen, weil die ja schon ein bisschen mehr können und dadurch, dass die dann häufiger bei Wettkämpfen antreten, haben sie dann auch mehr Erfahrung. Und das verstärkt sich dann bis zu einem gewissen Punkt. Das lässt sich bei Kindern und Jugendlichen nachweisen und bei Profisportler*innen mittelt sich das dann langsam heraus.

    Janine: Das heißt, es gibt irgendwo so einen Punkt, wo die Altersvarianz quasi immer egaler wird?

    Helena: In gewisser Weise schon, weil es dann ja auch nicht mehr diese Kategorisierung gibt.

    Janine: Mhm.

    Helena: Und also je später man in einen Sport einsteigen kann, desto weniger ist es wahrscheinlich entscheidend. Ja, das Ganze gibt es auch bei ganz normalem Bildungserfolg. Und da ist ja nicht mehr auf Jahrgänge bezogen, also Geburtsjahrgänge, sondern Schuljahrgänge, die ja einen anderen Stichtag haben. Und das ist unterschiedlich auch in verschiedenen Ländern. Und bei ADHS könnte man sich das dann vielleicht so erklären, dass jüngere Kinder innerhalb ihrer Gruppe als etwas kindischer wahrgenommen werden, im Sinne von, die sind vielleicht noch unruhiger als der Klassendurchschnitt und so weiter und vielleicht auch einfach langsamer Dinge verstehen in der Schule und so. Das heißt, sie fallen eher auf innerhalb der Gruppe und haben dann einfach eine höhere Wahrscheinlichkeit, dass das Ganze als ADHS entdeckt wird. Hierbei gibt es auch sehr viele verschiedene Studien aus verschiedenen Ländern. Das heißt, das ist jetzt nicht irgendwie so ein Effekt, der mal irgendwo gefunden wurde, sondern das wird durch sehr viele Länder hindurch entdeckt. Und in Deutschland ist der Unterschied etwa bei 22 Prozent. Das heißt, hier ist der noch relativ gering im Vergleich zu den anderen Ländern. Und Taiwan hat so den höchsten Wert, wo der Unterschied ist, dass die jüngsten einer Klasse 75 Prozent wahrscheinlicher diagnostiziert werden als die ältesten in der Klasse. Also, und die meisten Länder liegen irgendwo dazwischen. Ja, dieser Effekt ist am stärksten so in der dritten und vierten Klasse, so den Studien nach. Und das sind aber auch die Zeitpunkte, wo die häufigsten Diagnosen gestellt werden. Also in gewisser Weise fallen ja erst, wenn es in die Schule geht, bei den Kindern auf, dass die vielleicht Probleme haben könnten in der Schule. Und das führt dann dazu, dass man sich das erst ein bisschen anguckt. Und in der dritten, vierten Klasse steigen dann die Anzahl der Diagnosen stark an. Und so wie ich das jetzt gesehen habe, ziehen dann, wenn die Kinder älter werden, hier die Diagnosen tatsächlich dann nach. Das heißt, dann werden auch die Älteren innerhalb ihrer Klassenstufe später halt doch noch auch diagnostiziert.

    Janine: Ja, das ist spannend. Stand in diesen Studien eigentlich auch etwas dabei, dass die Schule tatsächlich der häufigste Ort ist, auch quasi von dem die Anregung ausgeht, eine Diagnose zu suchen?

    Helena: Also, so habe ich das da reingelesen. Dass das häufigste Probleme im Schulalltag sind, die dazu führen. Das heißt nicht unbedingt, dass es jetzt aus der Schule herauskommt, der Vorschlag, man könnte mal die Diagnose machen, sondern eher, ja, dass es auf jeden Fall irgendwie damit zusammenhängt. Ja, hierzu möchte ich noch einmal anmerken, dass es in so Ländern wie Deutschland oder zum Beispiel auch England möglich ist, wenn Kinder in der Nähe des Stichtages, wo entschieden wird, in welchen Jahrgang sie kommen, geboren werden, dass man dann durchaus die Möglichkeit hat, das Kind ein Jahr später einzuschulen. Und dann gehört es wieder zu den Älteren einer Gruppe und hat dann vielleicht, ja, ist es dann einfacher. Das hängt dann sehr vom individuellen Fall ab. Ich kann mich auf jeden Fall erinnern, dass, während ich zur Schule ging, gab es ein paar Leute, die einfach ein Jahr später eingeschult wurden, die um diesen Zeitraum geboren wurden, ja.

    Janine: Ist auf jeden Fall eine gute Möglichkeit, über die sich Gedanken gemacht werden kann.

    Helena: Ja.

    Warum wird ADHS häufiger diagnostiziert? (00:16:50)

    Janine: Ja, also so ganz zusammengefasst den ersten Punkt hier können wir sagen, dass nach dem, was du gesehen oder gelesen hast, ADHS erst mal, soweit man das beurteilen kann, nicht häufiger auftritt. Aber es wird berichtet, dass ADHS häufiger entdeckt und dann diagnostiziert wird. So ganz grob.

    Helena: Ja.

    Janine: Und ja, deswegen ist dann wieder die nächste Frage. Ich arbeite hier immer gern mit Fragen. Was genau die Gründe dafür sein könnten, dass es vielleicht häufiger diagnostiziert wird? Was hast du da denn herausgefunden?

    Helena: Ja, da bin ich dann auf einen Artikel gestoßen, auf einer deutschen Webseite, wo dann über einen, ich glaube, englischen Artikel berichtet wurde, in dem berichtet wurde, dass es irgendwie häufiger geworden sei und dann wurde ein alter deutscher Artikel, also eine alte deutsche Studie zitiert, um zu sagen, ja, es wird ja auch in Deutschland zunehmen. Obwohl ja die KIGGS-Studien, die das insbesondere bei Kindern und Jugendlichen untersucht hat, festgestellt hat, ja, nein. In Deutschland gab es jetzt irgendwie so in den letzten 10, 15 Jahren keine Erhöhung. Das kann man auch nochmal ein bisschen einschränken, das tun wir später noch. Aber soweit die Studienlage aussieht, ist es weitestgehend gleich geblieben bei Kindern und Jugendlichen. Und was auch eine große Rolle spielt, ist, dass man ja verschiedene Studien miteinander vergleicht, die ja unterschiedlich gemacht werden. Und manchmal kommen manche Studien auf so Werte wie 9 Prozent der Bevölkerung hätten ADHS und andere berichten zum Beispiel 5 Prozent. Und wenn man sich dann natürlich genau die richtige Abfolge von solchen Studien, die solche absoluten Prävalenzen quasi Aussagen heranzieht, dann hat man natürlich den Eindruck, es würde mehr werden. Aber potenziell ist einfach die Methodik völlig unterschiedlich dieser beiden Studien und dann kann man die 9 Prozent, 5 Prozent überhaupt nicht in Relation setzen.

    Janine: Aber das ist ja zum Glück etwas, was ja oft, wenn ich das richtig verstanden habe, in den Metastudien dann auch mitbetrachtet und beurteilt wird.

    Helena: Ja, genau das. Bei Metastudien wird sehr darauf geachtet, dass die Methodik sehr gleichmäßig ist oder wenn solche Unterschiede entstehen, dass man die halt auch berücksichtigt.

    Janine: Und wie kam es jetzt zu dieser anderen Aussage, dass es doch häufiger werden würde?

    Helena: Ja, das ist natürlich eine spannende Frage. Weshalb man natürlich auch hier immer den Eindruck hat, ja, es wird immer mehr, liegt wahrscheinlich zum einen daran, dass wir natürlich sehr viele internationale Medien lesen. Also ich konsumiere auch sehr viele englischsprachige Medien zusätzlich zu deutschsprachigen Medien. Das heißt, da wird natürlich auch berichtet, dass es mehr wird und soweit ich das nachvollziehen kann, stimmt das in deren Studien ja auch schon. Und hier werden verschiedene Gründe, weshalb das auch in den USA oder UK häufiger vorkommt, genannt. Und der erste Grund, der so genannt wird, ist ja, Ärzte sind besser geschult in Bezug auf ADHS. Sie können es also besser erkennen. Außerdem wurden Diagnoskriterien angepasst im Laufe der Jahre und der Inattentive Type, also der Typ von ADHS ohne dem H, also ohne Hyperaktivität, ist halt einfach nicht so auffällig und wurde deswegen leichter übersehen, weil jetzt zum Beispiel im Schulalltag mangelnde Aufmerksamkeit weniger stört als Hyperaktivität. Das stört jetzt dann vielleicht die eine Person, die nichts mitkriegt oder der Lehrer*in, aber nicht auch noch allen Mitschüler*innen sozusagen. Das heißt, es wurde öfter übersehen und mit mehr Aufmerksamkeit auf ADHS wird es dann weniger häufig übersehen. Und gerade in den USA gibt es da noch den Grund, es wurde irgendwann Obamacare eingeführt und dadurch bekamen erst Personen mit geringem Einkommen überhaupt Zugang zur Diagnostik und hatten überhaupt erst die Chance, dass deren Kinder oder sie selber diagnostiziert werden konnten.

    Inwiefern haben sich die Diagnosekriterien geändert? (00:20:59)

    Ja, ich hatte ja gerade gesagt, ein Grund ist, dass die Diagnosekriterien sich geändert haben. Das fand ich jetzt erstmal ganz interessant zu hören, weil ja, gut, das heißt, es hat sich ein bisschen auch die Sicht auf ADHS mit der erhöhten Forschungsaktivität verändert. Es ist aber auch die spannende Frage, was hat sich denn genau geändert? Und hierbei muss man zum einen bedenken, dass es jetzt in Europa und den USA verschiedene diagnostische Systeme gibt. Also in Deutschland gibt es den sogenannten ICD, da gibt es dann verschiedene Codes für verschiedene Krankheiten. Der ist generell für alles Mögliche und da sind dann auch so Buchstaben-Zeichen-Kombinationen, unter denen dann Krankenkassen Dinge abrechnen. Das sind dann meistens diese ICD-Codes. Und da gab es bis ungefähr dieses Jahr, und wahrscheinlich wird ja immer noch benutzt, den ICD-10. Und den gibt es seit 1994. Das heißt seitdem haben sich auch die Diagnosekriterien hier jetzt nicht wirklich geändert.

    Janine: Was, um das mal in Zahlen zu fassen, tatsächlich 30 Jahre sind.

    Helena: Ja, genau, das sind 30 Jahre. Und in der gleichen Zeit, auch Anfang der 90er gab es den sogenannten DSM-4 als Diagnosekatalog in den USA, der sich aber jetzt nicht auf alle möglichen Dinge, die man bei Krankenkassen abrechnen wollen könnte, bezieht, sondern hauptsächlich auf irgendwas in Bezug auf Psychologie und ähnliches. Und in diese Kategorie fällt ja auch ADHS rein. Und hier wurde allerdings schon vor 10 Jahren ein Update gemacht mit der neuen Forschung, nämlich der DSM-5 wurde eingeführt. Und dieser änderte eben auch die Diagnosekriterien von ADHS. Und zwar ist ein Diagnosekriterien, dass es eine bestimmte Gruppe von Symptomen gibt, wo man vorher gesagt hat, die müssen auf jeden Fall schon aufgetreten sein, bevor man 7 Jahre alt wurde. Das heißt, bevor man in die Schule gekommen ist. Und das wurde heraufgesetzt auf 12 Jahre. Das heißt, für alle die Leute, wo die Probleme sozusagen erst überhaupt anfangen, wenn man in die Schule kommt, gibt es jetzt die Möglichkeit, das auch dann erst wirklich festzustellen, sozusagen. Dann wurde das Wort Beeinträchtigung durch Symptom ersetzt. Das heißt, es muss nur als Symptom auftreten, dass man eine bestimmte Verhaltensweise zeigt. Das muss jetzt niemanden beeinträchtigen und insbesondere nicht die Person selbst. Vorher konnte nur diagnostiziert werden, wenn man auch eindeutig darunter gelitten hat.

    Janine: Was eine besonders interessante Änderung ist, wie wir vielleicht an einem späteren Punkt dieser Folge nochmal anreißen könnten.

    Helena: Ja. Ja, eine weitere Änderung im DSM-5 ist, dass überhaupt erst erlaubt wurde, Autismus und ADHS zusammen zu diagnostizieren. Vorher waren das Ausschlussdiagnosen. Das heißt, wer mit dem einen diagnostiziert wurde, durfte nicht mehr mit dem anderen diagnostiziert werden. Das ist jetzt quasi erst seit 10 Jahren geändert in den USA. Mittlerweile gibt es dafür auch ein eigenes Wort, wenn man beides hat, nämlich AuDHD. Also ADHD ist das englische Äquivalent zu ADHS. Ja, in Deutschland wird jetzt langsam der ICD-11 eingeführt. Offiziell ist der soweit ich weiß seit diesem Jahr in Kraft. Und hier wurde im Grunde einfach nachgezogen, was ADHS angeht. Also jetzt sind die Kriterien, die ich gerade genannt habe, hier eben auch gültig.

    Janine: Übrigens, wo wir gerade auch bei AuDHD waren und den Diagnosekriterien, falls das hier irgendwem gerade ein bisschen bekannt vorkommt, was wir sagen, etwas ähnliches haben wir schon mal in Folge 32 angerissen. Wie wird Autismus erforscht? Also falls da ein paar Sachen klingeln, da könnte es herkommen. Schrägstrich die Information, wer sich auch diese Perspektive einmal anhören möchte in Bezug auf Autismus, kann gern nochmal bei der Folge vorbeischauen.

    Helena: Genau. Ja, offiziell wird in Deutschland der DSM jetzt nicht zur Diagnostik verwendet. Wobei soweit ich weiß, ist auch schon hier mittlerweile angekommen, dass Autismus und ADHS zusammen diagnostiziert werden können. Nur weil man den ICD-11 noch nicht fertig hat oder der lange nicht fertig war, konnte man glaube ich schon trotzdem Dinge daraus übernehmen. Es wurde auf jeden Fall mittlerweile gemacht. Was aber auch noch ein wichtiger Punkt ist, ist in der Forschung in Europa wurde bereits der DSM-5 verwendet, also die Diagnosekriterien sind hier so gesehen nicht begrenzt auf, also die sind halt mehr für sowas wie Krankenkassenabrechnung und so weiter. Für die Forschung ist eher relevant, dass man möglichst international irgendwas Allgemeingültiges hat, deswegen wurde da bereits der DSM-5 verwendet. Ja, also ein Grund, weshalb jetzt in Deutschland bei der Forschung noch keine Zunahme verzeichnet wurde in den letzten 15, 20 Jahren, könnte natürlich auch sein, weil hier mit dem ICD-11 die Diagnosekriterien noch gar nicht angekommen sind. Das heißt, das könnte jetzt natürlich alles noch nachfolgen. Und auch wenn die Forschung jetzt natürlich schon den DSM-5 verwendet hat, hat nicht jede Forschung so funktioniert, dass die selbst diagnostiziert haben, sondern gerade sowas wie diese Studien, die Querschnittstudien vom KiGGs und so, haben eher gefragt, ja, hat schon mal jemand eine Diagnose gestellt für dieses Kind? So, das heißt, da wurde ja trotzdem auf die normalen Diagnosekriterien referenziert.

    Janine: Und auf die diagnostische Praxis sozusagen.

    Helena: Ja, genau.

    Janine: Ja.

    Helena: Das heißt, es könnte sein, dass in Deutschland der Anstieg jetzt noch nachfolgt. Deswegen, ja, die Studien, die es gibt, die sind halt aus den letzten Jahren und für genau jetzt. Jetzt könnte es trotzdem sein, dass jetzt gerade dieser Anstieg eben passiert. Und ein Hinweis könnte natürlich sein, wenn man sich bei Google die Suchergebnisse nach ADHS anguckt. Google hat ja Statistiken dazu, wie oft etwas gesucht wird. Und wenn man sich das anguckt, sieht man sehr deutlich, dass von Deutschland aus der Suchbegriff ADHS ja in den letzten zwei Jahren deutlich zugenommen hat.

    Janine: Was ich grundsätzlich auch einen super interessanten Zeitpunkt finde, weil wir hatten das Thema ja schon, dass sich zum Beispiel mit dem Eintritt in die Schule etwas ändern kann bei einem Kind, einem Menschen, dass dann überhaupt erst auffällig wird, dass ADHS vorliegen könnte. Und genau das Gleiche gilt eigentlich auch immer dann, wenn sich grundsätzlich im Leben etwas ändert, wenn sich Strukturen ändern. Es kann passieren, wenn man eben zum Beispiel plötzlich in einem Lockdown zu Hause sitzt und die ganzen Alltagsstrukturen wegbrechen. Also ich finde, man kann es natürlich überhaupt nicht sagen, aber ich finde es wirklich einen spannenden Zeitpunkt.

    Helena: Es ist ja quasi nicht, wenn der Lockdown anfängt, steigt es plötzlich stark an, sondern eher wenn der Lockdown durch ist.

    Janine: Ja, das auch. Es ist, da spielt vielleicht auch die eigene Erfahrung mit rein. Ich habe halt die Diagnostik auch erst etwas später gemacht, aber es ist durchaus so, dass halt mit Beginn des Lockdowns sich durchaus Dinge verändert haben und einem anders auf die Füße gefallen sind. Und damit muss man sich ja auch erst mal auseinandersetzen und überhaupt ahnen, erfahren, wissen, woher es vielleicht kommt. Und dann entsteht irgendwie so Leidensdruck, der irgendwie nebulös ist, bis dann irgendwann mal eine Erkenntnis kickt und dann werden Dinge in Gang gesetzt.

    Helena: Okay, also das heißt, du erwartest schon, dass es auch einfach verzögert ist, wenn es durch den Lockdown, durch die Pandemie ausgelöst, durch die Änderung des Alltags, dass man dann plötzlich feststellt, dass Dinge nicht mehr so funktionieren, aber dass man eine Weile braucht, um daraus Schlüsse zu ziehen.

    Janine: Ich kann es mir gut vorstellen, ja, aber es ist nur Übertragung.

    Helena: Ja, von daher, wenn man jetzt so den Google-Trends glauben darf, könnte es sein, dass wir in ein paar Jahren in den Studien, die jetzt gerade laufen und messen wie es ansteigt, tatsächlich auch sehen, dass es in Deutschland mehr wird.

    Janine: Mehr diagnostiziert wird.

    Helena: Genau, mehr diagnostiziert wird. Wir haben ja schon gesagt, es gibt Studien, die sagen, ADHS wird nicht mehr auf die Gesamtbevölkerung betrachtet, sondern es wird nur mehr diagnostiziert. Ja, und weil das eben über sehr lange Zeiten etwas war, was man vor allen Dingen für Kinder betrachtet hat, hat man auch sehr lange nur Kindern überhaupt irgendwie Medikamente gegeben. Und es gab zum Beispiel von 2006, das ist jetzt auch schon fast 20 Jahre her, einen Bericht, dass nur etwa 11 Prozent der Erwachsenen Amerikaner mit ADHS eine Form von Behandlung haben. Ja, und es wird auch gesagt, dass es ein Risiko ohne jegliche Behandlung sei für die Individuen. Also, dass das persönliche Risiko ohne jede Behandlung für die Person deutlich gravierender ist, als wenn man sie zu viel behandeln würde. Also, es wird ja oft irgendwie Behandlung nicht gemacht, weil Medikamente könnten Nebenwirkungen haben. Und hier war jetzt die Aussage, dass der Schaden durch Nichtbehandeln größer ist als durch Behandeln. Oder wenn man Leute ausversehen überbehandeln würde. Aber ADHS-Medikamente stehen halt in einem gewissen Ruf, dass sie auch missbraucht werden könnten, weil manche dieser Medikamente halt auch als Drogen auf dem Schmacksmarkt zur Verfügung stehen. Und in US-Unis wurde im Kontext von Prüfungen festgestellt, dass Leute dann sich ADHS-Medikamente besorgen, um eben besser zu lernen oder die Prüfung besser zu schreiben und eben nicht um Party zu machen. Also, die Leute, die das jetzt quasi illegal sich besorgt haben, haben das halt dann quasi zur Selbstmedikation benutzt und nicht, um das zu machen, weshalb diese Dinge eben nicht frei verkäuflich sind.

    Janine: Ein besonders beliebtes Meme, das kann man vielleicht an dieser Stelle auch mal einfügen, ist, von ADHS-Menschen, dass sie mal wieder ihre Medikation vergessen haben einzunehmen und dass das mal wieder ein Beweis dafür ist, wie schlimm süchtigmachend sie sei.

    Helena: Ja.

    Janine: Ist jedenfalls eines der Vorurteile. Und ja, man beweist doch recht häufig im Verlauf einer Woche allein schon, dass das nicht so richtig stimmen kann.

    Helena: Ja. Ja, dann gibt es noch so kleine Details. Oder was heißt kleine Details? Für viele Leute sind das gravierende Details. Also, bei Kindern werden drei bis viermal öfter Jungs als Mädchen diagnostiziert. Und wenn es um Diagnosen im Erwachsenenalter geht, dann ist das eher ausgeglichen. Es gibt also offenbar auch starke Nachholeffekte von Frauen, die man eben als Kind übersehen hat.

    Janine: Das Gleiche betrifft auch wiederum die Autismusdiagnostik. So viel sei hier schon mal verraten. Darüber haben wir auch kurz in der anderen Folge geredet.

    Ist es wichtig, dass ADHS auch später noch diagnostiziert wird? (00:32:22)

    Helena: Ja, jetzt die spannende Frage. Wenn es eben diese Nachholeffekte gibt, insbesondere bei Frauen im Erwachsenenalter, ist es denn wichtig, dass ADHS auch später noch diagnostiziert wird?

    Janine: Ja, mit dieser Frage habe ich mich auseinandergesetzt, weil, ja wie auch bei uns jetzt das Thema aufkommt und wir darüber sprechen, speziell in den letzten Jahren, das einfach auch immer öfter in den Medien behandelt wurde. Es gab halt nicht nur mehr Menschen, die sich auf Social Media mit dem Thema befasst haben oder da auch als sogenannte Advocates aufgetreten sind. Also Menschen, die aus der eigenen Erfahrung heraus über ein bestimmtes Thema andere informieren, was zum Beispiel Danny Donovan mit ihren ADHD-Comics ganz grandios leistet oder auch eben Jessica vom YouTube-Channel "How to ADHD". Genau, das ist so der amerikanische Raum, aber auch im deutschsprachigen Raum gibt es auch immer wieder bekanntere Personen, die dann sich doch auch mit dem Thema beschäftigen. Menschen, die mir da besonders aufgefallen sind in letzter Zeit, waren Sarah Kuttner, die auch sehr offenherzige Videos über ihr Leben mit ADHS macht und Eckhard von Hirschhausen, der auch in einer Doku mehr oder minder seinen eigenen Weg zur Diagnose mitdokumentiert hat. Und ja, es bekommt halt mehr Aufmerksamkeit und auch mehr Sichtbarkeit. Und das führt unweigerlich dazu, dass Menschen vielleicht hier und da mal denken "Wait, das beschreibt mein Leben eigentlich ziemlich gut, aber ich dachte, das geht allen so. Vielleicht doch nicht. Vielleicht erklärt das, warum ich mich schon immer ein bisschen komisch gefühlt habe, so in dieser Gesellschaft." Und ja, dann fängt die persönliche Recherche natürlich an oder auch, weil im Freundeskreis oder in der Familie Menschen das Thema auf den Tisch bringen. Viele erwachsene Menschen sehen sich dieser Frage gegenüber, weil zum Beispiel die eigenen Kinder eine Diagnose erhalten und dann entweder die behandelnde Person mal fragt "Wie ist das denn bei Ihnen?" oder man selbst sich vielleicht darin wieder entdeckt. Ja, und dann ist die Frage "Brauche ich eine Diagnose? Sollte ich das tatsächlich abklären lassen?" Und mal ganz ehrlich, noch so einer Anekdote am Rande, wenn diese Frage mit "Ja" beantwortet wird, dann kommen einem eigentlich echt erstmal ziemlich viele Steine in den Weg gerollt. Es ist nämlich als erwachsene Person in Deutschland aktuell gar nicht so einfach, eine Diagnostik zu erhalten. Es gibt zu wenige Anlaufstellen, die Wartezeit ist teils absurd. Ja, selbst bei den Institutionen, wo man noch drauf zahlt, weil es eine private Leistung ist, kriegt man eigentlich kaum einen Termin. Und dazu kommt auch noch, dass ausgerechnet Menschen, die von ADHS betroffen sind, sehr viele Hürden dabei erfahren, die unglaublich hoch sind. Termine sind oft nur möglich nach Anrufen zu einem bestimmten Zeitpunkt.

    Helena: Da muss man ja an den Zeitpunkt denken.

    Janine: Genau, man muss an den Zeitpunkt denken. Und der kann auch in sechs Monaten liegen oder rufen Sie doch nächstes Jahr im September an. Das sind so Aussagen. Die machen es einfach echt nicht leichter. Oder es gibt halt nur so feste Zeiten, dienstags von 9 bis 10 Uhr solche Scherze. Und ja, mal eher nicht die Chance, genau in diesem Moment dann nicht dran zu denken. Oder in so eine, ich mache es bestimmt morgen, Schlaufe zu geraten. Das ist doch recht hoch. Und noch dazu, ich hatte auf Mastodon gefragt, was bedeutet für euch Leben mit ADHS? Und eine der Antworten war: Ziemlich einfach, dass es nahezu unmöglich ist, als erwachsene, weiblich gelesene Person überhaupt eine Diagnose zu bekommen. Und damit sind wir auch eigentlich bei dem Punkt, den Helena eben schon angesprochen hatte. Da gibt es viel Nachholbedarf. Und es wäre schön, wenn sich das ändert, dass es auch einfacher zugänglich ist, so ganz allgemein.

    Helena: Ja, aber das ist, glaube ich, ein Problem, was gerade alles, was irgendwie mit Psychotherapie oder Diagnostik in dem Bereich zu tun hat, was Deutschland, wo es echt schwer ist, überhaupt irgendwo mit anzufangen.

    Janine: Ja, falls euch die Frage interessiert, wie finde ich überhaupt Sachen heraus? Es ist das zentrale ADHS-Netz verlinkt. Dort sind die regionalen Netze mit drin erfasst. Und da könnt ihr euch zum Beispiel eure Region raussuchen und die Menschen per E-Mail anschreiben, die dafür verantwortlich sind und gegebenenfalls eine Liste mit Anlaufstellen erhalten. Das ist zum Beispiel ein ganz okayer Weg, zumindest einen Überblick zu bekommen. Nur so als, ja, Tipp direkt mal an dieser Stelle. Aber zurück zu der Frage eigentlich. Auf der persönlichen Ebene ist natürlich die Frage manchmal auch gar nicht so leicht, weil man muss dazu ein bisschen im eigenen Leben rumstochern, alte Zeugnisse raussuchen. Die Familie muss gegebenenfalls mit einbezogen werden, weil es auch Elternfragebögen gibt, ja auch für Erwachsene.

    Helena: Ja.

    Janine: Und dann ist auch immer noch die Frage, was passiert denn eigentlich mit mir und meinen Gefühlen zu mir, wenn ich die Diagnose erhalte oder nicht erhalte? Also gehen wir mal vom Fall erhalten aus. Dann gibt es eben manche Menschen, die einfach unglaublich erleichtert sind, weil es eine Bestätigung gibt, dass sie die Diagnose haben und damit auch endlich eine Erklärung für das lebenslange Anderssein, das schon immer irgendwie aufgefallen ist. Dann gibt es aber auch so eine Art, ja, negative Seite. Man kann auch durchaus in ein Loch fallen und sich erst mal sehr mit der schmerzhaften Frage auseinandersetzen müssen, was wäre denn eigentlich, wenn das schon jemand früher erkannt hätte? Wenn das wahr ist, wie viel hätte mir erspart bleiben können an Schmerz und Umwegen, die ich in meinem Leben gemacht habe? Was hätte eigentlich tatsächlich aus mir werden können? Manchmal passiert auch beides. Und selbstverständlich ist es auch möglich, dass das gleichzeitig passiert. Also ja, es ist ein bisschen eine emotionale Achterbahnfahrt, zumindest war es das für mich. Und ich gehe davon aus, für manche andere auch. Und deswegen finde ich auch, ist das überhaupt gar keine leichte Entscheidung, so ganz auf der persönlichen Ebene. Und deswegen kann auch niemand sagen, mach eine Diagnostik, das wäre gut für dich, weil ja, das ist halt sehr individuell und muss jeder Mensch einfach selber wissen. Ja, warum reden wir jetzt trotzdem drüber? Ihr kennt ja unser Motto "Kenne dein Messverfahren" und daraus leite ich persönlich auch immer etwas so, sozusagen ein unterschwelliges Zweitmotto ab, "Triff informierte Entscheidungen". Deswegen habe ich versucht, das ein bisschen allgemeiner zu betrachten, was mir nicht in allen Punkten wirklich möglich ist, aber ich habe es wirklich ernsthaft versucht.

    Welche Rolle spielt der Leidensdruck? (00:39:05)

    Also, ist es wichtig, dass ADHS auch im Erwachsenenalter noch diagnostiziert wird? Ich habe mir versucht, zwei Punkte dabei anzuschauen, die ich finde, dass sie bei dieser Entscheidung eine Rolle spielen könnten. Und zwar ist das zum einen der Punkt Leidensdruck und zum anderen der Punkt Risikofaktoren, die durch ADHS erhöht werden.

    Helena: Ja, Leidensdruck ist ja das Ding, was ja insbesondere vorher ein sehr relevanter Teil der Diagnostik-Kriterien ist. Ohne Leidensdruck keine Diagnostik. Nur, dass die Symptome auftauchen, reicht nicht. Das hat sich ja geändert.

    Janine: Ich finde es aber auch unabhängig davon für einen selbst tatsächlich noch eine interessante Frage, weil ja, meistens ist es doch so, wir gestehen uns dann zu, uns Hilfe oder Erklärungen zu suchen für etwas, wenn wir einen gewissen Leidensdruck empfinden, wenn quasi die Motivation, eine Lösung zu erhalten oder einen möglichen Lösungsweg nachzuvollziehen, groß genug wird. Machen alle Menschen so, aber wer ADHS hat, der weiß auch, dass Motivation eine ganz besondere Rolle spielt.

    Helena: Ja.

    Janine: Aber das ist auch wieder sehr individuell. Wenn ich die Frage, verspüre ich einen Leidensdruck, aber mit ja beantworten kann, dann ist Diagnostik sinnvoll. Weil, wie Helena auch schon erklärt hat, unser Gesundheitssystem funktioniert so, dass man etwas diagnostiziert bekommt und aufgrund dieser Diagnose wird einem der Weg freigemacht für bestimmte Leistungen, für die richtige Behandlung und so weiter und so fort. Deswegen ist es hilfreich, tatsächlich. Aber was ich schwierig finde bei dieser Sache mit diesem ominösen Leidensdruck ist, dass es vielleicht auch gar nicht so leicht ist, den überhaupt zu erkennen. Und zwar gerade bei ADHS wegen zwei Sachen. Erstens, die meisten noch nicht diagnostizierten Erwachsenen haben sich schon viele, viele, viele Strategien erarbeitet, um sich anzupassen an ihre Umgebung, um ihre Neurodivergenz zu verbergen, also das, was man als Masking oder Maskieren bezeichnet. Darin werden Menschen schnell sehr gut. Und das trifft auch besonders auf weiblich sozialisierte Menschen zu. Wir hatten das Thema ja schon mal in einer anderen Folge, wie gesagt, weiblich sozialisierte Menschen neigen eben eher dazu, sich anzupassen und sich etwas mehr zurückzunehmen und nicht so nach außen zu agieren, weswegen es eben möglich ist, dass sie eher unter dem Radar bleiben. Das gleiche Problem kann aber auch Menschen mit ADS, ohne Hyperaktivität also, betreffen, die da auch eine gewisse Hürde haben, weil sie ja eben vielleicht weniger Feedback von außen bekommen in die Richtung, wie es Menschen mit Hyperaktivität bekommen. Und deswegen kann es einfach unterm Strich relativ schwierig sein, überhaupt für sich selbst einzuschätzen, wie stark der eigene Leidensdruck ist und dass da vielleicht so der Blick dann vielleicht ein bisschen draufgehen könnte, das ein bisschen für sich selbst zu sortieren. Genau. Und ja, der zweite Punkt, der das mit dem Leidensdruck ein bisschen schwerer zu erkennen macht, kann vielleicht die Sache sein, dass man eventuell schon in Behandlung war wegen anderer psychischer Erkrankungen und dort bereits Diagnosen erhalten hat, die auch schon hinreichend erklären, was Sache ist.

    Helena: Das heißt, man denkt ja, man leidet derzeit unter Depressionen, aber nicht unter den Folgen von ADHS.

    Janine: Genau. Manchmal ist es einfach schwer, das dann neu zu denken, auch für einen selbst, aber auch für die behandelnde Person. Weil es gibt ja eine Erklärung, die in dem Sinne zutreffend ist, aber es gibt eben auch einfach die Fälle, dass Menschen jahrelang wegen Depressionen behandelt werden, aber die Verbesserung nur sehr minimal ist. Und das vielleicht daran liegt, dass die Depression hier ein Symptom ist, einer nicht behandelten ADHS und die Ursache also eigentlich eine andere ist. Also da müsste der Fokus quasi dann, könnte der Fokus verschoben werden. Ja, das sind die zwei Faktoren, wie ich finde, die es überhaupt nicht einfach machen, so den eigenen Leidensdruck in Bezug auf ADHS überhaupt einzuschätzen und wo es vielleicht nötig ist, erstmal eine Menge Denkleistung rein zu investieren. Plus die Sache, es kann auch bis zu einem gewissen Grad wehtun, sich mit solchen Dingen auseinanderzusetzen.

    Helena: Ja.

    Was bedeutet ADHS als Risikofaktor? (00:43:28)

    Helena: Apropos wehtun. Wie oft läuft man denn so ausversehen irgendwo gegen?

    Janine: Ja, häufig.

    Helena: Das ist doch auch so ein Ding, was man auf Social Media häufiger mal sieht von Menschen mit ADHS, dass sie Videos teilen, wie sie bei ihren normalen Wegen dann plötzlich irgendwo gegenlaufen, weil da plötzlich etwas steht, was sie nicht erwartet haben.

    Janine: Ja, das passiert tatsächlich. Also mein Körperraumempfinden scheitert manchmal an Türrahmen, Türklinken, Kommoden und anderen Sachen, auch auf den Wegen, die ich täglich mache. Also ja, ich habe auch gerade erst wieder einen blauen Fleck entdeckt, von dem ich keine Ahnung habe, wo er herkommt.

    Helena: Ja, aber blaue Flecken sind ja noch relativ harmlos.

    Janine: Ja.

    Helena: Es gibt ja auch nicht so harmlose Dinge.

    Janine: Genau. Ja, ich hatte ja gesagt, ein zweiter Punkt bei der Frage, ist es sinnvoll oder warum könnte es gut sein, sich als erwachsene Person mit ADHS noch diagnostizieren zu lassen, wäre ADHS als Risikofaktor. Es wird tatsächlich von einigen Stellen schon beobachtet, angegeben und erfasst, dass ADHS im Allgemeinen, aber speziell auch unbehandeltes ADHS, ein Risikofaktor für eine ganze Reihe von Dingen ist. Eine Studie, die Helena oben schon erwähnt hat, wo es um diese 11 Prozent der US-amerikanischen Menschen ging, die im Erwachsenenalter eine Behandlung erfahren und die anderen, 89 Prozent, halt nicht, wurden auch Faktoren genannt, was denn eben nicht behandeltes ADHS an Risiken mit sich bringt. Und eines ist zum Beispiel Arbeitslosigkeit oder niedriges Einkommen, was meistens damit zusammenhängt, dass es vielleicht schwierig ist, sich in bestimmte Strukturen einzupassen. Dann werden auch Beziehungsprobleme genannt, die ein Risiko sind von ADHS. Hier wird nämlich eine höhere Rate von Scheidungen angegeben. Das ist jetzt so alles so auf der sozialen, vielleicht finanziellen Ebene, aber sie haben auch die gesundheitlichen Risiken genannt, wozu Substanzmissbrauch, Autounfälle und generell ein höheres Verletzungsrisiko kommen. Was, wenn ich mich jetzt richtig erinnere, insbesondere mit so Aspekten wie Impulskontrolle und Ablenkbarkeit zusammenfallen kann...

    Helena: Mhm.

    Janine: ... so speziell bei den Unfällen. Und eben, wie gerade auch schon angedeutet, gibt es ein erhöhtes Risiko, dann psychische Erkrankungen zu bekommen, wie eben Depressionen, Angststörungen und noch einige weitere, die da genannt wurden. Ja, das sind so grundsätzliche Risiken, die allgemein betrachtet werden. Auch zwei Forschende der Uni Augsburg haben im letzten Jahr dazu eine Veröffentlichung rausgebracht, ADHS als Risikofaktor für andere psychische Erkrankungen. Und da werden eben auch Zusammenhänge untersucht zwischen ADHS, posttraumatischer Belastungsstörung, Depressionen. Genau, also es wird unterschiedlich bewertet, aber zum Beispiel für posttraumatische Belastungsstörungen haben sie aus ihren Ergebnissen abgeleitet, dass es definitiv einen Zusammenhang gibt. Ja, und ansonsten, wer eine sehr ausführliche Auflistung sehen möchte, was da noch an Begleitstörungen auftreten können, dann wäre die Seite von ADHS Deutschland e.V., die wir auch verlinkt haben, die richtige Anlaufstelle. Die ist nämlich wirklich recht lang und ausführlich.

    Helena: Mhm.

    Janine: Ja, also so Meinungsbeitrag, ich denke, es dürfte den wenigsten schwerfallen, sich vorzustellen, dass je weniger etwas behandelt wird, desto höher das Risiko ist, dass eine bis mehrere Begleiterkrankungen einfach auftreten können. Also nur mal so als Vorstellung.

    Helena: Ja, ja klar. Also ja.

    Janine: Also eigentlich ist es ja unstrittig, aber natürlich wollen wir es auch gern belegt haben, aber da gibt es dann eben auch in den Studien immer wieder Hinweise zu. Und ja, eine weitere Sache sind verschiedene Schlafstörungen. Die sind ein ganz prominentes Beispiel, weil, na ja, auch da ist es natürlich leicht vorstellbar, wenn es einem Menschen überhaupt schwer fällt, zur Ruhe zu kommen, sowohl körperlich als auch geistig einfach mal eine Pause einzulegen. Der hat echt gute Voraussetzungen dafür, echt viel, also wenig und schlechten Schlaf zu bekommen.

    Helena: Mhm.

    Janine: Und das wiederum ist ein Risikofaktor für viele, viele andere Dinge im Alltag.

    Helena: Mhm.

    Janine: Also ja, gerade schlechter Schlaf wirkt sich auf extrem viele Sachen auf, unter anderem auch auf Aufmerksamkeit.

    Helena: Überraschung.

    Janine: Ja, ja, also es gibt viele sich verstärkende Aspekte, habe ich so gelernt.

    Helena: Okay.

    Janine: Und ja, je besser die Behandlung ist und die muss noch nicht mal medikamentös sein, es kann auch einfach sein, achtsamer mit sich umzugehen, so aus eigener Erfahrung, desto wahrscheinlicher ist es natürlich auch, dass die ganzen anderen negativen Effekte einfach weniger werden. So, wem das aber noch nicht reicht, der könnte vielleicht auch noch über die psychische Gesundheit, nein, nicht nur über die psychische, sondern auch über die körperliche Gesundheit nachdenken. Es wird nämlich tatsächlich auch gerade am Uniklinikum Würzburg untersucht, inwiefern Menschen mit ADHS ein erhöhtes Risiko für verschiedene körperliche Erkrankungen haben. Da gibt es die Studie mit dem Titel "Kardiovaskuläre Regulation bei ADHS". Sie untersuchen dort Herz-Kreislauf-Funktionen.

    Helena: Mhm.

    Janine: Und zwar ist ihr Ausgangspunkt, dass bereits beobachtet wurde, dass bestimmte körperliche Erkrankungen bei Menschen mit ADHS gehäuft vorkommen. Und als Beispiel werden hier Übergewicht und Asthma genannt, aber auch Bluthochdruck und Diabetes. Und weil das alles Dinge sind, die als Erkrankung für sich das Risiko für Herz-Kreislauf-Erkrankungen erhöhen, soll das halt näher untersucht werden. Also den Zusammenhang zwischen ADHS und hier dem Herz-Kreislauf-System, weil das noch viel zu unklar ist, aber ein Zusammenhang vermutet wird.

    Helena: Ja, aber du hattest ja noch eine Studie gefunden, die schon auch deutlich besagt, dass die Sterblichkeit aufgrund von verschiedenen Faktoren deutlich reduziert ist, wenn man Medikamente kriegt, wenn man ADHS hat. Also wenn es behandelt ist. Das war ja…

    Janine: Genau. Und ich habe kurzfristig dann bei der Recherche noch einen Artikel gefunden, der eine Studie zusammenfasst, die sich damit beschäftigt, dass Menschen mit ADHS eine niedrigere Sterbensrate haben sollen, sobald sie Medikamente erhalten.

    Helena: Aber nur bezogen auf unnatürliche Todesarten, also Unfälle und sowas.

    Janine: Genau. Diese Studie stammt aus Schweden. Dort wurden Menschen beobachtet, die in den Jahren 2007 bis 2018 eine Diagnose erhalten hatten mit ADHS und zuvor keine Medikamente bekamen. Und dann wurde halt die Nachverfolgungszeit über zwei Jahre ausgedehnt bis zum Tod, falls dieser früher eintrat. Und gemessen wurde die zwei Jahres Gesamtmortalität in Abhängigkeit davon, ob die Patient*innen binnen drei Monaten nach der Diagnose Medikamente gegen ADHS erhielten oder nicht.

    Helena: Ja. Und Schweden eignet sich eben für diese Art von Untersuchungen insofern besonders gut, als dass man dort von den dortigen Krankenkassen einfach alle Daten hat zur Verfügung. Und die erfassen dann eben, ob die eine solche Diagnose bekommen haben, ob sie Medikamente kriegen und was mit denen passiert. Sowas ist in Deutschland nicht zulässig, diese Art von Forschung. Ja, das ist auf jeden Fall ziemlich interessant. Jetzt weiß ich natürlich nicht, inwiefern diese kardiovaskulären Erkrankungen und so, wo du meintest, die sind schon gehäuft, ob die denn jetzt als natürlich oder unnatürlich eingesortiert wurden. Ich würde fast vermuten, das würde man eher als natürliche Todesursache einsortieren.

    Janine: Vermutlich ja, ja.

    Helena: Aber es ist auf jeden Fall schon ein nennenswerter Unterschied, gerade in Bezug auf einen Teil der Risikofaktoren, die du genannt hast, die ADHS darstellt.

    Janine: Genau. Also was einfach ja sehr deutlich ist, dass ja noch durchaus einige Vorurteile oder sagen wir mal Stereotype über ADHS herrschen, die eben ein bestimmtes Bild vermitteln. Und ich habe erfahren, dass wenn ich mit Menschen darüber spreche, die sich mit dieser Thematik bisher noch nicht auseinandergesetzt haben und die die Frage stellen, ja, wo betrifft dich das denn in deinem Leben, dass diese Menschen doch meist sehr überrascht sind, wenn einfach die Bandbreite einmal klar wird, über die ADHS das Leben beeinflussen kann. Also, dass es einfach alle Bereiche des Lebens tangiert und eben nicht nur ist, dass man ja ein bisschen mehr Unruhe in sich hat und ein bisschen leichter Sachen vergisst oder mal schusselig ist.

    Helena: Ja, aber gut, ich hoffe mal, dass wir zu dieser Folge dem ein bisschen entgegenwirken konnten und zeigen konnten, inwiefern das sehr viele Bereiche des Lebens betrifft, auch die, die man vielleicht nicht erwartet hätte.

    Janine: Ja, also unterm Strich zu der Frage, ist es wichtig oder kann es wichtig sein, ADHS auch noch im Erwachsenenalter zu diagnostizieren, ist natürlich ja trotzdem eine individuelle Entscheidung am Ende. Aber es wird doch, auch wenn nicht überall die Zusammenhänge bis ins Detail geklärt sind, in verschiedenen Untersuchungen recht deutlich, dass ADHS viele Risiken mit sich bringt oder sie verstärken kann und dass die eben auf alle Ebenen sich ausdehnen können, auf soziale Ebenen, berufliche und damit eben auch finanzielle, als auch psychische und körperliche Gesundheit. Und das sind einfach Aspekte, die sich vorher vielleicht am Anfang nicht so ganz bewusst gemacht werden, wenn man so der Frage gegenübersteht, warum brauche ich eigentlich eine Diagnose, hat ja bisher in meinem Leben auch geklappt. Es kann halt helfen, Hilfe zu bekommen und anders mit sich selbst umzugehen, aber es kann auch Menschen geben, für die es tatsächlich einfach keinen Unterschied macht. Am Ende bleibt es eine individuelle Entscheidung, aber das fand ich so die wichtigsten Faktoren, denke ich, wenn man sich mit dieser Frage neu auseinandersetzt.

    Fazit (00:53:51)

    Helena: Ja, gut, kommen wir damit zum Fazit.

    Janine: Ja.

    Helena: Ja, zusammenfassend zum Thema dieser Folge möchte ich nochmal auf die Sachen hinweisen oder die nochmal wieder erwähnen, die mich jetzt besonders überrascht haben. Oder was heißt überrascht, die jetzt so wesentliche Erkenntnisse für mich sind. So zum einen, bei Kindern gibt es in Deutschland keinen Anstieg der Diagnosen bei ADHS und generell gibt es auch keinen Anstieg der Häufigkeit von ADHS. Es wird aber international häufiger diagnostiziert. Und was mich eben schon überrascht hatte, war die Erkenntnis, dass innerhalb von einer Schulklasse die jüngeren Kinder eher diagnostiziert werden, als die, die relativ älter sind als sie.

    Janine: Ein anderer Teil des Fazits, es gibt halt noch Nachholbedarf in der Diagnostik, gerade in Deutschland, in bestimmten Personenkreisen. Also ja, dadurch, dass eben Mädchen wesentlich seltener diagnostiziert wurden, kann es natürlich auch sein, dass es einfach inzwischen mehr erwachsene Frauen gibt oder weiblich gelesene Personen, die eben noch keine Diagnose haben, aber vielleicht auch noch eine brauchen. Und dann wird sich ja auch noch zeigen, ob sich dann durch die geänderten Kriterien auch in Deutschland da noch etwas verändert und die Diagnostik nachzieht oder beziehungsweise die Zahlen der Diagnostizierten nachziehen. Ja, und eben die Frage, ob eine Diagnose überhaupt notwendig ist, die ist einfach, wie gesagt, sehr individuell, aber so Faktoren wie der eigene Leidensdruck oder Risiken, die damit einhergehen können, es nicht zu behandeln, behandeln zu lassen, ja, die sind auf jeden Fall wert, sich mal anzusehen. Und ja, das ist so mein Fazit eigentlich.

    Nächste Folge: Wie Planeten entdeckt werden im Juli (00:55:43)

    Helena: Ja, und in der nächsten Folge wollen wir dann über das Thema sprechen, wie werden eigentlich Planeten entdeckt. Wir wohnen ja auf einem Planeten auf der Erde und in unserem Sonnensystem wurden im Laufe der letzten Jahrhunderte durchaus auch einzelne Planeten entdeckt, aber die meisten Planeten, die heutzutage entdeckt werden, sind außerhalb unseres Sonnensystems, sodass man, selbst wenn man mit dem Teleskop draufguckt, sie eigentlich gar nicht sehen kann und trotzdem ist man sich sicher, dass sie da sind und wie man eben hier die Daten analysiert, das wollen wir in der nächsten Folge besprechen. Die erscheint im Juli.

    Call to Action (00:56:20)

    Janine: Und wenn ihr diese Folge auch nicht verpassen wollt oder unsere vorangegangenen Folgen auch noch nachhören möchtet, folgt uns doch gerne auf mastodon unter @[email protected] oder guckt auf unserer Webseite vorbei, www.datenleben.de, da könnt ihr uns auch gerne Feedback hinterlassen oder auch per Mail und wir freuen uns immer sehr über Kommentare zu unseren Folgen und auch zu Themenvorschlägen, wie zum Beispiel das Thema, wie Planeten entdeckt werden, was auch ein Vorschlag war. Ja, und falls euch unsere Arbeits- und Denkweise gefällt, könnt ihr uns auch buchen als Data Scientist für Analysen oder Projekte und uns grundsätzlich bei Fragen schreiben oder wenn ihr Dinge habt, die euch interessieren.

    Helena: Ja, dann bleibt mir nur noch für eure Aufmerksamkeit zu danken und bis zum nächsten Mal. Ciao.

    Janine: Tschüss.

    Outro (00:57:09)

    15 June 2024, 10:00 am
  • 52 minutes 5 seconds
    dl050: gesellschaft, datenmüll und fahrradfahren

    Um das Jubiläum unserer 50. Folge zu begehen, haben wir meherere Themen aus unterschiedlichen Bereichen zusammengeworfen. Als erstes geht es darum, wie Mengen sinnvoll geschätzt werden können – zum Beispiel Teilnehmer*innen auf Demonstrationen. Danach greifen wir eine Meldung auf, die eine Verkehrsrevolution in Paris verkündet hat, wo inzwischen mehr Menschen mit dem Fahrrad unterwegs sind, als mit dem Auto. Und wir haben uns der Frage gestellt, in wie fern Data Science gesellschaftliche Entwicklungen simulieren kann – und wo die Grenzen davon sind. Zum Schluss geht es um die spannende Reise der Raumsonde Voyager 1.

    Links und Quellen

    Schlagworte zur Folge

    Data Science, Maschinelles Lernen, Mengen schätzen, Politik, Verkehrswende, Fahrradfahren, Klima, Klimapolitik, Simulation, Simulationen, Gesellschaft, Raumfahrt, Voyager 1, Technik, Weltraumforschung

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zur 50. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten euch die Welt der Daten näher bringen. Was für Daten umgeben uns? Wie gehen wir mit diesen Daten um? Und was können wir aus ihnen lernen? Wer schon immer mehr darüber wissen wollte, ist hier richtig, denn diesen Fragen gehen wir nach.

    Thema der Folge (00:00:37)

    Janine: Und das jetzt schon in der 50. Folge, die wir heute aufnehmen. Das ist also ein kleines, großes Jubiläum für uns. Und das wollten wir ein bisschen damit feiern, dass wir uns mal die Zeit nehmen, eine Folge lang kleinere Themen zu betrachten, die wir interessant finden, aber zu denen wir jetzt vielleicht nicht unbedingt eine ganze Folge machen würden aus unterschiedlichen Gründen. Und ja, deswegen haben wir diese Themen zusammengeworfen und heraus kommt jetzt hoffentlich eine für euch genauso interessante Jubiläumsfolge wie für uns. Ja, zuerst geht es darum, Zahlen zu schätzen. Eigentlich wollen wir sie ja gerne messen, zählen und Fakten haben. Aber manchmal wird auch geschätzt, wer zum Beispiel auf Demos unterwegs ist, wird das Thema kennen, die ersten Schätzungen auf Demos von den Teilnehmenden wirken immer recht hoch in den Zeitungen und in den Polizeiberichten, fallen sehr manchmal relativ klein aus. Und ja, da ist so ein bisschen die Frage, wie entsteht das, was passiert da und wie kann man eigentlich Zahlen wirklich gut schätzen, damit vielleicht auch das richtige Ergebnis dabei rauskommt oder ein annähernd richtiges. Und dann haben wir noch ein statistisches Thema, das ich ein bisschen mit dem Klimathema verknüpfe, denn es geht um Verkehrsmittel in der Stadt Paris. Da gab es kürzlich eine neue Meldung und ich wollte mich ja dieses Jahr auch ein bisschen dem Klima mehr widmen, deswegen habe ich das Thema ausgewählt. Und danach geht es weiter mit einer Frage, wie Data Science zum Beispiel nicht auch gesellschaftliche Entwicklungen simulieren könnte, ob das möglich ist und wie dieses Thema überhaupt aussieht. Zum Schluss das vierte Thema, da kommt der Datenmüll ins Spiel, aber vielleicht nicht so wie ihr jetzt denkt. Es geht nämlich schlicht und ergreifend um die wundervolle Raumsonde Voyager 1, die letztes Jahr plötzlich keine verwertbaren Daten mehr zurückgesendet hat. Und ja, und die Befürchtung war, dass diese lange Ära der Raumfahrt und Erforschung des Weltalls vielleicht doch ein Ende erreicht hat. So viel schon mal vorweg, nein, immer noch nicht. Voyager 1 fliegt und sendet weiter. Ja, das sind unsere Themen heute.

    Helena: Kann man das denn fliegen nennen?

    Janine: Na ja.

    Helena: Ja, und wir haben das Thema jetzt einfach mal ausgewählt oder die Themen ausgewählt für die 50. Folge für unsere Jubiläumsfolge mit dem Ziel, einfach mal kleineren Themen Raum zu geben.

    Wie werden Teilnehmer*innen einer Demo geschätzt? (00:03:08)

    Helena: Und mit einem solchen kleineren Thema fange ich jetzt auch gleich an. Und zwar ist die Eingangsfrage hier, wie werden die Teilnehmer*innenzahlen auf Demos geschätzt? Also man wird ja durchaus in Berichten zur Demonstration immer wieder mit Zahlen konfrontiert und oft werden in Nachrichten auch mehr als eine Zahl gleichzeitig erwähnt. Nämlich oft gibt es dann eine Zahl, die von den Veranstaltenden publiziert wird und dann gibt es eine andere Zahl, die dann von der Polizei, die die Demo begleitet hat, publiziert wird. Und ja, das Thema wurde Anfang des Jahres nochmal wieder hochgespült, weil es im Januar eine große Anzahl an Demos gegen Rechtsextremismus gab. Und insbesondere bei einer in Hamburg war dann die offizielle Zahl irgendwie so um die 50.000. Und das kam dann den Politikern, die das organisiert hatten, sehr seltsam vor, weil laut deren Gefühl müsste das eigentlich deutlich mehr gewesen sein. Und deswegen wurde dann die hamburgische Innenbehörde dazu beauftragt, die Zahl nochmal neu zu schätzen oder neu zu verifizieren, was man machen kann, indem man in diesem Fall Luftbilder, die man von der Demo hatte, verwendet hat. Und dabei kamen dann 180.000 Teilnehmende heraus. Das ist ja schon fast das Vierfache und ist schon ein sehr großer Unterschied bei der Frage, wie viele Leute waren denn da. Und ja, dann ist einfach die Frage, wie schätzt man denn überhaupt diese Zahl, so eine Zahl, wie viele Leute da waren? Also ich meine, die erste Idee, wenn man eine Personenzahl haben möchte, die einem vielleicht einfällt, ist, man könnte ja die Leute einfach zählen. Das funktioniert allerdings nur dann so richtig gut, wenn man eindeutig abgegrenzte Bereiche hat, wo die Leute auch nur durch diese Bereiche rein- und raus können. Und dann platziert man Menschen an diesen Ein- und Ausgängen, die dann eben Zählung durchführen, meistens eben durch so Klickersysteme oder Handy-Apps, weil oft geht es dann auch darum, sicherzustellen, dass die Gesamtanzahl der Leute auf dem Gelände eine bestimmte Zahl nicht überschreitet. Das Thema hatten wir, als es um den Corona-Weihnachtsmarkt in Braunschweig ging, wo es nur eine gewisse Maximalanzahl an Personen geben durfte auf bestimmten Flächen. Und da hat man das eben so gemacht, da hat man dann die Leute einzeln gezählt. Eine andere Möglichkeit, Leute einzeln zu zählen, wäre, wenn man jetzt ein hoch aufgelöstes Luftbild hat. Dazu müsste man das natürlich haben und jemand müsste motiviert sein, das zu zählen, was bei vielen 10.000 Leuten so eine Sache ist. Deswegen gibt es andere Methoden, um auf Demos zu schätzen, wie viele Leute da waren oder auf Veranstaltungen im Allgemeinen. Und die erste Methode, die man hier nehmen kann, um zu schätzen, ist, ich weiß, wie viele Leute letztes Jahr da waren auf der gleichen Veranstaltung und wie es jetzt aussieht, ob es nach mehr Leuten oder weniger Leuten aussieht. Und dann denke ich, ja, es könnte jetzt ein Drittel mehr sein und letztes Jahr waren es, keine Ahnung, 3.000 Leute, dann sind es jetzt wahrscheinlich 4.000 Leute. So. Das ist natürlich die gröbste Variante. Die nächste Methode, die verwendet wird, um die Personenanzahl zu schätzen, ist, nun man guckt sich an, über was für einen Bereich sich die Leute so ausgebreitet hat. Das kann man zum Beispiel durch Luftaufnahmen machen, wie das jetzt in Hamburg gemacht wurde. Man kann natürlich auch Fotos von anderen Orten nehmen, also irgendwas, wo man relativ gut überschauen kann, wo überall Leute gestanden haben. Und dann muss man sich überlegen, wie viele Personen stehen denn so oder wie dicht stehen denn diese Leute. Da gibt es dann so Anhaltspunkte, wenn es jetzt irgendwie eine nicht besonders stark besuchte Veranstaltung ist, dann rechnet man so mit einer Person pro Quadratmeter. Und bei dichtgepackten Konzerten, wo die Leute natürlich alle möglichst nah an die Bühne möchten, geht man eher von vier Personen pro Quadratmeter aus. Das heißt, die normale Demo liegt irgendwo dazwischen bei zwei bis drei. Das ist natürlich durchaus relevant, zu wissen, wie dicht das ist, weil das natürlich auch hier immer noch um Faktor zwei locker die Menge an Menschen ändern kann. Um das einfacher zu machen, gibt es die Webseite mapchecking.com. Dort gibt es auf der einen Seite, also erstmal sieht man eine Karte, in der kann man dann einzeichnen, in welchem Bereich die Leute denn alle gestanden haben. Und die rechnet dann aufgrund der Geodaten aus, wie groß diese Fläche eigentlich ist. Und dann kann man dann auch angeben, wie viele Leute denn pro Quadratmeter standen. Und was die auch haben, ist ein paar Beispielbilder, wo man Leute schräg von der Seite sieht, mit verschiedenen Packungsdichten quasi, um ein Gefühl dafür zu haben, wenn man sich das ganze Foto anguckt, ob das jetzt eher zwei Leute pro Quadratmeter oder drei Leute pro Quadratmeter waren. Damit lässt sich dann sehr gut die Anzahl der Personen schätzen auf so einer Demo. Sehr gut heißt dann aber immer noch, dass die Fehlerquote mit so 20 bis 30 Prozent angenommen wird. Also...

    Janine: Ja.

    Helena: ...aufgrund von, ja, dessen, dass man es immer nicht so genau weiß. Man sieht ja auch potenziell nicht alle Leute und theoretisch kann sich ja auch die Anzahl der Leute ändern, die zu einem bestimmten Zeitpunkt da waren. Dass am Anfang waren es, keine Ahnung, 10.000 Leute auf der Veranstaltung, dann gehen 5.000 weg und es kommen 10.000 weitere zu und dann sind es plötzlich 15.000. So, wenn das irgendwie ein paar Stunden geht. Dann kommt man natürlich auch maximal auf 15.000 gesamt, weil man ja nicht die Menschenströme erfasst und nicht weiß, ob welche zweimal oder dreimal da reingekommen sind.

    Janine: Ich glaube auch die interessanteste Zahl bei Demonstrationen ist eigentlich, was war das Maximum, was erreicht wurde an gleichzeitig anwesenden Menschen.

    Helena: Ja, und das ist natürlich aus verschiedenen Gründen für verschiedene Leute sehr interessant. Also die Leute, die eine Demo organisiert haben, wollen natürlich, dass möglichst viele Leute da sind. Und wenn die Zahl höher ist, ist es natürlich vorteilhaft, weil man dann das Gefühl hat, man war deutlich relevanter. Dann gibt es noch die Polizei, die eigene Interessen hat, die Zahlen zu haben. Zum einen, je nachdem wie viele Leute da sind, muss man ja auch eine andere Menge an Straßen sperren oder den Verkehr für länger aufhalten, wenn der Zug deutlich länger ist. Und bei so politischen Demonstrationen gibt es in der Regel auch so Auflagen von der Kommune oder der Polizei, wo man dann sagt, ja, man braucht pro 50 Personen eine Ordner*in, die dann aufpasst, dass alles okay ist. Und das wird dann aber mit den Zahlen der Polizei gerechnet. Das ist so gesehen für die Veranstaltenden sogar vorteilhaft, wenn die Zahl ein bisschen zu niedrig ist, weil das dann den Aufwand, das zu organisieren, auch ein bisschen reduziert...

    Janine: Ja.

    Helena: ...die Anzahl der Leute.

    Janine: Ja, das betrifft aber vor allem im Voraus, länger im Voraus angemeldete Demonstrationen, nur um das mal als Begriff fallen zu lassen. Es gibt auch die Möglichkeit, spontan Demos anzumelden. Da ist in der Regel das ja oft gar nicht so weit im Voraus zu planen, wie viele Menschen es dann tatsächlich werden. Diese Option besteht aber auch

    Helena: Ja.

    Janine: Nur mal so als Einwurf.

    Helena: Das Demonstrationsrecht ist ja in einer Demokratie ein sehr wichtiges und das muss auch spontan gehen, weil es einfach immer wieder Ereignisse gibt, die ja sehr spontan es nötig machen.

    Janine: Ja, dass man nicht länger im Voraus etwas anmelden kann. Genau. Ich habe, bevor du zu deinem letzten Punkt in diesem Thema kommst, weil du das gerade ja schon mal angedeutet hast, es gibt unterschiedliche Gründe für die verschiedenen Parteien, die Zahlen so zu nennen, wie sie genannt werden. Ich habe ein Interview in der TAZ gelesen mit einem Protestforscher, der sagt, dass tatsächlich auch, dass die Zahlenunterschiede eben oft auch politische Interessen zeigen. Also, wenn man jetzt hier von der Polizei ausgeht, da könnten die Zahlen manchmal heruntergespielt werden, wenn es um eine Thematik geht, die als staatsbedrohend ist, die Wortwahl, die er hier hatte, angesehen wird und naja, die Veranstalter versuchen natürlich, das ein bisschen zu kompensieren und drehen die Zahlen dann etwas hoch wieder, sagt er. Und ja, bemerkenswerte Ausnahmen, sagt er, gibt es allerdings auch, denn wenn staatsnahe Proteste stattfinden, dann ähneln sich die Zahlen von Veranstaltenden und der Polizei teilweise recht gut. Also, es ist sozusagen, die politische Mitte ist so ein bisschen angeglichener und wenn es in die Randbereiche kommt, dann verändern sich die Zahlen doch schon ein bisschen so im Verhältnis zueinander.

    Helena: Ja, ich kann mir an der Stelle auch sehr gut vorstellen, dass in der politischen Mitte man auch gerne als Veranstaltende einfach die Polizeizahlen übernimmt.

    Janine: Eventuell auch das, ja. Aber das ist ja noch so eine Bemerkung zu einem Artikel in der TAZ, wo ein Protestforscher sich dazu geäußert hatte.

    Helena: Ja, gut. Also, ich hatte ja schon gesagt, dass man ja Luftaufnahmen ganz gut verwenden kann, um die Personen zu schätzen. Aber wenn das eine Luftaufnahme ist, die besonders hoch aufgelöst ist, könnte man ja auch auf die Idee kommen, die zu zählen per Hand. Das ist bei mehreren 10.000 Leuten natürlich ziemlich großer Aufwand, aber das hat man beim DLR tatsächlich gemacht. Also, DLR ist das Deutsche Forschungszentrum für Luft- und Raumfahrt. Und das Ziel war, weshalb die das per Hand gezählt haben, dass man halt eine KI trainieren kann damit. Und das haben die dann eben mal ausprobiert und die Ergebnisse sahen auch ganz gut aus. Also, die haben das im Kontext von Konzerten gemacht. Ja, und da passen dann die Zahlen deutlich besser als jetzt diese 20 bis 30 Prozent. Also, vielleicht gibt es dann auch irgendwann eine Demo-KI, um die Teilnehmerzahl zu zählen. Weil, wenn man die Fotos hätte, also, wenn man ein Foto hat, wo alle drauf sind, geht es wahrscheinlich noch relativ leicht, wenn man jetzt mehrere hat, die man zusammenstückeln muss. Dann gibt es ja auch immer das Problem, dass es sich natürlich zusätzlich bewegt haben kann und so.

    Janine: Ja.

    Helena: Muss man dann nochmal genauer gucken, inwieweit so eine KI da wirklich helfen kann. Aber ja, eventuell werden die Zahlen auf Dauer noch genauer. Mal schauen.

    Janine: Das wäre ja auch nicht schlecht. Ja, ich habe das Map-Checking-Tool auch einmal benutzt nach einer Demo und fand, das hat ganz gut gepasst, weil ich aber auch Webcam-Bilder mit einbeziehen konnte und gucken konnte, wie dicht standen die Menschen tatsächlich und nicht nur an der Stelle, wo ich war, sondern so ein bisschen mehr den Überblick hatte. Und natürlich war dadurch auch ganz gut ersichtlich, wo der eigentliche Bereich war, wo die Leute überhaupt dann standen, weil es war keine Demo mit Demo-Zug, sondern eben eine stationäre Demo. Und ja, aber es hat tatsächlich meinem Gefühl nach ganz gut gepasst dann.

    Helena: Ja, vielleicht haben die Leute ja, die Veranstaltenden ja auch Map-Checking benutzt.

    Janine: Eventuell.

    Wie läuft die Verkehrswende in Paris? (00:14:27)

    Helena: Ja, aber abgesehen davon, ein Grund, um eine Demonstration zu machen, ist natürlich die Klimapolitik, die nicht besonders gut aussieht. Und in diesem Bereich fällt ja auch dein nächstes Thema.

    Janine: Genau. Und zwar sogar ein Positivbeispiel, könnte man sagen. Die Frage ist nämlich, wie läuft die Verkehrswende in Paris? Eventuell habt ihr es mitbekommen, vor gut drei Wochen, zum Zeitpunkt unserer Aufnahme, also Mitte April etwa, gab es eine Schlagzeile, dass die Stadt Paris in der Verkehrswende gerade ganz große Schritte macht, und zwar titelte Watson zum Beispiel "Paris erlebt kleine Verkehrsrevolution. Erstmals mehr Fahrräder als Autos". Und das ist doch eine ganz schöne Schlagzeile, wo man dann mal hingucken kann, wie das eigentlich aussieht. Woher kommen die Zahlen erst mal? Forscher*innen haben im Zeitraum von Oktober 2022 bis April 2023 die Bewegungen von 3.337 Einwohner*innen der Region Paris im Alter von 16 bis 80 Jahren nachverfolgt, und diese Daten wurden dann ausgewertet. Und das hat dann ergeben, dass 4,3 Prozent der Wege mit dem Auto zurückgelegt werden, 11,2 Prozent mit dem Fahrrad, 30 Prozent sind öffentliche Verkehrsmittel und 53,5 Prozent sind tatsächlich zu Fuß unterwegs. Und das sind so die aktuellsten Zahlen, die da für Paris erschienen sind, und die sehen tatsächlich ziemlich gut aus. Und das Auto hat, wenn ich mich richtig erinnere, sogar einige Prozentpunkte verloren. Ja, und das Fahrrad steht da gar nicht so schlecht da mit den 11,2 Prozent. Ein Punkt ist allerdings auch, dass das innerhalb der Vorstädte und Randbereiche natürlich noch mal wieder ganz anders aussieht. Das soll aber künftig auch mit Zug und Stadtbahn weiter ausgebaut werden, um auch da die Autonutzung zu reduzieren. Das heißt, diese schöne Schlagzeile "Erstmals mehr Fahrräder als Autos" betrifft halt vor allem tatsächlich das Pariser Zentrum eher.

    Helena: Ja, also als Person, die jetzt seit kurzem wieder auf dem Dorf wohnt und jetzt auf das Auto angewiesen ist, muss ich sagen, ich finde es gut, wenn der öffentliche Nahverkehr, insbesondere Straßenbahnen, gut erreichbar sind mit so Parkplätzen in Außenbezirken, wo man gut hinkommt. Das ist deutlich angenehmer, dann mit der Straßenbahn irgendwie oder mit der U-Bahn in die Stadt reinzufahren und sich da dann zu Fuß vorzubewegen,...

    Janine: Ja.

    Helena: ...als irgendwie diesen stressigen Verkehr in Innenstädten mitzunehmen. Gerade wenn Städte größer werden. Je größer Städte werden, desto schlimmer ist der Verkehr. Also wenn ich mal durch Berlin mit dem Auto gefahren bin, das war die Hölle.

    Janine: Ja.

    Helena: Also es war noch nie so schlimm wie da.

    Janine: Das ist tatsächlich auch ein ganz guter Punkt, weil die Zahlen an sich sind ja ganz nett. Sie werden seit einigen Jahren erhoben. Menschen sagen, jetzt ist das Fahrrad erstmals vor dem Auto und der Autoverkehr in der Stadt Paris geht zurück. Das klingt ja total super, garantiert fürs Klima, für die Menschen, für die Luftqualität, die Gesundheit im Allgemeinen. Aber was ist die Geschichte dahinter? Warum klappt das in Paris jetzt? Und haben die Menschen das einfach so gemacht? Nee, auch ähnlich wie du es gerade sagst. Es ist fast einfach nicht mehr möglich geworden, sinnvoll von A nach B zu kommen mit dem Auto in Paris. Also mussten auch tatsächlich andere Lösungen her. Es ist nämlich tatsächlich so, dass aufgrund der Klimapolitik, die in Paris auch an den Tag gelegt wurde, sehr viel in Fahrradwege investiert wurde und die Zahl der Autoparkplätze wurden auch massiv reduziert. Das war auch schon 2014 zum Beispiel der Fall, als die Bürgermeisterin Hidalgo ins Amt gekommen ist, auch mit dem Versprechen für eine bessere Infrastruktur, was Fahrradwege und so weiter angeht, zu sorgen. Und das politische Versprechen hat sie auch angefangen umzusetzen. Was in Paris seitdem passiert ist, ist, dass zum Beispiel Ufer der Seine für Autos gesperrt wurden und damit eben eine andere Nutzung möglich geworden ist, um sich da eben zu Fuß oder mit dem Fahrrad zu bewegen. Es wurde unglaublich viel in das Fahrradnetz investiert, das heißt, Fahrradwege wurden ausgebaut und schon 2020 gab es einen Artikel, der gemeldet hat, dass seitdem diese Planungen auch umgesetzt werden, die Fahrten mit dem Rad unter pendelnden Menschen in Paris um 50 Prozent gestiegen seien. Das war 2020 schon. Und insgesamt haben halt verschiedenste Maßnahmen dazu geführt. Es gab eben die Tempolimits dann auch noch, die Reduzierung von Parkplätzen und kürzlich wurden ja auch die Parkgebühren für SUVs im Pariser Zentrum erhöht per Bürgerentscheid. Und auch das wird weiter dazu beitragen. Und es gab eine Phase, das fand ich ganz besonders spannend, da wurde eine radikale Ahndung von Verkehrsdelikten gemacht. Das heißt, Autos haben schneller und mehr Parkzettel bekommen, also hier, wie heißen das?

    Helena: Strafzettel.

    Janine: Strafzettel wegen Falschparkens und andere Dinge. Das ist ja ein häufiges Fahrradproblem, was Fahrradfahrende in Großstädten haben, zum Beispiel, wenn man mal auf, ja, Mastodon, sozialen Medien sich umschaut, dass eben viel Lieferverkehr zum Beispiel auch auf eigentlich Radwegen steht und dergleichen und dass das selten bis gar nicht wirklich geahndet wird. Und da wurde in Paris auch teilweise sehr hart durchgegriffen, sodass da eben Menschen mehr die Konsequenzen gespürt haben. Und ja, das sind so Maßnahmen, die dazu geführt haben. Gab natürlich auch viel Kritik daran, teilweise aus unterschiedlichen Richtungen und unterschiedlichen Gründen. Aber letztendlich ist es halt tatsächlich so, dass die Menschen nicht deswegen aufs Fahrrad gewechselt sind in Paris, weil ihnen die Luftqualität so besonders wertvoll erscheint, sondern halt, weil es die bequemere und schnellere Alternative ist. Also eine Sache, die die Bürgermeisterin auch umsetzen möchte, ist, dass kurze Wege möglich sind, dass du tatsächlich mit dem Fahrrad schneller irgendwo bist, als würdest du das Auto nehmen. Und dann nutzen die Menschen eben auch quasi zwangsweise das Fahrrad.

    Helena: Ja, ich finde gerade in Städten ist es ja meistens so, dass das Fahrrad einfach schneller ist, weil man muss keine Parkplätze suchen.

    Janine: Ja.

    Helena: Was im Stadtverkehr eigentlich das Hauptproblem mit dem Auto ist, zumindest bei so einer Stadt wie Braunschweig, da ist es selten so verstopft, dass es einfach gar nicht mehr geht. Aber da ist das Parkplatz suchen das Hauptding.

    Janine: Mhm.

    Helena: Und dann braucht man für die Parkplatzsuche so lange, wie man mit dem Fahrrad gebraucht hätte für die gesamte Strecke.

    Janine: Ja, auf jeden Fall.

    Helena: Aber dazu müssen die Fahrradwege auch gut genug sein. Und das ist halt so die Grundvoraussetzung.

    Janine: Ja. Jedenfalls ist das die Geschichte hinter den wunderbaren Zahlen aus Paris, was die Gründe angeht, warum die fahrradfahrende Bevölkerung dort inzwischen immer weiter anwächst und wahrscheinlich auch noch anwachsen wird. Falls sich irgendwer von euch dafür interessiert, wie das vielleicht in anderen Städten auch aussieht. Es gibt in der arte Mediathek noch eine Doku, die noch bis November jetzt in der Mediathek bleiben wird, wo es auch darum geht, wie gelingt die Verkehrswende. Und mit im Fokus sind da unter anderem Städte wie Barcelona, Berlin und auch Paris. Und das ist eigentlich ja ganz spannend, sich die unterschiedlichen Wege und Zugänge mal anzugucken, die dazu führen könnten, dass das vielleicht auch in anderen Städten umgesetzt wird. Paris hat halt eine hohe Handlungsnotwendigkeit aufgrund der auch erlebten Hitzewellen der vergangenen Jahre. Und deswegen ist da wahrscheinlich auch genug Druck da, um Sachen umzusetzen. Und ja, vielleicht denkt man ja an anderen Stellen auch mal drüber nach.

    Können gesellschaftliche Entwicklungen simuliert werden? (00:22:19)

    Janine: Das ist so eine gesellschaftliche Entwicklung, die eigentlich total begrüßenswert ist und wo man sich vielleicht manchmal fragt, warum machen wir das nicht? Weil es klingt doch sinnvoll und gut und es gibt doch inzwischen Wege. Und ja, Gesellschaft funktioniert manchmal sehr undurchdringlich, habe ich das Gefühl. Und wir haben die Frage bekommen, kann man da nicht irgendwie Dinge prognostizieren? Also wie kann man gesellschaftliche Entwicklungen simulieren? Was führt zu was? Wo werden wir in einigen Jahren sein? Das ist so eine interessante Frage und der wollten wir uns ja auch widmen, nicht wahr, Helena?

    Helena: Ja, genau, wir haben eine E-Mail bekommen mit der Frage, ob man dann auch eben gesellschaftliche Entwicklungen simulieren könnte und ob das getan wird. Und da mein erster Gedanke dazu, das ist doch einfach gar nicht möglich. Aber ich habe trotzdem einmal geschaut, ob es dazu was gibt und habe dazu ein Buch gefunden von einer Konferenz, die sich mit diesem Thema auseinandergesetzt hat. Das haben wir dann auch verlinkt. Und da haben die zum Beispiel versucht, das Ende der Maya-Kultur zu simulieren. Ja, grundsätzlich kann man dazu Verschiedenes sagen. Zum einen muss man erstmal überhaupt wissen, was man eigentlich modellieren will. Und dann ist auch immer noch bei jeder Modellierung oder bei jeder Simulation ist die Frage, wie kann ich eigentlich feststellen, dass das Modell, was ich habe, auch die richtigen Ergebnisse produziert? Und das wird ja auch beim Training von künstlicher Intelligenz dadurch gelöst, dass man auf der einen Seite die Trainingsdaten hat, aber dann auch immer noch Daten zum Verifizieren hat, des Modells, die nicht in das Training eingehen, weil dann würde das ja quasi nur ein auswendig Lernen sein und nicht anwendbar auf andere Dinge sein. Oder bei Klimasimulationen zum Beispiel werden dann aus Wetterdaten, die man so hat, aus der Vergangenheit, dann wird das Modell nicht von heute angerechnet erstmal, sondern es berechnet dann zum Beispiel die letzten 20 Jahre des Klimas auf Basis der Daten, die man vor 20 Jahren hatte. Da haben wir ja zum Glück mittlerweile einige Jahrzehnte Wetteraufzeichnung, um das machen zu können. Und dann schaut man, ob das für diese 20 Jahre auch sinnvolle Ergebnisse produziert hat. Und dann kann man auch in die Zukunft extrapolieren mit dem Modell. Wenn man einfach nur sich irgendwas ausdenkt und dann irgendwas simuliert und sagt, man hat das simuliert und das hat man nicht sinnvoll verifiziert mit irgendeinem Datensatz, dann ist das komplett wertlos. Aber das ist halt nicht so einfach bei gesellschaftlichen Entwicklungen. Da bräuchte man erstmal verschiedene Eingangsdaten. Zum Beispiel müsste man ja das Environment, also die Umgebung, die Natur, andere Gesellschaften, also wenn man jetzt zum Beispiel die Maya simulieren will, muss man natürlich bedenken, an welchem Zeitpunkt kommen die vielleicht mit den Azteken in Kontakt oder mit den Spaniern und wie handeln die. Das muss man eben als Daten erstmal zur Verfügung haben. Dann muss man die Komplexität berücksichtigen, die das Verhalten von Gesellschaften hat. Und man muss das irgendwie sinnvoll einfangen. Dann so die Verteilung der Menschen muss man erstmal wissen. Also in so einer Gesellschaft verteilen sich Menschen ja auf verschiedene Untergruppen, in die das strukturiert ist, wie verschiedene Städte oder in diesen Städten gibt es dann auch noch einzelne andere Gruppen. Es gibt Spezialisierungen, dass manche Orte besonders auf manche Produkte spezialisiert sind und handeln und so weiter. Dann ist das Thema die Handlungsfähigkeit des Menschen. Menschen sind denkende Wesen. Menschen können planen und sich Dinge ausdenken, berücksichtigen dabei auch, wie andere Menschen darauf reagieren würden zum Beispiel. Man müsste bedenken, wie das Gehirn funktioniert. Also zum Beispiel, wenn man jetzt in so einer Simulation einen Krieg stattfinden hat, dann führt das ja auch zur posttraumatischen Belastungsstörung und was bedeutet, dass Menschen, die im Krieg waren, sich nach dem Krieg völlig anders verhalten würden als vorher. Mit den gleichen Gegebenheiten ansonsten. Und dadurch ändern sich eben die Handlungsoptionen. Dann muss man natürlich bedenken, Menschen können kommunizieren. Menschen können schreiben oder sprechen. Sie können miteinander Informationen austauschen. Und was mit diesen Informationen passiert, ja, und wie man sich dann koordiniert, ist natürlich etwas, was sehr stark einen Einfluss darauf hat, ja, was die Menschen dann auch tun. Selbst wenn man all diese Informationen irgendwie hat, dann braucht man immer noch ein Modell von Gesellschaften. Und wir haben eine komplett eigene Wissenschaft der Soziologie, die sich genau damit beschäftigt. Aber im Gegensatz zu so was wie der Physik gibt es da eben kein allgemeingültiges Modell von Gesellschaften, das auf jeden Fall all diese Punkte abdeckt und dann auch noch numerisch greifbar macht.

    Janine: Ja, und gerade wenn auch so Sachen wie die Natur mit berücksichtigt werden, was ist denn mit der Vorhersage vom Auftreten bestimmter Katastrophen wie großer Vulkanausbrüche, was wir letztens hatten. Ja, und solche Dinge, die ja auch eigentlich wahrscheinlich in die Geschichte mit eingreifen, wie schnell sich an welchem Ort etwas entwickelt oder nicht.

    Helena: Das kommt ja noch dazu. Also ja, menschliche Systeme sind einfach so komplex, dass es numerisch nicht wirklich greifbar ist. Und wenn man anfängt, dann Gesellschaften tatsächlich zu simulieren oder so, dann begrenzt man sich auf sehr kleine Teilbereiche. Vielleicht simuliert man dann nicht mehr die Gesellschaft als Ganzes, sondern einzelne Situationen. So als Alternative zu eben Simulationen von Gesellschaften muss man dann eben auf so etwas wie natürliche Experimente zurückgreifen. Dazu haben wir eine eigene Folge gemacht. Und da geht es dann auch darum, wie erforscht man eigentlich, ja, wie Menschen auf bestimmte Dinge, die sich ändern, reagieren. So, dazu muss man die erstmal ändern und dann kann man sich das angucken. Was man jetzt hingegen per Computersimulation durchaus schon hingekriegt hat, ist zum Beispiel wie gut schafft es eine Menschenmenge aus einem begrenzten Gebiet zu flüchten. Also wenn man jetzt auf einem Konzert ist, so einer Großveranstaltung, und dann stürzt plötzlich die Bühne ein, da müssen alle Leute weglaufen. Zu sowas gibt es tatsächlich Computersimulationen.

    Janine: Ja, und das ist ja auch gar nicht so unwichtig oder dergleichen, weil eben, ja, wenn man aus begrenzten Gebieten flüchten muss und Panik ausbricht, ist halt wichtig, dass sozusagen der Raum, in dem man sich befindet, so strukturiert ist, dass die Flucht leicht möglich ist. Also Sicherheitskonzepte, Brandschutz und so weiter kommen da ja auch ins Spiel. Wie verhalten sich eben Menschen auf der Flucht, auch gerade dann, wenn sie in Panik geraten?

    Helena: Ja, von daher ist es gut, dass das gemacht wird. Ja, wenn man jetzt aber Gesellschaften nicht simulieren kann durch mathematische Modelle, durch Computer, dann gibt es trotzdem eine Möglichkeit, irgendwie doch so ein bisschen sowas zu machen. Und das Ganze nennt sich Literatur. Sehr viele Geschichten, ja, fangen damit an, dass man ein bestimmtes Setting erfindet und dann einfach guckt, ja, was tun denn die Charaktere in diesem Setting so?

    Janine: Die schöne Frage, was wäre, wenn?

    Helena: Ja, und vermischt wurden diese beiden Punkte in der Science-Fiction-Reihe namens Foundation von Isaac Asimov. Und zwar geht es in dieser Reihe darum, dass jemand das Forschungsfeld der Psychohistorie erfindet und die Idee ist damit, dass man eben, ja, genau das tun kann, das Verhalten von menschlichen Gesellschaften auf Jahrhunderte vorherzusagen. So, man kann da nicht sagen, die einzelnen Individuen tun dies und das, sondern so, ja, die Gesellschaft tut dies und das. Zum Beispiel, was in dieser Geschichte passiert ist, dass der Erfinder vorhersagt, ja, in einigen Jahrhunderten wird das galaktische Imperium zusammenbrechen und dann gibt es eine 10.000 Jahre dauernde Periode, in der Chaos herrscht. Ja, dann dreht sich eben die Geschichte darum, dass er berechnet, wenn man ganz bestimmte Interventionen macht, dann kann man diesen Zeitraum auf 1.000 Jahre begrenzen. Deswegen ist der deutsche Titel des ersten Buches auch "Der 1.000 Jahre Plan".

    Janine: Das klingt tatsächlich mal wieder sehr deutsch als Titel.

    Helena: Genau, und dann dreht sich diese, ja, Romanreihe erstmal darum, dass, ja, es wird eben diese Foundation gegründet, das ist dann quasi eine Siedlung auf einem Planeten, die ein bisschen abseits vom galaktischen Imperium ist, den Randbereichen. Das heißt, die ist dann nicht von dem Zusammenbruch so hart betroffen und da soll quasi die Gesellschaft aufgebaut werden, die dann innerhalb dieser 1.000 Jahre eben die Galaxis wieder übernimmt. Was dann eben auch berechnet wird und deswegen sind die ersten beiden Romane vor allen Dingen eher mehrere Kurzgeschichten und die werden mit jeder Geschichte ein bisschen länger, dass man dann immer sagt, ja, nach so und so vielen Jahrzehnten wird diese folgende Krise auftauchen und dann hat er schon eine Intervention berechnet, was man da tun soll. Das heißt, es gibt dann quasi ein Schrein, wo die Leute dann, wenn wir merken, ja, es geht gerade nicht mehr weiter, es gibt ein Problem, da gehen die dann hin und kriegen dann die Antwort, weil er auch relativ präzise die Jahre vorher gesagt hat, in denen diese Probleme auftauchen und gelöst werden sollen. Aber ein wichtiger Punkt ist ja auch, dass diese Lösungen ja vorher nicht schon den Leuten verraten werden, weil dann müsste man ja mit berücksichtigen, dass die Leute das ja schon wissen, was man dann tun muss. Ja, jedenfalls geht es in dieser Romanreihe dann erstmal darum, ja, wie diese Foundation wächst aufgrund dessen, dass man es vorhergesagt hat, bis dann eben der Punkt kommt, dass ich glaube, das ist das dritte Buch, in dem Asimov dann einen Charakter einführt, der von einem Planeten kommt, der nicht berücksichtigt werden konnte, wo es irgendwie eine Mutation gab bei den Menschen. Der konnte plötzlich die Gedanken von Menschen beeinflussen und der wurde dann ein, ja, Tyrann, ein Gewaltherrscher quasi, wobei Gewalt braucht er dann ja nicht mehr unbedingt, wenn er die Menschen einfach manipulieren kann. Und damit zeigt Asimov natürlich auch wieder die Grenze von diesem ganzen Konzept auf, weil ja, es gibt dann unvorhergesehene Entwicklungen, in diesem Fall diese Person, die dann plötzlich alles verändert. Deswegen gab es dann in der Foundation auch noch irgendwie ein Fallback, also so eine Gruppe von Menschen, die aufpassen soll, dass tatsächlich auch die Dinge so passieren, wie sie passieren. Ja, aber letztlich zeigt Asimov, dass er zwar diese Idee hatte, aber dass die halt auch nur begrenzt funktioniert. Und letztlich hat man ja, wenn man in der Realität, in unserer Wirklichkeit Gesellschaften simulieren würde, auch immer das Problem, es ist ja alles gut und schön, wenn alle Modelle wunderbar sind, aber dann bricht ein Vulkan aus oder ein Asteroid stürzt auf die Erde und das war's dann, die Simulation funktioniert nicht mehr, weil die Gegebenheiten einfach nicht mehr die gleichen sind. Und Asimov hat das ja auch in seiner Roboter-Reihe, wo er die Roboter-Gesetze erfunden hat, ja auch schon gemacht. Er hat die Gesetze erfunden, die erstmal irgendwie nötig sind, damit die Roboter eben keinen Schaden anrichten. Aber gleichzeitig beinhalten die Geschichten auch immer, dass man diese Gesetze wieder auf die Probe stellt und zeigt, wo die eigentlich ihre Grenzen haben. Und das hat Asimov in der Foundation-Reihe eben genauso gemacht.

    Janine: Ja, und das ist ja grundsätzlich auch das Wunderschöne an Literatur und Fiktion im Allgemeinen, dass eben einfach Sachen hinterfragt, ausprobiert und auf die Probe gestellt werden können.

    Helena: Ja, und wenn sie gut gemacht ist, hat man auch schon sehr viele Aspekte mitgedacht. Das konnte Asimov auf jeden Fall, solche Ideen auch sehr gut auf die Probe stellen.

    Wie verläuft die Reise von Voyager 1? (00:34:15)

    Helena: Ja, was er selber nicht unbedingt konnte, war, auf andere Planeten selber zu reisen. Das mussten seine Charaktere machen. Und damit kommen wir zu deinem nächsten Thema.

    Janine: Ja, eine Reise.

    Helena: Das Voyager-Programm, wo insbesondere ein Kollege von Asimov sehr viel mit zu tun hatte, der Autor Carl Sagan, der die Schallplatte designt hat, auf der wir quasi als Menschheit zeigen, falls irgendwelche außerirdischen Zivilisationen oder Menschen in einigen tausend Jahren auf die Voyager-Sonden treffen, dass sie dann von uns redet. Was zeichnet Menschen aus? Da wurde Raumfahrt und Literatur gepaart quasi.

    Janine: Ja, vor allem Kunst auch.

    Helena: Und Kunst. Asimov hat tatsächlich bei der Voyager Golden Record auch mitgeholfen.

    Janine: Ah, sehr schön.

    Helena: Das heißt, es gibt sogar einen direkten Überleitung. Aber es geht jetzt nicht um die Golden Record, sondern um die Daten von der Voyager-Sonde.

    Janine: Genau, in diesem Fall der Voyager 1 konkret. Ich hatte ja vorhin schon gesagt, hier kommt das Thema Datenmüll ins Spiel. Und zwar, ja, die Reise der Voyager 1 startete vor 45 Jahren. Die Voyager-Mission besteht aus zwei Raumsonden, Voyager 1 und Voyager 2, die in unterschiedliche Richtungen davongeschickt wurden, mit dem Ziel, die äußeren Planetensysteme und den interstellaren Raum zu erkunden. Und zwar ist sie jetzt seit nunmehr 17.045 Tagen im All unterwegs und hat, wenn ich das hier jetzt richtig lese, eine Distanz von etwa, ja, 24,5 Milliarden Kilometern zurückgelegt von der Erde bis in den interstellaren Raum, wo sie jetzt immer noch unterwegs ist, mit einer Geschwindigkeit von etwa 61.000 Kilometern pro Stunde. Was auch schon mal sehr beachtlich ist.

    Helena: Das ist ganz schön schnell.

    Janine: Ja, ziemlich schnell. Genau, der Datenmüllvorfall, so habe ich es mal genannt, wurde bekannt im Dezember letzten Jahres. Am 12. Dezember 2023 hat die NASA auf dem Blog der Voyager-Mission gemeldet, dass die Sonde nicht mehr richtig funktioniert und ein Untersystem dieser Sonde eben keine Daten mehr an die Erde zurück sendet. Und es kam nur noch ein sich wiederholendes Datenmuster an, bestehend aus Nullen und Einsen.

    Helena: Obviously.

    Janine: Obviously, ja. Das Binär-Zahlensystem, in dem eben Datenübermittlung stattfinden kann. Ja, die Daten waren aber nicht mehr sehr sinnvoll. Es wurde ständig ein und dasselbe Datenmuster wiederholt, als würde die Sonde quasi in einem Loop feststecken. Und der erste Versuch, "Have you tried to turn it off and on again?" natürlich, hat keine Wirkung gezeigt. Das heißt, der Fehler ist danach nicht verschwunden. Und somit war eigentlich klar, dass da irgendetwas anderes im Gange ist. Und das war der Moment, wo klar geworden ist, dass es jetzt sehr interessant wird, diesen Fehler vielleicht zu beheben, weil nämlich die Herausforderung, die sich den Menschen bei NASA dann gestellt hat, war, überhaupt zu verstehen, wie die Sonde aufgebaut ist und wie sie funktioniert und wie der ganze Code funktioniert in dieser Tiefe, um dieses Problem zu beheben. Natürlich arbeiten sie mit der Sonde schon sehr lange, aber um wirklich ein tiefgreifendes technisches Problem an dieser Sonde, die sich im interstellaren Raum befindet, lösen zu können, mussten halt jahrzehntealte Dokumente konsultiert werden, die von Ingenieuren geschrieben wurden, die teilweise nicht mehr leben oder nicht mehr bei der NASA arbeiten, in Rente sind und all das.

    Helena: Ja.

    Janine: Weil, nun ja, die Planungen für diese Voyager-Mission haben 1972 begonnen.

    Helena: Ja, wer auch immer damals noch bei der NASA war, ist jetzt auf jeden Fall nicht mehr da. Also ich glaube, selbst wenn die in den USA länger arbeiten als hier, wird das doch sehr knapp.

    Janine: Ja.

    Helena: Und wenn, dann wären das nur die Azubis quasi, die dann vielleicht noch da sein könnten. Wer weiß, wie viele überhaupt damit arbeiten durften.

    Janine: Und deswegen war auch einfach klar, es muss erst mal verstanden werden, wie dieses Subsystem, was da entdeckt werden konnte, was für die Fehler verantwortlich ist, überhaupt aufgebaut ist und so. Weil jetzt einfach neue Befehle an die Sonde zu schicken, um vielleicht Sachen zurück zu bekommen, könnte dazu führen, dass einfach Konsequenzen entstehen, die nicht zu beheben sind. Und das sollte natürlich vermieden werden. Deswegen wurde sich diesem Thema sehr, sehr lange und intensiv gewidmet. Es gab dann zwischendurch Fortschritte bei der Analyse des Problems. Es konnte ein bisschen eingegrenzt werden. Und am 4. April gab die NASA bekannt, dass das Problem tatsächlich erkannt ist und an der Lösung gearbeitet wurde. Und zwar ist offensichtlich eine kleine Einheit eines Speichers das Problem gewesen, das eingegrenzt werden konnte. Und dieses Subsystem, wo das drin vorkam, ist nämlich dafür verantwortlich, die gesammelten Daten, also die wissenschaftlichen Daten, die gesammelt werden, und auch die Daten über die Sonde selbst, das heißt, in welchem Zustand befindet sie sich, laufen die Systeme und so weiter, diese Daten zu verpacken und dann zur Erde zu schicken. Das heißt, deswegen sind keine Daten mehr angekommen, was aber schon mal die Vermutung erlaubt hat, es werden wahrscheinlich trotzdem noch Daten gesammelt.

    Helena: Das ist ja schon mal gut. Die wollen wir natürlich haben.

    Janine: Ja, und der Verdacht konnte dann tatsächlich auf einen einzelnen Chip eingegrenzt werden. Und am 22. April kam die Meldung "Problem gelöst". Es wurde die Software, die für dieses Verpacken der Daten verantwortlich ist, in andere Teile des betreffenden Subsystems verfrachtet, sodass der beschädigte Chip nicht mehr involviert ist, hat verschiedene andere Probleme. Ich habe alle Blogbeiträge der NASA hier reingefüttert in die Shownotes, da könnt ihr das vielleicht nochmal nachlesen. So ein paar Probleme gibt es noch zu lösen, aber es konnte eben die Software so auf andere Systeme verteilt werden, dass es möglich ist, wieder mit der Software zu arbeiten und es sind Daten zurückgekommen. Das hieß aber übrigens auch, die Veränderung, die sie vorgenommen haben, um das Problem zu beheben, wurde am 18. April von der Erde losgeschickt und kam am 20. April dann die Bestätigung erst zurück, dass es funktioniert hat und Daten wieder ankommen.

    Helena: Und so weit ist die Voyager-Sonde schon weg. Das ist ja dann schon ein ganzer Lichttag.

    Janine: Es sind glaube ich gerade, Moment, es gibt eine schöne Seite, da kann man gucken, was die aktuellen Missionsinfos sind. Und eins der aktuellen Missionsinfos ist, dass die One-Way-Light-Time 22 Stunden, 33 Minuten und 19 Sekunden beträgt. Das heißt, so lange brauchen die Daten gewissermaßen mit Lichtgeschwindigkeit hin zur Voyager und genauso lange eben dann aber auch wieder zurück.

    Helena: Also doch noch nicht ganz ein Lichttag, fast ein Lichttag.

    Janine: Fast, ja. Ja, das ist sehr schön. In den kommenden Wochen werden dann noch weitere Bereiche der Software umgelagert, sodass dann auch tatsächlich die Daten wieder ankommen.

    Helena: Also die wissenschaftlichen Daten.

    Janine: Genau, die wissenschaftlichen Daten. In diesem Fall war es erst mal das Gespräch mit der Sonde selbst.

    Helena: Ja, was ja auch wichtig ist, dass das überhaupt noch möglich ist.

    Janine: Absolut. Und das führt uns zu der Frage, warum ist das eigentlich wichtig? Ich habe mich auch noch mal in den geschichtlichen Daten ein bisschen umgeguckt. Also wie schon gesagt, 72 war Projektbeginn und 1977 ist die Voyager 1 gestartet und hat es dann geschafft, im Laufe der nächsten Jahre mehrere Meilensteine zu reißen. Also nicht nur die Daten, die angekommen sind und für die Forschung wichtig waren, sondern auch so Sachen wie, dass sie 1998 zu dem menschengemachten Objekt wurde, das am weitesten entfernt von der Erde ist und damit die Pionier 10 überholt hatte. Und ja, dann die Sache, auf die alle eigentlich gewartet haben. 2004 hat Voyager den Schock überschritten, so heißt es in dem Blogbeitrag. Das ist quasi der Übergang in die Region, wo die Sonnenwinde enden und der interstellare Raum beginnen könnte, also als Übergangsbereich. Ja, das war einer der großen Meilensteine, weil das einfach der Bereich ist, wo der große Einflussbereich unserer Sonne, unseres Sonnensystems endet. Das hat dann aber noch gedauert, nämlich bis 2012, bis die Sonne dann tatsächlich in den, ich sag mal, in Anführungszeichen "richtigen" interstellaren Raum eingetreten ist. Und das konnte dann auch aus den Daten abgesehen werden, dass halt die magnetischen Daten der Regionen, in der die Sonde 2012 war, sich verändert hatten im Verhältnis zu den Daten, die vor dem Termination-Schock erfasst wurden. Das magnetische Feld wurde nämlich einfach viel intensiver hinter dem Einflussbereich unserer Sonne dann irgendwann. Und es konnte rückwirkend bestätigt werden, dass am 25. August 2012 der interstellare Raum erreicht werden konnte.

    Helena: Ich meine ist ja auch ein bisschen Definitionsfrage, und letztlich ist Voyager hilfreich dabei, erstmal die Definition zur Verfügung zu stellen aufgrund von Messwerten,...

    Janine: Ja.

    Helena: ...dass man daran erkennen kann, ja, okay, jetzt sind die Messwerte und Nennenswerte anders, dass man sagen kann, jetzt ist es wirklich interstellar, also zwischen verschiedenen Sternen.

    Janine: Genau das. Und zwar gab es dann nämlich dann 2013 ein Ereignis von einer Sonneneruption, glaube ich, wenn ich das jetzt richtig im Sinn habe, wo dann noch mal Partikel Voyager 1 erreicht haben, und einfach durch diese Differenz, die da stattgefunden hat beim Aufeinandertreffen dessen, wurde dann eben entschieden, das ist jetzt unsere Definition von "hier an dem Tag war der interstellare Raum erreicht".

    Helena: Ja.

    Janine: Ja, warum ist das so spannend? Eben weil dadurch Sachen erforscht und erfasst werden können, die... von denen wir jetzt noch gar nicht wissen vielleicht, welche Bedeutung sie im Nachhinein haben. Das zeigt zum Beispiel auch, was die Voyager 2 an Daten gesammelt hat, die ist ja auch fleißig unterwegs und ist vor irgendwie 30 Jahren um den Dreh am Uranus vorbeigeflogen. Und da gab es dann auch die Idee, irgendwann, es soll eine neue Mission zum Uranus geben. Und die Frage ist aber, wenn ich jetzt eine Mission zu dem Planeten schicke, was sind denn die interessanten Sachen, die Phänomene, mit denen ich mich beschäftigen möchte? Und da sind die Forschenden dann halt hingegangen und haben diese 30 Jahre alten Daten der Voyager 2 ausgegraben und haben sich die mal genauer angeguckt. Und dann haben sie offensichtlich die Auswertung der Daten so vorgenommen, wie es bisher andere noch nicht gemacht hatten, weil sie halt sehr detailliert hingeguckt haben und haben sich mit dem Magnetfeld von Uranus beschäftigt und dabei eben entdeckt, dass das Magnetfeld gar nicht so glatt dahin geht, wie andere vielleicht angenommen hatten unter bestimmten Bedingungen, sondern sie haben weiter reingezoomt in die Daten, als vorherige Studien das getan hatten und mehr Datenpunkte, alle 1,92 Sekunden schreiben sie, geplottet, um Dinge zu erkennen. Und die Linien haben sich verändert und plötzlich war da ein Zickzack-Muster drin. Es gab einen Ausschlag nach oben und einen nach unten. Und das ist jetzt das, wo sie sich denken, gut, das möchten wir näher untersuchen. Darauf richten wir jetzt die Instrumente der nächsten Mission. Dafür sind halt diese Daten super spannend und interessant und offensichtlich auch 30 Jahre später noch von Relevanz, um eben neue Forschungsfragen vielleicht auch aufzufinden. Nicht, dass diese alten Daten jetzt unbedingt alles erklären, aber sie geben Hinweise, wo kann ich genauer hingucken. Und das ist eigentlich wirklich das Spannende, dass wir viel Forschung machen eigentlich, so als Menschheit im Allgemeinen, die uns jetzt konkret in diesem Moment vielleicht noch gar nichts bringt, aber Erkenntnisse liefern wird, vielleicht in späteren Zeitaltern. Was ja eventuell auch wieder Einfluss auf so eine gesellschaftliche Simulation haben könnte.

    Helena: Ja, und ein Grund, weshalb man sich jetzt vom Uranus die Magnetfelddaten anguckt, ist, weil man wissen möchte, wo kommt dieses Magnetfeld eigentlich her? Also zum Beispiel die Erde, die hat einen ja mit der Erde zusammenrotierenden flüssigen Kern und dadurch entsteht eine Art Dynamo-Effekt, also so wie so ein Fahrrad-Dynamo, wo man Strom erzeugt durch die Drehung, passiert das eben auch auf der Erde und dadurch haben wir ein sehr starkes Magnetfeld und das Magnetfeld schützt uns dann vor Teilchen von der Sonne, die sonst ja dauernd auf der Erde einprasseln würden und viele Geräte heutzutage kaputt machen würden. Während jetzt zum Beispiel auf dem Mars hat man ein solches Magnetfeld nicht, weshalb das Leben auf dem Mars deutlich aufwendiger wäre, weil man dann auch noch zusätzliche Schutzmaßnahmen ergreifen müsste. Gut, man hat jetzt nicht unbedingt vor, auf dem Uranus irgendwie einzuziehen, aber das ist so die spannende Frage. Hat das ein Magnetfeld, das durch sich selber in Gang gehalten wird oder ist es eines, dass dadurch, dass eben der ganze Sonnenwind, der eben aus geladenen Teilchen besteht, dass der vor allen Dingen für das Magnetfeld verantwortlich ist, dass es dann quasi einfach nur in der Atmosphäre induziert wird und weniger aus dem Kern selber kommt?

    Janine: Und es ist ein sehr, sehr wobbeliges Magnetfeld, steht in der Beobachtung der Forschenden. Und deswegen ist es auch extrem schwierig, es zu modellieren. Und ja, mehr Daten, mehr bessere Modelle, das wissen wir inzwischen schon.

    Helena: Ja, und wobbelig kann heißen, entweder gibt es mehrere Dynamos an diesem Planeten oder ist es vielleicht doch eher ein, ja, nicht ganz so intrinsisches Magnetfeld, sondern es gibt dann irgendwie so ein paar Bereiche, die vielleicht eins haben und das meiste kommt dann von außen. Also es ist noch nicht conclusive gewesen, diese Neuanalyse der Daten, aber immerhin hat man jetzt eine Idee, wo man genau hingucken möchte, wenn man das nächste Mal hinfliegt.

    Janine: Genau. Ja, und ich fand dieses Thema auf jeden Fall sehr spannend, weil es eben so unterschiedliche Bereiche anfasst. Eben zum einen, wir lernen super spannende Dinge über unser Universum, dadurch, dass diese Mission so, so viel länger geht, als sie eigentlich geplant war. Wir sind aber auch damit konfrontiert, dass es ein furchtbar antikes Stück Technik ist, das da durchs All fliegt oder wie auch immer man es nennen will, sich fortbewegt auf jeden Fall. Und ja, mit den Daten können heute immer noch Dinge entdeckt und tiefer erforscht werden.

    Helena: Ja, das ist schon echt praktisch. Man sollte solche Forschungsdaten auf jeden Fall aufbewahren, man weiß nie, was dann noch kommt, also...

    Janine: Ja, auf jeden Fall.

    Fazit (00:49:02)

    Helena: Dann würde ich sagen, kommen wir zum Fazit der Folge. Ja, also mein Fazit, vor allen Dingen aus den Themen, die ich jetzt recherchiert hatte, war so, dass ich es erstaunlich fand, dass es überhaupt Gesellschaftssimulationen gibt und dass sich Wissenschaftler damit ernsthaft beschäftigt haben angesichts dessen, was es alles für Einschränkungen gibt. Ja, und die Erkenntnis, dass es Online-Tools gibt, um Menschenmengen zu schätzen.

    Janine: Ja, und warum das auch spannend ist, wenn KI vielleicht den Punkt übernimmt, das zu wissen, weil wir dann eben nicht mehr auf politische Beurteilungen angewiesen wären.

    Helena: Ja.

    Janine: Ja, ein kleines Fazit hatte ich ja gerade schon zu dem Voyager-Thema. Insgesamt, wahrscheinlich ist mal wieder aufgefallen, dass ich mich ja sehr gerne mit den gesellschaftlichen Themen auch beschäftige. Das habe ich auch hier ein bisschen getan, weil meine Frage hauptsächlich immer ist, warum machen wir das? Warum ist das toll? Oder warum sollten wir es tun? Oder dergleichen. Und ja, das Klimathema ist halt einfach sehr wichtig. Und ich finde, wenn auch aus anderen Gründen, nicht aus idealistischen Gründen, Veränderungen stattfinden, dann sollten wir auf jeden Fall sehr genau hinschauen, wie sie passieren konnten und wie wir das vielleicht an anderen Stellen wiederholen können. Weil ja, die Klimakrise ist eine reale Bedrohung und damit sollten wir uns einfach irgendwie beschäftigen. Und alles, was dafür hilft, das bessern zu können, ist doch ein Thema, das es wert ist, sich mit zu befassen.

    Nächste Folge: ADHS im Juni (00:50:28)

    Helena: Ja, dann kommen wir zum Thema der nächsten Folge. Im Juni wollen wir dann über ADHS sprechen. Und weil das ein sehr umfangreiches Thema ist, haben wir uns jetzt als Unterpunkt herausgegriffen, warum das denn immer häufiger aufzutreten scheint. Wenn man so Nachrichten liest, gibt es diese Behauptung. Aber wir behandeln dann auch die Frage, warum es wichtig sein kann, auch noch im Erwachsenenalter eine Diagnose zu bekommen.

    Call to Action (00:50:55)

    Janine: Ja, und wenn ihr dieses Thema und alle weiteren nicht verpassen wollt, dann folgt uns doch gerne auf mastodon unter @[email protected]. Besucht auch gerne unsere Webseite www.datenleben.de. Da könnt ihr uns nicht nur Feedback hinterlassen, sondern auch die alten Folgen finden, denn es sind, Stand jetzt, heute, 50 dann, wenn diese Folge erschienen sein wird. Ja, aber ihr könnt uns auch jederzeit gerne Feedback per Mail hinterlassen. Manchmal entstehen daraus dann sogar Dinge, die wir in den Podcast mit einbringen können. Und wir freuen uns auch immer sehr über Kommentare zu unseren Folgen. Ihr könnt uns allerdings auch als Data Scientist für Analysen oder Projekte buchen, wenn euch unsere Arbeits- und Denkweise gefällt und da mit uns in Kontakt treten zu. Und ja, ganz grundsätzlich, falls ihr Fragen habt und Dinge, die euch interessieren, dann schreibt uns gerne.

    Helena: Dann bleibt mir nur noch für eure Aufmerksamkeit zu danken und bis zum nächsten Mal. Ciao!

    Janine: Tschüss!

    Outro (00:51:57::)

    18 May 2024, 10:00 am
  • 1 hour 10 minutes
    dl049: wie werden lehrerfolge gemessen?

    Es geht bei uns oft um Daten, die relativ einfach zählbar sind, um Dinge, die mit einem Maßband gemessen werden können oder mit irgendeinem Gerät erfasst werden, das etwas auszählt, aufzeichnet und dergleichen. Es gibt aber auch Daten, die nicht ganz so einfach erfassbar sind und trotzdem müssen sie ja auch irgendwie erhoben und ausgewertet werden. Und dazu gehören zum Beispiel Fragen wie, wie erfolgreich ist eigentlich eine Lehrmethode und bei welcher Lehrmethode lernen Schüler*innen besser als bei anderen? Wie kann sowas eigentlich festgestellt werden? Darüber reden wir mit Leonie und Ina.

    Links und Quellen

    Schlagworte zur Folge

    Lehrmethode, Schule, Unterricht, Erfolge messen, Kohlenstoffkreislauf, Biologie

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zu unserer 49. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten euch die Welt der Daten näher bringen. Was für Daten umgeben uns? Wie werden Daten erhoben? Und was können wir aus ihnen lernen? Wer schon immer mehr darüber wissen wollte, ist hier richtig, denn diesen Fragen gehen wir nach.

    Thema der Folge (00:00:37)

    Janine: Genau, und oft geht es bei uns um Daten, die, naja, relativ einfach zählbar sind, um Dinge, die mit einem Maßband gemessen werden können oder mit irgendeinem Gerät erfasst werden, das etwas auszählt, aufzeichnet und dergleichen. Es gibt aber auch Daten, die nicht ganz so einfach erfassbar sind und trotzdem müssen sie ja auch irgendwie erhoben und ausgewertet werden. Und dazu gehören zum Beispiel so Fragen wie, wie erfolgreich ist eigentlich eine Lehrmethode und bei welcher Lehrmethode lernen Schüler*innen besser als bei anderen? Und ja, wie kann sowas eigentlich festgestellt werden? Das ist jetzt nicht so richtig etwas, das man mit 1, 2, 3, 4, 5 zählen kann. Und um dieser Frage nachzugehen, haben wir uns heute zwei Gästinnen eingeladen, die zu diesem Thema ihre Masterarbeiten geschrieben haben. Und ja, wir sind sehr gespannt, was dabei herausgekommen ist und welche Hindernisse und Herausforderungen ihnen da begegnet sind, denn so viel kann ich versprechen, die gab es garantiert.

    Begrüßung von Leonie und Ina (00:01:42)

    Helena: Ja, dann sage ich mal Hallo Leonie und Hallo Ina.

    Leonie: Hallo.

    Ina: Hallo.

    Helena: Ja, Leonie, magst du einmal dich kurz vorstellen?

    Leonie: Ja, erstmal vielen Dank, dass wir heute berichten dürfen, was wir so während unserer Masterarbeit erlebt haben. Genau, ich heiße Leonie, ich werde bald 25 und habe gerade mein Studium in den Fächern Deutsch und Biologie auf Lehramt abgeschlossen. Und genau, in dem Rahmen haben wir dann eben auch die Masterarbeit geschrieben und uns so ein bisschen mit verschiedenen Lehr- und Lernmethoden auseinandergesetzt, die wir euch dann gleich noch genauer vorstellen wollen. Genau.

    Helena: Ja, Ina, stell dich mal vor.

    Ina: Ja, hi, auch von mir. Ich bin Ina, ich werde demnächst 27 und genauso wie Leonie habe ich auch Biologie studiert, allerdings dazu dann noch das Zweitfach Geschichte. Und durch das Biologiestudium haben wir uns dann auch kennengelernt und sind uns dann von unserer Dozentin noch vorgestellt worden, dass wir dann gemeinsam auch ein ähnliches Thema bearbeiten können. Und ja, da wir jetzt ja beide die Masterarbeiten auch geschafft haben, werden wir jetzt im Laufe des Jahres mit unserem Referendariat an einer Schule beginnen und sind schon sehr gespannt, wie es auch weitergehen wird.

    Was ist das Thema eurer Masterarbeiten? (00:02:55)

    Helena: Ja, gut, jetzt haben wir darüber geredet, dass ihr eine Masterarbeit geschrieben habt, beziehungsweise zwei, weil ihr seid ja zwei Personen. Was war denn genau das Thema eurer Masterarbeiten?

    Ina: Wir haben uns mit dem Verständnis des lokalen Kohlenstoffkreislaufs in Bezug auf die Sekundarstufe 1 beschäftigt. Das heißt, wir hatten im Grunde als biologisches Thema den Kohlenstoffkreislauf und haben dann untersucht, inwieweit man das unterrichten kann und haben dann im Grunde zwei verschiedene Schwerpunkte gehabt. Ich habe mich mit einer bestimmten Lernmethode beschäftigt, die wird Stoffeverfolgen genannt. Und Leonie hat sich vor allem damit auseinandergesetzt, wie man dann so ein Arbeitsblatt dazu gestalten könnte, was man dann benutzen kann, um dann diese Aufgabe, die ich entwickelt habe, zu erarbeiten. Und dabei haben wir halt versucht, dann herauszufinden, welche Effekte haben einmal Stoffeverfolgen, also diese spezifische Lehr-Lern-Strategie, und welche Effekte hat eine spezielle Gestaltung eines Arbeitsblattes und zwar durch Multimedia-Prinzipien. Das haben wir dann jeweils einzeln untersucht, aber auch in Kombination miteinander.

    Leonie: Genau, wir haben uns die Forschung vorher angeschaut und da ist eben festgestellt worden, dass gerade Schülerinnen und Schüler in Bezug auf den Kohlenstoffkreislauf viele Verständnisschwierigkeiten einfach haben und auch nach der Bearbeitung von dem Lerninhalt oft Fehlvorstellungen vielleicht auch durch den Unterricht erst entstehen, die eben sich aber dann konsequent halten. Und da haben wir dann eben einmal Multimedia und eben das Prinzip Stoffeverfolgen eingesetzt und wollten das Verständnis der Lernenden fördern und ja, einfach mal schauen, ob die Methoden überhaupt etwas bringen in diesem oder jetzt in dem besonderen Lernkontext.

    Was ist der Kohlenstoffkreislauf? (00:04:41)

    Helena: Ja, es geht ja jetzt nicht nur darum irgendwie zu erklären, wie man Lehrmethoden erforscht, sondern das funktioniert ja immer nur auch an einem konkreten Thema. Und wenn ihr schon sagt, dass viele Leute ja Fehlvorstellungen entwickeln, die dann teilweise nach der Schule auch bestehen bleiben, wäre es vielleicht ganz gut, noch einmal kurz zusammenzufassen. Was ist denn das überhaupt, der Kohlenstoffkreislauf?

    Ina: Ja, kurz zusammengefasst ist schon mal das passende Stichwort. Das ist nämlich gar nicht so einfach. Grundsätzlich vereint ja der Kohlenstoffkreislauf ganz viele verschiedene Bereiche aus der Biologie. Da sind Teile oder Themengebiete aus der Ökologie dabei, vom Stoffwechsel, aus der Biochemie und aus der Mikrobiologie und noch viel, viel mehr, was da mit reinspielt und was alles durch den Kohlenstoffkreislauf im Grunde vereint wird. Und dann ist ja erst mal schon mal deutlich, dass es vielleicht gar nicht so einfach ist, gerade als lernende Person in der Sekundarstufe 1, irgendwie siebte bis zehnte Klasse, das verstehen zu können, weil man vielleicht Dinge wie Biochemie oder Mikrobiologie ja noch gar nicht hatte oder den Stoffwechsel ja auch gar nicht im Detail versteht oder noch nicht kennengelernt hat, wie das vielleicht in der Oberstufe oder im Studium später der Fall ist. Aber es ist ja trotzdem unfassbar wichtig, die Grundzüge des Kohlenstoffkreislaufs zu verstehen oder nachvollziehen zu können, um dann auch im Alltag später entsprechend Entscheidungen zu treffen oder auch so zu handeln. Und deswegen ist es wichtig, zu versuchen, den Kohlenstoffkreislauf ein bisschen herunter zu brechen. Das haben wir versucht. Und im Grunde kann man halt drei zentrale Prozesse festhalten, die immer wieder in diesem Kreislauf auftauchen, jeweils in verschiedenen Kontexten. Diese drei Prozesse sind einmal die Photosynthese, die Biosynthese und die Zellatmung. Das sind jeweils wieder drei Prozesse, die man ganz im Detail sich anschauen kann im Unterricht. Das wird vielleicht in der Oberstufe gemacht. Aber so grob heruntergebrochen könnte man sagen zur Photosynthese, da gibt es erstmal Lebewesen, die werden Produzenten genannt. Und die sind dafür zuständig, dass sie Kohlenstoffdioxid fixieren. Kohlenstoffdioxid ist erstmal in der Luft, das ist gasförmig. Und die Produzenten, also diese Lebewesen, die dann den Kohlenstoff aufnehmen in Form von Kohlenstoffdioxid, die bilden damit Glucose. Und Glucose ist dann kein Gas mehr, sondern das ist ein Feststoff, der enthält auch Kohlenstoff. Also die Formel für Glucose ist C6-H12-O6. Und da haben wir jetzt auch dieses C drin, was ganz wichtig ist, beim Kohlenstoffkreislauf im Blick zu behalten. Und durch die Photosynthese werden dann diese energiearmen Stoffe zu ganz energiereichen Stoffen, weil die zusammengefasst werden zu einem größeren Stoff. Und das ist erstmal so das, was beim Beginn der Photosynthese relevant ist, zu verstehen. Und dann könnte man als dem entgegengesetzten Prozess die Zellatmung anschauen. Und Zellatmung ist etwas, was eigentlich alle Lebewesen machen. Also wir Menschen, wir atmen. Und unsere Atmung basiert darauf, dass unsere Zellen, nämlich jede einzelne Zelle im Körper auch atmet. Genauso ist das auch bei Pflanzen und auch bei ganz kleinen Lebewesen im Boden, die werden Destruenten genannt. Das wird vielleicht manchmal in einer etwas anderen Form gemacht, als wir Menschen das tun, aber es ist bei allen relativ ähnlich. Und bei der Zellatmung geht es darum, dass Energie gewonnen wird, um uns zum Beispiel bewegen zu können. Und dabei wird dann Glucose als Ausgangsstoff gespalten, dabei wird Energie freigesetzt. Und dadurch entsteht unter anderem Kohlenstoffdioxid, der wird jetzt am Beispiel von uns Menschen dann von jeder Zelle durch das Blut zur Lunge transportiert und wir atmen dann Kohlenstoffdioxid wieder aus. Und dementsprechend ist unsere äußere Atmung auch eine Folge von der Zellatmung, die in ganz vielen kleinen Teilen unseres Körpers vorher passiert ist. Das ist ähnlich bei Pflanzen und bei den kleinen Lebewesen, die Destruenten genannt werden. Genau, und dazwischen gibt es dann im Grunde noch die Biosynthese. Das heißt, wenn zum Beispiel Glucose aufgenommen wurde, dann wird es nicht immer direkt zur Energie verwertet, sondern es könnte auch sein, dass wir zum Beispiel noch wachsen oder dass wir so ein bisschen was uns anlegen wollen dann für später, wenn man nicht gerade direkt die Energie verbraucht. Dann kann es eben sein, dass Glucose umgebaut wird zu sämtlichen Teilen, die der Körper so enthält, also zum Beispiel zu Fett, zu Eiweißen. Es kann auch zu Stärke umgebaut werden oder beispielsweise bei Pflanzen ja auch ganz typisch Zellulose. Und dann ist Kohlenstoff im Grunde Körperbestandteil und kann von da dann auch wieder abgebaut werden, sodass es wieder genutzt werden kann für die Zellatmung, um Energie zu gewinnen. Aber es kann auch im Körper bestehen bleiben. Und das sind so drei Prozesse, die im Grunde, also Photosynthese, Biosynthese und Zellatmung, die immer wieder ablaufen können in verschiedenen Kontexten und die dann so diese Grundpfeiler des Kohlenstoffkreislaufs bilden. Wenn man sich jetzt überlegt, okay, in was für vielen Kontexten können diese drei Prozesse passieren, das ist ja nicht nur bei uns Menschen oder bei dem Tier oder dem Baum vor der Haustür vielleicht so, sondern das kann auch bei Lebewesen im Meer passieren. Es gibt auch Kohlenstoff, der ist gelöst im Meer. Kohlenstoff ist enthalten in den Gesteinen, in der Atmosphäre, in der Luft und dementsprechend ist Kohlenstoff ja in sämtlichen Bereichen des Lebens irgendwie relevant oder dort enthalten. Und dementsprechend kompliziert ist dann auch der globale Kohlenstoffkreislauf, weshalb wir gesagt haben, okay, das ist vielleicht ein bisschen sehr anspruchsvoll. Deswegen haben wir es reduziert auf den so bezeichneten lokalen Kohlenstoffkreislauf. Das ist jetzt so eine Art Hilfsbegriff, womit man einfach so einen Teil des ganz großen Kohlenstoffkreislaufs bezeichnet und den haben wir uns dann in der Schule auch angeschaut. Und dabei schaut man sich im Grunde an, wie ist das Ganze in so einem ländlichen Ökosystem, wo vielleicht ein paar Tiere, ein paar Pflanzen sind und ein paar Bodenorganismen, ohne jetzt diesen ganzen Bereich mit den menschlichen Einflüssen oder mit dem Meer und mit den Gesteinen dann auch noch mit dazu zu nehmen.

    Leonie: Genau. Ina hat gerade dieses hochkomplexe Thema super kurz dargestellt und ich hoffe, was wir alle daran irgendwie sehen können, ist einfach, dass der Kohlenstoffkreislauf total komplex ist und aus super vielen verschiedenen, ich nenne es jetzt mal Facetten und Prozessen besteht, die ja ineinandergreifen und miteinander arbeiten. Und das ist für den Unterricht super interessant. Also wir befinden uns zwar ja noch in der Unterstufe, also siebte bis zehnte Klasse, aber trotzdem gerade in der Biologie ist es super wichtig, dass die Schülerinnen und Schüler verstehen, dass eben diese Vernetzungen von verschiedenen Prozessen stattfindet. Und da ist der Kohlenstoffkreislauf ein unglaublich tolles Beispiel, das zu zeigen, obwohl er eben so komplex ist. Und das wird oft im Unterricht eben so gar nicht vermittelt, was sehr schade ist, wenn man auf dieser Grundlage aufbauen könnte, um eben auch noch andere Stoffkreisläufe hinterher zu thematisieren.

    Wie wird dar Kohlenstoffkreislauf bisher unterrichtet? (00:11:29)

    Helena: Wie wird er denn bisher standardmäßig unterrichtet?

    Leonie: Die Frage haben wir uns vor unserer Masterbett auch gestellt, weil wir irgendeinen Anfang finden mussten. Also haben wir mal in die aktuellen Schulbücher reingeschaut und haben einfach festgestellt, dass eben diese Vernetzung der einzelnen Prozesse oft überhaupt nicht stattfindet. Wir haben auch gemerkt, also oft hat man für ein Thema eine Doppelschulbuchseite, also auf zwei Seiten wird ein Thema behandelt. Da gibt es dann standardmäßig natürlich Text, aber auch Bilder und verschiedene Grafiken. Und wir haben bei unserer Analyse festgestellt, dass die Texte und Grafiken bzw. Bilder wenig bis gar nicht zueinander in Beziehung gesetzt werden. Dass es zum Beispiel auch unterschiedliche Begrifflichkeiten in den Darstellungsformen gibt und dass damit ja auch das Lernen total erschwert wird. Also Schülerinnen und Schüler lesen den einen Begriff, der kommt in der Abbildung gar nicht vor, dann kann man überhaupt kein mentales Modell in dem Sinne aufbauen und die Sachen miteinander verbinden. Ina hat ja gerade die ganzen wichtigen Prozesse auch benannt, also Photosynthese, Zellatmung, Biosynthese. Oft sind diese Prozesse für Schülerinnen und Schüler gar nicht, also entweder die liegen super weit zurück, die haben die zum Beispiel in der siebten Klasse gelernt, haben die in der zehnten aber gar nicht mehr im Kopf oder sie sind einfach noch gar nicht so verinnerlicht, dass sie darauf aufbauend jetzt den Kohlenstoffkreislauf behandeln können. Genau. Zudem, was besonders ist, der Kohlenstoff ändert während des Kreislaufs auch seinen Aggregatzustand. Und das wird in Schulbüchern oft gar nicht oder nur sehr selten benannt und das ist aber super wichtig, um den Kreislauf an sich eben zu verstehen, um auch den Kohlenstoff im Kreislauf verfolgen zu können. Und was auch noch ein wichtiges Thema ist, was leider auch in der Schule oft, ja ich sag jetzt mal, zu vielen Fehlvorstellungen führt, der Kohlenstoffkreislauf hängt sehr eng mit dem Sauerstoffkreislauf zusammen oder die sind miteinander verknüpft und oft passiert es Schülerinnen und Schülern, dass sie nicht den Kohlenstoff dann im Kreislauf betrachten, sondern dann zum Sauerstoff wechseln, den wir einatmen und ja auch für unsere Zellatmung brauchen, also Kohlenstoff fällt oft hinten runter und wird dann eben nicht durch den ganzen Kreislauf hindurch irgendwie betrachtet. Genau, also man sieht oder wir haben während unserer Analyse der Schulbücher festgestellt, dass es viele Kleinigkeiten oft auch gibt, die zu Missverständnissen führen und dadurch eben auch Fehlvorstellungen entstehen, die sich durch das ganze Schulleben und auch bis später eben sehr wacker halten.

    Was ist die Methode Stoffe verfolgen? (00:14:01)

    Janine: Jetzt so die ganze Zeit habe ich versucht zurückzudenken, an was für Kreisläufe ich mich aus der Schule erinnere und ich glaube, der einzige, der mir einfällt, ist konkret der Wasserkreislauf der Erde, also von Wolken regnen nieder und das Meer und Wasserdampf steigt auf, verwandelt sich zu Wolken, was sich wieder zu Regen verwandelt. Der ist ja wahrscheinlich auch sehr unterkomplex dargestellt, aber doch irgendwie relativ eingängig, auch wenn da wahrscheinlich ja auch diese Aggregatzustandswechsel stattfinden, aber ich glaube, tatsächlich viel einfacher, zumindest optisch auch darzustellen und weil es halt eher so wirkt wie ein Kreislauf in sich. Ina, du hattest schon die Methode Stoffeverfolgen eingebracht. Im Falle des Wassers sieht man das ja sehr schön, dass es halt einfach so quasi in der Darstellung einmal im Kreis geht und beim Kohlenstoffatom hast du gesagt, das ist ja nicht ganz so einfach. Was ist denn diese Methode Stoffeverfolgen?

    Ina: Genau, beim Stoffeverfolgen geht es darum, dass man sich das C, also den Kohlenstoff, anschaut und versucht, die ganze Zeit sich den Kreislauf zum Beispiel auf einem Bild oder bildlichen Darstellung anzugucken und am C sich zu orientieren. Das heißt, man versucht da wirklich beim Kohlenstoff zu bleiben, zu schauen, wie verwandelt sich der Kohlenstoff im Laufe des Kreislaufs und vielleicht dabei auch festzustellen, dass Sauerstoff, was Leonie ja gerade erklärt hat, dass ganz viele dann zum Sauerstoff springen, ja gar keinen Kohlenstoff enthält und eigentlich dann vielleicht eine Rolle spielt, weil Sauerstoff mit Kohlenstoff reagiert, aber dass man ja auch einen anderen Stoff hat, wo dann Kohlenstoff wieder enthalten ist, zum Beispiel Glucose. Aber das ist ja vom Begriff her erstmal gar nicht so einfach zu wissen, dass Kohlenstoff überhaupt in Glucose enthalten ist. Das muss man ja erstmal feststellen. Und dafür hilft es dann, wenn zum Beispiel auch die Formelschreibweisen genutzt werden, wo man dann das C sehen kann und dann versucht man im Grunde dieses C zu verfolgen. Also das Ziel vom Stoffeverfolgen ist es dann, diese zentralen Prozesse wie Photosynthese oder Zellatmung miteinander zu vernetzen, dass man die nicht nur separat voneinander in der Schule lernt, sondern die auch miteinander verbindet. Und dann auch die verschiedenen Trophie-Ebenen, also diese Stufen mit Produzenten, die dann Kohlenstoff fixieren, Konsumenten, die dann sich von Produzenten ernähren und dadurch dann den Kohlenstoff über die Nahrung aufnehmen und Destruenten, die dann alles am Ende wieder zersetzen und wodurch Kohlenstoff dann letztlich auch wieder in die Atmosphäre in großen Mengen freigesetzt wird, dass man auch die miteinander verbindet. Und gleichzeitig auch immer wieder zwischen diesem großen Organismus, also zum Beispiel einer Pflanze oder einem Tier oder einem kleinen Bakterium, dass man von dem Bereich auch wieder darauf kommt, okay, was passiert denn eigentlich auf der Ebene der Moleküle, um dann wieder beim C zu landen. Und beim Stoffeverfolgen, wenn man sich das jetzt ein bisschen heruntergebrochen vorstellen könnte, könnte man jetzt als Schülerin oder Schüler sagen, okay, ich bin gerade so ein Kohlenstoffatom und ich habe mich mit dem Sauerstoff verbunden, wir sind jetzt zusammen Kohlenstoffdioxid, sind jetzt so in Gas und schwirren in der Luft, die Sonne scheint, das Wetter ist schön und hier ist so ein Wald, da stehen ein paar Bäume und ich gelange jetzt als Teil des Kohlenstoffdioxid mit dem Sauerstoff zusammen in das Blatt von dem Baum rein und der Baum macht Photosynthese. Dadurch werde ich umgebaut zu Glucose und bin jetzt gar nicht mehr Teil des Kohlenstoffdioxid, sondern ich gehöre jetzt zu Glucose, das ist ein größeres Molekül. Der Baum braucht auch Energie und betreibt Zellatmung und dadurch werde ich dann direkt wieder aus der Glucose gespalten, wieder mit Sauerstoff zu Kohlenstoffdioxid zusammengebracht und gelange von dem Baum aus direkt wieder in die Atmosphäre und bin dann wieder, wie ich auch vorher schon einmal war, Teil der Luft. Vielleicht braucht der Baum aber auch neue Biomasse, weil er gerade wächst und dann kann es sein, dass ich gar nicht wieder zum CO2 umgewandelt werde, sondern von der Glucose zu Zellulose und dann Teil von einem viel größeren Molekül bin und jetzt plötzlich Teil des Blattes bin, das dann letztendlich wieder andere Dinge machen kann. Wenn man das jetzt noch mal weiterverfolgen würde, zum Beispiel zur Trophieebene der Konsumenten, dazu gehören zum Beispiel Tiere, die dann diese Blätter vom Baum fressen, dadurch gelange ich dann als Kohlenstoff wieder in den Magen des Tieres, ich werde verdaut und wieder zu anderen Stoffen umgebaut und vielleicht braucht das Tier Energie, das Tier möchte sich ja auch bewegen und laufen und dadurch werde ich dann direkt wieder zur Zellatmung gebracht, werde gespalten und bin jetzt plötzlich wieder Teil des CO2 und gelange wieder durch das Ausatmen des Tieres letztlich wieder in die Luft und dann kann der Kreislauf wieder von vorne beginnen, die Pflanze macht wieder Photosynthese, ich gelange in die Pflanze, werde in das Blatt der Pflanze eingebaut, das Tier frisst mich und das Tier möchte vielleicht auch, ja muss vielleicht auch wachsen oder sich Winterspeck anlegen für schlechte Zeiten und jetzt bin ich letztlich gar nicht mehr Teil von Glucose, sondern jetzt Teil von einem größeren Kohlenhydrat oder von Eiweißen oder vom Fett und bin jetzt Teil des Körpers vom Tier. Und dann könnte man wieder den Kreislauf weitergehen, okay, das Tier stirbt vielleicht irgendwann mal, jetzt verrotte ich als Kohlenstoff mit dem Tier zusammen und jetzt sind da ganz viele kleine Bodenorganismen und die Bodenorganismen, die brauchen ja auch Energie und die gewinnen sie zum Beispiel auch durch unter anderem Zellatmung und jetzt werde ich von den kleinen Bodenorganismen auch wieder zerlegt und zu Kohlenstoffdioxid umgewandelt und auch wieder ausgeatmet und gelange dann wieder in die Atmosphäre und bin letztlich wieder verfügbar für Pflanzen, dass sie dann auch wieder Dinge mit mir als Kohlenstoff machen können. Und das ist so ein bisschen die Idee, dass man sich das etwas bildlicher vorstellen kann und auch immer bei diesem Kohlenstoff bleibt und überlegt, okay, was bin ich als Kohlenstoff gerade und was passiert dann auch mit mir im Körper eines Tieres oder einer Pflanze oder eines Mikroorganismus und wie hängt das da miteinander zusammen. Und dadurch sollen ja diese ganzen vielen komplizierten Prozesse auf etwas einfachere und heruntergebrochenere Weise vernetzt werden. Und das hilft vielleicht auch, weil wenn man sich jetzt anschaut, so allein die Zellatmung, da passieren ja ganz viele chemische Prozesse, aber vielleicht sind die erst mal gar nicht so relevant für das allgemeine Verständnis, dass man auch dadurch mehr den Schwerpunkt setzen kann auf das Wesentliche und nicht in diesen vielen Details von irgendwelchen Abbildungen in Schulbüchern dann ja ertrinkt. Und dass man so ein bisschen weiß, okay, darauf achte ich, das verfolge ich und das ist das, was wichtig ist.

    Was sind die Multimedia Prinzipien? (00:20:19)

    Helena: Ja, das klingt gut. Was mir an diesem Ansatz gefällt, ist, dass wenn du sagst, man fokussiert sich, also man versucht, die Details wegzubekommen, die merkt man sich ja eh nicht nach ein paar Jahren in der Schule. Außer es ist genau das Thema, mit dem man sich längerfristig beschäftigen möchte. Aber in den meisten Fällen merkt man sich ja eher andere Sachen und die Chance, dass man sich einen großen Zusammenhang merkt, ist doch, denke ich, größer, als dass man vielleicht weiß, ja, wie ist jetzt die Strukturformel von Zellulose. Gut, Ina, jetzt hast du ja das Stoffeverfolgen erst mal erklärt, aber das muss ja auch irgendwie dargestellt werden. Das muss ja irgendwie auch auf Papier stattfinden können, so als Ansatz. Und damit, soweit ich das verstanden habe, hast du dich, Leonie, beschäftigt, wie man quasi mit Multimedia-Prinzipien, also wie man Text und Bilder zusammenbaut, dass die irgendwie besser in den Kopf reingehen. Magst du das einmal erklären?

    Leonie: Ja, genau. Beim Multimedia oder bei den Prinzipien dazu geht es grundsätzlich darum, wie ich verschiedene Darstellungsformen, in unserem Fall jetzt einen Text und eine bildliche Darstellung, möglichst zielführend, also möglichst lernförderlich im Schulkontext auf ein Arbeitsblatt bringe oder in ein Schulbuch integrieren kann. Das ist ein Riesenthema, also wenn das die Zuhörer interessiert, gerne mal sonst bei Google eingeben. Also da gibt es super viel Forschung schon zu, es gibt super viele Prinzipien, die auf ganz verschiedene Art und Weise auch schon getestet worden sind. Für uns hier würde ich mich jetzt auf die beschränken, die wir uns auch in der Masterarbeit uns angeschaut haben und eben die auch vertieft haben. Erstmal kurz zur Erklärung, also wir haben uns aus dem ganzen Wust an Schulbüchern nachher einen Text rausgesucht, tatsächlich von 1991, also wir sind ein ganzes Stück zurückgegangen, den wir thematisch einfach gut fanden, also wo für uns zum Thema Kohlenstoffkreislauf alles drin war und haben den aber dann auch angepasst und mit einer Darstellung aus einem neueren Schulbuch eben auch ergänzt. Also ein Multimedia-Prinzip besagt zum Beispiel, dass der Text und die Darstellung räumlich nah beieinander sind, damit es einfach dem Leser erleichtert wird. Ich lese den Text, ich habe daneben die Darstellung und ich kann die direkt verknüpfen. Das hat auch viel damit zu tun, ich habe einen Inhalt im Kopf, den ich aus dem Text mitgenommen habe und den muss ich mir nicht lange merken, weil unser Arbeitsgedächtnis ja ganz wenig nur speichern kann, sondern ich kann direkt den mit der Darstellung verknüpfen und das dann wiederum ins Langzeitgedächtnis vielleicht sogar direkt einspeichern. Genau, das haben wir zum einen eben auf unserem Standard-Arbeitsblatt, nenne ich es jetzt mal, gemacht, aber wir haben, um das Ganze noch mehr dem Multimedia-Prinzip in Entsprechung zu machen, auch ein Arbeitsblatt erstellt, wo wir drei Textblöcke hatten und eben eine sich aufbauende Darstellung über den Kohlenstoffkreislauf. Ina hat das Ganze ja sehr schön zusammengefasst, also wir hatten eine Darstellung, die die Produzenten fokussiert hat, dann die Konsumenten und am Ende eben die Destruenten und die letzte Abbildung hatte dann aber auch den ganzen Kreislauf an sich oder hat den beinhaltet in der Abbildung, aber eben die Schwerpunkte waren so gesetzt, dass sie auch direkt zum Text passten, der in einzelnen Textblöcken eben daneben stand. Also wir hatten das sehr schön räumlich fokussiert. Ganz wichtig, wir haben natürlich gleiche Begrifflichkeiten in beiden Darstellungsformen genutzt, nicht nur schriftlich, sondern eben auch mit Summenformeln gearbeitet, damit gerade das C-Atom fürs Stoffeverfolgen dann auch eben deutlich wird. Wir haben fettgedruckte Begriffe verwendet, die in beiden Darstellungsformen, also im Text und im Bild, vorkamen, damit eben das Lesen da auch nochmal erleichtert wurde und dem Leser oder den Schülern dann gesehen hat, oh, okay, da ist Photosynthese fettgedruckt, dann schaue ich doch mal, wo ich das in der Abbildung finde und wie kann ich das direkt miteinander verknüpfen. Das ist einfach so ein Lenken auch des Lesers. Um die Aggregatzustände besser erkennen zu können, haben wir dann vor allen Dingen in der bildlichen Darstellung Wolken verwendet, um gasförmige Aggregatzustände zu zeigen. Wir haben Rechtecke verwendet, um den festen Aggregatzustand zu zeigen und auch einen Regentropfen für flüssig. Die hatten dann, je nachdem, ob wir Kohlenstoff hatten, die Farbe Grau, bei Sauerstoff waren sie zum Beispiel Blau. Also wir haben dann auch viel mit Farben gearbeitet, um da eben auch eine Unterscheidung hinzukriegen. Genau.

    Helena: Also immer mehr als nur ein Unterscheidungsmerkmal, sodass es optisch nicht nur da steht "gasförmig" oder "flüssig", sondern es ist auch nochmal durch die Darstellung unterschieden.

    Leonie: Genau, auf jeden Fall. Zudem haben wir halt versucht, sowohl im Text als auch in der Abbildung wirklich nur die Informationen zu geben, die wichtig für das Verständnis sind. Also alles, was in irgendeiner Art und Weise ablenkt, haben wir rausgenommen. Das war zwischendurch gar nicht so einfach. Also da musste man natürlich erst vorher mal gucken, okay, was ist jetzt wirklich, wirklich wichtig und was können wir eben auch weglassen, was überspannt den Bogen jetzt hier. Und ihr merkt vielleicht schon, das ist ziemlich komplex, das Thema generell und dann eben das auch mit Multimedia-Prinzipien noch auf den Arbeitsplatz zu bringen. Deswegen ist es grundsätzlich so, dass durch Multimedia-Prinzipien oder die Bemühungen, die man damit hat, die mentale Belastung der Lernenden erst einmal steigt, weil wir ja dann nicht nur einen Text haben, den sie lesen müssen, sondern eben in diesem Text auch noch mit der Abbildung Verknüpfungen entstehen und und und. Das ist erstmal also was, was man auch wissen muss, wenn man so ein Lernmaterial verwendet, dass es nicht unbedingt einfacher für die Schülerinnen das Ganze macht, sich mit dem Arbeitsmaterial auseinanderzusetzen. Aber die Hoffnung ist halt, dass durch die Bemühungen der Multimedia-Prinzipien die Lenrninhalte einfach besser miteinander verknüpft werden und so auch besser ins Langzeitgedächtnis gelangen können.

    Janine: Ich stelle mir das jetzt so vor bei diesen Multimedia-Prinzipien, wie du es gerade erklärt hast, gerade mit den ganz verschiedenen Ansätzen, die da quasi gleichzeitig zusammenkommen, dass das sozusagen der Versuch ist, alles prägnant und kurz darzustellen und aber vielleicht ja auch gleichzeitig den unterschiedlichen Lerntypen, sage ich mal, auch so ein bisschen entgegenzukommen, weil es gibt ja Menschen, die besser durch Texte lernen, Menschen, die besser mit visuellen Darstellungen klarkommen. Manche werden durch viele Farben eher verwirrt, für andere leitet es die Blickrichtung. Also ich stelle es mir tatsächlich sehr schwierig vor, für alle Lerntypen gleichzeitig was anbieten zu können, weil ja alle Schüler*innen immer vom gleichen Material lernen müssen. Und irgendwie klingt das so ein bisschen wie der Versuch, dass für alle ein bisschen was drin steckt...

    Leonie: Mhm.

    Janine: ...ohne dass es am Ende so überfordernd sein soll, dass niemand mehr was damit anfangen kann.

    Leonie: Ja, genau. Und ich glaube, das ist auch gerade die Schwierigkeit und das haben wir auch am Ende aus dem Ergebnis mit rausgenommen, also ohne jetzt vorgreifen zu wollen, aber das vielleicht schon mal so als kleiner Ausblick.

    Janine: Ja.

    Leonie: Also es war schon auch nicht einfach, das Lernmaterial dann zu erstellen und dann alles wirklich zu denken.

    Wie war die Untersuchung aufgebaut? (00:27:23)

    Janine: Wir haben jetzt einiges darüber gehört, was zum einen ja eure Ausgangsfragestellung ist, euer Forschungsinteresse in euren Masterarbeiten war und die verschiedenen Aspekte, die ihr euch erarbeitet habt, um das untersuchen zu können. Also zum einen das Thema konkret, was ist eigentlich das, womit sich die Schüler*innen auseinandersetzen müssen und dann eben auch die Idee, dass durch das Prinzip oder die Methode Stoffe verfolgen und durch die multimediale Aufbereitung die Grundlagen quasi geschaffen sind. Jetzt ist natürlich die spannende Frage, irgendwie müssen dann ja irgendwelche Daten erhoben worden sein. Also was war sozusagen euer Versuchsaufbau?

    Ina: Wir hatten im Grunde ein sogenanntes 2x2-faktoriales Design, damit werden jetzt Leute, die sich mit Forschung in dieser Richtung vielleicht auskennen, was anfangen können. Aber ich denke mal, die allgemeinen Zuhörenden, da ist jetzt eher so ein Fragezeichen im Kopf, was das zu bedeuten hat. Wir haben im Grunde mit mehreren Klassen gearbeitet, also wir hatten insgesamt zwölf Klassen, die teilgenommen haben und diese zwölf Klassen haben wir in vier Gruppen eingeteilt. Das heißt, wir hatten pro Gruppe drei Klassen und die hatten jeweils anderes Material und andere Aufgabenstellungen. Das heißt, wir haben eine Gruppe gehabt, also drei Klassen, die hatten unser Basismaterial und einen Basisarbeitsauftrag. Das war im Grunde die Kontrollgruppe. Die haben halt ein Material bekommen, da war ein Text und ein Bild, die haben wir dann nebeneinander gestellt. Das haben wir auch speziell ausgesucht, also Leonie hat das auch vereinfacht, also den Text von 1999, das war die angepasste Version, dazu dann das Bild von einem neueren Schulbuch und da haben wir dann aber keine Regentropfen und keine Kästen mit eingebaut, das war dann quasi das Standardmaterial, wo dann einfach der Text da war und das Bild. Dazu haben wir dann einen normalen Arbeitsauftrag bekommen, der irgendwie, also es war so, ja, erläutert, den Kohlenstoffkreislauf anhand der Abbildung und des Textes, das ist halt so ein Standardarbeitsauftrag, der in der Schule oft verwendet wird. Und das war dann die Gruppe, die halt Basis und Basis hatte, also die Kontrollgruppe. Und dann hatten wir eine Gruppe, die haben das Multimediamaterial bekommen und sollten darüber hinaus auch Stoffe verfolgen durchführen bei der Intervention. Das war dann quasi die Gruppe, wo wir beide Varianten, also einmal Leonies Schwerpunkt und mein Schwerpunkt kombiniert haben. Und weil wir ja auch herausfinden wollten, nicht nur was bringt vielleicht Multimedia und Stoffe verfolgen zusammen, was hat das zusammen für einen Effekt, sondern wir wollten ja auch so ein bisschen differenziert herausfinden, okay, was bringt eigentlich nur Stoffe verfolgen oder was bringen nur die Multimedia-Prinzipien, gibt es da vielleicht auch irgendwelche Effekte oder positiven Auswirkungen auf das Lernen. Und deswegen hatten wir dann im Grunde vier Gruppen, also noch eine weitere Gruppe, die dann das Standardmaterial bekommen hat und dazu aber Stoffe verfolgen machen sollte. Und dann hatten wir noch eine Gruppe, die hatte einen normalen Arbeitsauftrag und dafür aber das Multimediamaterial. Dadurch haben wir dann im Grunde vier verschiedene Gruppen gehabt, wo wir diese Intervention gemacht haben, das heißt, die haben sich mit dem Lerninhalt beschäftigt und jeweils die Aufgabenstellung mit dem Material gearbeitet. Und dann haben wir vorher und nachher jeweils den Lernstand getestet.

    Janine: Klingt auf jeden Fall soweit schon mal relativ aufwendig.

    Ina: Ja.

    Helena: Wie habt ihr denn den Lernstand getestet?

    Ina: Wir haben im Grunde ein, bevor wir dieses Lernmaterial ausgegeben haben, bevor die die Aufgabenstellung bearbeiten sollten, haben wir einen kleinen Vortest gemacht, also den Prätest. Da sollten die Lernenden dann Single- beziehungsweise Multiple-Choice-Fragen erstmal beantworten, also ganz simpel erstmal ankreuzen, wo wir dann so geschaut haben, was wissen die schon über die Photosynthese, was wissen die zur Zellatmung, wissen die, was für Verbindungen überhaupt Kohlenstoff enthalten, also so Sachen wie Glucose. Kennen die Glucose? Wissen sie, dass da Kohlenstoff drin ist? Und dadurch haben wir so ein bisschen versucht, erstmal zu erfassen, okay, haben die vielleicht schon sehr viel Vorwissen oder haben die sehr wenig Vorwissen zum Kohlenstoffkreislauf? Und dann haben wir nach der Intervention, also nachdem sie dann sich den Lerninhalt erarbeitet haben auf die eine oder andere Weise, haben wir dann einen Posttest gemacht. Da sollten die Lernenden dann im Grunde auf so einem ganz großen DIN-A3-Blatt den Kohlenstoffkreislauf einmal aufzeichnen. Da hatten wir schon so einen Busch einmal vorgegeben und einen Hirsch. Und dann sollten die versuchen, die beiden Organismen miteinander zu verbinden, durch den Kohlenstoffkreislauf aber auch noch Sachen dazu zu malen. Und dadurch haben wir dann im Grunde geschaut, okay, was schaffen sie dann selber in dieser freien Zeichnung noch aufs Blatt zu bringen, woran können die sich die Lernenden erinnern? Und das war dann im Grunde der Posttest. Das war eine offene Aufgabe. Dadurch war es auch relativ anspruchsvoll, das Ganze auszuwerten am Ende. Aber ich glaube, darauf gehen wir dann später nochmal ein.

    Janine: Ja, ich glaube, Leonie hatte das zwischendurch gesagt mit der mentalen Belastung noch, dass euch die auch interessiert hat. Wie habt ihr das denn versucht mitzuschneiden, wie es den Schüler*innen so geht während des Lernens und Anwendens dann vom Wissen?

    Leonie: Genau, gerade im Bezug auf die Multimedienprinzipien spielt die mentale Belastung ja auch eine Rolle. Und wir haben jetzt während des Lernens, also ich glaube, Ina und ich haben ganz interessante Erfahrungen in den Klassen gemacht, weil von den Schülern, gerade von den Jüngeren natürlich auch relativ schnell ein Feedback zurückkommt. Für unsere Masterarbeit an sich hatten wir einen kleinen Fragebogen erstellt, der für die Schülerinnen und Schüler vereinfacht hieß, wie hat euch das Material gefallen? Und da einfach so ein bisschen abgefragt wurde, okay, fandet ihr das Material anstrengend? Konntet ihr den Text verstehen? Wie war die Aufgabenstellung? Habt ihr das nachvollziehen können? Und das war so eine Likert-Skala, die konnten dann Stimme dem zu, Stimme dem nicht zu eben ankreuzen. Genau, und das haben wir hinterher dann in Bezug auf die kognitive Belastung eben noch ausgewertet, ja.

    Wie sah eure Untersuchung in der Praxis aus? (00:33:15)

    Helena: Wie sah das in der Praxis aus? Also, es ist ja erstmal schön einen Plan zu haben, was man in der Schule machen würde, aber man hat mit Menschen zu tun und Menschen tun Menschendinge.

    Leonie: Ja, das kann man ja auch vorher gar nicht planen. Also, wir hatten jetzt das große Glück, dass wir durch unser Material und durch auch den Prä-Test, Post-Test und die Mental-Load-Abfrage sehr viele ausgedruckte Blätter dabei hatten. Ich glaube, es waren insgesamt sieben Arbeitsblätter pro Kind. Dadurch war die Unterrichtsstunde an sich schon relativ strukturiert. Wir haben eben die Schülerinnen und Schüler auch gebeten, einen persönlichen Code zu erstellen, damit wir hinterher diese ganzen Arbeitsblätter eben auch einem Schüler oder einer Schülerin hinterher zuordnen können, weil das ging tatsächlich drunter und drüber hinterher mit den Zetteln. Ich habe viel sortiert zu Hause. Genau, und dann, das war erstmal so der erste Schritt, also einen persönlichen Code zu erstellen. Dann kam halt der Prä-Test. Das hat Ina ja vorhin schon schön gesagt, also wie war der Vorwissensstand der Schülerinnen und Schüler. Dann haben die je nach Gruppe eben das Arbeitsblatt bekommen, also entweder das Basismaterial oder eben das Multimediamaterial. Da gab es tatsächlich viele Fragen auch oft, gerade zu Begrifflichkeiten, die bei mir in den Gruppen aufgefallen sind. Die Fragen haben wir aber auch beantwortet, weil wir schon wollten, dass die Schülerinnen und Schüler eben auch was daraus mitnehmen und jetzt nicht "Ne, ihr dürft jetzt nur den Text lesen und wir machen jetzt hier nichts anderes, sonst verfälscht ihr womöglich Ergebnis oder so." Also da waren wir sehr liberal, würde ich jetzt mal sagen.

    Helena: Ich würde ja auch erwarten, dass man im normalen Unterricht ja auch Fragen stellen darf und sollte.

    Leonie: Genau.

    Helena: Deswegen wäre das ja eher verfälschend, wenn man das gerade nicht macht, also wenn man nicht beantwortet.

    Leonie: Ja, also wir hatten vorher die Angst, dass viele Schüler zu viel Hilfestellung haben möchten und das dadurch...

    Helena: Ah okay...

    Leonie: ...halt gerade auf den Posttest dann, also wenn ich jemandem jetzt was detaillierter erkläre, kann er den Posttest natürlich anders beantworten als jetzt andere. Aber das fand ich wahr. Also es waren Kleinigkeiten an Fragen. Ich habe auch oft die Schülerinnen und Schüler sagen lassen, vielleicht könnt ihr das in Partnerarbeit klären. Also das lief ziemlich gut und genau, dann gab es dazu eben Aufgaben, die bearbeitet wurden, eben auch je nachdem, ob wir in der Gruppe mit dem Stoffverfolgen waren oder in der Basis oder in der Kontrollgruppe eben, die dann einen Basisarbeitsauftrag hatten und sich das eben nur erklären sollten. Und dann haben wir gesagt, okay, jetzt sammelt ihr die Blätter, die ihr jetzt hattet, einmal ein, dreht die rum und legt die auf den Tisch. Und da war das lustig, weil gerade in den unteren Klassen bin ich nochmal rumgegangen, weil viele das Arbeitsmaterial natürlich ganz oben hatten, dann konnten die so ein bisschen durch, also es schien so durch und das sollte natürlich nicht sein. Also wir wollten ja jetzt, wir haben denen auch ausreichend Zeit gelassen, also die hatten wirklich, konnten uns zurück meinen, okay, wir haben jetzt alle den Text gelesen, wir sind jetzt soweit fertig, wir haben ihn mehr oder minder eben verstanden. Da wollten wir auch ausreichend Zeit für geben, das war uns sehr wichtig. Und jetzt kommen wir aber den Punkt nach diesem Arbeitsmaterial und nach den Aufgaben, jetzt wollen wir mal gucken, was ist denn hängen geblieben. Und da waren viele Schüler erstmal so, okay, was kommt jetzt? Und dann haben wir eben das große DIN-A-3-Blatt ausgeteilt mit dem Busch und dem Hirsch drauf und haben gesagt, so, jetzt zeichnet doch bitte mal den Kohlenstoffkreislauf so, wie ihr ihn euch gemerkt habt, zeichnet Pfeile ein, beachtet, dass der Kreislauf eben auch geschlossen werden muss und haben dann die Schülerinnen und Schüler zeichnen lassen. Hinterher, das ist leider relativ kurz oft ausgefallen, weil die Schülerinnen und Schüler sich sehr mit der Zeichnung beschäftigt haben, haben wir sie noch gebeten, die Zeichnung so ein bisschen zu beschreiben, damit wir hinterher eine Auswertung nicht unbedingt Rätsel raten. Soll das ein Hirsch sein? Was haben sie da gezeichnet? Wir haben auch gesagt, stresst euch nicht mit Zeichnung, sonst beschreibt halt was drüber, was es ist. Es war halt wichtig, noch so zwei, drei Sätze einfach lesen zu können, wie, was habt ihr da genau gezeichnet? Und das ist leider zeitlich oft nicht mehr hingekommen, weil viele Schüler oder Schülerinnen sich mit der Zeichnung dann sehr weiträumig auseinandergesetzt haben. Und als ganz letzter Schritt haben wir dann eben noch die Frage gestellt, wie hat euch das Material gefallen, wo gab es Schwierigkeiten? Und da waren dann auch, also viele haben dann auch drunter geschrieben, coole Stunde, super Material, aber war halt wirklich kompliziert oder gerade die achten Klassen, in denen wir das gemacht haben, da hat man schon in der Erarbeitung eben gemerkt, okay, das Thema und vielleicht auch das Material ist einfach wirklich zu komplex. Aber alles in allem, ich weiß nicht, wie es Ina ging. Ich fand es ganz cool. Ich hatte vorher deutlich mehr Sorgen und bei mir haben die Schülerinnen und Schüler wirklich gut mitgemacht.

    Ina: Ja, das war bei mir auch ähnlich und ich fand es total spannend, wie unterschiedlich die auch mit dem Material umgegangen sind oder wie die die Aufgabenstellung interpretiert haben. Und das dann so im Vergleich zu sehen, das war schon ganz spannend. Und ich habe zum Beispiel ganz oft gesehen, dass die dann den Busch hatten und auf dem Arbeitsblatt vorher war ein Baum zu sehen. Und dann haben die immer angefangen, dem Busch dann aus den Stammen drunter zu malen, damit das so aussieht wie am Arbeitsblatt vorher.

    Janine: Okay, also das ist auf jeden Fall dann schon mal hängen geblieben.

    Ina: Genau, Bäume sind wichtig.

    Helena: Hast du ein Beispiel, was die unterschiedlich interpretiert haben?

    Ina: Also wir haben im Grunde zwei Aufgaben gehabt. Einmal das Stoffe verfolgen oder das erklären. Und davor sollten die sich mit drei verschiedenen Farben noch was auf dem Blatt markieren, um das so ein bisschen in Vorzeit zu lassen, dass sie sich das auch wirklich genau anschauen. Also dann sollten die halt in braun, grün und grau diese drei Kreisläufe einmal einzeichnen auf dem Bild im Grunde, das wir eingefügt hatten, damit die dann, wenn sie sich das später erklären, einfach diese Zeichnung von sich selber auch verfolgen können. Und da haben die ganz unterschiedlich Sachen eingemalt. Also manche haben dann im Text da noch Schlangen drum gemalt und manche haben dann nur auf dem Bild gearbeitet. Manche haben auf allen drei Bildern was gemalt, manche nur auf einem. Also das war sehr spannend. Im Nachhinein haben wir auch gedacht, okay, vielleicht hätte man diese Aufgabe doch anders stellen sollen. Das war dann doch etwas missverständlich.

    Helena: Okay.

    Leonie: Genau. Und gerade bei dieser Aufgabe haben bei mir zum Beispiel auch Kinder angefangen, auf einem Extrablatt den Kreislauf schon zu zeichnen. Also das, was ja eigentlich im Posttest stattfinden sollte. Und das habe ich dann halt auch unterbrochen. Aber das war wirklich, also die Aufgabe ist so oft völlig unterschiedlich interpretiert worden. Ja, das ist auf jeden Fall hängen geblieben.

    Janine: Ich weiß noch, Achtung, Outing aus der Grundschule. Wir hatten mal so eine Aufgabe bekommen, da sollten wir so Schlangen malen im Kunstunterricht. Und mehrere Schlangen auf einem Blatt und wir sollten Schlangen mit verschiedenen Mustern malen. Die meisten Kinder haben das richtig interpretiert, in der Intention der Lehrkraft und haben eine Schlange mit Kringeln gemalt, eine Schlange mit, keine Ahnung, Dreiecken als Schuppenmuster. Und was habe ich gemacht? Ich habe jede Schlange in verschiedene Sektionen eingeteilt und jede Sektion hat ein anderes Muster bekommen, weil wir sollten ja Schlangen mit verschiedenen Mustern malen. So stelle ich mir das auch so ein bisschen vor. Also Aufgabenstellung und die Interpretation ist manchmal tatsächlich interessant.

    Leonie: Ja, auch für uns irgendwie ein Zeichen als zukünftige Lehrkräfte, da nochmal genauer drauf zu schauen. Also was stellen wir für Aufgabenstellung? Ich weiß, Ina hatte auch richtig Probleme, irgendwie überhaupt eine passende zu finden. Und wie stellen wir die und wie wird sie hinterher denn eben auch verstanden oder wie stellen wir sie so, dass sie richtig verstanden wird? Ich glaube, das hat uns das Ganze nochmal sehr verdeutlicht.

    Janine: Ja.

    Wie wurde die Auswertung gemacht? (00:40:51)

    Helena: Ja, gut. Jetzt habt ihr ganz viele Klassen. Ihr habt ja gesagt zwölf gehabt, in denen ihr wart und dann habt ihr angefangen, das Ganze auszuwerten. Wie seid ihr da vorgegangen?

    Leonie: Ja, es war eine recht umfangreiche Auswertung. Genau, erst mal vielleicht, um am Anfang anzufangen, also der Prätest waren ja Single- und Multiple-Choice-Fragen, wo wir Punkte vergeben haben für eben jeweils richtige. Wir haben dann den Mittelwert, den Median, die Standardabweichung berechnet und daraus eben hinterher in unserer Masterarbeit geschaut, okay, wir hatten ja die Klassen dann nachher auch in Gruppen eingeteilt. Welche Gruppe hatte das meiste Vorwissen? Ziel war es ja eigentlich, alle Gruppen haben ungefähr das gleiche Vorwissen und wir durch unsere Intervention bringen den Kindern dann was bei. Das war auch so. Also wir hatten das große Glück, wir hatten zwar sehr unterschiedliche Gruppen, weil wir ja Klasse 8 bis 10 hatten, aber wir hatten das Glück, dass die alle recht ähnliches Vorwissen hatten. Ja, beim Posttest haben wir dann einen Kodierleitfaden erstellt. Wir hatten ein DIN-A3-Blatt mit Zeichnungen, die sehr, sehr unterschiedlich ausgefallen sind und Ina und ich hatten uns vorher auf Grundlage der Forschung und auf der Grundlage auch unserer Lernziele, die wir uns ja vorher gedacht hatten und auch der Hypothesen, die wir aufgestellt hatten, haben wir einen Kodierleitfaden erstellt. Also okay, was muss drin sein? Ist der Kreislauf geschlossen gezeichnet? Haben sie die Destruenten eingefügt, die wir extra nicht eingefügt hatten? Das waren so die einzelnen Kategorien und die haben wir dann nochmal untergliedert. Also ist der Kreislauf wirklich mit Pfeilen geschlossen? Gibt es die einzelnen Teilkreisläufe oder haben wir nur einen großen Kreislauf? Das ging dann wirklich, ich weiß gar nicht, wir hatten glaube ich hinterher acht oder neun Kategorien, die wir bei der Auswertung dann auch noch sehr stark erweitert haben. Also wir haben sowohl deduktiv begonnen als auch induktiv das Ganze dann später noch deutlich erweitert und auch noch weiter untergliedert. Zum Beispiel beim Herkunftsort vom CO2, was die Produzenten ja aufnehmen für die Photosynthese. Das kommt halt aus der Umgebungsluft. Gab's für uns erstmal zwei Punkte sozusagen und viele Schülerinnen und Schüler haben aber auch gesagt, okay, die Destruenten, die das ja verarbeiten, auch die Konsumenten, die atmen das ja aus und von da aus gelangt es direkt zur Pflanze. Das hatten wir so gar nicht mitbedacht und da mussten wir dann hinterher gucken, okay, zählt das auch für uns zwei Punkte oder ist das halt nochmal was, was wir anders bepunkten würden. Ja, das war tatsächlich sehr interessant.

    Helena: Was war das Ergebnis? Wie habt ihr es bepunktet dann?

    Leonie: Wir haben nochmal 1,5 Punkte dafür vergeben. Also wir haben das nochmal deutlich untergliedert gehabt, weil es auch oft nicht unbedingt deutlich war. Also die Pfeile führten manchmal auch so ins Nichts und dann musste man halt hinterher gucken, okay, wie ist das vielleicht gedacht und kann ich dafür überhaupt Punkte vergeben? Da haben Ina und ich tatsächlich nochmal einige Überarbeitungsschleifen gebraucht, aber ich glaube, wir sind beide sehr zufrieden mit dem Ergebnis gewesen und konnten damit halt dann wirklich auch eine gute Auswertung machen. Genau und zur Mental Load Abfrage, das war eben eine Likert-Skala und da haben wir dann Punkte vergeben, vier Punkte bei einer sehr hohen Ausprägung. Also wenn die Schülerinnen und Schüler gesagt haben, ich stimme dem voll zu, das super komplizierter Text war, gab es eben vier Punkte und wenn sie gesagt haben, nö, der Aussage stimme ich gar nicht zu, gab es dann eben ein.

    Helena: Also das war so eine typische Skala, die Likert-Skala ist eine ohne Mitte.

    Leonie: Genau.

    Helena: Also es gibt kein Neutral. Okay.

    Leonie: Genau. Wir haben sowohl in dem Codierleitfaden als auch eben in der Mental Load und dem Prätest ja hinterher dann Zahlen gehabt oder sozusagen Punkte und eben auch ein Gesamtergebnis und mit diesen Punkten haben wir dann weitergerechnet.

    Janine: Das heißt, ihr habt das, was ich vorhin ganz am Anfang gesagt habe, dass das nicht zählbar ist, ihr habt das nicht zählbare zählbar gemacht dadurch.

    Ina: Wir haben es versucht.

    Leonie: Genau, wir haben es versucht, das Ganze zählbar zu machen, um es dann eben auswerten zu können. Ich glaube aber, dass sowohl Ina als auch ich ganz viele zwischenmenschliche Dinge eben auch bemerkt haben, die nicht zählbar sind, die wir für uns aber mitnehmen können.

    Janine: Sehr schön.

    Ina: Genau und da musste man das Zählbare auch irgendwie vergleichen und das haben wir mit Hilfe von einer Varianzanalyse gemacht. Das heißt, wir haben versucht herauszufinden, okay, haben unsere verschiedenen Interventionen auch unterschiedliche Lernerfolge mit sich gebracht. Das heißt, wir haben dann diese Varianzanalyse gemacht, mit der man dann drei oder mehr Gruppen, in unserem Fall waren es ja vier Gruppen, eben vergleichen kann und versucht herauszufinden, okay, besteht da irgendwie ein Unterschied. Konkret haben wir das mit dem Kruskal-Wallis-Test gemacht. Da hat uns glücklicherweise auch unsere Dozentin ganz viel unterstützt. Das war wirklich großartig. Mit den ganzen Tests dann.

    Leonie: Großes Danke an dieser Stelle.

    Ina: Genau. Mit diesem Test konnten wir dann im Grunde schauen, okay, unterscheiden sich mindestens zwei von den vier Gruppen signifikant voneinander. Also, dass es auch irgendwie ein messbarer Unterschied ist und nicht zufällig. Und dieser Test allein hat uns aber noch nicht gesagt, welche der Gruppen sich unterscheiden. Das heißt, da musste noch mal weitere Tests gemacht werden. Das waren dann die Post-Hoc-Tests.

    Helena: Ah okay.

    Ina: Und die konnten uns dann wirklich genauer sagen, okay, Gruppe A unterscheidet sich von Gruppe C signifikant und dann konnten wir das wieder auswerten und schauen, okay, was war das für eine Gruppe und was lässt sich daraus interpretieren. Und dann haben wir halt zusätzlich zu diesen Signifikanzen auch noch die Effektstärke berechnet, um dann auch zu schauen, okay, hat das denn wirklich auch einen Effekt und bringt es wirklich dann, was sich die Mühe zu machen? Oder sind das vielleicht zwei Unterschiede, die aber nicht wirklich hilfreich sind, um das Verständnis zu fördern?

    Helena: Genau. Signifikanz meint dabei, dass es unwahrscheinlich ist, dass das durch reinen Zufall passiert ist. Da wird häufig so eine fünfprozentige Wahrscheinlichkeit, dass es durch reinen Zufall passiert ist. Angenommen, ein Problem ist, wenn man im Laufe der Auswertung das Auswertungsverfahren ändert, ist, dass man natürlich auch an diesen fünf Prozent manipulieren kann. Also das sollte man grundsätzlich mitbedenken. Deswegen ist es auch sehr relevant, noch die Effektstärke zu messen und sich anzugucken. Also wie groß ist eigentlich der Unterschied? Weil es bringt ja nichts, dass etwas, keine Ahnung, mit hoher Wahrscheinlichkeit signifikant ist, wenn man trotzdem kein, ja nur sieht, ja die wissen jetzt vielleicht ein Detail mehr. Das würde ja vielleicht den Aufwand gar nicht rechtfertigen. Deswegen ist die Effektstärke als zusätzlicher Faktor eigentlich auch sehr wichtig. Aber wenn man jetzt nur zwei Leute hat, denen man was beigebracht hat und die eine Person hat es verstanden und die andere nicht, dann ist die Effektstärke sehr groß, potenziell. Aber dass das rein zufällig aufgrund der Auswahl der Personen passiert, ist wiederum auch sehr hohe Wahrscheinlichkeit. Da ist dann die Signifikanz nicht gegeben. So als Gegenbeispiel. Und ihr habt ja mit zwölf Klassen doch eine recht nennenswerte Anzahl von einigen hundert Menschen gehabt.

    Leonie: Ja.

    Helena: Das ist ja schon ganz gut.

    Ina: Genau, wir hatten 247 Lernde, die teilgenommen haben.

    Wie sieht das Ergebnis aus? (00:47:44)

    Janine: Sehr gut. Jetzt natürlich die spannende Frage, wie das so mit den Ergebnissen aussieht. Mir fällt es gerade tatsächlich selber schwer, die Frage richtig gut zu formulieren, weil ihr bestimmt auch nicht eindeutig sagen könnt, gerade wegen der vielen Unterschiede, die ihr auch während der Aufgabenstellung oder während des Bearbeitens der Aufgaben schon festgestellt habt, ist es wahrscheinlich gar nicht so leicht zu sagen, okay, das ist jetzt unser absolutes Ergebnis. In der Gruppe hat es am allerbesten funktioniert. Oder gibt es da so etwas?

    Ina: Ja, also es war sehr kompliziert, weil wir ja auch ganz viele verschiedene Kategorien hatten. Leonie hat ja gerade erklärt, dass wir beim Posttest diese Kodierleitfaden hatten. Der hatte ja über zehn Kategorien. Und das heißt, wir hatten ja ganz viele Hypothesen und ganz viele Fragestellungen mit so Details vom Kohlenstoffkreislauf, was vielleicht verstanden wurde oder auch nicht. Und da mussten wir da erst mal versuchen, so ein Muster auch drin zu sehen. Das war gar nicht so einfach. Und eins von unseren Forschungsinteressen war ja auch zu schauen, schaffen sie es, noch die Destruenten zu ergänzen auf der Abbildung. Denn wir haben im Posttest ja eine Zeichnung vorgegeben, wo schon ein Busch zu sehen war und ein Hirsch, aber das war ja nur der Produzent und der Konsument. Aber die Gruppe der Destruenten hat da ja noch gefehlt. Das heißt, uns hat zum Beispiel interessiert, okay, schaffen sie es, die Destruenten auch noch zu ergänzen, die ja für den gesamten Kreislauf auch eine genauso wichtige Rolle spielen wie dann die Produzenten oder die Konsumenten. Und da haben wir uns nämlich an vorangegangener Forschung orientiert. Die haben nämlich einen ähnlichen Test schon mal gemacht. Das war auch von unserer Uni aus. Und da ist festgestellt worden, dass bei den meisten Lernenden überhaupt nichts ergänzt wurde. Dann haben die nur mit den Produzenten und den Konsumenten gearbeitet, aber die Destruenten sind halt in Vergessenheit geraten. Allerdings ist dabei bei der Untersuchung nichts vorangestellt worden an Erarbeitung. Das heißt, uns hat interessiert, okay, wenn wir das jetzt erarbeiten auf die eine oder andere Weise, bringt das überhaupt was, dass vielleicht auch die Destruenten dann auftauchen? Da haben wir dann festgestellt, es hat funktioniert. Also es haben ganz viele Lernende die Destruenten ergänzt. Allerdings, wenn wir jetzt unser Forschungsinteresse in Bezug auf Multimedia-Prinzipien oder auf Stoffe-Verfolgen genau anschauen, dann kann man da eigentlich keine Unterschiede sehen. Also es haben sowohl die Lernende mit dem Basismaterial oder der Basisaufgabe geschafft, die Destruenten zu ergänzen, aber auch die mit Stoffe-Verfolgen oder Multimedia-Prinzipien. Aber es gab jetzt keine nennenswerten Unterschiede, dass sie es mit den Multimedia-Prinzipien besser geschafft haben, als die mit dem Basistext und dem Basisbild. Das heißt, das war jetzt erstmal interessant, dass es mit der Erarbeitung geklappt hat, das zu ergänzen, dass dann Bewusstsein für entstanden ist, aber jetzt nichts, was spezifisch auf unsere Forschungsschwerpunkte zurückzuführen wäre.

    Janine: Ihr hattet ja ein Problem am Anfang skizziert, dieses Switchen zwischen Kohlenstoff und Sauerstoff. Habt ihr da auch etwas beobachten können?

    Ina: Also wir haben etwas beobachten können, aber das war nicht so, wie wir es erwartet haben. Und zwar haben wir ja gedacht, dadurch, dass wir jetzt bei den Multimedia-Prinzipien wirklich auch den Kohlenstoff zum Beispiel durch die Farben hervorheben und auch mal genau gekennzeichnet haben oder durch das Stoffe-Verfolgen, dass die sich ja genau den Kohlenstoff anschauen sollen und durch den Kreislauf verfolgen sollen, dass dadurch ja eigentlich hätte entgegengewirkt werden sollen, dann zum Sauerstoff zu wechseln. Das hat allerdings gar nicht so gut geklappt, wie wir das erst erwartet haben, denn wir konnten bei ja eigentlich allen Gruppen sehen, dass die Lernenden oder dass immer noch ein großer Teil der Lernenden immer wieder zwischen den Atomen gewechselt ist. Also dass dann mal der Kohlenstoff verfolgt wurde, dann ist der Kohlenstoff aber vergessen worden und dann wurde doch wieder beim Sauerstoff weitergemacht, obwohl ja der Kohlenstoff gezeichnet werden sollte. Das heißt, wir mussten feststellen, dass eigentlich das, was wir versucht haben, ja denen beizubringen oder auch dieser Knackpunkt, dass der gar nicht so rübergekommen ist, wie wir das allein auf Basis der Theorie erwartet haben. In allen Gruppen gab es Lernende, die haben wirklich nur den Kohlenstoffkreislauf beschrieben und sind dabei geblieben, aber es gab auch in allen Gruppen Lernende, die eben nicht konsequent beim Kohlenstoff geblieben sind und dann manchmal wieder zum Sauerstoff gewechselt sind. Das heißt, da wäre so ein Punkt, wo man dann noch mal weiter überlegen müsste, wie man das Ganze überarbeiten kann.

    Janine: Gab es denn irgendeinen Punkt, an dem euch wirklich Unterschiede aufgefallen sind zwischen dem Material?

    Ina: Ja, also ein bisschen was haben wir dann doch feststellen können. Und zwar habe ich ja ganz am Anfang, wo ich versucht habe, den Kohlenstoffkreislauf zu erklären, habe ich ja bei diesen verschiedenen Organisationsebenen erwähnt. Das heißt, man hat einmal die Ebene vom Organismus, wo man sich jetzt nur die Pflanze anschaut oder nur das Tier anschaut. Und dann gibt es aber auch noch die Ebene von den Molekülen. Und das ist dann eine andere Organisationsebene, wo man dann sich anschaut, okay, was gibt es denn da für eine chemische Reaktion zum Beispiel zwischen Sauerstoff und Kohlenstoff, die dann zum Beispiel zu Kohlenstoffdioxid sich ja auch vereinen, wenn man das jetzt so ganz platt ausdrücken möchte. Ja, da haben wir dann festgestellt, dass das doch Effekte hatte. Also es wurden jetzt keine Fressbeziehungen beschrieben, wo einfach nur gesagt wurde, ja, das Tier frisst die Pflanze und scheidet das wieder aus und stirbt. Sondern es hat auch funktioniert, dass die Lernenden aufgeschrieben haben, okay, da ist gerade CO2, da ist Glucose, da haben wir vielleicht noch Wasser oder Sauerstoff und die reagieren damit. Das heißt, man konnte öfter diesen Wechsel auf die Organisationsebene der Moleküle sehen, was halt wichtig ist, um auch die Veränderung, zum Beispiel die Veränderung des Aggregatzustands vom Kohlenstoff zu verstehen. Und das heißt, das hat schon irgendwie funktioniert, aber es hat noch nicht so in dem Maß geklappt, wie wir uns erhofft haben, dass sie etwas lernen dabei.

    Leonie: Was man vielleicht auch noch sagen kann zu den Ergebnissen, uns war es von Anfang an wichtig, dass wir allen Schülern die Möglichkeit geben, was aus der Unterrichtsstunde mitzunehmen. Also wir wollten auch die Kontrollgruppe, dass die etwas mitnimmt und dass die den Kohlenstoffkreislauf eben in der Stunde auch ordentlich bearbeiten. Dadurch hatte das Material, welches eben auch die Kontrollgruppe hatte, das haben wir ebenfalls bearbeitet. Also die Darstellung war nicht die ursprüngliche aus dem Buch und auch der Text war in gewissen Ansätzen angepasst. Natürlich lange nicht so wie beim Multimediamaterial, aber wir haben hinterher in der Interpretation eben auch festgestellt, dass diese kleinen Überarbeitungssachen, die wir in den Basistext irgendwie drin hatten, eben schon eine große Wirkung erzielt haben, weil auch die Kontrollgruppe in vielen Bereichen eben auch bei den Trophie-Ebenen zum Beispiel durchaus was mitgenommen hat. Für mich zeigt das eben für zukünftige Lehrmaterial, auch kleine Veränderungen können da finde ich schon ganz, ganz viel bringen. Also es war irgendwie unser Anspruch, dass wir jetzt nicht die Kontrollgruppe, dass die gar nichts lernt, aber das ist vielleicht etwas, was unsere Ergebnisse dahingehend halt sehr stark beeinflusst hat, wo die Gruppen dann nicht mehr so stark voneinander sich unterschieden hätten, als hätten wir der Kontrollgruppe jetzt ein viel, viel, viel schlechteres Material an die Hand gegeben.

    Helena: Das habt ihr denn verglichen mit dem Stand der Forschung? Also die Kontrollgruppe, was die gelernt hat im Vergleich zu dem, was ihr gelesen habt, was da die Kontrollgruppen gelernt haben? Oder woher wisst ihr, dass das was gebracht hat?

    Ina: Wir haben es im Grunde damit verglichen, was die sich vorgestellt haben bei der gleichen Aufgabe, wo vorher nichts erarbeitet wurde, wo es einfach vorher mal im Unterricht drangekommen ist. Genau, und ursprünglich war auch die Idee, es mit so einem normalen Material, was direkt so im Schulbuch zu finden war, zu erarbeiten. Allerdings ist halt in der Forschung vor uns so verschiedene Kriterien dargestellt, die überhaupt eine Voraussetzung sind, damit es möglich ist, zum Beispiel Stoffe verfolgen zu machen. Und die waren leider bei keinem der Schulbuchmaterialien gegeben. Also eins der Kriterien war beispielsweise, dass Photosynthese und Zellatmung beide vorkommen müssen. Aber ganz oft wurde zum Beispiel die Zellatmung ausgelassen auf der Schulbuchseite über den Kohlenstoffkreislauf. Und dadurch würde ja schon die Hälfte von vornherein fehlen, was die gar nicht lernen können, sodass wir halt dementsprechend auch wieder aussortiert haben. Oder eine andere Voraussetzung war halt, dass man überhaupt den Kohlenstoff erkennen kann im Material, also beispielsweise durch etwas, was eingezeichnet wird als Molekül oder durch etwas, was sprachlich sichtbar wird. Oder auch die Ausgangsstoffe und die Endstoffe der jeweiligen Prozesse, die mussten auch angegeben sein, damit es überhaupt möglich ist, Stoffe verfolgen, durchzuführen. Und dementsprechend haben wir dann auch feststellen müssen, dass es nicht klappt, eine normale Schulbuchseite zu nehmen, sondern mussten das dann auch schon etwas überarbeiten.

    Janine: Geschweige denn wahrscheinlich Schulbuchmaterial aus den 90ern.

    Ina: Genau.

    Was waren die größten Schwierigkeiten? (00:56:23)

    Janine: So ein bisschen klang es ja auch jetzt gerade so an. Was waren denn so eure größten Schwierigkeiten, auf die ihr im Laufe eurer Untersuchung gestoßen seid?

    Leonie: Ja, vor allen Dingen in der Vorarbeit, also bevor wir überhaupt eingestiegen sind und in die Schulen gegangen sind. Das Lernmaterial zu gestalten, hat mehrere Überarbeitungsschleifen benötigt. Wir haben sehr viel darüber gesprochen, bis wir hinterher ein Lernmaterial hatten, wo wir gesagt haben, so, damit sind wir zufrieden, damit können wir jetzt weitermachen. Und darauf aufbauend waren bei uns sehr, sehr große Schwierigkeiten, überhaupt mögliche Lerngruppen zu finden, die das Lernmaterial bearbeiten. Der ursprüngliche Plan war, in die 9./10. Klasse zu gehen, also das eher mit älteren Schülern durchzuführen. Wir haben aber super wenig Rückmeldung von Lehrerinnen und Lehrern bekommen und mussten dann eben das Ganze etwas ausweiten, weil die Stichprobe sonst einfach viel zu klein geworden wäre. Dadurch haben wir dann auch noch 8. Klassen eben mit einbezogen und auch EF hatten wir dann nachher mit drin. Also wir haben das Ganze dann deutlich erweitert, um eben eine große Strichprobe erhalten zu können.

    Janine: Wofür steht EF?

    Leonie: Das ist die Einführungsphase, also sozusagen nach der 10., wenn die Schülerinnen und Schüler dann weitermachen und in die Oberstufe gehen.

    Janine: Ah ja, okay.

    Leonie: Genau, und zum Beispiel die Wahl auf die 8. Klasse ist dann auch gefallen, weil wir von mehreren Lehrkräften auch rückgemeldet bekommen haben, so, ja, fachlich passt das gar nicht in die 9./10. Klasse, das hatten die alle schon in der 7. Und das passt uns überhaupt nicht in den Lehrplan oder den Ablauf, den sie sich vorgestellt haben für das Schuljahr. Und dadurch, dass unsere Untersuchung auch direkt nach den Sommerferien stattgefunden hat, waren sie ja quasi, die 8. Klässler ja noch relativ nah an der 7. Dadurch haben sich die Lehrkräfte dann auch eher noch mal breitschlagen lassen. Ja, hatten wir ja gerade erst, das passt thematisch dann doch irgendwie noch ins Programm. Da waren wir auch sehr erstaunt, weil wenn das normalerweise Thema in Klasse 7 sein sollte und gerade die 8. Klässler ja auch noch Schwierigkeiten hatten, obwohl sie das Thema ja scheinbar schon mal hatten in der Schule, waren wir sehr überrascht, dass es dann für die 9./10. Klasse von vielen Lehrkräften als unsinnig abgetan wurde.

    Janine: Ja, auf jeden Fall. Wie war das überhaupt? Also ihr seid dann konkret zu Schulen und Lehrkräften hin und habt dann direkt gefragt, können wir das in der Klasse machen? Und ein oder zwei Unterrichtsstunden haben die dann wahrscheinlich opfern müssen dafür oder wie sah das genau aus?

    Leonie: Genau, wir hatten persönlichen Kontakt, zum Beispiel durch das Praxissemester, das ist ein langes Praktikum, was man im Lehramt, im Master eben durchführen muss. Da sind wir zum Beispiel auf die Schulen herangetreten, weil wir da einfach persönlichen Kontakt schon hatten. Genau, und haben da E-Mails hingeschrieben und haben aber ja da wenig positive Rückmeldung eben gekriegt.

    Janine: Ich finde es erstaunlich, dass da so wenig positive Rückmeldung kommt, weil das doch eigentlich ja auch im Interesse irgendwo mit drin sein sollte. Also schade eigentlich eher ist vielleicht das richtige Wort, dass euch da so ein bisschen Steine in den Weg gelegt wurden.

    Leonie: Ich glaube tatsächlich, dass gerade im Schulalltag oft vor allen Dingen vielleicht auch nur erst mal das Gefühl besteht, es passt einfach gerade nicht rein...

    Janine: Mhm.

    Leonie: ...weil die Lehrer uns eben auch Unterrichtszeit abgeben mussten. Das waren in unserem Fall jetzt so 90 Minuten. Je nach Schule waren das dann eben so ein bis zwei Unterrichtsstunden. Und man natürlich, man hat einfach einen begrenzten Zeitrahmen, in den man sehr, sehr viel in den Unterricht integrieren muss. Und gerade in der 10. Wo es vielleicht auch, ich meine klar, jetzt kurz nach den Sommerferien, der Abschluss ist dann noch ein Stückchen weiter weg. Und in Biologie ist jetzt auch kein super relevantes Thema für den Abschluss jetzt zumindest in der 10. Klasse. Aber trotzdem sind da viele Lehrer dann einfach an ihren Zeitplan und haben einfach Sorge, dass sie dann mit ihren Themen nicht durchkommen. Und ich glaube, was auch erschwerend dazu kommt, ich bin jetzt Studentin, ich schreibe jemanden an, ich möchte was durchführen. Dabei weiß aber der Lehrer ja gar nicht, was kommt an Arbeit auf mich noch zu.

    Janine: Ja.

    Leonie: Also der Workload ist eh schon riesig. Und jetzt tritt noch wer an mich heran, der möchte den vielleicht sogar noch größer machen. Ich glaube, dass viele da dann einfach schon sagen, nee, das kann ich gerade nicht. Was ich durchaus verstehen kann, was für uns aber jetzt in der Situation super schwierig war und super schade und was natürlich auch für die Forschung, gerade im Hinblick auf Lehrmaterial, das Ganze sehr zurückwirft. Ne, weil man eben dann zu wenig Schüler hat oder Schüler, mit denen man das dann erkunden kann oder testen kann. Ja.

    Janine: Ja. Haben wir sonst noch etwas oder wollen wir so ein bisschen ins Fazit übergehen?

    Leonie: Also was ich vielleicht noch zu den Ergebnissen sagen möchte, ich glaube, das ist noch leider so ein bisschen untergegangen.

    Janine: Ja, gern.

    Leonie: Also grundsätzlich haben wir auch gerade im Bereich Multimedia eher nicht so positive Ergebnisse gehabt, wie wir uns das erhofft hatten. Was wir aber schon sagen können, auf Grundlage unserer Untersuchung, ist, dass die Kombination aus den Multimedia-Prinzipien und der Aufgabenstellung des Stoffeverfolgens durchaus den Lernerfolg gesteigert hat. Und dass das für uns ganz wichtig war, zu sehen, okay, das Lernmaterial auf der einen Seite spielt eine super wichtige Rolle, aber es muss eben auch eine gute Aufgabenstellung sein, damit das Ganze überhaupt verarbeitet werden oder auch weiterentwickelt werden kann. Das war für uns einfach dann auch cool zu sehen, weil wir hatten zu zweit ja super viel Arbeit da reingesteckt und gerade das war dann auch eben irgendwie der Knackpunkt, der dann den Erfolg gebracht hat.

    Ina: Genau, weil einzeln haben wir gar nicht so viele Effekte feststellen können, wenn es dann nur um das Stoffeverfolgen oder nur um die Multimedia-Prinzipien ging. Aber wenn man dann die Kontrollgruppe verglichen hat mit der Gruppe, die dann beides hatte, da hat man bei den verschiedenen Kategorien immer noch die größten Unterschiede feststellen können oder am ehesten nochmal Effekte, wenn es auch nur kleine Effekte waren. Das war für uns persönlich erstmal schön, was dann wirklich dabei herauskommt oder nochmal genauer erforscht werden muss. Dann müsste man da nochmal weitergucken.

    Janine: Meint ihr, das kann ein bisschen, ich hatte das ja vorhin so gesagt, es gibt verschiedene Lerntypen, meint ihr, das kann ein bisschen damit zusammenhängen, dass in der Kombination einfach für alle so ein bisschen mehr angeboten wurde, als nur so die reinen Basisaufgaben oder nur eine spezielle Ergänzung?

    Leonie: Ich kann mir das durchaus vorstellen, dass wir da, weil wir uns ja sehr breit aufgestellt hatten dann, dadurch unterschiedliche Lerntypen angesprochen haben. Ich kann mir das durchaus vorstellen. Ist jetzt natürlich nur eine Vermutung, aber ja, durchaus.

    Janine: Ja, manchmal sind ja so Vermutungen als Forschungsergebnisse gar nicht verkehrt, weil man eine neue Fragestellung daraus bauen kann, mit der dann weiter untersucht werden kann. Ja, sehr schön.

    Fazit (01:03:05)

    Helena: Gut, jetzt haben wir sehr viel dazu gehört, was ihr gelernt und gemacht habt. Dann können wir jetzt eigentlich zum Fazit kommen. Also mein Fazit ist, es ist durchaus möglich, auch quantifizierbare Aussagen zu bekommen, auch wenn man jetzt irgendwie mit Menschen zu tun hat und deren Wissen irgendwie bewerten muss, ob man was gelernt hat. Also es ist möglich, Lehrmethoden zu erforschen und nicht nur sich aufs Gefühl zu verlassen, sondern eben auch am Ende Zahlen raus zu generieren. Und es bringt tatsächlich was, Lehrmaterialien besser zu machen. Und wenn es auch nur die Basismaterialien sind, die man etwas verbessert, also das ist doch auch schon ziemlich schön zu hören. Was denn so euer Fazit? Leonie, magst du anfangen?

    Leonie: Also wir haben auf jeden Fall in der Arbeit schon gemerkt, dass der Kohlenstoffkreislauf ein unglaublich komplexes Thema ist, was aber eben super wichtig ist, auch im Hinblick zum Beispiel auf die Klimaerwärmung. Und das hatte ich ja auch schon am Anfang gesagt, wir können eben dadurch, dass wir so viele Facetten in diesem Kreislauf drin haben, können wir damit ganz, ganz viel in der Biologie miteinander vernetzend eben darstellen und dass es super viel Potenzial für den Unterricht bringt. Außerdem habe ich für mich mitgenommen, dass sowohl Stoffüberfolgen als auch Multimedienprinzipien unglaubliches Potenzial haben und eben in der Schule auch genutzt werden können. Die Erarbeitung der Materialien war durchaus sehr, sehr zeitaufwendig, also das kann nicht im Alltag immer so stattfinden. Aber vielleicht kommen wir irgendwann dahin, dass wir zumindest kleine Teile davon übernehmen oder wenn wir das jetzt weiter erforschen, dass irgendwann auch die Lehrbücher so weit sind, dass sie das vielleicht übernehmen und weiterentwickeln. Was im Hinblick auf mein Zweitfach, also Deutsch, noch irgendwie deutlich rausgekommen ist am Ende, ist aber, dass die Materialien sprachlich noch zu komplex waren. Wir hatten super viele Fachbegriffe, die natürlich auch sehr, sehr wichtig sind. Wir hatten Summenformeln mit drin. Das Ganze muss gerade im Hinblick auf die Schülerinnen und Schüler, auf die breite Masse noch angepasst werden, vielleicht auch runtergebrochen werden. Da wäre aber jetzt nochmal sozusagen eine neue Masterarbeit erforderlich, um das Ganze oder vielleicht sogar noch was Größeres, um das Ganze dann sprachlich nochmal zu betrachten.

    Helena: Ja, Ina, was ist dein Fazit?

    Ina: Ja, ich habe für mich erstmal mitgenommen, dass vielleicht im Unterricht noch viel grundsätzlicher angefangen werden müsste. Beispielsweise, wenn es darum geht, okay, was ist Kohlenstoff überhaupt und also was macht Kohlenstoff aus und wodurch unterscheidet man zum Beispiel Kohlenstoff auch wieder von Sauerstoff, weil bei manchen bearbeiteten Arbeitsblättern habe ich dann wieder was gelesen, dass irgendwie Kohlenstoff noch mit einem Sauerstoff so als kleine Kügelchen doch noch mit dranhängt und irgendwie damit verbunden ist, obwohl es ja eigentlich nur Sauerstoff sein sollte. Also, dass da dann irgendwie so ganz viele Vorstellungen und Beschreibungen sind, wo man vielleicht erstmal in einem Schritt, bevor man sich den Kreislauf anschaut, vielleicht nochmal darüber gesprochen werden müsste und wo dann auch gerade so die eigenen Vorstellungen nochmal wirklich, wo man selber überlegen muss, okay, was stelle ich mir darunter vor, was könnten die sich darunter vorstellen und dass das gemeinsam auch mehr zum Thema gemacht wird, damit man sich dem bewusst wird. Und danach dann vielleicht, wenn solche Missverständnisse und Unklarheiten aus dem Weg geschafft wurden und darüber offen kommuniziert wurde, dass danach vielleicht so eine Erarbeitung, wie wir es dann gemacht haben in der Masterarbeit mit dem gesamten Kreislauf, auch mit dem Stoffeverfolgen oder dass man vielleicht auch dann eher in der Lage ist, das Multimediamaterial nachzuvollziehen mit den verschiedenen Hinweisen, die wir versucht haben zu erstellen. Und dass es vielleicht sinnvoll wäre, da nochmal viel einfacher anzufangen. Das war jetzt bei unserer Untersuchung kaum umzusetzen, weil wir ja wirklich diese begrenzte Zeiten in der Schule hatten. Aber was vielleicht im Unterrichtsalltag vielleicht wichtig ist zu beachten. Ja, da habe ich erstmal für mich mitgenommen, dass es wichtig ist, bei den kleinen Sachen anzufangen und dann noch mehr auf das Größere erst zu gehen.

    Janine: Ja, ich weiß gar nicht, ob ich jetzt ein richtiges Fazit habe. Es war auf jeden Fall sehr interessant, euren Ausführungen zuzuhören für mich, weil das wirklich mal noch ein anderer Einblick war auch in diese ganze Problematik, wie vermittel ich überhaupt ein Thema und wie kriege ich am Ende überhaupt heraus, dass meine Vermittlung funktioniert hat. Das war schon, also ja, viel Respekt dafür, dass ihr euch da durchgekämpft und durchgearbeitet habt und erstmal auch nochmal vielen Dank, dass ihr das hier nochmal so vorgestellt habt und euch nochmal gedanklich zurückbegeben habt in eure Masterarbeit. Und ja, also ich nehme für mich auf jeden Fall mit. Es gibt wahrscheinlich noch viel zu tun in Sachen Schulmaterialien und in der Auseinandersetzung damit, wie Unterricht für unterschiedliche Menschen gut funktionieren kann. Danke, dass das ein Thema ist, das euch interessiert. Es wird wahrscheinlich künftigen Generationen in der Schule helfen, wenn mehr Menschen wie ihr da so rangeht und euch so tiefgreifend darüber Gedanken macht. Das ist sehr cool. Deswegen aber auch die Frage, wird darin denn weiter geforscht?

    Leonie: So wie es aktuell aussieht, werden zumindest einzelne Aspekte in anderen Masterarbeiten bearbeitet. Wir haben sozusagen das Fass jetzt einmal geöffnet. Also unsere Dozentin hat sich gedacht, das ist ein cooles Thema, dazu gibt es noch nicht so viel, was wir auch beide cool fanden, so jetzt nicht.

    Janine: Ja.

    Leonie: Genau, und jetzt wird da drauf so ein bisschen drauf aufgebaut. Im Allgemeinen werden die Prinzipien aber natürlich auch erforscht. Also gerade Multimedia ist schon seit langem auch in der Forschung und wird weitergehen. Und beim Stoffverfolgen, sagte Ina ja vorhin auch schon, da ist viel auch an unserer Uni hat da bereits stattgefunden. Und ja, das geht da auch noch getrennt vom Kohlenstoffkreislauf auf jeden Fall weiter.

    Janine: Sehr schön.

    Helena: Ja, dann bedanke ich mich auch nochmal dafür, dass ihr da wart. Vielen Dank.

    Nächste Folge: die 50. Folge erscheint im Mai (01:08:56)

    Helena: Ja, dann kündige ich mal die nächste Folge an. Also im nächsten Monat erscheint dann unsere 50. Folge. Das ist ja so ein halbes Jubiläum. Und deswegen dachten wir, wir machen da jetzt kein großes Thema, sondern widmen uns mehreren kleinen Themen, die im Laufe der Zeit so angesammelt sind, wo wir jetzt dachten, das wäre mal schön, darüber zu reden. Aber uns ist nicht genug eingefallen für die ganze Folge. Ja, lasst euch überraschen, was uns bis dahin noch so über den Weg läuft und worüber es dann gehen wird.

    Call to Action (01:09:27)

    Janine: Genau. Und wenn ihr, liebe Zuhörenden, uns weiterhören möchtet und die nächste Folge auch nicht verpassen wollt, dann folgt uns doch gerne auf Mastodon unter @[email protected]. Besucht gerne unsere Webseite www.datenleben.de und da könnt ihr uns gerne Feedback hinterlassen oder auch per Mail, was wir tatsächlich gerade bekommen haben auch. Vielen Dank an die beiden Schreibenden, die uns gerade erst E-Mails in den Posteingang geworfen haben. Wir freuen uns immer sehr über Kommentare zu den Folgen oder Feedback dazu. Und ja, ihr könnt uns allerdings auch buchen, wenn euch unsere Arbeits- und Denkweise gefällt, als Data Scientist für Analysen oder Projekte oder auch eben Themenvorschläge einreichen. Und falls ihr Fragen habt und Dinge, die euch interessieren, dann schreibt uns gerne.

    Helena: Ja, dann bleibt mir noch für eure Aufmerksamkeit zu danken und bis zum nächsten Mal. Ciao.

    Janine: Tschüss.

    Ina: Tschüss.

    Leonie: Tschüss.

    20 April 2024, 10:00 am
  • 46 minutes 58 seconds
    dl048: vesuv challenge

    Vor fast 2000 Jahren wurde eine antike Bibliothek bei einem Vulkanausbruch verschüttet -- und jetzt ist es vorstellbar, dass die damals beschädigten Schriftrollen trotz ihres Zustandes gelesen werden können. Wir beschäftigen uns mit der Vesuv Challenge, einem Wettbewerb, der 2023 dazu aufgerufen hat mit Machine Learning Methoden die Texte wieder lesbar zu machen. Welche Voraussetzungen braucht es, damit derart beschädigte Papyri mit digitalen Methoden erschlossen werden können? Welche Machine Learning Methoden können eingesetzt werden? Und gleichzeitig ist auch die Frage: Was werden wir zu lesen bekommen?

    Links und Quellen

    Schlagworte zur Folge

    Machine Learning, Vesuv, Herkulaneum, Forschung, Kultur

    Intro (00:00:00)

    Thema des Podcasts (00:00:18)

    Helena: Willkommen zur 48. Folge beim Datenleben Podcast, dem Podcast über Data Science. Wir sind Helena

    Janine: und Janine

    Helena: und möchten euch mitnehmen in die Welt der Daten. Was ist Data Science? Was bedeuten Daten für unser Leben? Woher kommen sie und wozu werden sie benutzt? Das sind Fragen, mit denen wir uns in diesem Podcast auseinandersetzen. Dabei gehen wir Themen nach, die uns alle und die Welt, in der wir leben, betreffen.

    Thema der Folge (00:00:41)

    Janine: Und wie in der letzten Folge schon angekündigt, haben wir mal wieder ein Thema auf dem Tisch, bei dem es auch um Machine Learning geht, aber es geht auch um Schriftrollen, die fast 2000 Jahre alt sind. Wir gucken uns nämlich heute an, was die Vesuv-Challenge ist, beziehungsweise Vesuvius Challenge auf Englisch, die erstmals 2023 ausgerufen wurde und vor allem, was da genau passiert, gemacht wurde. Im Einspieler gibt es gleich ein bisschen Hintergrundgeschichte zu den Schriftrollen, um die es geht, wie sie verloren gingen und auch wiedergefunden wurden. Und ja, danach befassen wir uns kurz damit, was dazu geführt hat, dass es jetzt möglich ist, mit diesen zerbrechlichen Objekten aus Herkulaneum zu arbeiten. Und Helena erzählt dann etwas dazu, welche technischen Verfahren und Machine Learning Methoden hier eingesetzt wurden, um die Schriftrollen eben lesbar machen zu können, ohne sie zu zerstören. Und gegen Ende reden wir dann nochmal darüber, was bisher so gefunden werden konnte und vor allem, wie es auch weitergeht mit dieser Challenge, denn die gibt es auch dieses Jahr.

    Warum ist das Thema interessant? (00:01:49)

    Helena: Ja, und wir fanden das Thema interessant, einfach weil hier Methoden aus dem Data Science Bereich mal mit einem völlig anderen Thema oder Gebiet verbunden werden, nämlich mit der Archäologie und dadurch Dinge möglich sind, die vorher nicht möglich waren. Insbesondere ermöglicht das Machine Learning hier, dass man sich Dinge angucken kann, ohne sie dabei zu zerstören. Ja, und ehe wir dann in die technischen Details kommen, nochmal was zum historischen Hintergrund im Einspieler.

    Einspieler: Die Geschichte der Schriftrollen aus Herkulaneum (00:02:19)

    Janine: Die Geschichte der Schriftrollen aus Herkulaneum. Es ist das Jahr 79 nach unserer Zeitrechnung, also vor fast 2000 Jahren. Wir blicken auf den Golf von Neapel an der italienischen Küste. Es muss Ende Sommer oder Anfang Herbst sein, etwa zur Mittagszeit, als der große aktive Vulkan, den wir als Vesuv kennen, dem Druck des Erdinneren nachgibt. Eine gewaltige Eruption bricht sich Bahn, sprengt die Spitze des Vulkans und es entsteht eine über Stunden immer weiter aufsteigende Eruptionssäule. Ihre Hitze beträgt über 700 Grad Celsius. Nach und nach geht in der Umgebung vulkanisches Material nieder, feiner Aschestaub und schwere Gesteinsbrocken, Magma und heißer Wasserdampf. Zuerst wurden die Städte in Windrichtung getroffen, Pompeji, Oplontis und Stabiae. Die Eruption wird über Stunden immer wieder von Explosionen begleitet, bis schließlich gegen Mitternacht die Eruptionssäule zusammenbricht. In der Folge gibt es mehrere pyroklastische Ströme, die die Ortschaften, auch Herkulaneum, trafen. Die Städte und bis zu 5000 Bewohner*innen, die bis zu diesem Zeitpunkt nicht geflohen waren oder fliehen konnten, wurden von einer bis zu 20 Meter dicken Schicht von Vulkanmasse begraben. Der römische Schriftsteller Plinius der Jüngere war Zeuge dieser Katastrophe und berichtete ausführlich über die Ereignisse. Mit der Zeit entstanden neue Siedlungen und Ortschaften auf der verfestigten Oberfläche der vergangenen Katastrophe. Anfang des 18. Jahrhunderts wurden dann beim Anlegen eines Brunnens Reste eines Theaters aus Herkulaneum entdeckt, Ausgrabungen wurden vorangetrieben und schließlich wurde 1750 durch einen weiteren Brunnenbau eine prunkvolle Villa entdeckt, in deren Inneren eine Bibliothek gefunden wurde. Etwa 1800 Papyrusrollen, die herkulanischen Papyri, konnten geborgen werden und geben der Villa heute den Namen Villa dei Papyri. Sie haben viele Jahrhunderte überdauert, einerseits durch das umgebende Vulkanmaterial konserviert, andererseits durch Hitze und Asche zusammengepresst und brüchig zurückgelassen. Die Rollen haben sich verformt, zusammengezogen und durch die Hitze alle Flexibilität verloren, kurzum, sie sind verkohlt, aber immer noch vollständig. Erste Versuche, sie zu entrollen und zu entziffern, führten dazu, dass die entsprechenden Rollen zerstört wurden. Es wurden zwar bessere Methoden entwickelt, aber es gelang nicht, die Papyri nicht zu beschädigen. Unter den Fragmenten der geöffneten Rollen wurden Texte von Epikur oder Philodemus von Gadara entdeckt, die aus dem 3. bis 1. Jahrhundert vor unserer Zeitrechnung stammen. Und es könnten weitere berühmte und vielleicht verloren geglaubte Texte in dieser Bibliothek enthalten sein oder sogar noch weiterhin vergraben in den noch nicht erkundeten Bereichen der Villa. Es wurde aber schließlich entschieden, die Schriftrollen ruhen zu lassen, bis es eine Möglichkeit gäbe, sie zu entziffern, ohne sie zu zerstören. Und diese Zeit beginnt jetzt, denn in den letzten Jahrzehnten wurden sowohl wissenschaftliche als auch technische Fortschritte erzielt, womit neue Verfahren möglich sind, die eingesetzt werden können, ohne die Schriftrollen drastisch zu gefährden. Es wird mit Spannung erwartet, wann die Texte wirklich wieder lesbar sind, erstmals in diesen Fassungen seit fast 2000 Jahren, und noch mehr, was in dieser Sammlung alles zu Tage kommen wird.

    Warum werden wir die Schriftrollen vermutlich lesen können? (00:05:42)

    Helena: Ja, die Schriftrollen. Also im Prinzip kann man sich das ja so naiv vorstellen wie ein aufgerolltes Blatt Papier. Nur eben völlig verkohlt. Also bei den Schriftrollen, um die es jetzt hier im Wesentlichen geht. Also im Prinzip kann man sich das ein bisschen so vorstellen, wie wenn man eine ganze Zeitung ins Feuer wirft und die nicht komplett verbrennt, aber verkohlt. Ich weiß nicht, vielleicht haben das einige Leute ja schon mal gesehen. Teilweise ist es dann sogar möglich, ja in der Asche noch die Schrift zu lesen, aber sobald man es berührt, zerfährt alles zu Staub. Und es ist nicht ganz so schlimm, so wie ich das verstanden habe, mit diesen Schriftrollen, dass die sofort zu Staub zerfallen. Aber nennenswert besser ist die Situation auch nicht.

    Janine: Ja, genau. Es gibt einen Grund, warum sie nicht vollständig vernichtet wurden, weil, wie Helena gerade meinte, wenn man eine Zeitung aufgerollt ins Feuer wirft, die würde ja eigentlich anfangen zu brennen und dann eben sehr schnell komplett in Asche zerfallen irgendwann. Und die Schriftrollen in Herkulaneum, denen ist das eben nicht passiert, weil da verschiedene Faktoren zusammenkamen. Es ist nämlich so, dass zum einen, anders als in Pompeji, die andere Stadt, die bei diesem Vulkanausbruch vollständig zerstört und in Ruinen hinterlassen wurde und unter Asche begraben wurde, sind in Herkulaneum die Häuser nicht eingestürzt, ehe Vulkanmasse dort ankam, weil gar nicht so viel Asche auf die Häuser im Vorfeld gefallen ist. Das heißt, die Häuser waren an sich intakt. Und dann ist folgendes passiert, nämlich der pyroklastische Strom, wie es so schön heißt, aus diesem ganzen Vulkanmaterial, hat die Stadt erst mal relativ flach getroffen. Der war nicht sehr hoch, es war nicht sehr viel Masse und dabei wurden die Gebäude gewissermaßen erst mal verfüllt. Und zerstört wurde deswegen nicht viel, weil man sich das, glaube ich, so vorstellen kann, der pyroklastische Strom hat eine derartige Hitze, ich glaube, es sind über 300 Grad, dass die Berührung mit dem Material das Material dann halt gar nicht erst Feuer fängt, sondern aufgrund der Hitze das Wasser aus dem Material, aus allem Organischen, so schnell entzogen wird, dass es halt direkt verkohlt und gar nicht beginnt zu brennen. Dadurch, dass es nicht brennt, direkt verkohlt wurde und dann sofort auch umschlossen wurde von der Masse, luftdicht versiegelt wurde gewissermaßen, sind diese Rollen in ihrem Zustand so erhalten geblieben. Sie wurden dabei natürlich deformiert, so ein bisschen zusammengeschrumpft, verschoben, zusammengeknautscht. Die sehen nicht mehr so aus wie vorher und eben, sie sind auch komplett geschwärzt, karbonisiert, wie es auch heißt. Und erst im weiteren Verlauf des Vulkanausbruchs kamen dann weitere dieser pyroklastischen Ströme, die dann schließlich den Rest der Stadt auch verfüllt und überdeckt haben, sodass sie ja bis zu 20 Meter im Untergrund lag, nachdem dieser Vulkanausbruch, diese Katastrophe, vorbei war. Genau, und irgendwann hat man sie ja halt gefunden und man wollte wissen, was da drin steht und sie sind eben sehr oft zerfallen. Es gibt Schriftrollen in unterschiedlichen Erhaltungsgraden, manche sind zerbrechlicher, andere vielleicht ein bisschen geeigneter. Es wurde vieles versucht früher, unter anderem sie zu entrollen, also aufzurollen und anzusehen. Und auch dabei ist halt, weil die Flexibilität nicht mehr im Material drin ist, durch den Entzug des Wassers, sind sie dann eben in der Regel auch zerbröckelt. Man hat aber damals im 18. Jahrhundert durchaus ein paar Fragmente finden und auch lesen können und übersetzen können. Wo eben der Erhalt es hergegeben hat. Naja, aber der Rest ist in diesem Zustand, den man eigentlich nicht ändern kann. Und jetzt ist es gelungen, in sie hineinzusehen, ohne sie überhaupt zu öffnen. Und ja, wie kam es denn dazu?

    Helena: Ja, also der erste Schritt, der nötig war, um jetzt da reingucken zu können, war die Entwicklung der Röntgenstrahlung Ende des 19. Jahrhunderts. Und Röntgenstrahlung kennen sicherlich die meisten. Ja, da kann man in Menschen reingucken. Gut, Menschen sind ein bisschen größer als so ein paar Schriftzeichen, das heißt, das ging dann damals schon sehr gut. Ja, ich komme später nochmal darauf, was genau jetzt verbessert wurde, damit das eben auch einsetzbar ist, diese Technik, die hier kam. Aber man hat ähnliche Verfahren durchaus auch zum Beispiel schon bei Pyramiden in den 80er Jahren verwendet, um zu gucken, ob da noch irgendwelche Geheimgänge drin sind, und ohne dass man immer alles wieder aufmachen muss. Also die Idee, dass man bildgebende Verfahren, die man woanders schon kannte, in der Archäologie einsetzt, ist jetzt auch nicht unbedingt neu. Aber eben das Ganze an diesen Schriftrollen zu machen, ist jetzt noch eine recht neue Entwicklung. Ja, zunächst einmal wurde das Ganze schon von einigen italienischen Forschern ausprobiert vor ein paar Jahren. Die haben durchaus Messungen gemacht, wo man einzelne Wörter erahnen konnte bei, aber daraus folgte noch nicht, dass man plötzlich die ganzen Schriftrollen lesen konnte. Es gab dann auch einen anderen Wissenschaftler aus UK, der auch an diesem Thema gearbeitet hatte. Der hatte dann aber zwischendurch noch eine andere Schriftrolle in die Finger gekriegt, nämlich aus Israel, die nicht auf dieselbe Weise verkohlt war oder aus anderen Materialien bestand, weshalb man das dann plötzlich lesen konnte. Ich werde da gleich auch noch mal drauf eingehen, wo genau der Unterschied ist zu den jetzigen Schriftrollen aus Herkulaneum. Ja, aber dadurch, dass dieser Wissenschaftler eben eine andere Schriftrolle zeigen konnte, dass er in der Lage ist, die zu vermessen und dann lesbar zu machen, wurden ihm dann tatsächlich auch einzelne der Herkulaneum-Schriftrollen zur Verfügung gestellt und die wurden dann 2019 gescannt. Und auf Basis dieser Scans fand jetzt im letzten Jahr die Vesuv-Challenge statt.

    Was ist die Vesuv Challenge? (00:12:01)

    Janine: Genau. Es sind vier Schriftrollen, meine ich, die da gescannt wurden und die Daten werden Forschenden bereitgestellt, um daran zu arbeiten und Verfahren zu entwickeln, die Schrift lesbar zu machen. Damit das überhaupt möglich ist, wurden Preisgelder gesammelt und zwar für die Challenge 2023 kamen über eine Million Dollar zusammen, die dann ausgeschrieben wurden in verschiedenen kleinen Abschnitten. Es war sozusagen ein gestaffelter Preis, der mit ersten Findings anfing, erste Ergebnisse, auf denen dann immer weiter aufgebaut werden konnte, sodass dann die Preisgelder gegen Ende immer etwas höher wurden. Und diesem Aufruf zur Challenge sind tatsächlich viele Menschen und Teams gefolgt und da hat sich eine ganze Community gebildet, um gemeinsam daran zu arbeiten oder auch gegeneinander daran zu arbeiten, denn es ist auch eine Form von Wettbewerb. Ja, und dabei wurden dann verschiedene Ansätze und Ideen eingebracht und vor allem auch aus verschiedenen Bereichen Menschen, die sich mit den unterschiedlichen Problemen befassen, die bei dieser Arbeit überhaupt anstehen. Zum Beispiel ein erster Preis, der ausgegeben wurde, wurde für First Ink ausgegeben, also das Erkennen, wo Tinte auf dem verbrannten Papyrus ist, oder auch First Letters, also die ersten lesbaren Buchstaben oder auch erste lesbare Worte dann überhaupt zu erkennen. Und ja, das wurde dann über das Jahr immer ausgeweitet und das Hauptziel des Preises, der Grand Prize, war vier Passagen von 140 Schriftzeichen, jeweils mit Minimum 85 Prozent von erkennbaren Buchstaben.

    Helena: 140 Zeichen klingt so, als wäre das so eine Oldschool Twitter Nachricht, alter Twitter Thread, den man da recoveren wollte.

    Janine: Ja, also ich glaube, es hängt damit zusammen, dass diese Schriftrollen meistens in so Spalten beschrieben sind und da natürlich auch nur eine bestimmte Anzahl von Zeichen reinpasst, weil die in der Regel irgendwie eine ähnliche Laufweite haben. Naja, am Ende jedenfalls, Ende 2023, konnte sogar angekündigt werden, dass das Ziel übertroffen wurde. Es wurden statt vier sogar 15 Textblöcke mit mehr als 2000 lesbaren Buchstaben eingereicht am Ende, woraufhin auch dafür dann der Grand Prize vergeben wurde. Die spannende Frage, die wir uns aber auch gestellt hatten jetzt, war, welche Methoden wurden dabei entwickelt oder verfeinert und welche Herausforderungen hatten die Forschenden dabei zu überwinden?

    Was sind die Herausforderungen und Methoden? (00:14:38)

    Helena: Ja, und da fange ich mal an mit der ersten Methode, die erstmal überhaupt die komplette Basis dafür ist, auch bekannt als CT. Und zwar ist das eine Form der Röntgentomographie, nämlich die Computertomographie, bei der man eben die Röntgenstrahlung mit dem Computer misst und dann ganz viele Bilder hat. Also Tomographie selber bedeutet im Wesentlichen, dass man ganz viele Bilder macht, etwas in ganz viele einzelne Bilder, die dann einzelne Scheiben quasi von dem Objekt, was man sich angucken will, darstellen sollen. Und dann kann man aus diesen einzelnen Scheiben hinterher ein komplettes, dreidimensionales Bild zusammensetzen.

    Janine: Das ist ein bisschen wie aus dem 3D-Drucker, der mit Flüssigresin arbeitet. Da werden ja auch immer Scheiben auf Scheiben gesetzt und am Ende hast du das Objekt.

    Helena: Genau, nur eben andersrum.

    Janine: Ja.

    Helena: Gut, ich meine, solche CTs gibt es natürlich in vielen Krankenhäusern. Die sind allerdings jetzt nicht geeignet für diese Art von Messung, weil man ja mit relativ kleinen Schriftzeichen es zu tun hat, die man irgendwie erkennen will. Man möchte ja für jedes Schriftzeichen auch eine nennenswerte Anzahl an Pixeln zur Verfügung haben. Ja, um das besonders gut zu messen, hat man deswegen Teilchenbeschleuniger genutzt. Und zwar gibt es relativ viele Teilchenbeschleuniger, deren Zweck es ist, im Prinzip bestimmte Formen von Röntgenstrahlung, sogenannte Synchrotonstrahlung, zu emittieren, um eben verschiedenste Messungen damit zu machen. Also das ist dann nicht so, dass man einfach nur ins nächste Krankenhaus fährt und die Schriftrollen da reinlegt, sondern man muss zu dem nächsten Teilchenbeschleuniger fahren. Aber es gibt irgendwie so 50 oder so auf der Welt, die dazu geeignet wären. Also das ist ein sehr Standardinstrument in verschiedenen Forschungsbereichen inzwischen. Und das Ganze haben die dann eben Mini-CT genannt, damit man kleine, also eine sehr große Auflösung hat. Gut, man hat also ein 3D-Bild, was dann eben aus Scheiben aufgebaut ist. Auf der Webseite von der Vesuv Challenge gibt es eine ganz schöne Animation dazu, wie man sich das auch vorstellen kann, außer beim 3D-Drucker. Und zwar haben die da einen Teig genommen und auf diesem Teig mit einem anderen Teig in einer anderen Farbe einen Buchstaben drauf gemalt und das Ganze dann aufgerollt. Und das, was das CT dann im Wesentlichen macht, ist, es nimmt immer eine Scheibe davon, die wird abgeschnitten und dann kann man ein Foto davon machen. Und das sind dann die Fotos, die man letztlich hat zur Verfügung. Für einige der Themen, die wir heute besprechen, empfehle ich auf jeden Fall, dass man sich die Webseite mal anguckt. Da sind richtig schöne Animationen drauf. Gut, das heißt, man hat jetzt erstmal ein 3D-Bild. Und bei einem 3D-Bild gibt es dann auch so etwas wie Pixel, die nennt man in 3D dann allerdings "Voxel". Und die haben dann irgendwie bestimmte Werte und ja dann ist die Frage, welche Werte entsprechen jetzt Tinte und welche nicht oder gibt es da noch andere Dinge. Und das Gemeine jetzt an den herkulerneums Schriftrollen ist, die sind halt auf Papyrus geschrieben. Papyrus sind Pflanzenfasern, die man eben zu einem Blatt zusammengebaut hat. Und die Tinte, die hier verwendet wurde, basiert ja auch auf Kohlenstoff, also kann man vielleicht mit einem Bleistift vergleichen. Das heißt, man hat im Prinzip Kohlenstoff auf Kohlenstoff. Das heißt, es gibt keinen besonders großen Kontrast zwischen Tinte und Untergrundmaterial.

    Janine: Besonders nicht, wenn es alles verkohlt ist.

    Helena: Ja, besonders nicht, wenn es verkohlt ist. Was jetzt der eine Wissenschaftler schon einmal gemacht hatte, war eine andere Schriftrolle, genau auf diese Weise vermessen, und zwar eine, die in Israel gefunden wurde. Und in dem Fall war die Tinte eine metallhaltige Tinte und Metall verhält sich eben in Röntgenstrahlung doch sehr anders als Kohlenstoff. Und in dem Fall war auch das Ganze nicht auf Papyrus, sondern auf Tierhaut geschrieben. Ich glaube, der Teil ist jetzt nicht ganz so entscheidend, wie das eben die Schrift aus Metallbasis war und deswegen der Kontrast einfach vorhanden war. Das heißt, im Wesentlichen, das, was man hier bei der Schriftrolle aus Israel machen musste, war nur der erste Schritt quasi, den man jetzt auch noch bei den Herkuler Neum rollen machen muss, und zwar das Entrollen. Und dann konnte man die bereits lesen, weil dann der Kontrast schon groß genug war. Und da hatte man festgestellt, oh, es ist ein Teil der Bibel. Buch Leviticus wurde damals gefunden. Und zwar in einer sehr alten Fassung. Gut, und weil man das eben gemacht hatte, wusste man dann, ja, okay, wir können das im Prinzip, aber es gibt noch eine weitere Herausforderung außer das Entrollen, nämlich eben auch das Tinte erkennen. Und um jetzt so Methoden wie maschinelles Lernen und so einsetzen zu können, ist es ja eigentlich immer nötig, dass man auch die gleichen Messungen gemacht hat mit Objekten, wo man weiß, was herauskommt, auf die man dann trainieren kann. Und so tragisch es auch ist, dass man einige Rollen vermutlich verloren hat, dadurch, dass man sie auch versucht hat zu entrollen, gab es jetzt ja doch diese Fragmente. Und die hat man eben genau mit derselben Methode gescannt. Der Vorteil an diesen Fragmenten ist halt, wenn man jetzt mit Infrarotkameras misst, dann ist der Kontrast der Schrift sehr groß. Also wenn man da tatsächlich drauf gucken kann mit einer Infrarotkamera, dann sieht man die Schrift. Und ja, das heißt, man kann dann, dadurch, dass man die gleichen Messungen mit diesen Fragmenten gemacht hat, diese als Trainingsdaten verwenden. Ja, da hat man diese Trainingsdaten. Und dann gibt es im Wesentlichen zwei große Herausforderungen. Eben das Entrollen, das wird dann auch in Segmentation, in Flattening aufgeteilt. Und eben die Schrifterkennung, beziehungsweise Ink Detection.

    Wie funktioniert das digitale Entrollen? (00:20:38)

    Also bei dem Entrollen, also es geht dann ja nicht nur darum, dass man ein flaches Bild hat, sondern bei der Segmentation ist dann das Ziel auch, weil die Schrift ist dann immer in so Blöcken. Dass man auch diese Blöcke schon identifiziert als Block. Wo endet dieser Block? Und so. Weil wenn man weiß, da ist ein Block und da ist der zu Ende, ist es auch leichter... In der näheren Umgebung weiß man dann, da sollte vielleicht noch Tinte sein oder nicht. Das hilft ja auch, diese Erkenntnis. Genau, und das Entrollen funktioniert im Prinzip so, dass man sich erstmal nur eine Ebene anguckt von diesem 3D-Bild, so wie das der Tomograph ja auch gemacht hat. Und wenn man sich jetzt so ein aufgerolltes Stück Papier vorstellt und von oben drauf guckt, dann sieht man ja, da wo Papier ist, Linien und dazwischen ist es potenziell dunkler. Oder wenn man eine Lampe hinterhält, vielleicht auch heller. Aber man sieht relativ deutlich, wo das Papier erstmal verläuft. Einfach weil man Linien sieht. Und Linienerkennung ist in der computergestützten Bildbearbeitung etwas, was schon seit Jahrzehnten überhaupt kein Problem ist. Wenn man bei Linienerkennung einfach nur guckt, ändern sich die Werte der Pixel relativ stark. Und dann kann man relativ gut tatsächlich Linien erkennen. Und dann kann man diese Linien einzeichnen quasi, wo man die erkannt hat. Und dann guckt man sich eine Ebene weiter hinten, das nächste Bild, an. Und guckt, dass man versucht, die gleichen Linien wiederzufinden. Weil so eine Rolle, wenn die zerknickt ist, zum Beispiel, wenn man beim Papierbeispiel ist, dann kann sich ja auch die Position der Linie auch verändern. Und das heißt, man kann dann, wenn man Ebene für Ebene durchgeht, immer gucken, wo hat sich die Linie hin bewegt. Und dann weiß man, welche von den Voxeln des 3D-Bildes zu welcher Papierebene gehören. Beziehungsweise bei der Schriftrolle Papyrus-Ebene. Wenn man das Ganze dann entrollt, dann tut man das nicht, indem man nur genau die Pixel, wo diese Linie ist, anguckt, beziehungsweise Voxel, sondern man nimmt auch die drumherum. Weil Tinte kann ja auch oberhalb auf dem Papyrus sein, beziehungsweise auch eingesickert sein, bis zu einer gewissen Ebene. Und deswegen braucht man dann von jedem Stück Papier quasi, was man da rauszieht, von jedem flachen Stück Papier auch mehrere Ebenen nochmal. Weil man ja nur ein 3D-gescanntes Bild hat und man kann ja nicht von oben einfach drauf gucken, weil es ja nicht entrollt ist, physisch, sondern das muss ja virtuell erfolgen.

    Janine: Ja, auch für das, was Helena gerade beschrieben hat mit dem Entrollen, gibt es auch einige dieser schon erwähnten Animationen auf der Seite, also mindestens eine auf jeden Fall, wo man sich das vielleicht auch noch ein bisschen besser vorstellen kann, was die Problematik darin ist, wie die aufgerollte Struktur aussieht und sich so ein bisschen vorstellen kann, wenn man jetzt von der Seite auf so ein im Halbkreis gebogenes Blatt guckt, ist es halt schwieriger, die Buchstaben zu erkennen, als wenn es flach vor einem liegt. Und das sieht man da so ein bisschen, wie man sich das vorstellen kann, dass das Zusammensetzen dann im Computer funktioniert, damit da eine flach liegende Seite bei rauskommt.

    Helena: Und die flach liegende Seite braucht man jetzt nicht nur, weil es natürlich einfacher ist, auf flachen Seiten was zu lesen, sondern auch, weil die Trainingsdaten der Fragmente ja auch flach sind. Das heißt, dieser Schritt des Entrollens, den muss man auch erst einmal machen, bevor man dann tatsächlich mit der Schrifterkennung anfangen kann, weil man ja nur auf der Ebene trainieren kann erst mal. Das heißt, man hat dann eben flache Fragmente als Trainingsdaten, wo man eben weiß, was herauskommt, und dann braucht man irgendwie Modelle, mit denen man die Schrifterkennung trainieren kann.

    Wie funktioniert die Schrifterkennung? (00:24:24)

    Und zwar werden hier tatsächlich verschiedene Machine Learning-Modelle parallel verwendet, insbesondere, was wohl auch die besten Ergebnisse geliefert hatte, ist das sogenannte TimeSformer-Modell. Das ist ein Modell, das im Prinzip auf den Transformer-Modellen basiert. Also das T in ChatGPT steht auch für ein Transformer-Modell. Das ist also eine bestimmte Klasse von Machine Learning-Modellen. Und das ist allerdings auf eine bestimmte Weise verändert. Und zwar, wenn man sich jetzt so ChatGPT vorstellt, das hat halt eine Reihe von Text, mit der es arbeitet, und kann dann auf Basis dieses Textes dann irgendwie Vorhersagen machen, was jetzt als nächstes zu erwarten wäre, als Wort und so weiter. Das ist dann quasi aber eine Reihe von Dingen, die hintereinander kommen. Und bei dem TimeSformer-Modell geht es eher, also es wurde eigentlich für Videobearbeitung oder -verarbeitung entwickelt. Das heißt, es gibt nicht nur die Reihe von Dingen, die hintereinander kommen, sondern jedes Ding, was dann in einer Ebene ist, entspricht auch ganz vielen Pixeln. Und im Grunde genommen ist jetzt ein Video auch nicht so viel anders wie ein 3D-Bild, nur dass man eben bei einem 3D-Bild als dritte Achse auch eine Raumdimension hat, und bei einem Video ist es halt die Zeit. Deswegen ist es irgendwie naheliegend gewesen, dass man ja einfach Video-Modelle nehmen könnte. Also ich weiß nicht, wie naheliegend das war, ich weiß jetzt nicht, ob alle Teams so da herangegangen sind, aber so im Nachhinein betrachtet ist es doch irgendwie sehr naheliegend, das damit zu probieren, erst mal.

    Janine: Ich muss auch gerade dran denken an die Folge 18 mit Lisa, wo es darum ging, aus Bildern halt quasi 3D-Informationen für 3D-Modelle zu generieren. Also vielleicht ist da ja auch so ein bisschen eine Verbindung, fiel mir gerade dabei ein.

    Helena: Ja, da weiß ich gerade gar nicht mehr, was für ein Modell die benutzt haben. Ja, jedenfalls eines der Probleme, die man hier mit sowas wie ChatGPT sehr gut kennt, ist, dass es sich manchmal, wenn man den Fragen stellt, Dinge einfach ausdenkt, was man ja auch Halluzinieren nennt. Und das will man natürlich hier nicht, man will ja, dass das, was da steht, auch wirklich da steht. Ich meine, ein Vorteil, den man jetzt natürlich hier hat, ist, wenn die Leute, die dann die Schrifterkennung trainieren und am Ende das einreichen, selber kein Altgriechisch lesen können und nicht in der Lage sind, zu erkennen, ob das sinnvolle Wörter sind oder nicht, hat man immer an einer Ebene eine Absicherung dagegen, dass jemand absichtlich irgendwie Dinge da versucht reinzubekommen.

    Janine: Auf jeden Fall, ja.

    Helena: Insbesondere, würde man ja erkennen, ob man den Text schon kennt oder nicht. Das ist, glaube ich, hier relativ vorteilhaft. Und wenn es sich irgendwas halluziniert, ist im besten Fall das tatsächlich auch Nonsens, also Wörter, die nicht existieren. Aber damit will man sich nicht zufriedengeben, deswegen hat man noch ein anderes Machine Learning-Modell verwendet, das ResNet-3D-Modell. Und das basiert im Gegensatz zu den Transformer-Modellen auf sogenannten convolutional neural networks, also faltungsbasiert. Das ist eben eine andere mathematische Methode, mit der man eben solche neuronalen Netze aufbauen kann. Und solche convolution-Netzwerke sind eigentlich ein bisschen älter schon. Die Transformer waren letztlich dann etwas, was schon das Ganze revolutioniert hat und sowas wie ChatGPT überhaupt erst möglich gemacht hatten. Aber der Vorteil ist, wenn man jetzt einfach noch ein unabhängiges Modell hat, dann sollte man zumindest erhoffen, dass es andere Dinge halluziniert und die dann sich einfach widersprechen. Und dann weiß man, man kann dem nicht so gut trauen und deswegen benutzt man auf jeden Fall mehr als eins. Also die, die gewonnen haben, haben das zumindest so gemacht.

    Janine: Ich habe mal in die Bedingungen für die 2024er Challenge geguckt und da steht tatsächlich auch explizit dieses Problem mit dem Halluzinieren mit drin. Und zwar, dass wenn Menschen etwas einreichen, müssen sie auch die Frage beantworten, ob sie die Erfahrung gemacht haben, dass ihr Modell oder ihre Anwendung zum Halluzinieren neigt und wie sie mit diesem Problem umgehen. Also welche Maßnahmen sie dagegen haben.

    Helena: Ja, da bin ich mal gespannt, was dann daraus kommt. Ja, was man jetzt natürlich zu der letztjährigen Challenge noch sagen kann, ist, die bezog sich nur auf die Schrifterkennung, also die Ink-Detection. Das Entrollen und Segmentieren selber war nicht Teil der Challenge, weil dadurch, dass man ja nicht wusste, was da drauf ist, wollte man das jetzt nicht irgendwie noch komplizierter machen. So, dann haben die Leute, die Challenge gemacht haben, das erst mal so gemacht. Trotzdem hat das Gewinner-Team auch ein Segmentierungsmodell eingereicht, wo ich jetzt nicht drauf eingehen werde. Aber die haben sich trotzdem auch mit diesem Problem beschäftigt, obwohl das nicht mal Teil der Challenge war. Das fand ich dann auf jeden Fall ganz gut.

    Was steht in den bisher entdeckten Bereichen? (00:29:15)

    Helena: Ja, jetzt gibt es ein Gewinner-Team, das tatsächlich Dinge lesbar gemacht haben. Und ich habe mir das angeguckt und habe eindeutig griechische Schriftzeichen erkannt. Aber ich kann jetzt kein Altgriechisch. Was steht denn da so drin?

    Janine: Ja, Altgriechisch kann ich auch nicht, aber ja, was steht denn in den bisher entdeckten Bereichen? Also erst mal vielleicht noch ein bisschen historisch. Es war vorher schon ein bisschen bekannt, aus den früheren Versuchen, die Schriftrollen zu öffnen, wo sie ja eben häufig aber auch leider kaputt gegangen sind, ist ersichtlich geworden, dass der größte Teil der Schriftrollen Texte eines Philosophen namens Philodem sind. Außerdem wurden viele kopierte Schriften von Epikur entdeckt und ansonsten auch noch andere bereits bekannte Autoren der griechischen Antike. Und ja, einen kleineren Teil an Schriftrollen, die gefunden wurden, sind auch in lateinischer Schrift, die aber tatsächlich vermutlich erst später zu der Bibliothek hinzugefügt wurden, nachdem dieser Philodem von Gadara, wie er heißt, dort gewirkt hat. Denn was als relativ gesichert gilt, ist, dass die gefundene Bibliothek von eben diesem, na ja, zumindest aufgebaut wurde. Und die Villa selbst, in der das alles lag, soll Lucius Calpurnius Piso gehört haben. Und Philodem war dessen Hausphilosoph, wie Cicero einmal über ihn sagte. Also auch kein sehr unbekannter Mensch in der Zeit. Und dieser Lucius Calpurnius Piso war, glaube ich, Helena, korrigier mich, falls ich falsch liege, der Schwiegervater von Caesar?

    Helena: Das weiß ich nicht. Aber was man jetzt daraus vielleicht sieht, weil das auch Cicero was über den gesagt hat, der ist 100 Jahre vor dem Vulkanausbruch gestorben, der Philodem.

    Janine: Ja.

    Helena: Und der war auch Lehrer von Vergil, den man vielleicht kennt, wenn man ein bisschen mit lateinischen Texten schon mal was zu tun hatte. Aber der ist auch vorher schon gestorben. Das heißt, es kann sehr gut sein, dass Dinge nachträglich hinzugekommen sind.

    Janine: Jedenfalls hat Philodem dort gearbeitet und in der Zeit dort auch gelebt. Und danach wurde eben die Bibliothek noch weiter fortgeführt. Das so zum Hintergrund, es sind damals auch schon Textfragmente übersetzt und auch wissenschaftlich von Philologen untersucht worden. Da gibt es auf jeden Fall schon Sachen zu finden. Die Frage ist aber, was war jetzt das erste Wort, das während dieser Challenge, der Vesuv-Challenge, entdeckt wurde und zwar mit den Methoden, die angewendet wurden, ohne die ganzen philologischen, papyrologischen Maßnahmen, die da im Vorfeld gelaufen waren. Und zwar gibt es ein Wort, das erste vollständig und klar lesbare Wort war "purple", also lila oder violett.

    Helena: Aber "purple" ist doch dann auch schon die englische Übersetzung, oder?

    Janine: Ja, genau. Ich kann halt auch leider kein Altgriechisch. Ich habe es jetzt von der Webseite zitiert.

    Helena: Ist das Bild da irgendwo?

    Janine: Ja, es gibt ein Bild davon. Unter "Gewinner 2023" oder so ähnlich ist das einmal aufgezeigt. Naja, Ende 2023, mit Abschluss der Challenge, gab es auch ein Ergebnis. Wie gesagt, es ist übertroffen worden, das Ziel. Es konnten jetzt insgesamt 5% der ersten Schriftrolle entrollt und gelesen werden, beziehungsweise ja, die 15 Spalten, die ich schon erwähnt hatte. Und die Beschäftigung mit den Texten ist dann wiederum Papyrologen und geisteswissenschaftlichen Expert*innen überlassen. Und diese wurden auch hinzugezogen und es wurde eine vorläufige Transkription erstellt, auch in die altgriechischen Worte. Es gibt keine englische Übersetzung dieser Passagen auf der Challenge-Seite. Ich habe mal versucht, das Griechisch in DeepL einzusetzen. Allerdings ist das von mäßigem Erfolg gekrönt. Das ist doch alles viel zu doppeldeutig, die Abschnitte zu kurz. Da kommt einfach nicht wirklich etwas Sinnvolles bei raus. Aber was die Papyrologen festgestellt haben, ist, dass es sich um wirklich einen bisher nicht überlieferten Text aus der Antike handelt. Und zwar einen Text von Philodem, der bisher noch nirgendwo veröffentlicht war. Zu Lebzeiten hat er, glaube ich, auch relativ wenig publiziert, Schrägstrich ist, sehr wenig erhalten davon. Und in seiner Bibliothek waren eben auch Manuskripte oder Arbeitstexte noch vorhanden. Es ist also keine Abschrift oder Kopie hier, sondern ein bisher noch unbekannter Text. So. Und soweit die Fragmente bisher angesehen werden konnten, geht es vor allem um das Thema Vergnügen.

    Helena: Okay. Ich habe gerade nachgeguckt, Porphyras ist das griechische Wort für Purple. Also das Wort, was die tatsächlich gelesen haben.

    Janine: Sehr schön.

    Helena: Was hat Lila jetzt mit Vergnügen zu tun?

    Janine: Genau. Wie schon in den ersten Erkenntnissen, auch schon aus dem 18. Jahrhundert ersichtlich war, es sind vor allem epikurierische Philosophie, die in diesen Texten enthalten ist. Und eine zentrale Rolle spielt da eben dieses Thema quasi Vergnügen. Es sind die, wie hieß das doch? Ach ja, ich habe hier ein Zitat aus dem Philosophie Magazin. Epikureismus ist in moralischer Hinsicht ein asketischer Hedonismus, also das Streben nach Lust, das praktiziert wird auf eine Weise, in der die Vergnügen ohne Exzess und mit vernunftgeleiteter Einsicht erlebt werden.

    Helena: Okay.

    Janine: Ja, also hab Spaß, genieß das Leben, aber übertreib es nicht - vielleicht. Ganz kurz zusammengefasst und Philodem war eben, glaube ich, auch ein Schüler von Epikur oder mindestens in seiner Denkschule sehr bewandert und hat auch dazu beigetragen, diese Schule der Philosophie zu verbreiten. Und in den zwei aufeinanderfolgenden Spalten, die auf der Seite auch einmal transkribiert ins Altgriechische dastehen, geht es vor allem um die Verfügbarkeit von Gütern und wie sich deren Verfügbarkeit, beispielsweise Lebensmittel, auf das Vergnügen auswirkt, das durch sie entstehen kann. Also haben wir mehr Spaß an Sachen, die weniger verfügbar sind? Gibt es einen Unterschied, was es ist? Und dergleichen hat er offensichtlich Überlegungen angestellt. Ja, also so ein bisschen die Beschäftigung mit Mangel und Überfluss und dazu das Thema Vergnügen. Und in anderen Textstellen wird auch noch ein Mensch namens Xenophantus erwähnt, die Forschenden vermuten, dass es sich da um einen Musiker handeln könnte, der bereits in einem im 18. Jahrhundert gefundenen Text von Philodem aus den Herkulaneum-Schriftrollen genannt wurde und da schon gefunden werden konnte. Und da ging es eben um Musik.

    Helena: Okay, ja, spannend.

    Janine: Ja, was machen wir damit und was bedeutet es eigentlich, diese Sachen zu finden? Es hat im Jahr 2020 Kilian Fleischer eine Vorlesung gehalten mit dem Titel "Die Papyri Herkulaneums im digitalen Zeitalter" und das ist auch als Buch publiziert worden und zwar Open Access, das heißt, wer sich sehr dafür interessiert, findet auch den Link dazu in den Shownotes. Und er gibt darin eben eine Einschätzung der Bedeutung dieser Schriftrollen und er sagt, dass der primäre Wert darin läge, dass die Papyri "einen vertieften, authentischen Einblick in die epikuräischen Philosophie und ihre literarischen Spielarten gewähren, also in eine Philosophie-Richtung, deren Schriften das spätantike Nadelöhr der Überlieferung nicht passiert haben und fast gänzlich verloren gingen." Die epikurische Schule hatte nämlich ein Problem, sie war nicht sehr beliebt.

    Helena: Okay.

    Janine: Es gab andere Schulen, die sie ein bisschen übertrumpft haben und deswegen wurden weniger Texte davon überliefert und kopiert in gewissen Zeiten und das ist auch der Grund, warum viele sagen, wir haben hier wirklich die einzige erhaltene antike Bibliothek vor uns, die noch nicht durch spätere Zeitalter kuratiert wurde.

    Helena: Ja, das ist auf jeden Fall spannend. Und die Stoiker haben es besser gemacht als die Epikurier, oder?

    Janine: Ja, ich glaube schon. Die waren nämlich sehr gegen die Epikurier, soweit ich das im schnell nochmal nachschlagen gesehen habe.

    Helena: Die waren ja auch zeitlich danach, die waren ja ungefähr zu der Zeit, wo das jetzt passiert ist mit dem Vulkan, ja.

    Janine: Und außerdem sagt Kilian Fleischer auch noch, dass viele Philosophen noch da drin sind, Historiker und Grammatiker und Dichter in diesen Schriftrollen, die eben nicht nur zu dieser Schule gehörten. Das heißt, da gibt es auch noch andere vielleicht spannende Sachen zu entdecken. Er möchte, glaube ich, gerne Gedichte von Sappho lesen. Naja, auf jeden Fall. Darüber hinaus dann eben auch die Bedeutung für buchgeschichtliche und paleografische Studien, weil es eben ja um das Material auch geht. Und er verweist darauf, dass damit auch Funde aus Ägypten eingeordnet und ergänzt werden könnten. Also es wird sehr viel zu tun geben für Philologen und Papyrologen, wenn da mehr Texte und mehr Material erschlossen wird.

    Helena: Ja, ich bin sehr gespannt, was da noch kommt. Und ich hoffe, dass es jetzt nach und nach klappt, auch einfach alle tatsächlich sich anzugucken. Also bisher ist ja noch nicht mal eine ganze Schriftrolle gelesen worden.

    Wie geht es jetzt weiter? (00:38:49)

    Helena: Ja, wie geht es denn jetzt weiter?

    Janine: Ja, die Vesuv-Challenge war extrem erfolgreich. Wie gesagt, sie haben ihr Ziel übertroffen. Und ja, Brent Seals, der auch maßgeblich diese Challenge mit vorangetrieben hat, hat in einem Video auch unter anderem erzählt, wie er seit 20 Jahren in gewissem Maße daran arbeitet. Und das Problem, die Herkulaneums Tinte zu identifizieren, hat jetzt drei Monate gebraucht. In diesen drei Monaten haben über 1000 Teams daran gearbeitet, an dem sonst maximal fünf Forschende beteiligt gewesen wären, wenn es ein normales Forschungsprojekt gewesen wäre und keine Challenge.

    Helena: Ja.

    Janine: Das auf jeden Fall schon mal. Und er sagt halt, in diesen drei Monaten sind etwa zehn Lebensjahre an Arbeitszeit von Menschen investiert worden und zwei Jahre Rechenzeit geleistet.

    Helena: Ja, ich meine, der Vorteil ist natürlich bei so einer Challenge, dass auch sehr viele Leute mit relativ wenig Aufwand sich mal angucken können und eine Idee ausprobieren können. Und wenn die Idee halt von Anfang an relativ gut war, ist die Wahrscheinlichkeit auch höher, dass man dann weitermacht. Und das heißt, auch wenn jetzt zehn Lebensjahre aufgewendet wurden, ist die sicherlich nicht verschwendet worden bei den Leuten, die jetzt nicht gewonnen haben. Die haben es halt mal ausprobiert, es hat vielleicht nicht so gut funktioniert und haben so was anderes gemacht. Aber nicht so wie, wenn jetzt fünf Forscher zehn Jahre lang daran arbeiten, aber niemand genau die richtige Idee hatte, das richtige Modell anzuwenden oder so.

    Janine: Genau. Und auch der Austausch in der Community hat ja auch dazu geführt, dass neue Erkenntnisse oder neue Methoden oder zusammengefasste Methoden existieren konnten. Und deswegen wird es das auch für 2024 geben. Es hat quasi gerade begonnen. Anfang März wurden die Preise und die Ziele verkündet. Und es gibt dieses Mal insgesamt über 500.000 Dollar, die wieder gespendet wurden und für die Preise ausgeschrieben werden. Und das Ziel ist es, Ende 2024, dass von den vier Schriftrollen, deren Daten vorliegen, 90 Prozent lesbar gemacht werden können.

    Helena: Das wäre schon ganz schön gut.

    Janine: Dass das Ziel an sich überhaupt erreichbar ist, daran wird im Grunde nicht mehr gezweifelt durch die Ergebnisse, die wir 2023 bekommen haben. Allerdings ist ein Faktor, der 2024 in der Challenge eine Rolle spielt, die Zeit, in der das überhaupt möglich gemacht werden kann. Also zum Beispiel der Preis für First Automated Segmentation, also die erste automatisierte Segmentierung, hat in den Kriterien drinstehen, dass der Human Input, die Zeit, die ein Mensch investiert, um die Segmentierung anwenden zu können, maximal vier Stunden betragen darf und die Rechenzeit der Anwendung maximal 48 Stunden betragen darf. Und das ist deswegen nötig, weil die Segmentierung, die innerhalb der 2023er Challenge erreicht werden konnte, immer noch sehr viel Zeit braucht. Und deswegen soll jetzt die Verbesserung der Anwendbarkeit quasi im Vordergrund stehen. Zum Beispiel aber auch die Verbesserung nicht nur der Segmentierung, sondern auch des Scans der noch vorhandenen Schriftrollen, denn es gibt ja immer noch hunderte Schriftrollen, die noch überhaupt nicht gescannt wurden auf diese Art und Weise, sodass die Texte ja quasi durch die neuen Methoden gar nicht erfasst werden können. Also da müssen auch noch Scans gemacht werden und wie das optimiert werden kann, damit die Kosten gedrückt werden können, die tatsächlich enorm hoch sind, als auch aber die Daten, die die Scans produzieren, mit einem besseren finanziellen Aufwand produziert werden können, also verbessert werden können. Ja, das ist so, worum es geht. Und wenn das gelungen ist, gibt es tatsächlich noch im Masterplan der Vesuv Challenge, steht auch auf der Homepage, noch einen dritten und vierten Schritt. Im dritten Schritt wird nämlich dann der Fokus auf das Einscannen nochmal gelegt und das Lesen der Schriftrollen mit einem geschätzten Zeitaufwand von zwei bis drei Jahren, die dann dafür aufgewendet werden müssen, um circa 300 Schriftrollen einzuscannen und zu lesen. Und ja, der vierte und abschließende Schritt ist dann gar nicht mehr in den Händen der Vesuv Challenge oder der Leute, die dieses Projekt so vorangebracht haben, sondern das Ziel des vierten Schrittes ist, Menschen davon zu überzeugen, im Wesentlichen in der Politik aktive Menschen, überhaupt Geld in die Hand zu nehmen, weitere Ausgrabungen zu tätigen, um noch weitere Schriftrollen, die in der Villa vermutet liegen, zu erschließen und dann auch rausholen zu können und einscannen zu können, weil die Hoffnung ist halt, dass auch hier, wenn die Ergebnisse vorgezeigt werden, der früheren Stages, Schritte, die diese Challenge hatte, dann genug Motivation da ist, in Ausgrabungen zu investieren und zu gucken, was dort noch für kulturelle Schätze liegen.

    Helena: Ich hoffe, das klappt. Aber gut, das ist der Schritt vier. Vorher gibt's ja auch erstmal noch ganz schön viele Schriftrollen, die man auch erstmal einscannen muss. Das ist ja auch nicht trivial.

    Janine: Genau.

    Fazit (00:43:58)

    Helena: Ja, schön. Also ich fand, das war ein sehr spannendes und schönes Thema, dass hier Machine Learning mal in einem Bereich angewendet wird, wo man sonst nicht wirklich irgendwas hinkriegen würde ohne diese Technik. Und dass man eben zerstörungsfrei dann verkohlte Schriftrollen lesbar machen kann, finde ich schon ziemlich gut. Und ich hoffe, dass das dann auch auf andere Dinge, die man in der Zukunft irgendwo findet, angewendet werden kann.

    Janine: Ja, ich fand das Thema auch sehr spannend, weil, ja, wie du sagst, das Ineinandergreifen hier der Methoden, um das wieder lesbar zu machen, ist halt zum einen sehr spannend und zum anderen eben aber auch, was liegt da alles, was für Texte erwarten uns? Also Menschen sind schon immer neugierig und im Speziellen darum, wenn es darum geht, solche Sachen wieder zu erschließen und zu erfahren. Also der Brent Seals hat auch in einem Interview gesagt, dass es halt ja auch sehr emotional für ihn ist, dieses Projekt, weil es ja auch darum geht, mehr über sich selbst vielleicht erfahren zu können. Also über die Vergangenheit, über Sachen, die sich entwickelt haben, über Denkweisen und auch aus einer einfach ganz menschlichen Sicht da mal drauf zu gucken. Deswegen ist das schon sehr spannend.

    Nächste Folge: Lehrerfolge an Schulen messen im April (00:45:17)

    Helena: Ja, und in der nächsten Folge beschäftigen wir uns mit dem Thema, wie man eigentlich an Schulen Dinge messen kann. Habt ihr euch auch schon gefragt, woher wir eigentlich wissen, wann eine Lehrmethode erfolgreich ist? Und es gibt Noten für Schüler*innen, aber gibt es auch Noten für Lehrmethoden? In der nächsten Folge haben wir zwei Gästinnen bei uns, die ihre Masterarbeiten über dieses Thema geschrieben haben. Und sie haben anhand eines Themas untersucht, welche Lehrmethode in den Klassenstufen 8 bis 10 welche Erfolge erzielt. Und ja, da gibt es eine ganze Menge zu beachten und auch einige Hindernisse und Herausforderungen zu überwinden. Und darum geht es das nächste Mal.

    Call to Action (00:45:59)

    Janine: Ich bin schon sehr gespannt drauf. Vor allem haben wir mal wieder Gästinnen da. Das freut mich sehr. Ja, und wenn ihr die nächsten Folgen auch nicht verpassen wollt, hier der übliche Aufruf. Folgt uns doch gern auf Mastodon unter @[email protected] oder besucht unsere Webseite www.datenleben.de. Da könnt ihr uns auch sehr gerne Feedback hinterlassen, also auf unserem Mastodon-Account natürlich auch immer. Und ja, darüber freuen wir uns nämlich, wenn wir wissen, dass ihr auch gerne hört, was wir hier machen. Und ihr könnt uns natürlich aber auch, wenn euch unsere Arbeits- und Denkweise gefällt, als Data Scientist buchen für Analysen und Projekte, kontaktiert uns gerne. Auch wenn ihr Fragen habt oder Themen, die euch interessieren.

    Helena: Ja, dann bleibt mir nur noch, für eure Aufmerksamkeit zu danken und bis zum nächsten Mal. Ciao.

    Janine: Tschüss.

    Outro (00:46:47)

    30 March 2024, 11:00 am
  • More Episodes? Get the App