Ich hatte mich dafür entschieden, mit einigen SuS meiner Schule die Erklärvideo-Studie (Miniprojekt 2) durchzuführen. Da ich ja bekanntermaßen ein vorlautes Mundwerk habe, möchte ich -in der Hoffnung, dass unsere Beiträge auch von den Verantwortlichen gelesen werden- nicht nur die Diskussion zu der Studie hier widerspiegeln, sondern auch einige andere Punkte anmerken.
Ein wichtiger Punkt ist der Zeitfaktor. Es mag ja den Verantwortlichen so vorkommen, als wären drei Wochen eine Menge Zeit um die Studie anzukündigen und auch durchzuführen. Dabei wurde aber anscheinend nicht bedacht, dass gerade kurz vor den Ferien eine Menge Arbeiten/Tests/Klausuren geschrieben werden und es nicht so einfach ist, den entsprechenden Time Slot zu finden, wann die Erhebung durchgeführt werden kann.
Außerdem scheint bei der Planung davon ausgegangen worden zu sein, dass man den Kindern die Einverständniserklärungen mitgibt, diese unterschrieben werden und die Kinder die Zettel am nächsten Tag wieder mitbringen. Dies ist de facto -zumindest an meiner Praktikumschule- nicht so. Da läuft man den EV auch gerne mal eine Woche hinterher. Und Schwupps – sind 10 Tage vergangen ohne dass wirklich etwas passiert wäre.
Die Einverständniserklärungen sind überhaupt so ein Thema für sich. Anscheinend wurde beim Verfassen des Schreibens davon ausgegangen, dass alle Eltern Deutsch als Erstsprache haben. Auch dies ist an meiner Schule nicht so, weswegen es sinnvoll gewesen wäre, die EVs entweder sprachlich einfacher zu gestalten oder alternativ in verschiedenen Sprachen wie Englisch, Türkisch, Arabisch und Bulgarisch anzubieten. Vielleicht wäre der Rücklauf dann noch ein wenig höher gewesen. Ich halte hier gerne das Zitat eines Schülers fest, der die EV (die ich mit den SuS durchgesprochen habe, damit diese ihren Eltern zu Hause erklären können, was drinsteht) durchgelesen hatte und mich dann wörtlich fragte: „Sind die Fragen in dem Fragebogen in Normaldeutsch oder auch in Uni-Deutsch?“
Diese Frage bringt mich zu dem nächsten Aspekt: Ich habe den Fragebogen vorher mit meinen SuS angeschaut und durchgesprochen um sicher zu gehen, dass ALLE Schüler auch verstehen was mit den jeweiligen Fragen gemeint ist. Wie mir die Erfahrung gezeigt hat, war dies auch bitter notwendig, denn es verfügen längst nicht alle SuS über das erforderliche Sprachniveau. Das übrigens bringt mich zu der nächsten Frage: wie sinnvoll ist es, den gleichen Fragebogen für ALLE Jahrgangsstufen von 5-13 anzubieten? Wo bleibt denn da die Binnendiffferenzierung? Sollte man nicht von einem angehenden Abiturienten ein anderes Niveau erwarten, als von einem SoS in der 5. Klasse?
Nun denn… nachdem ich meine Schüler also in 120 Minuten (30 Minuten für die EV, 90 Minuten Durchsprechen der Fragen) auf die Erhebung vorbereitet hatte sind wir in den Computerraum gegangen… – ach halt… einen Computerraum gibt es ja an meiner Praktikumsschule gar nicht (ich weiß, das ist für Forscher aus dem Zentrum für Medien schwer vorstellbar). Stattdessen habe ich also die acht Laptops, die es an der Schule gibt in einen Raum getragen, den ich mir vorher organisiert hatte (ich sage nur Zeitfaktor!). Ich habe es sogar hinbekommen, ausreichend Steckdosen zu finden, damit kein Laptop mitten in der Erhebung plötzlich ausgeht.
Dann bin ich also losgezogen um die 11 SuS, die eine positive EV zurückgebracht hatten abzuholen. Ach nee, ich hatte ja nur 8 Laptops, deswegen habe ich die SuS in zwei Gruppen eingeteilt und sie den Fragebogen nacheinander ausfüllen lassen. Netterweise durfte ich das in der Themenplan-Zeit einer Kollegin durchführen, die die jeweils anderen SuS in der Zwischenzeit unterrichtet hat. Obwohl wir die Fragen vorher besprochen haben, haben meine Schüler durchschnittlich etwa 35 Minuten gebraucht, um den Fragebogen auszufüllen. Dafür gab es aber nur wenige Rückfragen und ich konnte tatsächlich überwiegend im „Frontalbereich“ bleiben.
Trotzdem wäre es hilfreich gewesen, wenn wir Studierenden ein paar Hintergrundinfos zum Fragebogen oder gar eine kleine Anleitung bekommen hätten. Ich hatte mir den Fragebogen zwar vorher angesehen (wenn jetzt irgendwie einige Fragebögen auftauchen, in denen sehr oft „keine Angabe“ gemacht wurde, dann war ich das), trotzdem war ich nicht auf alles vorbereitet. So ergab sich bei mir das Problem, dass bei einem der Kinder der Fragebogen von „18% ausgefüllt“ direkt auf „73% ausgefüllt“ (oder so ähnlich) gesprungen ist. Ich habe zunächst einen Fehler vermutet, bis uns auffiel, dass es wohl eher an den Antworten lag, die gegeben wurden. Diese Antworten hätte ich ja wiederum eigentlich gar nicht sehen sollen… Auf jeden Fall ging mit diesem „Erhebungstag“ eine weitere Doppelstunde ins Land und so gab es nur noch eine kleine Diskussion mit den SuS.
Ein Punkt, den meine SuS (übrigens aus der 7. Klasse, was der älteste Jahrgang an meiner Praktikumsschule ist) angeführt haben ist, dass sie eigentlich eher selten im Internet unterwegs sind und daher die Fragen teilweise nicht beantworten konnten. Bei der vorgegebenen Fächerauswahl waren die SuS teilweise irritiert, weil sie ganz andere Fächer haben, als auf dem Fragebogen angegeben.
Zur Durchführung haben meine SuS bemängelt, dass es bei der Frage „In welchen Fächern lernst Du regelmäßig in Deiner Freizeit und/oder bekommst Du Nachhilfe“ keine Möglichkeit eines „weder/noch“ oder „keine Angabe“ gab. Und ja, ich befürchte auch, dass es Schüler gibt, die weder regelmäßig lernen, noch Nachhilfe bekommen.
Die weniger großen Optimisten unter den Teilnehmern fanden den Fragebogen überflüssig weil „Die Uni-Leute es sowieso nicht hinbekommen, aus den Antworten gute Videos zu machen.“ Sorry liebe Medien-Didaktiker, aber so haben die Kids es gesagt.
Die SuS selbst haben die Frage aufgebracht, wie vertrauenswürdig die Angaben sind, die während der Befragung gemacht werden. Sie haben sich auch die Frage gestellt, wie denn wohl die Antworten von z.B. „schlechten“ SuS zu bewerten sind. Hierzu kann ich nur sagen, dass mich diese Fragen etwas nachdenklich stimmen, denn ich hatte den SuS mehrfach erläutert, dass es keine richtigen oder falschen oder keine erwünschten oder unerwünschten Antworten gibt. Ich habe auch mehrfach verdeutlicht, dass es ganz wichtig ist, dass sie ehrlich antworten und dass sie sich auch keine Sorgen machen müssen, weil ja niemand weiß, wer was geantwortet hat. Ich hoffe also, dass meine SuS wahrheitsgemäß geantwortet haben.
Die SuS, die Erklär-Videos benutzen, wünschen sich eine Art „Qualitätssicherung“ für diese Videos, da sie selbst ja keine Experten sind und die Qualität (bezogen auf die Inhalte) nicht einschätzen können. Sie fänden es gut, wenn entweder andere Nutzer die Qualität beurteilen könnten oder sogar „die Forscher von der Uni“ eine Art „Schauempfehlung“ herausgeben würden. Prinzipiell finde ich diesen Gedanken der SuS zwar gut, aber mir ist natürlich bewusst, dass dies rein logistisch wahrscheinlich kaum umzusetzen wäre. Die Aussage zeigt aber, dass diejenigen SuS, die die Videos nutzen das tatsächlich deswegen tun, weil sie etwas (inhaltlich Richtiges) lernen wollen.
Mein Fazit: bezogen auf die Durchführung der Studie ist von falschen Voraussetzungen ausgegangen worden. Da sehe ich noch eine Menge „Luft nach oben“ bzw. Nachbesserungsbedarf. Die Motivation der SuS an der Studie teilzunehmen reichte von „Wenigstens muss ich dann keinen normalen Unterricht machen“ bis „Ich würde inhaltlich richtige Erklärvideos gerne für mich zum Lernen nutzen“. Zu den hier genannten Vorstellungen, was eine gute Motivation für SuS darstellt, an der Studie teilzunehmen sage ich jetzt mal nix mehr, das haben ja schon andere kommentiert…
Liebe Susanne,
ich möchte mich bei dir für deine kritische Reflexion der Durchführung der Studie bedanken. Ja, die Beiträge werden gelesen. 😉
Ich werde deinen Beitrag gerne für mich persönlich vermerken und auch die anderen Lehrenden noch einmal auf deinen Beitrag hinweisen, damit die Dinge, die du ansprichst auch geändert werden (darauf habe ich nämlich keinen Einfluss).
Liebe Grüße,
Sarah