Rückfall ins Mittelalter – dank Big Data

Ein Studienabbruch kann eine persönliche Katastrophe sein. Jahrelang gelernt – und am Ende gescheitert. Wer will nicht verhindern, dass Studenten diese schmerzhafte Erfahrung machen?

Ein Weg in den USA sind „E-Tutoren“: Diese Programme bauen auf den Datenschätzen von Big Data auf und sollen Studierende bei der Entscheidung unterstützen, welche Kurse sie erfolgreich belegen können. Zum Beispiel an der „Austin Peay State University“ in Tennessee, wo die Software „Degree Compass“ zum Einsatz kommt. Sie kann eine Prognose stellen, in welchem Kurs ein Studierender mindestens mit der Note „gut“ abschneidet – und das mit einer Sicherheit von 90 Prozent. Im Durchschnitt aller Studenten sind aber nur 60 Prozent genauso erfolgreich … (1)

Die Methode: In einer Datenbank finden sich die Studienverläufe tausender Studenten aus der Vergangenheit. Sie lassen sich zu Clustern zusammenfassen, mit sehr ähnlichen Kurs- und Leistungskombinationen. Dann vergleicht der Algorithmus bildungstechnische Merkmale: die Eigenschaften des ratsuchenden Studenten mit den Clustern aus der Datenbank. Das beste „Matching“ führt zur Empfehlung eines Kurses, für den in der Vergangenheit Studenten die Note „gut“ bekamen – und dieselben Merkmale aufwiesen.

An dieser Stelle würde ein Werbetext enden … doch in Wirklichkeit gehen die Fragen erst los: Was passiert, wenn die Stochastik die Regie bei persönlichen Entscheidungen übernimmt? Was passiert, wenn die Extrapolation der Vergangenheit die Zukunft bestimmt? Was passiert, wenn ein stochastisch perfektes System an die Stelle individueller Überlegungen tritt?

Regie der Stochastik: Natürlich wird es im Beratungsgespräch heißen, die Aussagen des Programms dienten nur der Orientierung. Doch allein der ökonomische Druck wird dazu führen, dass die stochastischen Aussagen im Vordergrund stehen. Die scheinbar objektiven Informationen nisten sich im Bewusstsein ein, das subjektive Urteil tritt in den Hintergrund, der Entscheidungsprozess nimmt einen bequemeren Verlauf, da mathematisch „exakte“ Argumente den Ausschlag geben. Die Auseinandersetzung mit eigenen Stärken und Schwächen wird ausgelagert, die Verantwortung für das eigene Leben relativiert der Algorithmus. Auf der Strecke bleibt die Freiheit des selbstbewussten Subjekts, das sich einer stochastischen Scheinrationalität unterzuordnen hat.

Extrapolation: Das ist ein altes Problem, das bei statistischen Prognosen auftaucht. Die Zukunft wird niemals sein wie die Vergangenheit – trotzdem versuchen Prognostiker, mit Daten von gestern Voraussagen zu machen. Es sind aber Voraussagen, die auf der Wahrscheinlichkeitsrechnung beruhen, weshalb sie im individuellen Fall weit von der Wahrheit entfernt sein können. Denn: Bei einer Wahrscheinlichkeit von 90 Prozent müssen zehn Prozent durchs Raster fallen – keiner kann voraussagen, wer das sein wird! Das Denken in Wahrscheinlichkeiten ist schwierig und könnte viele Menschen schlicht überfordern.

Perfektes System: Der stochastische Algorithmus arbeitet ohne Emotionen. Seine Ergebnisse sind mathematisch fundiert und rational nicht mehr anzuzweifeln. Wer trotz guter Prognose „versagt“, hat seine Chancen nicht genutzt. Diese Einschätzung folgt derselben neoliberalen Denkhaltung, die Scheitern ausschließlich personalisiert und wenig an sozio-ökonomischen Rahmenbedingungen festmacht. Angesichts der Objektivität von Big Data wird das Verdammungsurteil noch härter ausfallen.

Die Benchmark sind die stochastischen Erfolgsmenschen: Es droht eine standardisierte Blaupause, an der sich künftig Bildungsbiografien zu orientieren haben. Da bleibt kein Platz für Zufälle, persönliche Begegnungen oder überraschende Erkenntnisse. Alles was das Leben in seiner Vielfalt ausmacht, gerät ins Räderwerk von Big Data. Die scheinbare Voraussagbarkeit ist der natürliche Feind kreativer Spontanität; die menschliche Freiheit wird in ihrem Kern bedroht. Dazu gehört auch die Chance des Scheiterns, das Recht auf Umwege im Leben und die Möglichkeit, aus eigenen Erfahrungen sein Leben zu gestalten. Nicht programmiert durch einen Algorithmus, der Studenten erklärt, was ihre nächsten Schritte sein sollten.

Resümee: Big Data in der Studentenberatung – auch an diese Anwendung knüpfen Fans digitaler Bildung große Hoffnungen. Weniger Studienabbrüche, bessere Noten – wer wollte das nicht den Studenten wünschen? Nur der Weg über Big Data scheint zweifelhaft zu sein. Statt Anstöße zur persönlichen Entwicklung zu geben, kalkulieren Programme wie „Degree Compass“ Wahrscheinlichkeiten des Studienerfolges. Eigentlich ein Rückfall ins Mittelalter: Damals waren Großvater und Vater Bäcker, also lernte auch der Sohn dieses Handwerk …

Bald bestimmt nicht mehr die soziale Herkunft, sondern ein Algorithmus, welcher Weg im Zeitalter von Big Data einzuschlagen ist. Was für ein Rückschlag für die Freiheit des Menschen, was für eine rückständige Technologie!

Literatur:
1) Mayer-Schönberger, Viktor / Cucier Kenneth: Lernen mit Big Data. Die Zukunft der Bildung. Redline, München, 2014

About The Author

1 Kommentar zu „Rückfall ins Mittelalter – dank Big Data“

  1. Zusätzlich zu den zahlreichen bereits genannten kritischen Aspekten, sei im Zusammenhang mit stochastischen Auswahlverfahren an dieser Stelle auch noch an den Satz von Bayes bzw. an die Verteilung von “false positives” und “false negatives” erinnert, die viele statistische Laien auf den ersten Blick ebenfalls gerne falsch einschätzen. Nehmen wir einmal an, ein beliebiger Studiengang könnte von ca. 80% der Studieninteressierten in der Realität mit Erfolg abgeschlossen werden. Eine Software, die auf Basis biographischer Daten ein positives oder negatives Abschließen mit 90%iger Sicherheit vorhersagen kann (und sich dementsprechend bei 10% aller Vorhersagen irrt), würde im Falle von 1.000 Studieninteressierten also folgende Ergebnisse generieren:

    – Von 800 geeigneten Interessenten würden 720 korrekt als geeignet eingestuft (90%).
    – Von 800 geeigneten Interessenten würden 80 inkorrekt als ungeeignet eingestuft (10%).

    – Von 200 ungeeigneten Interessenten würden 180 korrekt als ungeeignet eingestuft (90%).
    – Von 200 ungeeigneten Interessenten würden 20 inkorrekt als geeignet eingestuft (10%).

    Damit würden insgesamt 80 + 180 = 260 Interessenten als ungeeignet eingestuft, von denen aber lediglich 180 Interessenten tatsächlich ungeeignet sind. Wird eine beliebige Person aus der Gruppe von 1.000 Interessenten als ungeeignet eingestuft, liegt die Wahrscheinlichkeit dafür, dass diese Person auch tatsächlich ungeeignet ist, somit nicht bei 90% (Trefferwahrscheinlichkeit des Algorithmus), sondern lediglich bei 69% (180/260) – fällt also im Verhältnis zum “Werbeclaim” ganz erheblich ab. Wie stark die Differenz zwischen der plakativen Aussage und den tatsächlichen Studienchancen am Ende ausfällt, hängt vom realen Verhältnis geeigneter zu ungeeigneter Studienkandidaten in beliebigen Interessiertengruppen ab, welches man ja aber a priori eigentlich gar nicht kennen kann. Die gewünschte Sicherheit von 90% würde der Test auf Individualebene nur dann produzieren, wenn sich die Eignung bzw. Nichteignung genau im Verhältnis 50/50 über die Gruppe der Studieninteressenten verteilt. Ist der Studiengang dagegen besonders schwer, so dass nur 10% der Interessenten ihn tatsächlich bestehen könnten, ergibt sich ein umgekehrtes Problem:

    – Von 100 geeigneten Interessenten würden 90 korrekt als geeignet eingestuft (90%).
    – Von 100 geeigneten Interessenten würden 10 inkorrekt als ungeeignet eingestuft (10%).

    – Von 900 ungeeigneten Interessenten würden 810 korrekt als ungeeignet eingestuft (90%).
    – Von 900 ungeeigneten Interessenten würden 90 inkorrekt als geeignet eingestuft (10%).

    In diesem Fall würden nun 90 + 90 = 180 Interessenten als geeignet eingestuft, von denen aber nur 90 Interessenten tatsächlich geeignet sind. Wird eine beliebige Person aus dieser Gruppe als geeignet eingestuft, ist sie also lediglich mit einer Wahrscheinlichkeit von 50% tatsächlich geeignet – weit entfernt von der wohlklingenden 90%igen Sicherheit des Algorithmus. Würden sich die Interessenten nur auf Basis der stochastischen Bewertung im Studiengang einschreiben, würden demnach 50% keinen Abschluss erreichen – womit die algorithmische Auswahl vermutlich kein bedeutend besseres Ergebnis erzielen würde, als die bereits etablierten Formen der Studienberatung.

    Immerhin gilt aber: Würden die 1.000 Interessenten die Einschreibung von einem Münzwurf (50/50) abhängig machen, wäre folgendes Bild zu erwarten:

    – Von 100 geeigneten Personen würden sich 50 einschreiben und bestehen.
    – Von 900 ungeeigneten Personen würden sich 450 einschreiben und durchfallen.

    In diesem Fall ergäbe sich (die Problematik begrenzter Studienplätze sei an dieser Stelle einmal ausgeklammert) also eine Abbruchquote von 90% – im Gegensatz zur Abbruchquote von 50% bei Vertrauen auf den Algorithmus. Im Vergleich mit einer (irrationalen) Zufallswahl liefert der Algorithmus also ein deutlich besseres Ergebnis – ob ein solches System aber eine individualisierte, interessensgeleitete Studienberatung und spätere Förderung ersetzen oder auch nur sinnvoll ergänzen kann, darf getrost bezweifelt werden – zumal ja (leider) davon auszugehen ist, dass viele Studieninteressenten, viele Eltern aber auch viele Studienberater die Aussagekraft der Tests (90% Treffsicherheit vs. 69% und 50% Treffsicherheit in den beiden Beispielen) fehlerhaft einschätzen dürften.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

 

Hinweis: Die Markierung der Checkbox ist kaum zu erkennen. Falls der Kommentar nicht abgeschickt werden kann, bitte nochmals anklicken. 

Ich habe die Datenschutzerklärung gelesen und akzeptiert.

Scroll to Top