Menu

Warum eine Rentenversicherung, wenn ich mit 50 sterbe?

Die Digitalisierung führt zu neuem Wissen, das die Gesellschaft erschüttern kann: So lässt sich vorhersagen, wer zukünftig erkranken oder wer wann sterben dürfte. Auf diesen Wandel sind wir nicht besonders gut vorbereitet.

Soeben ist der jährliche IT- bzw. Digitalgipfel zu Ende gegangen, der liebenswerte, gipfelgewordene Digitalkonjunktiv der Bundesregierung: könnte.com, müsste.org, hätte-sollen.de.

Einer der Schwerpunkte dort war das Thema E-Health, also digitale Gesundheit zwischen Vernetzung und neuem Wissen durch neue Forschungsmethoden. Wissen! Ein Wort wie eine Hirngranate, das immer einen Wirkungstreffer erzeugt. Wissen ist Macht, Rohstoff und Währung, Wissen ist Ziel, Weg und Zweck gleichzeitig. Im digitalen 21. Jahrhundert dreht sich alles um Daten, Datenströme und Datenverarbeitung, die digitalen Vorformen des Wissens also.

Aber die neuen Technologien mit ihren enormen und gefälligst offensiv auszuschöpfenden Vorteilen – offenbaren auch, dass große Teile der analogen Gesellschaft aufgebaut sind auf Nichtwissen. Speziell dem Nichtwissen der Zukunft. Im Bereich der Gesundheit lässt sich am besten beobachten, welche Rolle Nichtwissen spielt. Schließlich gibt es dort spätestens seit 2003 ein oberlandesgerichtlich festgestelltes “Recht auf Nichtwissen”.

Der Patient dürfte morgen sterben – verzichtet man auf die Therapie?

Im Mai 2017 wurde ein Artikel in der Zeitschrift “Nature” veröffentlicht: “Precision Radiology: Predicting longevity using feature engineering and deep learning methods in a radiomics framework”. Tatsächlich verbirgt sich hinter diesem Forschungsansatz gesellschaftlicher Sprengstoff, denn das Ziel der Studie war die Vorhersage des Todeszeitpunkts von Patienten mithilfe von Deep Learning, einer Variante der Künstlichen Intelligenz. Es offenbart sich die wunderbare, schreckliche Ambivalenz der digitalen Zukunft der Gesundheit.

Fünf Jahre in die Zukunft vermutet: Inzwischen ist ein Produkt auf dem Markt, das den Todeszeitpunkt eines Krankenhauspatienten mit 99-prozentiger Wahrscheinlichkeit bestimmen kann. Die Maschine schätzt, dass Patient A morgen stirbt. Wendet man die teure Therapie X bei ihm an? Die Frage erscheint unmenschlich, aber sie ist ja bereits Realität.

Kosten sind in Gesundheitssystemen eindeutig ein Überlebensfaktor, und Ärzte sind – ohne dass es offen ausgesprochen werden müsste – heute schon oft gezwungen, ähnliche Entscheidungen zu treffen: von der Reihenfolge lebensrettender Operationen über die Vergabe von Organen bis zur Einschätzung, ob eine Behandlung erfolgsversprechend und damit vertretbar erscheint. Das erklärte Ziel der erwähnten Forscher: Solche Deep-Learning-Systeme “könnten den Ärzten bestimmte Entscheidungen abnehmen.”

Arbeitgeber kaufen Gesundheitsprognosen ein

Es ist wichtig zu begreifen, dass hier nicht Wissenschaft und Forschung das Teufelszeug sind – sondern dass in der digitalen Gesellschaft durch neue Datenströme und neue Auswertungsmethoden unvermeidlich Wissen entsteht mit dem Potenzial, die Gesellschaft zu erschüttern. Es kann deshalb weder die Aufgabe der Wissenschaft sein, diese Zusammenhänge nicht zu erforschen, noch sie dauerhaft geheim zu halten. Es bleibt nur die Möglichkeit eines neuen Umgangs mit Wissen, das Bereiche der Gesellschaft beleuchtet, die vorher im beruhigenden Nebel des Nichtwissens verborgen waren.

Denn es geht ja nicht bloß um die Sterblichkeit von schwerkranken Patienten. Ebenfalls im Mai 2017 haben Forscher der Cornell University bei der Vorhersage von Alkohol- und Drogenverwendung bei einzelnen Personen eine 81- bzw. 84-prozentige Wahrscheinlichkeit erreichen können – allein anhand der Daten in sozialen Netzwerken. Längst gibt es Unternehmen, die anhand öffentlich zugänglicher und käuflicher Daten Prognosen verkaufen, wie oft und wie lange jemand krank werden könnte. Eingekauft werden diese Prognosen natürlich von Arbeitgebern.

Das klingt wie ein gesundheitlicher Datenschutz-GAU, der größte Proteste der Bevölkerung nach sich ziehen dürfte. Aber das hängt erfahrungsgemäß nur von der Verpackung ab. Angenommen, es gäbe eine datenbasierte Vorhersagemöglichkeit, eine Selbstmordgefährdung festzustellen – man könnte darauf wetten, dass es von der Boulevardpresse angeführte Proteste in die entgegengesetzte Richtung gäbe. Zum Beispiel bei der Einstellung von Piloten. Und Überraschung, natürlich kann Facebook mit hoher Wahrscheinlichkeit längst die Selbstmordgefährdung einer Person vorhersagen.

  • “Wieso werden meine Steuergelder dazu verwendet, Leute zu retten, die sich mit 99-prozentiger Wahrscheinlichkeit morgen umbringen?”
  • “Weshalb sollte ich einen Arbeitskollegen akzeptieren, der laut algorithmischer Auswertung Alkoholiker ist?”
  • “Warum bezahle ich Rentenversicherung, wenn der Computer ohnehin sagt, dass ich mit 50 sterbe?”

Das sind realistische Beispiele für die gesellschaftlichen Frontverläufe eines neuen Wissens. Und ja, diese Fragen mögen auf den ersten Blick kleingeistig und sogar menschenfeindlich wirken, aber sie werden gestellt und politisch ausgeschlachtet werden. Denn ihnen wohnt in vielen Fällen eine Ambivalenz inne.

Eine 99-prozentige Wahrscheinlichkeit ist keine Gewissheit

Die Frage des Alkohol- und Drogenmissbrauchs hat im Büro zum Beispiel einen anderen Klang als auf einer Baustelle, wo das eigene Leben von einem Kollegen abhängen kann. Es kann der Punkt kommen, wo neues Wissen erhebliche gesellschaftliche Erschütterungen mit sich bringt. Die breite Akzeptanz von Solidargemeinschaften hängt zum Beispiel ziemlich stark vom Unwissen ab, etwa von der theoretischen Möglichkeit, irgendwann selbst betroffen sein zu können.

Und hier bekommt das neue Wissen über die Zukunft einen dunklen Drall: denn eigentlich handelt es sich immer nur um Wahrscheinlichkeiten. Und auch eine 99-prozentige Wahrscheinlichkeit ist eben keine Gewissheit – sie wird bloß oft so behandelt. Vom Publikum und erst recht von Unternehmen, die damit Geld verdienen. Für den Markt ist weniger die messbare Realität relevant und mehr, ob ausreichend viele Leute an ein Produktversprechen glauben. Und wer nicht eingestellt wird, weil er mit seinem Datenprofil zu 90 Prozent Alkoholiker sein könnte, kann lange darum kämpfen, zu den 10 Prozent zu gehören. Wenn er es überhaupt je erfahren sollte.

Heute schon töten Drohnen Leute, die mit einer bestimmten Wahrscheinlichkeit Terroristen sein könnten. Man erkennt daran, dass selbst bei der Frage nach Leben und Tod längst Wahrscheinlichkeit die Gewissheit ersetzt hat: die rote Linie ist überschritten an den Rändern der westlichen Gesellschaften. Deshalb kann diese Haltung leicht ins Innere einsickern. Auch weil Menschen außerordentlich schlecht bei der realistischen Bewertung von Wahrscheinlichkeiten sind.

Dieses Wissen kollidiert mit den Grundwerten unserer Gesellschaft

Und dabei sind noch nicht einmal die Fehler berücksichtigt, über die der Fall Lukas Hartmann eine wertvolle Lektion erteilen kann. Hartmann hatte sich bei 23andme angemeldet, einer unter anderem von Google finanzierten Firma, die Genomauswertungen verkaufte. Eines Tages bekam er eine Mail, dass etwas Brisantes gefunden worden sei. Verbunden mit der Frage, ob er das wirklich wissen wolle und wenn nicht, solle er einfach nicht draufklicken. Soviel zur digitalen Realität des Rechts auf Nichtwissen. 23andme erklärte Hartmann, er habe eine Genomkonstellation, die zu einer seltenen Erbkrankheit namens Gliedergürteldystrophie führe. Die ist nicht heilbar und führt nicht selten zum frühen Tod.

Hartmann aber ist hochspezialisierter Programmierer. Er betrachtete seinen angeblichen Gen-Fehler deshalb als Bug, lud von der Seite von 23andme sein eigenes Genom herunter und machte sich ans Debuggen seines genetischen Codes. Was er fand, war tatsächlich ein Bug, allerdings in der Auswertungssoftware von 23andme. Der ihm schließlich auch vom Unternehmen selbst bestätigt wurde. Ein Bug hatte Lukas Hartmann für unheilbar krank erklärt.

Digitalisierung bedeutet auch, das gesellschaftliche Fundament des Nichtwissens zu durchlöchern. Etwa, weil wir Wissen aus datengestützten Maschinen-Prognosen als faktische Realität behandeln. In manchen Bereichen gibt es kaum andere Möglichkeiten, in anderen kollidiert die Anwendung dieses neuen Wissens oder vermeintlichen Wissens mit den Grundwerten der Gesellschaft. Und wir sind nicht besonders gut darauf vorbereitet. Trotz Digitalgipfel.

Link zum Original

Leave a Reply

Your email address will not be published. Required fields are marked *