Careum FachNews

Moralisch handelnde Roboter in der Pflege – geht das?

10.11.2020     Elke Steudter     784 Views     0 Kommentare

Pflegeroboter gelten auch in der Pflege oft als Hoffnungsträger. Dabei können technische Systeme den Pflegenotstand nicht lösen, sondern lediglich abmildern, meint Catrin Misselhorn, Philosophieprofessorin an der Universität Göttingen.

 

Abbildung 1: Roboter sind auch in der Pflege einsetzbar (Quelle: visualhunt.com)


Catrin Misselhorn beschäftigt sich mit Fragen zur Roboter- und Maschinenethik und meint «Pflegeroboter sollten in der Lage sein, moralische Situationen zu erkennen». Wie das gehen kann, erläutert sie im Interview mit Brigitte Teigeler, Redakteurin der NOVACura.

 


Frau Professorin Misselhorn, als Argument für den Einsatz von technischen Pflegesystemen wird meist der Pflegenotstand genannt. Sind technische Systeme derzeit so weit, dass sie etwas gegen den Pflegemangel ausrichten können?
Ausgehend von der Science-Fiction-Literatur stellt man sich Pflegesysteme häufig als Butler oder Diener in Roboterform vor, die älteren Menschen dabei helfen, den Alltag möglichst eigenständig zu bewältigen. Im Extremfall würden sie eine Pflegekraft eins zu eins ersetzen. Ein solcher Pflegeroboter steht derzeitig nicht in Aussicht. Die Alternative ist die Unterstützung durch Systeme, die sehr spezialisierte Aufgaben übernehmen.

Was können das für Systeme sein?
Das sind zum Beispiel Geh- und Mobilitätshilfen, robotergestützte Geräte für Rehabilitationsmaßnahmen oder Notfallassistenten. Manche Systeme haben vorrangig das Ziel, die Pflegekräfte zu entlasten. Da der Pflegenotstand ein so ernstes Problem ist, sollte man möglichst viele verschiedene Optionen im Umgang damit verfolgen, darunter auch technische. Allerdings bin ich der Auffassung, dass es keine rein technische Lösung des Pflegenotstands geben kann, sondern dass es immer auch auf die gesellschaftliche und soziale Einbettung technologischer Entwicklung ankommt.

Gibt es schon Pflegeroboter, die praktische pflegerische Handlungen übernehmen, zum Beispiel das Positionieren oder Anreichen von Mahlzeiten?
Die Gabe von Essen und Trinken an Pflegebedürftige ist eine sehr komplexe Aufgabe, die eine Reihe sensibler Entscheidungen erfordert. Das beginnt beim Grad der Unterstützung, den Pflegebedürftige benötigen wie die beste Positionierung bei der Nahrungsaufnahme, Hilfsmittel wie Brille oder Zahnprothese, Geschwindigkeit bei der Verabreichung des Essens. Künstliche Systeme, die eine so komplexe Tätigkeit ausführen können, gibt es bislang nicht.

Sie beschäftigen sich als Wissenschaftlerin vor allem mit dem moralischen Handeln von Maschinen. Können Pflegeroboter denn so programmiert werden, dass sie moralische Entscheidungen treffen können?
Meine Vision habe ich in meinem Buch «Grundfragen der Maschinenethik» am Beispiel eines Softwaremoduls für einen Pflegeroboter dargelegt. Dieses Softwaremodul soll in der Lage sein, moralische Situationen in der Altenpflege zu erkennen. Durch Training und die permanente Interaktion mit dem Nutzer/der Nutzerin soll es sich dann auf die individuellen Moralvorstellungen des einzelnen Menschen einstellen können und diese nach ihren eigenen Moralvorstellungen behandeln.

Der Pflegeroboter wäre also so etwas wie ein moralisches Ebenbild der Person, die ihn nutzt.
Genau. Das Ideal wäre, dass das Pflegesystem so etwas wie ein moralischer Avatar des Nutzers ist. Ein solches System könnte die Selbstbestimmung praktisch fördern, weil die Nutzer und Nutzerinnen länger in ihrer gewohnten häuslichen Umgebung leben können. Weil sie selbst bestimmen, wie das System sie behandelt, und sich nicht permanent als abhängig von anderen erfahren, könnte das auch ihre Selbstachtung stärken.

In der Pflege geht es oft darum, zwischen gesundheitlichen Risiken und der Selbstbestimmung abzuwägen. Wie könnte ein Roboter handeln, wenn ein pflegebedürftiger Mensch zum Beispiel sein Medikament nicht nehmen möchte?
Im Sinn der dargelegten Vision würde ich bei einer Person, die kognitiv in der Lage ist, selbst Entscheidungen über ihr Leben zu fällen, diese ungern einem Roboter überlassen. Roboter sollen die menschliche Selbstbestimmung fördern und sie nicht beeinträchtigen – selbst wenn es zu seinem vermeintlich Besten ist.

Was sind weitere ethische Entscheidungen, die Pflegeroboter betreffen?
Andere ethische Entscheidungen betreffen etwa die Fragen: Erstens: Wann sollte ein Pflegeroboter die Angehörigen verständigen oder den medizinischen Dienst alarmieren, wenn jemand sich eine Zeit lang nicht rührt? Zweitens: Soll das System den Nutzer rund um die Uhr überwachen? Und drittens: Wie ist mit den Monitoring-Daten zu verfahren? In solchen Situationen muss das System zwischen bestimmten moralischen Werten abwägen: Im ersten Fall zum Beispiel zwischen der Selbstbestimmung des Nutzers und bestimmten gesundheitlichen Risiken. Im zweiten Fall zwischen der Selbstbestimmung der Nutzer und Nutzerinnen, der Sorge der Angehörigen und erneut der Gesundheit. Im dritten Fall geht es wiederum um die Selbstbestimmung der Nutzer und Nutzerinnen, insbesondere um ihre informationelle Selbstbestimmung, Gesundheit und die Sorge der Angehörigen.

Welche weiteren Risiken sehen Sie beim Einsatz von technischen Systemen in der Pflege?
Das grösste Risiko besteht in dem Irrglauben, Technologien allein könnten eine Lösung des Pflegenotstands darstellen. Vielleicht können sie einen Beitrag dazu leisten. Nicht zu vernachlässigen ist aber, dass es immer auch vom gesellschaftlichen Hintergrund abhängt, ob ein solches System segensreich ist oder nicht.

Segensreich wäre also nicht, wenn alte Menschen allein in ihrer Wohnung leben und von einem Roboter oder Alexa an den Toilettengang, das Essen und die Medikamenteneinnahme erinnert werden.
Ein technisches Pflegesystem darf keineswegs dazu führen, dass Menschen in ihren Wohnungen vereinsamen. Deshalb muss auch eine sinnvolle soziale Einbettung dieser Technologien gewährleistet sein. Der Schwerpunkt wird am Ende immer auf der Frage liegen, wie wir alte Menschen in unserer Gesellschaft behandeln wollen und in welcher Gesellschaft wir selbst leben wollen, wenn wir alt sind. Eine rein technische Lösung des Pflegenotstands kann es nicht geben.

Was denken Sie, was in 20 Jahren im Hinblick auf Pflegerobotik möglich sein wird?
Diese Frage ist schwer zu beantworten. Sie vernachlässigt, dass es immer zwei relevante Parameter gibt: Was ist technisch möglich, und was wollen wir erreichen? Dabei wäre es falsch, davon auszugehen, dass wir erst mal die technischen Möglichkeiten schaffen und dann die Ziele bestimmen, für die wir sie einsetzen wollen. Vielmehr ist es so, dass die Entwicklung davon abhängt, was wir erreichen wollen bzw. umgekehrt auf bestimmte Ziele hinführt und andere ausschliesst. Das geschieht allerdings häufig nur implizit und nicht reflektiert, was eine Gefahr darstellt. Ich sehe ethische Überlegungen deshalb nicht als Entwicklungshemmnisse, sondern als Motoren, die die Innovation in eine bestimmte Richtung lenken.

 

Prof. Dr. Catrin Misselhorn ist Professorin für Philosophie an der Georg-August Universität Göttingen. Sie gilt als Vordenkerin im Bereich der Maschinen- und Roboterethik in Deutschland. Ihr Buch «Grundfragen der Maschinenethik», erschienen im Reclam-Verlag 2018 (3. Aufl. 2019), wurde auf den 3. Platz der Sachbuchbestenliste von ZDF, DIE ZEIT und Deutschlandfunk Kultur gewählt.
catrin.misselhorn@uni-goettingen.de

 

Das vollständige Interview mit Prof. Dr. Misselhorn lesen Sie auf der Website des Hogrefe Verlags https://www.hogrefe.com/ch/thema/pflegeroboter-ethik-und-moral-als-maxime-ihres-handelns


Kommentare

Diskutieren Sie mit

Bitte folgenden Code im Feld eintragen: 82961
* = bitte ausfüllen