5 Fragen an Prof. Dr. Catrin Misselhorn
Catrin Misselhorn ist Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie an der Universität Stuttgart. Sie befasst sich mit den Grundfragen der Maschinenethik und sprach mit uns über Roboter in der Altenpflege.
Catrin Misselhorn ist Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie an der Universität Stuttgart. Sie befasst sich mit den Grundfragen der Maschinenethik und sprach mit uns über Roboter in der Altenpflege.
Das hängt stark vom Kontext ab. So wird man an einen Industrieroboter andere Maßstäbe anlegen als an einen sozialen Roboter. Für einen Therapieroboter wie Paro ist es sicherlich von Nutzen, dass er einer kleinen Robbe nachempfunden ist und niedlich aussieht. In anderen Kontexten würden solche stofftierartigen Roboter hingegen eher nerven. Zudem hat Paros Aussehen auch schon zu Missverständnissen geführt, weil demente Patienten ihn ins Wasser gelegt haben. Das entspricht ja dem natürlichen Lebensraum einer Robbe. Jenseits der unmittelbar wahrnehmbaren Gestalt sind also eine ganze Reihe weiterer Faktoren zu berücksichtigen.
Wo und unter welchen Bedingungen könnten Sie sich den Einsatz von solchen Robotern vorstellen?
Gerade im Bereich der häuslichen Altenpflege könnten Roboter einen Beitrag dazu leisten, dass Menschen länger in ihren eigenen vier Wänden leben können. Allerdings müsste es dem Einzelnen freigestellt sein, ob er sich von einem Roboter pflegen lassen möchte oder nicht. Außerdem sollte ein Pflegesystem für zu Hause den Nutzer nicht bevormunden, sondern sich an seine Wertvorstellungen anpassen.“
Ja! Da Empathie durch die Wahrnehmung von Reizen entsteht, die grundlegender sind als die Kategorisierung in Mensch oder Maschine. Genau aus diesem Grund gibt es auch moralische Einschränkungen für unser Verhalten gegenüber Robotern, die Empathie auslösen können, auch wenn diese nicht wirklich Gefühle empfinden.
Es gibt zwei Ansätze bei der Konstruktion von Pflegerobotern: Der eine sieht im Pflegeroboter eine Art Butler, der alle möglichen Funktionen übernimmt. Die Alternative dazu ist, spezialisiertere Assistenzsysteme anzubieten, die jeweils nur für einen kleinen Aufgabenbereich zuständig sind. Möglicherweise ist der zweite Ansatz zielführender – aber es lohnt sich, in der Forschung zunächst einmal beide parallel zu verfolgen, um zu sehen, wie sie sich weiterentwickeln lassen.
Eine große Gefahrenquelle ist für mich die mangelnde Transparenz der Algorithmen, die unser Leben bestimmen, was beispielsweise ungewollte Diskriminierung zur Folge haben kann. Ein anderes Problem liegt in der Verletzung der Persönlichkeitsrechte, zum Beispiel wenn Menschen von Robotern am Telefon getäuscht werden, die vorgeben, echte Personen zu sein. Aber auch die Bedrohung der Privatsphäre und der informationellen Selbstbestimmung könnten zum Thema werden. Im Zentrum dieser Befürchtungen steht die Sorge, künstliche Intelligenz könnte die Autonomie und Verantwortungsfähigkeit von Menschen untergraben.