Direkt zum Inhalt

5 Fragen an Prof. Dr. Catrin Misselhorn

Catrin Misselhorn ist Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie an der Universität Stuttgart. Sie befasst sich mit den Grundfragen der Maschinenethik und sprach mit uns über Roboter in der Altenpflege.

afbeelding

Catrin Misselhorn ist Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie an der Universität Stuttgart. Sie befasst sich mit den Grundfragen der Maschinenethik und sprach mit uns über Roboter in der Altenpflege.

Frau Misselhorn, wie könnten die Roboter von morgen aussehen?

Das hängt stark vom Kontext ab. So wird man an einen Industrieroboter andere Maßstäbe anlegen als an einen sozialen Roboter. Für einen Therapieroboter wie Paro ist es sicherlich von Nutzen, dass er einer kleinen Robbe nachempfunden ist und niedlich aussieht. In anderen Kontexten würden solche stofftierartigen Roboter hingegen eher nerven. Zudem hat Paros Aussehen auch schon zu Missverständnissen geführt, weil demente Patienten ihn ins Wasser gelegt haben. Das entspricht ja dem natürlichen Lebensraum einer Robbe. Jenseits der unmittelbar wahrnehmbaren Gestalt sind also eine ganze Reihe weiterer Faktoren zu berücksichtigen.

Wo und unter welchen Bedingungen könnten Sie sich den Einsatz von solchen Robotern vorstellen?

Gerade im Bereich der häuslichen Altenpflege könnten Roboter einen Beitrag dazu leisten, dass Menschen länger in ihren eigenen vier Wänden leben können. Allerdings müsste es dem Einzelnen freigestellt sein, ob er sich von einem Roboter pflegen lassen möchte oder nicht. Außerdem sollte ein Pflegesystem für zu Hause den Nutzer nicht bevormunden, sondern sich an seine Wertvorstellungen anpassen.“

Es wäre paradox: Einerseits wüssten wir, dass der Roboter, der uns pflegt, nur simuliert. Andererseits könnte sich diese Interaktion durchaus real anfühlen. Können Menschen echte Empathie für Maschinen empfinden?

Ja! Da Empathie durch die Wahrnehmung von Reizen entsteht, die grundlegender sind als die Kategorisierung in Mensch oder Maschine. Genau aus diesem Grund gibt es auch moralische Einschränkungen für unser Verhalten gegenüber Robotern, die Empathie auslösen können, auch wenn diese nicht wirklich Gefühle empfinden.

In der Realität enttäuschen bislang sowohl humanoide als auch nichtmenschenähnliche Roboter in der Pflege. Wie könnte hier eine gemeinsame Zukunft aussehen?

Es gibt zwei Ansätze bei der Konstruktion von Pflegerobotern: Der eine sieht im Pflegeroboter eine Art Butler, der alle möglichen Funktionen übernimmt. Die Alternative dazu ist, spezialisiertere Assistenzsysteme anzubieten, die jeweils nur für einen kleinen Aufgabenbereich zuständig sind. Möglicherweise ist der zweite Ansatz zielführender – aber es lohnt sich, in der Forschung zunächst einmal beide parallel zu verfolgen, um zu sehen, wie sie sich weiterentwickeln lassen.

Mit welchen Gefahren müssen wir allgemein rechnen, wenn wir in Zukunft mehr und mehr mit künstlicher Intelligenz interagieren?

Eine große Gefahrenquelle ist für mich die mangelnde Transparenz der Algorithmen, die unser Leben bestimmen, was beispielsweise ungewollte Diskriminierung zur Folge haben kann. Ein anderes Problem liegt in der Verletzung der Persönlichkeitsrechte, zum Beispiel wenn Menschen von Robotern am Telefon getäuscht werden, die vorgeben, echte Personen zu sein. Aber auch die Bedrohung der Privatsphäre und der informationellen Selbstbestimmung könnten zum Thema werden. Im Zentrum dieser Befürchtungen steht die Sorge, künstliche Intelligenz könnte die Autonomie und Verantwortungsfähigkeit von Menschen untergraben.

Share this article

Related articles