Lesetipps -

Lesetipp Technik ohne Tugend?

Ob Pflegeroboter, autonome Fahrzeuge oder Waffensysteme: Wer übernimmt die Verantwortung, wenn Maschinen Entscheidungen treffen? Können technische Geräte im moralischen Dilemma tugendhaft handeln? KI-Forscher Lukas Brand wagt einen Antwortversuch.

Technische Geräte wandeln sich vom bloßen Werkzeug zum selbstständigen Akteur. Möglich macht dies u.a. die wachsende Verfügbarkeit von Daten. Aber damit rücken auch moralische Fragen stärker in den Fokus: Wie soll sich eine autonome Maschine, z.B. ein Pflegeroboter oder ein Auto, in einem moralischen Dilemma verhalten? Wer ist für das Ergebnis einer maschinellen Entscheidung verantwortlich, wenn kein Nutzer oder Hersteller diese Handlung programmiert oder angeordnet hat? Wo sollen autonome Maschinen eingesetzt werden und welche Sicherheitsvorkehrungen müssen getroffen werden?

Diese Fragen versucht KI-Forscher Lukas Brand in „Künstliche Tugend - Roboter als moralische Akteure“ zu beantworten. Die These des 30-Jährigen: Maschinen können Moral erlernen. Durch konkrete Beispiele und klare Begriffsabgrenzungen will er Licht in das moralische Wirrwarr zwischen Technik und Ethik bringen. Denn künstliche Intelligenz birgt Potenzial – nicht zuletzt für den Healthcare Bereich. Um dieses vollumfänglich zu nutzen, müssen jedoch vorher einige Fragen beantwortet werden.

Das Trolley-Problem

Wie verhält sich etwa ein selbstfahrendes Auto, dessen Bremsen versagen, und eine Kollision mit einem Fußgänger nur vermeiden kann, indem es durch ein riskantes Manöver Schaden für die Insassen in Kauf nimmt? Das Dilemma wird nicht dadurch gelöst, indem man die Entscheidung vorwegnimmt und programmiert. Das als „Trolley-Problem“ bekannt gewordenen Gedankenexperiment macht das Spannungsfeld deutlich: Soll eine Maschine auch in kritischen Situationen weiterhin autonom funktionieren, bedarf es einer Routine, die moralisch gute Urteile fällt. Wie aber können die Bedingungen dafür aussehen?

Und selbst dann könnte diese – künstlich ermittelte – „moralisch richtige“ Entscheidung weiterhin in Frage gestellt werden. Sollte man blind der Technik vertrauen oder dem eigenen moralischen Kompass folgen?

KI auf der Intensivstation

Im Gesundheitsbereich ist eine solche KI bereits im Einsatz. Das Computerprogramm „Apache“ analysiert beispielsweise auf Intensivstationen die Überlebenswahrscheinlichkeit von Patienten. Auf dieser Grundlage soll der Arbeitsaufwand der Ärzte optimal eingeteilt werden. Diese computergenerierte Information kann bei der Entscheidung helfen, mit der Behandlung fortzufahren, sie abzubrechen oder zu intensivieren. Zwar liegt das letzte Wort nach wie vor beim behandelnden Arzt, die Vorhersage von „Apache“ beruht jedoch auf einer großen Menge an Vergleichsdaten und tritt in 95 Prozent der Fälle ein. Die Empfehlung der Maschine zu ignorieren, grenze daher an eine Entscheidung wider besseres Wissen.

Fazit

Blind vertrauen oder vorsichtig bleiben? Dieses Buch beschäftigt sich mit den zentralen Problemen der Maschinenethik. Ein Thema, das in der Medizin und Pflege zunehmend an Relevanz gewinnt. Gute Fragen und mögliche Antworten finden Interessierte in diesem Buch.

Zum Autor

Brand hat katholische Theologie studiert und ist aktuell Doktorand am Lehrstuhl für Religionsphilosophie und Wissenschaftstheorie an der Katholisch-theologischen Fakultät der Ruhr-Universität Bochum. Weitere Informationen und Medienberichte über Lukas Brand.

Dieses Buch und weitere Fachbücher können Sie direkt über den Holzmann-Medien-Shop beziehen:
Brand L. (2018) Künstliche Tugend - Roboter als moralische Akteure. Regensburg: Verlag Friedrich Pustet. ISBN: 9783791730165

© hcm-magazin.de 2019 - Alle Rechte vorbehalten
Kommentare
Bitte melden Sie sich an, um Ihren Kommentar angeben zu können.
Login

* Pflichtfelder bitte ausfüllen