Das Online-Gesellschaftsmagazin aus Frankfurt am Main

Letzte Aktualisierung: 17.06.2021

Werbung
Werbung

Entscheidungshilfen in der Pandemie

Studie zeigt grundsätzliche Zustimmung zu Algorithmen

von Simone Falk von Löwis of Menar

(07.06.2021) In der Coronakrise mussten viele Entscheidungen mit weitreichenden Konsequenzen getroffen werden. Algorithmen hätten dabei helfen können. Forscherinnen des Leibniz-Instituts für Wissensmedien (IWM) in Tübingen fanden nun heraus: Bürger haben nichts dagegen einzuwenden, wenn Verantwortliche auf Ratschläge algorithmengestützter Systeme zurückgreifen – vorausgesetzt ein Mensch hat das letzte Wort.

Grundsätzlich besteht Offenheit gegenüber einer Mensch-Algorithmus-Zusammenarbeit - solange der Mensch das letzte Wort hat. Das ergab eine Studie unter der Leitung von Prof. Dr. Sonja Utz vom Leibniz-Institut für Wissensmedien (IWM).
Foto: IWM Tübingen, Paavo Ruch
***

Wer bekommt ein Beatmungsgerät? Welche Personengruppen sind von Ausgangssperren betroffen? Welche Betriebe erhalten finanzielle Unterstützung? Zahlreiche solcher Fragen mussten während der Corona-Pandemie von Regierungen, Ärzten oder Sachbearbeiternbeantwortet werden. Algorithmen, die in solchen Fällen durch eine sekundenschnelle Auswertung riesiger Datensätze Wahrscheinlichkeiten berechnen und dadurch unterstützen könnten, sind in vielen Fällen bereits entwickelt und könnten schon bald angewendet werden. Bisher war jedoch unklar, wie die Bevölkerung der Unterstützung durch Algorithmen bei schwierigen Entscheidungen gegenübersteht.

Dürfen Softwaresysteme mitentscheiden?

Die Tübinger Forscherinnen untersuchten daher in Zusammenarbeit mit der Albert-Ludwigs-Universität Freiburg, wie sich situationsbedingte Merkmale sowie individuelle Charakteristika der Probanden auf die Präferenz verschiedener Varianten der Mensch-Algorithmus-Zusammenarbeit auswirkten. Den Teilnehmenden wurden verschiedene Szenarien vorgegeben, in denen Entscheidungen zu treffen waren. Dabei war die Verteilung von Beatmungsgeräten an COVID-Erkrankte das folgenschwerste Szenario.

Entscheidungen über die Gewährleistung finanzieller Unterstützung oder den Erlass von Ausgangsbeschränkungen wurden als weniger moralisch angesehen. „Grundsätzlich standen die Personen einer Mensch-Algorithmus-Zusammenarbeit positiv gegenüber – solange der Mensch das letzte Wort hat. Je moralischer allerdings die zu treffende Entscheidung war, desto geringer die Bereitschaft, Algorithmen mitbestimmen zu lassen“, erklärt Prof. Dr. Sonja Utz. Die IWM-Wissenschaftlerin leitete im Rahmen des Tübinger Exzellenzclusters „Maschinelles Lernen: Neue Perspektiven für die Wissenschaft“ die Studie.

Entscheiden oder betroffen sein – Algorithmen-Akzeptanz variiert

Eine weitere wichtige Erkenntnis ergab sich aus der unterschiedlichen Perspektive, welche die Versuchsteilnehmenden einnehmen mussten. So sollten sie sich entweder in die Rolle der entscheidenden oder der vom Beschluss betroffenen Person versetzen. Für das moralischste der drei Szenarien war ein deutlicher Effekt erkennbar. „In der Rolle eines Arztes waren die Probanden eher bereit, sich bei der Entscheidungsfindung eine erste Einschätzung durch einen Algorithmus geben zu lassen, als wenn sie die Rolle eines Patienten einnahmen, über die bzw. den entschieden werden sollte“, so Prof. Sonja Utz.

Neben diesen situativen Besonderheiten wurde auch eine Reihe persönlicher Faktoren erfasst: Wie stark etwa die Teilnehmenden etablierte gesellschaftliche Konventionen befolgten, wie ausgeprägt ihr Bedürfnis nach politischer Führung in Krisen und wie umfassend ihr Vorwissen zu Algorithmen war. Hier konnten die Forscherinnen nachweisen, dass ein größerer Hang der Menschen zu gesellschaftlichen Konventionen in einer geringeren Zustimmung zum Einfluss von Algorithmen resultierte. Interessanterweise ging ein stärkeres Bedürfnis nach Führung in Krisen mit einer höheren Akzeptanz von Algorithmen einher. Ebenso bedingten eine positivere Einstellung zu und ein höheres Wissen über Algorithmen die Zustimmung zu algorithmengestützten Entscheidungen.

Die Erkenntnisse aus der Untersuchung wurden vergangene Woche auf einer internationalen Forschungskonferenz präsentiert. Sie können der Politik künftig helfen, zu erkennen, unter welchen Bedingungen algorithmenbasierte Entscheidungen von der Bevölkerung akzeptiert werden würden. Zudem können die Studienergebnisse dabei unterstützen, die Zielgruppen von Aufklärungskampagnen über Algorithmen festzulegen.