Technik | Innovation, 19.06.2019
Sind Algorithmen objektiv? Eine Illusion.
Melinda Lohmann, Spezialistin für Informationsrecht, im Interview
Melinda Lohmann ist Assistenzprofessorin für Wirtschaftsrecht, Schwerpunkt Informationsrecht an der Universität St. Gallen. Wir sprachen mit ihr darüber, ob Entscheidungen von Algorithmen objektiver sind als die von Menschen. Und wir sprachen darüber, welche Bedeutung Transparenz im Umgang mit KI hat und ob wir spezielle, rechtliche Rahmenbedingungen brauchen.
Frau Lohmann, dürfte ich Sie bitten, folgende Sätze zu vervollständigen? Meine größte Hoffnung bei künstlicher Intelligenz ist ...
Melinda Lohmann: ... dass sie uns dabei hilft, die drängenden Probleme der Menschheit zu lösen. Ich denke an den Gesundheitsbereich oder an den Bereich Straßenverkehr, wo jährlich 1,3 Millionen Menschen in Folge von Verkehrsunfällen sterben. Und wenn man bedenkt, dass 90 Prozent dieser Unfälle auf menschliches Versagen zurückgehen, dann haben wir ein enormes Innovationspotential in dieser Hinsicht.
Und die größte Angst?
Lohmann: Die größte Angst... Wenn man die Bedenken rund um eine Superintelligenz ernst nimmt, also die Vorstellung, dass wir übertrumpft werden von einer ganz intelligenten künstlichen Intelligenz, dann ist es ein bedrohliches Szenario, was wir ernst nehmen sollten. Kurz bis mittelfristig macht mir Sorgen, dass wir gewisse soziale Ungleichheiten verstärken durch algorithmische Entscheidungssysteme, die von Menschen gemacht sind und mit Daten agieren, die diese Vorurteile enthalten.
Künstliche Intelligenz basiert auf Algorithmen. Sind die Entscheidungen, die von Algorithmen getroffen werden fairer, als die von Menschen?
Lohmann: Ja, das ist eine wichtige Frage. Ich glaube, wir unterliegen da einer Illusion, einer Objektivitätsillusion. Wir denken, weil es aus einer Maschine kommt, einem System, ist es objektiv. Das stimmt natürlich so nicht. Diese Systeme sind von Menschen gemacht, die wiederum selber ihre Vorurteile haben, und ihre Limitationen. Und die Systeme verwenden Daten, die ebenfalls schon gewisse Vorurteile enthalten können. Deswegen denke ich, muss man aufpassen, wenn man sich eben dieser Objektivitätsillusion zu fest hingibt. Aber ich glaube, wenn man gewisse Weichen stellt, dann könnten wir Systeme entwickeln, die wirklich objektiver sind. Auf jeden Fall objektiver als wir Menschen es sind.
Merken wir überhaupt, wenn ein Algorithmus entscheidet? Und vor diesem Hintergrund: Was halten Sie von einer Kennzeichnungspflicht in Richtung "Hier arbeitet künstliche Intelligenz"
oder "Diese Entscheidung wurde mit KI gefällt."?
Lohmann: Das finde ich eine sehr gute Idee, sehr begrüßenswert, weil ich glaube, es ist wichtig, dass gerade Konsumenten wissen, wenn sie mit einer künstlichen Intelligenz interagieren und ich denke auch zur Steigerung des Vertrauens wäre das eine sinnvolle Maßnahme. Auf jeden Fall.
Künstliche Intelligenz kommt in immer mehr Bereichen unseres täglichen Lebens zum Einsatz. Wer haftet eigentlich, wenn der Roboter falsch lernt oder falsche Entscheidungen trifft? Brauchen wir so etwas wie ein Roboterrecht?
Lohmann: Ja, das ist eine spannende Forschungsfrage, die mich sehr beschäftigt und es kommt ganz auf den Kontext an. Was wichtig ist, ist zu bedenken, dass wir immer einen Rechtsrahmen haben. Also eine neue Technologie entsteht ja nicht in einem rechtlichen Vakuum, sondern der geltende Rechtsrahmen ist zu berücksichtigen. Und beispielsweise bei selbstfahrenden Fahrzeugen haben wir ein ziemlich sinnvolles Haftungsregime mit einer verschuldungsunabhängigen Haftung in den meisten europäischen Ländern. Da, denke ich, gibt es nur punktuellen Anpassungsbedarf. Aber gerade, Sie haben es erwähnt, lernfähige Systeme, die vielleicht in einem Setting zum Einsatz kommen, wo nicht ein solches Haftungssystem besteht, da braucht es neue Regeln und da ist man auch dabei schon auf europäischer Ebene sich Gedanken zu machen, wie ein solcher Rechtsrahmen aussehen könnte.
Wer weiß heute eigentlich, was Roboter in zehn Jahren können? Brauchen wir da jetzt schon rechtliche Rahmenbedingungen?
Lohmann: Ja, das ist die grundlegende Frage. Wenn wir Juristen uns mit technischen Phänomenen befassen, dann hinken wir immer hinterher. Die Technik ist immer zehn Schritte voraus. Deswegen macht es Sinn, sich schon proaktiv Gedanken zu machen, zu diesen Fragen. Gleichzeitig dürfen wir nicht in einen blinden Aktionismus verfallen. Es macht keinen Sinn, jetzt schon zu regulieren und übermäßig zu regulieren, weil wir einfach gewisse Entwicklungen noch nicht abschätzen können. Aber es ist auf jeden Fall wichtig, dass wir dran bleiben.
Ganz herzlichen Dank für das Gespräch.
Lohmann: Danke Ihnen.
Quelle: Deutsche Telekom AG
forum future economy
forum Nachhaltig Wirtschaften heißt jetzt forum future economy.
- Zukunft bauen
- Frieden kultivieren
- Moor rockt!
Kaufen...
Abonnieren...
17
DEZ
2025
DEZ
2025
Lunch & Learn: Geschichten & Inspirationen zum Mitmachen
Impulse: Katrin Hansmeier, Basil Merk, Tina Teucher
online
Impulse: Katrin Hansmeier, Basil Merk, Tina Teucher
online
17
JAN
2026
JAN
2026
05
FEB
2026
FEB
2026
Konferenz des guten Wirtschaftens 2026
Veränderung willkommen? Wie Wandel gelingen kann
90475 Nürnberg
Veränderung willkommen? Wie Wandel gelingen kann
90475 Nürnberg
Anzeige
Professionelle Klimabilanz, einfach selbst gemacht
Einfache Klimabilanzierung und glaubhafte Nachhaltigkeitskommunikation gemäß GHG-Protocol
Politik
Zeit - Ressource oder KostenfaktorChristoph Quarchs philosophischer Blick auf Reformstau und notwendige Investitionen in Infrastruktur und Innovationen
Jetzt auf forum:
FNG-Siegel: 25 Fonds der Erste Asset Management mit Bestnote ausgezeichnet
So klappt's mit den Weihnachtsgeschenken – ohne Stress und Schulden
Deutschland hat kein Geldproblem, Deutschland hat ein Skill-Problem
Zuversicht und Inspiration schenken
Ab 14.12.2025 gilt der neue Fahrplan der Deutschen Bahn für 2026
Wie verbessern Skibrillen die Sicht und Sicherheit auf den Pisten















