Generic filters
Exact matches only
Search in title
Search in excerpt
Search in content
FS Logoi

KI: Ethik ist entscheidend für das Vertrauen der Öffentlichkeit

Kategorie:
Themen: |
Autor: Jonas Völker

62 Prozent der befragten Verbraucher vertrauen Unternehmen mehr, wenn KI-basierte Interaktionen als ethisch wahrgenommen werden. Positive Erfahrungen würden 61 Prozent mit Freunden und Familie teilen, 59 Prozent würden eine höhere Loyalität gegenüber dem Unternehmen empfinden. Jeweils 55 Prozent geben an, sie würden in dem Fall mehr Produkte kaufen sowie gute Bewertungen in den sozialen Medien geben.
Ethische Probleme mit KI haben negative Auswirkungen
Ethische Probleme bei der KI-Interaktion, etwa fehlende Zustimmung zur Datennutzung oder intransparente und verzerrte Ergebnisse, haben negative Auswirkungen: 41 Prozent der Konsumenten würden sich beschweren, 36 Prozent eine Erklärung verlangen. Ein Drittel würde den Kontakt zum Unternehmen abbrechen.
Unternehmen sehen ethische Fragestellungen bei ihren KI-Systemen
In allen befragten Ländern glauben Führungskräfte aus knapp neun von zehn Unternehmen, dass die Nutzung von KI innerhalb der letzten zwei bis drei Jahre ethische Fragen aufgeworfen habe. Zu den Vorkommnissen zählen im Gesundheitswesen etwa das Erheben persönlicher Patientendaten ohne vorherige Zustimmung sowie ein übermäßiges Vertrauen in nicht transparente, maschinell getroffene Entscheidungen bei Banken und Versicherungen.
53 Prozent der Führungskräfte finden es daher wichtig, sicherzustellen, dass KI-Systeme ethisch und transparent sind. 41 Prozent geben an, dass sie den Einsatz von ethisch problematischen KI-Systemen wahrscheinlich beenden würden oder dies bereits getan haben.
Als wichtigste Gründe für ethische Defizite von KI-Systemen nennen Führungskräfte in Deutschland und weiteren Ländern den Druck, KI-Systeme schnell einzuführen sowie Ressourcenmangel und fehlende Berücksichtigung ethischer Standards bei der Einführung von KI-Systemen. Für Datenwissenschaftlicher sind fehlende Richtlinien und Daten die größten Hindernisse, der zeitliche Druck kommt an vierter Stelle.
Verbraucher erwarten neue Regulierungen
Mit 47 Prozent (Deutschland (DE): 42 Prozent) gibt knapp die Hälfte der Befragten an, mindestens zwei Mal innerhalb der letzten zwei bis drei Jahre mit ethisch unzureichenden KI-Anwendungen konfrontiert worden zu sein. Wenn Leistungen KI-unterstützt sind, befürwortet die Mehrheit mehr Transparenz (74 Prozent) und möchte wissen, ob eine KI sie fair und diskriminierungsfrei behandelt (72 Prozent). Drei Viertel der Befragten, beziehungsweise 70 Prozent in Deutschland, sind der Ansicht, dass es weitere Regulierungen für Unternehmen zum KI-Einsatz geben sollte.
„Die Öffentlichkeit ist zunehmend offen für KI-basierte Services, ist sich aber auch der möglichen ethischen Auswirkungen bewusst. Unternehmen stehen an einem Scheideweg: Es wird deutlich, dass es nicht allein um Vorschriften und Compliance geht, sondern ethische Grundsätze vorteilhaft für das eigene Geschäft sein können", so Fabian Schladitz, Leiter des Center of Excellence Künstliche Intelligenz bei Capgemini in Deutschland.
„Unsere Studie zeigt zudem, dass Führungskräfte in Deutschland – neben Großbritannien – bereits heute mehr Vertrauen in ihre KI-Systeme haben als ihre europäischen Kollegen. Zugleich sind die Verbraucher hierzulande prinzipiell genauso offen für den KI-Einsatz wie anderswo. Hierauf aufbauend sollten Unternehmen die passenden Strukturen und einen Wertekanon schaffen, um ethische Aspekte angemessen zu berücksichtigen und darauf achten, dass dies auch während der Entwicklung von KI-Systemen geschieht. Wird KI anschließend eingesetzt, ist es mindestens genauso wichtig, alle Beteiligten über die Interaktionen mit KI umfassend zu informieren und sie zu befähigen, bewusst mit ihr umzugehen.“
Organisationen müssen auf eine ethische KI-Strategie fokussieren
Um die Bedenken zu adressieren und vom Vertrauensbonus eines ethischen KI-Einsatzes zu profitieren, empfiehlt Capgemini einen dreiteiligen Strategieansatz für eine ethische KI, der alle beteiligten Interessengruppen berücksichtigt.

  1. Managementebene, weitere Führungskräfte und für Vertrauen und Ethik zuständige Personen: Etablierung einer Strategie und eines Verhaltenskodex in Bezug auf KI als grundlegende Basis; Entwicklung von Richtlinien für einen akzeptable KI-Einsatz durch Mitarbeiter und Anwendungen; Verlässliche KI-Systeme und die Umsetzung von Organisationsstrukturen, welche ethische Prinzipien berücksichtigen; Aufbau von Teams mit hoher Diversität, um eine umfassende Sensibilität gegenüber ethischen Fragestellungen sicherzustellen.
  2. Personalabteilung, Marketing, Kommunikation, Kundenservice und weitere Teams mit Kontakt zu Kunden und Mitarbeitern: Gewährleistung, dass KI-Anwendungen nach ethischen Prinzipien eingesetzt werden; fortlaufende Aufklärung und Informierung beteiligter Personen, um Vertrauen in KI-Systeme zu schaffen und ihnen mehr Entscheidungsfähigkeit und Kontrolle zu ermöglichen. Vertrauensbildung, indem durch KI hervorgerufene Probleme aktiv intern und extern bekanntgemacht werden.
  3.  Leiter sowie IT-, KI- und Datenteams: KI-Systeme transparent und verständlich umsetzen; Sicherstellung eines umfassenden Datenmanagements, um das Risiko tendenziöser, Ergebnisse verfälschender Daten zu reduzieren; Nutzung technischer Werkzeuge, um Ethik in der KI zu verankern.

Die vollständige Studie kann hier kostenfrei heruntergeladen werden.
Eine passende Infografik mit den wichtigsten Erkenntnissen der Studie gibt es hier.
Wer sich intensiver mit den ethischen Fragen rund KI in der Automatisierungstechnik auseinandersetzen möchte, sollte einen Blick ins atp magazin 6-7/2019 werfen, das Sie kostenlos und unverbindlich Probe lesen können!

atp weekly

Der Newsletter der Branche

Ihr kostenfreier E-Mail-Newsletter für alle Belange der Automatiserung.

Das könnte Sie auch interessieren:

Sie möchten das atp magazin testen

Bestellen Sie Ihr kostenloses Probeheft

Überzeugen Sie sich selbst: Gerne senden wir Ihnen das atp magazin kostenlos und unverbindlich zur Probe!

Finance Illustration 03