Neue Studie: Menschliche Züge bei KI führen zu stärkerer Verantwortungszuschreibung bei moralischen Fehlern

Lesezeit: 2 Minuten
Durch Johannes Müller
- in
Roboter mit menschlichen Zügen vor Waage der Gerechtigkeit.

BerlinNeueste Forschungsergebnisse von Minjoo Joo von der Sookmyung Frauenuniversität zeigen, dass künstliche Intelligenz (KI)-Systeme, die menschlicher wirken, häufiger für Fehler verantwortlich gemacht werden. Die Studie, veröffentlicht in PLOS ONE, hebt hervor, dass die zunehmende Intelligenz und menschliche Verhaltensweise von KI dazu führt, dass Menschen glauben, diese Systeme könnten Entscheidungen besser verstehen und treffen. Dadurch wird KI stärker für Fehler und ethische Probleme zur Rechenschaft gezogen.

Wie Menschen künstliche Intelligenz beurteilen, hängt davon ab, wie menschlich sie diese wahrnehmen. Wenn eine KI als besonders menschenähnlich erscheint, neigen Menschen eher dazu, sie für Fehler verantwortlich zu machen. Das beeinflusst die Wahrnehmung der KI und kann die Verantwortung von den Menschen, wie Entwicklern oder Unternehmen, ablenken. In einer Studie, die Szenarien wie rassistische Fehler der KI beim Fototagging untersuchte, bekam die menschenähnliche KI mehr Schuld zugewiesen als einfachere Systeme.

  • Die wahrgenommene Intelligenz und Fähigkeiten der KI
  • Die Art des moralischen Fehlverhaltens
  • Der Grad der Beteiligung menschlicher Interessensgruppen
  • Diese Erkenntnisse betonen, wie wichtig es ist, das menschliche Verständnis von KI zu erfassen. Zudem werfen sie ethische und praktische Fragen auf. Sobald wir anfangen, KI wie Menschen zu behandeln, besteht die Gefahr, dass wir die Systeme verantwortlich machen, anstatt die Menschen und Organisationen, die sie erschaffen, zur Rechenschaft zu ziehen. Dieses Problem betrifft Bereiche wie Recht, Technologie und Ethik und stellt eine Herausforderung für die bestehenden Vorschriften im Umgang mit KI dar.

    Da KI in Bereichen wie Gesundheitswesen, Transport und Justiz an Bedeutung gewinnt, ist es entscheidend zu klären, wer die Verantwortung trägt, wenn Fehler passieren. Die zentrale Frage lautet: Können KI-Systeme selbst zur Verantwortung gezogen werden, oder sind sie lediglich Werkzeuge derer, die sie geschaffen haben? Ohne klare Richtlinien könnte das Vertrauen in KI schwinden, was die Akzeptanz und Nutzung dieser Technologien im Alltag erschweren würde.

    Entwickler und Entscheidungsträger sollten robuste Systeme errichten, um sicherzustellen, dass KI ehrlich und gerecht eingesetzt wird. Bei Fehlern der KI sollte die Verantwortung angemessen verteilt werden, anstatt sie abzuschieben. Dies wird das Vertrauen der Menschen in KI stärken und deren verantwortungsvollen Einsatz in verschiedenen Branchen fördern.

    Die Studie wird hier veröffentlicht:

    http://dx.doi.org/10.1371/journal.pone.0314559

    und seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet

    Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559

    Wissenschaft: Neueste Nachrichten
    Weiterlesen:

    Diesen Artikel teilen

    Kommentare (0)

    Kommentar veröffentlichen
    NewsWorld

    NewsWorld.app ist der kostenlose Premium-Nachrichtenseite in Deutschland. Wir bieten unabhängige und hochwertige Nachrichten, ohne pro Artikel zu berechnen und ohne ein Abonnementmodell. NewsWorld ist der Ansicht, dass allgemeine, geschäftliche, wirtschaftliche, technische und Unterhaltungsnachrichten auf hohem Niveau kostenlos zugänglich sein sollten. Darüber hinaus ist NewsWorld unglaublich schnell und verwendet fortschrittliche Technologie, um Nachrichtenartikel in einem äußerst lesbaren und attraktiven Format für den Verbraucher zu präsentieren.


    © 2024 NewsWorld™. Alle Rechte vorbehalten.