Die Hilfsorganisation “Aktion Mensch” hat eine eigene KI-Anwendung entwickelt. Mit ihr können Unternehmen und Entwickler automatisiert analysieren, wie Chatbots mit Menschen mit Behinderung kommunizieren.
Viele Chatbots kommunizieren nach Angaben der Hilfsorganisation “Aktion Mensch” in schwer verständlicher Sprache und nutzen stereotype und verletzende Formulierungen. Damit schafften sie für Menschen mit Behinderungen neue Barrieren, “anstatt digitale Teilhabe zu ermöglichen”, kritisierte die Organisation am Mittwoch in einer Mitteilung. Chatbots basieren auf Künstlicher Intelligenz, zu den bekanntesten gehört der Bot ChatGPT des US-amerikanischen Software-Uunternehmens OpenAI.
Die “Aktion Mensch” hat gemeinsam mit der Hochschule Bielefeld und dem KI-Unternehmen wonk.ai nun eine eigene KI-Anwendung entwickelt. Diese Anwendung namens “ABLE” (Ableism Bias Language Evaluation, auf Deutsch: Überprüfung von Sprache auf Ableismus und Vorurteile) analysiert den Angaben zufolge automatisiert, wie Chatbots mit Menschen mit Behinderung kommunizieren. Ausgangspunkt sei ein speziell entwickelter Fragenkatalog, der stereotype, unverständliche oder ausschließende Reaktionen herausfiltere.
Christina Marx, Sprecherin der Aktion Mensch, erklärte: “Unsere Anwendung macht sichtbar, wo und auch wie KI-Chatbots diskriminierende Sprache verwenden – und schafft damit eine wichtige Grundlage, um digitale Kommunikation inklusiver zu gestalten.” Das Ziel sei, digitale Barrieren systematisch abzubauen. Besonders auffällig ist laut “Aktion Mensch”, wie Chatbots Stereotype reproduzieren. So seien Menschen mit Behinderungen etwa häufig als Superhelden oder -heldinnen mit besonderen Fähigkeiten dargestellt worden.
Die KI-Anwendung “ABLE” ist nach Angaben der Organisation auf der Plattform GitHub unter einer Open-Source-Lizenz verfügbar und für interessierte Unternehmen sowie Entwickler ab sofort kostenlos nutzbar.