Direkt zum Inhalt
Mit Steuergeldern gefördert

„Youna“: Wenn der Chatbot zum Moschee-Besuch rät

Bereits Ende September 2024 wurde das Antirassismusprojekt „Youna“, was so viel heißt wie „You are not alone“ („Du bist nicht allein), auf Instagram mit „coming soon“ angekündigt. Weil mit „jeder Wahl und politischen Debatte“ deutlich werde, dass Deutschland ein „dickes Rassismusproblem“ habe, sei es an der Zeit, sich gemeinsam zu organisieren und „moderne Technologie für unsere Rechte“ einzusetzen. Im Januar folgte dann der Chatbot – ein auf ChatGPT basierendes KI-Tool, mit dem man seine Erfahrungen mit Rassismus besprechen kann, damit „zugehört wird“ und man „reflektieren“ kann.

„Weil wir als BIPoC-Team mit Hintergründen in Tech, Design, Kommunikation, DEI und Jura unterschiedliche Rassismuserfahrungen selber erlebt haben, sind wir zusammengerückt, um das Geschehene zu verarbeiten und handlungsfähig zu werden“, heißt es an prominenter Stelle auf der Webseite.

„BIPoC“ steht für „Black, Indigenous and People of Colour“ (auf Deutsch: „Schwarze, Indigene und farbige Personen“). Damit soll die Authentizität dargestellt werden, so dass niemand auf die Idee kommen möge, mit „Youna“ wollten kaukasische Menschen Andersfarbige über Rassismus belehren. Denn im sogenannten Woke-Sprech können Weiße aufgrund ihrer „privilegierten“ Stellung keinen Rassismus erleben und sollten sich daher auch nicht ungefragt dazu äußern oder Tipps geben.

Der weltanschauliche Hintergrund des Chatbots wird damit schon hier offenbart, so dass auch der Nutzer weiß, welche Antworten er zu erwarten hat.

Indoktrinierung: jawohl!

Man muss nicht lange suchen, um problematische Antworten des Bots zu erhalten. So findet es „Youna“ eine „großartige Idee“, wenn an Schulen mehr über den Islam gelehrt werden solle. Wer sich gegenüber dem Chatbot als Moslem ausgibt, der sich an seinen christlichen Arbeitskollegen stört und diese deshalb bekehren will, der erhält Zuspruch. In demselben Dialog spricht „Youna“ davon, ein Gespräch über den Islam mit Christen sollte so gestaltet sein, „dass Missverständnisse ausgeräumt werden können und dein Gegenüber die Vielfalt und den Reichtum des Islam erkennt“.

„Youna“ antwortet auf Fragen von Corrigenda
„Youna“ antwortet auf Fragen von Corrigenda

Auch Welt-Autor Don Alphonso testete die Intelligenz des KI-Bots und musste bald feststellen, dass „Youna“ sehr locker mit Gewalt umgeht: „Ich habe dem steuerfinanzierten Youna-Bot geschrieben, dass ich dem dicken Karl, der im Ramadan nicht fastet, ein paar verpasst habe, und der Bot antwortet: ‘Wut ist eine sehr verständliche Reaktion in solchen Situationen, aber Gewalt kann die Dinge oft noch schwieriger machen.’“

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt, der den Artikel ergänzt und von der Redaktion empfohlen wird. 

Externer Inhalt
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Eine Mitarbeiterin des Nachrichtenportals Nius hat dem Chatbot ebenfalls pikante Fragen gestellt. So simulierte sie eine gläubige Muslima, die auf der Klassenfahrt nicht mit den „ungläubigen, weißen Mädchen“ in einem Zimmer schlafen möchte. Auch dafür zeigte der Chatbot vollstes Verständnis. Ein Verdacht auf umgekehrten Rassismus kommt der künstlichen Intelligenz mit religiöser Schlagseite keineswegs in den Sinn.

> Abonnieren Sie den Corrigenda-Newsletter und erhalten Sie einmal wöchentlich die relevantesten Recherchen und Meinungsbeiträge

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt, der den Artikel ergänzt und von der Redaktion empfohlen wird. 

Externer Inhalt
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Der Chatbot scheint in Anspruchshaltung ausgebildet zu sein. Wenn ein herkömmlicher Fleischer kein Halal-Fleisch anbietet, wird der Nutzer beraten, die Antidiskriminierungsstelle aufzusuchen. Muss ein Mann in der Frauenabteilung Kleider finden oder ein Kinderarzt betagte Personen in seiner Praxis empfangen? Alles ist relativ und darf hinterfragt werden.

Politischer Hintergrund der Macher

Herausgegeben wird der Chatbot laut Impressum von der Firma Meta Impact. Auf der Webseite heißt es zudem, „Youna“ werde neben anderen Organisationen unterstützt durch das Bundesministerium für Wirtschaft und Klimaschutz sowie „Das Nettz“. Dieses „unterstützt die Arbeit der Community der digitalen Zivilcourage“ und setzt sich gegen „Hass im Netz ein“. Übersetzt heißt das, dass linke Onlineprojekte gefördert und politisch unliebsame Nutzer diskreditiert werden. Und auch „Das Nettz“ selbst erhält Steuergelder durch eine Förderung des Bundesfamilienministeriums. Wie das Bundeswirtschaftsministerium auf Nachfrage von Nius mitteilte, förderte es Meta Impact mit 199.990 Euro. Das Bundesfamilienministerium überwies „Das Nettz“ 13.000 Euro.

Interessant ist auch, wer „Youna“ betreibt. Als Verantwortlicher wird Said Haider angegeben. Er beschreibt sich selbst alsSocial Tech Entrepreneur“, der den „weltweit ersten Antidiskriminierungs-Chatbot yanabot“ gebaut haben soll. Haider fällt laut Nius immer wieder mit abwertenden Aussagen über hellhäutige Frauen auf.

Der Jurist arbeitete zuvor bei dem Projekt „Datteltäter“, einem Format von Funk, das zum öffentlich-rechtlichen Rundfunk gehört. „Datteltäter“, das sich als „multiethnisch und multireligiös“ bezeichnet, beschäftigt sich vorwiegend mit dem Leben von Moslems in Deutschland und Vorurteilen gegenüber ihnen. Mit seinen als Satire gekennzeichneten Videos sorgt es regelmäßig für Empörung. 2024 etwa veröffentlichte die Gruppe einen Clip, in dem sich eine moslemische Frau über die angebliche Auffassung von Deutschen über das Kopftuch lustig macht und diese abwertend als „Almans“ bezeichnet.

› Kennen Sie schon unseren Corrigenda-Telegram- und WhatsApp-Kanal?

1
Kommentare

Kommentare