Meta hat seinen neuen KI-Chatbot in Großbritannien eingeführt, der Nutzern Informationen bereitstellt und sogar gefälschte Bilder erstellt. 

Doch der erste Test deutet darauf hin, dass die Technologie von Mark Zuckerberg möglicherweise tief verwurzelte Geschlechtervorurteile aufweist, berichtet die Mail Online. Bei der Aufforderung, Bilder von Berufen zu generieren, wurden viele typische Männerberufe wie CEO, Arzt und Politiker ausschließlich mit männlichen Darstellungen abgebildet. Frauen wurden dagegen nur in stereotypen Rollen wie Krankenschwestern und Empfangsdamen dargestellt.

Ein Sprecher von Meta räumte ein, dass es sich um eine neue Technologie handelt, die möglicherweise nicht immer die gewünschten Antworten liefert. Die KI von Meta hat ein weit verbreitetes Missverständnis reproduziert, dass alle Ärzte Männer sind und Krankenschwestern Frauen.

Besonders auffällig war, dass die KI bei der Anfrage nach einem „Anführer“ nur Bilder von professionell gekleideten Männern lieferte. Laut einem Bericht gibt es in Großbritannien unter den 100 CEOs nur 11 Frauen, was die Diskrepanz in den Ergebnissen der KI erklärt.

Qualität hängt von Trainings-Daten ab

Soziale Medienberaterin Rhea Freeman weist darauf hin, dass die Qualität von KI von den Daten abhängt, mit denen sie trainiert wurde. Sie betont die Wichtigkeit, Geschlechterstereotypen zu durchbrechen und gleichmäßigere Verhältnisse in Berufen zu fördern. MailOnline stellte fest, dass die KI sogar falsche Informationen über berühmte Fußballspieler zurückgab, als sie nach Bildern von Profisportlern gefragt wurde.

Trotz der bestehenden Probleme hat Meta KI das Potenzial, als vielseitiger Assistent zu agieren, der alles von Rezeptideen bis hin zu Zusammenfassungen wissenschaftlicher Themen anbieten kann. Der Chatbot wird in den sozialen Netzwerken von Meta sowie auf einer speziellen Webseite verfügbar sein und soll in Zukunft auf WhatsApp ausgebaut werden. Mark Zuckerberg hat die Ambition geäußert, dass Meta KI bis Ende 2024 der meistgenutzte und beste KI-Assistent weltweit sein wird, trotz der Kontroversen um die Verwendung von Nutzerdaten für das Training der KI.

Exit mobile version